Mengkhawatirkan Kecerdasan Buatan dengan Etika

Certified Data Protection Officer dan Analis Hukum pada Indonesia Digital and Cyber Institute (IDCI)
·waktu baca 4 menit
Tulisan dari Esperanza Luna Primero tidak mewakili pandangan dari redaksi kumparan

Kecerdasan Buatan (AI) bergerak maju dengan begitu pesat baik dari sisi masifnya investasi pengembangan maupun dari sisi skala pemanfaatan. Kepesatan ini telah berlangsung kontingen sejak satu dekade lampau, dimulai saat tahun 2012 Google menggarap jaringan netral yang dapat mengidentifikasi seekor kucing dari thumbnailsvideo youtube.
Tiga tahun setelahnya, Elon Musk, bersama Stephen Hawking, mengirimkan petisi dukungan terhadap senjata otonom (nirawak) untuk kepentingan perang. Pada 2016, muncul robot Sophia yang mirip dengan manusia secara paras, kemampuan emosi, juga komunikasi. Setelahnya, susul-susulan terjadi antara Facebook, Alibaba, Google lagi, dan OpenAI.
Brad Stone, editor di Bloomberg Businessweek, menulis terkait betapa cepat perkembangan AI sampai-sampai manusia belum sempat menyadarinya. Stone tidak sebatas menyoroti perkembangan AI, alih-alih dia mengkuatirkan skala dampak yang melampaui imajinasi manusia yang dapat dibawa oleh AI.
Stone menyebut satu jenis AI, agentic AI, yang ditengarai dapat melaksanakan perintah penggunanya dengan minim pengawasan. Istilah yang digunakan ialah ‘juggernauts’, semacam menunjuk AI sebagai power yang dapat menggilas apa saja. AI, baginya, berisiko untuk digunakan sebagai senjata mematikan (deadly weapon) yang dapat mengorbankan pihak-pihak yang tidak siap.
Katastrofe Muncul Akibat Nir-etika
Sementara kesadaran manusia hendak dibangun, AI justru meluncur jauh meninggalkan. Jika ditujukan untuk maksud yang baik, AI bermanfaat membantu proses pencapaian tujuan dengan efisien. Jika intensinya destruktif, maka yang akan terjadi adalah katastrofe, yang dikuatirkan, sekali lagi, muncul tanpa disadari manusia.
Simptom dari katastrofe dimaksud sebenarnya sudah tampak ketika AI digunakan sebagai enabler penciptaan konten dengan kilat. Konten yang dihasilkan dari AI (AI-generated content) menang jumlah secara kuantitas. Ini tentu mengandung ekses berupa penegasian kreasi seni dari “tangan manusia” yang proses kreatifnya lebih memakan waktu.
Tidak hanya soal kuantitas yang berubah menjadi keutamaan, bahkan ketika hak kreator seni itu telah dilindungi hukum hak kekayaan intelektual, (pengguna) AI tidak ambil pusing. Hayao Miyazaki, co-founder Studio Ghibli, menggambarkan konten dari AI sebagai ‘ignoring the real feeling of humans.’ Baginya, ini menjijikan dan penghinaan terhadap hidup. Kata-kata Miyazaki mungkin dapat diperhalus: bahwa AI dan penggunaannya menjadi nir-etika.
Etika Dikonversi Menjadi Regulasi
Etika memiliki banyak definisi. Dalam definisi teoretis, trajektori pikiran soal etika dapat diurut jauh hingga ke Plato, atau bahkan kepada pemikir sebelumnya. Dalam definisi praksis, etika dapat dirangkum menjadi satu kata: phronesis. Phronesis adalah kata asing yang terdengar mewah, tetapi sebenarnya ini sederhana. Phronesis adalah tentang mengapa sesuatu penting dilakukan.
Phronesis merupakan bagian etika yang secara praksis mendasari bagaimana seharusnya perbuatan seseorang dalam peri kehidupan, saat mengimplementasikan pengetahuan, menyerap ilmu pengetahuan, bahkan saat menjadi bijaksana. Phronesis ini menyoal kehati-hatian yang menjadi justifikasi awal perbuatan dan tujuan perbuatan. Sehingga, ketika harus berbuat, tidak muncul kerusakan.
Idealisme berupa etika dalam diskursus AI tidak dibiarkan menjadi suara lantang di padang gurun. Regulator di banyak negara mengkonversi nilai etika menjadi nilai etika positivistis (aturan hukum). Di Uni Eropa, dalam Regulation 2024/1689 tentang AI, terdapat tujuh prinsip etika penggunaan AI: (diberikan) pengawasan manusia, aman dan andal secara teknis, melindungi privasi dan tata kelola data, transparan, menghormati diversitas, adil dan non-diskriminatif, peka kepentingan sosial dan lingkungan hidup, serta akuntabel (Recital 27).
Di China, sama. Dalam AI Law China, prinsip etika di elaborasi dalam subnorma yakni penghormatan terhadap kebebasan dan martabat manusia, mendorong kesejahteraan manusia, serta penjaminan atas kepentingan publik. Lebih jauh, prinsip etika dalam pemanfaatan AI harus mengedepankan etika sosial, etika bisnis, dan etika profesional (Pasal 3 dan Pasal 8 AI Law).
Dalam hal nilai etika yang telah dikonversikan dalam aturan hukum ini lantas masih menimbulkan kegamangan-misalnya konteks Uni Eropa, apa bentuk konkret dari ‘non-diskriminatif’, atau misalnya konteks China, apa bentuk konkret dari ‘menghormati martabat manusia’- maka kedua negara tersebut telah menyediakan departemen pengawas yang akan memberikan petunjuk.
Tidak Uni Eropa atau pun China berkehendak untuk mengantagonisasi AI. Justru, perengkuhan nilai etika di dalam regulasi kedua negara ini bertujuan agar AI menjadi AI yang kredibel (trustworthy AI, dalam Recital 1 EU AI Law) serta untuk memfasilitasi pengembangan AI secara sehat (to facilitate the healthy development of the AI industry, Pasal 1 China AI Law).
