Konten dari Pengguna

AI dalam Penelitian Klinis: Antara Efisiensi dan Akuntabilitas

Alan Munandar

Alan Munandar

Diaspora Indonesia di Belgia. Clinical Research Associate & Renal Care Educator. Menulis di media tentang kesehatan, teknologi, komunikasi, bisnis kesehatan, dan kisah perjalanan. Menjembatani sains, cerita, dan pengalaman lintas benua.

·waktu baca 2 menit

comment
0
sosmed-whatsapp-white
copy-circle
more-vertical

Tulisan dari Alan Munandar tidak mewakili pandangan dari redaksi kumparan

Photo by National Cancer Institute on Unsplash
zoom-in-whitePerbesar
Photo by National Cancer Institute on Unsplash

Sudah beberapa tahun terakhir, klaim tentang kecerdasan buatan dalam riset klinis terdengar serupa: lebih cepat, lebih akurat, lebih efisien. Dan sebagian dari klaim itu memang benar. Tapi ada juga bagian yang sengaja tidak diceritakan.

Di sisi yang benar-benar menjanjikan, AI memang membantu mempercepat proses yang selama ini memakan waktu luar biasa. Kajian sistematis menunjukkan bahwa AI memangkas biaya, mempersingkat waktu pengembangan obat, dan meningkatkan kemampuan prediksi dalam uji klinis (Ullah & Ali, 2025). Platform seperti AlphaFold dari DeepMind berhasil memprediksi struktur protein dengan akurasi tinggi, membuka wawasan baru tentang interaksi protein-ligan yang selama ini sulit diakses (Serrano et al., 2024).

Tapi ada yang mengganggu saya setiap kali membaca laporan tentang ini.

Penelitian klinis bukan sekadar soal kecepatan. Ada hierarki kepercayaan yang dibangun selama puluhan tahun, mulai dari desain protokol, blind review, hingga pengawasan komite etik. Ketika AI masuk ke dalam proses ini, pertanyaan etisnya bukan hanya “apakah hasilnya akurat?” tapi “siapa yang bertanggung jawab kalau hasilnya salah?”

Ini bukan pertanyaan retoris. Sebuah tinjauan terhadap uji klinis AI yang terdaftar di ClinicalTrials.gov menemukan bahwa dari 627 studi, hanya 1% yang teridentifikasi sebagai publikasi, sementara jumlah studi dengan hasil negatif yang tidak dipublikasikan tetap tidak diketahui, sebuah ancaman nyata terhadap validitas interpretasi bukti ilmiah (Han et al., 2024). Kajian lain menemukan bahwa 50% model AI dalam kesehatan menunjukkan risiko bias tinggi, sering disebabkan oleh data sosiodemografis yang tidak lengkap atau desain algoritma yang lemah (Hasanzadeh et al., 2025).

Yang lebih membingungkan adalah soal transparansi. Sifat black box AI menghambat kepercayaan pengguna, deteksi kesalahan, dan akuntabilitas, terutama dalam skenario pengambilan keputusan kritis seperti diagnosis medis (Hassan et al., 2025). Dalam etika medis, justifikasi penggunaan AI opak seharusnya bergantung pada banyak faktor kontekstual, bukan sekadar performa prediktif semata (Prince & Savulescu, 2025). Dalam tradisi sains, meminta komunitas ilmiah mempercayai output tanpa bisa memverifikasi prosesnya adalah masalah mendasar.

Regulasi pun berjalan tertinggal. Hanya 19% uji klinis acak di bidang AI medis yang diterbitkan setelah 2021 mencantumkan panduan pelaporan CONSORT-AI, menunjukkan sulitnya adopsi standar transparansi di lapangan (Morone et al., 2025). Di banyak negara, termasuk Indonesia, belum ada panduan spesifik sama sekali.

Yang perlu terjadi sekarang bukan hanya adopsi, tapi juga critical literacy, yakni kemampuan peneliti klinis untuk memahami apa yang AI bisa dan tidak bisa lakukan, kapan hasilnya perlu dipertanyakan, dan bagaimana mendokumentasikan penggunaannya secara transparan. Data tentang integritas AI saat ini masih dipertanyakan karena minimnya penelitian bebas bias, dan studi ke depan perlu difokuskan pada uji acak terkontrol untuk mengeliminasi risiko tersebut (Ullah & Ali, 2025).

AI dalam clinical research bukan masalah pro atau kontra. Itu soal apakah kita cukup dewasa sebagai komunitas ilmiah untuk menggunakannya dengan serius, bukan sekadar menggunakannya dengan cepat.