Kode Moral Kecerdasan Buatan

Ricky Suwarno
CEO dan Pendiri Karoomba Asia. Anggota Asosiasi untuk Kecerdasan Buatan China (CAAI)
Konten dari Pengguna
15 April 2019 11:49 WIB
comment
0
sosmed-whatsapp-white
copy-link-circle
more-vertical
Tulisan dari Ricky Suwarno tidak mewakili pandangan dari redaksi kumparan
Kode moral tentang kecerdasan buatan adalah manusia diatas segalanya, bisa diandalkan, dan stabil berkelanjutan. Foto: shutterstock
zoom-in-whitePerbesar
Kode moral tentang kecerdasan buatan adalah manusia diatas segalanya, bisa diandalkan, dan stabil berkelanjutan. Foto: shutterstock
ADVERTISEMENT
Baru-baru ini Komisi Eropa mengeluarkan pedoman etik atau kode moral tentang pengembangan kecerdasan buatan alias AI. Kode moral ini dirancang oleh kelompok pakar Uni Eropa.
ADVERTISEMENT
Kelompok pakar ini didirikan pada tahun 2018, dan terdiri dari 52 ahli independen di bidang akademik, industri, dan masyarakat sipil. Tugas mereka adalah menulis kode etik kecerdasan buatan, serta memberikan kebijakan dan saran investasi kepada UE di bidang teknologi ini.
Kode etik baru ini menunjukkan bahwa kecerdasan buatan yang bisa diandalkan, harus memenuhi tujuh elemen berikut. Pertama, pastikan mobilitas dan pengawasan manusia. Sistem kecerdasan buatan harus mendukung inisiatif serta hak-hak dasar manusia. Bukannya mengurangi, membatasi, atau salah mengarahkan pemerintahan oleh manusia sendiri.
Kedua, algoritma kecerdasan buatan harus cukup aman, bisa diandalkan, dan stabil berkelanjutan.
Ketiga, dalam manajemen privasi dan data, manusia harus memiliki kontrol penuh atas data mereka sendiri. Data yang relevan secara pribadi tidak boleh digunakan untuk membahayakan atau mendiskriminasi manusia yang lain.
ADVERTISEMENT
Keempat, untuk transparansi, sistem kecerdasan buatan harus dapat dilacak.
Kelima, sistem kecerdasan buatan harus memperhitungkan jangkauan kemampuan dan keterampilan manusia yang beraneka ragam. Tidak boleh ada unsur diskriminatif dan harus adil.
Keenam, sistem kecerdasan buatan harus berkontribusi pada keberlanjutan manusia, dan harus memikul tanggung jawab secara ekologis.
Ketujuh, sistem kecerdasan buatan harus memiliki mekanisme pertanggungjawaban dan bertanggung jawab atas konsekuensinya sendiri.
Ilustrasi kecerdasan buatan. Foto: Gerlat/Pixabay
Sikap pejabat Uni Eropa sangat jelas, bahwa etika kecerdasan buatan tidak boleh menjadi fitur mewah atau fungsi lampiran. Karena hanya ketika orang mempercayai teknologi, masyarakat baru dapat sepenuhnya memperoleh manfaat dari teknologi.
Selanjutnya, Uni Eropa berharap untuk mempromosikan pengembangan kecerdasan buatan, yang bisa diandalkan melalui langkah seperti, mengembangkan persyaratan utama, memulai pilot skala besar tentang AI, dan membangun konsensus internasional tentang 'kecerdasan buatan yang berpusat pada manusia'.
ADVERTISEMENT
So, just like grandma says, seperti komentar media teknologi AS 'The Verge' Uni Eropa ingin menjadi pemimpin di bidang 'etika atau moralitas kecerdasan buatan'. Alasan utama, karena dalam hal investasi, penelitian, serta teknologi pengembangan kecerdasan buatan, UE tidak mampu lagi bersaing dengan AS, terutama China.
Oleh karena itu, mereka memilih untuk membentuk masa depan teknologi melalui etika dan moral. Di mana menurut saya, UE hanya menekankan keberadaannya dalam teknologi baru ini. Di mana sebenarnya, mereka tidak punya hak suara dalam AI, karena hak suara selalu di pegang oleh negara dengan kemampuan teknologi maupun pasar ini.
Untuk mempelajari lebih lanjut tentang perkembangan teknologi terkini, bisa menelusuri: https://artificialintelligenceindonesia.com/