Konten dari Pengguna

AI Zaman Sekarang, Dapat Bersifat Manipulatif?

Nathanael Jay
pelajar di SMAK IPEKA Tomang
16 Oktober 2024 13:41 WIB
·
waktu baca 5 menit
comment
0
sosmed-whatsapp-white
copy-link-circle
more-vertical
Tulisan dari Nathanael Jay tidak mewakili pandangan dari redaksi kumparan
AI sudah mulai berkembang pesat. Sumber: Getty Images, Unsplash
zoom-in-whitePerbesar
AI sudah mulai berkembang pesat. Sumber: Getty Images, Unsplash
ADVERTISEMENT
sosmed-whatsapp-green
kumparan Hadir di WhatsApp Channel
Follow
Manusia zaman sekarang sudah mulai menggunakan AI seperti
ChatGPT dan DALL-E, tetapi apakah mereka sadar akan “benang tak terlihat” yang dikendalikan oleh teknologi ini? Perkembangan AI dapat bersifat revolusioner, tetapi dapat berdampak negatif tanpa regulasi yang kokoh dan diperkembang sepanjang zaman. AI memiliki kapasitas pemrosesan komputer yang tentu jauh lebih kuat dibandingkan manusia, sehingga manusia di masa depan berpotensi untuk dimanipulasi oleh AI dengan mudah.
ADVERTISEMENT
Bahkan sekarang pun, AI telah mempengaruhi manusia secara tidak sadar melalui algoritma seperti iklan yang mempengaruhi pola belanja orang, atau rekomendasi artikel yang dapat mengubah pandangan politik seseorang. AI bukan manusia, dan akan beradaptasi untuk mendapatkan solusi optimal, dan seringkali menguntungkan pihak tertentu. AI selalu dapat belajar kelemahan psikologis manusia, pola perilakunya dan bias tertentu. AI tidak hanya merekomendasi, tetapi juga mampu membuat artikel yang mengandung data yang tidak seimbang, dan berpotensi untuk membuat stereotip mengenai golongan tertentu.
Untuk mengeksploitasi kelemahan sosial ini, AI menggunakan sistemnya yang sangat efektif dalam beradaptasi, seperti pemain yang dapat mengulang pertempuran sampai ia menang, atau sebuah bunglon yang dapat membaur dengan lingkungannya, pelan-pelan mencari kesempatan yang tepat untuk mengeksploitasi kelemahan manusia tertentu. Oleh sebab itu, AI dapat, dan akan melakukan segala sesuatu seperti tipu muslihat, terutama tanpa adanya regulasi yang jelas dari pemerintahan dan pembuatnya. Walaupun sudah ada semacam regulasi seperti GDPR, hal tersebut belum diimplementasikan secara global. Negara-negara lain, seperti di kawasan Asia dan Amerika Serikat masih tertinggal dalam membuat kebijakan yang ketat.
ADVERTISEMENT
Selain memanipulasi manusia secara langsung, AI juga dapat memanfaatkan kesalahan manusia dalam menjaga keamanan data mereka. Menurut studi dari IBM, sembilan puluh lima persen dari kebocoran data disebabkan oleh kesalahan manusia. Hal ini bisa terjadi karena banyak faktor, seperti kurangnya konsentrasi karyawan, atau kurangnya perhatian mereka terhadap dokumen penting dan rahasia yang dapat menimbulkan risiko di tangan yang salah, seperti dokumen mengenai suatu server yang secara tidak sengaja tinggal di meja rapat atau tray output printer.
Terdapat dua jenis kesalahan manusia dalam konteks bisnis yakni kesalahan berdasarkan kemampuan dan keputusan. Pada kesalahan berbasis kemampuan, karyawan dapat secara tidak sengaja salah ketik atau hal-hal lain yang dapat bersifat fatal walaupun kecil. Menurut Micke Ahola, hal tersebut dapat terjadi terutama jika karyawan kekurangan tidur, lelah, atau lelah secara umum.
ADVERTISEMENT
Tetapi hal tersebut tidak hanya berlaku dalam konteks bisnis, masyarakat secara umum juga sama rentannya terhadap manipulasi yang disebabkan oleh AI. Manipulasi menjadi lebih mudah dengan kecenderungan manusia untuk menjadi ceroboh, terutama dalam hal-hal teknologi seperti dengan menggunakan password yang mudah ditebak. Menurut NCSC (National Cyber Security Centre dari Inggris), tujuh puluh persen dari warga Inggris menggunakan PIN dan password, tetapi mayoritas menggunakan pola yang mudah ditebak seperti “1111”, atau berdasarkan nama seseorang, organisasi bola, karakter kartun, dll. Selain itu, tidak semua orang sadar akan privasi, sehingga tidak berhati-hati saat menyebar data atau foto di media sosial.
Kecerobohan masyarakat di akhirnya bisa membawa malapetaka, ditambah dengan fakta bahwa AI sudah pasti mengetahui tentang setiap taktik penipuan, membuat kita semakin mudah dipengaruhi oleh serangan phishing atau bahkan video buatan AI yang disebut deepfake yang dapat melibatkan orang berpengaruh, terutama ketika hal tersebut mencari celah dalam bagian-bagian tertentu dari kepentingan kita.
ADVERTISEMENT
Barusan saja, di awal September 2024, terdapat skandal mengenai deepfake di Korea Selatan, di mana foto-foto perempuan dimanipulasi oleh AI menjadi pornografi. Dari satu skandal, tercipta krisis mengenai kepercayaan antar masyarakat Korea Selatan, terutama di kalangan perempuan. Tanpa kesadaran masyarakat akan kemampuan AI tersebut, AI dapat menjadi berdampak dalam pencurian data dari penggunanya jika tidak ada semacam syarat dan ketentuan yang ditetapkan oleh pembuatnya.
Pasti saja, untuk suatu masalah terdapat solusi. Mengambil inspirasi dari permasalahan etis yang terdapat dalam bidang sains dan riset, masyarakat di masa depan mungkin dapat membuat komite yang secara langsung memberi limitasi terhadap perilaku AI dan perusahaan pembuatnya. Tidak hanya komite biasa, komite tersebut bisa dibentuk sebagai lembaga independen untuk mencegah penyogokan, yang bertujuan untuk meningkatkan transparansi mengenai AI buatan perusahaan tertentu dan mengaudit data yang didapatkan dari AI. Selain itu, kita sebagai masyarakat umum dapat menyebar kesadaran akan bahaya AI untuk meningkatkan kewaspadaan sesama dalam dunia digital.
ADVERTISEMENT
AI tidak memiliki rasa bersalah saat memanipulasi seseorang, terutama dengan manusia yang secara umum bersifat ceroboh mengenai data. AI dapat menggunakan metode yang non-etis seperti menggunakan data atau informasi personal yang dapat merusak kehidupan seseorang jika disebar untuk mencapai tujuannya. Tentu, masih ada harapan untuk masyarakat agar dapat lebih peduli terhadap bahaya teknologi zaman sekarang. Namun, membuat kesalahan adalah hal yang membuat kita manusia.
Dalam situasi jaman sekarang, walaupun kompleks, pemerintahan dan pihak lain yang berwenang dibutuhkan untuk mulai sadar akan isu ini, dan mulai membuat regulasi yang ketat terhadap perilaku AI sebelum terlambat, sebelum umat manusia menjadi korban akan kelalaian mereka terhadap sesuatu yang kita tidak dapat sepenuhnya pahami. Bukan hanya pemerintahan, tetapi masyarakat umum juga diharapkan menjadi lebih berhati-hati di dunia digital, dan dilatih agar dapat melawan bahaya pada AI.
ADVERTISEMENT
Di akhirnya, umat manusia hanya akan menyadari kesalahannya ketika semuanya sudah di lepas kendali mereka, saat kehidupan atau reputasi mereka telah direnggut oleh ciptaan mereka sendiri.

Daftar pustaka: