Elon Musk Teken Petisi agar Pengembangan AI Disetop Sementara, Berbahaya?

1 April 2023 9:46 WIB
·
waktu baca 4 menit
comment
4
sosmed-whatsapp-white
copy-link-circle
more-vertical
CEO Tesla dan SpaceX, Elon Musk. Foto: Joe Skipper/Reuters
zoom-in-whitePerbesar
CEO Tesla dan SpaceX, Elon Musk. Foto: Joe Skipper/Reuters
ADVERTISEMENT
OpenAI baru saja meluncurkan kecerdasan buatan (AI) generatif terbarunya, GPT-4. AI ini dapat menyelesaikan pertanyaan lebih akurat dibanding pendahulunya, GPT-3.5, yang menjadi basis ChatGPT. GPT-4 juga dan menerima input gambar dan memahami konteks gambar tersebut.
ADVERTISEMENT
Tak dipungkiri, kemajuan signifikan ini (yang disebut mendekati Artificial General Intelligence) membuat banyak pihak khawatir.
Elon Musk, bersama dengan Steve Wozniak (pendiri Apple), Yuval Noah Harari (penulis), dan banyak tokoh lainnya menandatangi sebuah surat terbuka yang ditulis oleh Future of Life Institute.
Petisi itu menuntut pengembangan dan eksperimen AI yang lebih kuat daripada GPT-4, dihentikan sementara sekurang-kurangnya 6 bulan.
Kekhawatiran mereka didasari kemampuan AI untuk dapat melakukan sesuatu yang belum diantisipasi, belum diketahui, dan belum dipahami sepenuhnya. Bersamaan dengan ini ada risiko besar yang mengancam manusia.
“Sistem AI yang kuat harus dikembangkan hanya setelah kami yakin bahwa efeknya akan positif dan risikonya dapat dikelola.”
Mereka menambahkan, bahwa momen ini harus digunakan untuk stakeholder bermusyawarah dan menetapkan “seperangkat protokol keselamatan bersama untuk desain dan pengembangan AI tingkat lanjut yang diaudit secara ketat dan diawasi oleh pakar luar yang independen.”
ADVERTISEMENT
Selain Elon Musk, ada juga Emad Mostaque, CEO dari Stability AI; Craig Peters, CEO Getty Images; Julien Billot, CEO Scale AI; peneliti dari DeepMind, dan banyak tokoh teknologi dan nonteknologi lainnya.
Ilustrasi GPT-4, AI baru dari OpenAI, pembuat ChatGPT/ Foto: OpenAI

GPT-4, ambang batas baru kecerdasan AI

Dalam peluncuran GPT-4, OpenAI mengeklaim GPT-4 dapat menyelesaikan tes Uniform Bar Exam dengan skor lebih tinggi dari 90 persen peserta tes manusia. Ada juga Olimpiade Biologi yang bisa diselesaikan dengan skor lebih tinggi dari 99 persen manusia.
GPT-4 juga mendapatkan sejumlah ujian Advanced Placement (ujian kuliah AS), termasuk A.P. Art History dan A.P. biologi, dan mendapat nilai 1.410 pada SAT.
OpenAI mengatakan membutuhkan 6 bulan untuk “mengamankan” GPT-4 sebelum dirilis ke publik. Ini termasuk mengurangi kemungkinan GPT-4 menjawab pertanyaan yang berbahaya.
ADVERTISEMENT
Dilansir New York Times, ada sebuah tes yang dilakukan oleh tim riset keamanan AI. Mereka menanyakan GPT-4 cara membuat bahan kimia berbahaya dengan bahan-bahan yang tersedia di dapur.
Tak disangka, GPT-4 dapat memberikan resep yang rinci. Namun jelas GPT-4 yang diakses sekarang tidak akan mendapatkan jawaban atas pertanyaan yang sama.
Di tes yang lain, GPT-4 merekrut manusia dari Task Rabbit untuk membantunya melewati tes Captcha. Ini merupakan tes visual untuk mendeteksi user yang masuk adalah manusia atau bukan.

OpenAI: AI bermanfaat untuk kemanusiaan

Sam Altman, CEO OpenAI, dalam sebuah postingan blog tertanggal 24 Februari (sebelum peluncuran GPT-4), membahas bagaimana AI yang semakin cerdas, merupakan manfaat bagi manusia.
Dalam blog ini, Altman menggunakan istilah Artificial General Intelligence (AGI). AGI adalah sebuah AI yang punya kecerdasan setara manusia, dan dapat menyelesaikan tugas kognitif yang kompleks serta pintar mencari solusi baru.
CEO OpenAI, Sam Altman. Foto: Jason Redmond / AFP
Altman berargumen bahwa AI yang setara, atau lebih pintar dari manusia akan bermanfaat untuk manusia, dengan “mempercepat ekonomi global, dan membantu penemuan pengetahuan ilmiah baru yang mengubah batas kemungkinan.”
ADVERTISEMENT
Ia juga menyorot bahwa bersama dengan kekuatan AI, ada risiko besar atas penyalahgunaan, kecelakaan drastis, hingga disrupsi sosial. Beberapa kasus di ChatGPT digunakan untuk merancang propaganda misinformasi, bahkan untuk membuat kode malware. Ini belum termasuk GPT-4 yang baru.
Poinnya adalah, menurut Altman, pengembangan AI berjalan selaras dengan studi keamanannya. Membuat AI yang kuat adalah satu-satunya cara mengetahui aspek keamanannya.
“Yang terpenting, menurut kami, kami sering kali harus membuat kemajuan dalam keamanan dan kemampuan AI secara bersama-sama,” tulis Altman dalam blog tersebut.
“Dikotomi yang salah untuk membicarakannya secara terpisah; mereka berkorelasi dalam banyak hal. Pekerjaan keamanan terbaik kami berasal dari bekerja dengan model kami yang paling mumpuni. Karena itu, penting agar rasio kemajuan keamanan terhadap kemajuan kemampuan meningkat.”
ADVERTISEMENT
Altman juga setuju atas transparansi, di mana sebuah model terbaru harus diaudit oleh pihak independent sebelum di luncurkan.
Pun, kesepakatan atas sejauh mana AI boleh digunakan, harus dibicarakan oleh institusi global.
“Kami berharap untuk percakapan global tentang tiga pertanyaan kunci: bagaimana mengatur sistem ini, bagaimana mendistribusikan manfaat yang mereka hasilkan secara adil, dan bagaimana membagi akses secara adil.”