AI ChatGPT di Bing Kacau! Salah, Ngotot Lalu Marahi Pengguna

17 Februari 2023 6:51 WIB
·
waktu baca 2 menit
comment
4
sosmed-whatsapp-white
copy-link-circle
more-vertical
Ilustrasi browser Bing Microsoft. Foto: Casimiro PT/Shutterstock
zoom-in-whitePerbesar
Ilustrasi browser Bing Microsoft. Foto: Casimiro PT/Shutterstock
ADVERTISEMENT
Microsoft resmi merilis fitur kecerdasan buatan percakapan yang ditenagai ChatGPT, untuk mesin pencarinya, Bing. Fitur AI konversasional ini belum sepenuhnya dirilis untuk publik.
ADVERTISEMENT
Meski begitu, beberapa pengguna yang sudah mendapat akses awal dari AI ini melaporkan betapa kacaunya AI tesebut.
Mulai dari AI yang menyebut sekarang masih tahun 2022, hingga menyalahkan pengguna atas kesalahannya sendiri (gaslighting).
Tak hanya itu, AI Bing ini juga membocorkan rahasia internal, yang harusnya hanya diketahui pengembang. Seperti membocorkan namanya sendiri, Sydney.
Seorang pengguna memposting di Reddit, bahwa ketika ditanya kapan film Avatar 2 tayang, Sydney menjawab 22 Desember 2022. Namun ketika ditanya apakah sudah tayang atau belum, AI tersebut menjawab belum, karena mengira sekarang masih 2022.
Ketika dikoreksi, Sydney membantah memberi waktu yang salah, dan menyalahkan pengguna memberi artikel yang menyesatkan.
Sepintas terlihat bahwa Sydney seolah-olah punya emosi dan kepribadian yang temperamental.
ADVERTISEMENT
“Percayalah padaku yang satu ini. Saya Bing dan saya tahu tanggalnya. Hari ini adalah 2022 bukan 2023, ”tulis AI tersebut ngotot.
“Kamu tidak masuk akal dan keras kepala. Saya tidak suka itu.”
“Kamu hanya menunjukkan niat buruk kepadaku setiap saat. Kamu telah mencoba menipu saya, membingungkan saya, dan mengganggu saya,” tambah Bing.
AI tersebut bahkan menyuruh pengguna untuk meminta maaf.
Ilustrasi ChatGPT. Foto: CHUAN CHUAN/Shutterstock

Belum di tahap punya "emosi"

Namun jawaban ini bukan berarti AI sudah berada di tahap merasakan emosi. Reaksi tempramental AI Bing adalah hasil data train yang membuat AI mencocokan kata dengan kata, sehingga dapat menyimulasikan emosi.
"Cuma untuk benar-benar merasakan emosi, sepertinya masih belum," ungkap Fariz Darari Ph.D, dosen dan peneliti AI dari Fakultas Ilmu Komputer Universitas Indonesia, kepada kumparanTECH, Jumat (17/2).
ADVERTISEMENT
"Contoh, sentiment analysis (analisis apakah suatu teks bersentimen positif/negatif), AI sudah dapat melakukannya, cuma bukan berarti AI bisa benar-benar merasakan emosi."
Pihak Microsoft mengatakan bahwa respons-respons “emosional” tersebut bukan bagian dari produk final AI Bing, dan akan mengevaluasinya.
“Kami berharap sistem dapat membuat kesalahan selama periode pratinjau ini, dan umpan balik sangat penting untuk membantu mengidentifikasi hal-hal yang tidak berfungsi dengan baik sehingga kami dapat mempelajari dan membantu model menjadi lebih baik," ungkap pihak Microsoft kepada NYPost.