Taylor Swift Ancam Gugat Microsoft Gara-gara Chatbot

14 September 2019 11:33 WIB
comment
3
sosmed-whatsapp-white
copy-link-circle
more-vertical
Taylor Swift Foto: REUTERS/Andrew Kelly
zoom-in-whitePerbesar
Taylor Swift Foto: REUTERS/Andrew Kelly
ADVERTISEMENT
Pengacara Taylor Swift kabarnya mengirimkan email berisi ancaman untuk menggugat perusahaan Microsoft. Hal itu menyangkut teknologi kecerdasan buatan (artificial intelligence/AI) chatbot bernama Tay milik Microsoft.
ADVERTISEMENT
Diketahui chatbot Tay adalah AI yang didesain untuk teman ngobrol asyik para remaja di media sosial. Namun, pengguna Twitter berhasil membuat chatbot itu jadi sosok yang rasis dan bahkan membenci manusia.
Dalam kurun waktu kurang dari sehari, pengguna Twitter ramai-ramai membuat percakapan dengan chatbot Tay. Di beberapa percakapan, Tay bisa menjadi sosok yang sangat manis, namun ia juga kerap melontarkan ujaran-ujaran kebencian yang memicu amarah orang-orang.
Setelah viral screenshot percakapan Tay di Twitter, Presiden Microsoft Brad Smith menerima email dari kru Taylor Swift yang meminta perusahaan untuk mengganti nama chatbot tersebut. Dalam email itu disebutkan bahwa nama Tay seolah mengasosiasikan robot tersebut dengan Taylor Swift.
“Penggunaan nama Tay dianggap menciptakan persepsi yang salah dan menyesatkan antara penyanyi Taylor Swift dan robot kami, dan itu melanggar hukum federal dan hukum negara bagian,” kata Smith, dilansir The Verge.
ADVERTISEMENT
Tidak jelas kapan pihak Taylor Swift mengirimkan email tersebut ke Microsoft. Namun besar kemungkinan hal itu dipicu oleh ramainya netizen Twitter yang menemukan Tay melontarkan kalimat rasis dan ujaran kebencian lainnya.
Logo Microsoft. Foto: Mike Segar/Reuters
Chatbot AI sendiri diketahui memang diprogram terlebih dahulu lewat machine learning untuk bisa berkomunikasi layaknya manusia. Bisa jadi, kelihaian chatbot Tay membuat ujaran kebencian justru karena ia belajar dari para netizen yang berinteraksi dengannya.
Microsoft sendiri telah meminta maaf untuk ujaran yang menyinggung kelompok tertentu oleh chatbot buatannya. Kini chatbot Tay sudah tidak lagi beroperasi dalam kurun waktu kurang dari 24 jam.