Konten dari Pengguna

Bahaya Kloningan Suara AI

Dickens Chandra
Saya adalah siswa di IPEKA Tomang
16 Oktober 2024 18:28 WIB
·
waktu baca 3 menit
comment
0
sosmed-whatsapp-white
copy-link-circle
more-vertical
Tulisan dari Dickens Chandra tidak mewakili pandangan dari redaksi kumparan
ADVERTISEMENT
sosmed-whatsapp-green
kumparan Hadir di WhatsApp Channel
Follow
Seperti yang kita semua tahu, AI (Artificial Intelligence) sedang berkembang dengan pesat. Ada berbagai macam bentuknya, ada yang berupa textbot, gambar, dan audio. Sektor audio yang akan kita bahas pada teks ini. AI menyebabkan adanya bahaya audio yang palsu, yaitu kloningan suara AI. Suara AI ini bisa dibuat untuk meniru suara siapapun dan penggunanya dapat menggunakannya untuk mengatakan apa saja. Ini tentunya dapat berbahaya, dan berkontribusi ke penipuan online modern.
ADVERTISEMENT
Kloningan suara AI sangat bahaya karena dapat digunakan untuk menipu kerabat seseorang untuk mengirimkan si penipu sejumlah uang. Pertama, penipu akan mencari suara seseorang yang diposting di platform online. Lalu penipu membuat replika suaranya dan mencari kerabat-kerabat orang tersebut untuk ditipu. Penipu akan menghubungi kerabat atau teman orang tersebut dengan suara replika AI dan meminta sejumlah uang. Hal ini tentunya dapat membuat korban sangat dirugikan, dan jika tidak ditangani/dihentikan, teknik penipuan ini dapat merugikan jutaan orang. Berdasarkan survei Starling Bank, sudah terdapat sekitar 750 orang yang tertipu teknik penipuan ini dalam 12 bulan terakhir. (CNN Indonesia, 2024)
Selain itu, kloningan suara AI ini juga dapat mengganti pandangan orang terhadap seseorang. Dengan menggunakan kloningan suara AI, kita bisa mereplikasikan sebuah suara orang dan membuatnya mengatakan apa saja. Sehingga, hal ini dapat digunakan untuk mengakibatkan konflik (orang yang suaranya dikloning dibuat untuk mengatakan hal yang tidak baik/kontroversial). Contoh kasus yang terjadi adalah ketika seseorang mengkloning suara kepala sekolah Maryland High School (Eric Eiswert), dimana mereka membuat suatu audio yang berisi suara kloningan kepala sekolah tersebut mengatakan hal yang rasis, yang kemudian disebarkan di media sosial. (Finley, 2024)
ADVERTISEMENT
Selain itu, kloningan suara AI juga dapat digunakan penipu untuk meniru identitas orang lain. Terutama, untuk meniru identitas orang yang jabatannya tinggi dalam sebuah perusahaan, komunitas, dll (agar bisa mendapatkan banyak keuntungan). Contoh salah satu kasus yang terjadi adalah peniruan identitas Benedetto Vigna, CEO dari perusahaan Ferrari. “Benedetto Vigna” menelepon salah satu Ferrari NV eksekutif. Terjadilah percakapan telepon langsung antara eksekutif dengan “Benedetto Vigna”, dimana penipu atau Benedetto Vigna yang palsu menggunakan kloningan suara AI yang nyaris tidak dapat dibedakan dengan suara orang aslinya. Dalam percakapan tersebut, “Benedetto Vigna” menjelaskan bahwa dia sedang menelepon dari nomor handphone yang berbeda karena ingin membahas sesuatu yang bersifat rahasia – kesepakatan yang mungkin menghadapi hambatan terkait Tiongkok dan memerlukan transaksi lindung nilai mata uang yang tidak ditentukan untuk dilakukan. Untungnya, eksekutif tersebut meragukan identitasnya dan bertanya: “Apa nama buku yang kamu pernah rekomendasikan beberapa hari yang lalu?” Dengan itu, si penipu langsung menutup telepon (penipuannya tidak berhasil). (Lepido, 2024)
ADVERTISEMENT
Jadi, kloningan suara AI adalah sesuatu yang sangat bahaya dan harus kita waspadai. Kloningan suara AI sudah sangat realistis, hingga pada zaman sekarang saja kloningan tersebut berhasil menipu kerabat orang untuk mengirimkan si penipu uang, mengganti pandangan orang lain terhadap korban kloningan suara, dan meniru identitas orang lain.
Sumber:
https://www.pexels.com/photo/a-typewriter-with-a-paper-that-says-deepfake-18465017/