Tentang KamiPedoman Media SiberKetentuan & Kebijakan PrivasiPanduan KomunitasPeringkat PenulisCara Menulis di kumparanInformasi Kerja SamaBantuanIklanKarir
2025 © PT Dynamo Media Network
Version 1.94.1
Konten dari Pengguna
Ketika AI Diracuni: Melawan Eksploitasi Karya oleh Manusia
18 Januari 2025 15:28 WIB
·
waktu baca 7 menitTulisan dari Atha Juli R tidak mewakili pandangan dari redaksi kumparan
ADVERTISEMENT
Kita hidup di era di mana kecerdasan buatan tidak hanya lagi wacana masa depan, tetapi telah menjadi bagian nyata dari kehidupan sehari-hari. Dari kampanye politik hingga iklan brand global, teknologi ini terus memperluas jangkauannya. Situs untuk mengobrol dengan model AI large language model, chatgpt.com, tercatat sebagai salah satu situs paling sering dikunjungi dunia, menempati peringkat kedelapan di data Semrush per Desember 2024. Di Indonesia, persentase penduduk berusia 5 tahun ke atas yang pernah mengakses internet dalam tiga bulan terakhir mencapai sekitar 66.48 persen pada tahun 2022, dan meningkat menjadi 69.21 persen pada tahun 2023, menurut data Badan Pusat Statistik (BPS). Angka ini menunjukkan bagaimana akses internet telah menjadi bagian penting dari kehidupan masyarakat Indonesia, membuka jalan bagi adopsi teknologi baru seperti AI.
ADVERTISEMENT
Namun, di balik popularitas ini, ada dampak besar yang dirasakan oleh pencipta asli karya—salah satunya para seniman.
Generative AI membutuhkan Konten
Perusahaan seperti OpenAI, pengembang ChatGPT dan DALL-E, membutuhkan data dalam jumlah besar untuk melatih model generatif mereka. Namun, data yang digunakan sering kali berasal dari karya yang dilindungi hak cipta, yang diambil tanpa persetujuan maupun kompensasi kepada penciptanya. Menurut paper yang dipublikasikan OpenAI di Arxiv, DALL-E dilatih menggunakan sekitar 650 juta pasangan gambar dan teks yang diambil dari internet. Selain itu, menurut Nikola Roza, pada tahun 2024, DALL-E diperkirakan mengumpulkan dan menganalisis hingga 4 petabyte data—sebuah volume yang mencerminkan skala masif pelatihan model AI dan ketergantungannya pada sumber data online.
ADVERTISEMENT
Perlawanan dari Kreator Konten
Dilansir NPR, pada Desember 2023, grup yang terdiri dari organisasi berita yang dipimpin oleh The New York Times menggugat OpenAI dengan kasus pelanggaran hak cipta. Inti argumen mereka adalah bahwa jutaan artikel dan karya dilindungi hak cipta digunakan tanpa izin, sesuatu yang mereka anggap sebagai bentuk eksploitasi masif.
Telegraph melaporkan bahwa OpenAI mengakui bahwa “mustahil” untuk menciptakan layanan seperti ChatGPT tanpa menggunakan materi yang dilindungi hak cipta. OpenAI lebih menambahkan, “Karena hak cipta saat ini mencakup hampir setiap jenis ekspresi manusia – termasuk posting blog, foto, posting forum, potongan kode perangkat lunak, dan dokumen pemerintah – mustahil untuk mengembangkan model AI terkemuka tanpa menggunakan konten yang dilindungi hak cipta … membatasi data pelatihan hanya pada buku yang ada dalam domain publik (material yang tidak dilindungi hak cipta) dan gambar yang dibuat lebih dari seratus tahun yang lalu mungkin akan menghasilkan eksperimen yang menarik, tetapi tidak akan menghasilkan sistem AI yang memenuhi kebutuhan masyarakat saat ini.” OpenAI memercayai bahwa secara legal, hak cipta tidak membatasi penggunaan material tersebut untuk melatih model mereka.
ADVERTISEMENT
Sistem hukum saat ini belum dapat memproteksi jurnalis, penulis, dan seniman manusia. Lantas, apa langkah yang harus dihadapi, sementara mempublikasi karya online sangat penting bagi kepentingan karir mereka?
Nightshade: Teknologi Perlawanan untuk Melindungi Karya Seniman
Pada tahun 2020, Ben Zhao, seorang peneliti keamanan komputer dari University of Chicago, bersama timnya merilis Fawkes, suatu alat yang melindungi foto dari pengenalan wajah otomatis. kesuksesan Fawkes menginspirasi Kim Van Deun, seorang ilustrator, untuk mengundang Zhao ke diskusi daring yang diselenggarakan oleh Concept Art Association—sebuah organisasi advokasi untuk seniman di bidang media komersial. Dalam diskusi tersebut, Zhao dan timnya bertemu dengan lebih dari 500 seniman yang berbagi pengalaman mereka tentang bagaimana kemunculan generative AI mengubah hidup mereka. Banyak dari mereka merasa bahwa karya mereka telah diambil tanpa izin dan digunakan sebagai bahan pelatihan model AI, memungkinkan pihak lain untuk menciptakan gambar dengan ciri khas mereka tanpa sepengetahuan maupun persetujuan. Zhao mengungkapkan kepada Communications of the ACM bahwa “[mereka] tidak hanya kehilangan pemasukan, tetapi juga identitas.”
ADVERTISEMENT
Saat ini, Zhao bersama timnya terus mengembangkan solusi berbasis teknologi untuk melindungi kreator konten dan karya mereka. Inovasi pertama mereka adalah Glaze. Glaze menyerang model yang disesuaikan untuk meniru gaya tertentu. Data training untuk model ini lebih sedikit dan spesifik. Glaze bekerja dengan melakukan perubahan digital halus pada piksel gambar, yang mengubah cara AI memandang seni tersebut tanpa memengaruhi tampilan gambar bagi mata manusia. Namun, Glaze bersifat defensif dan tidak dapat sepenuhnya menghentikan perusahaan teknologi dari mengunduh gambar secara massal dari internet untuk melatih model mereka.
Sebagai pendekatan ofensif, Zhao mengembangkan Nightshade yang berfungsi seperti "racun" bagi model generatif umum. Berbeda dengan Glaze, yang menargetkan model AI yang bertujuan meniru gaya tertentu, Nightshade dirancang untuk menyerang model generatif umum. Proses pelatihan model generatif biasanya melibatkan pasangan data berupa gambar dan caption. Nightshade mengintervensi proses ini dengan memberikan caption yang keliru sekaligus melakukan modifikasi pada gambar.
ADVERTISEMENT
Sebagai contoh, Nightshade dapat mengubah gambar seekor burung sehingga tetap tampak seperti burung di mata manusia, tetapi dikenali sebagai lampu oleh model AI. Hanya dengan memasukkan sekitar 100 sampel gambar yang telah "diracuni" ke dalam data pelatihan untuk sebuah konsep tertentu (misalnya "burung"), model AI mulai menghasilkan gambar yang salah.
Efek dari "racun" ini bahkan dapat menyebar ke konsep lain yang mirip secara semantik. Serangan Nightshade yang menargetkan beberapa konsep secara bersamaan dapat menyebabkan model AI menjadi tidak stabil hingga berpotensi malfungsi, bahkan ketika digunakan untuk permintaan ("prompt") biasa yang tidak diracuni.
Sebuah Harapan
Glaze dan Nightshade merupakan usaha untuk memberikan perlindungan bagi para seniman yang ingin mempublikasikan karya mereka tanpa rasa khawatir bahwa hasil jerih payah mereka akan disalahgunakan. Meskipun ada kekhawatiran bahwa alat-alat ini dapat diakali kembali, atau bahwa data yang dimiliki model sangat besar sehingga serangan menjadi insignifikan, keberadaan mereka tetap menawarkan harapan untuk melawan eksploitasi yang terjadi.
ADVERTISEMENT
Zhao dan timnya menegaskan bahwa tujuan mereka bukanlah untuk menghancurkan perusahaan teknologi besar, melainkan memaksa mereka untuk memberikan kompensasi untuk pekerjaan yang memiliki lisensi. “Ada cara yang benar untuk melakukan ini,” ujar Zhao dalam wawancara dengan TechCrunch. “Masalah utamanya adalah soal persetujuan dan kompensasi. Kami hanya memberikan para kreator konten cara untuk melawan ‘pelatihan’ yang tidak sah.”
Penutup
Perkembangan AI telah mengubah dunia kerja secara fundamental. Efisiensi yang ditawarkan AI memberi ancaman bagi pekerja di banyak sektor. Meskipun kita harus terus berkembang mengikuti zaman, karena di balik setiap pintu yang tertutup ada pintu baru yang terbuka, kita juga harus menghargai pekerjaan manusia. Penting untuk menempatkan keadilan dan penghargaan terhadap pekerja di atas keuntungan, dengan memastikan mereka diperlakukan dengan adil.
ADVERTISEMENT
Sumber:
Nightshade. (2024). ‘What Is Nightshade?’. Tersedia pada: https://nightshade.cs.uchicago.edu/whatis.html (Diakses: 18 Januari 2025).
Shan, S., et al. (2024). ‘Nightshade: Prompt-Specific Poisoning Attacks on Text-to-Image Generative Models’. Tersedia pada: https://people.cs.uchicago.edu/~ravenben/publications/abstracts/nightshade-oakland24.html (Diakses: 18 Januari 2025).
Olivia, X. dan Maullana, I. (2024). ‘Berkampanye Pakai Gambar AI, Timses Prabowo-Gibran: Simbol Mengakui’, Kompas, 29 Januari. Tersedia pada: https://megapolitan.kompas.com/read/2024/01/29/11235041/berkampanye-pakai-gambar-ai-timses-prabowo-gibran-simbol-mengakui (Diakses: 18 Januari 2025).
Di Placido, D. (2024). ‘Coca-Cola’s AI-Generated Ad Controversy, Explained’, Forbes, 16 November. Tersedia pada: https://www.forbes.com/sites/danidiplacido/2024/11/16/coca-colas-ai-generated-ad-controversy-explained/ (Diakses: 18 Januari 2025).
Semrush. (2024). ‘Most Visited Websites in the World, Updated December 2024’. Tersedia pada: https://www.semrush.com/website/top/ (Diakses: 18 Januari 2025).
BPS. (2024). ‘Statistik Telekomunikasi Indonesia 2023’. Tersedia pada: https://www.bps.go.id/id/publication/2024/08/30/f4b846f397ea452bdc2178b3/statistik-telekomunikasi-indonesia-2023.html (Diakses: 18 Januari 2025).
Roza, N. (2024). 'DALL-E Statistics Facts and Trends for 2024- All the Crucial Stats You Must Know about (DALL-E 2, DALL-E 3 and DALL-E 4)!', Nikola Roza, 3 November. Tersedia pada: https://nikolaroza.com/dall-e-statistics-facts-trends/ Diakses: 18 Januari 2025).
ADVERTISEMENT
Ramesh, A., et al. (2022). ‘Hierarchical Text-Conditional Image Generation with CLIP Latents’, arXiv. Tersedia pada: https://arxiv.org/abs/2204.06125 (Diakses: 18 Januari 2025).
Allyn, B. (2025). ‘'The New York Times' takes OpenAI to court. ChatGPT's future could be on the line’, NPR, 14 Januari. Tersedia pada: https://www.npr.org/2025/01/14/nx-s1-5258952/new-york-times-openai-microsoft (Diakses: 18 Januari 2025).
Titcomb, J. dan Warrington, J. (2024). ‘OpenAI Warns Copyright Crackdown Could Doom ChatGPT’, Telegraph, 7 Januari. Tersedia pada: https://www.telegraph.co.uk/business/2024/01/07/openai-warns-copyright-crackdown-could-doom-chatgpt/ (Diakses: 18 Januari 2025).
Heikkilä, M. (2024). ‘The AI lab waging a guerrilla war over exploitative AI’, MIT Technology Review, 13 November. Tersedia pada: https://www.technologyreview.com/2024/11/13/1106837/ai-data-posioning-nightshade-glaze-art-university-of-chicago-exploitation/ (Diakses: 18 Januari 2025).
Mone, G. (2024). ‘Poisoning Data to Protect It’, Communications of the ACM, 4 April Tersedia pada: https://cacm.acm.org/news/poisoning-data-to-protect-it/ (Diakses: 18 Januari 2025).
ADVERTISEMENT
Sung, M. (2024). ‘Nightshade, the tool that ‘poisons’ data, gives artists a fighting chance against AI’, TechCrunch, 26 Januari. Tersedia pada: https://techcrunch.com/2024/01/26/nightshade-the-tool-that-poisons-data-gives-artists-a-fighting-chance-against-ai/ (Diakses: 18 Januari 2025).