Konten dari Pengguna
Menguak "Bullshit" dan "Botshit" di Balik Kecanggihan AI
19 Mei 2025 11:53 WIB
·
waktu baca 6 menit
Kiriman Pengguna
Menguak "Bullshit" dan "Botshit" di Balik Kecanggihan AI
Mengapa ChatGPT dan model AI lainnya sering salah? Artikel ini mengupas fenomena "bullshit" dan "botshit" dalam LLM dan strategi cerdas untuk menggunakannya secara kritis.Arif Perdana
Tulisan dari Arif Perdana tidak mewakili pandangan dari redaksi kumparan

ADVERTISEMENT
Model bahasa besar yang dikenal sebagai Large Language Models atau LLMs, seperti GPT dari OpenAI, Claude dari Anthropic, dan Gemini dari Google, kini hadir di banyak aspek kehidupan digital kita. Mereka mampu menulis seperti manusia, menjawab pertanyaan dengan lancar, bahkan meniru gaya tulisan tertentu. Tapi di balik kemampuannya yang tampak menakjubkan, ada satu kelemahan mendasar, yaitu mereka tidak benar-benar memahami apa yang mereka katakan.
ADVERTISEMENT
LLMs bukanlah pakar. Mereka hanyalah alat prediksi kata. Artinya, setiap kalimat yang mereka hasilkan adalah hasil dari proses statistika, kata demi kata ditebak berdasarkan pola yang mereka pelajari dari miliaran contoh teks.
Maka, ketika kita bilang mereka “berbohong”, itu bukan dalam arti manusiawi. Mereka tidak berniat menyesatkan. Mereka hanya “terlalu lancar” dan sering kali “terlalu percaya diri” dalam menyampaikan informasi yang belum tentu benar.
Rodney Brooks, pakar robotika, pernah berkata bahwa ChatGPT generasi awal “hanya mengarang sesuatu yang terdengar bagus.” Pernyataan ini memang terdengar kasar, tapi menyentuh inti persoalan, yaitu model ini menghasilkan teks yang enak dibaca, bukan kebenaran objektif.
Evolusi Istilah: Dari "Halusinasi" ke "Bullshit" dan "Botshit"
Dalam dunia akal imitasi (AI), istilah “halusinasi” kerap digunakan untuk menyebut keluaran LLM yang salah atau mengada-ada. Tapi, makin banyak pakar yang menilai istilah ini tidak tepat. LLMs tidak punya persepsi seperti manusia. Mereka tidak melihat, mendengar, atau mengalami realitas. Maka, menyebut kesalahan mereka sebagai “halusinasi” bisa menyesatkan.
ADVERTISEMENT
Alternatif istilah yang lebih akurat datang dari dunia filsafat: “bullshit”, seperti yang dijelaskan Harry Frankfurt, filsuf dari AS. Dalam pengertian ini, bullshit adalah pernyataan yang dibuat tanpa peduli benar atau tidaknya. Bukan bohong, karena berbohong butuh pengetahuan tentang kebenaran yang kemudian disembunyikan. Bullshit, sebaliknya, hanya ingin terdengar meyakinkan.
Kemudian muncul istilah baru: “botshit.” Ini diperkenalkan oleh Hannigan, McCarthy, dan Spicer di artikel terbarunya "Beware of botshit: How to manage the epistemic risks of generative chatbots" untuk membedakan bullshit versi manusia dengan hasil LLM. Botshit adalah kesalahan khas AI, teks yang dihasilkan oleh sistem prediksi kata, bukan karena niat menipu, tapi karena sistemnya memang tidak dirancang untuk memahami atau memverifikasi fakta.
ADVERTISEMENT
Mengapa LLMs Menghasilkan Botshit?
Ada beberapa alasan utama mengapa LLMs menghasilkan informasi yang salah:
Pertama, karena mereka adalah mesin prediksi, bukan ensiklopedia. Mereka dirancang untuk membuat kalimat mengalir, bukan menyampaikan fakta yang benar. Kedua, data pelatihan mereka punya batas. Mereka hanya tahu apa yang tersedia saat model dilatih. Informasi yang muncul setelahnya tidak mereka ketahui, kecuali dihubungkan dengan sistem pencarian.
Ketiga, data pelatihan mereka tidak sempurna. Bisa jadi bias, kurang lengkap, atau tidak mencerminkan kebenaran. Keempat, model ini lebih dioptimalkan untuk tata bahasa dan kelancaran, bukan kebenaran mutlak. Dan terakhir, mereka tidak punya keterkaitan dengan realita seperti pengalaman yang dialami oleh manusia, mereka tidak menghubungkan kata dan argumentasi dengan dunia nyata secara langsung.
ADVERTISEMENT
Perkembangan Terbaru untuk Mengurangi Kesalahan
Meski tantangannya besar, kemajuan dalam mengurangi kesalahan LLM cukup signifikan hingga tulisan ini dibuat. Salah satu pendekatan yang kini digunakan adalah penalaran langkah demi langkah (chain-of-thought), di mana model dilatih untuk "berpikir" secara bertahap dengan mengurai masalah sebelum memberikan jawaban akhir. Ini membantu menghindari kesalahan impulsif yang kerap muncul ketika model langsung memberikan respons.
Selain itu, pendekatan Retrieval-Augmented Generation (RAG) memungkinkan LLMs mengambil informasi dari luar, seperti dokumen atau situs web, sebelum menyusun jawaban. Ibaratnya, model tidak hanya mengandalkan ingatan, tapi juga bisa "membuka buku" atau "mencari di Google" sebelum menjawab, sehingga mengurangi kecenderungan untuk mengarang. Beberapa model mutakhir, seperti ChatGPT, Grok, dan Gemini, bahkan telah terintegrasi langsung dengan mesin pencari, memungkinkan pencarian dan verifikasi informasi secara real-time.
ADVERTISEMENT
Tak hanya itu, model-model terbaru juga menunjukkan kecenderungan untuk lebih berhati-hati dalam menjawab. Mereka kini lebih sering menyatakan ketidaktahuan jika memang tidak yakin, dibanding sebelumnya yang cenderung menjawab dengan percaya diri meski salah. Terakhir, melalui pelatihan khusus di bidang-bidang tertentu seperti hukum, kesehatan, atau keuangan, akurasi model dapat ditingkatkan secara signifikan sesuai dengan kebutuhan konteks penggunaannya.
Walaupun LLM makin pintar, potensi mereka untuk menghasilkan teks menyesatkan belum hilang sepenuhnya. Ini punya konsekuensi penting. Pengguna harus sadar bahwa mereka tidak bisa menerima semua keluaran AI secara mentah. Verifikasi tetap perlu. Pengembang juga harus jujur tentang keterbatasan model mereka. Jangan menjual ilusi bahwa AI bisa menggantikan nalar manusia. Selain itu, kita harus waspada terhadap bias yang tersembunyi dalam botshit. Jika data pelatihan condong ke satu perspektif budaya atau gender, maka output-nya bisa memperkuat bias tersebut, bahkan tanpa kita sadari.
ADVERTISEMENT
Strategi Menghadapi Tantangan Ini
Agar kita bisa menggunakan LLMs dengan lebih bijak, penting untuk memahami cara terbaik memanfaatkannya sesuai kebutuhan. Misalnya, untuk ide kreatif, menyusun draf awal tulisan, atau eksplorasi topik secara umum, LLM bisa sangat membantu. Namun, ketika digunakan untuk bidang sensitif seperti informasi medis atau hukum, hasilnya tetap harus divalidasi oleh ahli.
Keterlibatan manusia dalam proses ini menjadi kunci, AI sebaiknya berperan sebagai pendamping, bukan pengganti. Di sisi lain, literasi digital masyarakat juga perlu ditingkatkan agar pengguna memahami bagaimana LLM bekerja, apa saja batasannya, dan bagaimana mengenali potensi kesalahan. Salah satu cara praktis untuk memaksimalkan output adalah dengan merancang prompt atau pertanyaan yang jelas, terfokus, dan kontekstual, sehingga jawaban yang dihasilkan lebih akurat dan relevan.
ADVERTISEMENT
Selain itu, pengembangan model yang mampu memahami informasi lintas bentuk, seperti teks, gambar, atau suara, dikenal sebagai multi-modal grounding, juga menjadi langkah penting untuk mengurangi kesalahan karena model lebih mampu mengaitkan kata-kata dengan dunia nyata secara lebih utuh.
Regulasi dan Tata Kelola: Tantangan Baru, Tanggung Jawab Bersama
Seiring makin luasnya penggunaan LLMs, muncul kebutuhan untuk pengawasan yang cermat. Regulasi yang adaptif dan tidak memberatkan inovasi menjadi penting. Pengembang harus lebih terbuka soal data pelatihan dan tingkat akurasi model mereka. Evaluasi akurasi dan bias juga harus dilakukan dengan standar yang ketat dan transparan. Dan tentu, ketika ada kerugian akibat output AI yang keliru, harus ada mekanisme pertanggungjawaban yang jelas.
LLMs membawa janji besar dengan membantu manusia berpikir, menulis, dan menciptakan. Tapi mereka juga membawa risiko,yaitu menyebarkan informasi keliru dengan gaya yang meyakinkan. Selama model ini masih berbasis prediksi probabilistik, kesalahan akan selalu ada. Maka yang dibutuhkan bukan hanya AI yang lebih baik, tapi juga manusia yang lebih kritis, skeptis, dan sadar akan keterbatasan teknologi.
ADVERTISEMENT
Tanggung jawab ada di tangan kita semua, pengembang, pengguna, dan pembuat kebijakan, untuk memastikan bahwa AI digunakan sebagai alat pemberdayaan, bukan sebagai mesin penghasil kebingungan.

