AI Trust Paradox dan Masa Depan Literasi AI di Pendidikan Tinggi

Dosen Program Studi Bisnis Digital Universitas Bunda Mulia, Memiliki Antusias Digital Consumer Behavior dan Behavioral Economics
·waktu baca 7 menit
Tulisan dari Agung Stefanus Kembau tidak mewakili pandangan dari redaksi kumparan

Ruang bimbingan sore itu penuh layar laptop yang menampilkan dokumen dan jendela ChatGPT Pro. Seorang mahasiswa mengangkat layarnya dan berkata, “Pak, ini kerangka skripsi saya. ChatGPT Pro bantu merapikan.” Saya minta ia menunjuk rujukan utama dan alasan memilih metode. Ia terdiam sebentar, lalu berbisik, “Sebagian besar saya ambil dari jawaban AI. Rasanya meyakinkan, tetapi saya belum cek satu per satu.”
Dilema “percaya tapi ragu” ini tidak hanya terjadi di ruang kuliah. Dalam forum Unlocking the Economic Impact of AI in Emerging Markets tahun 2025, Chief Economist OpenAI, Ronnie Chatterji, mengungkap bahwa penggunaan ChatGPT di Indonesia melonjak tiga kali lipat hanya dalam waktu sedikit lebih dari setahun. Pertumbuhan yang drastis ini mencerminkan betapa cepat masyarakat kita mengadopsi teknologi AI. Namun di sisi lain, data PISA 2022 menempatkan literasi membaca Indonesia di peringkat 62 dari 81 negara. Ini menjadi ironi yang memunculkan kekhawatiran. Adopsi AI berkembang pesat, tetapi kemampuan kritis untuk memilah mana yang benar dan mana yang keliru belum tentu ikut menguat.
Mengenal AI Trust Paradox
AI Trust Paradox adalah situasi ketika kemampuan AI meningkat, memberikan jawaban yang semakin meyakinkan dan alami, tetapi tingkat kepercayaan pengguna tidak selalu naik seiring. Bahkan, kesadaran akan potensi bias, kesalahan faktual, atau kurangnya transparansi bisa membuat kepercayaan menurun (Foster-McBride, 2024). Fenomena ini merupakan bagian dari sejarah panjang interaksi manusia dengan teknologi, di mana setiap lompatan inovasi selalu disertai rasa kagum sekaligus curiga.
Konsep paradoks teknologi sendiri berakar pada studi klasik Mick dan Fournier (1998), yang menemukan bahwa hubungan konsumen dengan teknologi penuh kontradiksi. Mereka merasa terbantu sekaligus frustrasi, merasa berdaya sekaligus terancam. Paradoks ini kini menemukan versi barunya dalam dunia AI, di mana tantangan utamanya bukan lagi sekadar mengoperasikan alat, melainkan menilai kebenaran dari informasi yang dihasilkannya.
Aspek epistemologis dari paradoks ini terletak pada verisimilitude atau kesan “mirip kebenaran” yang dihasilkan AI. Semakin realistis bahasa yang digunakan mesin, semakin sulit bagi pengguna membedakan antara fakta dan ilusi. Inilah yang membedakan AI generatif dengan mesin pencari atau ensiklopedia digital. AI tidak hanya menyajikan data, tetapi membungkusnya dalam narasi yang terdengar masuk akal, meski belum tentu benar.
Al Bowman (2025) dalam opininya menyoroti bahwa manusia sering memberi standar ganda pada teknologi. Kesalahan manusia lebih mudah dimaafkan, tetapi kesalahan mesin memicu skeptisisme yang lebih tajam. Ekspektasi ini menciptakan jurang antara kemampuan teknis AI yang terus meningkat dan tingkat kepercayaan yang stagnan, bahkan menurun. Al Bowman juga menekankan pentingnya pendekatan AI in the loop, yaitu memastikan manusia tetap berada di pusat pengambilan keputusan dengan AI sebagai pendukung, bukan pengganti.
Fenomena ini semakin nyata di era AI generatif seperti ChatGPT. Di satu sisi, AI mampu memecahkan masalah dalam hitungan detik, mengolah data yang luar biasa besar, dan menyajikan jawaban dalam bahasa yang fasih. Namun di sisi lain, keandalan yang dirasakan ini dapat meninabobokan pengguna dan memunculkan automation bias, yaitu kecenderungan mempercayai hasil mesin hanya karena berasal dari mesin. Inilah inti dari AI Trust Paradox, semakin baik performanya, semakin kita ingin percaya, namun justru semakin kita khawatir jika kepercayaan itu salah tempat.
Lonjakan adopsi AI di kampus membawa peluang besar, tetapi tanpa literasi kritis, generasi muda berisiko menjadi pengguna yang percaya namun tak sepenuhnya paham
Fenomena di Indonesia: Generasi Digital yang Adaptif tapi Rentan
Di Indonesia, adopsi AI melonjak pesat dalam dua tahun terakhir. Mahasiswa, kreator konten, dan pelaku UMKM memanfaatkannya untuk ide promosi, riset pasar, hingga strategi pemasaran. Namun, survei informal di kelas saya menunjukkan pola yang konsisten, penggunaan intensif tetapi kemampuan memverifikasi kebenaran masih lemah.
Kita memang memiliki generasi muda yang luwes secara digital atau digital fluency, tetapi kelemahan literasi baca nasional menjadi hambatan besar. Jika keterampilan membaca kritis rendah, interaksi dengan AI berisiko menghasilkan penerimaan pasif tanpa evaluasi mendalam. Belanche et al. (2024) menyebut hal ini bagian dari “paradoks personalisasi”, pengguna menikmati kemudahan AI namun sering menganggap jawaban yang terdengar meyakinkan sebagai kebenaran mutlak.
Kekhawatiran ini sejalan dengan pernyataan CEO OpenAI, Sam Altman, yang baru-baru ini mengungkap kegelisahannya atas fenomena over-reliance pada ChatGPT di kalangan anak muda. Ia menyebut, semakin banyak generasi muda yang merasa tidak bisa mengambil keputusan penting tanpa bertanya pada ChatGPT, sebuah pola yang menurutnya “buruk dan berbahaya”. Peringatan Altman ini menegaskan bahwa AI Trust Paradox kini tidak hanya berdampak pada dimensi kognitif, tetapi juga emosional. Ketergantungan yang terlalu tinggi berpotensi melemahkan kemandirian berpikir dan rasa percaya diri dalam mengambil keputusan.
Faktor budaya turut memperkuat kerentanan ini. Di masyarakat kolektif seperti Indonesia, kepercayaan sering dibangun lewat relasi sosial, bukan bukti teknis. AI yang impersonal sulit menandingi rasa aman dari rekomendasi teman atau dosen. Namun justru di ruang sosial ini, misinformasi dari AI bisa menyebar cepat jika literasi AI tidak ikut diperkuat.
Implikasi bagi Pendidikan Tinggi, Mahasiswa, dan Output Lulusan di Era Digital
AI Trust Paradox membawa konsekuensi serius bagi ekosistem pendidikan tinggi di Indonesia. Lonjakan penggunaan AI di kampus telah mengubah cara mahasiswa mencari informasi, mengerjakan tugas, dan bahkan merencanakan karier. Di satu sisi, AI membuka peluang untuk mempercepat proses belajar dan memperluas akses sumber pengetahuan. Namun tanpa literasi kritis yang memadai, kemudahan ini bisa menjerumuskan pada ketergantungan, miskonsepsi, dan penurunan kualitas kemampuan analisis.
Di ruang kuliah, paradoks ini sering terlihat dalam bentuk over-reliance. Mahasiswa yang terbiasa mendapatkan jawaban instan cenderung melewatkan proses memahami konteks atau menelusuri sumber primer. Fenomena ini sejalan dengan kekhawatiran Mick dan Fournier (1998) tentang strategi coping konsumen teknologi, dalam hal ini mahasiswa, yang memilih jalan pintas karena teknologi terasa lebih cepat dan mudah. Hasilnya, keterampilan krusial di abad 21 seperti critical thinking, problem solving, dan information literacy terancam tergeser oleh pola konsumsi informasi yang instan namun dangkal.
Bagi perguruan tinggi, ini berarti urgensi untuk merevisi kurikulum dan metode pengajaran. Literasi AI tidak boleh terbatas pada kemampuan mengoperasikan alat, tetapi harus mencakup pemahaman cara kerja, keterbatasan, dan bias yang mungkin terkandung di dalamnya. Mahasiswa perlu dilatih untuk memverifikasi jawaban AI, mengombinasikan hasil AI dengan riset mandiri, dan mendiskusikan temuannya dalam forum yang melatih argumentasi logis.
Dari sisi output lulusan, dunia kerja di era digital menuntut profil yang tidak hanya melek teknologi, tetapi juga melek konteks. Perusahaan semakin mencari talenta yang mampu menggunakan AI sebagai alat strategis, bukan tongkat penopang. Lulusan yang bisa memadukan efisiensi AI dengan pemikiran analitis dan kreativitas akan memiliki keunggulan kompetitif yang signifikan. Sebaliknya, mereka yang sekadar menjadi pengguna pasif berisiko tertinggal karena mudah tergantikan oleh sistem otomatis yang semakin canggih.
Paradoks ini mengajarkan bahwa tugas perguruan tinggi bukan hanya menyiapkan lulusan untuk bekerja dengan AI, tetapi juga membentuk mereka agar tetap memegang kendali atas proses berpikirnya. Di tengah derasnya arus teknologi, kompetensi yang paling berharga adalah kemampuan untuk bertanya, “Apakah ini benar, atau hanya terlihat benar?”
Solusi dan Refleksi
Menghadapi AI Trust Paradox memerlukan pendekatan yang melampaui penggunaan teknologi secara bijak. Dunia pendidikan harus menanamkan literasi AI sebagai bagian integral dari pembelajaran, mencakup pemahaman cara kerja model, kesadaran akan bias, dan keterampilan memeriksa ulang kebenaran informasi. Literasi ini tidak boleh menjadi topik tambahan, tetapi harus menjadi fondasi setiap mata kuliah yang bersinggungan dengan pengolahan data dan pengambilan keputusan.
Transparansi juga menjadi kunci. Mahasiswa harus tahu kapan mereka berinteraksi dengan AI, batas kemampuannya, serta cara memverifikasi jawabannya. Pendekatan ini membangun kepercayaan yang realistis, yang tidak bersandar pada kesan, tetapi pada pemahaman yang matang.
Selain itu, pendidikan tinggi perlu mendorong model interaksi hibrida antara manusia dan AI. AI dapat menangani tugas rutin dan memberikan analisis awal, sementara manusia menambahkan empati, konteks, dan pertimbangan etis. Dengan cara ini, mahasiswa melihat AI bukan sebagai pengganti pemikiran, tetapi sebagai mitra yang memperluas jangkauan intelektual mereka.
Membangun generasi yang mampu mengelola AI dengan kritis adalah investasi jangka panjang. Seperti mata uang, kepercayaan dalam ekosistem digital harus dikelola dengan hati-hati. Ia bisa menguat jika dipupuk dengan transparansi dan literasi, tetapi bisa runtuh jika dibiarkan tanpa kendali. AI Trust Paradox mengingatkan bahwa yang terpenting bukan seberapa cepat kita mengadopsi teknologi, melainkan seberapa cerdas kita memanfaatkannya tanpa kehilangan daya pikir kita sendiri.
Penutup: Sebuah Pertanyaan untuk Masa Depan
Jika literasi kita tidak bergerak secepat teknologi, siapa yang akan lebih dulu memegang kendali, kita atas AI atau AI atas kita?
Referensi
Belanche, D., Casaló, L. V., Flavián, C., & Ibáñez-Sánchez, S. (2024). The paradoxes of generative AI-enabled customer service: A guide for managers. Journal of Business Research, 169, 114207. https://doi.org/10.1016/j.jbusres.2023.114207
Foster-McBride, C. (2024). The AI Trust Paradox: Navigating Verisimilitude in Advanced Language Models. AI & Society. https://doi.org/10.1007/s00146-024-01963-w
Mick, D. G., & Fournier, S. (1998). Paradoxes of Technology: Consumer Cognizance, Emotions, and Coping Strategies. Journal of Consumer Research, 25(2), 123-143. https://doi.org/10.1086/209531
