Menuju konten utama

Orang yang Tak Paham AI Cenderung Lebih Tertarik Pakai AI

Tak semua orang memahami dan mengikuti perkembangan AI. Tapi, studi menyebut, justru merekalah yang paling rentan termakan hoaks dan misinformasi dari AI. 

Orang yang Tak Paham AI Cenderung Lebih Tertarik Pakai AI
ilustrasi kepercayaan berlebih pada AI. FOTO/iStockphoto

tirto.id - Kecerdasan buatan alias AI makin hari makin mendominasi ruang hidup kita. Mulai dari fitur kamera di ponsel, rekomendasi lagu, layanan pelanggan otomatis, hingga chatbot seperti ChatGPT, semuanya dibekali AI.

Beberapa kalangan tentu ada yang tidak mengikuti perkembangan AI. Salah satunya generasi boomers. Namun, apakah orang-orang yang tidak memahami seluk-beluk AI lantas tak mungkin memercayainya? Belum tentu.

Bahkan, ada satu temuan yang cukup mencengangkan: makin sedikit pengetahuan seseorang tentang cara kerja AI, justru makin besar kemungkinan mereka memercayainya.

Kesimpulan tersebut bukan dugaan kosong. Dalam beberapa tahun terakhir, serangkaian studi internasional menunjukkan bahwa orang-orang yang tidak terlalu paham AI justru lebih terbuka menggunakannya, bahkan lebih percaya pada rekomendasi mesin ketimbang saran manusia. Di sisi lain, orang yang memahami teknologi ini lebih dalam—para insinyur, ilmuwan data, atau akademisi—sering kali justru lebih hati-hati, bahkan cenderung skeptis.

Itulah yang disebut oleh para peneliti sebagai efek “makin-rendah-literasi-makin-tinggi-reseptivitas”. Artinya, pemahaman yang minim terhadap teknologi justru menciptakan rasa percaya yang lebih besar—sebuah ironi yang berlaku sangat kuat dalam konteks AI. Orang-orang yang melihat AI sebagai hal “ajaib” lebih cenderung menyambutnya dengan tangan terbuka, tanpa terlalu banyak pertanyaan.

Namun, seperti halnya teknologi lainnya, di balik kemudahan dan "keajaiban" itu, ada sistem kompleks, bias tersembunyi, dan risiko tak kasat mata. Karenanya, ketika kepercayaan diberikan tanpa pemahaman, kita tidak sedang beradaptasi dengan teknologi, melainkan menyerahkan kendali kepadanya.

Bukti dan data survei global terbitan Ipsos pada 2022, yang dilakukan terhadap lebih dari 19.000 responden di 28 negara, menyebut ada satu pola menarik: makin tinggi persentase orang yang mengaku memahami AI, makin besar kemungkinan mereka memercayainya.

Akan tetapi, temuan yang lebih mencolok justru datang dari negara-negara berkembang. Di Tiongkok, India, dan Brasil, antusiasme terhadap AI sangat tinggi, melampaui 70 persen, meskipun tingkat literasi teknologinya tergolong lebih rendah dibanding negara-negara maju seperti Prancis atau Jerman.

Aspek Psikologi Memengaruhi Persepsi terhadap AI

Jawabannya berkaitan erat dengan cara seseorang memersepsikan AI. Sebuah studi yang dimuat di Journal of Marketing (2019) menemukan, individu dengan tingkat pemahaman rendah tentang AI cenderung melihatnya sebagai sesuatu yang canggih, netral, bahkan ajaib. Mereka menerima hasil dari sistem AI tanpa banyak keraguan, seolah-olah mesin selalu benar dan tidak punya bias.

Sebaliknya, orang-orang yang lebih melek teknologi justru lebih skeptis. Mereka memahami bahwa AI hanyalah alat statistik kompleks—sistem yang belajar dari data masa lalu dan bisa mewarisi segala bentuk ketimpangan dan kesalahan dari data tersebut. Mereka tahu bahwa AI bisa “berhalusinasi”, bias, atau salah tafsir konteks. Kepercayaan mereka bukan hilang, tapi lebih selektif.

Hal itu diperkuat oleh studi berjudul "Algorithm Appreciation: People Prefer Algorithmic to Human Judgment" (2018) yang menunjukkan bahwa partisipan lebih memilih mengikuti saran dari algoritma ketimbang manusia, meskipun kedua sumber memberikan rekomendasi yang sama persis. Bahkan, ketika performa AI dibuktikan lebih buruk, kepercayaan terhadap label “otomatis” atau “berbasis data” tetap tinggi. Label saja sudah cukup membuat orang merasa yakin.

Efek tersebut bukan cuma terjadi di lingkungan eksperimen. Dalam praktik sehari-hari, misalnya ketika seseorang lebih percaya pada informasi yang diberikan oleh AI, mulai dari urusan diagnosis medis otomatis, chatbot, hingga ramalan cuaca.

Di sinilah letak paradoksnya: ketidaktahuan menciptakan rasa aman, padahal justru pemahamanlah yang seharusnya membangun kepercayaan yang sehat.

ilustrasi kepercayaan berlebih pada AI

ilustrasi kepercayaan berlebih pada AI. FOTO/iStockphoto

Cara otak manusia bereaksi terhadap teknologi baru juga memengaruhi persepsinya terhadap AI. Salah satu penjelasan paling awal dipantik oleh fenomena yang disebut Efek ELIZA—diambil dari nama chatbot yang dikembangkan pada 1960-an.

Kala itu, para pengguna berbicara dengan program sederhana yang hanya memarafrasekan pertanyaan mereka. Namun, banyak yang mengira dirinya sedang berinteraksi dengan sesuatu yang benar-benar “mengerti”. Akhirnya, meskipun sistem tersebut tidak memiliki kesadaran, orang cenderung memproyeksikan kecerdasan dan empati ke dalamnya.

Fenomena serupa terjadi hari ini dalam bentuk jauh lebih canggih. Chatbot modern, seperti ChatGPT, asisten virtual, dan generator gambar AI, mampu menghasilkan respons yang tampak manusiawi. Karena itu, bagi yang tidak terbiasa dengan cara sistem ini dilatih—menggunakan jutaan data, tanpa benar-benar memahami makna—keluaran tersebut dipersepsikan sebagai kecerdasan sejati. Hasilnya, "keajaiban" itu menjadi sumber kepercayaan.

Ada juga efek psikologis lain yang memperkuat pola tersebut, yaituautomation bias atau kecenderungan manusia untuk lebih memercayai keputusan yang diambil oleh sistem otomatis dibanding manusia, bahkan saat sistem itu salah. Dalam banyak kasus, orang akan tetap mengikuti saran dari AI dengan asumsi bahwa “komputer tidak bisa bohong” atau “datanya pasti objektif”.

Yang gagal disadari oleh orang-orang itu adalah fakta bahwa AI tidak lahir dari kekosongan. Ia dibentuk oleh data yang dikumpulkan manusia, lengkap dengan bias, ketimpangan, dan ketidaksempurnaan. Tanpa pemahaman akan hal itu, kepercayaan berubah menjadi kepatuhan buta.

Jangan lupakan pula efek yang kerap muncul dalam studi tentang pengetahuan: Efek Dunning–Kruger. Orang berpengetahuan rendah sering kali merasa lebih tahu, melebihi yang sebenarnya mereka ketahui. Sementara, orang yang benar-benar paham justru cenderung lebih merendah dan berhati-hati. Dalam konteks AI, hal itu menjelaskan alasan sebagian pengguna sangat percaya diri menggunakan alat-alat berbasis AI tanpa menyadari potensi bahayanya, sementara para ahli justru lebih lambat dalam mengadopsi teknologi yang sama.

Konsekuensi dari Keyakinan yang Buta

Kepercayaan buta terhadap teknologi bukan hanya soal preferensi pribadi. Dalam skala lebih luas, ia bisa membawa konsekuensi nyata dan tak jarang berbahaya. Bukan karena AI-nya berbahaya, tapi karena penggunaannya tidak disertai pemahaman yang cukup.

Salah satu dampak paling jelas adalah penggunaan AI yang berlebihan dan tidak tepat sasaran. Banyak orang mulai mengandalkan chatbot untuk nasihat kesehatan mental, meminta AI untuk memberi solusi hukum, bahkan menginginkan AI jadi pengganti politisi. Sebagaimana disebutkan di atas, itu adalah masalah ekspektasi yang keliru: AI dianggap tahu segalanya, padahal tidak.

Perbedaan persepsi terhadap AI memunculkan kesenjangan antara pengguna awal yang terlalu bersemangat karena “terpukau” dan pengguna kritis yang lambat bergerak karena “terlalu sadar”.

Hal itu tak lepas dari ketimpangan akses pendidikan, terutama terkait teknologi. Oleh karena itu, masyarakat yang tidak memiliki akses terhadap pendidikan teknologi lebih mudah terpapar hoaks AI, deepfake, dan penipuan-penipuan lainnya. Tanpa kemampuan untuk mengkritisi, mereka tidak tahu kapan harus bertanya, atau bahkan mencurigai bahwa ada sesuatu yang salah.

Terlebih, sebagaimana disebutkan dalam studi di atas, label saja sudah cukup untuk memengaruhi kepercayaan. Jika suatu sistem disebut “otomatis” atau “berbasis algoritma”, banyak orang langsung menganggapnya objektif dan lebih akurat daripada manusia.

Literasi, Transparansi, dan Pengendalian

Jika masalahnya adalah kepercayaan tanpa pemahaman, mestinya solusinya sudah jelas: meningkatkan literasi, memperkuat transparansi, dan mengembalikan kendali kepada pengguna. Bukan untuk menolak AI, tetapi agar kita bisa hidup berdampingan dengannya dengan cara yang sehat, kritis, dan bertanggung jawab.

ilustrasi kepercayaan berlebih pada AI

ilustrasi kepercayaan berlebih pada AI. FOTO/iStockphoto

Langkah pertama—dan yang paling mendesak—adalah edukasi literasi digital yang bermakna. Bukan hanya soal bisa memakai teknologi, tapi memahami cara kerjanya, keterbatasannya, dan risikonya. Literasi semacam ini harus masuk lebih awal ke dalam pendidikan, khususnya untuk generasi muda yang tumbuh besar dengan algoritma di genggaman. Mereka harus tahu bahwa tidak semua jawaban dari chatbot itu benar, bahwa sistem bisa bias, dan bahwa “data” tidak selalu netral.

Langkah berikutnya adalah mendorong desain teknologi yang transparan. Banyak sistem AI saat ini bekerja seperti “kotak hitam”. Maksudnya, pengguna bisa melihat hasil akhirnya tanpa tahu prosesnya. Inilah yang membuka celah bagi manipulasi dan salah paham. Untuk itu, para pengembang harus mulai merancang AI yang bisa menjelaskan prosesnya secara sederhana agar pengguna bisa menilai sendiri.

Dari sisi teknis, sudah mulai muncul inisiatif desain yang disebut sebagai friction points, atau fitur-fitur kecil yang memberi jeda dalam pengalaman pengguna. Friction points, dalam terminologi UX, sebenarnya bukan hal baik karena dapat membuat pengguna kabur. Namun, dalam konteks AI, ia justru dibutuhkan untuk memaksa pengguna merefleksikan keputusannya menggunakan AI.

Yang terakhir dan tidak kalah penting adalah perlindungan kebijakan publik. Pemerintah, institusi, dan otoritas terkait, harus ikut serta mengawasi penggunaan AI, terutama di sektor-sektor sensitif seperti pendidikan, kesehatan, dan hukum. Kita tidak bisa membiarkan sistem pengambilan keputusan otomatis berjalan tanpa akuntabilitas hanya karena masyarakat umum terlalu percaya.

Pada akhirnya, AI bukan makhluk hidup. Ia tidak punya niat, empati, atau nilai moral. Ia hanya meniru pola yang sudah ada, dan keputusan akhir tetap harus ada di tangan manusia. Oleh karenanya, untuk membuat keputusan yang baik, manusia perlu tahu hal yang sedang ia hadapi.

Baca juga artikel terkait KECERDASAN BUATAN atau tulisan lainnya dari Yoga Cholandha

tirto.id - Byte
Kontributor: Yoga Cholandha
Penulis: Yoga Cholandha
Editor: Fadli Nasrudin