tirto.id - Hallucination AI atau halusinasi AI menjadi salah satu tantangan besar dalam pengembangan kecerdasan buatan. Lalu, apa yang dimaksud dengan halusinasi dalam konteks AI dan apa saja dampaknya?
Kecerdasan buatan (AI) adalah teknologi canggih yang mampu meniru kemampuan berpikir manusia. AI dapat melakukan tugas-tugas kompleks yang dulunya hanya bisa dilakukan oleh manusia, bahkan dengan kecepatan dan akurasi yang jauh lebih tinggi.
Namun, di balik kecanggihannya dan beragam manfaat yang ditawarkan, AI tetap memiliki sejumlah kelemahan yang perlu diwaspadai. Salah satunya adalah hallucination AI.
AI mampu menjawab berbagai pertanyaan dan memberikan jawaban yang sangat meyakinkan, tapi ada kalanya kecerdasan buatan ini menyampaikan sesuatu yang kurang akurat atau sepenuhnya keliru.
Hal ini bisa berbahaya jika pengguna terlalu percaya pada hasil AI tanpa melakukan verifikasi lebih lanjut. Oleh karena itu, meskipun AI dapat membantu mempercepat dan mempermudah berbagai aspek kehidupan, penggunaan teknologi ini tak boleh lepas dari pengawasan manusia.
Apa Itu Hallucination AI atau Halusinasi AI?

Halusinasi AI adalah fenomena ketika model kecerdasan buatan, terutama model bahasa besar atau large language model (LLM), menghasilkan informasi yang terlihat sebagai fakta, tapi sebenarnya salah, tidak masuk akal, atau malah mengada-ada.
Istilah "halusinasi" memang diadopsi dari konsep halusinasi pada manusia, yakni saat seseorang melihat atau mendengar sesuatu yang sebenarnya tidak ada.
Dalam konteks kecerdasan buatan, hallucination AI terjadi saat model "membayangkan" dan seolah-olah melihat pola yang tidak didasari oleh data pelatihan maupun input yang diberikan.
Ketika kita menuliskan promptdan mengharapkan jawaban, AI bisa saja memberikan output yang tidak didasarkan pada data pelatihan sebelumnya. Hasilnya, AI memberikan respons yang tidak relevan atau memberikan informasi yang tidak akurat.
Kenapa Itu Bisa Terjadi dan Bagaimana Contohnya?

Untuk memahami halusinasi AI, kita perlu mengetahui cara kerja AI terlebih dulu. Model AI dilatih dengan menggunakan data, termasuk LLM yang bekerja dengan cara memprediksi kata berikutnya berdasarkan probabilitas yang telah dipelajari dari data pelatihan yang sangat besar.
Oleh karena itu, keakuratan prediksi dan output AI sangat dipengaruhi oleh kualitas dan kelengkapan data pelatihan. Data pelatihan yang tidak lengkap inilah yang bisa berujung pada hallucination AI.
Ketika model AI menghadapi prompt yang ambigu atau tidak ada dalam data pelatihannya, AI kemungkinan akan “melihat” pola yang salah. Akibatnya, AI menghasilkan prediksi yang keliru dan membuat output yang koheren secara bahasa, tapi tidak akurat secara faktual.
AI juga tidak paham dengan “dunia nyata” dan tidak memiliki common sense seperti manusia. Artinya, AI tidak memiliki kesadaran atau pengalaman seperti manusia untuk membedakan antara fiksi dan fakta karena mereka hanya bekerja murni berdasarkan data.
Sebagai contoh, ada sebuah model AI yang data pelatihannya kurang up to date, misalnya menggunakan data pelatihan hingga tahun 2023. Dengan demikian, segala informasi yang muncul setelah tahun 2023 tidak akan masuk ke dalam pengetahuan dasar AI tersebut.
Ketika kita memasukkan prompt berupa pertanyaan tentang hal-hal terbaru yang terjadi di tahun 2025, AI akan memberikan jawaban yang ngawur dan tidak sesuai fakta.
Misalnya kita bertanya tentang siapa sosok X yang merupakan influencer viral di tahun 2025, AI yang belum memiliki data tentang X bisa “berhalusinasi” dan menjawab bahwa X adalah seorang profesor ternama atau semacamnya.
Contoh Halusinasi AI
Menurut laman Google Cloud, halusinasi AI dapat berwujud dalam beberapa bentuk:- Prediksi salah: Model AI memprediksi akan terjadi suatu peristiwa, padahal sebenarnya tidak mungkin terjadi. Misalnya, AI memprediksi bahwa besok akan hujan, tapi menurut badan prakiraan cuaca seperti BMKG justru tak ada hujan.
- Positif palsu: Model AI dapat mengidentifikasi sesuatu sebagai ancaman, padahal sebenarnya bukan. Misalnya, model AI digunakan untuk mendeteksi scam dan salah mengenali transaksi tertentu sebagai penipuan, padahal bukan.
- Negatif palsu: Model AI tidak bisa mengidentifikasi sesuatu sebagai ancaman, padahal hal tersebut memanglah ancaman. Misalnya, model AI digunakan untuk mendeteksi kanker, tapi AI malah gagal mengidentifikasi sel kanker dan menganggapnya sebagai sel atau jaringan yang sehat.
- Chatbot Bard milik Google pernah membuat klaim keliru bahwa teleskop luar angkasa James Webb adalah teleskop pertama yang menangkap gambar planet di luar tata surya.
- Seorang advokat bernama Steven A. Schwartz pernah menghebohkan dunia hukum karena “tertipu” oleh ChatGPT. Ia ketahuan memasukkan data 6 kasus fiktif hasil halusinasi ChatGPT ke dalam dasar gugatan ke pengadilan.
- Versi awal chatbot AI buatan Microsoft, Sydney, pernah mengaku memiliki perasaan jatuh cinta pada penggunanya hingga memata-matai karyawan Bing, hingga membuat pernyataan yang meresahkan dan mengada-ada.
- Martin Bernklau, jurnalis Jerman pernah mencari informasi tentang dirinya di Microsoft Copilot. Hasilnya, Copilot menyebut dirinya sebagai pelaku pelecehan seksual anak, melarikan diri dari rumah sakit jiwa, pengedar narkoba, penipu janda, dan penjahat kejam. Padahal itu semua hanyalah kasus yang pernah ia tulis.
Dampak Halusinasi AI

Hallucination AI tentunya memiliki dampak negatif tersendiri, apalagi jika digunakan di bidang-bidang tertentu yang membutuhkan keakuratan informasi yang tinggi. Bahkan, informasi salah yang dihasilkan oleh AI bisa menyebabkan konsekuensi berbahaya jika tidak diawasi oleh manusia.
Berikut beberapa dampak halusinasi AI yang mungkin terjadi:
1. Penyebaran Hoax
Penyebaran hoaxatau informasi yang salah adalah dampak langsung dari halusinasi AI. Apabila AI digunakan oleh orang yang kurang kritis, informasi salah dari AI akan ia telan mentah-mentah tanpa melakukan verifikasi ulang. Hasilnya, terjadi penyebaran berita palsu dan misinformasi di masyarakat.2. Risiko Kerugian di Berbagai Sektor
AI telah digunakan di banyak bidang, mulai dari pendidikan, bisnis, hingga kesehatan. Ketika AI memberikan ouput yang keliru, tentunya hal ini bisa menimbulkan dampak negatif yang sangat besar.Sebagai contoh, AI di bidang kesehatan digunakan untuk mendeteksi penyakit, tapi halusinasi AI berupa negatif palsu bisa memberikan informasi medis yang keliru. AI gagal mendeteksi penyakit sehingga pasien tidak diberikan penanganan yang seharusnya ia dapatkan.
Dalam konteks bisnis, AI juga bisa memberikan output yang salah dan merugikan. Ketika diminta melakukan analisis tren pasar, sistem AI memberikan hasil analisis yang kurang akurat sehingga berpotensi menimbulkan kerugian bagi perusahaan.
3. Rusaknya Reputasi dan Turunnya Kepercayaan Publik
Bagi perusahaan AI atau pihak-pihak lain yang mengimplementasikan AI, halusinasi ini bisa merusak reputasi mereka, apalagi jika hallucination AI ini terus berlanjut dan konsisten memberikan output yang salah.Pada akhirnya, kepercayaan publik akan semakin turun terhadap AI, setidaknya pada model AI tertentu. Hal ini dapat menghambat adopsi teknologi AI di masa depan sekaligus menghambar kemajuan di berbagai bidang.
Cara Mereduksi Halusinasi AI

Untuk memastikan AI tetap menjadi alat yang andal dan aman digunakan, penting bagi kita untuk mengetahui bagaimana cara mencegah dan mengurangi risiko halusinasi AI. Berikut beberapa hal yang bisa dilakukan untuk mencegah halusinasi AI seperti dikutip dari laman Google Cloud:
1. Batasi Hasil yang Mungkin Dikeluarkan AI
Membatasi jumlah kemungkinan hasil yang bisa diprediksi oleh AI sangat penting dilakukan saat pelatihan, caranya dengan teknik regularisasi. Teknik ini membantu mencegah model AI terlalu menyesuaikan diri dengan data pelatihan (overfitting) dan mengeluarkan prediksi yang salah.Dengan kata lain, AI tidak boleh dibiarkan memprediksi terlalu bebas karena bisa menyimpang terlalu jauh dari fakta. Dengan membatasi ruang lingkup jawaban dan menghindari output yang ekstrem, AI bisa tetap berada dalam batas logika dan akurasi.
2. Latih AI dengan Sumber yang Relevan dan Spesifik
Pelatihan model AI harus menggunakan data yang relevan dengan tugasnya. Sebagai contoh, AI yang hendak digunakan untuk mendeteksi penyakit, maka ia memerlukan seluruh data yang berkaitan dengan penyakit tersebut.Data yang tepat sangatlah penting agar AI tidak memberikan output yang salah. Jika AI dilatih dengan informasi yang tidak berhubungan dengan tugasnya, ia akan bingung dan menghasilkan output yang tidak sesuai konteks alias berhalusinasi.
3. Buat Template atau Kerangka untuk Diikuti AI
Dalam pelatihan AI, template atau kerangka dapat memandu model AI untuk membuat prediksi. Misalnya, AI dilatih untuk menulis teks, maka harus ada template seperti judul, pendahuluan, isi, hingga kesimpulan.Dengan memberikan template yang terstruktur, AI akan lebih mudah menghasilkan konten yang relevan. Ini seperti memberi petunjuk arah agar AI tidak "berimajinasi" secara liar.
4. Beritahu AI tentang Hal yang Diinginkan dan Tidak Diinginkan
Dalam penggunaan AI, kita dapat memberi tahu tentang hal apa yang diinginkan maupun tidak, misalnya dengan memberikan masukan atau umpan balik dari output yang dihasilkan.AI dirancang untuk bisa belajar dari umpan balik pengguna. Dengan memberi tahu secara eksplisit mana jawaban yang sesuai dan mana yang tidak, kita membantu AI menyempurnakan output-nya sehingga tak lagi berhalusinasi dan menghindari kesalahan serupa di masa depan.
Hallucination AI menjadi salah satu kelemahan besar dari kecerdasan buatan yang tidak boleh diabaikan. Meskipun AI menawarkan berbagai kemudahan, potensi kesalahan dalam bentuk informasi yang keliru atau menyesatkan bisa berdampak serius dan menimbulkan kerugian di berbagai bidang.
Oleh karena itu, pemahaman yang baik tentang penyebab dan cara mencegah halusinasi AI menjadi hal yang sangat penting. Dari sisi pengguna dan masyarakat awam, halusinasi AI adalah alarm agar kita tidak bergantung sepenuhnya dengan kecerdasan buatan. Tetap gunakan AI dengan bijak untuk mengurangi risiko kerugian di masa mendatang.
Penulis: Erika Erilia
Editor: Erika Erilia & Yulaika Ramadhani
Masuk tirto.id


































