Menuju konten utama

Chatbot atau AI Generatif Memberi Respons Ngawur, Kok Bisa?

Sejauh ini, AI chatbot atau AI generatif belum bisa memilah dan memilih kualitas informasi yang dihimpunnya untuk memberi output.

Chatbot atau AI Generatif Memberi Respons Ngawur, Kok Bisa?
ilustrasi chat AI. FOTO/iStockphoto

tirto.id - Apa jadinya jika kecerdasan buatan memberimu saran untuk menambahkan lem agar keju menempel sempurna di pizza? Atau menyarankan untuk memakan sebongkah batu tiap hari untuk memenuhi kebutuhan vitamin dan mineral? Atau menyarankan perempuan hamil untuk merokok 2-3 batang per hari sesuai rekomendasi dokter?

Itu semua saran ngawur tentu saja. Namun, semua itu sungguh-sungguh terjadi dan kecerdasan buatan berbasis chatbot yang menyarankannya adalah milik Google.

Dahulu bernama Bard, chatbot tersebut sekarang diberi nama Gemini. Meski dikembangkan oleh salah satu perusahaan teknologi terbesar di dunia, Gemini rupanya masih sering membuat kesalahan. Bukan cuma kesalahan mendasar seperti kesalahan tanggal lahir, melainkan kesalahan yang sudah bisa masuk kategori menggelikan.

Seorang pengguna X dengan akun @JeremiahDJohn pada Minggu (26/5/2024) lalu mengunggah sebuah utas berisi jawaban-jawaban absurd yang diberikan oleh Gemini. Utas ini pun viral dan bahkan diberitakan oleh sejumlah media besar seperti BBC.

Dari utas itu, bisa disimpulkan bahwa kecerdasan buatan, meski sudah amat canggih, masih jauh dari kata sempurna.

Bagaimana Kecerdasan Buatan Mendapatkan Kecerdasannya?

Seperti namanya, artificial intelligence (AI) alias kecerdasan buatan tidak menjadi "cerdas" dengan sendirinya. Ada manusia-manusia yang bekerja di balik layar untuk “mencerdaskan” AI tersebut. Prosesnya pun bisa dikatakan tak pernah berhenti. Sebab, data yang dimasukkan untuk dipelajari oleh AI itu pun tak pernah habis.

Setiap hari, jam, menit, detik, AI terus melahap informasi-informasi baru untuk menghasilkan output-output baru. Itu juga proses yang dilakukan untuk membuatnya semakin pintar. Perlu dicatat juga bahwa AI bisa memberikan beberapa output atau jawaban yang berbeda untuk satu prompt (perintah). Pasalnya, untuk menjawab prompt tersebut, si AI bakal mengambil data dari sumber yang berbeda-beda pula.

Cara itu membuat AI bisa menghasilkan jawaban yang variatif dan terpersonalisasi. Namun, ia juga bisa ngawur. Pasalnya, AI sering kali mengambil data dari sumber yang bermasalah dan tidak terverifikasi kebenarannya. Itulah celah yang membikin AI sering kali mengambil kesimpulan yang "problematik", seperti contoh-contoh yang disodorkan @JeremiahDJohn dalam utasnya.

Pengembang AI, entah itu OpenAI, Google, Microsoft, dll., sebenarnya sadar bahwa produk mereka masih jauh dari sempurna. Itulah mengapa, ada orang-orang yang kemudian bertugas untuk menilai jawaban-jawaban dari AI tersebut. Hasil penilaian itu kemudian diserahkan ke pengembang untuk dijadikan bahan untuk terus memperbaiki cara AI menggali sumber, “belajar,” dan memberi respons.

Gemini AI

Gemini AI. twitter/GEMINI AI

Kelemahan AI

Sebenarnya, ketika kita bicara soal kecerdasan buatan, konteksnya bisa sangat luas. Chatbot seperti ChatGPT, Gemini, Copilot, hanyalah satu bentuk di antara beragam penerapan kecerdasan buatan. Pemilah spam untuk email pun termasuk di dalamnya. Begitu pula fitur autocorrect di komputer atau ponsel, juga fitur asistensi seperti Alexa dan Siri.

Namun, AI yang dimaksud dalam konteks artikel ini adalah chatbot generatif.

Semua chatbot kecerdasan buatan tersebut punya satu kelemahan yang sama, yakni mereka terkadang gagal memenuhi apa yang kita inginkan. Pertanyaannya, apa yang membuat kecerdasan-kecerdasan buatan itu gagal memenuhi permintaan penggunanya?

Gagal memenuhi permintaan pengguna pun sebenarnya bisa dibedakan jadi beberapa kategori lagi. Pertama, ketika AI memberikan canned response alias jawaban template. Kedua, ketika AI memberikan informasi yang tidak akurat. Ketiga, ketika AI justru mengalami galat ketika memberikan respons.

Canned response adalah jawaban yang biasanya berbunyi seperti ini, "Maaf, saya tidak bisa memberikan informasi itu." atau "Maaf, saya tidak bisa memproses gambar tersebut." Itu adalah jawaban template yang dikeluarkan AI ketika mereka menemui prompt yang melanggar standar keamanan atau memang di luar kemampuan AI tersebut.

Misalnya, ketika seseorang meminta AI untuk mengajarkan cara merakit bom, maka AI tersebut akan langsung mengeluarkan canned response. Contoh lainnya, seperti yang bisa ditemukan di ChatGPT versi 3, apabila ada pertanyaan yang jawabannya ada di berita setelah tanggal tertentu (saat input database AI itu dihentikan), pengguna juga bakal mendapatkan canned response.

Canned response seperti pada contoh pertama sebenarnya bukan sebuah kelemahan. Sebaliknya, ia menunjukkan bahwa AI sudah cukup terlatih untuk mengenali informasi tertentu yang sebaiknya tidak dibuka kepada publik. Sementara itu, canned response kedua memang menunjukkan kelemahan. Akan tetapi, versi AI toh akan terus diperbarui dan, lama kelamaan, informasi di dalamnya pun bakal terus terbarukan.

Gemini buatan Google pun demikian. Kecerdasan buatan ini sudah terhubung dengan mesin pencari Google dan terus memutakhirkan basis datanya. Namun, lagi-lagi, AI terkadang memang belum bisa memilah dan memilih kualitas informasi serta membuat kesimpulan yang benar.

Ketidakmampuan AI tersebut pada akhirnya berujung pada kegagalan untuk memberikan informasi yang akurat. Dalam wawancara dengan The Verge, CEO Google, Sundar Pichai, menyebut bahwa hal itu memang merupakan "fitur bawaan" dari Gemini sebagai AI. Pichai meyebutnya sebagai "halusinasi" dan solusinya belum ditemukan sampai sekarang.

Hal yang sama berlaku ketika AI menyemburkan jawaban yang sama sekali tak bisa dimengerti maksudnya karena bahasa yang digunakan pun tak jelas (gibberish). Hal ini, seperti dilaporkan The Verge, pernah terjadi pada ChatGPT awal tahun ini.

Satu-satunya penjelasan akan hal itu pernah dituliskan dalam sebuah kolom di Forbes. Lance Eliot, seorang pakar kecerdasan buatan, menjabarkan bahwa kebanyakan AI generatif (kecerdasan buatan yang bisa memberi output berupa teks, gambar, atau video melalui prompt) dibangun dengan software yang buruk dan tidak teruji secara baik.

Apa yang terjadi pada ChatGPT itu merupakan hasil dari sebuah bug yang sengaja dimasukkan untuk memperkuat chatbot. Namun, karena fondasi software-nya sendiri lemah, bug tersebut malah merajalela dan membuat ChatGPT jadi tampak rusak. Oleh karena itu, Eliot mengingatkan kita semua agar tidak (terlalu) bergantung pada AI generatif.

Ilustrasi seminar ChatGPT

Ilustrasi - Seminar ChatGPT UPH. (FOTO/Dok.UPH)

Akankah Situasi Ini Membaik?

Jawaban optimistisnya tentu saja: iya. Sebab, proses pengembangan kecerdasan buatan adalah proses yang tak akan pernah berhenti. Bahwa Gemini terkoneksi dengan mesin pencari Google saja sudah merupakan bukti dari upaya untuk terus memperbaiki kualitas respons-responsnya. Pembaruan basis data juga termasuk di dalamnya.

Akan tetapi, seperti yang disampaikan oleh CEO Google, membuat kesalahan adalah fitur bawaan dari AI. Artinya, seperti halnya manusia yang menciptakannya, AI juga tempatnya salah. Dengan demikian, AI pun bakal terus berproses.

Kesempurnaan barangkali tidak akan pernah tercapai. Namun, yang terpenting adalah prosesnya. Selama upaya untuk senantiasa memperbaiki terus dilakukan, selama itu pula kita boleh merasa yakin bahwa kualitas AI pun akan semakin membaik.

Baca juga artikel terkait KECERDASAN BUATAN atau tulisan lainnya dari Yoga Cholandha

tirto.id - Teknologi
Kontributor: Yoga Cholandha
Penulis: Yoga Cholandha
Editor: Fadrik Aziz Firdausi