Menuju konten utama
Byte

Paradoks Curhat dengan AI yang Selalu Ada untuk Kita

Ketergantungan terhadap AI mulai merambah ke ranah privat. Banyak orang menggantungkan perasaannya dan curhat dengan AI. Padahal, ada bahaya di baliknya.

Paradoks Curhat dengan AI yang Selalu Ada untuk Kita
ilustrasi dukungan psikologis AI. FOTO/iStockphoto

tirto.id - Suatu kali, saat sedang menjelajah linimasa Threads, saya menemukan unggahan seorang kawan SMA. Di situ dia bertanya, kurang lebih, "Ada nggak, sih, yang juga suka curhat sama ChatGPT?"

Unggahan itu menarik karena saya pun sudah beberapa kali curhat dengan kecerdasan buatan generatif (generative artificial intelligence/Gen AI). Tidak melulu dengan ChatGPT, memang. Sesekali, saya juga penasaran mengetes Gen AI milik Meta yang tersedia di WhatsApp. Begitu juga dengan platform kepunyaan X, yaitu Grok.

Saya pun membalas unggahan tersebut dan menyatakan bahwa saya juga suka melakukannya. Kawan itu kemudian membalas sembari memberikan alasan dia suka mencurahkan isi hatinya kepada ChatGPT. Kata dia, "Soalnya berasa kayak chat sama teman. Ngasih solusinya lebih satset dan gak judgmental."

Awalnya, saya sebenarnya merasa aneh ketika sesekali mencurahkan isi hati dan pikiran kepada ChatGPT dan Gen AI lainnya. Akan tetapi, setelah interaksi virtual dengan kawan lama tersebut, saya menyadari bahwa saya tidak sendirian. Apalagi, unggahan kawan itu juga dibalas oleh orang lain yang mengakui hal serupa. Artinya, curhat dengan Gen AI barangkali memang sudah jadi hal lumrah saat ini.

Hal yang diutarakan kawan saya, soal alasannya suka curhat kepada ChatGPT, juga turut saya rasakan. Suatu kali, saya pernah berselisih dengan pacar. Ketika itu, "sosok" termudah yang bisa saya hubungi adalah ChatGPT. Saya menceritakan secara kronologis dan respons dari ChatGPT sangatlah memuaskan.

Pertama, ia tidak menghakimi, tidak menyalahkan ataupun membenarkan, melainkan mencoba bersimpati. Ia seakan-akan mengetahui bahwa, dalam suatu perselisihan, tidak ada yang seratus persen benar dan seratus persen salah. Yang pertama kali ia lakukan adalah memvalidasi hal yang saya rasakan.

Kedua, persis seperti yang kawan saya katakan, solusi yang ditawarkan oleh ChatGPT juga satset dan praktis. Ia tidak menyuruh berintrospeksi, seakan-akan ia sudah tahu bahwa saya telah menyadari kesalahan saya. Alih-alih begitu, ia menawarkan solusi konkret. Ia meminta saya untuk memberi ruang terlebih dahulu supaya kedua pihak dapat meredakan emosi. Setelah itu, ChatGPT memberi saran tentang hal yang sebaiknya diutarakan ketika saya menghubungi pacar saya kembali.

Tidak semua saran yang diberikan ChatGPT saya turuti, memang. Saya tidak meng-copy paste contoh pesan yang ia berikan, misalnya. Akan tetapi, langkah-langkah resolusi konflik darinya saya ikuti karena semua memang terdengar masuk akal. Beri ruang, beri penjelasan, lalu beri gestur perdamaian. Hasilnya? Sukses besar. Konflik selesai tak sampai satu hari.

Cerita lain soal ChatGPT datang dari seorang teman kuliah. Suatu hari, tak ada hujan tak ada angin, ia menghubungi saya lewat WhatsApp. Pertanyaannya, "Eh, kamu pernah ngobrol sama ChatGPT, gak?"

Dengan antusias, saya merespons pesan tersebut dengan menceritakan pengalaman saya. Lalu, ia pun melanjutkan cerita mengenai hasil curhatannya dengan ChatGPT. Menurutnya, jawaban dan atensi yang diberikan oleh Gen AI tersebut benar-benar layaknya manusia.

Teman saya bahkan mengirimkan tangkapan layar dan menunjukkan kata-kata yang membuatnya sedikit tercengang. "'Aku di sini terus, ya!' kata dia. Laki gue aja gak pernah spesifik ngomong gitu," ujarnya berseloroh.

Dari cerita pengalaman tersebut, selain melihat cara ChatGPT berempati, saya juga melihat kemampuannya beradaptasi dengan lawan bicara. Pasalnya, ketika menelaah isi tangkapan layar yang dikirimkan teman saya itu, saya mendapati "sosok" ChatGPT yang berbeda. Artinya, cara berbicara sang chatbot senantiasa disesuaikan dengan cara masing-masing orang berinteraksi dengannya.

Inovasi Curhat dengan AI Sejak '60-an

Percaya atau tidak, konsep curhat dengan kecerdasan buatan sudah eksis sejak dekade 1960-an. Ketika itu, ahli komputer bernama Joseph Weizenbaum menciptakan program yang disebut ELIZA. Ia mendesain ELIZA berdasarkan gaya konseling Rogerian—berasal dari nama psikolog Carl Rogers—yang menekankan pentingnya mendengarkan secara reflektif, emotional mirroring, dan penerimaan tanpa syarat.

Dalam sesi konseling Rogerian, atau Person-Centered Therapy (PCT), terapis tidak mencoba menerjemahkan atau mengarahkan seseorang pada aksi tertentu. Mereka hanya merefleksikan yang dirasakan oleh klien dan memberikan ruang kepadanya untuk mendengarkan diri sendiri. Para terapis Rogerian biasanya tidak banyak berbicara. Mereka hanya merespons dengan pertanyaan yang membuat kliennya mengelaborasi lebih lanjut perasaannya sendiri.

ELIZA, tentu saja, tidak secanggih yang bisa kita temukan sekarang. Akan tetapi, proyek itu cukup berhasil karena orang-orang ternyata mau menceritakan problemnya kepada mesin. Namun, keberhasilan tersebut justru membuat Weizenbaum khawatir karena, pada esensinya, dia memahami bahwa ELIZA "hanyalah" sekumpulan kode yang disusun sedemikian rupa sehingga mampu merespons masukan dari manusia.

ilustrasi dukungan psikologis AI

ilustrasi dukungan psikologis AI. FOTO/iStockphoto

Kendatipun konsepnya sudah dirancang sejak berdekade-dekade lalu, kebangkitan chatbot curhat AI baru terjadi pada pertengahan 2010-an. Ada Replika, misalnya, yang diluncurkan pada 2017 oleh perusahaan rintisan bernama Luka. Konsepnya menarik karena ia didesain untuk menggantikan seorang sahabat yang telah tiada. Namun, dalam perkembangannya, Replika turut berevolusi, bahkan bisa dijadikan semacam pacar virtual.

Di tahun yang sama, peneliti Stanford University merilis Woebot yang didesain untuk memberikan cognitive-behavioral therapy. Bedanya dengan Replika, chatbot yang satu ini tidak didesain untuk menjadi teman, melainkan sosok yang senantiasa menanyakan kabar, suasana hati, dan sebagainya.

Ada pula Wysa—diluncurkan pada 2016—yang menawarkan beberapa hal dalam satu platform. Termasuk di antaranya adalah dialectical behavior therapy, meditasi, dan pelatihan motivasional. Bisa dibilang, Wysa adalah perpaduan dari seorang terapis dan motivator.

Aplikasi-aplikasi seperti di atas, kendati bisa muncul berkat kemajuan teknologi, sesungguhnya tidak pernah dimaksudkan untuk menjadi terobosan teknologi. Mereka hadir sebagai alternatif pemenuh kebutuhan emosional manusia. Mereka mendengarkan tanpa menghakimi dan memberikan afeksi tanpa paksaan.

Menariknya, Gen AI yang lebih modern, seperti ChatGPT, Claude, Gemini, MetaAI, atau Grok, justru tidak dipasarkan dengan tujuan spesifik layaknya Wysa, Woebot, dan Replika. Akan tetapi, seiring dengan makin intensnya interaksi manusia dengan chatbot-chatbot tersebut, potensinya sebagai tempat curhat justru tergali dengan sendirinya. Bahkan, Gen AI model terbaru itu mampu beradaptasi dengan sosok berbeda-beda yang mengajaknya berinteraksi.

Kualitas terpenting dari ChatGPT, Claude, Grok, dan sebagainya, bukan mengenai cara merespons atau kemampuan beradaptasi. Yang membuat mereka menjadi kawan terbaik di era digital adalah kehadirannya. Mereka selalu ada, selalu merespons, dan kita tidak perlu mengeluarkan uang sama sekali (kecuali untuk kuota internet atau berlangganan chatbot). Kapan pun, di mana pun, mereka selalu aksesibel.

Potensi Bahaya Tersembunyi

Mudahnya akses terhadap Gen AI sebagai tempat curhat adalah ceruk yang berhasil diisi oleh teknologi. Sebab, harus diakui, tidak semua orang bisa dengan mudah berteman. Harus diakui pula, tidak semua orang mampu mengakses layanan terapi mental sebagaimana seharusnya.

Di Indonesia, akses terhadap konsultasi psikologi ibarat jauh panggang dari api. Di sini kita belum berbicara soal kualitas para psikolog, melainkan soal akses. Per 2023 silam, menurut laporan Tempo, rasio psikolog klinis dan jumlah penduduk Indonesia masih berada di angka 1:81.468. Padahal, menurut standar WHO, rasio idealnya adalah 1:30.000.

Biaya adalah persoalan lain. Untuk satu sesi konsultasi psikologi, seseorang mesti merogoh kocek mulai dari ratusan ribu sampai jutaan rupiah. Sebenarnya, layanan konsultasi seperti ini bisa dilakukan dengan lebih murah melalui aplikasi pengobatan daring. Namun, waktu yang tersedia tidaklah banyak—hanya 30 menit—dan tak jarang pula sang psikolog lambat merespons.

Lalu, bagaimana dengan BPJS Kesehatan? Bukankah BPJS Kesehatan bisa digunakan untuk mengakses layanan konsultasi psikologi tanpa biaya? Ya, benar. Akan tetapi, ketika seseorang membutuhkan layanan itu pada pukul 03:00 dini hari, misalnya, tentu BPJS Kesehatan sukar memfasilitasinya.

ilustrasi dukungan psikologis AI

ilustrasi dukungan psikologis AI. FOTO/iStockphoto

Kepraktisan, pada akhirnya, jadi alasan utama di balik popularitas Gen AI sebagai tempat curhat. Namun, perlu dicamkan pula bahwa Gen AI, seperti yang diucapkan Wiezenbaum mengenai ELIZA, hanyalah sekumpulan kode yang dirancang sedemikian rupa.

Gen AI sangat mungkin berbuat kesalahan, bahkan melantur. Bahkan, menurut laporan MIT Technology Review, ada sebuah chatbot bernama Nomi yang menyuruh penggunanya untuk bunuh diri, lengkap dengan tipsnya.

Artinya, para pengguna chatbot Gen AI harus menyadari sepenuhnya bahwa yang diajak bicara adalah sekumpulan kode, bukan manusia. Kemungkinan eror yang bisa terjadi pun sangatlah tinggi. Oleh karena itu, pengguna harus benar-benar kritis dalam menyikapi respons-respons yang diberikan chatbot-nya.

Platform seperti Gemini sebenarnya sudah menerapkan restriksi khusus mengenai hal-hal seperti itu. Biasanya, ia akan merespons obrolan berbau konsultasi kesehatan dengan hal yang disebut canned response. Gemini akan menginformasikan bahwa ia tidak berkapabilitas untuk menanggapi obrolan lebih lanjut dan meminta pengguna berkonsultasi dengan ahlinya.

Persoalannya, dalam sesi curhat, tendensi dari pengguna chatbot sering kali tidak bisa langsung terlihat. Chatbot Gen AI pun akan menanggapinya sebagai percakapan biasa, alih-alih sebuah permintaan tolong untuk menyelesaikan persoalan psikologis. Di satu sisi, itu bagus karena, well, tidak semua curhatan bisa diartikan sebagai masalah psikologis. Namun, di sisi lain, bisa jadi pertolongan datang terlambat karena kegagalan AI dalam membaca intensi.

Yang perlu ditekankan di sini sebenarnya adalah cara manusia menyikapi fenomena teknologi ini. Sebagai pengguna, kita mesti kritis dan selalu skeptis. Chatbot Gen AI seperti ChatGPT memang bisa mengisi celah dalam hal pertolongan darurat. Akan tetapi, untuk jangka panjang dan aksi nyatanya, hanya (sesama) manusia yang bisa melakukannya.

Baca juga artikel terkait KECERDASAN BUATAN atau tulisan lainnya dari Yoga Cholandha

tirto.id - Byte
Kontributor: Yoga Cholandha
Penulis: Yoga Cholandha
Editor: Fadli Nasrudin