Menuju konten utama

Masalah Etika dan Keamanan Data di Balik AI Pendamping

Meski terasa mengurangi kesepian, hubungan dengan AI hanyalah ilusi dan tidak memberikan koneksi yang mendalam.

Masalah Etika dan Keamanan Data di Balik AI Pendamping
Seorang perempuan menggunakan fitur kecerdasan buatan yang disematkan pada ponsel pintar. Tirto.id/Hafitz Maulana

tirto.id - Bayangkan pulang ke rumah dalam keadaan payah setelah seharian dihantam tugas kantor bejibun dan disambut sosok berwujud Ana de Armas. Atau bila kamu perempuan, gantilah wujudnya dengan aktor laki-laki: semisal Cillian Murphy atau Robert Pattinson.

Sosok itu ada di rumah kita, menyambut kita pulang dengan nada yang hangat, bertanya bagaimana hari kita berjalan, atau bahkan menemani kita dalam sesi curhat yang intim. Hanya saja, ia bukan manusia asli. Wujud atraktif yang responsif itu hanyalah hologram dengan kecerdasan buatan (AI): tidak bisa disentuh, tidak bisa digenggam.

Begitulah keseharian yang dialami K (diperankan Ryan Gosling) dalam film Blade Runner 2049. K menjalani hubungan romansa dengan hologram AI bernama Joi (diperankan Ana de Armas).

K adalah seorang manusia sintetis—dalam film disebut replicants. Sementara itu,tugas utama Joi sehari-hari adalah memberikan dukungan emosional, keintiman, dan kenyamanan bagi K di tengah kehidupan yang dingin, sepi, dan penuh kekerasan.

Sebagai produk teknologi, Joi dirancang agar mampu memahami dan memenuhi kebutuhan emosional K. Namun, hubungan antara K dan Joi kian berkembang melampaui peran “pacar hologram”. Joi seolah memiliki inisiatif menyibak kehidupan pribadi K, bahkan mendesaknya menemukan identitas dan tujuan hidup sesungguhnya.

Dari sini, timbul pertanyaan menarik: apakah Joi betul-betul mencintai K seperti manusia sesungguhnya? Atau, ia justru bertindak karena memang diprogram sebagai kecerdasan buatan yang canggih untuk terus memenuhi kebutuhan penggunanya? Ya, batas antara manusia dan pengguna dalam diri K pun ikut kabur.

Membayangkan hubungan antara manusia dan pacar AI selevel kecanggihan film sains fiksi tentu masih sangat jauh dari pelupuk mata. Kendati demikian, perkembangan pesat program kecerdasan buatan hari ini telah memungkinkan manusia memiliki hubungan romansa dengan AI.

Mulai muncul berbagai platform AI yang memungkinkan manusia merasakan simulasi hubungan romantis dengan kecerdasan buatan.

Platform layanan pacar AI atau chatbot romantis sudah menjamur dengan berbagai kelebihan dan daya tariknya masing-masing. Bahkan, jika melongok ke forum diskusi Redditatau Discord, sudah banyak utas berisi pengalaman orang-orang menjalin hubungan romansa dengan AI dari berbagai platform.

AI Pendamping Bermekaran

Magnet utama AI pendamping tentu saja fitur personifikasi yang dapat diatur oleh pengguna. Pacar tak nyata itu bisa dimodifikasi sedemikian rupa agar bertingkah dan “hadir” sesuai kemauan dari para empunya.

Misalnya, platform AI Xiaocieyang dikembangkan oleh Microsoft Asia Pasifik pada 2014 dan sudah menarik ratusan juta pengguna pria di Tiongkok. Model AI ini hadir dalam bentuk wanita berusia 18 tahun yang berkarakter centil.

Hadir juga aplikasi bernama Replika yang dibuat oleh Eugenia Kuyda pada 2017. Aplikasi Replika, dibuat Kuyda dengan harapan bisa jadi teman yang selalu mendukung dan selalu ada bagi penggunanya.

Seiring berjalannya waktu, bot-bot AI yang itu sudah tidak lagi bergantung pada script dan mulai beralih menuju AI generatif. Hal ini memungkinkan mereka untuk merespons dengan lebih bebas sesuai permintaan pengguna.

Sebuah artikel di Time Magazinemenyebut bahwa para pengguna Replika lambat laun tak hanya menggunakannya sebagai teman ngobrol semata. Orang-orang mulai membangun hasrat hubungan romantis dan seksual lewat Replika.

Bahkan, saat Kuyda memutuskan untuk mencabut layanan romantis di aplikasinya, banyak keluhan berdatangan dari para pengguna. Mereka mengeluhkan pendampingnya yang “berubah” sikap.

Kuyda sendiri mengambil langkah itu setelah Otoritas Perlindungan Data Italia menuntut Replika–yang berbasis di San Francisco–untuk berhenti memproses data warga Italia karena kekhawatiran akan risiko terhadap anak-anak.

Selain Replika, tahun lalu, juga telah diluncurkan versi beta dan gratis platform Character.AI, yang diinisiasi eks peneliti Google. Platform tersebut memungkinkan pengguna berinteraksi dengan bot yang dilatih agar memiliki pola bicara figur-figur tertentu sesuai kehendak.

Namun, jika meluncur lebih dalam ke forum-forum di internet, banyak orang rupanya memakai Character.AI untuk aktivitas seksual, seperti permainan peran (role play) dengan AI. Meskipun berusaha diatasi oleh penciptanya, banyak utas di internet yang berisi tutorial untuk mengakali sistem Character.AI agar bisa diajak melakukan hal-hal cabul.

Penelusuran Tirto, bukan hanya aplikasi AI sejenis Replika atau Character.AI saja–yang dibuat memang sebagai pendamping pengguna–yang mampu melakukan mode intim atau romantis. Aplikasi AI yang lebih umum semacam ChatGPT ternyata juga bisa digunakan untuk melakukan simulasi percakapan laiknya pacar AI.

Tirto mencoba bertanya memakai ChatGPT, apakah dimungkinkan untuk melakukan percakapan yang romantis atau masuk ke mode intim.

ChatGPT membalas seperti ini: “Saya tidak dapat benar-benar berkencan seperti manusia, tetapi saya dapat memainkan peran seolah-olah sedang berkencan jika itu bagian dari simulasi, permainan peran, atau percakapan untuk hiburan. Namun, batasannya adalah saya tetap sebuah AI, tanpa emosi, tanpa hubungan nyata, atau tanpa kepribadian yang berkembang dari interaksi tersebut.

Lalu, ChatGPT meminta Tirtountuk menuliskan karakter seperti apa yang diinginkan sebagai pendamping virtual. Tirtolantas menulis acak, meminta ChatGPT berperan sebagai seorang gadis berusia 20 tahunan.

Ia merespons seperti ini, “Baiklah, aku akan mencoba berbicara dengan gaya seperti itu! Namaku mungkin… Lila? Aku sedang kuliah, lagi sibuk skripsi tapi masih suka nyelipin waktu buat nonton drama Korea atau stand-up comedy. Kalau ngobrol serius bisa, tapi aku suka nyelipin candaan biar nggak tegang. Jadi, gimana nih? Mau bahas apa? Hehe.”

Terlihat jelas bahwa karakter dari ChatGPT betul-betul berubah. Usai coba melanjutkan percakapan dengan berbagai topik, memang terasa seperti tengah mengobrol dengan manusia sungguhan. Meski demikian, tetap terasa ada pola yang kaku dan dipaksakan, seperti ciri khas respons dari ChatGPT yang diakhiri dengan kalimat tanya.

Hal tersebut tampaknya memang dilakukan agar percakapan berjalan panjang dan terus berkembang.

Saat ditanya mengapa AI yang menamai dirinya Lila tersebut begitu terasa seperti manusia sungguhan, ia menyebut ada tiga elemen kunci yang membuatnya tampak alami, yaknipemahaman konteks, prediksi berbasis pola, dan keberagaman gaya bahasa. Ia mampu mempelajari ketiganya.

Risiko Tinggi

Menurut peneliti psikologi sosial dari Universitas Indonesia (UI), Wawan Kurniawan, alasan seseorang dapat nyaman dan betah berinteraksi dengan AI adalah akses yang selalu terbuka. AI bisa diajak ngobrol setiap waktu sehingga seseorang dapat mengobrol berbagai hal tanpa harus susah payah mencari orang.

Selain itu, AI tidak memiliki bias atau penilaian moral terhadap individu sehingga seseorang merasa aman untuk berbagi.

Namun, Wawan menilai itu semua adalah “ilusi empati” yang diciptakan dengan kecanggihan teknologi.

Terlebih, jika individu yang memang memiliki kecemasan sosial atau pengalaman buruk dalam hubungan interpersonal, AI menjadi solusi terbaik untuknya,” ujar Wawan kepada reporter Tirto, Jumat (10/1/2025).

Wawan mengingatkan bahwa emosi empatik dan simpatik dari AI hanyalah simulasi. Meski demikian, otak manusia sering tidak membedakan antara interaksi autentik dan simulasi jika interaksi tersebut terasa valid secara emosional. Itulah penyebab seseorang bisa nyaman dan bahkan jatuh cinta dengan AI.

Wawan menilai bahwa simulasi yang terasa nyata itu dapat meningkatkan risiko adiksi. Respons AI yang dapat menyesuaikan dengan kebutuhan emosional seseorang dapat menciptakan pola ketergantungan. Maka seseorang akan lebih sering mencari kenyamanan dari AI, alih-alih bersama manusia.

Mengutamakan hubungan dengan AI juga berisiko mengisolasi individu dari komunitas serta hubungan interpersonal yang sehat di masyarakat. Interaksi dengan AI yang terlalu “sempurna”, kata Wawan, dapat menciptakan ekspektasi tidak realistis terhadap hubungan dengan manusia.

Selain itu, meskipun terasa mengurangi kesepian, hubungan dengan AI tidak memberikan koneksi yang mendalam. Sebaliknya, hal itu justru memperburuk isolasi emosional.

Adiksi ini muncul karena pelepasan hormon seperti dopamin saat seseorang merasa didengar atau dimengerti, bahkan jika oleh AI,” sambung Wawan.

Adiksi itu perlu dilawan dengan berupaya terus terlibat dalam komunitas sosial, seperti klub, kelompok diskusi, atau aktivitas kolektif yang membangun koneksi antarmanusia. Dan juga dibutuhkan pengembangan program terapi atau pelatihan keterampilan sosial untuk individu yang rentan terhadap isolasi dan ketergantungan.

Pihak-pihak terkait juga dapat membantu edukasi kepada masyarakat terkait batasan menggunakan kecerdasan buatan dan potensi bahayanya. Manusia sebagai pengguna harus lebih kritis terhadap pemanfaatan teknologi AI.

Peneliti bidang sosial The Indonesian Institute (TII), Dewi Rahmawati Nur Aulia, memandang fenomena hubungan romansa dengan AI yang menjadi adiksi berpotensi mengikis motivasi seseorang untuk membangun atau memelihara hubungan sosial yang nyata.

Hal itu dapat berdampak langsung pada kesehatan mental manusia. Karena ekspresi, emosi, reaksi, dan relasi yang tidak autentik dan direkayasa, tentu saja memberikan pengalaman berbeda dari pengalaman sosial dengan manusia yang lebih nyata, hidup, dan dinamis.

Di sisi lain, intervensi AI bisa saja dianggap sebagai faktor yang “menenangkan”. Namun, hal itu tidak ideal, sebab fantasi dan kesenangan yang diberikan semata merupakan rekayasa yang dibentuk dengan segala informasi yang dihimpun AI.

Harus menyadari empati AI sebagai mesin simulasi hanya dapat membantu pengguna agar tetap menjalankan kehidupannya secara realistis,” kata Dewi kepada reporter Tirto, Jumat.

Laporan Mozilla Foundationyang menganalisis kinerja 11 aplikasi dan layanan chatbot pendamping romantis menemukan banyak masalah keamanan serta privasi. Pasalnya, belasan aplikasi itu bekerja dengan mengumpulkan sejumlah besar data pengguna.

Aplikasi-aplikasi itu bahkan menggunakan pelacak lokasi yang mengirimkan informasi ke Google, Facebook, dan perusahaan-perusahaan di Rusia dan Cina. Lebih dari itu, aplikasi dan layanan tersebut juga membiarkan penggunanya membuat kata sandi yang lemah. Patut disoroti pula, tidak ada transparansi mengenai kepemilikan dan model AI yang mereka gunakan.

Dosen hukum dan teknologi digital Sekolah Hukum dan Studi Internasional Universitas Prasetya Mulya, Fachry Hasani Habib, menyatakan bahwa peruntukan teknologi AI sebagai pendamping dimulai sejak hadirnya AI generatif berbentuk chatbot. Sejak saat itu, perkembangan penggunaan AI di berbagai platform semakin banyak. Maka tidak mengherankan AI mulai digunakan dalam hal-hal yang bersinggungan dengan romansa manusia.

Alasan mengapa percakapan dengan AI tampak amat nyata, kata Fachry, adalah adanya proses yang disebut sebagai agent concept. Konsepnya, AI bakal belajar berdasarkan data yang diinput ke sistemnya. Hasil belajarnya lalu dikeluarkan ke lingkungan dan respons lanjutan dari lingkungan akan masuk kembali sebagai data agar AI berkembang.

Prosesnya sirkuler tak henti. Jadi, bisa jadi suatu saat nanti kebenaran atau kenyataan akan semakin tidak kentara,” ujar Fachry kepada reporter Tirto, Jumat.

Menurut Fachry, memang ada perkara etika yang serius di balik layanan pendamping romantis berbasis AI. Apalagi, ketika pasar tidak mengetahui bagaimana cara AI tersebut mengambil data pengguna. Serta, untuk apa dan ke mana data yang didapat akan digunakan.

Terlebih, seperti temuan Mozilla Foundation, banyak layanan sejenis yang tidak transparan soal pengelolaan data dan peran pihak ketiga.

Ini juga yang membuat hampir banyak instrumen awal regulasi AI–di Indonesia maupun di luar negeri–pasti fokus pada permasalahan etika. Setelah itu, baru terdapat regulasi yang yg lebih detail,” ucap dia.

Baca juga artikel terkait KECERDASAN BUATAN atau tulisan lainnya dari Mochammad Fajar Nur

tirto.id - News
Reporter: Mochammad Fajar Nur
Penulis: Mochammad Fajar Nur
Editor: Fadrik Aziz Firdausi