tirto.id - Tamat sudah riwayat DeepNude. Aplikasi ini, menggunakan teknik deepfake, memungkinkan gambar manusia digabungkan dengan menggunakan teknologi kecerdasan buatan (AI). Yang jadi soal: aplikasi ini mampu “melucuti” pakaian yang dipakai oleh perempuan di dalam foto sehingga terlihat telanjang.
Jumat, 28 Juni 2019, akun Twitter @deepnudeapp mengeluarkan pernyataan.
“Ini adalah sejarah singkat, dan akhir dari DeepNude. Kami membuat proyek ini untuk hiburan pengguna beberapa bulan yang lalu. Kami pikir kami bisa melakukan beberapa penjualan setiap bulan secara terkendali. Jujur, aplikasinya tidak terlalu bagus, hanya bekerja dengan foto tertentu. Kami tidak pernah berpikir bahwa itu akan viral dan kami tidak dapat mengendalikan peredarannya. Kami sangat meremehkan pesan tersebut,” tulis sang pemilik akun yang mendaftarkan lokasi mereka di Estonia.
Dalam cuitannya, sang pemilik akun juga mengungkapkan tentang langkah keamanan yang telah mereka upayakan agar terhindar dari penyalahgunaan. Namun, mereka tak ingin meraup untung dari cara tersebut. Aplikasi ini diluncurkan dalam bentuk situsweb untuk menunjukkan cara kerja dari perangkat lunak ini dan bisa diunduh pada Windows dan Linux.
Asal-usul Deepfake
Kepopuleran teknik deepfake diperkirakan sudah ada sejak 1997. Saat itu, Christoph Bregler, Michele Covelle, dan Malcolm Slanley (PDF) melakukan teknik manipulasi video dalam proyek Video Rewrite. Program ini dibangun untuk memudahkan para pelaku perfilman dalam memodifikasi video.
Perangkat ini mampu mengatur ulang gambar mulut seseorang dengan rekaman audio lain. Video Rewrite merupakan sistem animasi wajah pertama yang mampu mengotomatiskan proses penyelarasan ulang rekaman yang ada ke rekaman baru.
Teknologi berkembang. Kini, orang-orang mampu memanfaatkan kecerdasan buatan untuk menghasilkan rekayasa gambar dan video yang “nyata”. Dalam artikel di Vox, diceritakan tentang perjalanan direktur pembelajaran mesin di Apple’s Special Projects Group, Ian Goodfellow, dalam mengembangkan kecerdasan buatan untuk foto, sejak 2014.
Hasilnya, dalam waktu kurang dari lima tahun, mereka mampu menghasilkan wajah manusia dengan penuh warna dan detail. Wajah mereka ekspresif dan mampu menyerupai manusia dari usia dan etnis tertentu. Bahkan, orang pun tak bisa membedakan bahwa wajah itu hanya rekayasa.
Kemajuan deepfaking semakin berbahaya. Sarah Atkinson, seorang dosen senior di Digital Cultures, King’s College London menjelaskan penyalahgunaan kecanggihan ini untuk memanipulasi pidato politik. Pendapat tersebut berdasarkan studi di University of Washington yang mencoba merekayasa pidato Obama.
Dalam riset tersebut, mereka mengubah suara dari pidato Obama menjadi suara orang lain, kemudian bentuk mulut dari pidato palsu itu dicangkokkan ke video itu dan disatukan dengan kepala Obama.
Penyalahgunaan Deepfake untuk Keperluan Pornografi
Tak hanya itu, pengembangan kecerdasan buatan ini semakin tak terkendali dan menakutkan bagi perempuan, sebab orang bisa memproduksi konten pornografi palsu.
“Ada kekhawatiran bahwa deepfake akan segera menyebar, memenuhi kehidupan kita sehari-hari dengan gambar bergerak, hingga kita tidak mampu lagi membedakan video mana yang asli dan yang palsu,” ungkap Atkinson dalam tulisannya di The Conversation.
Kecemasan para perempuan ini mulai muncul di akhir 2017, ketika seorang pengguna Reddit dengan nama Deepfakes—yang kemudian namanya digunakan sebagai nama populer untuk teknik manipulasi ini—mengunggah sebuah video porno yang telah diubah secara digital menggunakan kecerdasan buatan.
Menurut Guardian, pengguna itu berhasil mengganti wajah para pemain film porno tersebut dengan wajah selebritas, seperti Daisy Ridley, Gal Gadot, hingga Emma Watson. Scarlett Johansson pun buka suara mengenai fenomena ini. Melalui sebuah artikel di Washington Post, ia membahas tentang bahaya deepfake.
Salah satu aktris dengan bayaran tertinggi di dunia itu mengatakan dirinya tak mau membuang tenaganya untuk menghentikan seseorang membikin video porno palsu tentang dirinya. Johansson pun yakin publik lebih percaya pada dirinya ketimbang sang penyebar konten.
“Ini adalah pengejaran sia-sia bagi saya [mencari pelaku pembuat video porno palsu], tetapi situasi menjadi lain jika ada seseorang yang kehilangan pekerjaan karena wajah mereka disalahgunakan,” ujar Johansson dalam Washington Post.
Seseorang yang dimaksud Johansson di artikel itu adalah perempuan yang tidak setenar dirinya dan memiliki akses terbatas untuk melakukan klarifikasi. Tentu saja itu sebuah ancaman besar terhadap reputasi para perempuan.
Karena banyaknya kecaman, akhirnya situs Reddit menerapkan kebijakan konten terkait video palsu. Namun, tak banyak orang mengindahkan. Para kreator pun terus mencari celah, salah satunya dengan kemunculan aplikasi DeepNude.
DeepNude menjadi perbincangan publik setelah Motherboard mengulas tentang bahaya dari aplikasi ini karena mampu menelanjangi perempuan hanya dengan satu klik, sehingga gambar itu bisa terlihat seperti sungguhan.
Penggunaan aplikasi ini sangat mudah, cukup mengunggah gambar orang yang berpakaian dan dalam waktu singkat, maka pakaian yang dikenakan itu akan berubah menjadi payudara dan vagina. Aplikasi ini hanya bekerja pada gambar-gambar perempuan, sebab ketika Motherboard memasukkan gambar pria, celana dari orang itu tetap berubah menjadi vagina.
“Kami menguji aplikasi pada lusinan foto dan mendapatkan hasil paling meyakinkan pada gambar resolusi tinggi tentang Sport Illustrated Swimsuit,” tulis Samantha Cole dalam artikelnya.
Artinya, semakin terbuka pakaian yang digunakan, maka gambar yang diperoleh semakin sempurna. Meski begitu, aplikasi ini tetap mampu menelanjangi mereka yang mengenakan pakaian tertutup.
Pencipta aplikasi DeepNude, yang menggunakan nama Alberto sebagai nama samaran, menyampaikan bahwa dirinya memanfaatkan lebih dari 10.000 foto telanjang perempuan untuk melatih algoritma aplikasi tersebut. Untuk memalsukan gambar, pengguna cukup menunggu selama sekitar 30 detik, jika digunakan pada komputer normal.
Alberto pun mengatakan bahwa pengembangan aplikasi DeepNude yang ia lakukan hanya untuk kesenangan dan memuaskan rasa ingin tahu. Alberto terinspirasi dari iklan kacamata X-Ray yang sering ia jumpai di majalah tahun 1960-an hingga sekitar 1970.
Arwa Mahdawi dalam kolomnya di Guardian menduga matinya aplikasi DeepNude disebabkan karena salah satu kreatornya mengalami krisis hati nurani. Meski begitu, Mahdawi meminta kepada dunia untuk waspada.
“Tetapi aplikasi seperti ini akan terus muncul dan mereka akan tumbuh lebih canggih,” ujar Mahdawi.
Saat ini, banyak foto dan video porno yang beredar di internet, diunggah tanpa persetujuan dari sang pemilik wajah. Menurut Mahdawi, kemunculan aplikasi DeepNudes menunjukkan bahwa tujuan dari teknologi ini adalah untuk mengendalikan dan mempermalukan perempuan, sebab aplikasi ini hanya berfokus pada perempuan.
Alberto berdalih bahwa penggunaan perempuan sebagai satu-satunya objek di perangkatnya karena foto telanjang perempuan lebih mudah ditemukan di internet. Namun demikian, risiko besarnya bagi perempuan tak bisa diingkari. Perempuan lebih rentan karena aplikasi semacam ini akan semakin memuluskan upaya revenge porn.
Dengan adanya DeepNude, semua perempuan berpotensi menjadi korban revenge porn, meskipun mereka tak memiliki foto bugil. Bermodalkan foto perempuan berpakaian lengkap dan satu klik saja, pelaku bisa memperoleh foto telanjang dari target mereka.
Editor: Maulida Sri Handayani