Menuju konten utama
Byte

Algospeak: Bahasa Kucing-kucingan Manusia dan Mesin

Belantara media sosial tak lagi bebas. Kata-kata yang mengandung trigger warning disensor otomatis oleh mesin, bahkan meski konteksnya edukatif.

Algospeak: Bahasa Kucing-kucingan Manusia dan Mesin
ilustrasi algospeak. FOTO/iStockphoto

tirto.id - Selamat datang di dunia algoritma, ketika kebebasan berbicara senantiasa dikebiri oleh sensor otomatis yang bikin geleng-geleng kepala. Di sini, kita tidak berbicara dengan kosakata yang biasa digunakan sehari-hari oleh manusia normal. Agar selalu bisa menyampaikan maksud tanpa kena takedown, kita bicara dengan bahasa algospeak.

Bagi para pengguna Instagram, YouTube, atau TikTok, algospeak mestinya bukan hal asing, meski secara istilah mungkin terdengar baru. Kata seks, misalnya kerap kali diganti dengan "seggs" sedangkan bunuh diri bertransformasi menjadi singkatan "BD" atau istilah "unalive".

Kata-kata tersebut memang tidak sedap dipandang dan, bagi yang pertama kali membacanya, terlihat seperti candaan tongkrongan yang tidak lucu. Namun, begitulah seni bertahan di tengah buasnya rimba sensor algoritma yang sungguh tak pandang bulu.

Tak peduli konteks, hukuman berupa takedown, shadowban, atau suspensi, bisa langsung jatuh begitu saja. Maka, mau tak mau, suka tak suka, adaptasi harus dilakukan.

Algoritma Sensor yang Buta Konteks

Sebelum mendeaktivasi akun pada 2025, "karier" bermedia sosial saya sebagian besar dihabiskan di Twitter alias X. Di platform tersebut, algospeak terbilang jarang ditemukan karena dari dulu Twitter memang sangat bebas dan tidak jarang cenderung brutal, khususnya setelah berubah menjadi X. Karenanya, ketika pertama kali membaca kata "unalive" beberapa tahun lalu di Twitter, saya keheranan. "Omong kosong Gen Z macam apa lagi ini?" pikir saya.

Namun, saya salah sangka. Telusur punya telusur, selidik punya selidik, saya mendapati bahwa kosakata "unalive" muncul pertama kali dari media sosial TikTok yang sensor algoritmanya segalak pemerintah negara asalnya. Semua kata yang berkaitan dengan kematian diganti dengan "unalive" dan turunan-turunannya, misalnya "unalived" dipakai jika merujuk pada past tense atau passive voice serta "unaliving" untuk continuous tense.

Platform macam TikTok menerapkan sistem moderasi berbasis algoritma untuk menyaring konten berbahaya, seperti kekerasan ekstrem, pornografi, atau ujaran kebencian. Masalahnya, algoritma itu tidak dibekali dengan konteks. Kata kunci seperti seks atau bunuh diri bisa dibaca sebagai pelanggaran, bahkan ketika digunakan dalam diskusi edukatif atau berbagi pengalaman penyintas.

Di satu sisi, moderasi berbasis algoritma memang memudahkan pengelola platform. Hal itu dikarenakan, melacak semua komentar dan ujaran secara manual adalah pekerjaan yang bisa dibilang mustahil. Namun, di sisi lain, mengotomasi moderasi dengan algoritma juga menimbulkan efek samping berupa kebutaan akan konteks. Walhasil, konten-konten yang sebenarnya bermanfaat, misalnya edukasi kesehatan mental, advokasi kekerasan seksual, atau diskusi identitas gender, justru terberangus secara otomatis hanya karena mengandung kata pemicu (trigger word) yang salah.

Yang lebih kacau lagi, dukungan terhadap Palestina sampai terkena sensor, terutama oleh Meta—induk dari Facebook, Instagram, dan WhatsApp, yang punya relasi kuat dengan Israel. Saya sendiri sempat menjadi korban dari kebodohan sensor algoritma milik Meta ini. Ketika mengunggah postingan penghormatan untuk pemimpin Hamas, Yahya Sinwar, yang meninggal dunia beberapa waktu lalu, tak lama kemudian muncul notifikasi bahwa postingan saya telah di-takedown. Padahal, saya sama sekali tidak menulis kata “Hamas” maupun nama almarhum.

Dari rimba yang buas dan tak dapat diprediksi itu, lahirlah sebuah mekanisme untuk bertahan hidup bernama algospeak. Bisa dikatakan, semua kultur memiliki algospeak-nya sendiri-sendiri. Mengganti kata-kata berbau kematian dengan unalive adalah contoh algospeak dari kultur berbahasa Inggris. Ada pula kosakata lain seperti "sui" atau "s-word" untuk menggantikan suicide serta "corn" sebagai kata ganti porn. Tak jarang, emoji seperti 🌽dan 🍆 turut digunakan laiknya hieroglif pada layar ponsel modern.

ilustrasi algospeak

ilustrasi algospeak. FOTO/iStockphoto

Indonesia juga memiliki algospeak-nya sendiri. Unalive juga sering digunakan di Indonesia untuk mengganti kata-kata berbau kematian. Opsi lainnya adalah menggunakan teknik ala mIRC, yaitu dengan menggabungkan alfabet dengan angka seperti "m4t1" untuk menggantikan kata mati.

Kemudian, singkatan "BD" acap dipakai untuk menggantikan kata bunuh diri. Lalu singkatan "SA" atau "KS" kerap ditulis untuk mewakili sexual assault atau kekerasan seksual. Selain itu, ada pula istilah "kaum pelangi" untuk menyebut LGBT. Bahkan, kata seperti trauma pun kerap dimodifikasi menjadi "tr*m4".

Tujuannya bermacam-macam, tergantung pengguna. Bagi kreator konten, menggunakan algospeak adalah cara supaya kontennya tidak di-takedown atau didemonetisasi. Selain itu, mereka menghindari risiko shadowban atau suspensi akun yang, tidak jarang, membutuhkan proses banding berbulan-bulan. Sementara itu, bagi penulis komentar, algospeak terpaksa digunakan supaya unggahannya tidak di-takedown atau agar akunnya tidak terkena suspensi.

Algospeak bukanlah slang internet. Atau, paling tidak, ia bukan slang internet biasa. Slang internet tidak diciptakan dari kebutuhan untuk mengakali algoritma dan bisa saja digunakan dalam kehidupan sehari-hari. Sementara itu, algospeak ada karena sensor algoritma yang buta konteks. Ia eksis secara khusus untuk berinteraksi di platform digital dan sering kali tidak sampai terbawa ke dunia nyata.

Upaya Lepas dari Algoritma Sensor

Di satu sisi, algospeak adalah bentuk kreativitas linguistik. Ia membuka ruang bagi komunitas untuk tetap berdiskusi tentang hal-hal penting, meski dalam kondisi represi digital. Bahasa ini menjadi kamuflase yang memberikan ruang aman bagi diskusi apa pun untuk bisa berjalan tanpa harus khawatir tersandung sensor.

Namun, di sisi lain, algospeak memiliki risikonya tersendiri. Makin banyak informasi yang disamarkan, makin besar pula potensi misinterpretasi. Diskusi-diskusi penting bisa kehilangan kejelasan dan konteks. Yang lebih berbahaya, budaya ini bisa memperkuat budaya self-censorship, yakni situasi ketika orang memilih diam atau menyamarkan kebenaran karena takut terkena hukuman digital.

Walau begitu, selama algoritma tetap menjadi penjaga gerbang utama komunikasi digital, tanpa transparansi dan pemahaman konteks, algospeak akan terus berkembang. Paling tidak, situasinya akan selalu begini sampai para pemilik dan pengelola platform menemukan jurus jitu untuk memberikan pemahaman konteks terhadap sensor algoritma yang diterapkan; bukan sekadar mengajarkan bahwa trigger word tertentu layak mendapat sanksi.

Bisa jadi di masa mendatang akan muncul moderasi dengan kombinasi antara mesin dan moderator manusia. Kreator diberi lebih banyak kendali atas konten yang akan diklasifikasikan. Dengan begitu, harapannya, sensor yang diterapkan menjadi lebih "sehat" dan melek konteks.

Sayangnya, untuk saat ini, internet masih bermain dalam dua dunia: satu yang terlihat oleh mesin, dan satu lagi yang hanya dimengerti oleh manusia.

Baca juga artikel terkait KEAMANAN DIGITAL atau tulisan lainnya dari Yoga Cholandha

tirto.id - Byte
Kontributor: Yoga Cholandha
Penulis: Yoga Cholandha
Editor: Irfan Teguh Pribadi