Menuju konten utama

Dorongan Transparansi Konten Medsos Demi Lindungi Masyarakat

Akademisi mendorong aturan transparansi konten di media sosial. Indonesia bisa belajar dari DSA di Uni Eropa.

Dorongan Transparansi Konten Medsos Demi Lindungi Masyarakat
Warga menggunakan aplikasi media sosial Instagram dan TikTok di Kota Cimahi, Jawa Barat, Jumat (31/1/2025). ANTARA FOTO/Abdan Syakura/foc.

tirto.id - Kelompok akademisi melontarkan ide kepada DPR RI untuk membentuk aturan mengenai algoritma media sosial yang dikenakan kepada platform digital. Algoritma media sosial dinilai harus transparan, sebagai bentuk penguatan platform terhadap moderasi kontennya.

Dosen Universitas Multimedia Nusantara, Ignatius Haryanto Djoewanto, menyampaikan wacana ini dalam rapat dengar pendapat umum bersama Komisi I DPR terkait Revisi Undang-Undang (RUU) Penyiaran di Senayan, Jakarta, Senin (21/7/2025).

Ia menyinggung soal aturan serupa yang diterapkan di berbagai negara, yang mengumumkan pergantian algoritma tiga bulan sebelumnya. Seperti contoh di Uni Eropa, Australia, dan Kanada.

“Sehingga kemudian ada kesempatan dari platform-platform atau perusahaan-perusahaan yang ada untuk mengikuti atau menyesuaikan dengan kondisi yang ada. Dan itu artinya menyiratkan perlu adanya transparansi algoritma,” ungkap Ignatius.

Bukan berarti harus digabung dengan UU Penyiaran, para akademisi mengatakan regulasi soal platform digital bisa dipisah, mengingat model bisnis keduanya yang juga berbeda. Platform digital jenis media sosial misalnya, fokus dengan user generated content (UGC), alias memberi kebebasan pada pengguna untuk mengkreasikan konten.

Guru Besar Ilmu Komunikasi Universitas Islam Indonesia (UII), Profesor Masduki, menekankan pentingnya semangat co-regulation dalam mengatur platform digital ini. Dalam artian, semua pihak baik institusi pemerintah, swasta, maupun publik harus betul-betul dilibatkan dalam mengurus atau meregulasi konten digital.

Nah, ada satu yang mungkin juga perlu dipertimbangkan, karena di banyak negara aturan tadi itu sporadik di berbagai regulasi. Kalau kita kemudian berpikir ini semua diatur di Undang-Undang penyiaran, tampaknya ini mungkin istilahnya overconfidence ya," tutur Masduki.

"Bisa jadi ada risiko obesitas gitu, kegemukan yang diatur. Nanti bagaimana dengan kemampuan regulatornya, juga bagaimana dengan potensi tumpang tindih dengan regulasi yang lain,” tambahnya dalam forum yang sama.

Berbeda dengan lembaga penyiaran, platform digital beroperasi di luar persyaratan UU Penyiaran dan UU Pers. Oleh karena itu, Guru Besar Fakultas Hukum Universitas Padjadjaran, Ahmad M. Ramli, menyatakan jika nanti akan membuat revisi UU baru dan bakal menggabungkan kedua lembaga ini ke dalam satu pengaturan.

Sehingga harus secara proporsional membedakan mana-mana yang akan menjadi hak dan kewajiban dari kedua lembaga (lembaga penyiaran dan platform digital).

“Dari sisi lainnya, platform digital tidak dapat disamakan dengan lembaga penyiaran karena memiliki karakter dan fungsi yang berbeda secara fundamental. Lembaga penyiaran bersifat kuratif, mengelola dan mengontrol isi siaran berdasarkan prinsip jurnalistik dan etika profesi serta bertanggung jawab atas isi kontennya,” lanjut Ramli.

Sementara itu, platform digital UGC seperti YouTube, Instagram, dan TikTok membuka peluang bagi siapa saja menjadi kreator konten hanya dengan bermodal smartphone dan koneksi internet.

“Menyamakan platform digital dengan lembaga penyiaran tidak produktif bagi industri penyiaran itu sendiri, industri pers, maupun untuk publik yang mengkonsumsi informasi. Platform digital seperti UGC lebih berperan sebagai perantara atau hosting provider tempat publik mengunggah konten secara langsung tanpa kurasi atau verifikasi yang memadai,” ujar Ramli.

Berkaca dari Aturan Akuntabilitas Platform di Uni Eropa

Soal pengaturan algoritma dan akuntabilitas platform digital, mungkin Indonesia bisa belajar dari Uni Eropa. Mereka mengesahkan serangkaian aturan dalam The Digital Service Act (DSA) pada 2022 dan mulai berlaku tahun 2024. DSA bertujuan untuk menciptakan ruang digital yang lebih aman di mana hak-hak dasar semua pengguna layanan digital dilindungi.

Aturan dalam DSA utamanya berkaitan dengan perantara (layanan digital yang menyampaikan, menyimpan, atau menyebarluaskan informasi dari pihak ketiga) dan platform daring. Misalnya, lokapasar (e-commerce), jejaring sosial, platform berbagi konten, app store, serta platform perjalanan dan akomodasi daring.

Ilustrasi Logo Media Sosial

Ilustrasi Logo Media Sosial. FOTO/iStockphoto

Tak berarti sama rata, kewajiban para penyedia layanan tersebut beragam, disesuaikan dengan jumlah penggunanya di Uni Eropa. Instagram umpamanya, dikategorikan dalam DSA sebagai very large online platforms (VLOPs) atau platform daring yang sangat besar. Hal itu lantaran penggunanya di Uni Eropa mencapai lebih dari 45 juta orang per April 2023.

Dengan ditetapkan sebagai VLOP, maka Instagram mesti memenuhi ketentuan DSA, di antaranya; memiliki syarat dan ketentuan yang mudah dipahami dan digunakan, serta bersikap transparan terkait periklanan, sistem rekomendasi, atau keputusan moderasi konten.

Menurut aturan DSA, platform yang termasuk dalam VLOP juga harus mengidentifikasi, menganalisis, dan menilai risiko sistemik yang terkait dengan layanan mereka. Mereka harus mempertimbangkan beberapa risiko, khususnya terkait konten ilegal dan hak-hak fundamental, seperti kebebasan berekspresi, kebebasan media dan pluralisme, diskriminasi, serta perlindungan konsumen dan hak-hak anak

VLOP juga mesti menilai risiko soal keamanan publik dan proses pemilu, kekerasan berbasis gender, kesehatan masyarakat, perlindungan anak di bawah umur, serta perihal kesejahteraan mental dan fisik.

“Setelah risiko diidentifikasi dan dilaporkan kepada Komisi untuk diawasi, VLOP dan VLOSE (very large online search engines –red) wajib menerapkan langkah-langkah yang memitigasi risiko ini. Ini bisa berarti mengadaptasi desain atau fungsi layanan mereka atau mengubah sistem rekomendasi mereka. Langkah-langkah tersebut juga dapat berupa penguatan platform secara internal dengan lebih banyak sumber daya untuk mengidentifikasi risiko sistemik dengan lebih baik,” menukil keterangan resmi Komisi Eropa.

Penting untuk Kendalikan Konten Ilegal & Berbahaya

Peneliti di Pemantau Regulasi dan Regulator Media (PR2Media), Engelbertus Wendratama, menilai akuntabilitas platform digital penting sebagai bentuk transparansi perlindungan masyarakat. Perlindungan ini berarti mengendalikan konten ilegal dan berbahaya.

Dia menjelaskan yang dimaksud konten ilegal adalah segala jenis konten yang melanggar hukum di Indonesia; pornografi, perjudian, ujaran kebencian, pencemaran nama baik, dan kabar bohong, dan sebagainya.

Sementara konten berbahaya adalah konten yang legal di Indonesia, tetapi dapat melukai atau merugikan pengguna secara fisik maupun psikologis. Contohnya seperti konten yang membahayakan kesehatan publik, konten kekerasan, dan perundungan (bullying).

Meski begitu, Wendra menekankan transparansi platform yang mesti dilakukan berfokus pada “moderasi konten” yang lebih akuntabel dan transparan, alih-alih menggunakan istilah algoritma yang bisa disalahpahami sebagai urusan dapur perusahaan. Transparansi ke pengguna bisa dilakukan dalam bentuk, menguraikan informasi mengapa konten tertentu disarankan ke pengguna.

Rencana penerapan Sistem Kepatuhan Moderasi Konten

Warga menggunakan aplikasi media sosial TikTok di Kota Cimahi, Jawa Barat, Jumat (31/1/2025). ANTARA FOTO/Abdan Syakura/foc.

“Itu kan content recommendation lah istilahnya sebenarnya, karena algoritma itu besar banget ya. Jadi transparansi rekomendasi konten, bukan algoritma, karena algoritma itu model bisnis dia,” kata Wendra lewat sambungan telepon, Selasa (22/7/2025).a

Ia mendorong aturan ini untuk dimuat di Peraturan Pemerintah (PP) turunan UU ITE (Undang-Undang Informasi dan Transaksi Elektronik). Sebab menurut dia, UU Penyiaran tak ada urusannya dengan UGC, melainkan dengan platform digital yang kontennya dikurasi oleh platform, atau biasa disebut dengan SVOD (Subscription Video-On-Demand).

“Kalau di Uni Eropa itu undang-undangnya namanya AVMSD (Audiovisual Media Services Directive –Red). Nah, itu tuh dia cuma ngatur penyiaran konvensional dan penyiaran oleh SVOD, yaitu Netflix, Amazon Prime. Kenapa? Karena itu dia platformnya sejajar, kemudian model bisnisnya sejajar dengan penyiaran, yaitu kontennya dikurasi. Jadi dia sepenuhnya bertanggung jawab terhadap konten yang ada di situ. Seleksinya di awal, itu lah mekanisme perlindungannya di awal,” sambung Wendra.

Masyarakat perlu melek digital

Meski platform memang punya peran besar atas akuntabilitas dan transparansi konten yang disuguhkan, para pengguna media sosial tak berarti bisa lepas tangan begitu saja. Pengamat media sosial sekaligus Koordinator Bijak Bersosmed, Enda Nasution, menggarisbawahi pentingnya mengecek aturan atau fitur moderasi yang disediakan sebuah platform.

Misalnya, untuk mengatur secara mandiri konten yang berseliweran di reel Instagram, pengguna bisa memilih "tertarik" atau "tidak tertarik" ketika muncul pertanyaan atas suatu video yang lewat.

"Dan itu sudah ada fiturnya. Masalahnya dipakai nggak itu sama orang Indonesia? Itu yang jadi pertanyaan. Masalahnya orang Indonesia nggak pada pakai, maunya terima-terima aja. Jadi nggak dimaksimalkan fungsi-fungsi yang sudah ada dalam platform itu," ujar Enda saat dihubungi jurnalis Tirto, Selasa (22/7/2025).

Baca juga artikel terkait ALGORITMA atau tulisan lainnya dari Fina Nailur Rohmah

tirto.id - News Plus
Reporter: Fina Nailur Rohmah
Penulis: Fina Nailur Rohmah
Editor: Alfons Yoshio Hartanto