tirto.id - Facebook, media sosial pemilik 2,2 miliar pengguna, berencana mengubah algoritma news feed guna membendung konten yang melanggar kebijakan Facebook. Sebagaimana dilaporkan Techcrunch, konten-konten yang melanggar kebijakan Facebook tersebut misalnya hate speech, clickbait, dan terutama konten berisi informasi palsu.
Tujuan perubahan algoritma ini ditujukan untuk mengurangi jangkauan penggunaan Facebook oleh mereka para kelompok-kelompok politis hingga penjual berita palsu yang memperoleh untung dengan cara tidak pantas.
Dalam unggahan pribadi Mark Zuckerberg di Facebook, tindakan mengubah algoritma news feed dilakukan karena jika konten yang melanggar kebijakan Facebook dibiarkan akan memberikan dampak “masalah insentif dasar.” Menurut Zuckerberg, “orang-orang akan terlibat secara tidak proporsional dengan konten yang sensasional dan provokatif.”
“Kami di Facebook berkewajiban untuk membuat para pengguna merasa aman, apakah dari terorisme, perundungan, atau serangan lainnya,” tulis Zuckerberg.
Dalam dua tahun terakhir, Zuckerberg mengakui Facebook disalahgunakan oleh sebagian pengguna sebagai alat untuk mempengaruhi pemilihan, menyebarkan informasi palsu, dan penghasutan. “Ketika Anda menghubungkan dua miliar orang (melalui Facebook), Anda akan melihat semua keindahan dan keburukan umat manusia,” cetusnya.
Upaya Facebook untuk membendung konten negatif cukup sering dilakukan akhir-akhir ini. Pada bulan April 2018, Facebook menerbitkan panduan internal untuk menghapus konten-konten yang melanggar ketentuan.
Setidaknya ada 18 jenis konten yang dilarang Facebook, semisal konten yang foto yang memperlihatkan organ dalam tubuh atau pembakaran manusia. Lantas, Facebook pun membentuk tim khusus yang bekerja di 10 kantor di enam negara berbeda yang menurut Zuckerberg dilakukan guna “merefleksikan perbedaan norma dan budaya.”
Selain membentuk tim, Facebook juga mengembangkan artificial intelligence yang bekerja membendung konten negatif. Saat ini, fokus kerja AI itu ialah mendeteksi konten-konten bermuatan terorisme. Klaim Facebook, sang AI sanggup membasmi 99 persen konten bermuatan terorisme.
Secara umum, perubahan di tubuh Facebook bukan kali ini terjadi, khususnya yang terkait membendung konten negatif. Pada Januari 2015Facebook mengubah algoritma news feed untuk khusus membendung hoaks. Lalu, pada April 2016, Facebook mengharamkan click-bait bertengger di news feed-nya. Terakhir, semenjak November 2016, Facebook tidak mengizinkan iklan-iklan berbau konten negatif ditayangkan.
Editor: Yantina Debora