Technologue.id, Jakarta – Facebook membeberkan angka terbarunya dalam upaya menghapus konten berbahaya dari platformnya. Sebanyak 11,6 juta konten terkait kekerasan anak dan eksploitasi anak pada Juli dan September 2019 berhasil dihapus oleh Facebook.

Ini merupakan langkah perusahaan jejaring sosial terbesar itu dalam menanggapi reaksi publik atas kematian Molly Russell, remaja berusia 14 tahun asal Inggris yang mengakhiri hidupnya pada tahun 2017 karena melihat materi grafis tentang bunuh diri di Instagram. Ayah Molly mendapati sejumlah konten self-harm dan bunuh diri di akun Instagram milik Molly.

Dalam sebuah blog, wakil presiden Facebook, Guy Rosen mengatakan: “Kami menghapus konten yang menggambarkan atau mendorong seseorang untuk bunuh diri atau melukai diri, termasuk gambar grafik dan penggambaran real-time yang menurut para ahli mungkin akan membuat orang lain melakukan perilaku serupa.

Selain menghapus konten kekerasan anak, sebuah laporan mencatat antara Juli dan September 2019, Facebook juga menghapus 4,4 juta konten penjualan obat obatan, 133.000 konten terorisme dan propaganda, dan 2,3 juta konten penjualan senjata api.

Secara keseluruhan, angka menunjukkan komitmen Facebook menghapus konten berbahaya dalam jumlah besar.