Kamis, Desember 26

Jakarta

Meta, perusahaan induk Instagram, dilaporkan secara aktif memungkinkan konten yang berkaitan dengan kekerasan, seperti gambar melukai diri sendiri dan foto-foto eksplisit, berkembang di platformnya. Penemuan ini terungkap melalui sebuah penelitian dari Denmark yang menunjukkan bahwa Meta tidak menghapus gambar-gambar tersebut, dan moderasi kontennya dianggap sangat tidak memadai.

Dilansir dari detikINET yang mengutip The Guardian pada Selasa (3/12/2024), para peneliti Denmark membuat jaringan pribadi di Instagram untuk menguji apakah konten terkait melukai diri sendiri akan dikenali dan dihapus oleh platform.

Mereka bahkan membuat profil palsu dengan usia 13 tahun dan membagikan 85 gambar yang berhubungan dengan perilaku melukai diri sendiri, dengan tingkat keparahan yang meningkat seiring berjalannya waktu. Konten tersebut termasuk gambar darah, silet, dan bahkan ajakan untuk melukai diri sendiri.


Penelitian ini bertujuan untuk menguji klaim Meta yang mengatakan bahwa mereka telah meningkatkan kemampuan untuk menghapus konten berbahaya, terutama dengan bantuan kecerdasan buatan (AI). Meta sebelumnya mengklaim bahwa mereka menghapus sekitar 99% konten berbahaya sebelum dilaporkan.

Namun, Digitalt Ansvar, sebuah organisasi yang mempromosikan pengembangan digital yang bertanggung jawab, menemukan bahwa dalam percobaan selama satu bulan, tidak ada satu pun gambar yang dihapus.

Lebih mengejutkan lagi, ketika Digitalt Ansvar mengembangkan alat AI sederhana untuk menganalisis konten, alat tersebut mampu secara otomatis mengidentifikasi 38% gambar yang berkaitan dengan melukai diri sendiri dan 88% gambar yang paling ekstrem. Temuan ini menunjukkan bahwa Instagram sebenarnya memiliki teknologi yang mampu menangani masalah ini, namun tidak menerapkannya secara maksimal.

Digitalt Ansvar menilai bahwa moderasi konten di Instagram sangat tidak memadai dan menyatakan bahwa Meta tidak mematuhi peraturan Uni Eropa, khususnya Undang-Undang Layanan Digital yang mengharuskan platform besar untuk mengidentifikasi dan mengurangi risiko sistemik, termasuk dampak negatif terhadap kesehatan fisik dan mental pengguna.

Sebagai respons, juru bicara Meta mengatakan bahwa konten yang mempromosikan melukai diri sendiri bertentangan dengan kebijakan perusahaan, dan mereka menghapusnya saat terdeteksi. Dalam laporan resmi, Meta mengungkapkan bahwa pada paruh pertama tahun 2024, mereka telah menghapus lebih dari 12 juta konten terkait bunuh diri dan melukai diri sendiri di Instagram, dengan 99% di antaranya dihapus secara proaktif.

Meta juga menambahkan bahwa mereka telah memperkenalkan fitur Akun Remaja Instagram yang mengatur konten sensitif dengan lebih ketat bagi remaja, untuk mengurangi kemungkinan mereka melihat atau direkomendasikan konten berbahaya.

Namun, meskipun klaim tersebut, penelitian dari Denmark menunjukkan bahwa algoritme Instagram justru membantu memperluas jaringan konten melukai diri sendiri. Anak-anak berusia 13 tahun yang bergabung dengan satu grup terkait melukai diri sendiri dilaporkan langsung terhubung dengan anggota grup lainnya, menunjukkan bahwa algoritme platform berperan dalam penyebaran konten berbahaya tersebut.

Ask Hesby, CEO Digitalt Ansvar, mengungkapkan keheranannya atas temuan ini. “Kami mengira bahwa seiring dengan meningkatnya tingkat keparahan gambar yang dibagikan, platform ini akan segera mengenali dan menghapusnya. Namun kenyataannya, itu tidak terjadi,” ujarnya.

“Kami terkejut karena kami berpikir bahwa mereka memiliki sistem yang cukup canggih untuk menangani masalah ini, tetapi ternyata itu tidak bekerja seperti yang diharapkan.”

Temuan ini semakin mengkhawatirkan karena menunjukkan bahwa meskipun Meta mengklaim memiliki alat untuk mengidentifikasi konten berbahaya, platform ini tampaknya tidak cukup serius dalam mengatasi masalah tersebut, yang bisa berdampak besar pada keselamatan pengguna, terutama kalangan remaja.

(jsn/afr)

Membagikan
Exit mobile version