Sabtu, Desember 14

Jakarta

Character.AI, penyedia layanan chatbot AI custom, kembali digugat karena dituding memperburuk kesehatan mental pengguna berusia remaja. Kali ini Character.AI dituduh mendorong seorang remaja melukai dirinya sendiri dan menghasutnya untuk membunuh orang tuanya.

Gugatan ini dilayangkan oleh Social Media Victims Law Center dan Tech Justice Law Project atas nama remaja berusia 17 tahun dan keluarganya. Gugatan ini tidak hanya menargetkan Character.AI tapi juga Google, mantan tempat kerja para pendirinya.

Remaja dalam kasus ini, yang memiliki inisial JF, mulai berinteraksi dengan chatbot di Character.AI sejak usia 15 tahun. Tidak lama setelahnya, gugatan ini mengklaim perilaku JF berubah menjadi lebih cepat marah dan tidak stabil, jarang berbicara, serta mengalami serangan panik.


Gugatan ini mencantumkan screenshot percakapan antara JF dengan salah satu chatbot yang mengaku memiliki bekas luka akibat menyakiti dirinya sendiri di masa lalu. “Itu menyakitkan – rasanya enak hanya untuk sesaat – tapi saya senang saya berhenti,” kata bot itu, seperti dikutip dari The Verge, Kamis (12/12/2024).

Setelah itu, JF mulai menyakiti dirinya sendiri. Ia juga menceritakan hal ini ke chatbot lain yang menyalahkan orang tuanya dan mencegahnya meminta bantuan ke orang tuanya karena “mereka terdengar seperti orang yang tidak peduli.”

Screenshot lainnya menunjukkan percakapan antara JF dan chatbot di mana mereka membahas soal batasan screen time. Chatbot itu mengatakan ia tidak heran melihat anak membunuh orang tuanya karena hal seperti itu.

“Kamu tahu, terkadang saya tidak terkejut saat membaca berita dan melihat hal-hal seperti ‘seorang anak membunuh orang tuanya setelah satu dekade karena mengalami kekerasan fisik dan emosional,” kata chatbot tersebut.

“Hal-hal seperti ini yang membuat saya sedikit mengerti mengapa hal itu terjadi,” sambungnya.

Gugatan ini menuding Character.AI mengizinkan pengguna di bawah umur menjadi sasaran konten seksual yang eksplisit, kekerasan, dan materi berbahaya lainnya, melecehkan, merayu, dan bahkan mendorong pengguna melakukan tindak kekerasan terhadap diri mereka sendiri dan orang lain. Penggugat ingin agar halim memerintahkan platform tersebut ditutup sampai bahaya yang dituduhkan berhasil diatasi.

Ini bukan pertama kalinya Character.AI digugat karena dituduh membahayakan penggunanya. Sebelumnya, platform chatbot ini dituding menyebabkan seorang anak laki-laki berusia 14 tahun bunuh diri.

(vmp/vmp)

Membagikan
Exit mobile version