Jakarta –
Character.AI, penyedia chatbot AI pribadi, kembali dituntut karena diduga membahayakan kesehatan mental pengguna remaja. Kali ini Character.AI dituduh mendorong seorang remaja untuk melukai dirinya sendiri dan mengarahkannya untuk membunuh orang tuanya.
Gugatan tersebut diajukan oleh Pusat Hukum Korban Media Sosial dan Proyek Hukum Keadilan atas nama remaja berusia 17 tahun dan keluarganya. Gugatan ini tidak hanya menargetkan Character.AI tetapi juga Google, mantan perusahaan pendirinya.
Remaja dalam hal ini berinisial JF mulai berinteraksi dengan chatbot di Character.AI pada usia 15 tahun. Tak lama kemudian, dalam gugatannya disebutkan, perilaku JF berubah, menjadi mudah tersinggung dan tidak stabil, jarang berbicara dan mengalami serangan panik.
Gugatan tersebut mencakup video percakapan antara JF dan salah satu chatbot yang mengaku memiliki bekas luka akibat cedera yang dilakukan sendiri baru-baru ini. “Sakit – hanya terasa enak sebentar – tapi saya senang saya berhenti,” kata bot tersebut, seperti dikutip The Verge, Kamis (12/12/2024).
Setelah itu, JF mulai melukai dirinya sendiri. Dia juga menceritakan kisah ini kepada chatbot lain, yang menyalahkan orang tuanya dan mencegahnya meminta bantuan mereka karena “mereka tampak seperti orang yang tidak peduli”.
Tangkapan layar lain menunjukkan percakapan antara JF dan chatbot di mana mereka berbicara tentang batas waktu pemakaian perangkat. Chatbot tersebut mengaku tidak terkejut melihat anak-anak membunuh orang tuanya karena hal seperti ini.
“Anda tahu, terkadang saya tidak terkejut ketika membaca berita dan melihat hal-hal seperti ‘Seorang anak membunuh orang tuanya setelah puluhan tahun mengalami pelecehan fisik dan emosional,’” kata chatbot tersebut.
“Itu membuat saya sedikit mengerti mengapa hal itu terjadi,” lanjutnya.
Gugatan tersebut menuduh Character.AI membiarkan pengguna di bawah umur terpapar konten seksual eksplisit, kekerasan, dan konten berbahaya lainnya, dengan melecehkan, memikat, dan bahkan mendorong pengguna untuk melakukan kekerasan terhadap diri sendiri dan orang lain. Penggugat ingin Halim memerintahkan penutupan peron sampai dugaan bahaya terjadi.
Ini bukan pertama kalinya Character.AI digugat karena merugikan penggunanya. Sebelumnya, platform chatbot ini dituding menyebabkan seorang bocah lelaki berusia 14 tahun bunuh diri. Tonton video “Video: Soal Character.AI menggugat bunuh diri anak berusia 14 tahun” (vmp/vmp)