Jakarta –
Apple digugat karena gagal menerapkan sistem pengenalan gambar untuk memindai materi pelecehan seksual terhadap anak (CSAM) di layanan penyimpanan iCloud-nya.
Apple mengumumkan pada tahun 2021 bahwa mereka sedang mengembangkan alat untuk mendeteksi dan menandai foto dengan konten CSAM di iCloud, menurut laporan New York Times, Senin (9/12/2024). Pusat Nasional untuk Anak Hilang dan Tereksploitasi.
Namun, langkah Apple tampaknya menimbulkan reaksi balik dan dampak langsung terhadap teknologi tersebut, sebelum Apple akhirnya membatalkan rencana tersebut.
Gugatan yang diajukan di California pada Sabtu (7/12) ini menuntut ganti rugi lebih dari $1,2 miliar (Rs 19 miliar) untuk 2.680 calon korban dan kompensasi.
Gugatan tersebut menuduh bahwa setelah Apple merilis alat keselamatan anak yang direncanakan, perusahaan tersebut gagal merancang atau mengambil langkah untuk mendeteksi dan membatasi CSAM pada perangkatnya, sehingga merugikan korban saat gambar tersebut dirilis ulang.
Dalam sebuah pernyataan yang dibagikan kepada Engadget, juru bicara Apple Fred Sainz mengatakan bahwa pelecehan seksual terhadap anak-anak adalah hal yang menjijikkan dan Apple berkomitmen untuk memerangi cara-cara predator menyakiti anak-anak.
“Kami secara aktif dan cepat berinovasi untuk memerangi kejahatan ini tanpa mengorbankan keamanan dan privasi semua pengguna kami,” kata Sainz.
“Misalnya, fitur seperti Komunikasi Aman memperingatkan anak-anak ketika mereka menerima atau mencoba mengirim konten ketelanjangan untuk membantu memutus rantai pemaksaan yang mengarah pada pelecehan seksual terhadap anak. Itu dimulai, lanjutnya. dia.
Gugatan ini muncul beberapa bulan setelah Apple dituduh oleh Perkumpulan Nasional untuk Pencegahan Kekejaman terhadap Anak (NSPCC) di Inggris karena tidak melaporkan materi CSAM. Tonton videonya: “Video: Rencana pabrik bisa membuka investasi Apple lainnya di RI” (jsn/fay)