
Apple Digugat Karena Gagal Deteksi Foto Pelecehan Anak di iCloud
Jakarta – Apple digugat karena gagal menerapkan sistem pengenalan gambar untuk memindai materi pelecehan seksual terhadap anak (CSAM) di layanan penyimpanan iCloud-nya. Apple mengumumkan pada tahun 2021 bahwa mereka sedang mengembangkan alat untuk mendeteksi dan menandai foto dengan konten CSAM di iCloud, menurut laporan New York Times, Senin (9/12/2024). Pusat Nasional untuk Anak Hilang dan…