Apple membuat fitur
khusus untuk mendeteksi konten pelecehan anak dengan memindai foto yang ada di
iCloud. Nantinya konten pelecehan yang ditemukan akan dilaporkan ke penegak
hukum.
Sistem ini akan
mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, dimana gambar akan diubah
menjadi nomor unik yang mewakili gambar tersebut.
Diungkapkan dalam
halaman keamanan anak di website resminya,
Apple telah bekerja sama dengan pakar keselamatan anak, memperkenalkan fitur keselamatan
anak dalam tiga area.
Pertama pada area
keamanan komunikasi pesan. Dimana aplikasi pesan nantinya akan menambahkan
fitur alat baru untuk memberi peringatan ke anak-anak dan orang tua mereka saat
menerima atau mengirim foto seksual vulgar lewat perangkatnya.
Area kedua deteksi CSAM
atau Materi Pelecehan Seksual Anak. Lewat teknologi terbarunya di iOS dan
iPadOS nanti. Apple bisa mendeteksi gambar CSAM yang diketahui disimpan dalam
iCloud penggunanya.
Setelah itu, Apple juga
bisa melaporkan temuannya itu ke National Center for Missing and Exploited
Children (NCMEC), yang bekerja sama dengan lembaga penegak hukum di seluruh
Amerika Serikat.
Fitur ini bekerja
dengan mencocokkan hash gambar dengan database
hash yang disediakan oleh NCMEC. Proses pencocokkan ini akan dilakukan di iPhone
pengguna, bukan di cloud.
“Metode Apple untuk
mendeteksi CSAM (Materi Pelecehan Seksual Anak) yang diketahui dirancang dengan
mempertimbangkan privasi pengguna,” klaim perusahaan..
Jika Apple mendeteksi
beberapa foto yang melanggar aturan di akun iCloud, sistem akan mengunggah file
yang memungkinkan Apple untuk mendekripsi dan melihat foto di akun tersebut.
Foto itu kemudian ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.
Area ketiga, Apple juga
memperluas panduan di Siri dan Pencarian, dengan menyediakan sumber daya
tambahan untuk membantu anak-anak dan orang tua agar tetap aman saat mereka online. Sekaligus juga mendapatkan
bantuan dengan situasi yang tidak aman.
Misalnya, pengguna yang
bertanya kepada Siri bagaimana mereka dapat melaporkan CSAM atau eksploitasi
anak akan diarahkan langsung ke pihak terkait dengan cepat.
Begitupun saat pengguna
melakukan pencarian untuk kueri yang terkait dengan CSAM. Intervensi akan
dilakukan Apple, dengan menjelaskan kepada pengguna tersebut bahwa minat pada
topik ini berbahaya dan bermasalah.
"Kami ingin
membantu melindungi anak-anak dari predator yang menggunakan alat komunikasi
untuk merekrut dan mengeksploitasi mereka, dan membatasi penyebaran Materi
Pelecehan Seksual Anak (Child Sexual Abuse Material/CSAM)," tulis Apple
dalam keterangan di halaman keamanan anak website resminya.
Namun, ada kekhawatiran
muncul bahwa teknologi tersebut dapat disalahgunakan, termasuk oleh pemerintah
yang ingin mengawasi warganya.
Dikutip dari Guardian,
Matthew Green, seorang peneliti kriptografi di Universitas Johns Hopkins,
memperingatkan bahwa sistem tersebut juga berpotensi digunakan untuk menjebak orang-orang
yang tidak bersalah.
Terkait kekhawatiran
beberapa pihak itu, Apple sendiri menyangkal kemungkinan tersebut. Dikatakan
bahwa mereka telah hati-hati mempertimbangkan inovasi yang dikeluarkannya, agar
tetap mampu memberi perlindungan, tapi tidak mengganggu privasi penggunanya.
Untuk memberikan
lapisan keamanan tambahan, Apple memanfaatkan teknologi threshold secret sharing. Teknologi ini tidak akan mengizinkan
siapapun dapat melihat isi dari enkripsi, kecuali seseorang melewati ambang
batas yang tidak ditentukan dari konten CSAM.
Apple menjelaskan,
fitur ini tersedia di akun iCloud keluarga. Oleh karena itu, terdapat fitur
lain yang memungkinkan sistem untuk mendeteksi ketika seseorang mengunggah
konten ke iCloud yang menunjukkan anak-anak terlibat dalam tindakan seksual
eksplisit.
Apple mulai menguji
coba sistem tersebut pada pekan ini, tapi baru terbatas di Amerika Serikat.
Nantinya sistem ini akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, dan
macOS Monterey.