INDONESIATIMES - Belakangan ini, publik ramai dengan banyaknya pemberitaan ataupun informasi di media sosial tentang pelecehan seksual. Hal ini nampaknya cukup menjadikan perhatian berbagai pihak.
Salah satunya, perusahaan teknologi ternama Apple. Dikenal dengan berbagai fitur teknologi di berbagai produk, seperti iPhone ataupun iPad yang mumpuni.
Baca Juga : Sempat Ditutup Karena Timbulkan Kerumunan, dr. Yosephine Kembali Layani Pasien Covid-19 di Tempat Baru
Nampaknya, Apple juga menyoroti kondisi maraknya pelecahan seksual di masyarakat khususnya kepada anak-anak. Ya, dalam waktu dekat ini Apple bakal meluncurkan pemindai di produk iPhone.
Dilansir dari berbagai sumber, perusahaan teknologi ternama ini bakal meluncurkan fitur khusus untuk mendeteksi pelecehan anak. Fitur ini bakal memindai foto yang ada di iCloud. Nantinya, konten pelecehan yang ditemukan akan dilaporkan ke penegak hukum.
Fitur baru ini juga akan mendeteksi materi pelecehan seksual anak (CSAM) menggunakan proses bernama hashing, di mana gambar akan diubah menjadi nomor unik yang mewakili gambar tersebut.
Masih belum diketahui secara pasti, kapan Apple akan meluncurkan fitur ini secara resmi. Namun, pihaknya sudah mulai menguji coba sistem tersebut, meski baru terbatas di Amerika Serikat. Nantinya sistem ini akan menjadi bagian dari iOS 15, iPadOS 15, watchOS 8, dan macOS Monterey.
Cara kerjanya, dengan mencocokkan hash gambar dengan database hash yang disediakan oleh National Center for Missing and Exploited Children (NCMEC). Proses pencocokkan ini akan dilakukan di iPhone pengguna, bukan di cloud.
Jika Apple mendeteksi beberapa foto yang melanggar aturan di akun iCloud, sistem akan mengunggah file yang memungkinkan Apple untuk mendeskripsi dan melihat foto di akun tersebut. Foto itu kemudian ditinjau secara manual oleh seorang reviewer untuk mengonfirmasi apakah ada kecocokan atau tidak.
Hasil tinjauan foto itu hanya yang cocok dengan konten yang sudah ada di database. Jadi, sistem tidak akan mendeteksi foto anak saat sedang mandi yang diambil oleh orang tuanya karena tidak ada di dalam database NCMEC.
Jika orang yang meninjau foto secara manual menemukan kecocokan antara foto dengan database NCMEC, Apple akan menonaktifkan akun iCloud pengguna dan mengirimkan laporan ke NCMEC atau ke penegak hukum jika diperlukan. Untuk bisa mengaktifkan kembali, para pengguna bisa mengajukan banding ke Apple.
Fitur ini cukup terbatas, sebab hanya bisa mendeteksi foto yang diunggah ke iCloud. Foto atau gambar lainnya yang ada di perangkat tapi belum diunggah ke iCloud tidak akan dideteksi oleh sistem.
Apple mengatakan sistem buatannya ini dirancang agar hanya bisa digunakan untuk mendeteksi foto yang ada di database NCMEC atau organisasi keamanan anak lainnya, dan kriptografi yang dibuat tidak bisa digunakan untuk tujuan lain.
Dalam hal ini, Apple menjamin fitur ini tidak akan melanggar privasi pengguna. Karena, sistemnya sudah dibawa ke ahli kriptografi untuk memastikan bahwa ini bisa mendeteksi eksploitasi anak ilegal tanpa melanggar privasi pengguna.
Tak hanya itu, melalui fitur ini orangtua akan lebih mudah dalam mengawasi anak-anaknya mengakses gadget mereka. Nantinya, sederet fitur lainnya untuk melindungi anak-anak dari predator juga dihadirkan.
Seperti, machine learning untuk mengaburkan foto yang mungkin berisi konten telanjang di iPhone milik anak, dan orang tua bisa memilih untuk menerima peringatan jika anak di bawah 13 tahun menerima konten seksual di iMessage.