Suara.com - Kabar baik bagi para orang tua karena iPhone akan menjaga anak-anak dari berbagai konten dewasa.
iPhone akan mengirimkan peringatan sexting kepada orang tua jika anak-anak mereka mengirim atau menerima, gambar berbau konten dewasa.
Selain itu, raksasa teknologi itu mengatakan bahwa mereka akan secara otomatis melaporkan gambar pelecehan anak di perangkatnya kepada pihak berwenang.
Dalam upaya untuk melindungi kaum muda secara online dan mencegah penyebaran materi pelecehan anak, perusahaan meluncurkan tiga alat keamanan baru.
Baca Juga: Login Twitter Kini Bisa Pakai Akun Google dan Apple ID
Alat, yang dikenal sebagai neuralMatch, awalnya hanya akan tersedia di AS, tetapi Apple berencana segera menyediakan ke negara-negara lain di seluruh dunia.
Sistem Pesan baru akan menampilkan peringatan kepada seorang anak, ketika mereka dikirimi pesan berbau seksual, dilansir dari Independent, Minggu (8/8/2021).
Secara otomatis akan mengaburkan gambar dan meyakinkan mereka bahwa tidak apa-apa jika tidak ingin melihat gambar.
Berdasarkan rencana tersebut, orang tua yang menggunakan akun keluarga tertaut juga akan diperingatkan tentang sexting jika anak-anak memilih untuk melihat gambar tersebut, orang tua akan dikirimi pemberitahuan.
Perlindungan serupa akan diberlakukan jika seorang anak mencoba mengirim gambar yang eksplisit secara seksual.
Baca Juga: Viral Spanduk iBox Promosi iPhone 12 di Pinggir Jalan, Ini Tanggapan Erajaya
Selain itu, langkah-langkah keamanan baru akan memungkinkan perusahaan untuk mendeteksi materi pelecehan seks anak yang diketahui disimpan di iCloud dan melaporkannya ke lembaga penegak hukum.
Ini akan digabungkan dengan panduan baru di Siri dan Pencarian untuk mengarahkan pengguna ke sumber daya yang berguna, saat mereka melakukan pencarian terkait gambar pelecehan seksual terhadap anak.
Apple mengatakan, alat deteksi baru dirancang untuk melindungi privasi pengguna dan tidak mengizinkan perusahaan untuk memindai atau melihat album foto pengguna.
Sistem sebaliknya, mencari kecocokan berdasarkan database 'hash', sejenis sidik jari digital, dari gambar materi pelecehan seks anak yang diketahui yang disediakan oleh organisasi keselamatan anak.
Ini berarti sistem tidak melihat gambar itu sendiri, hanya sidik jari digital mereka, dan orang tua yang memotret anak-anak di kamar mandi misalnya, tidak akan ditandai.
Jika materi pelecehan seks anak dikonfirmasi, akun pengguna akan dinonaktifkan dan Pusat Nasional AS untuk Anak Hilang dan Tereksploitasi akan diberi tahu.
Pemindaian ini hanya akan dilakukan ketika pengguna mencoba mengunggah gambar ke perpustakaan foto iCloud mereka.
Jika ambang batas kecocokan untuk konten berbahaya terlampaui, Apple dapat meninjau konten secara manual untuk mengonfirmasi kecocokan itu dan mengirim laporan ke organisasi keselamatan.
Alat-alat baru akan mulai berlaku sebagai bagian dari pembaruan perangkat lunak iOS dan iPadOS 15 yang akan jatuh tempo pada musim gugur.