Awas! Apple akan periksa iPhone untuk imej penderaan seksual kanak-kanak

SAN FRANCISCO: Apple berkata iPhone dan iPad tidak lama lagi akan mula mengesan imej yang mengandungi penderaan seksual kanak-kanak dan melaporkannya kerana ia dimuat naik ke storan dalam taliannya di Amerika Syarikat, satu gerakan yang akan menimbulkan kesedaran.

“Kami ingin membantu melindungi kanak-kanak daripada pemangsa yang menggunakan alat komunikasi untuk merekrut dan mengeksploitasinya, dan mengehadkan penyebaran bahan penderaan seksual kanak-kanak (CSAM),” kata Apple dalam siaran dalam talian pada Khamis.

Gambar hiasan – Kredit foto: Shuttershock

Teknologi baru ini akan membolehkan peranti mudah alih Apple untuk menyepadankan foto penderaan pada telefon pengguna terhadap pangkalan data imej CSAM yang disediakan oleh organisasi keselamatan kanak-kanak, kemudian menandakan imej kerana ia dimuat naik ke storan iCloud dalam talian Apple, menurut syarikat itu.

Walau bagaimanapun, beberapa organisasi hak digital mengatakan “tweak” kepada sistem operasi Apple akan mewujudkan pintu belakang yang berpotensi ke dalam peranti yang boleh dieksploitasi oleh kerajaan atau kumpulan lain.

Apple membalas bahawa ia tidak akan mempunyai akses langsung kepada imej dan langkah-langkah yang diambil untuk melindungi privasi dan keselamatan.

Gergasi teknologi yang berpangkalan di Lembah Silikon itu berkata pemadanan foto akan “dikuasakan oleh teknologi kriptografi” untuk menentukan “jika ada padanan tanpa mendedahkan hasilnya,” melainkan imej itu didapati mengandungi gambaran penderaan seksual kanak-kanak.

Apple akan melaporkan imej tersebut kepada Pusat Kebangsaan Untuk Kanak-kanak Hilang dan Dieksploitasi, yang bekerjasama dengan polis, menurut satu kenyataan oleh syarikat itu.

Mesej Peringkas

Ciri pemantauan imej baru itu adalah sebahagian daripada siri menuju ke peranti mudah alih Apple, menurut syarikat itu.

Aplikasi teks Apple Mesej, akan menggunakan mesin pembelajaran untuk mengenali dan memberi amaran kepada kanak-kanak dan ibu bapa mereka apabila menerima atau menghantar foto seksual, kata syarikat itu dalam kenyataan.

Apabila menerima kandungan seperti itu, gambar tersebut akan menjadi kabur dan kanak-kanak tersebut akan diberi peringatan.

Sebagai langkah pencegahan tambahan, kanak-kanak juga boleh diberitahu bahawa, untuk memastikan mereka selamat, ibu bapa mereka akan mendapat mesej jika mereka melihatnya.”

Langkah berjaga-jaga yang sama dicetuskan jika kanak-kanak cuba menghantar foto seksual yang jelas, menurut Apple.

Mesej itu akan menggunakan kuasa mesin pembelajaran pada peranti untuk menganalisa imej yang dilampirkan kepada “missives” untuk menentukan sama ada ia jelas secara seksual, menurut Apple.

Ciri ini menuju ke sistem operasi komputer Macintosh terkini, serta iOS.

Sementara itu, pembantu peribadi Siri, akan “campur tangan” apabila pengguna cuba mencari topik yang berkaitan dengan penderaan seksual kanak-kanak, kata Apple. – AFP

Author

Share