Apple a anunțat detalii despre un sistem de găsire a materialelor de abuz sexual asupra copiilor (CSAM) pe dispozitivele clienților americani. Înainte ca o imagine să fie stocată pe iCloud Photos, tehnologia va căuta potriviri cu CSAM deja cunoscute.
Apple a spus că, dacă se găsește o potrivire, un recenzor uman va evalua și raportă utilizatorul forțelor de ordine. Cu toate acestea, există îngrijorări privind confidențialitatea că tehnologia ar putea fi extinsă pentru a scana telefoanele pentru conținut interzis sau chiar discurs politic.
Experții sunt îngrijorați de eventualele încălcări ale legii de către guvernele mondiale
Experții își fac griji că tehnologia ar putea fi utilizată de guvernele autoritare pentru a-i spiona pe cetățeni. Apple a spus că noile versiuni de iOS și iPadOS – care urmează să fie lansate în cursul acestui an – vor avea „noi aplicații de criptografie pentru a ajuta la limitarea răspândirii CSAM online, în timp ce proiectează pentru confidențialitatea utilizatorilor”.
Sistemul funcționează prin compararea imaginilor cu o bază de date cu imagini cunoscute de abuz sexual asupra copiilor, compilată de Centrul Național al SUA pentru Copii Dispăruți și Exploatați (NCMEC) și alte organizații de siguranță a copiilor. Aceste imagini sunt traduse în „hashuri”, coduri numerice care pot fi „potrivite” cu o imagine de pe un dispozitiv Apple. Apple spune că tehnologia va prinde și versiuni editate, dar similare, ale imaginilor originale.
„Înainte ca o imagine să fie stocată în iCloud Photos, se realizează un proces de potrivire pe dispozitiv pentru acea imagine împotriva hashurilor CSAM cunoscute”, a spus Apple.
Sistemul are un nivel extrem de ridicat de precizie, susţin cei de la Apple
Compania a susținut că sistemul are un „nivel extrem de ridicat de precizie și asigură mai puțin de o șansă de un milion de miliarde pe an de semnalare incorectă a unui cont dat”. Apple spune că va revizui manual fiecare raport pentru a confirma că există o potrivire. Apoi, poate lua măsuri pentru a dezactiva contul unui utilizator și pentru a raporta forțelor de ordine.
Compania spune că noua tehnologie oferă beneficii de confidențialitate „semnificative” față de tehnicile existente – deoarece Apple află doar despre fotografiile utilizatorilor dacă au o colecție de CSAM cunoscute în contul lor iCloud Photos.
Cu toate acestea, unii experți în confidențialitate și-au exprimat îngrijorarea.
„Indiferent de planurile pe termen lung ale Apple, au trimis un semnal foarte clar. În opinia lor (foarte influentă), este sigur să construim sisteme care scanează telefoanele utilizatorilor pentru conținut interzis”, Matthew Green, cercetător de securitate la Johns Hopkins University, a spus.
„Indiferent dacă se dovedesc a fi corecte sau greșite cu privire la acest punct, contează cu greu. Acest lucru va sparge barajul – guvernele vor cere acest lucru de la toată lumea”.