Apple Inc. (NASDAQ:AAPL) ha sottolineato che non consentirà a nessuno stato di condurre una sorveglianza tramite l’uso del suo nuovo strumento volto a rilevare materiale pedopornografico (CSAM).
Cosa è successo
Apple ha dichiarato che lo strumento di rilevamento è stato creato esclusivamente per rilevare immagini di contenuto chiaramente pedopornografico archiviate in iCloud Foto che sono state identificate da esperti del National Center for Missing and Exploited Children (NCMEC) e da altri gruppi per la sicurezza dei bambini.
“Cerchiamo di essere chiari, questa tecnologia si limita a rilevare il materiale CSAM archiviato in iCloud e non accetteremo alcuna richiesta di espanderlo da parte degli stati”, ha affermato Apple in un documento pubblicato sul suo sito web.
Il colosso tech ha aggiunto che lo strumento non funzionerà sulla libreria foto privata dell’iPhone.
Perché è importante
Apple ha annunciato il lancio delle nuove funzionalità la scorsa settimana, ma ha scatenato una diatriba sulla possibilità che questo sistema riduca la privacy dei suoi utenti.
Gli esperti di sicurezza sono preoccupati che alla fine questa tecnologia possa essere ampliata per scansionare i telefoni alla ricerca di altri contenuti proibiti; potrebbe anche essere usata da stati autoritari per spiare dissidenti e manifestanti.
Will Cathcart, capo dell’app di messaggistica istantanea WhatsApp – consociata di Facebook Inc. (NASDAQ:FB) – ha criticato il lancio della nuova funzionalità da parte di Apple, definendolo un “passo indietro per la privacy delle persone in tutto il mondo”.
Movimento dei prezzi
Le azioni Apple hanno chiuso la sessione di lunedì in calo di poco meno dello 0,1% a 146,09 dollari.