Maggio 15, 2024

Lamezia in strada

Trova tutti gli ultimi articoli e guarda programmi TV, servizi e podcast relativi all'Italia

Perché Apple ha annullato il suo piano di rivelare immagini di abusi sui minori?

Perché Apple ha annullato il suo piano di rivelare immagini di abusi sui minori?

Entro la fine del 2022, Apple ha annullato la sua iniziativa di divulgare le foto di abusi sessuali su minori archiviate su iCloud. Sin dal suo annuncio, il piano ha suscitato molte polemiche perché, nonostante le buone intenzioni, potrebbe portare a problemi di privacy inimmaginabili. Sebbene i membri di Cupertino siano rimasti fedeli alla loro strategia iniziale nonostante le critiche del pubblico e di decine di organizzazioni civiche, hanno finito per gettare tutto in mare senza offrire ulteriori spiegazioni. Finora.

Per la prima volta, Apple ha spiegato perché sta interrompendo la sua iniziativa di scansionare le foto di iCloud alla ricerca di materiale pedopornografico. Eric Neuschwandervicepresidente della privacy degli utenti e della sicurezza dei bambini presso l’azienda con sede in California, lo ha dettagliato in una lettera inviata a Sarah Gardner, CEO di Heat Initiative, un gruppo per la sicurezza dei bambini (tramite Cablato).

Inizialmente, Gardner ha inviato un’e-mail a Tim Cook e ad altri dirigenti Apple esprimendo la sua insoddisfazione per il ritardo iniziale e la successiva cancellazione del piano per rilevare immagini di abusi sui minori sui loro dispositivi e servizi cloud. Inoltre, li ha informati che il suo gruppo avrebbe avviato una campagna per fare pressione pubblicamente affinché implementassero un sistema per rilevare, segnalare ed eliminare la pornografia infantile archiviata su iCloud. E promuovere anche la creazione di un meccanismo che permetta agli utilizzatori dei propri prodotti di segnalare la presenza di questo tipo di materiale.

La risposta di Neuschwander a questa affermazione è molto interessante. Il dirigente ha ammesso pubblicamente che Apple Impossibile chiarire gli aspetti tecnici necessari Sviluppare un sistema efficace per rilevare immagini di abusi sui minori, senza però mettere in pericolo la privacy degli utenti.

READ  Gli scienziati spiegano la strana immagine di un "orso" su Marte

Apple si è consultata con esperti di tecnologia, sicurezza e diritti umani e ha studiato la tecnologia di scansione “da quasi ogni angolazione possibile”. Il risultato diretto è stato: Ciò che si intendeva ottenere era impossibile senza compromessi in termini di privacy.

Apple annulla la sua iniziativa per rilevare le foto di abusi sui minori su iCloud

Immagine dalla fotografia Tim Joe SU Unsplash

Nell’e-mail al leader della Heat Initiative, Neuenschwander sottolinea che la pornografia infantile è abominevole ed elenca le numerose misure adottate da Apple per proteggere i minori che utilizzano i suoi dispositivi. Poi però si entra nei dettagli Perché è stata annullata l’iniziativa di divulgare questo tipo di materiale in iCloud.

“Le aziende utilizzano abitualmente la scansione cloud dei dati personali per monetizzare le informazioni dei propri utenti. Mentre alcune aziende hanno giustificato queste pratiche, noi abbiamo scelto un percorso completamente diverso: uno che dà priorità alla sicurezza e alla privacy dei nostri utenti. Apprezziamo che la scansione dei contenuti privati ​​di iCloud memorizzati da ciascun utente comporterebbero gravi conseguenze indesiderate per lo stesso. […] Cancellare le informazioni archiviate privatamente in iCloud creerà nuovi vettori di minacce che i ladri di dati potranno trovare e sfruttare.

Porterebbe anche alla possibilità di una china scivolosa di conseguenze indesiderate. La ricerca di un tipo di contenuto, ad esempio, aprirebbe la porta alla sorveglianza di massa e potrebbe creare il desiderio di scansionare altri sistemi di messaggistica crittografati per altre categorie e tipi di contenuti (come immagini, video, testo o audio). Come possono gli utenti garantire che lo strumento di un tipo di monitoraggio non sia stato riconfigurato per monitorare altri contenuti come attività politica o persecuzione religiosa? Gli strumenti di sorveglianza di massa hanno diffusi effetti negativi sulla libertà di espressione e, per estensione, sulla democrazia nel suo complesso. Inoltre, adattare questa tecnologia a un governo potrebbe richiedere applicazioni per altri paesi con nuovi tipi di dati.

Anche i sistemi di scansione non sono infallibili, e ci sono prove documentate da altre piattaforme in cui persone innocenti sono state trascinate in reti distopiche che ne sono diventate vittime quando non hanno fatto altro che condividere immagini perfettamente normali e appropriate dei loro figli.

Estratto dell’e-mail inviata da Eric Neuschwander a Sarah Gardner.

Non capita spesso che Apple parli pubblicamente delle decisioni relative alle sue strategie di prodotto o servizio, ma la sua iniziativa di divulgare le foto di abusi sui minori su iCloud ne vale chiaramente la pena. È anche possibile che la lettera di Neuschwander non fosse destinata alla pubblicazione pubblica. Anche se almeno fornisce un quadro più chiaro Cosa mettono in gioco gli Apple People quando affrontano questa storia?.

READ  Questo è ciò che possiamo aspettarci

Uno dei piani più controversi di Apple

iCloud

Ricordiamo che Apple inizialmente ha mantenuto la sua decisione di controllare dispositivi come l’iPhone per rilevare immagini di abusi sui minori. In realtà, Craig FederighiIl vicepresidente dell’ingegneria del software della società ha ammesso che l’annuncio aveva causato confusione. Ha anche provato a spiegare l’approccio dell’azienda alla privacy degli utenti.

All’epoca, l’esecutivo dichiarò che il sistema si sarebbe basato su Segmentazione CSAM. Cosa significa questo? Apple utilizzerà un database di immagini di abusi sessuali su minori creato da enti di protezione dell’infanzia e controllato in modo indipendente. tecnologia per l’implementazione Suonerà un allarme Solo quando viene rilevato un certo numero di corrispondenze.

Se raggiungi il limite di circa 30 pornografia infantile conosciuta, Apple verrà a conoscenza del tuo account e di quello. A quel punto conoscerà solo quelle immagini e non qualsiasi altra tua immagine. Questa non è un’analisi del motivo per cui hai ottenuto una foto di tuo figlio nella vasca da bagno, o se hai un’immagine pornografica di qualsiasi altro tipo, corrisponde letteralmente solo alle impronte digitali esatte di specifiche immagini pornografiche”, ha spiegato Federighi a Il giornale di Wall Street nell’agosto 2021.

Nonostante questa dura posizione iniziale, Apple è venuta alla ribalta E non c’era modo di garantire la privacy Alla ricerca di immagini di abusi sui minori. Nemmeno se le informazioni vengono elaborate, ad esempio, all’interno dell’iPhone e non sui server iCloud.

E con la spiegazione di Neuschwander, ora abbiamo almeno dati più accurati su questa storia. Ma non dimentichiamo che Apple ha continuato a lavorarci Migliorare la protezione dei minori che utilizzano i propri dispositivi. Uno dei casi più noti sono gli avvisi di nudità per le foto inviate tramite iMessage.

READ  Tombi, Gex, Clock Tower e altri classici torneranno decenni dopo con questa mostruosa riedizione in HD

Ricevi la nostra newsletter ogni mattina. Una guida per comprendere ciò che conta in relazione alla tecnologia, alla scienza e alla cultura digitale.

Lui tratta…

pronto! Sei già iscritto

Si è verificato un errore, aggiorna la pagina e riprova

Anche nell’ipertesto: