Apple abbandona il controverso progetto antipedofilia? I riferimenti sul web non ci sono più

Another ICT Guy

Apple abbandona il controverso progetto antipedofilia? I riferimenti sul web non ci sono più

Apple ha silenziosamente eliminato tutti i riferimenti a CSAM (Child Sexual Abuse Material) dalla sua pagina Child Safety, suggerendo che le ipotesi di implementazione di misure per rilevare immagini di abusi sessuali su minori presenti su iPhone e iPad potrebbero essere completamente abbandonate dopo le critiche sollevate da gran parte del mondo tecnologico.

La Mela ad agosto aveva annunciato una serie di nuove funzionalità all’interno di iOS, macOS, watchOS e iMessage per la sicurezza del pubblico dei più piccoli, tra le quali spiccava la possibilità di scansionare le librerie di foto prima del caricamento di un bakcup su iCloud, con lo scopo di ricercare la presenza di contenuti CSAM.

A seguito di quell’annuncio Apple incontrò un vero e proprio uragano di critiche da parte di una nutrita serie di organizzazioni, ricercatori di sicurezza, gruppi di attivisti pro-privacy, politici e anche alcuni dipendenti della società stessa. La Mela ha inizialmente cercato di allontanare evenutali malintesi, approfondendo ulteriormente l’argomento e mettendo a disposizione FAQ e documenti, con l’obiettivo di lenire le preoccupazioni.

Azioni che non hanno avuto l’esito sperato, e che hanno portato Apple a proseguire con l’implementazione di alcune misure, quelle più utili e meno controverse, e a posticipare in maniera indefinita l’implementazione di CSAM. La Mela aveva allora affermato che la decisione di spostare in avanti l’implementazione della tecnologia fu presa sulla base del riscontro avuto da “clienti, gruppo di difesa, ricercatori e altri” in maniera tale da avere più tempo per raccogliere suggerimenti e apportare migliorie prima del rilascio della funzionalità.

Una dichiarazione che fu pubblicata proprio sulla pagina Child Safety di Apple, ma che ora è sparita e con essa tutti i riferimenti a CSAM, suggerendo quindi la possibilità che la Mela abbia deciso di stralciare completamente il progetto.

Nel frattempo, con l’uscita della versione 15.2 di iOS, Apple ha portato avanti l’inserimento delle funzionalità che hanno lo scopo di proteggere i giovani dalla ricezione di immagini sessualmente esplicite in iMessage e del sistema di protezione per Siri e per la ricerca che avvisa l’utente offrendo indicazioni aggiuntive su come ricevere e richiedere supporto o aiuto.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *