Facebook, nuova tecnica per scovare i deepfake. E’ basata sul reverse engineering

Another ICT Guy

Facebook, nuova tecnica per scovare i deepfake. E’ basata sul reverse engineering

La sofisticazione e l’accuratezza raggiunta dai video deepfake rende estremamente difficile riuscire a distinguere se ciò che stiamo vedendo rappresenti realtà o finzione. Per chi ancora non fosse a conoscenza di cosa si tratta, la tecnica del deepfake prevede di prendere il volto e la voce di una persona e creare un video assolutamente verosimile facendo dire o fare a quella persona cose che nella realtà non sono mai accadute. Si tratta di una cosa che può essere usata in maniera ironica e divertente, ma anche pericolosa in quanto capace di orientare ed influenzare l’opinione pubblica, magari in periodi di campagna elettorale.

Per cercare di arginare il problema Facebook ha annunciato di aver portato avanti una collaborazione con la Michigan State University (MSU) sullo sviluppo di un metodo capace di rilevare e trattare opportunamente i deepfake. Si tratta di una tecnica, spiega la stessa Facebook, basata sul principio di reverse engineering: partendo da una singola immagine del deepfake può risalire al modello generativo usato per crearla e capire così se si tratti di un’immagine autentica o sintetica.

Oltre a rilevare i deepfake questa tecnica permette ai ricercatori di condurre l’attribuzione di immagini, determinando quale modello generativo è stato usato per produrre un determinato deepfake. In questo caso però l’elemento che limita le capacità di attribuzione dell’immagine è rappresentato dal fatto che la maggior parte dei deepfake viene realizzata usando modelli che non sono stati visibili durante l’addestramento e tali immagini vengono quindi contrassegnate come create da modelli sconosciuti.

Facebook e i ricercatori hanno però approfondito ulteriormente l’ambito dell’attribuzione delle immagini aiutando la deduzione di un particolare modello generativo sulla base dei deepfake che ha prodotto. In questo caso è stato possibile, per la prima volta, identificare le proprietà del modello utilizzato per creare il deepfake senza disporre di una conoscenza preventiva di alcun modello specifico. La nuova tecnica permette di ottenere maggiori informazioni sul modello usato nella creazione del deepfake ed è utile in scenari reali. Spesso l’unica informazione che i ricercatori hanno a disposizione quando devono rilevare un deepfake è il deepfake stesso. La possibilità di rilevare deepfake generati dallo stesso modello è utile per scoprire casi di disinformazione coordinata o attacchi che si basano sui deepfake.

Il sistema analizza l’immagine deepfake alla ricerca di “tracce digitali” per scoprire gli indizi lasciati dal modello generativo. Queste tracce sono elementi unici che vengono lasciati sulle immagini dal modello generativo e possono essere usate per identificare la provenienza dell’immagini. Il gruppo di lavoro ha realizzato un set di dati composto da 100 mila immagini false generate da 100 modelli generativi disponibili pubblicamente. I risultati del test hanno mostrato che il nuovo approcco offre prestazioni migliori rispetto a sistemi realizzati in precedenza, offrendo armi in più per combattere una piaga sempre più subdola.

Fonte: http://feeds.hwupgrade.it/

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *