https://thispersondoesnotexist.com/ |
Si tratta di modelli matematici che affondano le radici in studi pubblicati più di mezzo secolo fa e che solo negli ultimi anni, grazie a computer ad altissime prestazioni dal costo contenuto, hanno avuto un rapido sviluppo consentendone l’applicazione in diversi contesti reali, quali il riconoscimento di volti e del parlato umano.
Un'applicazione che sta riscuotendo un discreto successo nel mondo dello spettacolo, ma che pone diversi problemi per la sicurezza, è la creazione di deepfakes, combinazione di 'deep learning' e 'fake'. Con questo termine si intende qualsiasi creazione ottenuta attraverso tecniche capaci di sovrapporre immagini di una persona (target) a quelle di una altra persona (source) in un video in cui la seconda persona fa o dice determinate cose. In questo modo si ottengono video realistici falsi in cui, ad esempio, un attore recita una parte, ma al suo volto viene sovrapposta in modo realistico il volto di un personaggio famoso che non ha mai pronunciato le frasi proclamate dall’attore né tantomeno si trovava nel contesto della scena. Più in generale, col termine deepfakes ci si riferisce a contenuti sintetici ottenuti tramite strumenti di artificial intelligence.
Di recente alcuni articoli hanno proposto una panoramica delle tecniche per la creazione di deepfakes e per la loro individuazione. Le tecniche di individuazione sono fondamentali per individuare immagini e video creati appositamente per disinformare o, più in generale, per ingannare le persone. Nei lavori “The Creation and Detection of Deepfakes: A Survey"1 e “Deep Learning for Deepfakes creation and Detection: a Survey"2, gli autori spiegano le recenti tendenze nelle tecnologie per la produzione di deepfakes, e i possibili usi in buona e in mala fede.
Oltre ad usi leciti nel campo della produzione cinematografica o nella traduzione automatica per esempio, vi sono tutta una serie di usi illeciti, in particolare nella produzione di film porno o nella falsificazione di discorsi, allo scopo di facili guadagni, influenzare l'opinione pubblica e le elezioni, creare panico, generare false prove processuali e così via.
Il primo tentativo di creazione di deepfake si fa risalire a un utente di Reddit che ha sviluppato l'applicazione chiamata 'FakeApp' utilizzando un modello basato su autoencoder accoppiati per estrarre da un'immagine facciale le caratteristiche principali e riprodurle su un'altra immagine facciale.
Un autoencoder è una rete neurale costituita da un encoder e da un decoder, realizzata allo scopo di estrarre le caratteristiche principali di un insieme di dati non etichettati (encoder) e ricostruire i dati in ingresso (decoder) a partire da una loro rappresentazione compatta preventivamente realizzata. Un deepfake può essere creato utilizzando un encoder specializzato sul volto di una persona e utilizzando la codifica così realizzata come dati di ingresso per un decoder specializzato sul volto di un’altra persona.
Una seconda tecnologia per la produzione di 'deepfakes' consiste nell'impiego di 'Generative Adversarial Networks'. Si tratta anche in questo caso di reti neurali il cui scopo è creare immagini realistiche non corrispondenti a persone reali3.
L'impiego di queste tecnologie rende sempre più difficile distinguere tra una immagine o un video (immagine o discorso) reale e uno modificato creando seri problemi nel campo della privacy, della vita democratica e della sicurezza nazionale.
In queste pubblicazione si fa anche riferimento ad alcuni casi di particolare interesse per il mondo militare, in cui sono state generate immagini satellitari modificate a scopo militare, con dei particolari non presenti nell'originale.
Se è vero che risulta sempre più difficile distinguere i deepfakes dalla realtà, è anche vero che la tecnologia ci viene in aiuto. Gli autori nei loro lavori censiscono le principali tecniche di analisi impiegate nel rilevare deepfakes, tecniche che spesso fanno uso, ancora una volta, di tecnologie di deep learning. Purtroppo però queste tecniche di rilevazione sono molto vulnerabili, ed è sufficiente uno sforzo moderato per modificare il processo di creazione di deepfakes affinché questi non siano più riconoscibili come tali.
Oggigiorno, in molti casi si fa ricorso a immagini video nel corso di processi penali, video certificati da esperti forensi. Ma quanto ci si può fidare di ciò che si vede o si sente in un video?
Sempre meno... ecco perché sarà sempre più necessario affiancare gli esperti informatici (digital forensics) capaci di impiegare e riconoscere l'uso di tecnologie di deep learning agli esperti forensi. Purtroppo, anche così facendo, in alcuni casi il risultato potrebbe non essere sufficiente ad appurare la verità in quanto non è sempre facile né possibile spiegare il funzionamento di una tecnologia di deep learning per produrre o individuare deepfakes.
Pertanto occorre affiancare tecniche e metodologie di intelligence per la verifica comparativa del contesto agli strumenti tecnologici di analisi di immagini e video.
Alessandro Rugolo, Giorgio Giacinto, Maurizio d'Amato
Per approfondire:
- The Creation and Detection of Deepfakes: A Survey (arxiv.org)
- [1909.11573] Deep Learning for Deepfakes Creation and Detection: A Survey (arxiv.org)
- The Newest AI-Enabled Weapon: ‘Deep-Faking’ Photos of the Earth | Winter Watch
- The Newest AI-Enabled Weapon: ‘Deep-Faking’ Photos of the Earth - Defense One
- Building and Training Deep Fake Autoencoders - CodeProject
- Understanding Generative Adversarial Networks (GANs) | by Joseph Rocca | Towards Data Science
- [1406.2661] Generative Adversarial Networks (arxiv.org)
1 Yisroel Mirsky and Wenke Lee. 2021. The Creation and Detection of Deepfakes: A Survey. ACM Comput. Surv. 54, 1, Article 7 (January 2022), 41 pages. DOI:https://doi.org/10.1145/3425780
2 Nguyen, T. T., Nguyen, Q. V. H., Nguyen, C. M., Nguyen, D., Thanh Nguyen, D., and Nahavandi, S., “Deep Learning for Deepfakes Creation and Detection: A Survey”, arXiv e-prints, 2021, https://arxiv.org/abs/1909.11573v3
3 Un esempio di volti creati con questa metodologia è disponibile qui: https://thispersondoesnotexist.com
Nessun commento:
Posta un commento