Come individuare contenuti realizzati tramite IA e sconfiggere la disinformazione

L’Intelligenza Artificiale può apportare numerosi benefici alla comunità, aiutandola a gestire al meglio una grande mole di informazioni al fine di ricavarne dati statistici e trovare soluzioni ai problemi più diffusi, come quelli relativi al traffico nelle città o ai livelli di inquinamento.

Come tutte le scoperte e le nuove tecnologie, anche questa può essere utilizzata non solo in modo positivo, ma anche in modo neutro, ad esempio per divertimento, o negativo. In quest’ultima situazione, la IA può creare immagini, video, testi e audio realistici per veicolare false informazioni e fake news, nonché per mettere in cattiva luce determinate persone o per mettere in atto truffe, minacce e raggiri.

Come ben spiega l’articolo di ExpressVPN sul fenomeno dei deepfake, la diffusione di video e immagini manipolati o creati utilizzando l’IA può, tra le altre cose, causare il cosiddetto Effetto Mandela e portare le persone a modificare i propri ricordi per quanto riguarda determinati fatti e avvenimenti, anche storici.

In un contesto del genere, risulta chiara l’importanza di saper riconoscere i prodotti realizzati tramite intelligenza artificiale, al fine di non commettere errori di valutazione, di non credere in false informazioni e di non lasciarsi manipolare.

Il Garante per la Protezione dei Dati personali e la scheda sui deepfake

Il problema dei deepfake esiste già da alcuni anni, tanto che già nel dicembre 2020 il Garante per la Protezione dei Dati Personali aveva diffuso un vademecum volto a mettere in guardia gli internauti contro gli usi impropri degli strumenti di manipolazione di immagini e video tramite Intelligenza Artificiale. Come si legge nel documento in oggetto, il termine deepfake è un neologismo nato dalla fusione tra “fake” e “deep learning”, la branca del machine learning basata sull’utilizzo di reti neurali artificiali, in grado di analizzare e manipolare grandi quantità di dati complessi, compresi audio, video e immagini.

Nata in ambito cinematografico, al fine di ringiovanire gli attori, aggiungere effetti speciali, modificare il labiale durante i doppiaggi, la tecnologia che consente di modificare immagini e video preesistenti, ma anche di crearli da zero a partire da semplici testi, è oggi estremamente diffusa e accessibile praticamente a chiunque disponga di un computer o di un dispositivo mobile e di una connessione internet.

Deepfake e furto di identità

Il GPDP esprime in particolare preoccupazione per il fatto che il deepfake può essere configurato a tutti gli effetti come un vero e proprio furto di identità. Questo aspetto riguarda in particolare quei video che mostrano politici, vip, ma anche gente comune, compiere atti o esprimere pensieri che, nella realtà, non hanno mai compiuto o detto. Queste persone nella maggior parte dei casi non danno il consenso per la realizzazione e la divulgazione di tali filmati, i quali, diffusi tramite social o altri mezzi, possono rovinarne la reputazione e la carriera.

Come riconoscere deepfake e materiale generato tramite Intelligenza Artificiale

Per non cadere nelle trappole messe in atto, volontariamente o meno, da chi produce deepfake, ma anche semplici testi generati tramite piattaforme di IA, è necessario prestare molta attenzione ai dettagli e ai contesti di condivisione.

In primo luogo, quando si guarda un video nel quale compare un personaggio noto che compie azioni o fa affermazioni lontane da quella che è la sua immagine pubblica, è necessario osservare bene:

  • i lineamenti del volto, i quali, in un deepfake, possono risultare più o meno alterati a causa della sovrapposizione di immagini;
  • i gesti e i movimenti, talvolta non abbastanza fluidi o naturali in un video elaborato tramite IA, oppure molto lontani da quello che è il normale atteggiamento del soggetto presente nel video;
  • le luci, le ombre e i riflessi, i quali, in caso di immagini o video modificati possono risultare in alcuni punti incongrui;
  • la voce, la quale può presentare qualche differenza rispetto a quella del soggetto reale;
  • il modo di esprimersi e parlare, che nei video manipolati o creati da zero potrebbe risultare meccanico e non perfettamente adattato ai movimenti della bocca e del volto
  • la presenza di contorni sfumati o zone del video sfocate, indice di sovrapposizione di immagini e rielaborazioni artificiose.

Oltre a questi elementi, è fondamentale valutare con attenzione il contesto entro il quale i video e le immagini vengono diffusi, nonché l’identità e l’affidabilità dei soggetti che li condividono.

Carlo Minutello