SCUOLA E UNIVERSITÀ

HomeAttualitàScuola e Università

Guardi video di guerra sui social ma sono fake: i consigli di Unipa per smascherarli

Con l’esplosione dei contenuti generati dall’intelligenza artificiale, è diventato sempre più complesso distinguere un video reale da qualcosa di falso

Nicoletta Sanfratello
Studentessa di Lettere classiche
  • 17 maggio 2026

Alessandra De Paola

Con l’esplosione dei contenuti generati dall’intelligenza artificiale, è diventato sempre più complesso, per l’utente medio, distinguere un video reale da un prodotto artificiale. Si chiamano deepfake i video in cui volti, voci e movimenti vengono riprodotti – o alterati – con un realismo impressionante.

Quello che prima rappresentava una semplice curiosità tecnologica, è adesso una presenza quotidiana sui social, nelle campagne pubblicitarie e, in alcuni casi, anche nella disinformazione politica.

Riconoscerli non è sempre immediato: spesso capita infatti che video generati con l’IA seminino il panico tra gli utenti, che trovano il proprio feed invaso da video prodotti artificialmente che spesso ritraggono immagini legate a personaggi pubblici ripresi in atteggiamenti intimi, oppure scenari di guerra: città bombardate, civili in fuga o soldati, e di farli sembrare come se fossero stati girati sul campo.

Per l’utente medio è complesso riconoscere se un video sia stato prodotto da un essere umano o da una macchina. Se prima erano facilmente riconoscibili, a causa di incongruenze evidenti come trasformazioni tra una scena e l’altra o il mancato rispetto di basilari leggi della fisica, ad oggi i sistemi con cui vengono prodotti questi contenuti cono sempre più sofisticati e hanno “imparato” a rispettare delle accortezze per renderli più realistici.

Quali sono dunque gli strumenti di cui ci si può armare per riconoscere questi contenuti da quelli reali? «C’è un campo di ricerca in questo momento molto attivo, che mira allo sviluppo di tecniche avanzate di riconoscimento di contenuti multimediali o anche contenuti di testo sviluppati tramite l’intelligenza artificiale – dichiara a Balarm Alessandra De Paola, professore ordinario di Cybersicurezza e Intelligenza Artificiale presso l’Università degli Studi di Palermo -.

Anche se è una frontiera di ricerca aperta, esistono già diversi strumenti, sia gratuiti, ma nella maggior parte dei casi a uso commerciale e per le aziende e le pubbliche amministrazioni, che rilevano se un contenuto video o immagine sia stato prodotto tramite strumento di intelligenza artificiale».

Strumenti come questi, però, non sono esattamente alla portata dell’utente medio dei social, che può utilizzare, invece, degli stratagemmi per guardare con occhio più critico i video che vengono proposti: «Se ci muoviamo nel campo della disinformazione, misinformazione, quello che bisognerebbe diffondere di più è la cultura della necessità di approfondimento delle fonti.

Alcuni stratagemmi possono essere attuati dall’utente comune; sebbene la qualità di questo tipo di contenuti sia già altissima, un occhio attento può rilevare delle incongruenze: luci artificiali, ombre non coerenti, movimenti strani o elementi che cambiano forma possono essere campanelli d’allarme utili a capire se il contenuto che hanno davanti sia reale o falso.

La cosa più importante, rimane però il chiedersi sempre qual è la fonte da cui proviene la notizia, il video o l’immagine e verificare se, ad esempio, c’è un riscontro anche in altri tipi di organi di stampa». Il problema più grande che i video generati con l’intelligenza artificiale è dato dai danni che possono provocare, sulla base del tempo in cui circolano in rete.

«Il tempo di circolazione di un video falso su internet dipende da molti fattori: da chi è la vittima e da qual è il contenuto, ad esempio. Se normalmente le vittime dei video deepfake sono personaggi pubblici, il tempo che intercorre tra quando il video viene pubblicato e quando viene rimosso dipende dalla prontezza dell’ufficio stampa di questi personaggi, che in generale possono rispondere con più prontezza.

Quanti danni può fare un video finto, dipende moltissimo dalla natura dell’attacco che è stato sferrato. Quando qualcuno diffonde un video o un’immagine artificiale sta sferrando un attacco di cybersicurezza».

C’è anche un’altra faccia del deepfake che spesso viene trascurata, ma che si lega a stretto giro con la quotidianità dei cittadini: parliamo di truffe che usano lo strumento dell’Intelligenza Artificiale per produrre contenuti audio e video finti, che possano convincere l’utente a fare transazioni economiche.

«La produzione di video con l’IA e la successiva divulgazione sui social di queste immagini è solo la punta dell’iceberg legato al panico che questo tipo di contenuti possono provocare.

La maggior parte degli attacchi viene utilizzato nell’ambito delle truffe: i video che ritraggono scene di guerra o in generale la produzione di disinformazione politica sono gli aspetti che sono più visibili all’utente medio, sono aspetti eclatanti, finiscono sui social, ma c’è un grande incremento anche delle truffe con i deepfake.

In alcuni casi si parla di truffe finanziarie o assicurative anche di grosse quantità, tramite un audio o un video contraffatto».

L’entità del danno che un video deepfake può provocare è quindi legata a doppio filo con l’obiettivo dell’attacco che viene sferrato: «Si va da piccoli attacchi alla reputazione di qualcuno, facili da smentire, a danni potenzialmente enormi.

Immaginiamo, ad esempio, se durante un conflitto bellico si convincessero i soldati a deporre le armi perché è stato fatto circolare il video del loro leader che dice che la guerra è finita: potrebbe avere delle ricadute mostruose».

Le piattaforme social su cui vengono pubblicati video deepfake, avrebbero anche degli strumenti per intercettare i contenuti finti prima che vadano virali, generando il caos tra gli utenti. Il problema, secondo la professoressa, è che spesso queste stesse piattaforme di fatto lasciano circolare i video.

«Esistono alcune piattaforme che danno la possibilità agli utenti di indicare se il contenuto che stanno per pubblicare è stato realizzato con tecniche di intelligenza artificiale o meno. In questo modo, lasciano a chi produce il video il compito di indicare se quel contenuto è reale o meno, “scaricando” la responsabilità al buon senso della singola persona.

A posteriori si possono fare delle analisi, ma a quel punto la mole di contenuti da controllare diventa veramente elevata».

Quello del controllo a posteriori dei video che vengono pubblicati nelle piattaforme non può essere la soluzione: «Non si riesce ad essere efficaci su larga scala. Per questo motivo, l’utente che fruisce di questi contenuti deve essere investito dalla responsabilità di cercare di discriminare i contenuti reali da quelli falsi, prima di repostare qualcosa».

Di fronte a un utilizzo sempre più comune dell’intelligenza artificiale sui social, servirebbe dare all’utente medio degli strumenti per riconosceri video contraffatti.

«Ci vorrebbe un grande intervento di sensibilizzazione a tutti i livelli – spiega la professoressa De Paola -, la formazione e la difesa da questi attacchi viene spesso affidata soltanto ai professionisti dell’ambito informatico, ma servirebbe estendere questi strumenti anche alle aziende, alla società civile e ai luoghi di formazione come scuole e università.

L’aumento di consapevolezza è l’unico strumento che veramente ci può difendere: anche se vengono sviluppate delle tecniche sempre più avanzate per il riconoscimento di questi contenuti, la tecnologia evolverà e realizzerà dei contenuti ancora più difficili da essere individuati.

Bisogna investire moltissimo nella cultura della sicurezza informatica e nell’intelligenza artificiale. Questo passaggio è fondamentale che lo facciano anche le scuole, le istituzioni, perché i ragazzi che fruiscono di questi contenuti tramite i loro dispositivi devono essere messi al corrente dei pericoli di strumenti come l’IA, a cosa guardare e a cosa stare attenti.

La cultura della verifica della fonte va diffusa anche negli utenti medi, altrimenti si rischia di cadere in una dinamica pericolosa per cui o si crede a tutto, o non si crede più a niente».

Quella dell’intelligenza artificiale è una realtà ormai affermata e che pervade la quotidianità di tutti. È necessario però acquisire la consapevolezza necessaria per poterla guardare come uno strumento, e non solo come un problema.
Ti è piaciuto questo articolo?
Seguici anche sui social
Iscriviti alla newsletter
Cliccando su "Iscriviti" confermo di aver preso visione dell'informativa sul trattamento dei dati.

GLI ARTICOLI PIÚ LETTI