Deepfake: quando non puoi più fidarti di quello che vedi


INTELLIGENZA ARTIFICIALE & SICUREZZA

Deepfake: quando non puoi più fidarti di quello che vedi

Voci clonate, video falsi, volti manipolati. L’intelligenza artificiale ha messo nelle mani di chiunque strumenti capaci di ingannare milioni di persone. E in Italia il fenomeno è già esploso.

Se ne parla sempre più spesso nei telegiornali, nei talk show, nelle conversazioni quotidiane. Il deepfake non è più fantascienza né una minaccia lontana: è già tra noi, e i numeri italiani fanno impressione.

Ma cos’è esattamente un deepfake? È un contenuto video, audio o immagine generato o manipolato dall’intelligenza artificiale in modo così realistico da far sembrare che una persona abbia detto o fatto qualcosa che non ha mai detto o fatto. Il nome nasce dalla fusione di “deep learning” (l’apprendimento profondo delle reti neurali) e “fake” (falso).

Fino a pochi anni fa creare un deepfake convincente richiedeva competenze avanzate, hardware potente e molte ore di lavoro. Oggi bastano pochi minuti, uno smartphone e uno dei tanti software disponibili online, spesso gratuitamente. La tecnologia si è democratizzata, nel senso peggiore del termine.

I numeri che fanno paura

I dati più recenti raccontano una crescita esplosiva. Si è passati da circa 500.000 deepfake nel 2023 a oltre 8 milioni nel 2025, con un aumento del 1.500% in soli due anni. Le frodi basate su deepfake sono cresciute del 700% tra il 2024 e il 2025.

In Italia il quadro è altrettanto preoccupante. Secondo i dati della Polizia Postale, nei primi otto mesi del 2025 sono stati gestiti oltre 12.000 casi di truffe informatiche, per un totale di 143 milioni di euro sottratti alle vittime. I tentativi di truffa tramite deepfake audio e video sono aumentati del 300%, e circa 14,8 milioni di italiani dichiarano di essere stati bersaglio di almeno un tentativo di truffa nell’ultimo anno. Di questi, oltre 4,2 milioni hanno subito un danno economico effettivo.

Deepfake nel 2025
8 milioni
+1.500% dal 2023
Truffe in Italia 2025
143 mln €
primi 8 mesi
Italiani colpiti
4,2 mln
danno economico reale
Perdite globali 2025
1,1 mld $
3x rispetto al 2024

I casi italiani: quando il deepfake colpisce i volti noti

In Italia il fenomeno ha già un volto, anzi, molti volti noti. Negli ultimi mesi sono circolati video falsi in cui Carlo Cracco, Joe Bastianich, Chiara Ferragni e il ministro Giancarlo Giorgetti sembravano promuovere piattaforme di investimento fraudolente o criptovalute inesistenti. Ferragni e Cracco hanno già sporto denuncia. Meta ha avviato la rimozione di centinaia di contenuti segnalati.

Anche il popolare divulgatore Marco Montemagno è stato vittima di un video deepfake che lo ritraeva nell’atto di sponsorizzare un progetto crypto inesistente: diffuso via Instagram, ha totalizzato oltre 10.000 visualizzazioni in meno di 48 ore prima di essere rimosso.

Sul fronte politico, da agosto 2025 sono emerse sedici affermazioni false attribuite a membri del governo italiano, con circa 29 milioni di visualizzazioni totali su X. Il caso più eclatante riguarda un video in cui Giorgia Meloni sembrava criticare duramente Donald Trump, interamente falso, costruito manipolando un discorso reale, con una probabilità del 99% di essere sintetico secondo i tool di rilevamento.

Nel luglio 2024 alcuni dirigenti della Ferrari hanno ricevuto messaggi WhatsApp con la voce clonata del CEO Benedetto Vigna che chiedeva di autorizzare un’operazione urgente e riservata. Un dirigente si è insospettito e ha posto una domanda personale. L’AI non ha saputo rispondere. La truffa è andata in fumo.

Il voice cloning: quando ti chiamano con la voce di tuo figlio

Forse la forma più inquietante di deepfake non è quella visiva, ma quella vocale. Il voice cloning, la clonazione della voce tramite intelligenza artificiale, permette di riprodurre fedelmente la voce di una persona a partire da pochi secondi di audio, facilmente reperibili dai social network o da vecchi messaggi vocali su WhatsApp.

In Italia nel 2025 sono stati segnalati i primi casi documentati: truffatori che si sono finti figli o nipoti in difficoltà, usando una voce generata artificialmente per convincere anziani genitori a effettuare bonifici urgenti o a consegnare dati bancari. Un fenomeno ancora limitato nei numeri, ma che la Banca d’Italia ha già definito “indicativo di un trend che potrebbe diventare esplosivo”.

Anche nel mondo aziendale il problema è esploso: una società di Hong Kong ha perso 25 milioni di dollari dopo che un dipendente è stato convinto a effettuare bonifici durante una videoconferenza in cui tutti i suoi colleghi, incluso il CFO, erano in realtà deepfake generati in tempo reale.

Come riconoscere un deepfake: i segnali da cercare

I deepfake di nuova generazione sono sempre più convincenti, ma spesso tradiscono ancora qualche imperfezione. La Polizia Postale suggerisce di prestare attenzione a questi segnali:

👁 Occhi e sguardo innaturali
Battito delle ciglia irregolare, direzione dello sguardo anomala o occhi che sembrano “fissi”
👄 Labbra non sincronizzate
La sincronizzazione perfetta tra voce e movimento delle labbra è ancora difficile per l’AI
🔲 Bordi del viso sfumati o innaturali
Capelli, orecchie e contorno del viso spesso mostrano artefatti visibili, specie in movimento
💡 Illuminazione incoerente
Ombre o riflessi che non corrispondono alla luce dell’ambiente circostante
🎤 Voce piatta o robotica
Tono monocorde, pause innaturali, mancanza di inflessioni emotive tipiche della voce umana

Come difendersi: le regole pratiche

Riconoscere un deepfake è sempre più difficile, ma difendersi è ancora possibile con un po’ di consapevolezza:

Verifica sempre la fonte. Prima di condividere un video che mostra qualcosa di sorprendente o scandaloso, cerca il contenuto originale sui canali ufficiali. Se Meloni o Cracco hanno detto davvero quella cosa, ci sarà un riscontro su fonti giornalistiche attendibili.

Pausa prima di condividere. I deepfake sfruttano la reazione emotiva immediata. Contenuti che ti fanno arrabbiare o sorprendere molto vanno verificati ancor prima di essere condivisi.

Usa una parola d’ordine in famiglia. Concordate una parola segreta da usare in caso di chiamate d’emergenza. Se qualcuno che sembra tuo figlio ti chiama in difficoltà ma non conosce la parola, è un segnale d’allarme immediato.

Strumenti di rilevamento. Esistono tool online come Hive Moderation o Microsoft Video Authenticator che analizzano video e audio per rilevare manipolazioni artificiali. Non sono infallibili, ma sono un ulteriore livello di protezione.

Difida delle urgenze. Sia nei video che nelle telefonate, il meccanismo della truffa è quasi sempre lo stesso: urgenza, panico, richiesta di denaro o dati immediata. Fermatevi, respirate, chiamate direttamente la persona coinvolta su un numero che conoscete già.

LA LEGGE ITALIANA

Con la Legge n.132/2025, l’Italia ha criminalizzato esplicitamente i deepfake: creare o diffondere contenuti deepfake che rappresentano persone reali senza consenso è reato penale, punibile con la reclusione da 1 a 5 anni. Se il contenuto è diffamatorio o causa danni economici, le pene possono essere più severe.

Riflessione finale

Il deepfake ci pone davanti a una sfida che va ben oltre la tecnologia. Per decenni abbiamo usato “vederlo con i propri occhi” come sinonimo di certezza assoluta. Quella certezza è ora in discussione.

Non si tratta di cedere alla paranoia o di smettere di fidarsi di tutto. Si tratta di sviluppare un nuovo livello di consapevolezza digitale, lo stesso che abbiamo imparato ad applicare alle email sospette o ai link strani. Il mondo cambia, e noi dobbiamo cambiare con lui, con spirito critico, non con paura.

In fondo, il miglior antidoto al deepfake rimane sempre lo stesso di trent’anni fa: il cervello umano, quando è allenato a fare le domande giuste.

Articolo di Anton Sessaantonsessa.com
Show Comments (0) Hide Comments (0)
0 0 voti
Valutazione dell'articolo
Iscriviti
Notificami
guest

Questo sito utilizza Akismet per ridurre lo spam. Scopri come vengono elaborati i dati derivati dai commenti.

0 Commenti
Vecchi
Più recenti Le più votate
Feedback in linea
Visualizza tutti i commenti
0
Esprimete la vostra opinione commentando.x