
L’ultimo volto dell’inganno non parla più solo attraverso e-mail mal tradotte o telefonate anonime: oggi le truffe usano l’intelligenza artificiale per “recitare” voci conosciute, mimare volti anche di celebrità, e costruire relazioni virtuali così convincenti da svuotare conti e famiglie. Da romance scam che sfruttano video e messaggi affettuosi, a frodi finanziarie che imitano l’amministratore delegato di turno, il fenomeno è esploso con strumenti facili da usare e disponibili online. Come funziona la “macchina dell’inganno”. I moderni generatori audio e video “clonano” caratteristiche vocali e tratti somatici partendo da pochi secondi di registrazione o da foto trovate sui social. Con questi materiali, gruppi criminali o singoli truffatori possono montare video personalizzati, inviare voicemail che sembrano provenire da persone reali o creare profili falsi che rispondono in chat con tono, lessico e reazioni credibili. Il risultato: un livello di persuasione mai visto prima, che abbassa le difese delle vittime e rende molto meno affidabili i tradizionali “controlli di plausibilità”. Le romance scam non sono una novità, ma l’AI le ha rese più scalabili e «fotorealistiche». Vittime si innamorano online spesso anziani o persone emotivamente vulnerabili e vengono convinte a inviare denaro per emergenze, trasferimenti o investimenti “sicuri”. Casi recenti raccontano di scenari bizzarri, un truffatore che si finge astronauta e chiede fondi per “ossigeno” all’anziana convinta dalla storia, o di video messaggi apparentemente intimi che si rivelano deepfake creati ad arte. Nel mondo finanziario l’impatto può essere catastrofico: impiegati o dirigenti sono stati indotti a effettuare bonifici milionari dopo aver “parlato” via call con una voce che sembrava quella del loro CEO, o dopo aver ricevuto video che sembravano approvazioni autentiche. Autorità di regolamentazione e istituzioni finanziarie hanno già documentato casi in cui il deepfake ha facilitato trasferimenti di grandi somme e frodi aziendali. Le agenzie statali, tra cui FinCEN e la SEC, hanno emesso alert e analisi per segnalare il rischio crescente. I truffatori sfruttano i più esposti: persone anziane, utenti poco esperti di tecnologia, professionisti con accesso ai conti aziendali e chi cerca guadagni rapidi. Inoltre, l’uso di volti famosi e di influencer per dare credibilità alle truffe è ormai routine: campagne pubblicitarie fraudolente che mostrano celebrità o versioni generate di esse indirizzano utenti verso schemi di investimento fasulli o prodotti truffaldini. Attivisti e figure pubbliche hanno denunciato l’abuso della propria immagine, chiedendo responsabilità alle piattaforme. Negli ultimi mesi FBI, IC3, e altre agenzie internazionali hanno diramato allarmi su campagne mirate che usano messaggi testuali, audio deepfake e video per impersonare funzionari pubblici e dirigenti aziendali. Gli avvisi ribadiscono che non bisogna mai seguire richieste urgenti di denaro o condivisione di credenziali senza verifiche indipendenti. Perché la tecnologia fa progredire la truffa. Due fattori chiave spiegano l’escalation: la democratizzazione degli strumenti di generazione (semplici interfacce «point-and-click») e l’inerzia delle piattaforme pubblicitarie e dei social nel bloccare contenuti fraudolenti. Critici e attivisti – tra cui personalità del mondo consumer – chiedono multe più pesanti alle big tech e regole più stringenti per le pubblicità che sfruttano immagini e voci contraffatte. Dietro i numeri ci sono persone che perdono risparmi, case e fiducia. Le vittime spesso subiscono trauma psicologico e vergogna, e le ripercussioni economiche possono durare anni. Anche aziende sane possono trovarsi momentaneamente impresentabili se un deepfake induce partner o clienti ad agire d’impulso. Senza entrare in istruzioni che potrebbero agevolare i truffatori, ecco alcune indicazioni di buon senso raccomandate da esperti e autorità:
• Non inviare denaro o informazioni sensibili a richieste improvvise; verifica con canali indipendenti, telefono ufficiale, e-mail aziendale verificata.
• Diffida di richieste che generano urgenza emotiva o minacciano azioni immediate; i truffatori sfruttano il panico.
• Per i familiari: stabilite parole-chiave o procedure di riconoscimento per confermare identità in caso di richieste finanziarie.
• Segnalate contenuti sospetti alle piattaforme e alle autorità locali: ogni report aiuta a spezzare reti che operano su larga scala. La lotta richiederà interventi multipli: regolamentazione che imponga trasparenza sui contenuti generati da AI, responsabilità per le piattaforme che monetizzano pubblicità truffaldine, investimenti in rilevazione dei deepfake nonché campagne d’informazione rivolte ai gruppi più vulnerabili. Consumatori e istituzioni devono anche pretendere soluzioni di verifica dell’identità più robuste nelle comunicazioni sensibili.









