L'AI combatte su entrambi i fronti della guerra contro gli ID falsi
La verifica KYC (Know Your Customer) è ormai onnipresente — banche, exchange di criptovalute, e-commerce, ovunque sia necessario confermare che sei chi dici di essere. Aziende come Regula Forensics, Veriff, AU10TIX, Persona, e Resistant AI mantengono enormi database di modelli di ID provenienti da centinaia di paesi. Idea semplice: verificare il documento, verificare la persona. Il problema? Alcune persone non vogliono essere verificate.
L'AI ha potenziato entrambi i fronti. I criminali la usano per creare falsi convincenti. Le piattaforme di verifica la usano per individuarli. Nessuno dei due fronti sta vincendo. È una corsa agli armamenti senza fine.
Come l'AI crea ID falsi
L'AI generativa ha reso incredibilmente facile produrre documenti falsi. Strumenti come Stable Diffusion e servizi sotterranei possono sputare fuori licenze di guida, passaporti e bollette realistiche in pochi minuti. I mercati del dark-web vendono pacchetti di ID generati dall'AI — documento più selfie corrispondente più clip video — per $30 a $700.
I deepfake peggiorano la situazione. Video pre-registrati e attacchi di iniezione sono progettati per ingannare i controlli di vivacità "guarda la telecamera e sbatti le palpebre". E funziona — gli ID generati dall'AI hanno superato con successo i principali exchange di criptovalute e i fornitori di KYC stabiliti (KYC360, Thistle Initiatives). I tassi di frode documentale nel settore bancario hanno raggiunto il 24% secondo SmartSearch.
Come l'AI li individua
Il lato della verifica non sta fermo. I sistemi moderni scansionano per stranezze a livello di pixel, incoerenze di illuminazione e gli artefatti di movimento che i deepfake producono (GBG, LSEG). Il rilevamento di vivacità passiva controlla la texture della pelle, la profondità e le micro-espressioni senza chiedere all'utente di fare nulla.
I controlli attivi sono più difficili — inclina la testa, sorridi, leggi il testo casuale sullo schermo. Questi sono specificamente progettati per rompere gli attacchi di video pre-registrati. I motori di verifica incrociano anche i dati estratti con database esterni e segnalano tutto ciò che non quadra (Kaspersky).
Caratteristiche Fisiche: La Parte che l'AI Non Può Falsificare
L'AI è brillante nel creare contraffazioni digitali che sembrano convincenti su uno schermo. I documenti fisici sono una storia diversa. Testo sollevato, incisione laser, microstampa, inchiostri reattivi ai raggi UV — non puoi riprodurre questi con il software. Le sovrapposizioni olografiche richiedono attrezzature industriali. Le carte in policarbonato con chip incorporati sono estremamente difficili da replicare su larga scala.
Anche i contraffattori esperti mancano i piccoli dettagli: l'esatta texture della laminazione, la spaziatura della perforazione, il modo in cui un ologramma si comporta quando lo inclini sotto una luce. Questi dettagli fisici sono il motivo per cui l'ispezione nel mondo reale, combinata con l'analisi digitale, cattura ancora i falsi che sfuggono ai controlli online (AiPrise, VerifyOnline).
La conclusione: nessuna contraffazione sarà mai perfetta. Le caratteristiche di sicurezza fisiche sono semplicemente troppo complesse. Il rilevamento dell'AI continua a migliorare e la combinazione di analisi digitale, controlli incrociati dei database e revisione umana significa che il lato della verifica ha un vantaggio strutturale — anche se occasionalmente alcuni falsi riescono a passare.