L'IA se bat des deux côtés de la guerre des fausses identités

La vérification KYC (Know Your Customer) est désormais partout — banques, bourses de crypto-monnaies, commerce électronique, partout où il est nécessaire de confirmer que vous êtes bien qui vous prétendez être. Des entreprises comme Regula Forensics, Veriff, AU10TIX, Persona, et Resistant AI maintiennent d'énormes bases de données de modèles d'identités provenant de centaines de pays. Idée simple : vérifier le document, vérifier la personne. Le problème ? Certaines personnes ne veulent pas être vérifiées.

L'IA a dopé les deux côtés. Les criminels l'utilisent pour créer des faux convaincants. Les plates-formes de vérification l'utilisent pour les détecter. Aucun côté ne gagne. C'est une course aux armements sans ligne d'arrivée.

Comment l'IA crée des fausses identités

L'IA générative a rendu incroyablement facile la production de faux documents. Des outils comme Stable Diffusion et des services clandestins peuvent cracher des permis de conduire, passeports et factures de services publics réalistes en quelques minutes. Les marchés du dark-web vendent des packages d'identités générés par l'IA — document plus selfie correspondant plus clip vidéo — pour 30 $ à 700 $.

Les deepfakes aggravent la situation. Les vidéos pré-enregistrées et les attaques par injection sont conçues pour tromper les vérifications de vivacité « regardez la caméra et clignez des yeux ». Et cela fonctionne — les identités générées par l'IA ont réussi à contourner les principales bourses de crypto-monnaies et les fournisseurs de KYC établis (KYC360, Thistle Initiatives). Les taux de fraude documentaire dans le secteur bancaire atteignent 24 % selon SmartSearch.

Comment l'IA les détecte

Le côté vérification ne reste pas inactif. Les systèmes modernes analysent les bizarreries au niveau des pixels, les incohérences d'éclairage et les artefacts de mouvement caractéristiques que produisent les deepfakes (GBG, LSEG). La détection passive de vivacité vérifie la texture de la peau, la profondeur et les micro-expressions sans demander à l'utilisateur de faire quoi que ce soit.

Les vérifications actives sont plus difficiles — inclinez la tête, souriez, lisez un texte aléatoire à l'écran. Celles-ci sont spécifiquement conçues pour briser les attaques par vidéo pré-enregistrée. Les moteurs de vérification croisent également les données extraites avec des bases de données externes et signalent tout ce qui ne correspond pas (Kaspersky).

Caractéristiques physiques : la partie que l'IA ne peut pas falsifier

L'IA est brillante pour rendre les falsifications numériques convaincantes sur un écran. Les documents physiques sont une autre histoire. Texte en relief, gravure au laser, micro-impression, encres réactives aux UV — vous ne pouvez pas reproduire cela avec un logiciel. Les superpositions holographiques nécessitent un équipement industriel. Les cartes en polycarbonate avec puces intégrées sont extrêmement difficiles à reproduire à grande échelle.

Même les faussaires qualifiés ratent les petits détails : la texture exacte du laminé, l'espacement de la perforation, la façon dont un hologramme se comporte lorsque vous l'inclinez sous une lumière. Ces détails physiques expliquent pourquoi l'inspection réelle, combinée à l'analyse numérique, détecte encore les faux qui passent à travers les vérifications en ligne (AiPrise, VerifyOnline).

Le résultat : aucune falsification ne sera jamais parfaite. Les caractéristiques de sécurité physiques sont tout simplement trop complexes. La détection par l'IA continue de s'améliorer, et la combinaison de l'analyse numérique, des vérifications croisées de bases de données et de l'examen humain signifie que le côté vérification a un avantage structurel — même si des faux individuels passent occasionnellement à travers les mailles du filet.