La IA lucha en ambos lados de la guerra de los documentos de identidad falsos

La verificación KYC (Conozca a su cliente) está en todas partes ahora: bancos, intercambios de criptomonedas, comercio electrónico, en cualquier lugar que necesite confirmar que usted es quien dice ser. Empresas como Regula Forensics, Veriff, AU10TIX, Persona y Resistant AI mantienen enormes bases de datos de plantillas de documentos de identidad de cientos de países. La idea es simple: verificar el documento, verificar la persona. ¿El problema? Algunas personas no quieren ser verificadas.

La IA ha potenciado ambos lados. Los delincuentes la utilizan para crear falsificaciones convincentes. Las plataformas de verificación la utilizan para detectarlas. Ninguno de los lados gana. Es una carrera armamentista sin línea de meta.

Cómo la IA crea documentos de identidad falsos

La IA generativa ha hecho que sea sorprendentemente fácil producir documentos falsos. Herramientas como Stable Diffusion y servicios clandestinos pueden escupir licencias de conducir, pasaportes y facturas de servicios públicos realistas en minutos. Los mercados de la web oscura venden paquetes de documentos de identidad generados por IA (documento más selfie coincidente más videoclip) por entre 30 y 700 dólares.

Los deepfakes empeoran las cosas. Los videos pregrabados y los ataques de inyección están diseñados para engañar las comprobaciones de vivacidad del tipo "mire a la cámara y parpadee". Y funciona: los documentos de identidad generados por IA han logrado evadir con éxito a los principales intercambios de criptomonedas y proveedores de KYC establecidos (KYC360, Thistle Initiatives). Las tasas de fraude documental en la banca alcanzaron el 24% según SmartSearch.

Cómo la IA los detecta

El lado de la verificación no se queda quieto. Los sistemas modernos buscan rarezas a nivel de píxel, inconsistencias en la iluminación y los artefactos de movimiento característicos que producen los deepfakes (GBG, LSEG). La detección de vivacidad pasiva comprueba la textura de la piel, la profundidad y las microexpresiones sin pedirle al usuario que haga nada.

Las comprobaciones activas son más difíciles: incline la cabeza, sonría, lea texto aleatorio en pantalla. Estas están diseñadas específicamente para romper los ataques de video pregrabado. Los motores de verificación también cotejan los datos extraídos con bases de datos externas y señalan cualquier cosa que no cuadre (Kaspersky).

Características físicas: lo que la IA no puede falsificar

La IA es brillante para hacer que las falsificaciones digitales parezcan convincentes en una pantalla. Los documentos físicos son una historia diferente. Texto en relieve, grabado láser, microimpresión, tintas que reaccionan a la luz UV: no se pueden reproducir con software. Las superposiciones holográficas necesitan equipo industrial. Las tarjetas de policarbonato con chips incrustados son extremadamente difíciles de replicar a cualquier escala.

Incluso los falsificadores expertos se pierden los pequeños detalles: la textura exacta de la laminación, el espaciado de la perforación, la forma en que se comporta un holograma cuando se inclina bajo la luz. Estos detalles físicos son la razón por la que la inspección en el mundo real, combinada con el análisis digital, todavía detecta falsificaciones que se escapan de las comprobaciones en línea (AiPrise, VerifyOnline).

La conclusión es que ninguna falsificación será jamás perfecta. Las características de seguridad físicas son simplemente demasiado complejas. La detección por IA sigue mejorando, y la combinación de análisis digital, verificación cruzada de bases de datos y revisión humana significa que el lado de la verificación tiene una ventaja estructural, incluso si ocasionalmente se cuelan falsificaciones individuales.