KI kämpft auf beiden Seiten des Fake-ID-Kriegs

KYC-Überprüfung (Know Your Customer) ist überall – Banken, Kryptowährungsbörsen, E-Commerce, überall dort, wo bestätigt werden muss, dass Sie die sind, für die Sie sich ausgeben. Unternehmen wie Regula Forensics, Veriff, AU10TIX, Persona und Resistant AI unterhalten riesige Datenbanken mit ID-Vorlagen aus Hunderten von Ländern. Einfache Idee: das Dokument überprüfen, die Person überprüfen. Das Problem? Einige Menschen wollen nicht überprüft werden.

KI hat beide Seiten enorm verstärkt. Kriminelle nutzen sie, um überzeugende Fälschungen herzustellen. Überprüfungsplattformen nutzen sie, um diese zu erkennen. Keine Seite gewinnt. Es ist ein Wettrüsten ohne Ziel.

Wie KI gefälschte IDs herstellt

Generative KI hat es erstaunlich einfach gemacht, gefälschte Dokumente zu produzieren. Tools wie Stable Diffusion und Untergrund-Dienste können in Minuten realistisch aussehende Führerscheine, Reisepässe und Stromrechnungen erstellen. Dark-Web-Märkte verkaufen KI-generierte ID-Pakete – Dokument plus passendes Selfie plus Videoclip – für 30 bis 700 Dollar.

Deepfakes machen es schlimmer. Vorab aufgenommene Videos und Injektionsangriffe sind darauf ausgelegt, die "in die Kamera schauen und blinzeln"-Liveness-Checks zu täuschen. Und es funktioniert – KI-generierte IDs haben erfolgreich große Kryptowährungsbörsen und etablierte KYC-Anbieter umgangen (KYC360, Thistle Initiatives). Die Rate der Dokumentenbetrugsfälle im Bankwesen liegt laut SmartSearch bei 24 %.

Wie KI sie erkennt

Die Überprüfungsseite steht nicht still. Moderne Systeme scannen nach Pixel-Level-Anomalien, Beleuchtungsinkonsistenzen und den charakteristischen Bewegungsartefakten, die Deepfakes produzieren (GBG, LSEG). Passive Liveness-Erkennung überprüft Hauttextur, Tiefe und Mikroexpressionen, ohne dass der Benutzer etwas tun muss.

Aktive Überprüfungen sind schwieriger – Kopf neigen, lächeln, zufälligen Text auf dem Bildschirm lesen. Diese sind speziell darauf ausgelegt, vorab aufgenommene Videoangriffe zu unterbrechen. Die Überprüfungs-Engines überprüfen auch extrahierte Daten anhand externer Datenbanken und kennzeichnen alles, was nicht stimmt (Kaspersky).

Physikalische Merkmale: Der Teil, den KI nicht fälschen kann

KI ist hervorragend darin, digitale Fälschungen auf einem Bildschirm überzeugend aussehen zu lassen. Physische Dokumente sind eine andere Geschichte. Erhabener Text, Lasergravur, Mikroprint, UV-reaktive Tinten – all das kann man nicht mit Software reproduzieren. Holografische Überlagerungen benötigen industrielle Ausrüstung. Polycarbonat-Karten mit eingebetteten Chips sind extrem schwierig in großem Maßstab zu replizieren.

Selbst erfahrene Fälscher übersehen die kleinen Dinge: die exakte Textur des Laminats, den Lochabstand, die Art und Weise, wie ein Hologramm sich unter Licht verhält. Diese physischen Details sind der Grund, warum eine Überprüfung in der realen Welt in Kombination mit digitaler Analyse immer noch Fälschungen erkennt, die durch Online-Checks geschlüpft sind (AiPrise, VerifyOnline).

Das Fazit: Keine Fälschung wird jemals perfekt sein. Physische Sicherheitsmerkmale sind einfach zu komplex. Die KI-Erkennung wird ständig besser, und die Kombination aus digitaler Analyse, Datenbankabgleich und menschlicher Überprüfung bedeutet, dass die Überprüfungsseite einen strukturellen Vorteil hat – auch wenn einzelne Fälschungen gelegentlich durchrutschen.