AI kämpft auf beiden Seiten des Fake-ID-Kriegs
KYC-Überprüfung (Know Your Customer) ist jetzt allgegenwärtig — Banken, Krypto-Börsen, E-Commerce, überall dort, wo bestätigt werden muss, dass Sie der sind, der Sie zu sein behaupten. Unternehmen wie Regula Forensics, Veriff, AU10TIX, Persona und Resistant AI unterhalten riesige Datenbanken mit ID-Vorlagen aus Hunderten von Ländern. Einfache Idee: das Dokument überprüfen, die Person überprüfen. Das Problem? Einige Menschen wollen nicht überprüft werden.
KI hat beide Seiten enorm gestärkt. Kriminelle nutzen sie, um überzeugende Fälschungen herzustellen. Verifizierungsplattformen nutzen sie, um diese zu erkennen. Keine Seite gewinnt. Es ist ein Wettrüsten ohne Ziel.
Wie KI gefälschte IDs herstellt
Generative KI hat es erstaunlich einfach gemacht, gefälschte Dokumente zu produzieren. Tools wie Stable Diffusion und Untergrund-Dienste können in Minuten realistisch aussehende Führerscheine, Reisepässe und Stromrechnungen ausspucken. Dark-Web-Märkte verkaufen KI-generierte ID-Pakete — Dokument plus passendes Selfie plus Videoclip — für 30 bis 700 Dollar.
Deepfakes machen es noch schlimmer. Vorab aufgezeichnete Videos und Injektionsangriffe sind darauf ausgelegt, die "in die Kamera schauen und blinzeln"-Liveness-Checks zu täuschen. Und es funktioniert — KI-generierte IDs haben erfolgreich große Krypto-Börsen und etablierte KYC-Anbieter umgangen (KYC360, Thistle Initiatives). Die Rate der Dokumentenfälschung im Bankwesen liegt laut SmartSearch bei 24 %.
Wie KI sie fängt
Die Verifizierungsseite sitzt nicht untätig herum. Moderne Systeme scannen nach Pixel-Level-Anomalien, Beleuchtungsinkonsistenzen und den charakteristischen Bewegungsartefakten, die Deepfakes produzieren (GBG, LSEG). Passive Liveness-Erkennung überprüft Hauttextur, Tiefe und Mikroausdrücke, ohne den Benutzer zu irgendetwas aufzufordern.
Aktive Überprüfungen sind schwieriger — den Kopf neigen, lächeln, zufälligen Text auf dem Bildschirm lesen. Diese sind speziell darauf ausgelegt, vorab aufgezeichnete Videoangriffe zu durchbrechen. Die Verifizierungs-Engines überprüfen auch extrahierte Daten anhand externer Datenbanken und markieren alles, was nicht zusammenpasst (Kaspersky).
Physikalische Merkmale: Der Teil, den KI nicht fälschen kann
KI ist hervorragend darin, digitale Fälschungen auf einem Bildschirm überzeugend aussehen zu lassen. Physische Dokumente sind eine andere Geschichte. Erhabener Text, Lasergravur, Mikroprint, UV-reaktive Tinten — all das kann man nicht mit Software reproduzieren. Holografische Überlagerungen benötigen industrielle Ausrüstung. Polycarbonat-Karten mit eingebetteten Chips sind extrem schwer in großem Maßstab zu replizieren.
Selbst erfahrene Fälscher übersehen die kleinen Dinge: die genaue Textur des Laminats, den Lochabstand, die Art und Weise, wie ein Hologramm sich verhält, wenn man es unter Licht neigt. Diese physischen Details sind der Grund, warum die Überprüfung in der realen Welt, kombiniert mit digitaler Analyse, immer noch Fälschungen erkennt, die durch Online-Checks durchrutschen (AiPrise, VerifyOnline).
Das Fazit: Keine Fälschung wird jemals perfekt sein. Physische Sicherheitsmerkmale sind einfach zu komplex. KI-Erkennung verbessert sich ständig, und die Kombination aus digitaler Analyse, Datenbankabgleich und menschlicher Überprüfung bedeutet, dass die Verifizierungsseite einen strukturellen Vorteil hat — selbst wenn einzelne Fälschungen gelegentlich durchrutschen.