KI-gestützte Deepfakes erleichtern Betrug

29. Oktober 2025

Frei verfügbare KI-Tools wie Veo 3 oder Sora 2 treiben eine Welle skalierbarer Deepfake-Täuschungen an. Die gemeldeten Deepfake-bedingten Verluste haben inzwischen 1,5 Milliarden Dollar überschritten – davon etwa 1 Milliarde im Jahr 2025. 2024 beliefen sich die Verluste auf rund 400 Millionen Dollar, nach kumulativ 130 Millionen Dollar von 2019 bis 2023 – ein Zeichen für eine exponentielle Zunahme in Häufigkeit und Komplexität. Zu diesen Ergebnissen die neueste Surfshark-Studie.

Die Erstellung eines einminütigen Deepfake-Videos kostete früher zwischen 300 und 20.000 Dollar, abhängig von der Qualität. Heute lässt sich mit frei verfügbaren KI-Tools dieselbe Minute für nur wenige Dollar generieren – wodurch Betrug günstiger und einfacher zu skalieren ist.

Damit sind neue Betrugsformen entstanden. Einige Täter erstellen KI-generierte Bilder von vermeintlich gefundenen Haustieren, um besorgte Besitzer zu kleinen Zahlungen (oft nur rund 50 Dollar) zu bewegen – unter dem falschen Versprechen, dass ihr Tier gefunden wurde. Dieses neue Schema zeigt, wie die sinkenden Kosten und die zunehmende Verfügbarkeit von KI-Bild- und Video-Tools den Deepfake-Betrug anheizen.

Neuartige Betrugsformen wie diese nehmen zwar zu, bleiben aber im Vergleich zu den lukrativsten Deepfake-basierten Betrügereien gering. Anlagebetrug dominiert weiterhin – Deepfake-Imitationen und gefälschte Nachweise verursachen erhebliche Unternehmensverluste.

Deepfakes wurden auch in Bewerbungsgesprächen eingesetzt, um Identitätsprüfungen zu umgehen und in Unternehmen einzudringen. In einem Fall stellte ein Cyber-Sicherheitsunternehmen unwissentlich einen nordkoreanischen Hacker ein, der sein Vorstellungsgespräch, Ausweisdokumente und Hintergrundprüfungen erfolgreich „deepfakte“.

So schützen Sie sich

Deswegen sollten Einzelpersonen und Organisationen zu erhöhter Wachsamkeit übergehen. Die Empfehlungen dazu lautet: Starke Cyber-Sicherheitsmaßnahmen, Identitätsüberprüfungen und Schulungen müssen zum Einsatz kommen, um Deepfake-basierten Betrug zu erkennen und zu stoppen.

Da KI immer besser wird, verschwinden viele visuelle Erkennungsmerkmale – skeptisches Denken ist daher der beste Schutz. Sein fachkundiger Rat lautet, alle unerwarteten Anfragen – insbesondere solche, die Geld oder sensible Daten betreffen – als potenziell verdächtig zu betrachten. Weitere Expertentipps sind:

  • Verifizieren Sie Anfragen über vertrauenswürdige Kanäle (z. B. Rückruf über bekannte Nummern).
  • Achten Sie auf Kontext und Ton: „zu saubere“ Audios, minimale Lippen-Synchronisationsfehler oder unpassende Hintergrundgeräusche.
  • Beobachten Sie Mikrodetails (ungewöhnliche Hände/Finger, unnatürliche Augen, ruckartige Bewegungen) – verlassen Sie sich aber nicht nur auf visuelle Hinweise.
  • Handeln Sie langsam: Dringlichkeit, Druck oder emotionale Manipulation sind klassische Betrugstaktiken.
  • Nutzen Sie Mehrfach-Verifizierungen: Codewörter, Zweitfreigaben, unabhängige Bestätigungen bei Zahlungen oder Kontoänderungen.
  • Schulen Sie risikoreiche Teams (Support, HR, Finanzen); verlangen Sie persönliche Verifikation vor Ort bei Neueinstellungen und prüfen Sie Lebensläufe/Adressen genau.
  • Betrachten Sie Kontakte mit nur virtuellen Telefonnummern, neuen Domains oder ohne digitalen Fußabdruck als Warnzeichen. (rhh)

Surfshark

Lesen Sie auch