top of page

Deepfake-Betrug verstehen und verhindern

  • Autorenbild: Nico Dudli
    Nico Dudli
  • 9. März
  • 8 Min. Lesezeit

Aktualisiert: 30. März

Ein Videoanruf von einem vertrauten Gesicht – doch es ist eine Täuschung. Dein Freund sieht dich, hört dich, aber in Wahrheit steckt eine KI dahinter. Willkommen in der Ära des Deepfake-Betrugs – einer Bedrohung, die sich rasant ausbreitet.


Kriminelle nutzen künstliche Intelligenz (KI), um dein Gesicht nachzumachen. Das nennt man Deepfake-Betrug. Laut aktuellen Studien haben Deepfake-Betrugsversuche in den letzten drei Jahren um über 2137 % zugenommen (Signicat, 2025).


Was ist Deepfake?


Deepfake bedeutet, dass KI benutzt wird, um falsche Bilder, Videos oder Audios von echten Personen herzustellen. Diese gefälschten Inhalte sehen und hören sich oft sehr echt an. Sie gehören zu den gefährlichsten neuen Methoden im Bereich der Cyberkriminalität.


Deepfakes gehören zu den gefährlichsten neuen Methoden im Bereich der Cyberkriminalität. Welche anderen Cyberbedrohungen 2025 auf uns zukommen, liest du hier: Cybersecurity 2025 – Die grössten Bedrohungen & Schutzmassnahmen


Falls du wenig Zeit hast, findest du am Ende des Artikels eine kompakte Übersicht in unserem FAQ-Bereich, der die wichtigsten Fragen und Schutzmassnahmen zusammenfasst.


Mann telefoniert mit Smartphone im Sonnenuntergang – symbolisch für digitale Kommunikation und mögliche Betrugsmaschen.
Vorsicht vor Betrug: Nicht jeder Anruf ist echt – Deepfake-Technologie kann Stimmen und Gesichter täuschend echt nachahmen.

Entwicklung & Geschichte von Deepfakes


Die Entwicklung von Deepfakes verlief rasant und eröffnete völlig neue Möglichkeiten für Betrüger. Die wichtigsten Meilensteine siehst du in der folgenden Tabelle.


Meilensteine der Deepfake-Entwicklung

Jahr

Ereignis

2017

Erste öffentliche Deepfake-Videos auf Reddit

2019

Deepfake-App „Zao“ ermöglicht einfache Erstellung realistischer Videos

2021

Deepfake-Technologie zunehmend von Cyberkriminellen genutzt

2023

KI-Systeme deutlich verbessert, Deepfakes schwer erkennbar

2025

Personalisierte Deepfakes nehmen drastisch zu, vermehrt Betrugsfälle

 

Typische Betrugsmaschen durch Deepfakes


Neben CEO-Fraud und Fake-News nutzen Betrüger auch fortschrittliche Methoden zur Identitätsfälschung, um an sensible Daten zu gelangen. Eine sichere Alternative zu klassischen Passwörtern könnte helfen, um Identitätsdiebstahl durch Deepfake-Scams zu verhindern. Erfahre mehr dazu: Passkeys vs. Passwörter – Was ist sicherer?.


Betrugsarten & Beispiele

Betrugsart

Beispiel

Folgen

CEO-Fraud

Ein Mitarbeiter erhält einen Videoanruf seines vermeintlichen Chefs, der dringend eine Überweisung fordert. Das Video ist jedoch ein Deepfake.

Finanzielle Verluste

Dating-Betrug

Ein gefälschtes Profil auf einer Dating-App täuscht emotionale Bindung vor, um Opfer später zu erpressen.

Erpressung, psychische Belastungen

Fake-News

Ein manipuliertes Video zeigt einen Politiker, der falsche oder extreme Aussagen macht, um seine Glaubwürdigkeit zu zerstören.

Desinformation, Vertrauensverlust


 

Echte Fälle von Deepfake-Betrug einfach erklärt


Um besser zu verstehen, wie gefährlich Deepfakes sind, hier zwei reale Beispiele aus den letzten Jahren:


Fall 2022: CEO-Fraud in Deutschland


  • 2022 – CEO-Fraud in Deutschland: Ein Unternehmen wurde um 200.000 Euro betrogen, weil Mitarbeiter einem Video glaubten, in dem ihr Chef angeblich eine dringende Geldüberweisung forderte. Tatsächlich war das Video gefälscht.


Fall 2023: Dating-Betrug in den USA


  • 2023 – Dating-Betrug in den USA: Betrüger nutzten Deepfake-Technik, um realistisch wirkende Profile auf Dating-Plattformen zu erstellen und Opfer emotional und finanziell zu erpressen.


 

Neue Betrugsmaschen und Zukunftsszenarien


Zusätzliche beunruhigende Szenarien, die Kriminelle bereits anwenden oder in naher Zukunft nutzen könnten:

Deepfake-Betrugsszenario

Beschreibung

Deepfake in Geiselnahme- und Entführungsfällen

Kriminelle erstellen gefälschte Videobotschaften von angeblichen Entführungsopfern, um Lösegeld zu erpressen – ohne dass die Person tatsächlich entführt wurde.

Deepfake-Stimmen für gefälschte Notrufe

Betrüger verwenden KI-generierte Stimmen, um Polizei oder Rettungsdienste mit falschen Notrufen (z. B. Bombendrohungen) in die Irre zu führen.

Manipulierte Zeugenaussagen vor Gericht

Deepfake-Videos oder Audios könnten für gefälschte Zeugenaussagen genutzt werden, um Unschuldige zu belasten oder Schuldige freizusprechen.

Deepfake-Betrug in der Unternehmenskommunikation

CEOs oder Finanzvorstände könnten in manipulierten Videobotschaften falsche Anweisungen geben, um Märkte oder Unternehmen zu destabilisieren.

Identitätsdiebstahl in Video-KYC-Prozessen

Kriminelle könnten mit Deepfake-Videos falsche Identitäten vortäuschen und so Bankkonten eröffnen oder Kreditkarten beantragen.

Fake-Schulungen und gefälschte Weiterbildungskurse

Deepfake-Videos von vermeintlichen Experten oder Professoren könnten für betrügerische Online-Kurse oder Seminare genutzt werden.

Gefälschte Interviews mit CEOs oder Politikern

Fake-Interviews mit Deepfake-Politikern oder Wirtschaftsbossen könnten genutzt werden, um gezielt Falschinformationen zu verbreiten.

Automatisierte Social Engineering-Angriffe mit Deepfake-Bots

Kombination aus KI-generierten Gesichtern und Stimmen könnte vollständig automatisierte Betrugsversuche in Videocalls ermöglichen, z. B. für Identitätsdiebstahl.


 

Aktuelle Trends und Entwicklungen


Deepfakes entwickeln sich schnell weiter und stellen Unternehmen sowie Privatpersonen vor neue Herausforderungen. Die aktuellen Entwicklungen sind besonders alarmierend:

Trend

Erklärung

Rapider Anstieg

Betrugsversuche stiegen laut Signicat in drei Jahren um 2137 %.

Personalisierte Angriffe

Laut Kaspersky werden personalisierte Deepfakes raffinierter.

Hohe Angriffsfrequenz

Im Jahr 2024 gab es alle fünf Minuten einen Deepfake-Angriff (World Economic Forum, 2025).

Finanzinstitute im Fokus

Banken und Finanzdienstleister sind besonders betroffen (Signicat, 2025).


Warum nehmen Deepfake-Betrugsfälle so stark zu?


Die Deepfake-Technologie entwickelt sich rasant weiter und wird immer ausgereifter. Dank künstlicher Intelligenz lassen sich Gesichter, Stimmen und Bewegungen inzwischen in Echtzeit manipulieren – und das mit erschreckender Präzision. Was früher nur Experten mit grossem technischem Aufwand gelang, ist heute für jeden mit wenigen Klicks möglich.


Diese Entwicklung macht es für Kriminelle einfacher als je zuvor, überzeugende Fälschungen zu erstellen und Menschen gezielt zu täuschen. Doch warum nimmt die Zahl der Deepfake-Betrugsfälle so rasant zu? Die wichtigsten Faktoren im Überblick:

Deepfake-Betrug

Erklärung

Leistungsfähigere und zugänglichere KI-Modelle

Früher war Deepfake-Technologie nur für Experten nutzbar. Heute kann jeder mit wenig technischem Wissen und Open-Source-Software realistische Fälschungen erstellen.

Kostenlose oder günstige Deepfake-Tools

Plattformen wie DeepFaceLab oder Faceswap ermöglichen es, ohne grossen Aufwand täuschend echte Videos zu generieren. Selbst hochqualitative Deepfakes sind für Laien leicht umsetzbar.

Verstärkter Einsatz von KI in der Cyberkriminalität

Klassische Phishing-Versuche laufen oft über E-Mails, doch Videoanrufe und personalisierte Deepfake-Betrugsmaschen sind schwerer zu durchschauen und erzeugen mehr Vertrauen beim Opfer.

Schnelle Verbreitung in sozialen Medien

Falschinformationen und manipulierte Videos verbreiten sich rasant, oft schneller als sie als Fälschungen entlarvt werden können. Das erhöht die Gefahr von Massenmanipulation.

Gezielte Angriffe auf Unternehmen und Einzelpersonen

Besonders Führungskräfte, Bankkunden und Investoren werden mit gefälschten Videobotschaften oder Anrufen getäuscht. Diese Methoden sind oft glaubwürdiger als gehackte E-Mails oder gefälschte Dokumente.

Vertrauen wird ohne Hacking direkt erschlichen

Anstatt sich mühsam Zugang zu gehackten Konten zu verschaffen, bauen Betrüger mit manipulierten Videos oder Anrufen direkt Vertrauen auf und täuschen ihre Opfer.


Welche Branchen sind besonders betroffen?


Obwohl Deepfake-Betrug theoretisch jeden treffen kann, sind einige Branchen stärker gefährdet als andere:

Branche

Warum sie besonders betroffen ist

Finanzwesen (Banken, Versicherungen, Kryptobörsen)

Kriminelle setzen Deepfake-Betrug gezielt ein, um Bankmitarbeiter zu täuschen und Geldüberweisungen zu erzwingen. Auch Identitätsdiebstahl für Kontoeröffnungen nimmt zu.

Unternehmen & Führungskräfte

CEO-Fraud mit Deepfake-Videoanrufen wird immer häufiger – dabei werden gefälschte Anweisungen an Mitarbeiter geschickt, um Geld oder vertrauliche Informationen zu stehlen.

Politik & Wahlen

Manipulierte Videos können genutzt werden, um Fake News zu verbreiten oder gezielt Kandidaten zu diskreditieren.

Medien & Journalismus

Journalisten und Medienhäuser werden zunehmend mit gefälschten Beweismaterialien konfrontiert, die schwer zu verifizieren sind.

Technologie & IT-Sicherheit

Cyberkriminelle setzen Deepfake-Technologie ein, um sich Zugang zu sensiblen Systemen zu verschaffen oder Authentifizierungsverfahren zu umgehen.

Dating- & Social-Media-Plattformen

Deepfake-Bilder und Videos werden genutzt, um gefälschte Identitäten zu erschaffen und Menschen emotional sowie finanziell auszunutzen.

Besonders Finanzinstitute und Unternehmen sind im Visier von Kriminellen, da hier hohe Geldbeträge und sensible Informationen involviert sind. Gleichzeitig wächst die Gefahr für Medien und politische Akteure, da gefälschte Inhalte genutzt werden, um Meinungen zu manipulieren.


 

Warum sind Deepfakes so gefährlich?


Die besondere Gefahr von Deepfakes liegt in ihrer schwer erkennbaren Manipulation und emotionalen Wirkung:


  • Schwer zu erkennen: Sogar Experten fällt es schwer, diese Inhalte von echten zu unterscheiden.


  • Emotionale Manipulation: Vertraute Gesichter wirken vertrauenswürdig.


  • Einfache Zugänglichkeit: Moderne KI-Tools stehen jedermann kostengünstig zur Verfügung (TA-SWISS, 2024).


 

Gesellschaftliche Auswirkungen und Vertrauen in Medien


Manipulierte Videos könnten nicht nur einzelne Personen schädigen, sondern das Vertrauen in die Medien und politische Prozesse untergraben. Bereits heute zweifeln viele Menschen an der Echtheit von Videoinhalten.


Gefahren für die Demokratie


  • Wahlkampfvideos könnten gezielt manipuliert werden.

  • Fake-Interviews mit Politikern könnten Desinformation verbreiten.

  • Falsche Zeugenaussagen könnten in Gerichtsprozessen genutzt werden.


Lösung: Transparenz und digitale Wasserzeichen könnten dazu beitragen, Deepfakes zu entlarven.


Gesellschaftliche Auswirkungen mit Praxisbezug


Deepfakes gefährden politische Prozesse massiv. Manipulierte Wahlkampfvideos könnten bis 2026 weltweit verbreitet sein. Bereits heute zweifelt die Mehrheit der Schweizer Bevölkerung an der Echtheit von Live-Übertragungen, was langfristig das Vertrauen in Medien gefährdet (TA-SWISS, 2024).


 

Wie erkenne ich einen Deepfake?


Viele Deepfakes sind täuschend echt, aber es gibt einige Hinweise, die auf eine Manipulation hindeuten können:


  • Unnatürliche Mimik: Augenblinzeln, Mundbewegungen oder Gesichtsausdrücke passen nicht zum gesprochenen Wort.

  • Ton-Bild-Synchronisation: Stimmen und Lippenbewegungen wirken nicht exakt synchron.

  • Inkonsistente Schatten oder Beleuchtung: Lichtreflexe auf dem Gesicht passen nicht zur Umgebung.

  • Pixelartefakte: Verzerrungen oder Unschärfen an den Rändern von Gesichtern.


Tipp: Verwende Tools wie Deepware Scanner oder Microsoft Video Authenticator, um Deepfakes zu erkennen.


 

Technische Grundlagen: Wie entstehen Deepfakes?


Deepfakes entstehen durch verschiedene KI-Techniken:


  • Facial Reenactment: Eine KI übernimmt die Gesichtsausdrücke einer echten Person und überträgt sie auf ein gefälschtes Video. Beispiel: Jemand bewegt seinen Mund und Augen, und die KI überträgt diese Bewegungen auf das Gesicht eines Prominenten.


  • Face Swapping: Das Gesicht einer Person wird durch das eines anderen ersetzt. Dies wird oft für gefälschte Videos genutzt, in denen Prominente oder Politiker Dinge sagen oder tun, die sie nie getan haben.


  • Full Body Puppetry: Die gesamte Körperbewegung einer Person wird von einer anderen übernommen. Dadurch kann eine gefälschte Person in einem Video realistisch gehen, gestikulieren und interagieren.


Moderne Tools wie DeepFaceLab ermöglichen es selbst technisch weniger erfahrenen Nutzern, täuschend echte Deepfake-Videos zu erstellen (TA-SWISS, 2024). Bald könnten sogar einfache Textbefehle ausreichen, um überzeugende Deepfakes zu generieren – ohne dass eine echte Vorlage benötigt wird.


 

Rechtliche Situation in der Schweiz und EU


Der rechtliche Rahmen für Deepfakes ist noch nicht vollständig definiert. In der Schweiz gelten Deepfake-Betrügereien oft als Identitätsdiebstahl oder Urkundenfälschung. Allerdings fordern Experten strengere Gesetze, die sich gezielt mit dieser neuen Bedrohung befassen.


In der EU werden derzeit neue KI-Regulierungen diskutiert, die Deepfakes stärker ahnden könnten. Unternehmen könnten verpflichtet werden, digitale Wasserzeichen in KI-generierten Videos einzufügen.


 

Schweizer Bevölkerung: Bewusstsein und Erkennungskompetenz


Wie gut ist die Schweizer Bevölkerung auf Deepfakes vorbereitet? Eine Studie der TA-SWISS zeigt wichtige Erkenntnisse:

Erkenntnis aus TA-SWISS Studie

Erklärung

Begrenztes Bewusstsein

Nur etwa die Hälfte kennt den Begriff „Deepfake“.

Erkennungsschwierigkeiten

Mehrheit hat Schwierigkeiten, echte von Fake-Videos zu unterscheiden.

Wichtigkeit Medienkompetenz

Social Media Literacy hilft deutlich bei der Erkennung.


 

Technische Abwehrmassnahmen in der Praxis


Um sich vor Deepfake-Angriffen zu schützen, setzen Organisationen zunehmend auf technische Schutzmassnahmen:

Massnahme

Erklärung

KI-Erkennungssysteme

KI-Modelle analysieren Mikrodetails in Videos, um Deepfakes zu entlarven.

Biometrische Verfahren

Gesichtserkennung mit Liveness Detection, um echte Personen von Fälschungen zu unterscheiden.

Blockchain-Technologie

Videos könnten in einer Blockchain gespeichert werden, um ihre Echtheit zu bestätigen.

Digitale Wasserzeichen

KI-generierte Inhalte könnten verpflichtend mit Metadaten versehen werden.

 

Praktische Tipps: So schützt du dich vor Deepfake-Betrug


Jeder kann Opfer von Deepfake-Betrug werden. Mit diesen einfachen Maßnahmen kannst du dich schützen und Betrügern keine Chance geben.

Schutzmassnahme

Erklärung

Verdächtige Anrufe überprüfen

Rufe die Person selbst über eine bekannte Nummer zurück und vergewissere dich, dass sie wirklich mit dir spricht.

Geheime Codes verwenden

Vereinbare mit Familie oder Kollegen ein Sicherheitswort, das ihr in verdächtigen Situationen abfragen könnt.

Deepfake-Detektoren nutzen

Setze spezialisierte Tools wie Sensity AI oder Deepware Scanner ein, um gefälschte Inhalte sofort zu erkennen.

Skepsis bewahren

Hinterfrage auffällige Videos und überprüfe extreme Aussagen durch vertrauenswürdige Quellen, bevor du sie weitergibst.


 

Zukunftsperspektiven bis 2030


Experten prognostizieren, dass bis 2030 über 60 % der Online-Videos synthetische Elemente enthalten werden. Die Sicherheitstechnologien müssen sich deshalb kontinuierlich weiterentwickeln.


Mögliche Entwicklungen:


  • Echtzeit-Deepfake-Scanner: KI könnte Deepfakes automatisch bei Live-Videocalls erkennen.

  • KI-Authentifizierungssysteme: Banken und Behörden könnten biometrische KI-Signaturen für Verifizierungen nutzen.

  • Gesetzliche Vorschriften: Staaten könnten Unternehmen zwingen, KI-generierte Inhalte zu kennzeichnen.


 

Fazit: Deepfake-Betrug als wachsende Gefahr


Deepfake-Betrug ist eine ernste Bedrohung, die sich rasant entwickelt. Die beste Strategie gegen Deepfakes ist ein Kombination aus Aufklärung, technischen Schutzmaßnahmen und rechtlichen Anpassungen. Bleibe skeptisch und nutze moderne Tools, um dich zu schützen.

 

Weiterführende Quellen



 

FAQ: Häufig gestellte Fragen


Wie erkenne ich ein Deepfake-Video?


Achte auf unnatürliche Mimik, Ton-Bild-Synchronisation und unregelmässiges Blinzeln.


Was tun bei Betrugsverdacht?


Sichere Beweise wie Screenshots und informiere die Polizei.


Sind Deepfakes strafbar?


Ja, oft als Identitätsbetrug oder Urkundenfälschung.


Welche Tools helfen bei der Erkennung?


Deepware Scanner, Microsoft Video Authenticator und Sensity AI sind nützliche Deepfake-Detektoren.


Können Deepfakes auch positiv genutzt werden?


Ja, in Filmproduktionen oder für historische Rekonstruktionen.


Wie kann ich mich als Unternehmen schützen?


Setze auf biometrische Authentifizierung, schule deine Mitarbeiter und nutze KI-Erkennungssysteme.



 

🔥 Bleib geschützt & informiert! Abonniere den TechNovice-Newsletter und erfahre jede Woche die wichtigsten Cybersecurity-Updates.

Comentários


bottom of page