Deepfakes sind eine neue Cyber-Bedrohung, die in der Welt der Internetsicherheit und Cyberkriminalität kürzlich für Aufsehen sorgte. Deepfakes imitieren reale Personen und werden mit Hilfe von künstlicher Intelligenz erzeugt. So wurden vergangene Woche die Bürgermeister von Wien, Berlin und Madrid von einem gefälschten Vitali Klitschko kontaktiert und alle drei Bürgermeister trafen sich in Folge zu einer Videokonferenz mit dem vermeintlichen Bürgermeister der ukrainischen Stadt Kiew. Während die Bürgermeister von Berlin und Madrid nach kurzer Zeit Unstimmigkeiten bemerkten und den Videocall abgebrochen haben, hat Medienberichten zufolge der Wiener Bürgermeister fast eine Stunde mit dem gefakten Vitali Klitschko konferiert.
Wir möchten in diesem Artikel beleuchten, was Deepfakes sind und wie sie erstellt werden, aber auch welche Möglichkeiten Betrügern unter der Zuhilfenahme von Deepfakes offenstehen. Weiters möchten wir beleuchten, welche Möglichkeiten grundsätzlich zur Absicherung eines Schadens bestehen, welcher durch Deepfakes verursacht wurde.
Inhalt:
- Was sind Deepfakes und wie erstellt man sie?
- Was ist der Zweck von Deepfakes?
- Wie erkenne ich Deepfakes?
- Ein entstandener Schaden durch Deepfakes – kann ich diesen versichern?
1. Was sind Deepfakes und wie erstellt man sie?
Das Wort Deepfake setzt sich zusammen auf den Begriffen „Deep Learning“ und „Fake“. Darunter werden gefälschte oder modifizierte Medieninhalte (Videos, Bilder, Audio) verstanden, die unter Zuhilfenahme von künstlicher Intelligenz erstellt werden. Während die Erstellung solcher Inhalte vor einigen Jahres noch so rechenintensiv war, dass die erstellten Inhalte leicht als Fälschungen zu identifizieren waren, ist es mittlerweile möglich auch in Live-Feeds wie Videokonferenzen ein Gegenüber darzustellen, welches in Bezug auf die Mimik und Gestik – welche ja zu den gesprochenen Worten in Quasi-Echtzeit berechnet werden müssen – nur schwer von der Originalperson zu unterscheiden ist. Gleichzeit wird auch die Stimme noch in Echtzeit imitiert, sodass die Fälschung rundum stimmig ist.
Ein eindrucksvolles Deepfake-Video findet man z.B. von Tom Cruise, das Anfang 2021 viral ging:
Hier werden verschiedene Methoden der Deepfake-Technologie kombiniert:
- face-swapping: Austausch des Gesichts einer Person
- voice-swapping: Austausch der Stimme einer Person
- body-puppetry: Übertragung von Körperbewegungen auf eine andere Person
Während die ersten Deepfakes noch leicht zu erkennen waren, sieht man am obigem Beispiel, dass solche Videos bereits eine eindrucksvolle Qualität erreichen können. Mit zunehmender Verfügbarkeit von Software-Tools, die von jedermann leicht zu bedienen sind, wird sich auch die Verbreitung von Deepfakes erhöhen. Auch ist davon auszugehen, dass sich auch die Qualität der erstellten Fakes weiter verbessern wird.
Für die Erstellung von Deepfakes ist für die Qualität des Ergebnisses aktuell noch die Menge an Datenmaterial (bestehende Videos, Audioaufzeichnungen, Bildmaterial) von der zu imitierenden Person ausschlaggebend, anhand dessen die künstliche Intelligenz das Imitieren der Person erlernen kann. Daher sind bisher auch meist Personen, die in der Öffentlichkeit stehen, Opfer dieses Identitätsdiebstahls. Da es in den letzten Wochen viel Bild- und Tonmaterial von Vladimir Klitschko gab, war es wahrscheinlich ein leichtes, die KI für die Täuschung entsprechend zu trainieren.
2. Was ist der Zweck von Deepfakes?
Während es durchaus legitime Anwendungsszenarien für Deepfakes gibt – z.B. die Darstellung einer Szene mit einem Schauspieler, welcher für die betreffende Szene einfach schon zu alt ist (siehe Star Wars: Mandalorian – der Ersteller des Deepfakes wurde übrigens von Lucasarts dann auch eingestellt), besteht durch diese Inhalte auch eine sehr große Missbrauchsgefahr, wie man im Eingangs erwähnten Beispiel auch gut sehen kann. Grundsätzlich können mit dieser Technologie Inhalte erstellt werden, welche Personen Dinge tun lassen und Worte sagen lassen, welche sie selbst nie getan oder gesagt hätten. Aufgrund dieser Möglichkeiten hat die Technologie auch sehr vielfältige Einsatzmöglichkeiten in den Bereichen der Wissenschaft und Kunst, lässt aber auch vielfältige Betrugsmöglichkeiten zu.
Das Potenzial für Deepfakes, in Fehlinformationskampagnen eingesetzt zu werden, ist enorm. Die Technologie wird bereits verwendet, um Fake News an die Massen zu verbreiten (siehe z.B. Kapitulation durch den ukrainischen Präsidenten Selenskyi). Insofern ist es wichtig, die Bedrohung durch Deepfakes ernst zu nehmen und auch die Grenzen der Technologie zu kennen, um einen etwaigen Betrugsversuch zu erkennen. Diesbezügliche Informationskampagnen sind noch selten wahrzunehmen, wobei manche Medien die Bedrohung allerdings bereits prominent dargestellt haben wie z.B. Buzzfeed:
Durch die Aktualität des Themas darf nun gehofft werden, dass dieses Thema nun auch bei Awareness-Kampagnen aufgegriffen wird.
3. Wie erkenne ich Deepfakes?
Hierzu muss gesagt werden, dass mit weiter fortgeschrittener Technologie die Erkennung immer schwieriger werden wird. Aktuell gibt es allerdings noch einige Möglichkeiten, Deepfake-Videos zu erkennen, wenn man aufmerksam hinsieht:
- Unnatürliche Mimik und Gestik: Wenn das Gesagte und der Ausdruck der Person nicht zusammen passen, kann dies ein Hinweis auf einen Deepfake sein.
- Unscharfe Übergänge: unscharfe Übergänge zwischen Gesicht und Haaren oder Hals: da meist nur das Gesicht von der KI erstellt wird, ist an den Übergängen zwischen generiertem und echtem Video oft ein unscharfer Übergang zu erkennen
- Unterschiedliche Qualität: Wenn das Video im Gesichtsbereich eine geringere Qualität zeigt als das restliche Video, sollte man misstrauisch werden.
- Fehlendes Blinzeln: Wenn Personen nicht alle paar Sekunden blinzeln, sollte man vorsichtig sein
- Bei Verdacht – Geste einfordern: Wenn man in einem Videocall den Verdacht hat, kann man das Gegenüber bitten, sich z.B. mit dem Finger auf die Nase zu tippen – mit solchen Gesten haben (gerade im Live-Betrieb) die meisten Deepfakes ein Problem und das Bild zeigt dann deutliche Artefakte
4. Ein entstandener Schaden durch Deepfakes – kann ich diesen versichern?
Wie bereits dargestellt ist das Missbrauchspotential von Deepfakes enorm und eröffnen Betrügern in Zukunft viele Möglichkeiten. Auch die Schadenszahlen sprechen dafür, dass über eine Absicherung solcher Betrugsmaschen nachgedacht werden sollte. So wurde bereits 2019 ein britischer Geschäftsführer telefonisch vom vermeintlichen deutschen Vorstandschef seines Mutterkonzerns kontaktiert und um Überweisung von EUR 220.000 auf ein ungarisches Konto gebeten (Link: Allianz Trade). Da der britische Geschäftsführer die Stimme des deutschen Kollegen vermeintlich erkannt, veranlasste er die Überweisung und das Geld war nicht mehr zurückzubekommen. Der Betrug flog schlussendlich auf, da der Betrüger noch eine weitere Überweisung einforderte, nachdem die erste Überweisung so gut geklappt hat.
Da davon auszugehen ist, dass entsprechende Betrugsmaschen in Zukunft weiter zunehmen werden, ist der Abschluss einer Cyber-Versicherung mit einem entsprechenden Vertrauensschaden-Baustein oder einer klassischen Vertrauensschadenversicherung empfehlenswert.
Auch unser Antragsmodell INFINCO MARKEL Pro Cyber umfasst einen entsprechenden Versicherungsschutz für Fake President-Betrugsmaschen.
Unsere Produkte
D&O
Für Unternehmen, Stiftungen, Vereine, einzelne Personen & D&O mit Strafrechtschutz
CYBER
Für Dienstleister & Gewerbe, Versicherungs-Vermitttler, Produktions-Unternehmen etc.
SPEZIAL STRAF-RECHTSSCHUTZ
Strafrechtsschutz, Manager-Rechtsschutz, Steuerberater & Wirtschaftsprüfer
CRIME
Finanzinstitutionen,
Kommerzielle Kunden
VERMÖGENSSCHADEN-HAFTPFLICHT
Finanzinstitute, Private Equity, Werbung & Medien etc.
Lesen Sie hier weiter
Ein perfekter Angriff: Wie ich fast mein GMail-Konto verloren hätte
Die Zeit, in der man Cyberkriminelle an schlechter Grammatik oder offensichtlichen technischen Fehlern erkennen konnte, ist vorbei. Die neue Generation von KI-gestützten Angriffen ist raffiniert, überzeugend und hochprofessionell.
WEITERLESENDer EU AI Act: Regulierung für Künstliche Intelligenz
Am 1. August 2024 trat der "AI Act" der Europäischen Union in Kraft.
WEITERLESENFehleinschätzungen zu NIS2: Wie Unternehmen die Richtlinie unterschätzen!
Über die EU-Richtlinie NIS2 wurde in den letzten Monaten viel berichtet. Sie stellt viele Unternehmen vor große Herausforderungen und zahlreiche Fehleinschätzungen und Missverständnisse erschweren die effektive Umsetzung.
WEITERLESEN