MENU
Künstliche Intelligenz

Fälschung auf Knopfdruck

03. April 2024

Künstliche Intelligenz eröffnet viele neue Möglichkeiten – auch für Betrug und Manipulation. Mit heutigen KI-Tools lassen sich täuschend echt wirkende Fälschungen von Bildern, Videos oder Tonaufnahmen erstellen. Welche Risiken bergen die sogenannten Deepfakes für Gesellschaft und Unternehmen? Tipps, wie man sie entlarvt.

 

Papst Franziskus zeigt sich in einer modischen Daunenjacke. Russlands Präsident Wladimir Putin geht bei einem Staatsbesuch vor dem chinesischen Präsidenten Xi Jinping auf die Knie. Donald Trump wird von mehreren Polizisten überwältigt und verhaftet: All diese Bilder und Videos wirken auf den ersten Blick echt, sind aber Deepfakes.

 

Was ist und wie entsteht ein Deepfake?

Der Begriff leitet sich aus dem Entstehungsprozess her: Künstliche neuronale Netze werden via „Deep Learning“ mit Bildern, Videos oder Audios trainiert und generieren eine möglichst perfekte Fälschung – also einen Deepfake.

Eine sehr verbreitete Methode ist die Nutzung von Generative Adversarial Networks (GANs). Dabei arbeiten zwei Netzwerke gegeneinander: Das eine – der sogenannte Generator – wird darauf trainiert, möglichst realistische Fälschungen zu erstellen. Das andere – der sogenannte Diskriminator – soll diese Fälschungen erkennen und bewerten. „Im Zuge dieses Wechselspiels wird sowohl die Fälschungs- als auch die Kontrollinstanz immer genauer und das Ergebnis so immer realistischer“, erklärt Vasilios Danos, KI-Experte von TÜVIT.

Ein hochkomplexer Prozess, der sich aber quasi auf Knopfdruck durchführen lässt. Man braucht dazu nur eine entsprechende Software und ausreichend Ausgangsmaterial, mit dem die KI trainiert werden kann. Und Bild- oder Tonaufzeichnungen von Prominenten aus Politik, Wirtschaft oder Kultur sind im Netz einfach und überall zu finden.

Inzwischen gibt es eine Vielzahl an Websites und Smartphone-Apps, die den Erstellungsprozess noch weiter erleichtern. „Nie zuvor war es einfacher, realistische Fälschungen zu erstellen und über die sozialen Netzwerke anschließend zu verbreiten“, sagt Danos. „Und bis klar ist, dass es sich um einen Deepfake handelt, ist der Schaden zumeist schon angerichtet.“

 

 

Falsche Präsidenten und Vorgesetzte

Die große Sorge: Über Deepfakes können politische Stimmungen gesteuert, gesellschaftliche Gräben vertieft und Wahlen beeinflusst werden. Dass diese Sorge nicht aus der Luft gegriffen ist, demonstriert ein Fall, der in den USA im Januar 2024 für viel Aufregung sorgte: Im Bundesstaat New Hampshire hatte ein Telefonroboter mit der Stimme von Joe Biden Menschen dazu aufgefordert, nicht an der Vorwahl teilzunehmen.

Immer wieder werden Deepfakes zudem dazu verwendet, um Frauen über vermeintliche Nacktbilder herabzuwürdigen – seien es Ex-Partnerinnen oder Prominente. Im Januar wurde X (ehemals Twitter) mit Fake-Fotos der Sängerin Taylor Swift geflutet. Der Fall beschäftigte ebenfalls das Weiße Haus, das gesetzgeberische Aktivitäten im Kongress ankündigte.

Aber auch Cyberkriminelle haben die neuen Möglichkeiten längst für sich entdeckt: Ein Angestellter eines Unternehmens in Hongkong hat Medienberichten zufolge 23 Millionen Euro an Kriminelle überwiesen, die sich mittels Deepfake in einer Videokonferenz als seine Vorgesetzten ausgegeben hatten. Der bekannte CEO-Fraud, der „Chef-Betrug“, werde durch KI auf ein neues Level gehoben, sagt Vasilos Danos von TÜVIT: „Daher ist es wichtig, Mitarbeitende für mögliche Deepfake-Betrugsversuche zu sensibilisieren.“

 


Wie die EU gegen Deepfakes vorgehen will

Die EU hat auf die generierte Gefahr reagiert. Vor der anstehenden Europawahl hat die EU-Kommission Leitlinien zum Kampf gegen politische Falschinformationen im Allgemeinen und Deepfakes im Besonderen veröffentlicht. Gestützt auf den Digital Services Act und im Vorgriff auf den nun verabschiedeten AI Act sollen große Plattformen wie Tiktok, Facebook und Co. KI-generierte Inhalte eindeutig kennzeichnen.

Viele davon haben ihre Nutzenden bereits in die Pflicht genommen. KI-generierte Inhalte müssen auf Tiktok, Youtube, Facebook, Instagram oder Threads mittlerweile markiert werden, andernfalls drohen Konsequenzen. Tiktok und der Facebook-Mutterkonzern Meta arbeiten nach eigenen Angaben auch an Möglichkeiten, um Deepfakes automatisch zu identifizieren und zu kennzeichnen.

 

Zur Person:
Vasilios Danos ist Experte für künstliche Intelligenz und verantwortet den Bereich AI Security und vertrauenswürdige KI bei TÜVIT. Der diplomierte Elektrotechniker beschäftigte sich bereits im Studium mit den Möglichkeiten von künstlicher Intelligenz und neuronalen Netzen. 2006 nahm er mit einem Universitätsteam an der Weltmeisterschaft im Roboterfußball, dem RoboCup, für Dortmund teil.

Automatisierte Fake-Scanner

Weltweit wird an solchen Deepfake-Detektoren geforscht. Microsoft und Intel haben schon entsprechende Tools herausgebracht. „Die Systeme sind noch nicht perfekt, können aber bereits viele Deepfakes erkennen“, meint Danos. „Ideal wäre es daher, wenn sämtliche Plattformen solche Detektoren implementieren. Andernfalls dürfte der Gesetzgeber ihre Verwendung über kurz oder lang verpflichtend machen.“ Mit einer hundertprozentigen Trefferquote ist dabei allerdings auch in Zukunft nicht zu rechnen. Denn mit Deepfakes ist es wie mit Computerviren oder anderen „klassischen“ IT-Attacken, so Danos. „Wenn sich die Detektionssysteme verbessern, entwickeln die Angreifenden auch ihre Methoden weiter – ein ewiges Katz-und-Maus-Spiel.“

Aber zumindest noch sind Bürgerinnen und Bürger dem digitalen Betrug nicht hilflos ausgeliefert. Denn viele KI-generierte Inhalte lassen sich bei genauerem Hinsehen oder Hinhören also solche erkennen. So erkennt man Deepfakes:

 

Für gute Bildqualität sorgen

Je größer das Bild beziehungsweise je höher die Auflösung, desto leichter lassen sich Ungereimtheiten und Fehler im Bild erkennen. Ein fragwürdiges Video sollte man sich daher nicht auf dem Smartphone, sondern auf einem größeren Monitor anschauen. Das Video zu pausieren oder in Zeitlupe ablaufen zu lassen kann ebenfalls Fehler enthüllen und so Manipulationen entlarven.

 

Ins Gesicht schauen

Wenn wir reden oder uns unterhalten, ist unser Gesicht in multipler Bewegung: Wir blinzeln, runzeln die Stirn, in hitzigen Situationen kann die sogenannte Zornesader zum Vorschein kommen. Solche Feinheiten menschlicher Mimik kann die KI noch nicht so gut darstellen. Ein genauer Blick, besonders bei verlangsamtem Bild, kann eine Fälschung enttarnen. Bei Foto-Deepfakes kann die Betrachtung der Hände und Finger aufschlussreich sein. Oftmals gelingt es den Generatoren nicht, diese Details präzise wiederzugeben, was zu Anomalien führt. Es können beispielsweise plötzlich sechs Finger an einer Hand erscheinen oder Arme mit anderen Objekten verschmelzen.

 

Aufmerksam sein oder werden

Wie bei anderen sensationellen Inhalten im Internet gilt auch hier: Eine gesunde Vorsicht ist oft von Vorteil. Die Kernfragen, die man sich stellen sollte: Sind die Inhalte auch auf seriösen Nachrichtenseiten zu finden? Wurden die Bilder oder Videos bereits von Faktencheck-Portalen wie Mimikama oder Correctiv überprüft? Und vor allem: Passen die Aussagen und das Verhalten der gezeigten Person zu dem, was sie oder er üblicherweise sagt und tut? „Wenn beispielsweise Bundeskanzler Olaf Scholz etwas Skandalöses sagt oder tut, sollte man erst einmal skeptisch sein“, sagt KI-Experte Danos. „Insbesondere wenn man sich bewusst macht, wie einfach Deepfakes erstellt und verbreitet werden können.“

 

Übergänge unter die Lupe nehmen

Oft wird mittels KI nicht ein komplett neues Video generiert, sondern nur das Gesicht oder die Lippenpartie einer Person ausgetauscht, um ihr andere Worte in den Mund zu legen. Daher sollte man bei verdächtigen Bildern oder Videos auf die „Nahtstellen“ achten, also auf Übergänge zwischen Gesicht und Haaren, Gesicht und Hals. Die fallen bei Deepfakes oft noch unscharf aus. Hat das Gesicht eine andere Qualität als das restliche Bild oder Video und passen Schattenwurf, Beleuchtung oder Bewegung etwa der Mundpartie nicht zum restlichen Gesicht, deutet auch das auf einen Deepfake hin.

 

Entdeckt, erklärt, erzählt: Der Podcast von #explore

Das könnte Sie auch interessieren

Oops, an error occurred! Code: 202404291855113431991e Event: 6b565dff771446099aa6410a789731e9