Was sind Deep Fakes? | Bundesregierung (2024)

Herr Kleemann, was sind Deep Fakes?

Aldo Kleemann: Deep Fakes sind täuschend echt wirkende, jedoch künstlich erstellte oder veränderte Foto-, Video- oder Sprachaufzeichnungen. Dabei kann es sich um einzelne Bilder von realen oder gänzlich neu erschaffenen Personen handeln. Stimmen können imitiert oder neu erschaffen werden. Es können aber auch vorhandene Reden abgeändert und den Sprecherinnen und Sprechern Worte lippensynchron in den Mund gelegt werden.

Der Begriff Deep Fake leitet sich aus dem Erstellungsprozess ab. In einem „Generative Adversarial Network“ (GAN) werden zwei neuronale Netzwerke kombiniert und anhand vorhandener Bild-, Video- oder Sprachaufzeichnungen trainiert. Das anschließende „deep learning“ der neuronalen Netze ist so tiefgehend und die Ergebnisse sind so realistisch, dass der heute umgangssprachliche Begriff Deep Fake auf diesen Prozess zurückgeht.

Aldo Kleemann ist Oberstleutnant i.G. Er studierte von 2008 bis 2012 Politikwissenschaften mit dem Schwerpunkt auf internationalen Beziehungen an der Universität der Bundeswehr in Hamburg. Seit 2022 ist er als militärischer Berater und Gastwissenschaftler in der SWP tätig. In der Ausgabe SWP-Aktuell Nr. 43 der Stiftung Wissenschaft und Politik (SWP) finden Sie seinen Beitrag „Deepfakes – Wenn wir unseren Augen und Ohren nicht mehr trauen können“.

Wie können Deep Fakes erstellt werden?

Kleemann: ImGAN findet ein Wechselspiel zwischen zwei Komponenten statt. Während der gestaltende Teil (Generator) fiktive Bilder oder Stimmen erzeugt, übernimmt der andere Teil (Diskriminator) deren Bewertung hinsichtlich der Echtheit des gegebenen Trainingsdatensatzes. Ziel ist es, dass der Generator Medien produziert, die möglichst nicht vom Trainingsdatensatz zu unterscheiden sind. Man kann ein solchesGAN also ganz allgemein auf die Erstellung von beispielsweise Porträtfotos anlernen oder aber für ein bestimmtes Gesicht oder eine bestimmte Stimme trainieren.

Kann jede und jeder Deep Fakes erstellen?

Kleemann: Ja das kann jede und jeder, für einfache Täuschungen reichen handelsübliche Apps. Benutzerinnen und Benutzer brauchen keine Vor- oder gar Programmierkenntnisse. Sofern man mit dem Deep Fake eine bestimmte Person imitieren will, braucht es entsprechende Trainingsdaten für die App. Man braucht also Bilder und/oder Audiodateien der jeweiligen Person. Will man sich aber nur ein Foto erschaffen, möglicherweise, um einen falschen Account in Sozialen Medien anzulegen, könnte man einen Text-Bild-Generator nutzen. Für deren Nutzung braucht es nur die Beschreibung des Bildes.

Woran können Deep Fakes erkannt werden? Geht das überhaupt?

Kleemann: Viele ältere Deep Fakes weisen typische Bildfehler oder blecherne Stimmen auf. Auch aktuelle Deepfakes sind nicht immer perfekt. Beispielsweise betrifft das bei den Text-Bild-Generatoren häufig die Darstellung der Hände, die Zahl und Form der Finger passt dort regelmäßig nicht. Dies ist jedoch nur eine Momentaufnahme, die Technologie entwickelt sich rasend schnell weiter und daher können wir nicht davon ausgehen, dass wir Deep Fakes auch in der nahen Zukunft noch mit dem bloßen Auge erkennen können.

Hinzu kommen die unzähligen Variationsmöglichkeiten beim Einsatz von Deep Fakes, also was genau verändert wurde, welche Sie für ein derartiges „Erkennen“ im Blick haben müssen. Mitunter ist es nur der Gesichtsausdruck einer Person, welchen sie leicht verändern müssen, etwa ein Lächeln im unpassenden Moment. Möglicherweise wurde eine ganze Rede erschaffen oder aber nur einzelne Aussagen verändert, manchmal reicht es einzelne Worte zu entfernen oder hinzuzufügen. Darüber hinaus ist relevant auf welchem Medium die Zielgruppe den Deep Fake betrachtet: Ein hochauflösendes Display? Boxen in Tonstudioqualität, die kleinste Unstimmigkeiten in der Stimme hörbar machen? Oder wird der Fake auf einem Handy betrachtet? Möglicherweise wurde der Deep Fake gar zunächst auf einem Fernseher gezeigt, mit einem Handy abgefilmt und dann verbreitet. Auch ein Faktor ist, wie viel Zeit die Zielgruppe zur Betrachtung hat. Die Möglichkeiten sind grenzenlos, von daher sollten wir nicht davon ausgehen, dass wir Deep Fakes heute und in Zukunft allein mit unseren Augen und Ohren problemlos erkennen können.

Wozu werden Deep Fakes produziert?

Kleemann: Deep Fakes lassen sich schnell, kostengünstig, massenhaft und sehr einfach erstellen. Mit Deep Fakes können zum Narrativ schnell und einfach passende Ton-, Bild- und Videoaufzeichnungen erstellt werden. Die menschliche Neigung, emotional auf diese Medien zu reagieren, eröffnet deren Produzentinnen und Produzenten eine völlig neue Dimension des Missbrauchs. Zu den allgemeinen missbräuchlichen Anwendungen zählen daher Betrug, Diffamierung, Erpressung und eben Desinformation.

Welchen Zusammenhang gibt es zwischen Deep Fakes und Desinformation?

Kleemann: Täuschung und Medienmanipulation sind an sich keine neuen Phänomene. Deep Fakes verändern Desinformationskampagnen allerdings in drei wesentliche Faktoren:

  • Quantität – marktverfügbare Apps ermöglichen eine massenhafte, schnelle und kostengünstige Anfertigung von Deep Fakes. Das erlaubt es neben Staaten auch ressourcenarmen Gruppierungen und Individuen, eigene Desinformationskampagnen im großen Maßstab durchzuführen.
  • Qualität – Deep Fakes werden qualitativ immer besser und wirken natürlicher, wodurch sie schwerer zu erkennen sind und an Glaubwürdigkeit und Überzeugungskraft gewinnen.
  • Qualifikation – Während die Erstellung von Deep Fakes nahezu keinerlei Qualifikation voraussetzt, wird die zu ihrer Erkennung erforderliche Expertise immer umfangreicher.

Diese Entwicklungen haben das Potential, die Reichweite und Wirksamkeit von Desinformation im 21. Jahrhundert signifikant zu erhöhen.

Gibt es Möglichkeiten, Deep Fakes zu begrenzen? Stichwort: Regulierung und Kennzeichnung von KI?

Kleemann: Ein „silver bullet“ also eine universell wirksame Wunderwaffe wird es nicht geben. Ein Verbot ist abwegig, denn die dahinterstehende Technologie ist ein klassischer Fall einer Dual-Use Technologie. Sie lässt sich in der Medizin, zur Medikamentenentwicklung oder zur Verbesserung der Bildauswertung anwenden oder in der Bildung um beispielsweise Geschichte erlebbarer zu machen.

Wir werden daher lernen müssen, mit Deep Fakes zu leben und können deren negative Wirkung nur bedingt begrenzen. Dazu bedarf es einer Mischung von präventiven und reaktiven Ansätzen: Eindämmen – Erkennen – Reagieren ist hier der Dreiklang. Dazu zählen eine softwareseitige Kennzeichnungspflicht für Deep Fakes, die Stärkung vertrauenswürdiger Inhalte durch das Hinzufügen fälschungssicherer Verlaufs- und Identitätsinformationen zu digitalen Daten, die Stärkung von Medienkompetenz und die Entwicklung eigener Aufklärungsansätze unter Verwendung von KI.

Umgang bedeutet aber auch, dass wir uns auf Deep Fakes einstellen und Mittel und Wege finden, deren Wirkung zu begrenzen: hierzu gehört ein Mediamonitoring sowie die kontinuierliche Beschäftigung mit Deep Fakes, um zu verstehen, wie sie in Desinformationskampagnen eingebunden werden. Es braucht den Austausch national und mit unseren internationalen Partnerinnen und Partnern. Und schlussendlich müssen wir Reaktionsstrategien vorhalten, die vor allem auf Schnelligkeit ausgerichtet sind. Denn in einer Zeit, in der die Verbreitung von Informationen nicht mehr in Tagen, sondern in Minuten gemessen wird, bedarf es der Fähigkeit zur raschen Erkennung und schnellen Antwort auf einen Deep Fake.

Schauen wir mal in die Zukunft: In welche Richtung entwickeln sich Deep Fakes?

Kleemann: Deep Fakes werden kontinuierlich besser und wir werden ohne Hilfsmittel immer weniger in der Lage sein, zwischen Realität und Fälschung zu unterscheiden.

Dieses Interview wurde schriftlich geführt.

Künstliche Intelligenz kann Fotos und Videos von Szenen erzeugen, die so gar nicht stattgefunden haben. Wie soll man da noch durchblicken? In dem Beitrag „

Deepfakes erkennen

“ von fluter Magazin sind Tipps für den Echtheits-Check zu finden.

Informationen zu Nachrichten im digitalen Zeitalter finden sich auch im Handbuch „

Fake News, Framing, Fact Checking

“ der Bundeszentrale für politische Bildung.

Was sind Deep Fakes? | Bundesregierung (2024)

FAQs

Are deepfakes illegal? ›

There are no federal laws banning deepfake porn, but several bills have been introduced in Congress, including the AI Labeling Act of 2023 and the DEFIANCE Act of 2024. Neither has moved out of committee.

What is an example of a deepfake? ›

What are some examples of deepfakes? The two aforementioned incidents involving Taylor Swift and President Biden are examples of deepfakes. Another example involving celebrities include a TikTok account that posts video of a person who bears the likeness of actor Tom Cruise.

What is the science behind deep fakes? ›

While the act of creating fake content is not new, deepfakes leverage tools and techniques from machine learning and artificial intelligence, including facial recognition algorithms and artificial neural networks such as variational autoencoders (VAEs) and generative adversarial networks (GANs).

What are the dangers of deepfakes? ›

Not only has this technology created confusion, skepticism, and the spread of misinformation, deepfakes also pose a threat to privacy and security. With the ability to convincingly impersonate anyone, cybercriminals can orchestrate phishing scams or identity theft operations with alarming precision.

Can deepfakes be tracked? ›

The database includes descriptors for each deepfake, such as the URL and how much it was seen or shared on social media. It also lists the original source, the sharer, the person or group that the deepfake was targeting, and theoretical indicators.

Are deepfakes identity theft? ›

By leveraging artificial intelligence, deepfakes enable fraudsters to clone your face, voice, and mannerisms to steal your identity.

Who are the famous victims of deepfakes? ›

Almost every celebrity and politician you know has been the victim of deepfakes, including Barack Obama, Tom Hanks, Jennifer Aniston, Ellie Goulding, Scarlett Johansson and Ariana Grande – with women disproportionately being affected.

What does a deepfake look like? ›

Using artificial intelligence, deepfakes can mimic a person's voice and facial features. The technology uses an audio recording of someone's voice to make it say things that the person might never have said. It can mimic someone's facial movements from videos of them, or even just a picture of their face.

How do celebrities feel about deepfakes? ›

What have celebrities said about deepfake videos? King and Hanks released statements during the past week denouncing the deepfake videos that used their likenesses. "They've manipulated my voice and video to make it seem like I'm promoting it," King said on Instagram Oct.

How to stop deepfakes? ›

Limit the amount of data available about yourself, especially high-quality photos and videos, that could be used to create a deepfake. You can adjust the settings of social media platforms so that only trusted people can see what you share.

How can deepfakes be detected? ›

Facial and body movement

For images and video files, deepfakes can still often be identified by closely examining participants' facial expressions and body movements.

Who created deepfakes? ›

The Origin of Deepfakes

A true point of no return for deepfakes is attributed to the 2014 breakthrough in deep learning unveiled by Ian Goodfellow and his team. Goodfellow introduced the machine learning concept known as Generative Adversarial Network (GAN).

Are deepfakes illegal in the US? ›

There are currently no federal laws in the US that prohibit the sharing or creation of deepfake images, but there is a growing push for a change to federal law. In January 2024, representatives proposed the No Artificial Intelligence Fake Replicas And Unauthorized Duplications (No AI FRAUD) Act.

Can you sue someone for deepfakes? ›

Can you sue someone for making a deepfake? Yes, individuals can sue for the creation of deepfakes under several grounds, including defamation, emotional distress, and violation of intellectual property rights. Celebrities and public figures can also claim that their likeness has been misappropriated.

Why are deepfakes scary? ›

The highest concern associated with deep fakes is that it is getting harder and harder to detect the authenticity of the images or videos. It makes it more difficult for people to decipher what's real and what isn't.

Is undress AI illegal? ›

It's now illegal to generate and distribute 'intimate' deepfakes. Preventative conversations about undress AI can keep children from getting involved.

Can you sue someone for making a deepfake of you? ›

The Disrupt Explicit Forged Images and Non-Consensual Edits, or DEFIANCE Act, allows victims to sue if those who created the deepfakes knew, or “recklessly disregarded” that the victim did not consent to its making.

Can deepfakes be used in court? ›

Important documents can be forged via LLMs and deepfake images. Such manipulations can lead to wrongful convictions or acquittals if not detected, causing irreversible devastation for those impacted by the justice system. The same methods can be used to create false video and audio testimony from witnesses and experts.

Are deepfakes detectable? ›

Conversely, Pindrop's deepfake detection technology has a 99% success rate. Verification algorithms can also be more successful in detecting deepfake images (like passport photos or mugshots), achieving accuracy scores as high as 99.97% on standard assessments like NIST's Facial Recognition Vendor Test (FRVT).

References

Top Articles
Latest Posts
Recommended Articles
Article information

Author: The Hon. Margery Christiansen

Last Updated:

Views: 5325

Rating: 5 / 5 (50 voted)

Reviews: 81% of readers found this page helpful

Author information

Name: The Hon. Margery Christiansen

Birthday: 2000-07-07

Address: 5050 Breitenberg Knoll, New Robert, MI 45409

Phone: +2556892639372

Job: Investor Mining Engineer

Hobby: Sketching, Cosplaying, Glassblowing, Genealogy, Crocheting, Archery, Skateboarding

Introduction: My name is The Hon. Margery Christiansen, I am a bright, adorable, precious, inexpensive, gorgeous, comfortable, happy person who loves writing and wants to share my knowledge and understanding with you.