Deepfakes – Vier Learnings von den Stuttgarter Tagen der Medienpädagogik
Die Politologin Maria Pawelec von der Universität Tübingen forscht seit Jahren zum Thema Deepfakes und betont, dass gut gemachte Deepfakes heute nicht mehr mit dem bloßen Auge zu erkennen sind. | Foto: Marlene Feller/LMZ
Wie umgehen mit der Herausforderung Deepfakes?
Realität ist, was wir vor Augen haben? Mit ihren Deepfakes lassen KI-Bildgeneratoren wie Midjourney oder Stable Diffusion und KI-Videogeneratoren wie Sora die Grenzen zwischen Wirklichkeit und Fiktion zunehmend verschwimmen. Deepfakes sind Medieninhalte wie Bilder, Videos oder Audios, die mithilfe von künstlichen neuronalen Netzen manipuliert oder synthetisch erzeugt wurden. Sie zeigen täuschend echt wirkende Gesichter und Körper oder machen täuschend echt klingende Stimmen hörbar.
Wie sollten sich Medienpädagogik und Gesellschaft aufstellen, um dieser Herausforderung gerecht zu werden? Darüber diskutierten die Teilnehmenden der 47. Stuttgarter Tage der Medienpädagogik am 12. März 2025 im SWR Funkhaus Stuttgart. Im Folgenden haben wir vier Learnings der Fachtagung zum Thema „Wahrheit und Realität im digitalen Zeitalter: Medienpädagogische Perspektiven“ für Sie zusammengefasst.
Learning #1: Deepfakes lassen sich nicht mehr mit dem bloßen Auge erkennen
Als KI-Bildgeneratoren im Herbst 2022 einer breiten Öffentlichkeit zugänglich wurden, war die Technologie noch nicht sonderlich ausgereift. Die damit erzeugten Bilder konnten anhand optischer Artefakte als solche identifiziert werden. Ein zusätzlicher Finger, unterschiedliche Lichtreflexionen in den Augen oder verwaschene Konturen konnten ein Deepfake-Bild zum Beispiel entlarven.
In ihrem Vortrag bei den Stuttgarter Tagen für Medienpädagogik weist Maria Pawelec darauf hin, dass der audiovisuelle Strang der Generativen KI in der Zwischenzeit einen „großen Sprung“ gemacht hat. Die Wissenschaftliche Mitarbeiterin am Internationalen Zentrum für Ethik in den Wissenschaften (IZEW) der Universität Tübingen forscht seit Jahren zum Thema Deepfakes. „Ein gut gemachter Deepfake lässt sich nicht mehr mit dem bloßen Auge erkennen“, so Pawelec. Gleichzeitig reichten heute eine halbe Minute Audiomaterial oder ein einziges Bild einer Person aus, um einen Bild-Deepfake zu erstellen.
Die Wissenschaftlerin geht außerdem davon aus, dass in naher Zukunft KI-Videogeneratoren auf dem Smartphone „hollywoodreife Videos“ liefern werden. Zwar entwickelt sich auch die Detektions-Software zur Erkennung von Deepfakes weiter. Doch das sei Pawelec zufolge immer ein „Katz- und Maus-Spiel“, bei dem die Detektions-Software wiederum zur Verbesserung der KI-Software genutzt werde.
SWR-Moderatorin Leonie Maderstein (l.) führt durch das Expertinnen- und Expertengespräch. Hier diskutieren der stellvertretende Direktor des LMZ, Fabian Karg (2.v.l.), mit dem Leiter der Abteilung Medienkompetenz, Jugendschutz und Forschung bei der LFK, Thomas Rathgeb, und der Politologin Maria Pawelec über die Herausforderungen der Deepfake-Technologie für die Medienbildung. | Foto: Marlene Feller/LMZ
Learning #2: (Sexualisierende) Deepfakes sind weiblich
Nimmt man das Geschlecht der in Deepfakes dargestellten Personen in den Blick, wird schnell deutlich: Die Hauptrolle in Deepfakes spielen Frauen. Eine Studie des Cybersicherheits-Unternehmens Home Security Heroes aus dem Jahr 2023 offenbart, dass der Fokus in mehr als drei Viertel aller „regulären Deepfakes“ auf dem weiblichen Geschlecht liegt. Noch eklatanter fällt der Unterschied zwischen den Geschlechtern im Universum der Deepfake-Pornografie aus: 99 Prozent der Betroffenen sind weiblich. Hinzu kommt, dass mit 98 % der Löwenanteil aller Deepfakes im Netz pornografischer Natur sind.
Die Folgen für Frauen, die von Deepfake-Pornografie betroffen sind, sind erheblich. Sie reichen von psychischen Leiden über Verleumdung, Erpressung und Mobbing bis hin zu Cyberstalking und physischer Bedrohung. In ihrem Vortrag macht die Politologin Pawelec auf die Situation in Südkorea aufmerksam. Dort hatte grassierende Deepfake-Pornografie im Herbst 2024 zu nationalen Protesten und einer Gesetzesverschärfung geführt. Um sich vor Deepfakes zu schützen, löschten insbesondere Schülerinnen und Studentinnen massenweise eigene Fotos oder Videos auf ihren Social-Media-Accounts oder zogen sich komplett aus den sozialen Netzwerken zurück. Laut Pawelec zeige das Beispiel, dass Deepfake-Pornografie zum Rückzug von Frauen aus dem digitalen öffentlichen Raum führen könne und dies nachhaltig der Meinungsvielfalt schade.
Learning #3: Deepfakes verstärken bestehende politische Überzeugungen
Im politischen Universum werden Deepfakes längst für Wahlmanipulation, Angriffe auf politische Gegner/-innen, ausländische Einflussnahme sowie Kriegspropaganda genutzt. Zwar erlauben es nicht alle KI-Bild- oder Videogeneratoren, Deepfakes von öffentlichen Personen und Prominenten zu erstellen und haben entsprechende Schranken eingebaut. Die hauseigene KI-Anwendung des Kurznachrichtendienstes X, „Grok AI“, lässt jedoch zum Beispiel auch Deepfakes von öffentlichen Personen zu. Fake News mit maßgeschneiderten Fake-Fotos zu erstellen wird so zum Kinderspiel. Die Folge dieser Entwicklung ist, dass das Vertrauen in Fakten und die mediale Berichterstattung schwindet – und somit die gemeinsame Basis für demokratischen Diskurs.
Maria Pawelec vom IZEW erklärt, dass Wahl-Deepfakes vor allem bestehende Überzeugungen verstärken und so zur weiteren Polarisierung in Politik und Gesellschaft beitragen. Sie prägen Narrative und dienen als Memes. Den Konsumierenden dieser Deepfakes sei dabei Pawelec zufolge häufig egal, ob ein Foto oder Video gefälscht sei – solange es die eigene Meinung widerspiegele. Diese „Neigung von Menschen, Informationen so auszuwählen, zu suchen und zu interpretieren, dass diese die eigenen Erwartungen bestätigen“, bezeichnet man in der Kognitionspsychologie auch als „Confirmation Bias“ (Stangl 2011).
Fabian Karg, stellvertretender Direktor des LMZ, macht auf die Bedeutung von Quellenkritik und persönlichem Austausch mit Kindern und Jugendlichen über ihre Mediennutzung aufmerksam. | Foto: Marlene Feller/LMZ
Learning #4: Quellenkritik ist das A und O der Medienbildung im Deepfake-Zeitalter
In einer Zeit der zunehmenden Verunsicherung durch Deepfakes wird der persönliche Austausch mit Kindern und Jugendlichen über ihre Mediennutzung immer bedeutsamer. Im Expertinnen- und Experten-Talk der Stuttgarter Tage betont Fabian Karg, stellvertretender Direktor des Landesmedienzentrums (LMZ): „Die Frage nach den Quellen wird immer wichtiger.Kinder zu fragen: Woher kommt das, was du siehst? Woher weißt du, ob das stimmt? Wo könntest du das nochmal nachprüfen?“ Wichtig ist Karg dabei: Eltern und Lernbegleitende könnten Kinder und Jugendliche dazu anregen, etwas zu hinterfragen, ohne die technischen Hintergründe – wie z.B. Large Language Models – verstanden zu haben.
Für Thomas Rathgeb, Leiter der Abteilung Medienkompetenz, Jugendschutz und Forschung bei der Landesanstalt für Kommunikation (LFK) und ebenfalls Teilnehmer des Expertinnen- und Experten-Talks, ist Vertrauen das Schlüsselwort. „Es ist wichtig, unser Mediensystem zu verstehen, damit ich weiß, welcher Quelle ich vertrauen kann und wo und bei welchen Themen ich vorsichtig sein muss“, so Rathgeb. Nur so könne das Vertrauen in Medien und journalistische Arbeit zurückgewonnen werden.
Ein Baustein, um Vertrauen zu schaffen, könnte in Zukunft ein technischer Standard zur Kennzeichnung von realen Bildern und Videos durch Wasserzeichen sein. Als Beispiel nennt die Politologin Maria Pawelec die „Content Authenticity Initiative“ von Adobe. Knackpunkt dabei bleibt, die Authentizität solcher Wasserzeichen zu prüfen. Hier hofft Fabian Karg auf eine technische Lösung durch die Blockchain-Technologie. Doch auch dann bleiben Quellenkritik und Nachrichtenkompetenz die Grundpfeiler von Medienbildung im Zeitalter von Deepfakes – um ganz selbstverständlich das zu hinterfragen, was wir vor Augen haben.
Die Fachtagung Stuttgarter Tage der Medienpädagogik wird von den Institutionen Akademie der Diözese Rottenburg-Stuttgart, Evangelisches Medienhaus GmbH, Gesellschaft für Medienpädagogik und Kommunikationskultur (GMK), Landesanstalt für Kommunikation Baden-Württemberg (LFK), Landesmedienzentrum Baden-Württemberg (LMZ), Landeszentrale für politische Bildung Baden-Württemberg (LpB), Südwestrundfunk (SWR) gemeinsam organisiert, durchgeführt und finanziert.









