Tatsachenbehauptungen im Internet sollten grundsätzlich hinterfragt werden, bevor wir sie für bare Münze nehmen. Nicht umsonst hatte der Begriff „Fake News“ 2017 große Chancen, das Unwort des Jahres zu werden. Jenseits davon ist jedoch ein anderes Mittel der Desinformation sowohl technisch faszinierend als auch alarmierend: Deep-Fakes.

Vereinfachter Zugang zu Informationen und Bildung, das Ausleben der individuellen Meinungsfreiheit und die Möglichkeit, sich eine unabhängige, regimekritische Meinung zu bilden – das sind nur drei der positiven Seiten einer digitalisierten Gesellschaft. Die Bedeutung des Internets wächst stetig.

Derartige Freiheiten verwandeln sich jedoch in Risiken, wenn sie missbraucht werden. Dies passiert vor allem im Bereich der Desinformation. Ob intendiert oder aus Versehen – unwahre und wahre Tatsachen können im Internet grundsätzlich in gleichem Ausmaß verbreitet werden. Das Untersuchen der Vertrauenswürdigkeit von Informationen im Internet und das Überprüfen ihrer Quellen gewinnt deshalb immer mehr an Bedeutung.

So wird auch der sogenannte Faktencheck – das Validieren von Tatsachenbehauptungen – immer wichtiger. In Deutschland widmen sich mittlerweile Presseagenturen und NGOs verstärkt diesem Aufgabenbereich. Dazu gehört auch der Blog Volksverpetzer, der es sich zur Aufgabe gemacht hat, Fake News zu entlarven.

Künstliche Intelligenz, die Videos verfälscht

Besonders eindrücklich wird die Möglichkeit der Manipulation im Internet bei sogenannten Deep-Fakes. Dabei handele es sich laut Philipp Kreißel vom Volksverpetzer um eines von vielen Mitteln der gezielten Desinformation. Beispiele für Deep-Fake-Technologie sind auf YouTube zu finden. Unter dem Suchbegriff „Deepfake Obama“ befindet sich auf der Plattform ein Video, in dem der ehemalige US-Präsident Barack Obama dem Publikum in seriösem Tonfall vermittelt, dass „President Trump […] totally dipshit“ sei.

Der Begriff „Deep-Fake“ entstand aus einer Fusion der Begriffe „Deep-Learning“ und „Fake“. Dabei wird Künstliche Intelligenz (KI) genutzt, um Foto- und Bildaufnahmen sowie Tonaufnahmen gezielt zu verändern. Die KI-Systeme nutzen vorhandene Aufnahmen, um die Mimik einer Person sowie den Klang ihrer Sprache zu analysieren und zu erlernen. Ist genügend beispielhaftes Material vorhanden, kann die KI dieses nutzen, um es in einen veränderten, manipulierten Kontext zu stellen. Der Person können außerdem Worte in den Mund gelegt werden, die sie so nie geäußert hätten. Das Ergebnis sieht dabei oft täuschend echt aus.

Die gesamte Technik hat grundsätzlich einen hohen Unterhaltungsfaktor und zusätzlich einen künstlerischen Mehrwert: Verstorbene Künstler*innen können dadurch lebendig gemacht werden. Auch gibt es die Möglichkeit des sogenannten Face-Swappings. So kursieren im Netz Videos zu Donald Trump, der plötzlich mit dem Gesicht von Rowan Atkinson – den meisten besser bekannt als Mr. Bean – zu sprechen scheint.

Gefährdungspotenziale von Deep-Fakes

Dass diese Technologie Gefahren birgt, wird bereits anhand der oben genannten Beispiele deutlich: Wenn zum Beispiel Aussagen von politischen Entscheidungsträger*innen so manipuliert werden, dass sie reale Konsequenzen nach sich ziehen könnten.

Am 25. Juni diesen Jahres berichtete die Tagesschau, dass die Oberbürgermeisterin Berlins, Franziska Giffey, wie auch weitere Oberbürgermeister*innen europäischer Hauptstädte, Opfer eines gefälschten Videoanrufs von Vitali Klitschko, dem Oberbürgermeister Kiews, wurden. In diesem Fall brach Franziska Giffey das Telefonat ab, weil es ihr seltsam erschien. Wiens Oberbürgermeister Michael Ludwig führte allerdings ein einstündiges Gespräch mit dem gefälschten, KI-basierten Vitali Klitschko. Ob es sich dabei tatsächlich um Deep-Fake-Technologie handelte, ist unklar – dennoch wird dabei das grundsätzliche Gefahrenpotential der Technologie deutlich. Deep-Fakes können zu einer politischen Waffe werden.

Philipp Kreißel vom Volksverpetzer zeigt dazu folgendes Worst-Case-Szenario auf: „Das Schlimmste wäre, wenn die Realität soweit verzerrt würde, dass dann Menschen reale Kriegsverbrechen, wie das in [der ukrainischen Stadt] Bucha, wo vor laufender Kamera Leute ermordet wurden, sehen, aber nicht mehr für echt halten. Das ist doch das Wichtige: Die Realität muss weiter das Überzeugendste bleiben.“ Aufgrund dessen müsse diese Technologie seiner Auffassung nach im Auge behalten werden. Er betont dabei auch, dass sich vermeintlich simple Fakes wie Sharepics mit Lügen bislang deutlich leichter verbreiten und produzieren lassen. Bei Sharepics handelt es sich um Bilder oder kurze Texte, die den Zweck haben, Aufmerksamkeit zu erregen und die sich auf Social Media leicht verbreiten lassen.

Immer häufiger werden auch Frauen Opfer von Deep-Fakes, ihre Gesichter werden in Videos mit pornographischen Inhalten eingesetzt. Darüber hinaus nutzen auch organisierten Kriminellen die Technologie und versuchen mithilfe von nachgeahmten Stimmen, Geld zu erbeuten oder Wirtschaftsspionage zu betreiben. Der*die einzelne Bürger*in steht dabei grundsätzlich vor der Herausforderung, herauszufinden, welchen Inhalten vertraut werden kann. Das Karlsruher Institut für Technologie bewertet Deep-Fakes sogar als „Gefahr für die Demokratie“.

Zunehmende Bedeutung der individuellen Medienkompetenz

Da Deep-Fakes schwer erkennbar sind, raten Expert*innen dazu, die Bildqualität zu überprüfen, Quellen zu hinterfragen und bei Live-Chats Gesprächspartner*innen im Zweifelsfall darum zu bitten, sich ins Gesicht zu fassen, da die KI-basierte Technologie sich mit derartigen Umsetzungen schwertut.

Ein wenig Entwarnung gibt Philipp Kreißel allerdings: „Deep-Fakes sind aktuell noch zu aufwendig in der Massenproduktion. Auch in Zukunft wird die primäre Strategie bei Fake News die Masse sein.“ Laut ihm handele es sich bei Deep-Fakes, um eine Technologie, die bisher noch nicht besonders erfolgreich sei und oft schnell enttarnt werden könne.


Illustration: Céline Bengi Bolkan

Dieser Text ist in der UnAufgefordert #261 zum Thema „www.journalistische-verantwortung.de“ im August 2022 erschienen.