Deep Fakes: Das gefälschte Gegenüber

Nicht nur Fotos können gefälscht sein, sondern sogar der Gesprächspartner in der Videokonferenz. Sogenannte Deep Fakes helfen Internetkriminellen dabei, falsche Identitäten vorzutäuschen. Trauen Sie also nicht nur Ihren Augen!

Gefälschte Bilder werden beweglich

Die Zeiten sind lange vorbei, in denen man glaubte, ein Foto könnte ein sicheres Beweismittel sein. Seit es digitale Fotos und Bildbearbeitungsprogramme gibt, besteht das Risiko, dass ein Foto, das man sich anschaut, nicht echt, sondern manipuliert ist.

Bei Videos hat man dagegen ein besseres Gefühl. Denn die Fälschung eines Videos erscheint doch wesentlich komplizierter. Wenn es sich dann noch um ein Live-Video handelt, zum Beispiel bei einer Videokonferenz, ist man geneigt, alle Vorsicht fallen zu lassen. Die Live-Bilder, die die Webcam überträgt, müssen echt sein, oder etwa nicht?

Leider lassen sich nicht nur Videos inzwischen mit vergleichsweise geringem Aufwand verändern. Selbst Live-Videos, die man sich ansieht, müssen nicht mehr echt sein. Für den Datenschutz ist dies ein großes Problem: Wenn man in der Videokonferenz scheinbar seine Chefin sieht, dann spricht man offen über vertrauliche Dinge. Es kann aber sein, dass es nicht die Chefin ist, sondern ein Datenspion.

Wie sich Videos fälschen lassen

Das Wort  Deep Fake  ist  eine Wortkombination  aus  Deep Learning und Fake. Es beschreibt die Technik der digitalen Manipulation von Ton-, Bild- und Videomaterialien mithilfe von Deep Learning. Das ist ein Verfahren des maschinellen Lernens, das in Systemen mit Künstlicher Intelligenz (KI) eingesetzt wird, berichtet das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag. Zentrales Merkmal ist die (foto)realistische Erzeugung fiktiver Medieninhalte oder die Manipulation bereits existierender Filmsequenzen.

KI-Systeme sind inzwischen so gut, dass sie die Aufnahmen einer Webcam in nahezu Echtzeit in andere Bilder verwandeln können. Eine Video-Identifizierung könnte dadurch erschwert oder untergraben werden, Videobeweise könnten ihren Wert verlieren.

Die Fortschritte der KI-Technologie haben die Erstellung gefälschter Videos auf eine Weise ermöglicht, die zuvor nicht möglich war, berichtet zum Beispiel die Universität von Albany. Solche gefälschten Videos erschweren das gesellschaftliche Vertrauen in die Authentizität digitaler Medien und verursachen schwerwiegende ethische, rechtliche, soziale und finanzielle Konsequenzen, wie die Wissenschaftler erklären.

Was man gegen Deep Fakes tun kann

Auch die Bundesregierung hat sich bereits ausführlich mit den Risiken durch Deep Fakes befasst. Dabei kommen die Experten des Bundes zu der Auffassung: Mit fortschreitender Entwicklung der Technik verbessern sich gleichzeitig auch die Mechanismen zur Erkennung von Fälschungen und Fälschungsversuchen, wenngleich kaum eine 100%-ige Verifizierung möglich sein wird.

Schutzmechanismen zur Erkennung von Deep Fakes suchen nach winzigen Fehlern, die die Fälscher machen. Zum Beispiel beim Blinzeln der Augen, bei der Ausleuchtung des Gesichts oder bei dessen Proportionen. Leider werden die Angreifer dank KI immer besser.

Als Nutzer von Videokonferenzen werden einem kaum solche Details auffallen. Sicherheitsexperten raten deshalb Anwendern dazu, was Datenschützer ebenfalls schon lange empfehlen: Man sollte so sparsam wie möglich mit eigenen Bildern und Videos sein, die man für die Öffentlichkeit ins Internet stellt. Dadurch  kann man es zumindest schwieriger machen, selbst einmal als Deep Fake zu erscheinen. Denn die KI der Angreifer braucht Futter, also Bilder und Videos, um für die Täuschung zu lernen.

Kennen Sie die Risiken durch Deep Fakes? Machen Sie den Test!

Frage: Bilder lassen sich fälschen, Videos dagegen nicht. Stimmt das?

  1. Nein, inzwischen lassen sich sogar Live-Videos manipulieren.
  2. Ja, das wäre viel zu kompliziert. Videobeweisen kann man vertrauen.

Lösung: Die Antwort 1. ist richtig. Spezielle Verfahren des maschinellen Lernens machen es möglich, dass zum Beispiel über das Gesicht einer Person in einem Video ein anderes Gesicht gelegt wird, das Mimik zeigt und passend zum gehörten Ton spricht. Die Verfahren der Angreifer werden immer besser, sodass sich sogar Video-Identifizierungen, wie sie gegenwärtig genutzt werden, in Zukunft austricksen lassen könnten.

Frage: Als Internetnutzer kann man nichts gegen Deep Fakes unternehmen. Stimmt das?

  1. Ja, da ist man machtlos. Man muss mit diesem Risiko leben.
  2. Nein. Zum einen werden Verfahren zur Aufdeckung der Fälschungen entwickelt, zum anderen kann man versuchen, solche Fälschungen für die eigene Person zu erschweren.

Lösung: Die Antwort 2. ist richtig. In Zukunft wird es Sicherheitslösungen geben, die vor Deep Fakes warnen, genauso wie sie heute vor verseuchten Dateien warnen können. Man selbst sollte aber Datenminimierung ernst nehmen, also Fotos und Videos der eigenen Person nicht unüberlegt ins Internet stellen. Dann hat es die KI der Datendiebe schwerer, die eigene Person zu simulieren.