Die Internet- und Medienwelt hat sich rasant verändert. Aufgrund der immer umfassenderen Digitalisierung ist sie erheblich schneller und umfangreicher geworden, Redakteure und Nutzer müssen nicht nur deutlich mehr Informationen und Meldungen sichten, prüfen und hinterfragen, sondern werden dabei auch vor enorme Herausforderungen gestellt. Denn aufgrund der immer leistungsfähigeren Prozessoren und Grafikkarten und den damit verbundenen technologischen Entwicklungen wie Deep Learning sind Fälschungen und Manipulationen heutzutage teils nur noch sehr schwer als solche erkennbar. Eine neue Dimension stellen dabei die sogenannten Deepfakes dar.
Was sind Deepfakes?
Deepfakes sind Videos, die mit Hilfe von einer Künstlichen Intelligenz auf höchstem Niveau manipuliert wurden und - wenn sie gut gemacht sind - äußerst schwer von echten Inhalten zu unterscheiden sind. Die bislang häufigste Art von Manipulation ist der Tausch von Gesichtern, der sogenannte faceswap. Dabei werden die Gesichter von prominenten Schauspielerinnen wie Gal Gadot, Daisy Ridley, Emma Watson oder Taylor Swift in Pornofilmen eingebaut, oder aber Barack Obama beschimpft Donald Trump absolut realitätsgetreu und glaubwürdig als Vollidioten. Stimmmanipulationen sind ebenfalls möglich, die Resultate heißen Deepfake Audio, der Prozess Real Time Voice Cloning. Ein drittes Manipulationsgebiet sind die body-puppetry-Imitationen, bei denen Körperbewegungen analysiert, imitiert und transferiert werden. Eine nicht gerade begabte Hobby-Tänzerin wird so beispielsweise zur Profitänzerin. Vereinfacht gesagt sind Deepfakes also die Photoshop-Manipulationen der heutigen Zeit auf audio-visueller Basis. Dafür nötig ist der Prozess des Deep Learnings, einer Methode des maschinellen Lernens, mit dem Unterschied, dass hier künstliche neuronale Netze zum Einsatz kommen, die Daten analysieren, damit trainieren und selbstständig das gewünschte Resultat produzieren.
Seit wann gibt es Deepfakes
Erste größere Bekanntheit verschaffte der Thematik die international beliebte Social-Aggregator-Plattform Reddit. In dem Subreddit Deepfakes, eröffnet von einem Nutzer mit dem identischen Anwendernamen, wurden Pornovideos veröffentlicht, die Prominente wie Wonder-Woman-Darstellerin Gal Galdot, Emma Watson, Scarlett Johansson und andere berühmte Schauspielerinnen und Sängerinnen zeigten. Der Open-Source-Code des Nutzers deepfakes, der für die ersten manipulierten Videos verantwortlich war, wurde daraufhin von anderen Reddit-Nutzern aufgegriffen und somit der Prozess überarbeitet und letzten Endes verbessert. Das Subreddit überlebte allerdings nicht lange, am 7. Februar 2018 wurde es von den Betreibern gesperrt, da es gegen die Regeln der Plattform verstieß. Laut einem Analysten des Sicherheitsunternehmens Deeptrace handelt es sich bei 96 Prozent aller Deepfakes-Inhalte nach wie vor um pornografisches Material. Doch kommt diese Art der Technik mittlerweile in allerlei anderen Bereichen zum Einsatz, etwa der Mode, der Werbebranche, in Kultureinrichtungen wie Museen und natürlich Filmproduktionen wie „Star Wars“.
Welche Programme bieten Deepfake Funktionen?
Zwei der bekanntesten Deepfake-Programme sind die Desktop-Applikationen FakeApp und DeepFaceLab. Beide Programme sind Opensource, jeder kann sie sich über Github herunterladen und damit Deepfakes erschaffen. Einzige Voraussetzung ist eine leistungsstarke Nvidia-Grafikkarte. Auch im Smartphone-Bereich könnten Deepfakes schon bald eine gewichtige Rolle spielen. Snapchat testete bereits das Feature Snapchat Cameo, bei dem Nutzer ihr Gesicht in Gifs oder kurze Videos einfügen können. Eine Analyse-Firma hat im Source-Code von Douyin, dem chinesischen Pendant der beliebten App TikTok, eine Deepfake-Funktion gefunden. Damit können Anwender ihre Gesichter in beispielsweise Musikvideos einsetzen. Die für TikTok verantwortliche Firma ByteDance verfügt über eine ausgeklügelte Künstliche Intelligenz, weshalb es nicht weiter verwunderlich wäre, würde die chinesische Firma diese mittlerweile beliebte, wenn auch kritisch beäugte Funktion in ihre vor allem bei Kindern und Jugendlichen angesagte App einbauen. Allerdings würde diese Funktion nach Aussagen von ByteDance ausschließlich erwachsenen Anwendern zur Verfügung stehen, und für TikTok sei dieses Feature nicht angedacht. Ebenfalls aus China stammt die App Zao, die mit wenigen Handgriffen das eigene Gesicht in bekannten Filmen einsetzt. Die dafür nötigen Materialien hat das Unternehmen seine Künstliche Intelligenz sich antrainieren lassen, was erklärt, dass nur eine gewisse Anzahl an Filmmaterialsequenzen zur Verfügung stehen. Zao stand allerdings aufgrund seiner Datenschutzbestimmungen in der Kritik.
Wie entsteht ein Deepfake
Hinter jedem Deepfake steckt eine künstliche Intelligenz, der ein Quellmaterial zur Verfügung gestellt wird. Vereinfacht gesagt wird dem Zielvideo dabei der Inhalt, der ursprünglich nicht im Originalmaterial vorhanden war, wie eine Maske übergestülpt. Das Material besteht entweder aus Fotos, Filmsequenzen und/oder Sprachaufzeichnungen. Für eine halbwegs passable Umsetzung, beispielsweise bei einem Gesichtstausch, müssen mindestens 300 Bilder pro Motiv vorhanden sein. Je mehr, desto akkurater das Ergebnis. Die Künstliche Intelligenz analysiert das Material anhand diverser biometrischer Parameter. Im Code des neuronalen Netzwerks steckt ein sogenannter Auto-Encoder, der trainiert werden möchte. Das Ziel des Trainings – ein Begriff des Maschinellen Lernens – des neuronalen Netzes ist, möglichst viele Merkmale zu finden. Diese Daten werden dann komprimiert. Im Anschluss werden diese Daten von einem Decoder dekomprimiert. Bei der Dekomprimierung ist das Ziel der KI, dass das Ergebnis so nah wie möglich am Original ist. Je akkurater der Ausleseprozess war beziehungsweise je mehr Inhalte die Künstliche Intelligenz als Trainingsmaterial zur Verfügung gestellt bekommen hat, umso realistischer ist das Endprodukt der Manipulation. Sehr erfolgreiche Deepfakes erzeugt dabei die GANS-Methode (generative adversarial networks). Zwei Künstliche Intelligenzen stehen dabei quasi im Wettkampf miteinander. Eine Künstliche Intelligenz erzeugt dabei den Deepfake, die zweite überprüft das Resultat der ersten auf Plausibilität. Dabei lernt die eine künstliche Intelligenz von der anderen. Je mehr Durchgänge dabei generiert werden, umso realistischer ist dabei das Ergebnis. Die KI arbeitet bei jeder Deepfake-Produktion autark, es bedarf keiner Nachjustierung durch den Menschen. Sollten allerdings Informationen fehlen, kommt die Künstliche Intelligenz an ihre Grenzen, da diese Daten nicht einfach aus dem Nichts erzeugt werden können.
Wie erkennt man einen Deepfake?
Es gibt keinen pauschalen Weg, Deepfake-Videos mit bloßem Auge zu erkennen. Wenn die Videos nicht genügend Material zur Verfügung gehabt haben, sind manche Animationen nicht lippensynchron, Bildbereiche unscharf oder aber Bewegungen abgehakt. Dies ist die einfachste und dankbarste Erkennungsmöglichkeit der manipulierten Inhalte. Nach Meinung von Experten besteht jedoch die Möglichkeit, dass es nur eine Frage der Zeit sei, bis weder IT-Forensiker noch Algorithmen gut gemachte Deepfakes als solche enttarnen könnten. Bis dahin untersuchen Experten das Material auf kleinste Ungereimtheiten: Treten Artefakte im Bild auf? Stimmen Licht und Schatten? Sind die Winkel und Unschärfen der Gesichtszüge korrekt? Passen Kleidung und Haare? Ist der Hautton natürlich? Blinzeln die dargestellten Personen wie ein echter Mensch? Auch die Analyse der Tonspur ist eine Möglichkeit für IT-Forensiker, ein Deepfake-Video als solches zu enttarnen, sollten beispielsweise die im Tonsignal versteckten Zeitstempel nicht konsistent sein. Hoffnung setzen Experten in Künstliche Intelligenz, die auf das Erkennen von Deepfakes trainiert werden soll. Ein bestehendes Beispiel dafür ist die Software Face Forensics der TU München, die nur einen falsch platzierten Pixel benötigt, um ein Deepfake-Video als solches zu enttarnen. Die Erkennungsrate der Software liegt bislang bei 78 Prozent.
Generell halten Wissenschaftler das Einsetzen von digitalen Wasserzeichen in Filmmaterial zur Verifikation von Filmmaterial für eine Möglichkeit, um die Echtheit von Videoinhalten gewährleisten zu können. Auch die Blockchain-Technologie wird als mögliche Sicherheitsmaßnahme genannt.
Was sind die Gefahren von Deepfakes?
Wie immer bei Manipulationen können auch Deepfakes auf beunruhigende und schädigende Weise eingesetzt werden. Die Bandbreite reicht von Betrug, beispielsweise in Form von Social Engineering, über Propagandavideos hin zu gezielter Wahlkampfbeeinflussung und somit Gefährdung der Demokratie. In Gabun kam es zu einem Militärputsch, nachdem die Neujahrsansprache von Präsident Ali Bongo als Deepfake bezeichnet wurde. Bekannt geworden sind auch Fälle, bei denen hohe Überweisungen ins Ausland per Stimme des angeblichen Vorgesetzten freigegeben wurden, besagter Vorgesetzter jedoch nie sein Einverständnis gegeben hatte. Stattdessen kam eine Stimmaufzeichnung zum Einsatz, was jedoch nicht erkannt wurde. Auch im privaten Bereich können Deepfakes allerlei Schaden anrichten, es kann Mobbing damit betrieben und Menschen bloßgestellt werden.
Generell ist die Gefahr der Desinformation immens, weshalb Politiker der Deepfakes-Thematik mit akutem Unbehagen begegnen. In den USA beschäftigt sich die Forschungseinheit des US-Verteidigungsministeriums, die Defense Advanced Research Projects Agency (Darpa) mit der Entwicklung von Methoden zur Enttarnung von Deepfakes. Das soziale Netzwerk Facebook hat offiziell das Posten von Deepfakes verboten und zusammen mit Microsoft und Amazon einen Wettbewerb ins Leben gerufen, der für die Entwicklung von Deepfake-Entdeckungsroutinen und deren allgemeine Prävention zehn Millionen US-Dollar ausbezahlen möchte. Und Twitter markiert mittlerweile erkannte (Deep)Fake-Videos im Newsfeed offiziell als Fake, oder löscht sie, sollten die Videos die öffentliche Sicherheit beeinträchtigen oder ernsthaften Schaden verursachen. In Australien steht das Veröffentlichen von Deepfakes mittlerweile unter Strafe, wenn sie als Mobbing- und Shamingtool verwendet werden. Verstöße dagegen können mit mehrjähriger Haft bestraft werden.
Anwender von Apps wie Snapchat oder Zao sollten jedoch ebenfalls nicht allzu leichtfertig sein. Im privaten Bereich besteht grundsätzlich die Gefahr, bei der Anwendung solcher Apps die eigenen biometrischen Daten einem Anbieter zukommen zu lassen. Selbst wenn es vermeintlich lustig sein mag, sein Gesicht in bekannte Filmwerke oder Musikclips zu integrieren, darf nicht vergessen werden, dass das eigene Gesicht einzigartig ist und dementsprechend – wie immer bei sensiblen Daten – bedacht damit umgegangen werden sollte. Es ist nicht bekannt, was mit den Fotos auf den Servern von internationalen Anbietern geschieht, ob die Daten an Dritte herausgegeben oder verkauft werden. Deshalb sollte stets bedacht werden, welche Daten man Apps anvertraut. Denn sowohl mit dem Aussehen als auch mit der Stimme können bereits einige Manipulationen durchgeführt werden, die möglicherweise schwerwiegende Folgen haben.
Fazit
Obwohl Deepfakes bislang großteils in pornografischem Rahmen oder als Spaß zum Einsatz kommen, geht von der Methode eine gewisse Gefahr aus. So können durchaus fragile gesellschaftliche Situationen durch den gezielten Einsatz manipulierter Videos herbeigeführt oder angefeuert werden, oder aber einzelne Individuen durch das Verbreiten von Deepfakes erheblich geschädigt werden. Und auch der private Einsatz in beliebten Smartphone-Apps birgt durchaus die Gefahr des Missbrauchs. Wie immer sollte vor der Anwendung überlegt werden, wer der Anbieter ist, welche Daten er durch das Nutzen erhält und vor allem was alles mit diesen Daten angestellt werden kann.
Welche Sicherheitslösungen bieten effizienten Schutz im Internet?
Weitere Artikel zum Thema Erpressung im Internet
Cyberbedrohungen und Gefahren im Deep/Dark Web?