Freiwillig dürfte Schauspielerin Emma Watson kaum in einem Porno mitspielen. Aber genau solche Bilder kursieren monentan im Internet. Zwar gibts Fälschungen von Bildern und Videos schon lange – jetzt lassen die sich aber ganz einfach per App herstellen.
Der User «deepfakes» der Plattform Reddit hat eine App programmiert, mit der die Gesichter von Promis auf beliebige Gesichter montiert werden können. Klar, dass die Software von den Usern sofort auf Pornos angewandt wurde. So gehören Ariana Grande, Emma Watson oder Gal Gadot (BLICK berichtete) zu den Hollwood-Promis, die unfreiwillig in die Horizontale gehen.
Die Fake-App macht das Fälschen kinderleicht – und ist ein viraler Erfolg: Mehr als 100'000 Mal wurde das Desktop-Tool bereits runtergeladen. Die Technologie hinter dem nach ihrem Erfinder benannten «Deepfakes» nennt sich Face Swapping.
«Die Algorithmen merzen Unterschiede bald aus»
Doch wie funktioniert der Gesichter-Tausch? Die App vergleicht Gesichtszüge der Porno-Darsteller mit Bildern im Internet. Es wird nach einer ähnlichen Gesichtsstruktur gesucht. Und weil es von Prominenten eben besonders viel Bild- und Videomaterial im Netz gibt, sind sie leichte Opfer. Zahlreiche Schauspielerinnen und Stars wurden so schon in Schmuddelkram eingebaut.
Noch sind die Fälschungen bei genauerem Hinschauen als solche erkennbar, aber das dürfte bald vorbei sein. Thomas Koller, Informatikprofessor der Hochschule Luzern: «Früher konnte man gefälschte Videos einfacher erkennen: Stimmt die Beleuchtung? Fällt der Schatten anders? Stimmen die Grössenverhältnisse und die Übergänge? Die Algorithmen merzen diese Unterschiede aber zunehmend aus.»
Kampf gegen die Bilderflut
Jetzt also überschwemmen Porno-Fakes das Internet. Die Sequenzen werden oft über den Dienst Gfycat verbreitet. Dieser erlaubt das Hochladen von pornografischem Material. Trotzdem löschen die Verantwortlichen die Deepfake-Videos, wie das Tech-Magazin «Motherboard» berichtet.
Begründet wird der Schritt mit den Nutzungsbedingungen. Diese erlauben es der Firma aus San Francisco, unerwünschte Inhalte zu entfernen. «Wir entfernen diese Inhalte aktiv», heisst es in einer Stellungnahme.
Die Videotechnik ist anfälliger für Fälschungen
Videofälschungen sind in den vergangenen Jahren extrem gut geworden. Die Technik hat einen Sprung nach vorne gemacht. Ein gefälschtes Video des früheren US-Präsidenten Barack Obama, bei dem ihm Worte in den Mund gelegt wurden, die er nie gesagt hatte, zeigt zum Beispiel, was alles möglich ist. Oder auch Angela Merkel, deren Züge bei einer Rede durch das teigige Gesicht von Donald Trump ersetzt wurden – zu finden auf Youtube und tausendfach aufgerufen.
Dass Unterschiede mit dem blossen Auge kaum noch zu erkennen sind, macht die Identifikation gefälschter Inhalte schwierig. Hat Obama dieses oder jenes nun wirklich gesagt? Wer kann schon das Gegenteil beweisen, wenn es täuschend echtes Filmmaterial davon gibt? «Videos sind von der Glaubwürdigkeit stärker betroffen als ein gefälschter Text oder ein Foto. Wenn gefälschte Videos jetzt immer realistischer aussehen, kann die Echtheit leicht angenommen werden», sagt Bildverarbeitungs-Experte Koller.
Das Desktop-Tool «FakeApp» macht die Videofälschung quasi für den Hausgebrauch möglich. Bei den «Deepfakes» werden modernste Techniken der Bildverarbeitung mit neuronalen Netzen verbunden. Sie ermöglichen es, komplexe Muster zu erkennen – ein Gesicht kann dann leicht ausgetauscht werden.
Jana Koehler, Informatikprofessorin und Expertin für künstliche Intelligenz (KI), verurteilt die «Deepfakes»-Anwendung aufs Schärfste. «Sie verletzt die Würde der Menschen.» Eine Gesellschaft müsse sich die Frage stellen, welche Bildmanipulationen erlaubt sein sollten und wie die Bilder zu kennzeichnen sind, sagt Informatikerin Jana Koehler. Wenn Informationen quasi «perfekt» gefälscht werden könnten, sei es eine gesellschaftliche Aufgabe, die negativen Anwendungen von Technologien zu verhindern.
Deepfake-Pornos sind eine Persönlichkeitsverletzung
Dass nun aber jeder dank aus sozialen Netzwerken gezogenen Selfies und Videos mit der Fake App massenweise gefälschte Pornos seiner Ex-Freundin ins Netz stellt, glaubt Medienrechtler Martin Steiger nicht. «Ich denke, dass der Reiz von Neuem schnell weg ist. Ich könnte mir vorstellen, dass das Tool eher für lustige Videos und Memes verwendet wird als für Rachepornos.» Die gefälschten Deepfake-Videos stellten für den Betroffenen jedoch eine widerrechtliche Persönlichkeitsverletzung dar, denn sie verletzen das Recht am eigenen Bild.
Der Betroffene könnte gegen den Ersteller genauso wie gegen die Plattform, auf der das Video veröffentlicht wurde, klagen. «Theoretisch könnten Sie auch von einem Promi wegen Persönlichkeitsverletzung verklagt werden, wenn Sie einen gefälschten Porno ins Netz stellen. In der Realität wird der Promi das aber kaum machen.»
Das Desktop-Tool «FakeApp» macht die Videofälschung quasi für den Hausgebrauch möglich. Bei den «Deepfakes» werden modernste Techniken der Bildverarbeitung mit neuronalen Netzen verbunden. Sie ermöglichen es, komplexe Muster zu erkennen – ein Gesicht kann dann leicht ausgetauscht werden.
Jana Koehler, Informatikprofessorin und Expertin für künstliche Intelligenz (KI), verurteilt die «Deepfakes»-Anwendung aufs Schärfste. «Sie verletzt die Würde der Menschen.» Eine Gesellschaft müsse sich die Frage stellen, welche Bildmanipulationen erlaubt sein sollten und wie die Bilder zu kennzeichnen sind, sagt Informatikerin Jana Koehler. Wenn Informationen quasi «perfekt» gefälscht werden könnten, sei es eine gesellschaftliche Aufgabe, die negativen Anwendungen von Technologien zu verhindern.
Deepfake-Pornos sind eine Persönlichkeitsverletzung
Dass nun aber jeder dank aus sozialen Netzwerken gezogenen Selfies und Videos mit der Fake App massenweise gefälschte Pornos seiner Ex-Freundin ins Netz stellt, glaubt Medienrechtler Martin Steiger nicht. «Ich denke, dass der Reiz von Neuem schnell weg ist. Ich könnte mir vorstellen, dass das Tool eher für lustige Videos und Memes verwendet wird als für Rachepornos.» Die gefälschten Deepfake-Videos stellten für den Betroffenen jedoch eine widerrechtliche Persönlichkeitsverletzung dar, denn sie verletzen das Recht am eigenen Bild.
Der Betroffene könnte gegen den Ersteller genauso wie gegen die Plattform, auf der das Video veröffentlicht wurde, klagen. «Theoretisch könnten Sie auch von einem Promi wegen Persönlichkeitsverletzung verklagt werden, wenn Sie einen gefälschten Porno ins Netz stellen. In der Realität wird der Promi das aber kaum machen.»