Deepfake-Videos sind auf dem Vormarsch: Bald schon können Sie Ihren Augen nicht mehr trauen. Ein russischer Telegram-Bot trifft nun mit Deepnudes unter die Gürtellinie – im einen Moment noch angezogen, ist man auf einmal nackt. Was nach perverser Spielerei klingt, hat für die Opfer und uns alle schwere Folgen.
Der Inhalt im Überblick
Die Hüllen fallen lassen
Unglaublich: Barack Obama beschimpft Donald Trump als „total and complete dipshit“. Nicht zu fassen, oder? Kein Wunder – das Video ist fake. Genauer gesagt Deepfake, durch künstliche Intelligenz geschaffen. Wie die Cybersicherheitsfirma Sensity AI aufgedeckt hat, geht ein russischer Entwickler nun einen Schritt weiter: Er verbreitet einen Bot auf der Messaging-Plattform Telegram, durch welchen Nutzer mittels KI Nacktbilder erstellen lassen können.
Dabei schickt der User ein Foto seines Opfers an den Bot. Schwupps, innerhalb von Minuten erhält er das Foto zurück – den Kopf ziert nun der Körper einer Pornodarstellerin. Derart zum Teil realistisch aussehende Bilder entstanden auf Telegram bereits mindestens 100.000 Mal bis Juli 2020, die Dunkelziffer dahinter dürfte exorbitant sein.
Um sein Angebot zu bewerben, griff der Betreiber auf das russische soziale Netzwerk VK zurück. Mit Erfolg: Über zwei Drittel der Nutzer des Bots stammen aus Russland oder den angrenzenden Staaten, rund zwei Prozent zusammengenommen aus Frankreich, Deutschland und Italien. Der Bot ist wohl auf eine App namens DeepNude zurückzuführen. Diese App ging kurz nach der Veröffentlichung eines den Deepnude-Skandal aufdeckenden Vice-Artikels offline – der Code jedoch wurde mittels reverse engineering wiederhergestellt. Wer mit Nacktbildern Kohle machen will, dem ist kein Aufwand zu groß.
Deepfakes, Deepnudes und die dunkle Seite der KI
Mit stillen Wassern haben Deepfakes nichts zu tun. Deepfakes sind Bilder und Videos, die mittels künstlicher Intelligenz, guten Grafikkarten und schnellen Rechnern erstellt wurden. Der Begriff ist eine Zusammensetzung von „Deep Learning“ und „Fake“ – die KI lernt, menschliche Gesichter auszuwechseln, Personen Dinge sagen zu lassen, die sie nie geäußert haben. Deepnudes dagegen zielen auf die Intimsphäre ab: Dabei verschafft die künstliche Intelligenz uns nicht nur neue, sondern auch nackte Körper.
Seit Ende 2017 gibt es Deepfake-Technologie. Während man damals noch hunderte oder sogar tausende Bilder einer Person und tagelangen Aufwand benötigte, reichen mittlerweile eine Handvoll Bilder sowie ein paar Stunden aus, um täuschend echtes Material herzustellen. Die Technik entwickelt sich rasant. Bald schon dürfte es kinderleicht sein, Fake-Videos herzustellen. Wem kann man dann noch trauen? Der IT-Forensiker Prof. Dr. Martin Steinebach vom Fraunhofer Institut kommt zu folgender Erkenntnis:
„Das Einzige was man halt wirklich machen kann, ist weggehen von diesem: Von irgendwoher kommt ein Video, das glaube ich jetzt einfach mal.“
Trotz des Risikos, dass die Deepfakes zu Unruhen, Zerwürfnissen und Verschwörungstheorien führen könnten, bleibt er optimistisch:
„Wenn’s so einfach wäre, die Welt ins Chaos zu stürzen oder Länder gegeneinander aufzuwiegeln, dann wäre das wahrscheinlich schon passiert.“
Nun, vielleicht ist es das bereits – wer weiß?
Splitterfasernackte Fakten
Künstliche Intelligenz klingt nach einer Mischung aus Alexa, Terminator und Chucky, die Mörderpuppe. Auf den ersten Blick verspricht KI Hightech, Zukunft sowie Komfort. Gräbt man tiefer, offenbaren sich datenschutzrechtliche Risiken, Abgründe und Missbrauchsmöglichkeiten.
Der Datenschutz zieht blank
Auch wenn es sich nicht um Ihren Körper handelt, der mit Ihrem Kopf auf Fotos verbunden wird, sind Sie datenschutzrechtlich Betroffener. Der nackte Leib ist äußerst sensibel – jeder unerwünschte Blick darauf ist ein Übergriff. Prof. Danielle Citron der University of Maryland Carey School of Law nennt dies “invasion of sexual privacy” und schildert folgende Gedanken eines Opfers:
„As a deepfake victim said to me – it felt like thousands saw her naked, she felt her body wasn’t her own anymore.”
Viele Opfer wissen überhaupt nicht, welche tickenden Zeitbomben da durch das Netz geistern. Das Opfer wird manchmal ohne Einwilligung – in völlig unverfänglichem Kontext – fotografiert. Häufig greifen die Täter auf frei verfügbare Fotos zurück. Die Betroffenen ahnen nichts. Einmal hochgeladen in den Bot, setzt sich die Welle in Gang: Die Telegramnutzer verbreiten das gefälschte Nacktfoto, es gibt kein Halten mehr. Selbst vor Minderjährigen schrecken die Täter nicht zurück. In 63 Prozent der Fälle trifft es Frauen aus dem Bekanntenkreis. Wer solche Freunde hat, braucht keine Feinde mehr.
Entblößt und bloßgestellt
Unerforschte Technologien in den falschen Händen führen stets zu Chaos und Verderben – siehe Skynet. Bei Veröffentlichung der Deepnudes landen die Opfer am Pranger. Dies hat schwere Folgen für ihre psychische Stabilität, ihr Sozialleben und ihre berufliche Existenz.
Kurzes Experiment: Stellen Sie sich vor, ein gefälschtes Nacktbild von Ihnen erschiene unter ihrem Namen im Internet. Wer Sie googlet, findet das Foto innerhalb von Sekunden. Wie fühlen Sie sich dabei? Wer in Ihrem Umfeld könnte einen Blick darauf werfen?
- Ihr Ehepartner wäre sicherlich nicht besonders begeistert davon.
- Ihr Chef würde Sie möglicherweise schnell loswerden wollen.
- Ihre politische Karriere, Ihre Reputation, dahin.
Einmal im Netz, immer im Netz.
Auch wenn fast alle Deepnudes-Betroffenen Frauen oder Mädchen sind, die sowieso schon erschreckend häufig unter digitaler Gewalt leiden, könnte zukünftig jeder zum Opfer werden. Zumindest jeder, der Fotos und Videos von sich online gestellt hat oder sich fotografieren lässt. Kein Grund für Datenschützer, sich als datenschutzbewusste Menschen auf die Schulter zu klopfen: Das Recht auf informationelle Selbstbestimmung bedeutet auch, Bilder und Videomaterial von sich hochladen zu dürfen, wenn man möchte. Wenn wir befürchten müssen, selbst bald nackt im Internet zu stehen, nehmen wir unser Recht, unsere Freiheit, tun und lassen zu dürfen, was wir wollen, nicht mehr wahr – stattdessen ziehen wir uns zurück. Aus sozialen Netzwerken, aus dem Leben, aus den Augen, aus dem Sinn.
Wer nicht pariert, steht mit heruntergelassener Hose da
Künstlich geschaffene Pornobildchen sind nichts Neues – Revenge Porn gibt es schon lange. Dabei werden echte Sex-Videos ohne Einwilligung der anderen Partei ins Netz gestellt. Für alle, die die Finger nicht von sich lassen können, bieten einschlägige Seiten auch Deepfake-Videos – jeden Monat werden bis zu eintausend davon hochgeladen. Laut dem niederländischen Unternehmen Deeptrace handelt es sich bei 96 Prozent der rund 15.000 geprüften Deepfake-Videos um Pornografie. Darauf zu sehen: Hollywood-Schauspielerinnen wie Emma Watson, Popsängerinnen wie Taylor Swift und Lena Meyer-Landrut. Betroffen sind nicht nur Promis, auch Influencer rücken in den Fokus. Da von diesen unzählige Fotos und Videos online vorhanden sind, liegt ein vollumfänglicher Datenschatz vor, der sich für Deepnudes nutzen lässt.
Die künstlich generierten Bilder oder entsprechend kreiertes Videomaterial bieten explosives Erpressungspotential. Wer von der Masse abweicht, genauer nachfragt oder den Finger in die Wunde legt, wird künftig mit Deepfakes und Deepnudes zum Schweigen gebracht. Wer nicht pariert, könnte sich plötzlich auf einem Nazidemo-Video wiederfinden – oder schneller im Knast, als ihm lieb ist. Gut gemachte Deepfakes können jeden Verdacht untermauern, Wahlen beeinflussen, Politiker diskreditieren. Der Erpresser als technikaffiner Erlkönig: Und bist du nicht willig, so brauch‘ ich (künstliche) Gewalt!
Unverhüllter Blick in die Zukunft
Deepfake-Videos sind das Fake-News-Sahnehäubchen: Noch sind sie selten anzutreffen, aber bald schon lecken sich Geheimdienste, Verrückte und Despoten die Finger danach. Durch künstliche Intelligenz geschaffene Nacktbilder mögen da noch kindisch und albern erscheinen – doch fängt nicht jede potentiell gefährliche Technologie erst einmal klein an?
Liebe Frau Pettinger,
vielen Dank für diesen – wie immer bei Ihnen – sehr kurzweiligen und gut formulierten Artikel, dem man nur aus ganzem Herzen zustimmen kann.
Was mir aber ein bisschen fehlt, zumal auf der Dr-Datenschutz-Seite, ist die datenschutzrechtliche Einordnung. Klar ist, dass diese Methoden alle möglichen (Straf-)Tatbestände berühren bis hin zu Beleidigung und Erpressung.
Aber können Sie das auch datenschutzrechtlich einordnen? Wie ist das denn, wenn der verwendete „Kopf“ einem „Promi“ gehört und ausschließlich zur Veröffentlichung und Verbreitung bestimmten Fotos besteht? Welchen Schutz genießt dann die Betroffene datenschutzrechtlich (mal auf die EU bezogen und ohne Rücksicht auf ggf. anderes Datenschutzrecht in anderen Ländern)? Und welchen die „Besitzerin des Körpers“?
Oder spielen sich die Rechtsverletzungen tatsächlich im Wesentlichen in anderen Bereichen als dem Datenschutzrecht ab?
Wäre nett, wenn Sie das auch juristisch noch etwas ausleuchten könnten.
Vielen Dank für Ihr Lob. Ich verstehe sehr gut, dass Sie auch eine datenschutzrechtliche Einordnung wünschen. Diese ist im Blogartikel nicht weiter ausgeführt wurden, um den Text nicht zu überladen und Raum für eigene Gedanken der Leser zu lassen.
Gerne beantworte ich Ihre Fragen bzw. Anregungen:
Fotos von Personen, ob Promi oder nicht, dürfen nicht ohne weiteres verwendet werden. Der Schutz dürfte sich aus dem Allgemeinen Persönlichkeitsrecht ergeben. Dabei hat sowohl die Person hinter dem Kopf, als auch die Person hinter dem Körper ein Interesse daran, nicht zweckentfremdet zu werden. Auch wenn die Person hinter dem Körper bereits im Rahmen diverser Bilder und Filme nackt aufgetreten ist, hat diese ein Recht darauf, nicht mit anderen Personen vermischt zu werden, da dies auch zu Lasten der nackten Person geht. Ihr Körper wird durch Deepnudes und Deepfakes ja auch dem Spott anderer Menschen ausgesetzt. Für die Person, die den Kopf liefert, ist der Spott und Hohn ebenfalls, wenn nicht weitgehender, beeinträchtigend.
Datenschutzrechtlich gesehen könnte man hier an das Fehlen einer Rechtsgrundlage anknüpfen (keine Einwilligung beider Betroffenen, keine sonstige Rechtsgrundlage einschlägig). Denkbar wäre damit Schadensersatz im Sinne des Art. 82 Abs. 1 DSGVO. In vielen Fällen dürfte jedoch schon die Haushaltsausnahme des Art. 2 Abs. 2 lit. c DSGVO greifen, sodass die DSGVO gar nicht anwendbar ist.
Wenn Freunde diese Fotos nur für sich erstellen oder für den kleinen Freundeskreis oder in privaten Messengergruppen, dann könnte dabei die Grenze zum nicht mehr persönlichen Bereich ggf. noch nicht überschritten sein. Bei gewerblichen Deepfakes und bei durch Organisationen etc. kreierten Deepfakes sieht das natürlich anders aus.
Die Rechtsverletzungen dürften vermutlich eher im Allgemeinen Persönlichkeitsrecht und Strafrecht (ggf. Beleidigungsdelikte, § 201a Abs. 1 Nr. 2 StGB) anzusiedeln sein, auch im KUG bzgl. dem Recht am eigenen Bild. Schadensersatz ist dann über §§ 823 Abs. 1 bzw. Abs. 2 i.V.m. § 253 BGB analog zu suchen.