Zum Inhalt springen Zur Navigation springen
Deepfakes und Instagram-Filter: Akzeptanz von KI-Technologien

Deepfakes und Instagram-Filter: Akzeptanz von KI-Technologien

Wo liegt unsere Grenze bei der Akzeptanz von KI-Technologien? Deepfakes sind tabu, die Filter von Instagram juhu? In diesem Beitrag machen wir einen Spagat zwischen den Bedrohungsszenarien von Deepfakes und den Potenzialen der KI-Technologien. Vielleicht erobert Künstliche Intelligenz die Menschheit oder vielleicht bekommt die Menschheit sie auch in den Griff.

Deep? Fake? Deepfake??

Was kann man sich unter dem Begriff „Deepfake“ vorstellen? Alles, was die Augen und Ohren nicht glauben können. In anderen Worten: Deepfakes sind realistisch wirkende Medieninhalte, insbesondere Fotos, Videos und Audios, die mit künstlicher Intelligenz absichtlich hergestellt bzw. manipuliert werden.

Die Bezeichnung setzt sich aus den zwei englischsprachigen Begriffen „deep learning“ und „fake“ zusammen. Das Deep Learning gilt als Teilbereich des maschinellen Lernens. Die Besonderheit hierbei ist, dass neuronale Netze genutzt werden und die Funktionsweise vom Lernen im menschlichen Gehirn inspiriert ist. Die KI wird mit Datenmengen gefüttert, sodass sie daraus lernt. Anhand der Verknüpfung des Gelernten mit weiteren Inhalten kann sie wieder etwas Neues lernen.

In einem unserer vorherigen Beiträge haben wir eine rechtliche Einordnung von Deepfakes vorgenommen und uns mit der Frage auseinandergesetzt, ob Betroffene von Deepfakes durch das Kunsturhebergesetz (KUG) und durch die Datenschutz-Grundverordnung (DSGVO) genügend geschützt sind.

In welchen Formen können uns Deepfakes begegnen?

Deepfakes können uns in diversen Formen begegnen, die typischen sind Medienformen wie Fotos, Videos und Audios, aber auch Texte zählen hierzu. Folgende Verfahren können hierbei zum Einsatz kommen:

Fälschung von Gesichtern

Die Fälschung von Gesichtern auf Fotos und in Videos wird in drei Methoden unterteilt:

  • Face Swapping: Tauschen von Gesichtern
  • Face Reenactment: Kontrolle von Mimik und Kopfbewegungen einer Person
  • Synthetisierung von Gesichtsbildern: Erzeugung von neuen Personen, die in der Realität nicht existieren

Fälschung von Stimmen

Bei der Fälschung von Stimmen werden folgende Verfahren eingesetzt:

  • Text-to-Speech (TTS): Person A gibt einen Text vor. Das TTS-System wandelt es in ein Audio um. Die Stimme im Audio klingt so, wie die von Person B.
  • Voice Conversion (VC): Person A spricht und gibt dem VC-System ein Audio vor. Das VC-System konvertiert das Audio, sodass die Stimme so klingt, wie die von Person B.

Fälschung von Texten

Bei der Fälschung von Texten handelt es sich um Verfahren, wo die KI selbst Texte generiert.

Der Trendsetter im letzten Jahr war ChatGPT und hat die Aufsichtsbehörden mit ihren datenschutzrechtlichen Risiken beschäftigt. Man sagt der KI, was man generiert haben möchte, und schon kommt das Ergebnis. Die Anwendung ist vielseitig, sodass dieses Verfahren immer dann eingesetzt werden kann, wo ein Text notwendig ist: Liebesbrief, Gedichtsinterpretation, Chatnachricht – die Aufzählung ist unendlich.

Aktuelle Deepfakes und mögliche Bedrohungsszenarien

Als gäbe es eine heimliche Challenge, die mit der Frage „How deep is your fake?“ auffordert Deepfakes zu erstellen, begegnen wir von Tag zu Tag neuen manipulierten Inhalten.

Die Politik befindet auf dünnem Eis

Denn Politiker:innen sind beliebte Zielpersonen von Deepfakes.

  • Vor Kurzem kursierte ein Deepfake-Video der damaligen Bundeskanzlerin Angela Merkel auf TikTok. Das Video wurde so manipuliert, dass es so aussah und klang, als würde sie in der Jugendsprache auf die gestiegenen Dönerpreise in Deutschland eingehen. Bei so einem Humor war der Deepfake-Charakter des Videos unübersehbar.
  • Etwas anders wirkte der Fall des aktuellen Bundeskanzlers Olaf Scholz. In einem Deepfake-Video wendete er sich an die Nation und verkündete, die AfD verbieten zu wollen. Auch wenn das Video auf dem ersten Blick echt wirkte, war nach genauem Hinsehen ersichtlich, dass sich dahinter die KI verbirgt.

Im politischen Kontext ist die Gefahrenlage von Deepfakes groß. Es kann die politische Meinungsbildung mit unwahren Inhalten manipulieren und auch Wahlkampagnen beeinflussen.

Eilmeldung: Die heutigen Nachrichten sind fake

Dieselbe Gefahrenlage besteht auch bei Nachrichten in Form von Desinformationen, sodass Fake-News entstehen. In diesem Kontext können aber auch Personen aus der Fernsehmoderation als Zielgruppe für Betrugvideos eingesetzt werden.

Stars in der Dunkelheit

Im Visier von Deepfakes sind auch Prominente. Der kürzliche Deepfake-Fall auf X (ehem. Twitter) führte dazu, dass die Suche auf der Plattform nach der Popsängerin Taylor Swift eingeschränkt wurde. Von der Sängerin wurden pornografische Deepfake-Bilder erstellt.

Es ist schon Jahre her, dass wir konkret über diese Gefahr in einem unserer Beiträge berichtet haben. Da kommt die Künstliche Intelligenz – und plötzlich bist du nackt.

Deepfakes als Alltagsbegleiter

Personen des öffentlichen Lebens können eine beliebte Zielscheibe sein, doch dieselben Gefahren durch den Missbrauch von KI können auch innerhalb der Gesellschaft auftreten.

  • Die Deutsche Telekom hat mit der #ShareWithCare Kampagne für einen verantwortungsvollen Umgang mit Fotos und Daten von Kindern sensibilisiert. Mit einem Deepfake-Spot wurde auf die Folgen vom sog. „Sharenting“ aufmerksam gemacht, wo Eltern Fotos, Videos und Details aus dem Leben ihrer Kinder online veröffentlichen.
  • Das sog. „Catfishing“ im Online-Dating kann glimpflich verlaufen, wenn die Person nur das Aussehen mit Instagram-Filtern getäuscht hat und auf einem Treffen das wahre Gesicht entpuppt wird. Ein schrecklicheres Szenario wäre, wenn es nie zum einem Treffen kommt, aber Catfisher ihre Opfer dazu bringen Zahlungen für sie zu tätigen. Von manuellen Photoshops bis hin zu automatischen Filtern, die das äußere Erscheinungsbild ändern können. Eine Gegenmaßnahme von Instagram in der Story-Funktion ist, dass verwendete Filter angezeigt werden. Auf Profilbildern oder geposteten Beiträgen ist dies wiederum nicht der Fall.
  • Eine weitere Gefahr lauert in diversen Betrugsfällen. Beispielsweise können die „Enkeltricks“ mit Hilfe von KI auf ein next Level übertragen werden. Die üblichen Maschen sind bekannt, die Bevölkerung ist sensibilisiert. Doch anhand der KI können diese Betrugsmaschen realistischer gestaltet werden, sodass die Reinfallwahrscheinlichkeit höher ist als die bisherigen Varianten.
  • Wenn Gesichter zum Objekt von Deepfakes werden, dann ist hier an die Biometrie zu denken. Die Verifizierung der Identität über eine App ist praktisch und einfach. Das kommt insbesondere bei der Neuanlegung eines Bankkontos, Nutzung von Krankenkassen-Apps oder auch bei der Carsharing-Anmeldung vor. Insofern gelten biometrische Systeme auch als gefährdet, da es anhand der Deepfake-Verfahren auch möglich ist die manipulierten Inhalte in Echtzeit laufen zu lassen.
  • Apropos Verifizierung von Personen: Kriminelle vertreiben unter dem Namen „Onlyfakes“ eine KI-basierte Lösung zur Erstellung gefälschter US-Führerscheine. Die Einsatzgebiete waren in diesen Fällen das Onlinebanking und der Kryptohandel.

KI als CEO

Im unternehmerischen Kontext werden die Deepfake-Verfahren ebenfalls vermehrt eingesetzt.

  • Ein klassisches Beispiel ist das Social Engineering, um gezielte Phishing-Angriffe durchzuführen und somit an Informationen sowie Daten heranzukommen. Darüber hinaus können die Verfahren für Betrugsfälle oder zur Abschöpfung finanzieller Mittel genutzt werden.
  • Diese Gefahren sind nicht nur hypothetische Szenarien, sondern entsprechen den Tatsachen. Erst vor Kurzem berichtete die Presse über einen Fall in Hongkong, wo ein Angestellter 23 Millionen Euro an einen Betrüger überwies. Diesmal war es keine Phishing-Mail, sondern eine Deepfake-Videokonferenz. Bei einem sog. „CEO-Fraud“ geben sich Kriminelle als Führungskräfte aus. In der Regel sind es vertrauliche und dringend benötigte Transaktionen, die Mitarbeitende tätigen sollen. Mit Hilfe des Einsatz von KI erhöht sich die Glaubwürdigkeit von Betrugsmaschen, insbesondere wenn es sich um eine Videokonferenz handelt…

Wie sind Deepfakes erkennbar?

Je besser die Technologie, desto schwieriger wird die Erkennbarkeit.  Es gibt jedoch Indizien, die Deepfakes auffliegen lassen, hierbei ist ein Blick auf die Person und auf das Video- bzw. Bildmaterial zu werfen. Bei Vorliegen der folgenden Merkmale handelte es sich höchstwahrscheinlich um ein Deepfake:

  • Falsche Perfektion
  • Unnatürliches Gesicht, insbesondere die Mimik sowie die Schattenwürfe im Gesicht
  • Lippenbewegung und die Darstellung der Zähne
  • Fehlendes Blinzeln und leerer Blick
  • Unnatürliche Bewegungen
  • Monotone oder metallische Stimme
  • Unscharfe Übergänge im Video
  • Zu scharfes und stark bearbeitetes Bild
  • Unterschiedliche Qualität an verschiedenen Stellen im Video
  • Unlogischer Hintergrund oder kontextlose Elemente im Video

Natürlich darf der Einsatz der eigenen menschlichen Intelligenz nicht fehlen. Dubiose Inhalte sind zu hinterfragen und im Zweifel eignet sich eine Recherche, eine Faktencheck-Plattform oder der Austausch mit Personen aus dem Umfeld.

Zudem kann es hilfreich sein, sich mit legal produzierten KI-Inhalten auseinanderzusetzen, um ein Gefühl für KI-Inhalte zu bekommen. Wenn diese Mittel nicht weiterhelfen, können auch diverse Tools eingesetzt werden, um Deepfakes zu identifizieren.

Die andere Seite der Medaille: Potenziale der KI-Technologien

KI-Technologien werden in der Regel mit den oben genannten Negativbeispielen und den zusammenhängenden Gefahren assoziiert. Wie wäre es mit einem Perspektivwechsel? Denn diese Technologien können auch Potenziale mit sich bringen. Einige der folgenden Beispiele kommen bereits im Alltag vor:

Soziale Netzwerke

Die sozialen Netzwerke sind bekannt für das Verbreiten der oben genannten Deepfake-Inhalte. Dieselbe Technologie dahinter wird jedoch tagtäglich von Usern in Form von „Gesichtsfiltern“ verwendet. Wer kann sich an den trendigen Hundefilter von Snapchat aus 2016 erinnern? Harmlos und sympathisch. Heute kein Make-Up aufgetragen? Kein Problem, verwende den Beauty-Filter von Instagram.

Ob man Influencing oder Content-Creation als Beruf anerkennen möchte oder nicht, ist erstmal dahingestellt. Es ist jedoch unstrittig, dass soziale Netzwerke von Content-Creation leben. Die Kreativität der Menschheit ist unendlich, doch die KI-Technologien werden definitiv dazu beitragen endlos für die virtuelle Welt zu produzieren.

Film- und Musikindustrie

Weitere Vorteile sind für die Entertainment-Branche ersichtlich. Die Film- und Musikindustrie profitiert bereits vom KI-Einsatz und es bleibt gespannt abzuwarten, wie sich die Anwendungsmöglichkeiten zukünftig weiterentwickeln werden.

In der Filmindustrie kann die KI in folgenden Bereichen zum Einsatz kommen:

  • In Actionszenen kann das Gesicht einer Stuntfrau durch das einer Schauspielern ersetzt werden.
  • In Flashbacks kann das Gesicht eines Schauspielers jünger aussehen.
  • Verstorbene Stars können zurück auf die Leinwand.

Für die Musikindustrie kann der Einsatz von KI entweder ein Fluch oder auch ein Segen sein. Es ist möglich Songs von der Melodie bis hin zum Text sowie der Stimme von der KI produzieren zu lassen. Selbst Autotune hat sich trotz der Kritik in der Branche implementiert. Vor allem sind Genres wie Pop, Hip-Hop/ Rap und RnB ohne Autotune kaum vorstellbar – und viele dieser Songs haben einen Platz in den Trends.

Fashion- und Beauty-Industrie

Das Kauferlebnis kann auf ein anderes Niveau übertragen werden, wenn Kund:innen die Produkte im Onlineshops ausprobieren. Aktuell betrifft das insbesondere die Fashion- und Beauty-Industrie. In virtuellen Umkleidekabinen wird es Kund:innen möglich sein die Kleidungsstücke vor dem Kauf digital anzuprobieren. Dasselbe Prinzip findet auch Anwendung bei Makeup-Artikeln, wie Lippenstifte oder neuen Haarfarben.

Neben Kleidungsstücken und Lippenstiften können auch neue Möbel im Wohnzimmer platziert werden. Diese Möglichkeit kann als Maßnahme gegen Unmengen an Retouren und der dadurch entstehenden Umweltbelastung angesehen werden.

Übersetzungen mit KI

Eine zusätzliche Erleichterung wird der Einsatz von KI im internationalen Kontext sein. Der klassische Anwendungsbereich sind hierbei Übersetzer-Tools, wie DeepL. Die Übersetzungen können zudem auch auf eine andere Dimension übertragen werden.

In jeglichem Kontext können Übersetzungen mit KI von Vorteil sein, da wir uns in einem Zeitalter befinden, wo über Grenzen hinaus ein Zugang an Informationen gegeben ist, sodass insbesondere für Nachrichten und politische Entwicklungen Übersetzungen in die eigene Landessprache vereinfacht werden.

KI in der Gesundheitsbranche

Der Einsatz von KI in der Gesundheitsbranche ist umstritten und birgt in der Tat auch viele Gefahren. Wenn die Gefahren jedoch beseitig werden können und die Sensibilität von Gesundheitsdaten im Fokus steht, sind in der Gesundheitsbranche auch Vorteile erkennbar.

Beispielsweise werden kundenspezifische Produkte auf Grundlage der Deepfake Voice-Technologie entwickelt. Ziel dieser Produkte ist es Menschen mit ALS (Lou-Gehrig-Syndrom) zu helfen. ALS-Patient:innen, die ihre Fähigkeit zu sprechen verloren haben, sollen weiterhin mit ihrer eigenen Stimme sprechen können.

Und was, wenn KI die Menschheit erobert?

Diese Frage ist oft Gegenstand von Science-Fiction Filmen. Um aber den Bezug zu unserer Realität herzustellen, lassen die folgenden Anstrengungen und Maßnahmen apokalyptische Vorstellungen platzen.

Die Dosierung macht das Gift

KI-Technologien werden zu diversen Zwecken mit unterschiedlichen Absichten eingesetzt. Eine Gefahr stellen insbesondere Deepfakes dar, die in verschiedenen Formen auftreten können. Regelmäßig nehmen Deepfake-Inhalte einen Platz in den Schlagzeilen ein. Von humorvollen Inhalten bis hin zu gefährlichen Betrugsfällen. Die Erkennbarkeit von Deepfakes ist nicht unmöglich. Doch je besser die Technologie wird, desto schwieriger wird die Differenzierung von realen Inhalten.

Wenn es das Böse gibt, dann muss es auch das Gute geben. Denn einige der KI-Technologien sind bereits in der Gesellschaft vertreten, die auch anerkannt sind: Musik, Fashion, Beauty-Filter. Alles, was darüber hinausgeht, ist aktuell besorgniserregend und ist mit einer Gefahrenlage verbunden. Doch was stuft man als Gefahr ein? In der Regel das, was neu und unbekannt ist. Sobald die Gesellschaft jedoch aufgeklärt ist und Gegenmaßnahmen für die Verwendung zu bösen Absichten vorhanden ist, sollte das Potenzial der KI für produktive und sinnvolle Zwecke ausgeschöpft werden. Denn die Dosierung macht das Gift. Wie zur Anfangszeit des World Wide Webs: eine Unsicherheit war gegeben, Bedrohungsszenarien waren ersichtlich, doch nun kann man sich den Alltag ohne das Internet nicht vorstellen. Ähnlich ist der Ausblick auch für die Künstliche Intelligenz.

Als unterhaltsamen Abschluss des heutigen Beitrages lohnt es sich die „5 Freunde vs.KI“-Challenge des YouTube Kanals „datteltäter“, ein Angebot von funk der ARD und des ZDF, anzusehen.

Was denkt unsere Leserschaft über KI-Technologien? Beängstigend oder aufregend? Schreibt uns in die Kommentare!

Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 30.06.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.