Zum Inhalt springen Zur Navigation springen
Apples Tabubruch: Massenüberwachung für den Kinderschutz

Apples Tabubruch: Massenüberwachung für den Kinderschutz

Kinderschutz durch Massenüberwachung auf Endgeräten der Nutzer. Kann das gut gehen? Apples Pläne, ihre Dienste auf Kinderpornografie zu durchsuchen sind ein Frontalangriff auf die Privatsphäre aller Apple-Kunden. Wäre so etwas nach der DSGVO überhaupt erlaubt?

Dr. Jekyll und Mr. Hide

Apple geriert sich öffentlich gerne als Datenschutzfreund. Im Fernsehen laufen regelmäßig Apple-Werbungen in denen häufig das wohlige Wort „Privatsphäre“ fällt. Legendär ist etwa die Apple-Werbung aus dem Jahr 1984, die zum Super-Bowl ausgestrahlt wurde und zeigt, wie der Macintosh die Menschheit aus einer Überwachungsmaschinerie eines Orwellschen Überwachungsstaates herausführt. Noch Ende Mai 2021 veröffentlichte Apple einen Werbefilm, in der anschaulich dargestellt wurde, wie Nutzer durch die Werbeindustrie auf Schritt und Tritt verfolgt werden und – der Slogan: „Privacy. Thats iPhone“. Der Song im Werbeclip endet mit der Zeile „why dont you mind your own business?“

Umso tiefer muss Sicherheitsforschern, Datenschutzexperten und allen Personen, denen ihre Privatsphäre am Herzen liegt, die Kinnlade heruntergelappt sein, als sie von Apples Ankündigung erfuhren, dass das iPhone zukünftig auf dem Gerät gespeicherte Bilder nach Kinderpornografie durchforsten soll.

Dies wäre Massenüberwachungsmaßnahmen in nicht gekannter Dimension, von der hunderte Millionen Endnutzer auf der ganzen Welt betroffen wären.

Edward Snowden twitterte am 6.August hierzu:

“No matter how well-intentioned,

@Apple

is rolling out mass surveillance to the entire world with this. Make no mistake: if they can scan for kiddie porn today, they can scan for anything tomorrow. They turned a trillion dollars of devices into iNarcs—*without asking.*

Unter Narc versteht man jemanden, der einen anderen für etwas, das er falsch gemacht hat, anzeigt; insbesondere bei jeder Art von Autoritätsperson wie Eltern, Polizisten, Lehrern, Chefs usw. iNarc ist eine Anspielung darauf, dass es sich hierbei um ein Apple-Gerät handelt.

Wie funktioniert CSAM?

Unter CSAM werden sog. Child Sexual Abuse Material verstanden, daher im Kern kinderpornografische Inhalte. Zur Erkennung solcher Inhalte werden Bilder lokal gescannt und mit einer Blacklist-Datenbank abgeglichen, die von einer Kinderrechtsorganisation bereitgestellt werden. Eine KI-Funktion unter dem Namen „NeuroHash“ ermittelt einen Hash, der mit der Datenbank abgeglichen wird. Kommt es vermehrt zu Treffern und wird dadurch eine Schwelle von Treffer-Anzahlen überschritten, werden die Aufnahmen durch einen Apple-Mitarbeiter kontrolliert, wobei ggf. die Kinderrechtsorganisation informiert werden soll, die dann wieder eine Behörde einschalten kann. Accounts mit so erkannten kinderpornografischen Inhalten sollen gesperrt werden.

Nach verheerender Kritik an den Plänen hat Apple darauf hingewiesen, dass iPhones und iPads nur auf Missbrauchsinhalte scannen, wenn der iCloud-Foto-Upload aktiv ist, was jedoch standardmäßig der Fall ist. Nutzer müssten diese Funktionalität daher erst proaktiv deaktivieren.

But think of the children!

Im Kern wird damit das Endgerät des Nutzers auf kriminelle Inhalte durchforstet. Ein solches Scanning von Inhalten kennt man schon im Rahmen der Nutzung von Cloud-Diensten. Auch hier nehmen sich die Dienstleister das Recht heraus, Inhalte auf Illegalität zu überprüfen. Doch das Vorhaben von Apple hat eine neue Dimension: Hier wird schon auf dem Endgerät selbst nach unliebsamen Inhalten geschnüffelt.

Um dem Ganzen einen legitimen Anstrich zu geben, wird der oft bemühte Schutz von Kindern als Rechtfertigung herangezogen. Auf Wikipedia findet sich mittlerweile ein längerer Artikel zum „Think of the children“. Die Logik ist immer gleich: Wer sich an den drakonischen Plänen zum Schutz von Kindern stört, macht sich vermeintlich für Pädophile stark.

In Deutschland war der letzte größere Versuch, einschneidende Maßnahmen auf Grundlage der „Think of the children“-Logik durchzusetzen noch gar nicht so lange her. Damals nannte sich das Ganze „Zugangserschwerungsgesetz“ und brachte Ursula von der Leyen den Spitznamen „Zensursula“ ein. Das Gesetz wurde nach zwei Jahren wieder kassiert.

Verheerender Trend

Während Online-Durchsuchungen immer unter einem Richtervorbehalt stehen müssen, so wie es das Bundesverfassungsgericht in seinem wegweisenden Urteil vom 27.02.2008 zu Online-Durchsuchungen forderte und welches sich auch in den jeweiligen Gesetzen wiederfindet (beispielhaft etwa in dem neulich hier besprochenen § 54 Abs.4 S.1 PolG Baden-Württemberg), wird hier der Zugriff auf private Inhalte zu Strafverfolgungszwecken ohne Richterbeschluss einfach durch den Hersteller selbst vorgenommen.

Weshalb sich Apple zu diesem drastischen Schritt entschlossen hat, bleibt unbekannt. In der Diskussion wird etwa vermutet, dass es vorauseilender Gehorsam hinsichtlich des geplanten EARN IT Act of 2020 sein könnte.

Große Online-Plattformen verweisen regelmäßig darauf, dass sie ihre Plattformen ebenfalls nach verbotenen Inhalten durchleuchten und diese löschen. Auch bei Cloud-Speicherdiensten wird dies praktiziert. Der Unterschied zu Apples neuen Plänen ist jedoch, dass bei letzteren die Durchsuchung nicht auf den Diensten des Anbieters selbst erfolgt, die dieser selbst hostet, sondern auf dem gekauften Endgerät des Kunden. Dies dürfte für den Endnutzer eine gänzlich andere Eingriffsintensität haben. Während er einen Cloud-Speicherdienst mietet und dort immer nur „zu Gast“ sein wird, ist er im Fall eines iPhones oder iPads meistens der Eigentümer des Geräts und muss nicht davon ausgehen, dass die gespeicherten Inhalte durch den Hersteller kontrolliert werden.

Nach DSGVO möglich?

Sollten die Pläne wie angekündigt umgesetzt werden, stellt sich natürlich die Frage, ob so etwas nach europäischen Datenschutzgesetzen überhaupt zulässig wäre. Zunächst ist hier festzuhalten, dass die DSGVO räumlich und insbesondere auch sachlich anwendbar ist. Die räumliche Anwendbarkeit ergibt sich daraus, dass gem. Art. 3 Abs.1 DSGVO Apple Niederlassungen in der Europäischen Union hat und zudem gem. Art. 3 Abs.2 lit. a DSGVO Waren und Dienstleistungen gegenüber Europäern erbringt.

Die sachliche Anwendbarkeit ergibt sich aus der automatisierten Verarbeitung personenbezogener Daten (Art. 2 Abs.1 DSGVO). Die Ausnahmevorschrift des Art. 2 Abs.2 lit. d DSGVO, welche einer Anwendbarkeit der DSGVO entgegenstehen könnte, kommt vorliegend nicht in Betracht. Zwar dienen die Scans der Aufdeckung und auch der Verfolgung von Straftaten, aber die Ausnahmevorschrift setzt behördliches Handeln voraus, das hier evident nicht vorliegt.

Damit muss das Scanning den Grundsätzen für die Verarbeitung personenbezogener Daten aus Art. 5 DSGVO entsprechen. Und hier hapert es dann schon an der ersten Voraussetzung. Nach Art. 5 Abs.1 lit. a DSGVO müssen personenbezogene Daten rechtmäßig verarbeitet werden. Anders gesagt: Es bedarf einer Rechtsgrundlage. Im vorliegenden Kontext kämen grundsätzlichen vier Rechtsgrundlagen in Betracht:

  • Vertragserfüllung
  • Berechtigtes Interesse
  • Rechtspflicht
  • Einwilligung

Die Vertragserfüllung als Rechtsgrundlage setzt indes voraus, dass die Verarbeitung hierfür auch erforderlich ist. Dies ist jedoch evident nicht der Fall, denn für die Speicherung und Nutzung der Bilder-App ist ein Abgleich mit einer Blacklist-Datenbank nicht erforderlich.

Das berechtigte Interesse dürfte schon alleine daran scheitern, dass es nicht im eigenen Interesse Apples sein wird, kriminelle Inhalte auf den Geräten zu identifizieren. Auch sind berechtigte Interessen Dritter anerkannt. Aber welche Dritten sollen es hier sein?

Eine Rechtspflicht ist aktuell ebenfalls nicht ersichtlich. Damit bliebe allenfalls die Einwilligung. Hier müssten Nutzer in Kenntnis der Sachlage vorher dem Scanning zustimmen. Apple müsste daher über eine Dialogbox explizit um Erlaubnis fragen und der Nutzer müsste die Möglichkeit haben, seine Einwilligung zu verweigern, ohne dass ihm hierdurch Nachteile erwachsen.

Feuerprobe für den Datenschutz

Vielleicht sind die oben beschriebenen Erwägungen auch der Grund, warum das Scanning zunächst nur in den USA startet. In Europa wäre eine solche Verarbeitung ohne eine explizite Rechtsgrundlage unzulässig. Und auch ein entsprechendes Gesetz dürfte weder gegen die europäische Grundrechtecharta und die deutschen Grundgesetze verstoßen. Wird das Vorhaben auch auf europäische Apple-Nutzer ausgeweitet, wird es spannend zu sehen, wie die Aufsichtsbehörden auf eine Einführung der Technik in Europa reagieren werden. Erweist sich die DSGVO hier ein weiteres Mal als zahnloser Tiger, dürfte das Gesetzeswerk erheblich an Legitimität verlieren.

Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 31.12.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
  • Da Apple ja eine vorzügliche Werbeabteilung hat, werden sie sicherlich einen Werbespot entwickeln, das danach alle Applejünger jubelnd dem Scan zustimmen und sich auch noch darüber freuen [Ironie off].

  • Sollten die Behörden nicht reagieren, wäre das eine Untergrabung der DS GVO, die jedem der gegen einen Verstoss angeklagt wird, eine wunderbare Basis gibt sich gegen diese zu währen. (Gleichstellungsgrundsatz) Dann hoffe ich noch auf die Macht der Verbraucher. Wenn die ersten 10 Mio. Europäer ihr iPhone gegen ein anderes Produkt eintauschen, werden die Apple Strategen ihr Konzept in Frage stellen müssen

  • …mit den entsprechenden TOMs fänd ich das ganz großartig und wenn es technisch tatsächlich geht, würde ich das sogar in die DSGVO als Pflicht der TechRiesen aufnehmen!

    • nein – es gibt das Recht auf informationelle Selbstbestimmung. Apple (oder ein anderer Hersteller) hat mein Gerät nicht zu durchsuchen, egal um was es geht. In einem Rechtsstaat hat die Unschuldsvermutung zu herrschen und massive Eingriffe müssen im Einzelfall gerechtfertigt und überprüft werden. Und nur die Strafverfolgungs-Behörden haben die Befugnis dazu, ganz sicher aber nicht irgendein Tech-Konzern. Ansonsten kann bald jeder überwachen was und wie er will.

  • Gegen die vier Reiter der Infokalypse (Drogendealer, Geldwäscher, Terroristen und Pädophile) kommt auch die DSGVO nicht an. Das sieht man auch an der Chatkontrolle, die von der EU gerade beschlossen wurde.
    1984 sollte eine Dystopie sein und wurde zur Anleitung.

  • Sehr interessanter Beitrag, vielen Dank dafür! Aber wer ist Mr. Hide?? Oder war das ein Wortspiel mit „verstecken“? So nach dem Motto, ich habe ja nichts zu verbergen? :)

  • „Das berechtigte Interesse dürfte schon alleine daran scheitern, dass es nicht im eigenen Interesse Apples sein wird, kriminelle Inhalte auf den Geräten zu identifizieren. Auch sind berechtigte Interessen Dritter anerkannt. Aber welche Dritten sollen es hier sein?“

    Die betroffenen Kinder vielleicht? Müssen die Dritten explizit benennbar sein, in der DSGVO wird das nicht näher bezeichnet. Jedenfalls wird man zustimmen müssen, dass die ein berechtigtes Interesse haben.

  • Jede/r hat einen Virenscanner auf dem PC – freiwillig. Der Virenscanner scannt alle E-Mails, alle Dateien. alle Internetseiten usw. Er heißt nicht Apple sondern Kaspersky oder füher McAfee. Warum jetzt die Aufregung, wenn Apple das auch macht? Es ist eine gute Idee, auch technische Mittel gegen sexuellen Misbrauch einzusetzen. Wenn Datenschutz perverse Daten schützt pervertiert er sich selbst.

    • Der Vergleich mit dem Virenscanner ist nicht schlecht. Aber auch im IT-Sicherheitsbereich gibt es seit Jahren Stimmen, die vor dem Einsatz von Virenscanner warnen, da das Risiko ihres Einsatzes ihren Nutzen überwiegt. Zudem haben Sie es ja bereits selbst angesprochen, man kann einen Virenscanner freiwillig verwenden. Er ist somit nicht zwangsweise durch die Nutzung eines Betriebssystems oder eines anderen Dienstes vorgeschrieben.

      Zwar ist Ihr letzter Satz sehr eingängig aber verkürzt das Problem. Einfach ausgedrückt, bevor jemand nachschaut, ist bei den Daten von außen nicht erkennbar, ob diese gut oder schelcht sind. Wenn der Datenschutz verhindert das überhaupt nachgeschaut wird, um von der (Grund-)Rechtsordnung gedeckte Tätigkeiten zu schützen, dann schützt er zwangläufig auch solche mit, die dagegen verstoßen. Bei der Frage, ob das sinvoll ist, landet man dann wieder bei einer Abwägung (ähnlich wie beim Virenscannern), ob der Nutzen dieser Technik zum Nahschauen ihren Risiken und (möglichen) Schäden überwiegt? Passend dazu hat die Washington Post gerade einen Kommentar veröffentlicht: We built a system like Apple’s to flag child sexual abuse material — and concluded the tech was dangerous

Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.