Zum Inhalt springen Zur Navigation springen
Microsoft 365 Copilot unter datenschutzrechtlicher Betrachtung

Microsoft 365 Copilot unter datenschutzrechtlicher Betrachtung

„Microsoft 365 Copilot – ihr täglicher KI-Begleiter“! So warb Microsoft in diesem Jahr für die neue KI-Anwendung im Rahmen der Microsoft 365 Produktplatte. Mit Copilot soll die Produktivität am Arbeitsplatz verbessert werden. Doch wie sieht es aus mit Datenschutz?

Was ist Microsoft 365 Copilot?

Microsoft 365 Copilot (im Folgenden Copilot) ist eine Assistentenfunktion mit künstlicher Intelligenz für Microsoft 365-Anwendungen und -Dienste, zu denen die Produktivitätssuite mit Programmen wie Word, Excel, PowerPoint und Outlook gehört. Streng genommen gibt es nicht nur das eine Copilot, sondern es wird zu jedem einzelnen Microsoft Dienst einen Copiloten geben.

Copilot verwendet eine Kombination aus LLMs, einem KI-Algorithmus (Künstliche Intelligenz), der Deep Learning-Techniken und umfangreiche Datasets, um Inhalte zu verstehen, zusammenzufassen, vorherzusagen und zu generieren. Die LLMs enthalten vortrainierte Modelle, z. B. GPT-4 von OpenAI.

Die Besonderheit von Copilot soll darin liegen, dass die LLMs nicht wie üblich Inhalte auf Basis beliebiger Datenquellen generieren, sondern durch einen Echtzeitzugriff auf die Daten des jeweiligen Geschäftskunden aus Microsoft Graph unternehmensspezifische und kontextbezogene Antworten erzeugen.

Copilot koordiniert also folgende Komponente:

  • Große Sprachmodelle (LLMs),
  • Inhalte, auf die über Microsoft Graph zugegriffen wird, wie z.B. E-Mails, Chats und Dokumente (für die ein Beschäftigter die Berechtigung hat),
  • die Microsoft 365-Apps, die täglich im Unternehmen genutzt werden, wie Word, Excel, Teams, PowerPoint und andere.

Eine Übersicht darüber, wie diese drei Komponenten zusammenarbeiten, ist unter Microsoft 365 Copilot Übersicht zu finden. Links zu anderen Inhalten im Zusammenhang mit Microsoft 365 Copilot finden Sie hier: Microsoft 365 Copilot Dokumentation.

Wie funktioniert Microsoft 365 Copilot?

Hier ist ein einfacher Überblick darüber, wie eine Copilot-Eingabe verarbeitet wird:

  • Ein Benutzer gibt seine Eingabe in einer Anwendung wie Word, Outlook oder PowerPoint ein.
  • Microsoft erfasst den Geschäftskontext des Benutzers anhand seiner M365-Berechtigungen.
  • Die Eingabe wird an das LLM (beispielsweise GPT4) gesendet, um eine Antwort zu generieren.
  • Microsoft führt nach der Verarbeitung eine gründliche Überprüfung der KI durch.
  • Microsoft generiert eine Antwort und Befehle zurück an die M365-Anwendung.

Microsoft 365 Copilot wird sich im Laufe der Zeit mit neuen Funktionen weiterentwickeln. Um über Microsoft 365 Copilot auf dem Laufenden zu bleiben oder Fragen zu stellen, ist ein Besuch der Microsoft 365 Copilot-Community ratsam.

Copilot ist als kostenpflichtiges Zusatz-Abo für die Abonnements Microsoft 365 E3, E5, Business Standard und Business Premium verfügbar.

Datenschutzrechtliche Risiken beim Einsatz von Copilot

Aufgrund der Komplexität und der vielfältigen Einsatzmöglichkeiten von Copilot ist eine pauschale Aussage zum datenschutzkonformen Einsatz nicht möglich. Entscheidend sind die individuelle Nutzung im Unternehmen und die Umstände des Einzelfalls.

Microsoft selbst sagt, dass:

  • „Microsoft 365 Copilot entspricht unseren bestehenden Datenschutz-, Sicherheits- und Compliance-Verpflichtungen gegenüber kommerziellen Microsoft-365-Kunden, einschließlich der General Data Protection Regulation (GDPR) und der EU-Datenschutzgrundverordnung (European Union (EU) Data Boundary).“
  • „Eingabeaufforderungen, Antworten und Daten, auf die über Microsoft Graph zugegriffen wird, werden nicht für das Training von Foundation LLMs verwendet, auch nicht für die von Microsoft 365 Copilot verwendeten.“
  • Die unternehmensbezogenen Daten innerhalb des Microsoft 365 Tenants werden isoliert und geschützt, damit die Unternehmen die volle Kontrolle über ihre eigenen Daten behalten.

Laut Microsoft soll das neue Geschäftsmodell Copilot den Geschäftskunden neben dem Vorteil der kontextbezogenen Content-Generierung auch mehr Datenschutz und Datensicherheit garantieren. Darüber hinaus verspricht Microsoft die Einhaltung der Microsoft KI-Grundsätze und der Microsoft Responsible AI Standards. Es bleibt abzuwarten, wie diese Versprechen vertraglich abgesichert werden.

Datenschutzrechtliche Maßnahmen & Copilot

Aus datenschutzrechtlicher Sicht stellt sich die Frage, welche personenbezogenen Daten von welchen betroffenen Personen für welche Verarbeitungszwecke mittels Copilot genutzt werden.

Die Antwort ist relativ einfach und nicht zufriedenstellend zugleich: Alle personenbezogenen Daten sowie sonstige Informationen, die in der Microsoft 365 Umgebung (Word, Excel, PowerPoint, Outlook, etc.) vorhanden sind. Die betroffenen Personen sind neben den Beschäftigten des Verantwortlichen auch beispielsweise Kunden, Lieferanten, Interessenten, etc., je nachdem, wie der Verantwortliche die Microsoft 365 Umgebung nutzt.

Rechtsgrundlage für die Datenverarbeitung

Die jeweilige Rechtsgrundlage wird von der konkreten Art der beabsichtigten Datenverarbeitung abhängig sein. Der Zweck der Datenverarbeitungen liegt zunächst in der Bearbeitung der Aufforderung bzw. Anfrage, welche ein User an Copilot stellt. Dies kann z.B. dann im Rahmen der Erledigung der Arbeitsaufgaben erfolgen. Daraus würde sich dann auch die Rechtsgrundlage ermitteln lassen.

Neben der Rechtsgrundlage des Art. 6 Abs. 1 S. 1 lit. b) DSGVO (Datenverarbeitung ist im Rahmen der Durchführung eines Vertrages erforderlich), kommen auch die Rechtsgrundlagen der Einwilligung und der berechtigten Interessen in Betracht.

Gemäß Artikel 6 Abs. 1 S. 1 lit. a) DSGVO ist die Verarbeitung personenbezogener Daten rechtmäßig, wenn die betroffene Person, deren Daten verwendet werden sollen, ihre Einwilligung zu dem entsprechenden Verarbeitungszweck freiwillig, informiert und eindeutig erteilt hat. Dabei ist zu beachten, dass die betroffene Person jederzeit das Recht hat, ihre Einwilligung mit Wirkung für die Zukunft zu widerrufen.

Maßgeblich dafür, ob ein berechtigtes Interesse als Rechtsgrundlage in Betracht kommen kann, wird die Art der beabsichtigten Datenverarbeitung im konkreten Fall sein. Selbst wenn ein berechtigtes Interesse seitens des Unternehmens vorliegen wird, müsste im Rahmen der Interessenabwägung berücksichtigt werden, dass die Unternehmensinteressen gegenüber den Interessen der Betroffenen nicht ohne weiteres höher zu bewerten sein müssen. Insbesondere ist darauf zu achten, dass das Unternehmen seinen Verpflichtungen nach Art. 12 ff. DSGVO (Betroffenenrechte, Transparenz) nachkommen kann.

Erforderlichkeit einer Datenschutz-Folgenabschätzung nach Art. 35 DSGVO

Die Durchführung einer Datenschutz-Folgenabschätzung (DSFA) ist immer dann angezeigt, wenn eine Datenverarbeitung ein hohes Risiko für die betroffenen Personen darstellt. Eine DSFA macht häufig Aufwand, leistet jedoch einen wichtigen Beitrag zu einer datenschutzkonformen Einführung von neuen Technologien.

Bei dem Einsatz von Microsoft 365 Copilot ist die Erforderlichkeit der Durchführung einer DSFA anzunehmen, da es sich um die Verwendung von einer neuen Technologie, welche eine Vielzahl von personenbezogenen Daten verarbeiten und dadurch zu einem hohen Risiko für die Rechte und Freiheiten der betroffenen Personen führen kann.

Technische Maßnahmen & Copilot

Was Copilot so stark von ChatGPT unterscheidet, ist, dass es Zugriff auf alles hat, woran ein Nutzer jemals in Microsoft 365 Umgebung gearbeitet hat. Copilot kann sofort Daten aus den Dokumenten, Excel-Tabellen, Präsentationen, E-Mails, Kalendern, Notizen und Kontakten des Nutzers suchen und zusammenstellen.

Und genau darin liegt aus der Sicht der IT-Sicherheit das Problem. Da Copilot auf alle Daten zugreifen kann, wofür ein Nutzer eine Berechtigung hat, ist es oft viel zu viel. Im Durchschnitt sind 10 % der Microsoft 365-Daten eines Unternehmens für alle Mitarbeiter zugänglich.

Außerdem kann Copilot schnell neue sensible Dokumente generieren, die geschützt werden müssen.

Daher müssen aus der Sicht der IT-Sicherheit bestimmte Aspekte berücksichtigt werden:

Copilot und Datentransparenz

Es ist unklar, wie die KI hinter Microsoft 365 Copilot konkret funktioniert und welche Algorithmen es verwendet. Dies führt zu einer mangelnden Transparenz darüber, wie Entscheidungen getroffen werden und welche Daten genau analysiert werden.

Isolation von Mandanten im Rahmen von Microsoft 365

Copilot verwendet nur Daten vom Microsoft 365-Mandanten des aktuellen Nutzers. Das KI-Tool zeigt keine Daten von anderen Mandanten an, in denen der Nutzer zu Gast ist, und auch nicht von Mandanten, für die eine mandantenübergreifende Synchronisierung eingerichtet wurde.

Kein Training von LLM`s mit Unternehmensdaten

Copilot verwendet die Geschäftsdaten der Kunden nicht, um die grundlegenden LLMs zu trainieren, die für alle Mandanten verwendet werden. Das Unternehmen muss sich also keine Sorgen darüber machen, dass die geschützten Daten in den Antworten für andere Nutzer in anderen Mandanten auftauchen.

Berechtigungen im Rahmen des Microsoft 365

Copilot zeigt alle Organisationsdaten an, für die einzelne Nutzer mindestens Anzeigeberechtigungen haben. Daher ist es wichtig, dass das Unternehmen das Need-to-Know Prinzip in Microsoft 365 strikt umsetzt.

Microsoft gibt Folgendes in seiner Copilot-Datensicherheitsdokumentation an:

„Es ist wichtig, dass Sie die Berechtigungsmodelle verwenden, die in Microsoft-365-Services wie SharePoint verfügbar sind, um sicherzustellen, dass die richtigen Benutzer oder Gruppen den richtigen Zugriff auf die richtigen Inhalte in Ihrer Organisation haben.“

Microsoft-365-Berechtigungen sind sehr komplex. Es gibt sehr viele Möglichkeiten, wie ein Benutzer Zugriff auf Daten erhalten kann:

  • Direkte Benutzerberechtigungen
  • Microsoft-365-Gruppenberechtigungen
  • Lokale SharePoint-Berechtigungen (mit benutzerdefinierten Ebenen)
  • Gastzugriff
  • Externer Zugriff
  • Öffentlicher Zugriff
  • Link-Zugriff (alle, unternehmensweit, direkt, Gast)

Erschwerend kann hinzukommen, dass die Berechtigungen teils unter der Kontrolle der Endnutzer stehen, anstatt von IT- oder Sicherheitsteams.

Labels der Dateien in Microsoft 365 Umgebung

Mit den Sensibilitäts-Labels von Microsoft Purview Information Protection können die Daten des Unternehmens klassifiziert und schützt werden. Gleichzeitig kann sichergestellt werden, dass die Produktivität der Nutzer und ihre Fähigkeit zur Zusammenarbeit nicht beeinträchtigt werden. Die Labens sind so eine Art Beschreibungs-Tags, also sowas wie „PII“, „Meinungsbeitrag“, „Forschungsergebnis“ etc. Letztendlich geht es hier um die Aufbereitung der Datenbestände.

Von Copilot generierte Inhalte übernehmen nicht die MPIP-Labels der Dateien, aus denen es seine Antwort bezieht.

Microsoft verlässt sich in hohem Maße auf Sensibilitäts-Labels, um DLP-Richtlinien durchzusetzen, Verschlüsselung anzuwenden und Datenlecks im Allgemeinen zu verhindern. In der Praxis ist es in der Regel schwierig, die Labels so umzusetzen, dass sie gut funktionieren. Das Problem wird noch größer, wenn man sich darauf verlässt, dass die Nutzer selbst Sensibilitäts-Labels anwenden.

Organisatorische Maßnahmen & Copilot

Leider kann nicht garantiert werden, dass die Antworten von Copilot zu 100 % sachlich oder sicher sind. KI ist bereits jetzt so gut, dass in vielen Fällen die Geschwindigkeit und die Qualität der Ergebnisse bei weitem das, was ein Mensch leisten kann, übertreffen.

So kann das Copilot ein Angebot für einen Kunden schreiben und dabei sensible Daten einbeziehen, die zu einem völlig anderen Kunden gehören. Der Nutzer klickt nach einem kurzen (oder gar keinem) Blick auf „Abschicken“, und schon kommt es zu einem Datenleck oder einer Datenschutzverletzung.

Daher ist die Schulung und Sensibilisierung von Beschäftigten im Zusammenhang von Microsoft 365 Copilot unerlässlich. Die Beschäftigten müssen daher die Verantwortung für die Überprüfung von Copilot-generierten Inhalten übernehmen.

Rechtliche Probleme im Zusammenhang mit Microsoft 365

Im November 2022 hat die Arbeitsgruppe „Microsoft-Onlinedienste“ der Datenschutzkonferenz in ihrem Abschlussbericht festgestellt, dass die von Microsoft angebotene Auftragsverarbeitungsvereinbarung (Data Protection Addendum – DPA) für den Einsatz von „Microsoft 365“ nicht den Anforderungen des Art. 28 Abs. 3 DSGVO genügt. Dies betrifft nicht nur Microsoft, sondern auch Verantwortliche, die „Microsoft 365“ einsetzen. Diese müssen alle ihnen zur Verfügung stehenden Möglichkeiten nutzen, um auf eine datenschutzkonforme Vereinbarung mit Microsoft hinzuwirken.

Um Verantwortliche hierbei zu unterstützen, haben der LfD Niedersachsen und die LDI NRW gemeinsam mit vier weiteren Aufsichtsbehörden eine entsprechende Handreichung erarbeitet. Dabei werden die notwendigen vertraglichen Änderungen und Maßnahmen als hervorgehobene To-Dos kompakt dargestellt. Diese Maßnahmen sollten von Unternehmen – soweit sinnig und überhaupt umsetzbar – entweder umgesetzt oder dann mit einer dokumentierter Begründung abgelehnt werden.

Ausgehend von unserer rechtlichen und technischen Analyse, ist ein datenschutzkonformer Einsatz von Microsoft 365 möglich. Der ungeprüfte oder undokumentierte Einsatz von Microsoft 365 ist jedoch ein Risiko für Unternehmen und kann Bußgelder und Schadensersatzklagen zur Folge haben.

Rechtliche Maßnahmen & Copilot

Unternehmen sollten analysieren, welche vertraglichen Vereinbarungen für den Einsatz von Copilot gelten und wie diese in ggf. bestehende Vertragsverhältnisse integriert werden können (Vertragsklauseln mit Kunden, Urheberrechte, Markenrechte).

Empfehlungen für den Einsatz von Copilot

Als neues Mitglied der Microsoft 365-Produktfamilie wird Copilot aller Voraussicht nach auch auf heftige Kritik der Datenschutzaufsichtsbehörden stoßen. Unternehmen sollten sich von dieser Kritik jedoch nicht abschrecken lassen, sondern die Möglichkeit eines datenschutzkonformen Einsatzes des KI-Tools im konkreten Einzelfall prüfen. Unabhängig von den noch bestehenden Kritiken an Microsoft 365-Anwendungen, kann folgendes empfohlen werden:

  • Dokumentation nach der DSGVO
    Neben der Erstellung eines Verarbeitungsverzeichnisses, sollten Unternehmen den Einsatz von Copilot einer (ergänzenden) Datenschutz-Folgenabschätzung unterziehen, mit der neben der Einhaltung der datenschutzrechtlichen Pflichten auch die Bewertung und Dokumentation von Risiken und geeigneten Abhilfemaßnahmen nachgewiesen werden kann. Die technischen und organisatorischen Maßnahmen – auch auf Tenant-Ebene – sollten in diese Dokumentation einfließen.
  • Starkes Berechtigungskonzept für Microsoft 365
    Das Unternehmen sollte die Berechtigungen nach dem Need-to-Know Prinzip strikt durchsetzen. Es sollte sichergestellt werden, dass die Nutzer über Copilot nur auf Daten zugreifen können, für die sie die entsprechenden Berechtigungen haben. Um dieses Sicherheitsniveau aufrechtzuerhalten, ist es wohl von erheblicher Bedeutung, die Berechtigungsmodelle zu nutzen, die in Microsoft 365-Diensten wie SharePoint verfügbar sind. Außerdem ist es wichtig sicherzustellen, dass Copilot keine Informationen aus anderen Mandanten abruft, in denen der Nutzer eventuell als B2B-Gast hinzugefügt wurde.
  • IT-Sicherheitsmaßnahmen vor dem Einsatz von Copilot
    Noch vor der Implementierung von Copilot sollte das Unternehmen sich unbedingt ein Bild seiner Datensicherheitslage machen. Zudem sollte das Unternehmen Microsoft 365 insgesamt unter die Lupe nehmen – welche Apps und Dienste werden genutzt, wie sind die Einstellungen auf der Administrativebene etc.. Vertrauliche Daten sollten kontinuierlich in Microsoft 365 überwacht werden, um bei abnormalem Verhalten Warnungen erhalten und entsprechend reagieren zu können. Es sollte sichergestellt werden, dass MPIP-Labels korrekt angewendet werden.
  • Schulung der Mitarbeiter im Umgang mit Microsoft 365
    Last but not least: Schulen, Schulen, Schulen. Es muss sichergestellt werden, dass die KI keine fehlerhaften Entscheidungen trifft und dadurch zur Generierung von zusätzlichen Aufwänden oder Betriebsrisiken beiträgt. Auch Microsoft selbst sagt, dass die von der generativen KI erzeugten Antworten nicht zu 100% sachlich sind.
Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 30.06.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.