Immer mehr Unternehmen setzen auf „digitale Chefs“: Die zunehmende Integration von Algorithmen und Künstlicher Intelligenz (KI) in Geschäftsprozesse wirft zentrale Fragen zum Datenschutz und zur Kontrolle am Arbeitsplatz auf. Dieser Beitrag analysiert kritisch, wie sich algorithmische Entscheidungen auf Beschäftigte auswirken und welche datenschutzrechtlichen Probleme dabei entstehen.
Der Inhalt im Überblick
- Wie steuern Algorithmen moderne Geschäftsprozesse?
- Welche Auswirkungen hat algorithmische Führung auf Beschäftigte?
- Welche datenschutzrechtlichen Risiken entstehen durch KI?
- Welche Forderungen stellt das Europäische Parlament für strengere Regeln?
- Wie können Unternehmen KI datenschutzkonform nutzen?
- KI und Datenschutz als Balanceakt
Wie steuern Algorithmen moderne Geschäftsprozesse?
Algorithmen übernehmen in Unternehmen immer häufiger Aufgaben, die traditionell dem Management vorbehalten waren. Sie analysieren große Datenmengen und treffen Entscheidungen über Arbeitsabläufe und Mitarbeitende. Laut aktuellen Studien werden KI-Systeme etwa in der Qualitätskontrolle, im Personalmanagement und in der Logistik eingesetzt. Einer aktuellen Studie des Wissenschaftlichen Dienstes des Europäischen Parlaments (EPRS) zufolge werden bereits 42 Prozent der EU-Beschäftigten durch algorithmische Managementsysteme (AM) gesteuert. Die Software verteilt Aufgaben, überwacht und bewertet die Leistung der Beschäftigten. Manch ein Unternehmen überlässt selbst Entscheidungen über Einstellung, Vertragsverlängerungen, Vergütung oder Kündigungen einer KI.
Mittlerweile ist algorithmisches Management nicht mehr nur in Call Centern oder bei Lieferdiensten im Einsatz, sondern auch bei der Arbeitsorganisation in der Industrie, bei Telekommunikationsdiensten oder auch bei Büroarbeit per Workflow-System üblich. Einige Vorteile scheinen dabei auf der Hand zu liegen: Man verspricht sich Effizienzsteigerung durch automatisierte Abläufe, schnellere Anpassung an Marktveränderungen, manche hoffen sogar auf objektivere Entscheidungsfindungen. Doch Algorithmen können nur so neutral sein wie die Daten, mit denen sie trainiert wurden. Fehlerhafte oder verzerrte Datensätze führen zu problematischen Entscheidungen, die sich direkt auf die Beschäftigten auswirken.
Welche Auswirkungen hat algorithmische Führung auf Beschäftigte?
Wenn Algorithmen zum „Chef“ werden, verändert sich das Verhältnis zwischen Unternehmen und Beschäftigten grundlegend. Die Auswirkungen sind vielfältig:
- Beschäftigte haben oft keinen Einfluss auf die Funktionsweise der Algorithmen, was zu reduzierten Mitbestimmungsmöglichkeiten führt.
- Das Wissen über die oder der Verdacht der ständigen Überwachung und Bewertung durch KI löst regelmäßig Stress und Unsicherheit aus. Erhöhte psychische Belastung ist die Folge.
- Entscheidungen der Geschäftsführung fehlt es an Transparenz: Sie sind häufig nicht nachvollziehbar, was zu Misstrauen führt.
Algorithmische Kontrolle insbesondere in der Plattformökonomie und im industriellen Kontext führt zu Autonomieverlust und ggf. zu einer Verschiebung der Machtverhältnisse führt.
Welche datenschutzrechtlichen Risiken entstehen durch KI?
Der Einsatz von KI in Geschäftsprozessen erfordert die Verarbeitung großer Mengen personenbezogener Daten. Besonders kritisch ist dies im Bereich des algorithmischen Managements, wenn KI-Systeme etwa Arbeitszeiten, Produktivität und sogar Kommunikationsverhalten überwachen.
Die Intransparenz von Entscheidungen belastet nicht nur die Beschäftigten, sondern ist auch aus datenschutzrechtlicher Sicht mehr als kritisch. Es mangelt an Kontrolle: Der Verantwortliche gibt sie freiwillig ab und kann sie nicht vollständig zurückerlangen, da er selbst kaum die Entscheidungsfindung durch Algorithmen nachvollziehen kann. Den Betroffenen wird bei automatisierten Entscheidungen ebenfalls die Möglichkeit der Einflussnahme entzogen. Auch für Betriebsräte bedeutet das: Sie müssen Systeme kontrollieren, deren Funktionsweise sie nicht durchschauen. Wie soll da Mitbestimmung möglich sein?
Die Verarbeitung großer Mengen personenbezogener Daten durch algorithmische Management-Tools erhöht zudem das Risiko von Datenmissbrauch und Diskriminierung. Algorithmen verstärken bestehende Vorurteile, wenn sie auf ungeprüften Daten basieren. Einige AM-Systeme enthalten Funktionen, die in der EU als unzulässige Überwachung gelten.
Vollautomatisierte Entscheidungen über Beschäftigte, die rechtliche Wirkung haben oder sie erheblich beeinträchtigen (z.B. Einstellung/Ablehnung, Kündigung, Versagung einer Prämie), sind nach Art. 22 DSGVO grundsätzlich verboten. Ebenso unzulässig ist eine Dauerüberwachung am Arbeitsplatz. Auch die KI-VO fordert Transparenz, menschliche Kontrolle und Konformitätsprüfungen für derartige Hochrisiko-KI-Systeme.
Welche Forderungen stellt das Europäische Parlament für strengere Regeln?
Angesichts der zunehmenden algorithmischen Kontrolle am Arbeitsplatz und mit Bezug auf die aktuelle Studie des wissenschaftlichen Dienstes des Parlaments fordert der Ausschuss für Beschäftigung und soziale Angelegenheiten die Kommission auf, ein Gesetz zur Regulierung des Einsatzes algorithmischer Technologien, einschließlich KI, am europäischen Arbeitsplatz einzuführen. Die bestehenden EU-Gesetze, wie die DSGVO, bieten zwar einen Rahmen für den Schutz personenbezogener Daten, scheinen aber für die Herausforderungen des digitalen Managements oft nicht ausreichend. Es werden gezielte gesetzgeberische Maßnahmen gefordert, um diese Lücken zu schließen und die Rechte der Beschäftigten zu stärken.
Die Parlamentarier betonten, es müsse gesetzlich deutlicher verankert werden, dass für alle Entscheidungen, die von AM-Systemen getroffen oder unterstützt werden, eine menschliche Kontrolle stattzufinden hat. Arbeitnehmende sollen stets die Möglichkeit haben, Erklärungen zu Entscheidungen zu verlangen, die von algorithmischem Management getroffen oder unterstützt werden. Endgültige Entscheidungen über die Einstellung oder Beendigung eines Arbeitsverhältnisses, die Verlängerung oder Nichtverlängerung eines Vertrags, Änderungen der Vergütung oder Disziplinarmaßnahmen müssten immer von einem Menschen getroffen werden.
Um die Privatsphäre, persönliche Daten und Gesundheit der Arbeitnehmenden zu schützen, würden die neuen Vorschriften, die die Abgeordneten fordern, die Verarbeitung von Daten über den emotionalen, psychologischen oder neurologischen Zustand der Arbeitnehmer, private Kommunikation, Daten von Arbeitnehmern außerhalb der Arbeitszeit, Echtzeit-Geolokalisierung außerhalb der Arbeitszeit und die Verwendung von Daten im Zusammenhang mit der Vereinigungsfreiheit und Tarifverhandlungen verbieten. Zudem müssten Arbeitnehmende umfassend nach Art.12-14 DSGVO sowie darüber informiert werden, wie sich die AM-Systeme auf die Arbeitsbedingungen auswirken.
Wie können Unternehmen KI datenschutzkonform nutzen?
Mittlerweile haben die Aufsichtsbehörden Leitfäden für den sicheren KI-Einsatz herausgebracht, die Transparenz und Mitbestimmung fördern sollen. Hier seien beispielhaft auf die Stellungnahmen und die Expertise des EDSA zum rechtskonformen Einsatz von KI und die Good-Practice-Checkliste des BayLDA für KI-Tools hingewiesen, die Risiken wie Fairness, Transparenz, Datenschutzrechtsgrundlagen und menschliche Kontrolle bewertet, mit Fokus auf Dokumentation und Ethik-Richtlinien der EU-Kommission. Eine Übersicht über die aufsichtsbehördlichen Stellungnahmen, Orientierungshilfen, Checklisten etc. findet sich im Orientierungshilfen-Navigator KI & Datenschutz ONKIDA.
Unternehmen sollten insbesondere folgende Maßnahmen ergreifen, um datenschutzrechtliche Risiken zu minimieren:
- Klare Definition und Begrenzung automatischer Verarbeitung von personenbezogenen Daten.
- Transparente Information der Beschäftigten über den Einsatz von KI und automatisierten Entscheidungsfindungen.
- Sicherstellung menschlicher Kontrolle bei automatisierter Datenverarbeitung und wichtigen Entscheidungen.
- Durchführung von Datenschutz-Folgenabschätzungen.
- Einbindung von Betriebsräten und kollektiven Interessenvertretungen.
- Klare Dokumentation der Entscheidungsprozesse.
KI und Datenschutz als Balanceakt
Der Einsatz von KI zur Steuerung von Geschäftsprozessen bietet Chancen für Effizienz und Objektivität, birgt aber erhebliche Risiken für Beschäftigte und deren Datenschutz. Die regulatorischen Vorgaben wie DSGVO und KI-VO setzen wichtige Rahmenbedingungen, müssen aber in der Praxis konsequent umgesetzt werden. Unternehmen stehen vor der Aufgabe, Transparenz, Mitbestimmung und Datenschutz zu gewährleisten, um die Akzeptanz und das Vertrauen der Beschäftigten zu sichern. Die kritische Auseinandersetzung mit den sozialen und ethischen Folgen ist dabei unerlässlich.






