Zum Inhalt springen Zur Navigation springen
Vorschlag eines EU-Rechtsrahmens für Künstliche Intelligenz

Vorschlag eines EU-Rechtsrahmens für Künstliche Intelligenz

Die Europäische Union soll ein globales Exzellenzzentrum in Bezug auf vertrauenswürdige Künstliche Intelligenz (KI) werden und hat dazu den weltweit ersten Vorschlag eines Rechtsrahmens für den Einsatz von KI vorgelegt. Wir stellen das Vorhaben der EU vor und gehen insbesondere auf die Definition der Risikoklassen ein.

Einsatzbereiche künstlicher Intelligenz

KI-gestützte Anwendungen erfreuen sich einer steigenden Beliebtheit. Nicht zu unterschätzen ist das Potenzial, das in den Simulationen menschlicher Intelligenz schlummert. Dabei revolutionierten KI schon die unterschiedlichsten Einsatzbereiche:

  • Unterhaltungsbranche
    Lange Suchen war gestern! Streaming-Dienste wie Netflix, Spotify und Co. erkennen die Präferenzen ihrer Nutzer und schlagen Titel direkt vor, die nach Analyse der Daten ebenfalls den Geschmack treffen sollten.
  • Bildungssektor
    Eingestaubte Lehrbücher gehören der Vergangenheit an! Lernsoftwares und Spiele erkennen das Lerntempo der Schüler durch maschinelles Lernen an und können personalisierte Lernpakete erstellen.
  • Versicherungsbranche
    Sogar die Versicherungen profitieren! Chatbots, schnellere Schadensabwicklungen und Betrugspräventionen vereinfachen die Arbeit von Versicherungsunternehmen durch den Einsatz von Künstlicher Intelligenz.

Das klingt ja alles schön und gut, aber …

Die Daten meiner Kinder umfangreich verarbeiten und personalisierte Profile erstellen lassen? Nicht nur Datenschützern läuft da ein kalter Schauer über den Rücken. Thomas Metzinger, Professor für Philosophie an der Uni Mainz, erklärte gegenüber der Süddeutschen Zeitung, dass der Einsatz von Künstlicher Intelligenz zahlreiche ethische Debatten aufwirft. Insbesondere von autonomen Waffensystemen, die selbständig kämpfen und töten oder von Kameraüberwachungen per Gesichtserkennung wird abgeraten.

In Bezug auf den Datenschutz äußerte sich der Bundesbeauftragte für Datenschutz und Informationssicherheit Ulrich Kelber eher zuversichtlich. Für ihn sei ein sachgerechter und fairer Interessenausgleich zwischen Datenschutz und Weiterentwicklung der Künstlichen Intelligenz erforderlich.

EU-Rechtsrahmen als Lösung?

Das Potenzial von Künstlicher Intelligenz sieht auch die Europäische Kommission und legte einen Rechtsrahmen für den Einsatz von KI vor, um die Digitalisierung voranzutreiben und gleichzeitig die informationelle Selbstbestimmung zu wahren. Dabei sollen Datenschutz sowie ethische Überlegungen die Zukunft von Künstlicher Intelligenz mitbestimmen.

Der Entwurf sieht vor, dass Künstliche Intelligenzen, die eine Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen darstellen, verboten werden. Risikoreiche KI-Systeme müssen vor Markteintritt strenge Vorgaben erfüllen. Das Vorhaben ist Teil der EU Digital Strategy und soll unter anderem auch Investitionen in KI-Systeme beschleunigen und neue Herausforderungen, die sich im Zuge der Corona-Pandemie ergeben haben, bewältigen. Der Rechtsrahmen definiert KI-Systeme anhand ihres Risikos und setzt klassifizierte Vorgaben.

Risikoklassen der KI-Systeme

Unannehmbares Risiko

Nach Art. 5 des Entwurfs für den EU-Rechtsrahmen sollen KI-Systeme, die als klare Bedrohung für die Sicherheit, die Lebensgrundlagen und die Rechte der Menschen gelten, verboten werden. Dazu gehören KI-Anwendungen, die den folgenden Einsatzbereich vorsehen:

  1. Unterschwellige Techniken zur Beeinflussung des Verhaltens einer Person, die ihr oder einer dritten Person dadurch physischen oder psychischen Schaden zufügen oder zufügen können.
  2. Ausnutzen von Schwächen einer Personengruppe aufgrund ihres Alters oder einer körperlichen oder geistigen Behinderung ausnutzen, um auch hier das Verhalten dieser Personen zu beeinflussen.
  3. Einsatz von Behörden zur Bewertung oder Einstufung des sozialen Verhaltens, was nachteilige Folgen für bestimmte Personengruppen haben kann (sog. Social Scoring).
  4. Einsatz von biometrischen Echtzeit-Fernidentifizierungssystemen in öffentlich zugänglichen Räumen zum Zwecke der Strafverfolgung, sofern dies nicht für bestimmte Zwecke (z.B. Suche nach Opfern von Straftaten, Abwehr von Terroranschlägen) unbedingt erforderlich ist.

Hohes Risiko

Systeme auf Basis künstlicher Intelligenz sollen strengen Vorgaben unterliegen, wenn sie für die folgenden Bereiche eingesetzt werden:

  1. Biometrische Fernidentifizierung, ob in Echtzeit oder rückwirkend
  2. Einsatz als Sicherheitskomponente in kritischen Infrastrukturen (z.B. Straßenverkehr, Wasserversorgung)
  3. Schul- oder Berufsausbildung, wenn der Zugang einer Person zu einer Bildungseinrichtung beeinträchtigt werden könnte oder für die Beurteilung herangezogen wird
  4. Einsatz im Personalmanagement (z.B. Einstellung, Leistungsbeurteilung, Verwaltung) sowie für den Zugang zur Selbstständigkeit
  5. Zur Beurteilung für die Inanspruchnahme von wesentlichen privaten und öffentlichen Dienstleistungen (z.B. Sozialhilfeleistungen, Ermittlung der Kreditwürdigkeit außerhalb des Eigengebrauchs, Priorisierung von Notfalldiensten)
  6. Strafverfolgung (z.B. Risikobewertung oder Kriminalitätsanalyse einer natürlichen Person, KI-gestützte Lügendetektoren, Bewertung der Zulässigkeit von Beweismitteln)
  7. Migration, Asyl und Grenzkontrolle (z.B. Überprüfung der Echtheit von Reisedokumenten, Lügendetektoren oder Risikobewertung)
  8. Rechtspflege und demokratische Prozesse (z.B. Anwendung der Rechtsvorschriften auf konkrete Sachverhalte)

All diese KI-Anwendungen können ein hohes Risiko für die Gesundheit oder Sicherheit oder eine Beeinträchtigung der Grundrechte mit sich führen. Neben Pflichten wie einem Risikomanagementsystem, eine menschliche Aufsicht oder umfangreichen Transparenz- und Dokumentationspflichten, sollen die Anbieter eine Data Governance aufbauen für die Trainingsdatensätze einer Künstlichen Intelligenz (Art. 10 des Entwurfs). So werden Maßnahmen wie Pseudonymisierung, Verschlüsselung und die Beachtung des Stands der Technik gefordert. Die Verarbeitung sensibler Daten nach Art. 9 DSGVO wird hier nicht per se ausgeschlossen, soll aber unter der Bedingung erfolgen, dass entsprechende Schutzvorkehrungen eingesetzt werden.

Geringes oder minimales Risiko

KI-Systeme dieser Kategorie stellen nur ein minimales oder kein Risiko für die Rechte der Bürger oder der Sicherheit dar. In der Regel sollen Transparenzverpflichtungen erfüllt werden, um für den Nutzer kenntlich zu machen, dass es sich beispielsweise bei einem Chatbot um eine Künstliche Intelligenz handelt.

Dieser Schritt ist angesichts der erschreckenden Echtheit und voranschreitenden Technik im Rahmen von KI zu unterstützen.

Welche Auswirkungen könnte diese Verordnung haben?

Wir berichteten bereits über den chinesischen Social-Credit-System Alptraum, der die soziale Reputation eines Bürgers anhand umfassender Daten widerspiegeln soll. Mithilfe des EU-Rechtsrahmens für Künstliche Intelligenz könnte solchen Totalüberwachungssystemen ein Riegel vorgeschoben werden.

Dabei ist auch zu beachten, dass der Entwurf eines EU-Rechtsrahmens satte Bußgelder bis zu 30 Mio. EUR bzw. 6 % des weltweiten Jahresumsatzes eines Unternehmens vorsieht. Dabei gehen diese Strafen sogar über die gefürchteten DSGVO-Bußgelder hinaus.

Unternehmen wird also angeraten, sich mit dem Verordnungsentwurf der EU zur Künstlichen Intelligenz auseinanderzusetzen, sofern sie den Einsatz von KI-gestützten System im Betrieb in Erwägung ziehen. Dennoch wird dieser Entwurf vor dem tatsächlichen Inkrafttreten noch einige Zeit in Anspruch nehmen.

Informieren Sie sich über unsere praxisnahen Webinare
  • »Microsoft 365 sicher gestalten«
  • »Informationspflichten nach DSGVO«
  • »Auftragsverarbeitung in der Praxis«
  • »DSGVO-konformes Löschen«
  • »IT-Notfall Ransomware«
  • »Bewerber- und Beschäftigtendatenschutz«
Webinare entdecken
Mit dem Code „Webinar2024B“ erhalten Sie 10% Rabatt, gültig bis zum 30.06.2024.
Beitrag kommentieren
Fehler entdeckt oder Themenvorschlag? Kontaktieren Sie uns anonym hier.
  • Wie immer ein gut recherchierter, sachlicher Artikel. Auch ich bin der Meinung, dass es für den Einsatz der KI einen zivilrechtlichen Rahmen braucht, der die einzelne Person vor negativen Wirkungen schützt. Ich sehe aber auch für KI einen großen Einsatzbereich im militärischen Bereich. Es ist ja leider so, dass für Erfindungen, die militärisch genutzt werden können immer das größte Budget zur Verfügung steht. Wie will man für diesen Bereich einen Rechtsrahmen schaffen? Militär steht immer ausserhalb der zvilrechtlichen Regelungen und ob die Genfer Konvention hier greifen kann bin ich nicht sicher. Sicher ist jedoch, dass das Schadenpotential riedig ist.

Die von Ihnen verfassten Kommentare erscheinen nicht sofort, sondern erst nach Prüfung und Freigabe durch unseren Administrator. Bitte beachten Sie auch unsere Nutzungsbedingungen und unsere Datenschutzerklärung.