Online-Nachricht - Freitag, 09.06.2023

Gesetzgebung | Regulierung künstlicher Intelligenz (EP)

Als Teil ihrer digitalen Strategie will die EU künstliche Intelligenz (KI) regulieren, um bessere Bedingungen für die Entwicklung und Nutzung dieser innovativen Technologie zu schaffen. Vor diesem Hintergrund hat die EU-Kommission im April 2021 den ersten EU-Rechtsrahmen für KI vorgeschlagen. Darin wird empfohlen, dass KI-Systeme, die in verschiedenen Anwendungen eingesetzt werden können, je nach dem Risiko, das sie für die Nutzer darstellen, analysiert und eingestuft werden.

Hierzu führt das Europäische Parlament (EP) weiter aus:

Das EP will vor allem sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nicht diskriminierend und umweltfreundlich sind. KI-Systeme sollten von Menschen und nicht von der Automatisierung überwacht werden, um schädliche Ergebnisse zu verhindern.

Das Parlament möchte außerdem eine technologieneutrale, einheitliche Definition für KI festlegen, die auf zukünftige KI-Systeme angewendet werden könnte.

Die neuen Vorschriften sollen Verpflichtungen für Anbieter und Nutzer festlegen, die sich nach dem Risiko, das von dem KI-System ausgeht, richten. Obwohl viele KI-Systeme ein minimales Risiko darstellen, müssen sie bewertet werden. Differenziert werden soll zwischen unannehmbarem Risiko, hohem Risiko und begrenztem Risiko. Generative Foundation-Modelle wie ChatGPT sollen zusätzliche Transparenzanforderungen erfüllen müssen.

KI-Systeme stellen ein unannehmbares Risiko dar, wenn sie als Bedrohung für Menschen gelten. Diese KI-Systeme sollen verboten werden. Sie umfassen:

  • kognitive Verhaltensmanipulation von Personen oder bestimmten gefährdeten Gruppen, zum Beispiel sprachgesteuertes Spielzeug, das gefährliches Verhalten bei Kindern fördert;

  • Soziales Scoring: Klassifizierung von Menschen auf der Grundlage von Verhalten, sozioökonomischem Status und persönlichen Merkmalen;

  • biometrischen Echtzeit-Fernidentifizierungssystemen, z.B. Gesichtserkennung.

Einige Ausnahmen sollen zulässig sein: So sollen beispielsweise System zur nachträglichen biometrischen Fernidentifizierung, bei denen die Identifizierung erst mit erheblicher Verzögerung erfolgt, zur Verfolgung schwerer Straftaten und nur nach gerichtlicher Genehmigung zugelassen werden.

KI-Systeme, die ein hohes Risiko für die Gesundheit und Sicherheit oder für die Grundrechte natürlicher Personen darstellen, gelten als hochriskant und sollen in zwei Hauptkategorien eingeteilt werden.

1. KI-Systeme, die in Produkten verwendet werden, die unter die Produktsicherheitsvorschriften der EU fallen. Dazu gehören Spielzeug, Luftfahrt, Fahrzeuge, medizinische Geräte und Aufzüge.

2. KI-Systeme, die in acht spezifische Bereiche fallen, und die in einer EU-Datenbank registriert werden müssen:

  • biometrische Identifizierung und Kategorisierung von natürlichen Personen;

  • Verwaltung und Betrieb von kritischen Infrastrukturen;

  • allgemeine und berufliche Bildung;

  • Beschäftigung, Verwaltung der Arbeitnehmer und Zugang zur Selbstständigkeit;

  • Zugang zu und Inanspruchnahme von wesentlichen privaten und öffentlichen Diensten und Leistungen;

  • Strafverfolgung;

  • Verwaltung von Migration, Asyl und Grenzkontrollen;

  • Unterstützung bei der Auslegung und Anwendung von Gesetzen.

Alle KI-Systeme mit hohem Risiko sollen vor dem Inverkehrbringen und während ihres gesamten Lebenszyklus bewertet werden.

Generative KI-Modelle wie ChatGPT sollen zusätzliche Transparenzanforderungen erfüllen müssen:

  • Offenlegung, dass der Inhalt durch KI generiert wurde;

  • Gestaltung des Modells, um zu verhindern, dass es illegale Inhalte erzeugt;

  • Veröffentlichung von Zusammenfassungen urheberrechtlich geschützter Daten, die für das Training verwendet wurden.

KI-Systeme mit begrenztem Risiko sollten minimale Transparenzanforderungen erfüllen müssen, die es den Nutzern ermöglichen, fundierte Entscheidungen zu treffen. Nach der Interaktion mit den Anwendungen soll der Nutzer dann entscheiden können, ob er sie weiter verwenden möchte. Die Nutzer sollten darauf aufmerksam gemacht werden, wenn sie mit KI interagieren. Dies gilt auch für KI-Systeme, die Bild-, Audio- oder Videoinhalte erzeugen oder manipulieren (z.B. Deepfakes).

Die nächsten Schritte:

Das EP wird seine Verhandlungsposition voraussichtlich auf der Plenartagung im Juni 2023 festlegen. Danach werden die Gespräche mit den EU-Mitgliedstaaten im Rat über die endgültige Form des Gesetzes beginnen.

Ziel ist es, bis Ende des Jahres eine Einigung zu erzielen.

Weitere Informationen zum Thema sind auf der Homepage des EP veröffentlicht.

Quelle: EP online, Meldung v. (il)

Fundstelle(n):
NWB JAAAJ-41576