Scroll Top

AI Act (KI-Verordnung) Künstliche Intelligenz-Gesetzgebung der EU – ein Überblick

PFD_5524

Im April 2021 legte die EU-Kommission einen Vorschlag für ein EU-regulatorisches Rahmenwerk für künstliche Intelligenz (KI-VO) vor. Der Rat hat Ende 2022 seinen gemeinsamen Standpunkt („allgemeine Ausrichtung“) zum Gesetz über künstliche Intelligenz festgelegt. Das Parlament stimmte im Juni 2023 über seinen Standpunkt ab. 

Die EU-Gesetzgeber beginnen nun mit den Verhandlungen über die endgültige Fassung der neuen Rechtsvorschriften 

ZIEL DER VERORDNUNG

Die KI-VO soll sicherstellen, dass der Binnenmarkt ordnungsgemäß funktioniert, indem die Entwicklung und Verwendung vertrauenswürdiger KI-Systeme in der EU ermöglicht werden. Es schafft einen harmonisierten Rechtsrahmen für die Entwicklung, das Inverkehrbringen und die Verwendung von KI-Produkten und -Dienstleistungen. 

RISIKOBASIERTER ANSATZ

Die KI-VO verfolgt einen risikobasierten Ansatz, bei dem die rechtliche Intervention an das konkrete Risikoniveau angepasst wird. Es unterscheidet zwischen KI-Systemen mit (a) inakzeptablem Risiko, (b) hohem Risiko, (c) begrenztem Risiko und (c) geringem oder minimalem Risiko.

INAKZEPTABLES RISIKO: Verbotene KI-Systeme

Das Gesetz verbietet bestimmte KI-Systeme, die als klare Bedrohung für die Sicherheit und die Rechte der Menschen angesehen werden. Dazu gehören zum Beispiel KI-Systeme, die schädliche manipulative Techniken einsetzen sowie solche, die bestimmte vulnerable Gruppen (physische oder geistige Behinderungen) ausnutzen. Der Einsatz von Echtzeit-Gesichtserkennungssystemen in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken ist ebenfalls (mit einigen wenigen Ausnahmen) nicht erlaubt.

HOHES RISIKO: Regulierte hochriskante KI-Systeme

Das Gesetz regelt KI-Systeme mit hohem Risiko, die negative Auswirkungen auf die Sicherheit oder die Grundrechte der Menschen haben. Es unterscheidet zwischen zwei Kategorien von hochriskanten KI-Systemen. Erstens solche, die als Komponente eines Produkts fungieren. Zweitens KI-Systeme, die in acht spezifischen Bereichen eingesetzt werden, die in der Anlage der VO identifiziert sind, die bei Bedarf aktualisiert werden könnte. Danach gelten etwa KI-Systeme, die Menschen anhand von biometrischen Daten identifizieren, als Hochrisikosysteme. Auch KI-Systeme, die bei kritischer Infrastruktur (Gas, Wasser, Strom, etc.) eingesetzt werden, sowie im Rahmen von Bildung, Beschäftigung, Strafverfolgung, Migration und in der Rechtspflege haben laut EU ein hohes Risiko.

Sobald ein KI-System als Hochrisikosystem eingestuft wird, muss es u.a. bestimmte Anforderungen erfüllen und folgende Aspekte gewährleisten:

  • Risikomanagement-System
  • Datenqualität, keine Diskriminierung 
  • Technische Dokumentationen: 
  • Transparenz: Den Nutzern des KI-Systems müssen klar definierte Informationen über das System und den Anbieter zur Verfügung gestellt werden.
  • Cybersicherheit
  • Beaufsichtigung durch Menschen

BEGRENZTES RISIKO: Transparenzverpflichtungen

KI-Systeme mit “begrenztem Risiko”, unterliegen nur Transparenzverpflichtungen.

GERINGES ODER MINIMALES RISIKO: Keine Verpflichtungen

Alle anderen KI-Systeme, die nur ein geringes oder minimales Risiko darstellen, können in der EU ohne zusätzliche rechtliche Verpflichtungen entwickelt und verwendet werden. 

AKTUELLE SITUATION

Die KI-VO befindet sich derzeit im Trilog-Verfahren, bei dem die Europäische Kommission, das Europäische Parlament und der Rat zusammenarbeiten, um das endgültige Gesetzgebungsverfahren abzuschließen. Änderungen an der ursprünglichen Gesetzesvorlage wurden vorgeschlagen, einschließlich der Überarbeitung der Definition von KI-Systemen und der Erweiterung der Liste verbotener KI-Systeme. Die endgültige Annahme einer KI-VO wird für Ende 2023 erwartet.

Wir beraten Unternehmen, die sich auf die neue Gesetzgebung rechtzeitig vorbereiten und informiert bleiben wollen. Sprechen Sie uns an!

Verwandte Beiträge