Virtuelle Darstellung von Bestandteilen der AI

Funtap | Canva

EU-Verordnung Artificial Intelligence Act (AI Act)

Erfahren Sie in diesem Steckbrief, welche Änderungen durch die EU-Verordnung auf Sie zukommen.

Problem und Ziel des AI Acts (Artificial Intelligence Act)

Die Verordnung für Künstliche Intelligenz (KI) oder englisch auch Artificial Intelligence Act (AI Act) ist Teil der digitalen Dekade der EU und legt einen Rechtsrahmen für KI fest. Mithilfe von KI kann der Wohlstand auf der Welt gesteigert werden. Denn durch effizientere und automatisierte Prozesse können viele einfache und repetitive Tätigkeiten durch Künstliche Intelligenz zumindest teilweise ersetzt werden. Aber auch neue Geschäftsmodelle können entwickelt werden. Gleichzeitig gibt es dennoch einige Befürchtungen über z. B. Grundrechtsverletzungen und Urheberrechtsverletzungen bei der Verwendung von künstlicher Intelligenz. So können verzerrte Datensätze zu Ergebnissen führen, die Personen mit bestimmten Merkmalen systematisch diskriminieren. Mit dem Beschluss der KI-Verordnung stellt die EU sicher, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nichtdiskriminierend und umweltfreundlich sind. Darüber hinaus soll für Entwickler Rechtssicherheit geboten und Innovationen gefördert werden.

Welche Punkte des AI Act sind für den Mittelstand besonders relevant?

Risikobasierter Regulierungsansatz

KI-Anwendungen werden nach der Verordnung in vier unterschiedliche Risikostufen unterteilt und verschieden reguliert. Das Herzstück stellt dabei die Regulierung der Anwendungen mit hohem Risiko dar.

  • Kategorie 1 Geringes oder minimales Risiko: Für Systeme mit geringem oder minimalem Risiko, wie beispielswiese Spamfilter oder Suchalgorithmen, sind keinerlei zusätzliche rechtliche Verpflichtungen vorgesehen.
  • Kategorie 2 – Begrenztes Risiko: Bei Anwendungen, die als begrenztes Risiko eingestuft werden, gilt eine minimale Transparenz- und Informationspflicht über den Einsatz selbst und darüber, dass die dargestellten Inhalte manipuliert und nicht echt sind. Darunter fallen beispielsweise KI-Systeme, die mit Menschen (natürlichen Personen) interagieren (z. B. Chatbots auf KI-Grundlage). Dies können Anwendungen im Bereich Text-zu-Bild-Generierung oder auch Videogenerierung sein.
  • Kategorie 3 – Hohes Risiko: Ein großer Teil der Auflagen sind für Anwendungen angedacht, die als Hochrisikosysteme eingestuft werden. Sie sollen künftig strengen Anforderungen und Konformitätsprüfungen unterliegen. So ist zum Beispiel ein umfassendes Qualitäts- und Risikomanagementsystem, in dem unter anderem Entscheidungsvorgänge, Datenqualität und Transparenz dokumentiert und nachgewiesen werden müssen, einzurichten. Die unter ein hohes Risiko fallenden Anwendungen sind dabei im Anhang 3 der Verordnung vermerkt. Darunter fallen beispielsweise Anwendungen aus den Bereichen Personalmanagement, der allgemeinen und beruflichen Bildung sowie in gewissen Teilen der Industrie, wenn sie als Sicherheitskomponenten oder -bauteilen zum Einsatz kommen.
  • Kategorie 4 – Unannehmbares Risiko: Bei dieser Einstufung gelten Anwendungen von KI als Bedrohung für den Menschen und werden daher verboten. Darunter fallen so genanntes „social scoring“, d. h. Klassifizierung von Menschen und Personen anhand persönlicher Merkmale, Verhalten und des sozio-ökonomischen Status, aber auch die Manipulation von menschlichem Verhalten oder bestimmter gefährdeter Gruppen.

Einführung von Reallaboren (regulatory Sandboxes)

Bis zum 2. August, also 24 Monate nach Inkrafttreten der Verordnung musste jeder EU-Mitgliedsstaat mindestens ein Reallabor einführen. Reallabore sollen die Entwicklung von Innovationen im Bereich KI fördern. Sie sollen eine kontrollierte Umgebung für das Testen und Validieren neuer Systeme unter realen Bedingungen bieten, bevor sie schlussendlich auf den Markt eingeführt werden. Damit können technische Innovationen schneller erprobt und umgesetzt werden. In der Regel können Unternehmen sechs Monate lang Reallabore nutzen. In Ausnahmefällen ist auch eine Verlängerung bis zu einem Jahr möglich. Für KMU sind ein kostenloser Zugang und ein priorisierter Zugang vorgesehen.

Einschätzung des BVMW zum AI Act

Der BVMW sieht die EU-Verordnung skeptisch. Während ein Verbot von social profiling zu begrüßen ist, stehen die Auflagen zur Verbraucherfreundlichkeit im Konflikt mit der Förderung von Innovationen. Deswegen sollte eine Umsetzung bürokratiearm und praxisnah durchgeführt werden. Bei der Benennung einer nationalen Behörde ist es hier wichtig, dass auch Fachleute aus der Wirtschaft ihre Expertise in die Arbeit der Behörde einbringen. Ebenfalls sollte, wie auch in der EU-Verordnung angekündigt, ein niedrigschwelliger Zugang für KMU und Start-ups ermöglicht werden.