Virtuelle Darstellung von Bestandteilen der AI

Funtap | Canva

EU-Verordnung Artificial Intelligence Act (AI Act)

Erfahren Sie in diesem Steckbrief, welche Änderungen durch die EU-Verordnung auf Sie zukommen.

Problem und Ziel des AI Acts (Artificial Intelligence Act)

Die Verordnung für Künstliche Intelligenz (KI) oder englisch auch Artificial Intelligence Act (AI Act) ist Teil der digitalen Dekade der EU und soll eine rechtliche Grundlage für die Regulierung künstlicher Intelligenz festlegen. KI wird in der Zukunft eine große Rolle spielen und kann mit ihren vielfältigen Anwendungsmöglichkeiten für größeren Wohlstand auf der Welt sorgen. Durch effizientere und automatisierte Prozesse können viele einfache und repetitive Tätigkeiten durch Künstliche Intelligenz zumindest teilweise ersetzt werden. Gleichzeitig gibt es dennoch einige Befürchtungen über z. B. Grundrechtsverletzungen und Urheberrechtsverletzungen bei der Verwendung von künstlicher Intelligenz. So können verzerrte Datensätze zu Ergebnissen führen, die Personen mit bestimmten Merkmalen systematisch diskriminieren. Mit dem AI Act möchte die EU sicherstellen, dass die in der EU eingesetzten KI-Systeme sicher, transparent, nachvollziehbar, nichtdiskriminierend und umweltfreundlich sind. Darüber hinaus soll für Entwickler Rechtssicherheit geboten werden, um Innovationen zu erleichtern.

Welche Punkte des AI Act sind für den Mittelstand besonders relevant?

Risikobasierter Regulierungsansatz

KI-Anwendungen werden in vier unterschiedliche Risikostufen unterteilt und verschieden reguliert. Das Herzstück stellt dabei die Regulierung eines hohen Risikos dar.

  1. Unannehmbares Risiko: Bei dieser Einstufung gilt das KI-System als Bedrohung für den Menschen und wird daher verboten. Darunter fallen so genanntes „social scoring“, d. h. Klassifizierung von Menschen und Personen anhand persönlicher Merkmale, Verhalten und des sozio-ökonomischen Status, aber auch Verhaltensmanipulationen von Personen oder bestimmten gefährdeten Gruppen und biometrische Echtzeit-Fernidentifizierungssysteme wie zum Beispiel Gesichtserkennung.
  2. Hohes Risiko: Ein großer Teil der Auflagen sind für Anwendungen angedacht, die als Hochrisikosysteme eingestuft werden. Sie sollen künftig strengen Anforderungen und Konformitätsprüfungen unterliegen. So ist zum Beispiel ein umfassendes Qualitäts- und Risikomanagementsystem, in dem unter anderem Entscheidungsvorgänge, Datenqualität und Transparenz dokumentiert und nachgewiesen werden müssen, einzurichten. Die unter ein hohes Risiko fallenden Anwendungen sind dabei im Annex 3 der Verordnung vermerkt. Darunter fallen nach aktuellem Stand beispielsweise Anwendungen aus den Bereichen Biometrische Identifikation, Anwendungen in kritischer Infrastruktur, im Personalmanagement, in der allgemeinen und beruflichen Bildung, Strafverfolgung, Verwaltung von Migration sowie Asyl, Zugang zu öffentlichen Diensten und Leistungen oder der Unterstützung bei der Auslegung und Anwendung von Gesetzen sowie in gewissen Teilen der Industrie, wenn sie als Sicherheitskomponenten oder -bauteile zum Einsatz kommen.
  3. Begrenztes Risiko: Bei Anwendungen, die als begrenztes Risiko eingestuft werden, gilt eine minimale Transparenz- und Informationspflicht über den Einsatz selbst und darüber, dass die dargestellten Inhalte manipuliert und nicht echt sind. Darunter fallen beispielsweise KI-Systeme, die mit Menschen (natürlichen Personen) interagieren (z. B. Chatbots auf KI-Grundlage). Dies können Anwendungen im Bereich Text-zu-Bild-Generierung oder auch Videogenerierung sein.
  4. Geringes oder minimales Risiko: Für Systeme mit geringem oder minimalem Risiko, wie beispielswiese Spamfilter oder Suchalgorithmen, sind keinerlei zusätzliche rechtliche Verpflichtungen vorgesehen.

Einführung von Reallaboren (regulatory Sandboxes)

Um die Entwicklung von Innovationen im Bereich der KI zu fördern, möchte die EU Reallabore, bzw. „regulatory sandboxes“ einrichten. Sie sollen eine kontrollierte Umgebung für das Testen und Validieren neuer Systeme unter realen Bedingungen bieten, bevor sie schlussendlich auf den Markt eingeführt werden. Damit können technische Innovationen schneller erprobt und umgesetzt werden.

Einschätzung des BVMW zum AI Act

Der BVMW sieht die EU-Verordnung skeptisch. Während ein Verbot von social profiling zu begrüßen ist, stehen die Auflagen zur Verbraucherfreundlichkeit im Konflikt mit der Förderung von Innovationen. Deswegen gilt es hier, einen guten Kompromiss zu finden, der gerade KMU und Start-ups nicht die Möglichkeiten der Entwicklung und Anwendung von KI verbaut. Denn es wird befürchtet, dass die Kosten für die Erfüllung der Compliance-Vorgaben zu einem Ausschluss von KMU und Start-ups führen. Daneben gilt es, eine möglichst genaue Definition von KI zu finden, die normale Softwareentwicklungen nicht mit einbezieht. Auch Konformitätsprüfungen für Hochrisiko-KI sollten möglichst bürokratiearm und effizient umsetzbar sein. Hier sollte bei erfolgreich eingereichten Unterlagen nach maximal einen Monat eine Genehmigung erteilt werden. Auch bei der Nutzung von „regulatory sandboxes“ darf die Bürokratie kein Hemmnis sein, da es sonst für die meisten KMU aufgrund von zu hohen Kosten kaum attraktiv wird.