Dieses Bild wurde mit der KI Midjourney von dem appliedAI Institute for Europe gGmbH generiert.

Europäische KI-Verordnung (AI Act)

Der regulatorische Wandel

Die europäische KI-Verordnung (eng. AI Act) steht kurz vor der Verabschiedung und wird das gesamte KI-Ökosystem in der EU grundlegend verändern. Die Verordnung zielt darauf ab, die Einführung von vertrauenswürdiger KI zu fördern, d.h. die KI-Systeme müssen gesetzeskonform, robust und ethisch sein.

Auswirkungen auf das Ökosystem

Die KI Verordnung wirkt sich auf die Entwicklung, Vermarktung und Nutzung von KI in der Europäischen Union aus, und es ist zu erwarten, dass die zusätzlichen Anforderungen die Kosten und die Komplexität von KI erhöhen werden. Alle Beteiligten stehen vor neuen technischen, rechtlichen und organisatorischen Herausforderungen, und die Strafen für die Nichteinhaltung der Vorschriften sind beträchtlich: ein einem der Entwürfe ist von bis zu 6 % des weltweiten Jahresumsatzes oder 30 Mio. €, je nachdem, welcher Betrag höher ist, die Rede.

Unser Ziel

Die appliedAI Institute for Europe gGmbh hat sich zum Ziel gesetzt, vertrauenswürdige KI im großen Maßstab zu fördern, indem es mit den unterschiedlichen Akteuren des KI-Ökosystems zusammenarbeitet, um gemeinsam Methoden, Werkzeuge, Richtlinien, Trainings und andere Ressourcen zu entwickeln. Konkret sind unsere Ziele:

  • Senkung der Kosten für Konformität mit der KI Verordnung
  • Verkürzung der Innovationszyklen unter dem neuen Regelwerk
  • Entwicklung von vertrauenswürdiger KI in großem Maßstab

Diese Seite ist die erste Anlaufstelle, um mit uns gemeinsam auf diese Ziele hinzuarbeiten. Wir informieren Dich über den aktuellen Stand unserer Arbeit, laden Dich ein, uns Dein Feedback und Deine Ideen mitzuteilen und gemeinsam mit uns die richtigen Hilfsmittel für die Navigation durch die kommende Verordnung zu entwickeln.


Unsere Methode zur Risikoklassifizierung

Ob und in welchem Umfang zusätzliche Pflichten nach der KI-Verordnung anwendbar sind, hängt maßgeblich von der Risikoklasse jeweiligen KI-Anwendungsfalls (oder des "KI-Systems", wie es in der KI-Verordnung genannt wird) ab. Die Risikoklasse richtet sich insbesondere nach dem Verwendungszweck des KI-Systems, dem Anwendungsbereich und dem potenziellen Schaden, der mit seiner Nutzung verbunden ist. Es sind vier Risikoklassen vorgesehen:

  • Verboten (siehe Artikel 5)

  • Hohes Risiko (siehe Artikel 6)

  • Limitiertes Risiko (Artikel 52)

  • Geringes Risiko (siehe Artikel 69)

Wie die KI-Verordnung selbst ist auch die Methode ein in Bearbeitung und nicht final (Stand: Juli 2023) und wir freuen uns darauf, sie kontinuierlich anzupassen und zu verbessern. Mach mit und hilf uns, diese Methode mitzugestalten: vom KI-Ökosystem für das KI-Ökosystem!

  • Schritt 1: Ist das System ein "KI-System"?
  • Schritt 2: Fällt das KI-System in den Anwendungsbereich der KI-Verordnung?
  • Schritt 3: Ist das KI-System in der EU verboten?
  • Schritt 4: Hat das KI-System eine Schnittstelle zu Menschen?
  • Schritt 5: Ist das KI-System ein Hochrisikosystem?



Vor diesem Hintergrund arbeiten wir an einer offenen Methode zur Risikoklassifizierung, auf die man hier zugreifen kann (siehe unten) Probiere sie gerne aus, und sag uns, was Du davon hältst!

Unsere Datenbank zur Risikoklassifizierung

Unser Ziel ist es, eine offene Bibliothek von Fällen als Referenz für jeden zu entwickeln, der KI in einem Funktionsbereich des Unternehmens anwenden möchte. Wichtig: Dies ist keine Rechtsberatung. Wir übernehmen keine Verantwortung für die Korrektheit der bereitgestellten Informationen. Bitte verwende sie daher nur als Beispiel!

Welche Daten finde ich hier?

Diese Tabelle enthält insgesamt 106 KI-Systeme (aka. “Use Cases”) im Unternehmen mit einer Risikoklassifizierung nach der kommenden KI-Verordnung, unter Bezugnahme auf die Vorschläge der

  • der EU-Kommission (April 2021)
  • der Änderungsanträge des EU-Parlaments (Anfang/Mitte 2022)
  • des EU-Rates (Dezember 2022)

Für jedes AI-System enthält die Tabelle

  • ID
  • Titel (nur EN)
  • Beschreibung (EN & DE)
  • Unternehmensfunktion (z.B. Marketing, Produktion, HR, Recht, ... )
  • Risikoklasse (Hohes Risiko, Geringes Risiko, Verboten)
  • Details zur Klassifizierung
  • Anwendbarer Anhang der KI-Verordnung (II oder III)
  • Für Anhang III: Der zutreffende Unterpunkt (1-8)
  • Bei hohem Risiko oder unklarer Einstufung: Kommentar mit einer Begründung


Wo liegen die Grenzen der Daten und der Analyse?


  • Fokus auf KI im Unternehmen

Die untersuchten KI-Systeme stammen alle aus dem Unternehmenskontext, d.h. KI in anderen Anwendungsbereichen, wie z.B. für bestimmte Branchen (z.B. Medizin, Luft- und Raumfahrt, Automobil) oder Sektoren (z.B. Bildung, öffentliche Verwaltung, Gesundheitswesen), sind nicht enthalten. Die Ergebnisse sind daher nicht repräsentativ für die Gesamtheit aller KI-Anwendungen, geben aber einen sehr guten und breiten Überblick über KI in Funktionsbereichen von Unternehmen.

  • Bedeutung der untersuchten KI-Systeme für Unternehmen in Europa

Die untersuchten KI-Systeme sind derzeit im Einsatz, allerdings nicht nur in Europa. Daher können wir keine Aussage darüber treffen, ob und inwieweit die Auswahl der KI-Systeme repräsentativ für KI in europäischen Unternehmen ist.

  • Begrenzte Informationen über KI-Systeme

Die Beschreibungen der KI-Systeme waren begrenzt und in einigen Fällen war das Fehlen von Details ein Grund für eine unklare Klassifizierung. Mit mehr Informationen würde der Anteil der unklaren Fälle möglicherweise sinken. Diese Beobachtung zeigt, dass für eine eindeutige Klassifizierung umfassende Details über das KI-System bekannt sein müssen.

  • Änderungen der AI-Verordnung

Diese Studie wurde während der laufenden Verhandlungen über die KI-Verordnung erstellt. Wir haben uns bemüht, für alle KI-Systeme den gleichen Standard anzuwenden und abweichende Regeln aus den letzten Entwürfen aufzugreifen und als solche zu kennzeichnen. Künftige Änderungen können zu anderen Klassifizierungen führen.

  • Mögliche Fehler

Die KI-Verordnung ist ein umfassendes und komplexes Regelwerk, und KI ist eine komplexe und vielschichtige Technologie. Beide entwickeln sich ständig weiter. Die Autoren haben sich ausführlich mit beiden Themen befasst, und es gab verschiedene Überprüfungszyklen, um die Studie mit Juristen sowie Experten der EU-Institutionen zu überprüfen. Dennoch ist nicht auszuschließen, dass sich bei der Erstellung der Studie Fehler eingeschlichen haben.


Wie kann ich einen Beitrag leisten oder um Hilfe bitten?

Trage Dein KI-System zu dieser Sammlung bei, damit wir von anderen Fällen lernen können. Fülle das Formular aus, damit Dein KI-System in diese öffentliche Datenbank aufgenommen wird.

Bitte appliedAI um Unterstützung bei der Klassifizierung Deines KI-Systems und senden Sie eine E-Mail an uns.