Europäische KI-Verordnung (AI Act)

Was bedeutet der AI Act für uns? Was sind die Auswirkungen auf das Ökosystem? Erfahre mehr zum AI Act in unserem Positionspapier. 

Was ist der EU AI Act?

Am 9. Dezember um 00:18 Uhr gaben die EU-Verhandlungsführer bekannt, dass ein politischer Kompromiss zum EU AI Act, der weltweit ersten umfassenden KI-Verordnung, gefunden wurde. Die Verordnung zielt darauf ab, die breite Einführung von KI zu fördern, indem sie die Implementierung von vertrauenswürdiger KI vorschreibt, was bedeutet, dass die KI-Systeme rechtmäßig, robust und ethisch einwandfrei sein müssen.

Was sind die Auswirkungen auf das Ökosystem?

Während der Rechtsrahmen den Grundstein legt, liegt die eigentliche Arbeit für seine Umsetzung noch vor uns. Ob der AI Act die KI-Innovation in Europa vorantreibt oder durch bürokratische Verfahren behindert, wird sich in den nächsten Monaten entscheiden. Wir vom appliedAI Institute setzen uns dafür ein, vertrauenswürdige KI in großem Maßstab für die verschiedenen Akteure im KI-Ökosystem der EU zu beschleunigen.

Wie sieht die Timeline aus?

Der AI Act verdrahtet die gesamte KI-Wertschöpfungskette neu und wirkt sich auf verschiedene Zertifizierungs- und Aufsichtsstellen aus. Daher muss eine Vielzahl von Akteuren, sowohl im privaten als auch im öffentlichen Sektor, Fachwissen und Ressourcen aufbauen, um die neuen Anforderungen zu erfüllen. Die Übergangsfristen sind nach Risikoklassen gestaffelt:

  • 6 Monate für verbotene KI-Systeme

  • 12 Monate für Foundations Models und General Purpose AI Systems (GPAIS)

  • 24 Monate für KI-Systeme mit hohem und niedrigem Risiko.

Was ist unser Ziel?

Die appliedAI Institute for Europe gGmbh hat sich zum Ziel gesetzt, vertrauenswürdige KI im großen Maßstab zu fördern, indem es mit den unterschiedlichen Akteuren des KI-Ökosystems zusammenarbeitet, um gemeinsam Methoden, Werkzeuge, Richtlinien, Trainings und andere Ressourcen zu entwickeln.

Konkret sind unsere Ziele:

  • Bildung: Weiterbildung von Fachleuten im KI-Ökosystem zur KI-Verordnung, um die "Legislative Literacy" zu fördern und dabei die Bedürfnisse der verschiedenen Interessengruppen zu berücksichtigen.

  • Communities: Exzellente und vertrauensvolle Beziehungen sind der Schlüssel zur Einhaltung des Gesetzes, sei es entlang der Wertschöpfungskette oder zwischen Unternehmen und Behörden. Wir schaffen einen Raum für Austausch und Zusammenarbeit.

  • Insights: Wenn wir es nicht messen können, können wir es auch nicht kontrollieren. Wir werden weiterhin empirische Studien und Untersuchungsberichte aus praktischer Sicht veröffentlichen, um eine evidenzbasierte Politik zu ermöglichen.

  • Tools: Viele Anforderungen, z. B. für KI-Systeme mit hohem Risiko, sind zutiefst technisch, und wir unterstützen die Einhaltung dieser Anforderungen, indem wir Open-Source-Tools für diesen Zweck evaluieren, optimieren und entwickeln.

Unsere Position zum AI Act

Europa steht kurz davor, Geschichte zu schreiben, indem der EU AI Act verabschiedet wird.

Hier findest Du mehr zu unserer Stellungnahme

27. Januar 2024 - Auf den letzten Metern der Gespräche könnte der EU AI Act an der Enthaltung einiger Länder scheitern. Dabei wäre kein AI Act zum aktuellen Zeitpunkt der Dynamik und vor dem Hintergrund der entstehenden Unsicherheit negativer als ein Zustandekommen des AI Acts. Europas größte KI-Initiative appliedAI bezieht Stellung zu den aktuellen Entwicklungen und befürworten die Verabschiedung des EU AI Acts.


13. Dezember 2023 - In unserem Positionspapier möchten wir darlegen, warum es jetzt an der Zeit ist, "AI Act ready" zu werden, und was es für uns bedeutet, der offen zugängliche Beschleuniger für vertrauenswürdige KI zu sein.


Unsere Methode zur Risikoklassifizierung

Ob und in welchem Umfang zusätzliche Pflichten nach der KI-Verordnung anwendbar sind, hängt maßgeblich von der Risikoklasse jeweiligen KI-Anwendungsfalls (oder des "KI-Systems", wie es in der KI-Verordnung genannt wird) ab. Die Risikoklasse richtet sich insbesondere nach dem Verwendungszweck des KI-Systems, dem Anwendungsbereich und dem potenziellen Schaden, der mit seiner Nutzung verbunden ist. Es sind vier Risikoklassen vorgesehen:

  • Verboten (siehe Artikel 5)

  • Hohes Risiko (siehe Artikel 6)

  • Limitiertes Risiko (Artikel 52)

  • Geringes Risiko (siehe Artikel 69)

Wie die KI-Verordnung selbst ist auch die Methode ein in Bearbeitung und nicht final (Stand: Juli 2023) und wir freuen uns darauf, sie kontinuierlich anzupassen und zu verbessern. Mach mit und hilf uns, diese Methode mitzugestalten: vom KI-Ökosystem für das KI-Ökosystem!

  • Schritt 1: Ist das System ein "KI-System"?
  • Schritt 2: Fällt das KI-System in den Anwendungsbereich der KI-Verordnung?
  • Schritt 3: Ist das KI-System in der EU verboten?
  • Schritt 4: Hat das KI-System eine Schnittstelle zu Menschen?
  • Schritt 5: Ist das KI-System ein Hochrisikosystem?



Vor diesem Hintergrund arbeiten wir an einer offenen Methode zur Risikoklassifizierung, auf die man hier zugreifen kann (siehe unten) Probiere sie gerne aus, und sag uns, was Du davon hältst!

Unsere Datenbank zur Risikoklassifizierung

Unser Ziel ist es, eine offene Bibliothek von Fällen als Referenz für jeden zu entwickeln, der KI in einem Funktionsbereich des Unternehmens anwenden möchte. Wichtig: Dies ist keine Rechtsberatung. Wir übernehmen keine Verantwortung für die Korrektheit der bereitgestellten Informationen. Bitte verwende sie daher nur als Beispiel!

Welche Daten finde ich hier?

Diese Tabelle enthält insgesamt 106 KI-Systeme (aka. “Use Cases”) im Unternehmen mit einer Risikoklassifizierung nach der kommenden KI-Verordnung, unter Bezugnahme auf die Vorschläge der

  • der EU-Kommission (April 2021)
  • der Änderungsanträge des EU-Parlaments (Anfang/Mitte 2022)
  • des EU-Rates (Dezember 2022)

Für jedes AI-System enthält die Tabelle

  • ID
  • Titel (nur EN)
  • Beschreibung (EN & DE)
  • Unternehmensfunktion (z.B. Marketing, Produktion, HR, Recht, ... )
  • Risikoklasse (Hohes Risiko, Geringes Risiko, Verboten)
  • Details zur Klassifizierung
  • Anwendbarer Anhang der KI-Verordnung (II oder III)
  • Für Anhang III: Der zutreffende Unterpunkt (1-8)
  • Bei hohem Risiko oder unklarer Einstufung: Kommentar mit einer Begründung


Wo liegen die Grenzen der Daten und der Analyse?


  • Fokus auf KI im Unternehmen

Die untersuchten KI-Systeme stammen alle aus dem Unternehmenskontext, d.h. KI in anderen Anwendungsbereichen, wie z.B. für bestimmte Branchen (z.B. Medizin, Luft- und Raumfahrt, Automobil) oder Sektoren (z.B. Bildung, öffentliche Verwaltung, Gesundheitswesen), sind nicht enthalten. Die Ergebnisse sind daher nicht repräsentativ für die Gesamtheit aller KI-Anwendungen, geben aber einen sehr guten und breiten Überblick über KI in Funktionsbereichen von Unternehmen.

  • Bedeutung der untersuchten KI-Systeme für Unternehmen in Europa

Die untersuchten KI-Systeme sind derzeit im Einsatz, allerdings nicht nur in Europa. Daher können wir keine Aussage darüber treffen, ob und inwieweit die Auswahl der KI-Systeme repräsentativ für KI in europäischen Unternehmen ist.

  • Begrenzte Informationen über KI-Systeme

Die Beschreibungen der KI-Systeme waren begrenzt und in einigen Fällen war das Fehlen von Details ein Grund für eine unklare Klassifizierung. Mit mehr Informationen würde der Anteil der unklaren Fälle möglicherweise sinken. Diese Beobachtung zeigt, dass für eine eindeutige Klassifizierung umfassende Details über das KI-System bekannt sein müssen.

  • Änderungen der AI-Verordnung

Diese Studie wurde während der laufenden Verhandlungen über die KI-Verordnung erstellt. Wir haben uns bemüht, für alle KI-Systeme den gleichen Standard anzuwenden und abweichende Regeln aus den letzten Entwürfen aufzugreifen und als solche zu kennzeichnen. Künftige Änderungen können zu anderen Klassifizierungen führen.

  • Mögliche Fehler

Die KI-Verordnung ist ein umfassendes und komplexes Regelwerk, und KI ist eine komplexe und vielschichtige Technologie. Beide entwickeln sich ständig weiter. Die Autoren haben sich ausführlich mit beiden Themen befasst, und es gab verschiedene Überprüfungszyklen, um die Studie mit Juristen sowie Experten der EU-Institutionen zu überprüfen. Dennoch ist nicht auszuschließen, dass sich bei der Erstellung der Studie Fehler eingeschlichen haben.


Wie kann ich einen Beitrag leisten oder um Hilfe bitten?

Trage Dein KI-System zu dieser Sammlung bei, damit wir von anderen Fällen lernen können. Fülle das Formular aus, damit Dein KI-System in diese öffentliche Datenbank aufgenommen wird.

Bitte appliedAI um Unterstützung bei der Klassifizierung Deines KI-Systems und senden Sie eine E-Mail an uns.