Regulationrisk-classificationhigh-riskcompliance

EU-KI-Verordnung Risikoklassifizierung: Vier Stufen erklärt

Vertiefte Analyse des vierstufigen Risikoklassifizierungssystems der EU-KI-Verordnung — unannehmbares, hohes, begrenztes und minimales Risiko. Erfahren Sie, in welche Kategorie Ihr KI-System fällt und was erforderlich ist.

January 25, 202512 min read

Das risikobasierte Klassifizierungssystem der EU-KI-Verordnung ist das architektonische Fundament der gesamten Verordnung. Anstatt alle KI-Systeme gleich zu behandeln, legt die Verordnung 2024/1689 vier Risikostufen fest — unannehmbar, hoch, begrenzt und minimal — jede mit verhältnismäßigen Pflichten. Die Logik ist einfach: Je größer der potenzielle Schaden, den ein KI-System verursachen kann, desto strenger die Regeln, die es regeln.

Zu verstehen, in welche Stufe Ihr KI-System fällt, ist der wesentliche erste Schritt zur Compliance. Eine Fehlklassifizierung kann entweder zu unnötigem Aufwand führen oder — gefährlicher — zur Nichteinhaltung von Anforderungen, die erhebliche Strafen nach sich ziehen.

Das Vier-Stufen-Risikorahmenwerk

Die EU-KI-Verordnung ordnet KI-Systeme in vier Kategorien ein, basierend auf dem Risikoniveau, das sie für Gesundheit, Sicherheit und Grundrechte darstellen. Jede Stufe hat unterschiedliche regulatorische Anforderungen.

Unannehmbares Risiko: Verbotene KI-Praktiken

Unacceptable Risk

An der Spitze der Risikopyramide stehen KI-Praktiken, die als so schädlich eingestuft werden, dass sie vollständig verboten sind. Artikel 5 der KI-Verordnung listet diese verbotenen Praktiken auf, die eine klare Grenze darstellen, die keine Organisation überschreiten darf.

Unterschwellige, manipulative und täuschende Techniken (Artikel 5 Absatz 1 Buchstabe a): KI-Systeme, die Techniken unterhalb der Bewusstseinsschwelle einsetzen oder absichtlich manipulativ oder täuschend sind, mit dem Ziel oder der Wirkung, Verhalten wesentlich zu verzerren und erheblichen Schaden zu verursachen oder wahrscheinlich zu verursachen.

Ausnutzung von Schwachstellen (Artikel 5 Absatz 1 Buchstabe b): KI-Systeme, die spezifische Schwachstellen von Personen ausnutzen — sei es aufgrund von Alter, Behinderung oder einer bestimmten sozialen oder wirtschaftlichen Situation — um deren Verhalten wesentlich zu verzerren und erheblichen Schaden zu verursachen.

Social Scoring (Artikel 5 Absatz 1 Buchstabe c): KI-Systeme, die von Behörden (oder in deren Auftrag) zur Bewertung oder Klassifizierung natürlicher Personen auf der Grundlage ihres Sozialverhaltens oder bekannter, abgeleiteter oder vorhergesagter persönlicher Merkmale eingesetzt werden, wenn der daraus resultierende soziale Score zu nachteiliger Behandlung in nicht zusammenhängenden Kontexten oder zu unverhältnismäßiger Behandlung führt.

Prädiktive Polizeiarbeit ausschließlich auf Grundlage von Profiling (Artikel 5 Absatz 1 Buchstabe d): KI-Systeme, die das Risiko einer natürlichen Person, eine Straftat zu begehen, ausschließlich auf der Grundlage von Profiling oder der Bewertung von Persönlichkeitsmerkmalen bewerten. Dieses Verbot gilt nicht, wenn KI zur Unterstützung menschlicher Bewertungen eingesetzt wird, die bereits auf objektiven, überprüfbaren Fakten basieren, die direkt mit krimineller Aktivität in Verbindung stehen.

Ungezieltes Scraping für Gesichtserkennungsdatenbanken (Artikel 5 Absatz 1 Buchstabe e): KI-Systeme, die Gesichtserkennungsdatenbanken durch ungezieltes Scraping von Gesichtsbildern aus dem Internet oder von Überwachungskameras erstellen oder erweitern.

Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen (Artikel 5 Absatz 1 Buchstabe f): KI-Systeme, die Emotionen natürlicher Personen am Arbeitsplatz oder in Bildungseinrichtungen erkennen, es sei denn, sie werden zu medizinischen oder sicherheitsbezogenen Zwecken eingesetzt.

Biometrische Kategorisierung nach sensiblen Merkmalen (Artikel 5 Absatz 1 Buchstabe g): KI-Systeme, die natürliche Personen individuell auf der Grundlage biometrischer Daten kategorisieren, um Rasse, politische Meinungen, Gewerkschaftszugehörigkeit, religiöse oder weltanschauliche Überzeugungen, Sexualleben oder sexuelle Orientierung abzuleiten. Enge Ausnahmen gelten für Strafverfolgungszwecke.

Biometrische Echtzeit-Fernidentifizierung in öffentlichen Räumen für die Strafverfolgung (Artikel 5 Absatz 1 Buchstabe h): Nutzung biometrischer Echtzeit-Fernidentifizierungssysteme in öffentlich zugänglichen Räumen zu Strafverfolgungszwecken, außer in streng notwendigen Situationen im Zusammenhang mit gezielten Suchen nach Opfern, der Abwehr spezifischer unmittelbarer Bedrohungen oder der Ermittlung schwerer Straftaten.

Verbotene Praktiken unterliegen den höchsten Strafen der KI-Verordnung: bis zu 35 Millionen EUR oder 7 % des weltweiten Gesamtjahresumsatzes, je nachdem, welcher Betrag höher ist. Diese Verbote gelten seit dem 2. Februar 2025.

Praktische Auswirkungen

Organisationen sollten eine sofortige Überprüfung durchführen, um sicherzustellen, dass sie kein System betreiben, das unter Artikel 5 fällt. Während viele dieser Praktiken in gängigen Geschäftsanwendungen unüblich sind, verdienen einige Grenzfälle eine sorgfältige Analyse. Beispielsweise erfordern Personalisierungsalgorithmen, die die Grenze zu manipulativen Techniken überschreiten, oder Mitarbeiterüberwachungstools, die als Emotionserkennung am Arbeitsplatz ausgelegt werden könnten, eine genaue Prüfung.

Hohes Risiko: Umfassende Anforderungen

High Risk

Hochrisiko-KI-Systeme stehen im Mittelpunkt der Verordnung. Dies sind Systeme, die erlaubt, aber umfangreichen Anforderungen unterworfen sind, bevor sie in Verkehr gebracht oder in Betrieb genommen werden dürfen.

Die KI-Verordnung definiert Hochrisiko-KI-Systeme über zwei Wege gemäß Artikel 6:

Weg 1 — Sicherheitskomponenten regulierter Produkte (Artikel 6 Absatz 1): Ein KI-System ist hochriskant, wenn es eine Sicherheitskomponente eines Produkts ist oder selbst ein Produkt, das unter die in Anhang I aufgeführte EU-Harmonisierungsgesetzgebung fällt, und das Produkt einer Konformitätsbewertung durch Dritte unterzogen werden muss. Dies umfasst KI, die in Medizinprodukte, Maschinen, Spielzeug, Aufzüge, Kraftfahrzeuge, Luftfahrtsysteme und andere regulierte Produkte eingebettet ist.

Weg 2 — Eigenständige Systeme in sensiblen Bereichen (Artikel 6 Absatz 2 und Anhang III): Ein KI-System ist hochriskant, wenn es unter einen der in Anhang III aufgeführten Anwendungsfälle fällt. Die acht in Anhang III definierten Bereiche sind:

1. Biometrie (Anhang III, Punkt 1): Biometrische Fernidentifizierungssysteme (ausgenommen die nach Artikel 5 verbotenen), KI-Systeme für die biometrische Kategorisierung nach sensiblen oder geschützten Merkmalen und KI-Systeme zur Emotionserkennung.

2. Kritische Infrastrukturen (Anhang III, Punkt 2): KI-Systeme, die als Sicherheitskomponenten bei der Verwaltung und dem Betrieb kritischer digitaler Infrastrukturen, des Straßenverkehrs und der Wasser-, Gas-, Wärme- und Stromversorgung eingesetzt werden.

3. Bildung und Berufsausbildung (Anhang III, Punkt 3): KI-Systeme, die für den Zugang zu oder die Aufnahme in Bildungseinrichtungen, die Bewertung von Lernergebnissen, die Bestimmung des angemessenen Bildungsniveaus und die Überwachung verbotenen Verhaltens bei Prüfungen eingesetzt werden.

4. Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit (Anhang III, Punkt 4): KI-Systeme für die Einstellung (Filterung von Bewerbungen, Bewertung von Bewerbern), für Entscheidungen über Arbeitsverhältnisse (Beförderung, Kündigung, Aufgabenverteilung) und für die Überwachung oder Bewertung der Arbeitsleistung und des Verhaltens.

5. Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen und Leistungen (Anhang III, Punkt 5): KI-Systeme zur Bewertung der Anspruchsberechtigung auf öffentliche Unterstützungsleistungen oder -dienste, zur Beurteilung der Kreditwürdigkeit (ausgenommen zur Aufdeckung von Finanzbetrug), zur Bewertung und Klassifizierung von Notrufen und zur Risikobewertung bei der Preisgestaltung von Lebens- und Krankenversicherungen.

6. Strafverfolgung (Anhang III, Punkt 6): KI-Systeme für die individuelle Risikobewertung, Polygraphen oder ähnliche Instrumente, Bewertung der Zuverlässigkeit von Beweismitteln, Bewertung des Rückfall- oder Straffälligkeitsrisikos, Profiling bei der Aufdeckung oder Ermittlung und Kriminalitätsanalyse.

7. Migration, Asyl und Grenzkontrolle (Anhang III, Punkt 7): KI-Systeme für polygraphenähnliche Instrumente in Migrationsverfahren, Bewertung des Risikos irregulärer Migration, Sicherheits- oder Gesundheitsrisiken von Personen, Prüfung von Asyl-, Visa- oder Aufenthaltsanträgen und Erkennung von Personen bei der Grenzverwaltung.

8. Rechtspflege und demokratische Prozesse (Anhang III, Punkt 8): KI-Systeme, die von Justizbehörden eingesetzt werden, um Tatsachen und Recht zu erforschen und auszulegen und das Recht auf konkrete Sachverhalte anzuwenden, oder die in der alternativen Streitbeilegung eingesetzt werden sollen.

Nicht jedes KI-System, das in diesen Bereichen eingesetzt wird, ist automatisch hochriskant. Artikel 6 Absatz 3 sieht eine wichtige Ausnahme vor: Ein in Anhang III aufgeführtes KI-System gilt nicht als hochriskant, wenn es kein erhebliches Risiko eines Schadens für Gesundheit, Sicherheit oder Grundrechte darstellt. Der Anbieter muss diese Bewertung dokumentieren, und sie unterliegt der Überprüfung durch Marktüberwachungsbehörden.

Anforderungen an Hochrisikosysteme

Hochrisiko-KI-Systeme müssen die in den Artikeln 8 bis 15 festgelegten Anforderungen erfüllen, die Folgendes umfassen:

  • Risikomanagementsystem (Artikel 9)
  • Daten und Datengovernance (Artikel 10)
  • Technische Dokumentation (Artikel 11)
  • Aufzeichnungen und automatische Protokollierung (Artikel 12)
  • Transparenz und Bereitstellung von Informationen an Betreiber (Artikel 13)
  • Maßnahmen zur menschlichen Aufsicht (Artikel 14)
  • Genauigkeit, Robustheit und Cybersicherheit (Artikel 15)

Anbieter müssen außerdem ein Qualitätsmanagementsystem implementieren (Artikel 17), eine Konformitätsbewertung durchführen (Artikel 43), ihre Systeme in der EU-Datenbank registrieren (Artikel 49) und eine Marktüberwachung nach dem Inverkehrbringen durchführen (Artikel 72).

Need auditable AI for compliance?

Ctrl AI provides full execution traces, expert verification, and trust-tagged outputs for every AI decision.

Learn About Ctrl AI

Begrenztes Risiko: Transparenzpflichten

Limited Risk

Die Kategorie des begrenzten Risikos umfasst KI-Systeme, die mit Menschen interagieren oder Inhalte erzeugen, die irreführend sein könnten, wenn die KI-Natur des Systems oder seiner Ausgaben nicht offengelegt wird. Artikel 50 legt spezifische Transparenzpflichten für diese Systeme fest.

Wer muss sich daran halten

Anbieter von KI-Systemen zur Interaktion mit natürlichen Personen (Artikel 50 Absatz 1): Systeme wie Chatbots müssen so gestaltet sein, dass die natürliche Person darüber informiert wird, dass sie mit einem KI-System interagiert, es sei denn, dies ergibt sich offensichtlich aus den Umständen und dem Nutzungskontext.

Anbieter von KI-Systemen zur Erzeugung synthetischer Inhalte (Artikel 50 Absatz 2): KI-Systeme, die synthetische Audio-, Bild-, Video- oder Textinhalte erzeugen, müssen die Ausgabe in einem maschinenlesbaren Format kennzeichnen, das offenlegt, dass sie künstlich erzeugt oder manipuliert wurde. Die technische Umsetzung muss wirksam, interoperabel, robust und zuverlässig sein.

Betreiber von Emotionserkennungs- oder biometrischen Kategorisierungssystemen (Artikel 50 Absatz 3): Wenn diese Systeme nicht als hochriskant eingestuft werden, müssen Betreiber die betroffenen natürlichen Personen über den Betrieb des Systems informieren und personenbezogene Daten gemäß dem geltenden Datenschutzrecht verarbeiten.

Betreiber von Deepfake-Systemen (Artikel 50 Absatz 4): Betreiber, die KI-generierte oder -manipulierte Inhalte (Deepfakes) veröffentlichen oder zugänglich machen, müssen offenlegen, dass der Inhalt künstlich erzeugt oder manipuliert wurde. Eine Ausnahme besteht für Inhalte, die offensichtlich Teil eines künstlerischen, kreativen, satirischen oder fiktiven Werks sind, wobei die Offenlegung auch dann die Anzeige des Inhalts nicht verhindern darf.

Praktische Beispiele

  • Ein Kundenservice-Chatbot auf einer E-Commerce-Website muss den Nutzern mitteilen, dass sie mit einer KI chatten, nicht mit einem Menschen.
  • Ein KI-Tool, das Marketingbilder erzeugt, muss maschinenlesbare Metadaten einbetten, die darauf hinweisen, dass die Bilder KI-generiert sind.
  • Ein Unternehmen, das KI zur Analyse des emotionalen Tons von Kundenanrufen einsetzt (wenn nicht hochriskant), muss die Anrufer informieren.
  • Eine Medienorganisation, die KI-generierte Artikel veröffentlicht, muss diese als solche kennzeichnen.

Die Transparenzpflichten mögen unkompliziert erscheinen, aber die technischen Anforderungen — insbesondere bezüglich der maschinenlesbaren Kennzeichnung von KI-generierten Inhalten — erfordern Umsetzungsaufwand. Organisationen sollten diese Anforderungen rechtzeitig vor der Frist im August 2026 einplanen.

Minimales Risiko: Freiwillige Compliance

Minimal Risk

Die überwiegende Mehrheit der KI-Systeme fällt in die Kategorie des minimalen Risikos. Dies sind KI-Anwendungen, die wenig oder kein Risiko für Grundrechte und Sicherheit darstellen. Die EU-KI-Verordnung stellt über die bestehende Gesetzgebung hinaus keine verbindlichen Anforderungen an diese Systeme.

Beispiele für KI mit minimalem Risiko

  • Spamfilter
  • KI-gestützte Empfehlungssysteme (für nicht-wesentliche Dienste)
  • KI-verbesserte Videospiele
  • Bestandsverwaltungssysteme
  • KI-gestützte Rechtschreib- und Grammatikprüfungen
  • Prädiktive Wartungssysteme für Produktionsanlagen
  • KI-gestützte Suchmaschinen (allgemeiner Zweck)

Freiwillige Verhaltenskodizes

Während KI-Systeme mit minimalem Risiko unter der KI-Verordnung keinen verbindlichen Anforderungen unterliegen, ermutigt Artikel 95 Anbieter und Betreiber, freiwillig die Anforderungen für Hochrisikosysteme anzuwenden oder eigene Verhaltenskodizes zu entwickeln. Diese Kodizes können Themen behandeln wie:

  • Ökologische Nachhaltigkeit von KI-Systemen
  • KI-Kompetenz unter Stakeholdern
  • Inklusives und vielfältiges Design
  • Barrierefreiheit für Menschen mit Behinderungen

Die Kommission und die Mitgliedstaaten erleichtern die Entwicklung dieser freiwilligen Kodizes, und ihre Einhaltung kann als Marktdifferenzierungsmerkmal für Organisationen dienen, die verantwortungsvolle KI-Praktiken demonstrieren möchten.

So klassifizieren Sie Ihr KI-System

Die korrekte Klassifizierung Ihres KI-Systems erfordert einen systematischen Ansatz. Hier ist ein praktisches Rahmenwerk für den Klassifizierungsprozess.

Schritt 1: Abgleich mit verbotenen Praktiken

Überprüfen Sie Ihr KI-System anhand jeder verbotenen Praktik in Artikel 5. Wenn Ihr System unter eine dieser Kategorien fällt, muss es unverzüglich eingestellt werden — keine Ausnahmen oder Umgehungen werden Compliance erreichen.

Schritt 2: Prüfung von Anhang I (Produktsicherheitsgesetzgebung)

Wenn Ihr KI-System eine Sicherheitskomponente eines Produkts ist oder selbst ein Produkt, das unter die in Anhang I aufgeführte EU-Harmonisierungsgesetzgebung fällt, prüfen Sie, ob dieses Produkt eine Konformitätsbewertung durch Dritte erfordert. Wenn ja, ist das KI-System gemäß Artikel 6 Absatz 1 hochriskant.

Schritt 3: Prüfung von Anhang III (Sensible Anwendungsfälle)

Prüfen Sie, ob der Verwendungszweck Ihres KI-Systems unter eine der acht Kategorien in Anhang III fällt. Hier entstehen die meisten eigenständigen Hochrisiko-Klassifizierungen.

Schritt 4: Anwendung der Ausnahme nach Artikel 6 Absatz 3

Wenn Ihr System in Anhang III aufgeführt ist, aber kein erhebliches Schadensrisiko darstellt, können Sie argumentieren, dass es gemäß der Ausnahme nach Artikel 6 Absatz 3 nicht hochriskant ist. Dies erfordert jedoch eine dokumentierte Begründung und unterliegt der regulatorischen Überprüfung. Die Ausnahme gilt nicht, wenn das KI-System ein Profiling natürlicher Personen durchführt.

Schritt 5: Prüfung der Transparenzpflichten

Wenn Ihr System nicht hochriskant ist, stellen Sie fest, ob es mit natürlichen Personen interagiert, synthetische Inhalte erzeugt, Emotionserkennung durchführt oder Deepfake-Inhalte produziert. Wenn ja, unterliegt es den Transparenzpflichten für begrenztes Risiko.

Schritt 6: Standardmäßig minimales Risiko

Wenn Ihr System in keine der oben genannten Kategorien fällt, wird es als minimales Risiko ohne verbindliche Pflichten unter der KI-Verordnung eingestuft.

Die Risikoklassifizierung ist keine statische Übung. Wenn Sie den Verwendungszweck Ihres KI-Systems ändern, seinen Umfang erweitern oder den Einsatzkontext ändern, müssen Sie die Klassifizierung neu bewerten. Artikel 6 Absatz 3 verlangt ausdrücklich, dass die Bewertung bei einer Änderung des Verwendungszwecks des KI-Systems aktualisiert wird.

Sonderfälle und Überlegungen

KI-Modelle mit allgemeinem Verwendungszweck

KI-Modelle mit allgemeinem Verwendungszweck (GPAI) werden separat unter Kapitel V der KI-Verordnung reguliert. Ein GPAI-Modell wird selbst nicht unter dem Vier-Stufen-Risikosystem klassifiziert. Wenn jedoch ein GPAI-Modell in ein KI-System integriert wird, wird dieses KI-System entsprechend seinem Verwendungszweck und Anwendungsfall klassifiziert.

Beispielsweise unterliegt ein großes Sprachmodell den GPAI-Bestimmungen. Wird dieses Modell jedoch zur Unterstützung eines Einstellungsscreening-Tools verwendet, würde das resultierende KI-System gemäß Anhang III, Punkt 4 als hochriskant eingestuft.

KI-Systeme mit mehreren Verwendungszwecken

Einige KI-Systeme können mehreren Zwecken dienen. Die Klassifizierung sollte für jeden Verwendungszweck individuell erfolgen. Ein KI-System, das sowohl für Anwendungen mit minimalem Risiko (wie allgemeine Kundenanalysen) als auch für Hochrisiko-Anwendungen (wie Kreditwürdigkeitsprüfung) eingesetzt wird, muss für den letzteren Verwendungszweck die Hochrisiko-Anforderungen erfüllen.

Änderungen nach Markteinführung

Wenn ein Anbieter ein KI-System nach dem Inverkehrbringen wesentlich verändert, muss das veränderte System möglicherweise neu klassifiziert und einer neuen Konformitätsbewertung unterzogen werden. Ebenso sollten Betreiber, die ein KI-System für einen vom Anbieter nicht vorgesehenen Zweck nutzen, eine eigene Risikobewertung durchführen.

Fazit

Das vierstufige Risikoklassifizierungssystem der EU-KI-Verordnung bietet einen verhältnismäßigen Regulierungsrahmen, der die Compliance-Pflichten dort konzentriert, wo sie am wichtigsten sind. Durch die Unterscheidung zwischen unannehmbarem, hohem, begrenztem und minimalem Risiko vermeidet die Verordnung, Anwendungen mit geringem Risiko unnötig zu belasten, und gewährleistet gleichzeitig robuste Schutzmaßnahmen dort, wo KI das Leben der Menschen erheblich beeinflussen kann.

Für Organisationen, die sich in diesem Rahmenwerk bewegen, ist eine genaue Klassifizierung das Fundament jeder nachfolgenden Compliance-Entscheidung. Sie bestimmt, welche Anforderungen gelten, welche Fristen zu priorisieren sind und welche Ressourcen zuzuweisen sind. Sich die Zeit zu nehmen, Ihre KI-Systeme korrekt zu klassifizieren — und diese Klassifizierung gründlich zu dokumentieren — wird erheblichen Aufwand und Unsicherheit auf dem weiteren Weg ersparen.

Make Your AI Auditable and Compliant

Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.

Explore Ctrl AI

Verwandte Artikel