Regulationfaqeu-ki-verordnungcompliance

EU-KI-Verordnung FAQ: Antworten auf 30+ häufige Fragen

Praktische Antworten auf die häufigsten Fragen zur EU-KI-Verordnung — Anwendungsbereich, Fristen, Bußgelder, Klassifizierung, GPAI, DSGVO-Überschneidung und was Unternehmen tun müssen, um die Verordnung 2024/1689 einzuhalten.

May 12, 202612 min read

Die EU-KI-Verordnung (Verordnung 2024/1689) ist das umfassendste KI-Gesetz der Welt und wirft für die Unternehmen, die sie einhalten müssen, viele praktische Fragen auf. Diese FAQ sammelt die am häufigsten gestellten Fragen zur Verordnung — vom grundlegenden Anwendungsbereich und Zeitplan bis hin zu spezifischen Pflichten für Anbieter, Betreiber und Entwickler von KI-Modellen mit allgemeinem Verwendungszweck — und liefert kurze, mit Quellenangaben versehene Antworten.

Wenn Sie zu einem Thema tiefer einsteigen möchten, verlinkt jede Antwort auf einen ausführlichen Artikel.

Anwendungsbereich und Geltung

Gilt die EU-KI-Verordnung für mein Unternehmen?

Mit hoher Wahrscheinlichkeit ja, wenn einer der folgenden Punkte zutrifft:

  • Sie bringen ein KI-System auf dem EU-Markt in Verkehr, unabhängig vom Sitz (Artikel 2 Absatz 1 Buchstabe a)
  • Sie nehmen ein KI-System in der EU in Betrieb (Artikel 2 Absatz 1 Buchstabe a)
  • Sie sind Betreiber eines KI-Systems mit Sitz oder Standort in der EU (Artikel 2 Absatz 1 Buchstabe b)
  • Sie sind Anbieter oder Betreiber außerhalb der EU, dessen KI-Output in der EU verwendet wird (Artikel 2 Absatz 1 Buchstabe c)
  • Sie sind Einführer oder Händler von KI-Systemen, die auf den EU-Markt gelangen (Artikel 2 Absatz 1 Buchstaben d–e)

Der Auslöser „Output in der EU verwendet" ist weit gefasst. Ein US-Unternehmen, das ein KI-Recruiting-Tool betreibt, das Bewerber in Deutschland screent, fällt unter die Verordnung, auch wenn es keine EU-Niederlassung hat.

Gibt es Ausnahmen von der EU-KI-Verordnung?

Artikel 2 listet mehrere spezifische Ausnahmen auf:

  • Nationale Sicherheit und Verteidigung: KI-Systeme, die ausschließlich für militärische, Verteidigungs- oder nationale Sicherheitszwecke verwendet werden, sind ausgenommen (Artikel 2 Absatz 3)
  • Forschung und Entwicklung: KI-Systeme, die ausschließlich für wissenschaftliche Forschung und Entwicklung entwickelt werden, sind ausgenommen — jedoch nur bis sie in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 6)
  • Persönliche, nicht-berufliche Tätigkeiten: KI, die von Einzelpersonen für rein persönliche Aktivitäten genutzt wird, ist ausgenommen (Artikel 2 Absatz 10)
  • Freie und quelloffene KI-Komponenten: KI-Komponenten unter Open-Source-Lizenzen sind teilweise ausgenommen, außer wenn sie als Hochrisikosysteme, verbotene Praktiken oder Systeme mit Transparenzpflichten in Verkehr gebracht oder in Betrieb genommen werden (Artikel 2 Absatz 12)

Es gibt keine Ausnahme für kleine Unternehmen. KMU und Start-ups unterliegen vollständig der Verordnung, wobei Artikel 99 Absatz 6 vorsieht, dass für sie der jeweils niedrigere der beiden Bußgeldbeträge (absolut oder prozentual) gilt.

Gilt die EU-KI-Verordnung für KI-Systeme, die bereits vor August 2024 auf dem Markt waren?

Im Wesentlichen ja, allerdings mit Übergangsfristen:

  • GPAI-Modelle, die vor dem 2. August 2025 in Verkehr gebracht wurden, haben bis zum 2. August 2027 Zeit zur Anpassung
  • Hochrisiko-KI-Systeme, die vor dem 2. August 2026 in Verkehr gebracht wurden, müssen die Verordnung im Allgemeinen nicht einhalten, sofern sie nach diesem Datum keine wesentlichen Änderungen erfahren (Artikel 111)
  • Betreiber von Hochrisiko-KI-Systemen öffentlicher Stellen müssen Altsysteme bis zum 2. August 2030 in Konformität bringen (Artikel 111 Absatz 2)

In der Praxis sollten sich Organisationen nicht auf Bestandsschutz verlassen. Die meisten Altsysteme werden so häufig aktualisiert, dass sie irgendwann Compliance-Pflichten auslösen.

Zeitplan und Fristen

Wann gilt die EU-KI-Verordnung?

Die Verordnung folgt einem gestaffelten Zeitplan:

Wie viel Zeit habe ich noch bis zum August 2026?

Wenn Sie dies im Mai 2026 lesen, haben Sie weniger als drei Monate Zeit, bis der Großteil der Verordnung gilt. Für ein Hochrisiko-KI-System ist dieser Zeitrahmen knapp. Ein minimal lauffähiges Compliance-Programm — Risikomanagement, technische Dokumentation, Daten-Governance, Konzeption der menschlichen Aufsicht, Konformitätsbewertung — braucht in den meisten Organisationen sechs bis zwölf Monate Aufbauzeit.

Wenn Sie noch nicht begonnen haben, priorisieren Sie: (1) Bestandsaufnahme Ihrer KI-Systeme, (2) Klassifizierung jedes Systems, (3) sofortige Beendigung jeder verbotenen Praxis und (4) Aufbau einer Compliance-Roadmap für Hochrisikosysteme. Die Compliance-Checkliste für CTOs und CIOs bietet einen praktischen Ausgangspunkt.

Risikoklassifizierung

Wie erkenne ich, ob mein KI-System ein Hochrisikosystem ist?

Ein System ist ein Hochrisikosystem, wenn es einen von zwei Tests besteht:

  1. Anhang-I-Test: Das System ist Sicherheitskomponente eines Produkts (oder ist selbst ein Produkt), das von einer in Anhang I gelisteten Unionsrechtsvorschrift erfasst wird (Medizinprodukte, Maschinen, Spielzeug, Automobile, Luftfahrt, Schifffahrt usw.), und das Produkt unterliegt einer Konformitätsbewertung durch Dritte.

  2. Anhang-III-Test: Das System ist ein eigenständiges KI-System, das in einem von acht sensiblen Bereichen verwendet wird: Biometrie; kritische Infrastruktur; Bildung und berufliche Ausbildung; Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit; Zugang zu wesentlichen privaten und öffentlichen Dienstleistungen; Strafverfolgung; Migration, Asyl und Grenzkontrolle; oder Rechtspflege und demokratische Prozesse.

Artikel 6 Absatz 3 hat eine wichtige Ausnahme eingeführt: Auch wenn ein System unter Anhang III fällt, ist es nicht hochriskant, wenn es kein erhebliches Schadensrisiko darstellt — etwa wenn es eine eng umrissene Verfahrensaufgabe erfüllt, das Ergebnis einer zuvor abgeschlossenen menschlichen Tätigkeit verbessert oder Entscheidungsmuster erkennt, ohne die menschliche Entscheidungsfindung zu ersetzen. KI-Systeme, die Profiling natürlicher Personen durchführen, sind jedoch stets hochriskant.

Sind Empfehlungssysteme Hochrisikosysteme?

In den meisten Fällen nein. Standardmäßige Empfehlungssysteme für Produkte, Musik oder Inhalte werden typischerweise als minimal- oder begrenzt-riskant eingestuft. Sie werden nur in bestimmten Szenarien hochriskant — etwa wenn sie zur Zuteilung des Zugangs zu wesentlichen Dienstleistungen verwendet werden oder wenn sie in einen Hochrisiko-Anwendungsfall wie Bildung oder Beschäftigung integriert sind.

Beachten Sie, dass sehr große Online-Plattformen (VLOPs) und sehr große Online-Suchmaschinen (VLOSEs) zusätzliche, separate Pflichten nach dem Digital Services Act (DSA) für ihre Empfehlungssysteme haben, einschließlich Transparenz- und Nutzerkontrollanforderungen.

Sind Chatbots Hochrisikosysteme?

Chatbots sind üblicherweise begrenzt-riskant, nicht hochriskant. Artikel 50 Absatz 1 verlangt, dass natürliche Personen, die mit einem Chatbot interagieren, darüber informiert werden, dass sie es mit einer KI zu tun haben, sofern dies nicht aus dem Kontext offensichtlich ist. Ein Chatbot wird nur dann zum Hochrisikosystem, wenn er in einem Hochrisiko-Anwendungsfall eingesetzt wird — beispielsweise würde ein Chatbot, der Bewerbungen vorprüft, unter Anhang III Nummer 4 (Beschäftigung) fallen und der vollen Hochrisikoregelung unterliegen.

Need auditable AI for compliance?

Ctrl AI provides full execution traces, expert verification, and trust-tagged outputs for every AI decision.

Learn About Ctrl AI

Spezifische Pflichten

Welche Dokumentation benötige ich für ein Hochrisiko-KI-System?

Artikel 11 und Anhang IV legen die Anforderungen an die technische Dokumentation fest. Die Dokumentation muss unter anderem Folgendes umfassen:

  • Eine allgemeine Beschreibung des KI-Systems, seines Verwendungszwecks und früherer Versionen
  • Eine detaillierte Beschreibung der Komponenten des Systems, einschließlich Algorithmen, Datensätzen, Trainingsmethodik und Modellauswahl
  • Informationen zu den Daten, einschließlich Herkunft, Umfang und Eigenschaften
  • Einen Risikomanagementplan in Einklang mit Artikel 9
  • Eine Beschreibung der Maßnahmen zur menschlichen Aufsicht
  • Leistungsmetriken und Genauigkeitsangaben
  • Cybersicherheitsmaßnahmen
  • Eine Kopie der EU-Konformitätserklärung

Die Dokumentation muss über die gesamte Lebensdauer des Systems aktuell gehalten und nationalen zuständigen Behörden mindestens zehn Jahre nach dem Inverkehrbringen auf Anfrage zur Verfügung gestellt werden.

Was ist das Konformitätsbewertungsverfahren?

Die Konformitätsbewertung ist das Verfahren, mit dem ein Anbieter überprüft, ob ein Hochrisiko-KI-System die Anforderungen der Artikel 8–15 erfüllt. Für die meisten Hochrisikosysteme nach Anhang III ist das Verfahren die interne Kontrolle (Anhang VI) — der Anbieter führt die Bewertung selbst durch. Für bestimmte biometrische Systeme und für Hochrisiko-KI-Systeme, die Teil von Produkten gemäß Anhang I sind, ist eine Bewertung durch eine Drittstelle (notifizierte Stelle) erforderlich.

Nach erfolgreicher Konformitätsbewertung erstellt der Anbieter eine EU-Konformitätserklärung, bringt die CE-Kennzeichnung an und (für Anhang-III-Systeme) registriert das System in der EU-Datenbank, bevor es in Verkehr gebracht wird.

Muss ich eine Person für die KI-Compliance benennen?

Die Verordnung verlangt nicht ausdrücklich einen „Chief AI Officer", legt aber eine Reihe von Pflichten fest, die typischerweise eine benannte Verantwortlichkeit erfordern:

  • Artikel 4 verlangt von Anbietern und Betreibern, ein ausreichendes Maß an KI-Kompetenz beim Personal sicherzustellen
  • Artikel 22 verlangt von Nicht-EU-Anbietern die Benennung eines bevollmächtigten Vertreters in der EU
  • Artikel 26 legt Betreiberpflichten fest, die einen klaren Verantwortlichen benötigen
  • Artikel 17 verlangt von Anbietern die Einrichtung eines Qualitätsmanagementsystems

In der Praxis schaffen die meisten Organisationen, die unter die KI-Verordnung fallen, eine dedizierte KI-Compliance-Funktion, die häufig mit der bestehenden Funktion des Datenschutzbeauftragten (DSB) nach der DSGVO kombiniert wird.

KI mit allgemeinem Verwendungszweck (GPAI)

Was ist ein KI-Modell mit allgemeinem Verwendungszweck?

Artikel 3 Absatz 63 definiert ein GPAI-Modell als ein Modell, das erhebliche Allgemeinheit aufweist, in der Lage ist, eine breite Palette unterschiedlicher Aufgaben kompetent auszuführen — unabhängig davon, wie es in Verkehr gebracht wird — und in eine Vielzahl von nachgelagerten Systemen integriert werden kann. Große Sprachmodelle, multimodale Modelle und andere Basismodelle fallen unter diese Definition.

Was ist ein GPAI-Modell mit systemischem Risiko?

Artikel 51 Absatz 1 Buchstabe a vermutet ein systemisches Risiko, wenn die kumulative Trainings-Rechenleistung 10^25 Gleitkommaoperationen (FLOPs) überschreitet. Die Kommission kann ein Modell auch auf Grundlage anderer Kriterien — Fähigkeits-Benchmarks, Anzahl der Nutzer, Auswirkungen auf das Ökosystem usw. — als systemisch riskant einstufen (Artikel 51 Absatz 1 Buchstabe b).

Modelle mit systemischem Risiko unterliegen nach Artikel 55 zusätzlichen Pflichten: Modellevaluierung einschließlich adversarialem Testen, Minderung systemischer Risiken, Meldung schwerwiegender Vorfälle an das Büro für Künstliche Intelligenz und Cybersicherheitsmaßnahmen.

Sind Open-Source-GPAI-Modelle von der KI-Verordnung ausgenommen?

Teilweise. Artikel 53 Absatz 2 nimmt Anbieter freier und quelloffener GPAI-Modelle von einigen Transparenzpflichten aus — jedoch nur, wenn das Modell wirklich offen ist (Gewichte, Architektur und Nutzungsinformationen alle öffentlich zugänglich) und nicht entgeltlich in Verkehr gebracht wird. Die Ausnahme erstreckt sich nicht auf GPAI-Modelle mit systemischem Risiko, die unabhängig von den Lizenzbedingungen vollständig reguliert bleiben.

Die Open-Source-Ausnahme ist enger gefasst, als viele Entwickler annehmen; Feintuning, gebührenpflichtiges Hosting oder Bündelung mit kommerziellen Diensten können die Ausnahme allesamt aufheben.

DSGVO und andere Verordnungen

Wie wirkt die EU-KI-Verordnung mit der DSGVO zusammen?

Die beiden Verordnungen gelten parallel. Die DSGVO regelt die rechtmäßige Verarbeitung personenbezogener Daten; die KI-Verordnung regelt Konzeption und Einsatz von KI-Systemen. Wenn ein KI-System personenbezogene Daten verarbeitet — und das tun die meisten — gelten beide Regime gleichzeitig.

Viele Konzepte überschneiden sich, sind aber nicht identisch. Beide verlangen Risikomanagement; beide verlangen Dokumentation; beide legen Transparenzpflichten fest. Das Risikomanagement der KI-Verordnung ist jedoch systemzentriert, während das der DSGVO datenzentriert ist. Die KI-Verordnung fügt zudem Anforderungen hinzu (etwa Daten-Governance nach Artikel 10 und menschliche Aufsicht nach Artikel 14), die über die DSGVO hinausgehen.

Übersteuert die EU-KI-Verordnung die Medizinprodukte-Verordnung?

Nein. Für KI-Systeme, die als Medizinprodukte qualifiziert sind, gelten beide Regime gleichzeitig. Artikel 43 Absatz 3 der KI-Verordnung erlaubt die Integration der Konformitätsbewertung mit der MDR/IVDR-Bewertung, aber die materiellen Anforderungen beider Verordnungen müssen weiterhin erfüllt werden. Das Ergebnis ist in der Praxis ein koordiniertes, aber nicht konsolidiertes Compliance-Programm.

Wie verhält sich die EU-KI-Verordnung zum Digital Services Act (DSA)?

Der DSA legt systemische-Risiko- und Inhaltsmoderationspflichten für Vermittlungsdienste fest. Wenn ein KI-System von einer sehr großen Online-Plattform (VLOP) oder einer sehr großen Online-Suchmaschine (VLOSE) zur Steuerung ihrer Empfehlungssysteme, Inhaltsmoderation oder Werbeauslieferung verwendet wird, können sowohl DSA als auch KI-Verordnung Anwendung finden.

Durchsetzung und Sanktionen

Wer setzt die EU-KI-Verordnung durch?

Die Durchsetzung ist zwischen EU- und nationalen Behörden aufgeteilt:

  • Die Europäische Kommission ist über das Büro für Künstliche Intelligenz ausschließlich für GPAI-Modellanbieter zuständig
  • Nationale Marktüberwachungsbehörden in jedem Mitgliedstaat setzen die Verordnung gegenüber Anbietern und Betreibern von KI-Systemen in ihrem Hoheitsgebiet durch
  • Nationale notifizierende Behörden benennen und beaufsichtigen notifizierte Stellen, die Konformitätsbewertungen durchführen
  • Das Europäische Gremium für Künstliche Intelligenz koordiniert die Anwendung in den Mitgliedstaaten

Wie viel haben Unternehmen tatsächlich bisher als Strafe gezahlt?

Informationen zu konkreten Bußgeldern sind begrenzt, da die öffentliche Durchsetzung erst beginnt. Die Artikel-5-Verbote wurden im Februar 2025 anwendbar, die GPAI-Pflichten im August 2025, und die meisten Hochrisiko-Pflichten gelten noch nicht. Mit Stand Mitte 2026 haben mehrere Mitgliedstaaten Leitfäden veröffentlicht und Berichten zufolge Untersuchungen eingeleitet, die Durchsetzung verbleibt aber weitgehend auf Leitfaden- und Verwarnungsstufe. Erhebliche Bußgelder werden ab 2027 erwartet, wenn das Hochrisikoregime voll in Kraft tritt.

Kann ich für dieselbe Handlung sowohl nach der KI-Verordnung als auch nach der DSGVO mit Bußgeld belegt werden?

Grundsätzlich ja — wenn die Handlung gegen beide Verordnungen verstößt. Die beiden Regime schützen unterschiedliche Interessen (KI-Sicherheit vs. Datenschutz) und haben unterschiedliche zuständige Behörden. Mitgliedstaaten und Kommission werden voraussichtlich koordinieren, um Probleme der Doppelbestrafung (ne bis in idem) zu vermeiden, die Verordnung schließt eine parallele Durchsetzung aber nicht aus.

Praktische nächste Schritte

Was sollte ich zuerst tun, wenn mein Unternehmen KI einsetzt?

Ein praktischer Startplan in vier Schritten:

  1. Bestandsaufnahme aller KI-Systeme, die Ihre Organisation entwickelt, einsetzt oder nutzt. Erfassen Sie auch Drittanbieter-Tools, in SaaS-Produkten eingebettete KI-Funktionen und interne Modelle.
  2. Klassifizieren Sie jedes System gegen den Risikorahmen. Achten Sie besonders auf Systeme, die mit Biometrie, Beschäftigung, Bildung, wesentlichen Dienstleistungen, Strafverfolgung oder kritischer Infrastruktur in Berührung kommen.
  3. Beheben Sie verbotene Praktiken sofort. Sie sind seit Februar 2025 durchsetzbar; jedes betroffene System sollte gestoppt, geändert oder ersetzt werden.
  4. Bauen Sie eine Compliance-Roadmap für Hochrisiko- und GPAI-Systeme auf, rückwärts vom Stichtag 2. August 2026.

Wer kann mir bei der Einhaltung der EU-KI-Verordnung helfen?

Sie benötigen wahrscheinlich eine Kombination aus juristischer Beratung (für die Auslegung), internen Engineering- und Produktteams (für die technische Umsetzung) und möglicherweise einer Drittplattform, die KI-Governance unterstützt — zum Beispiel, indem revisionssichere Dokumentation, Ausführungsspuren und vertrauensmarkierte Outputs bereitgestellt werden. Die EU fördert zudem Regulierungs-Sandboxes (Artikel 57), die jeder Mitgliedstaat bis August 2026 einrichten muss, um Innovation unter Aufsicht zu unterstützen.

Fazit

Die EU-KI-Verordnung ist weitreichend, technisch und folgenreich — aber sie ist auch navigierbar. Die meisten betroffenen Organisationen können ein praktikables Compliance-Programm aufbauen, indem sie den Risikorahmen verstehen, ihre KI-Systeme dagegen abbilden, verbotene und Hochrisiko-Pflichten priorisieren und eine dauerhafte Governance aufbauen. Die Fragen in dieser FAQ sind jene, die Unternehmen am häufigsten stellen; die verlinkten Tiefenartikel beantworten sie in deutlich größerer Detailtiefe.

Wenn eine bestimmte Frage hier nicht behandelt wird, ist unser vollständiger EU-KI-Verordnung-Überblick der beste Ausgangspunkt für das vollständige regulatorische Bild.

Frequently Asked Questions

Was ist die EU-KI-Verordnung?

Die EU-KI-Verordnung (Verordnung (EU) 2024/1689) ist der weltweit erste umfassende Rechtsrahmen für Künstliche Intelligenz. Sie legt harmonisierte Regeln für Entwicklung, Inverkehrbringen, Einsatz und Nutzung von KI-Systemen in der gesamten Europäischen Union fest und verfolgt einen risikobasierten Ansatz mit vier Stufen: unannehmbar, hoch, begrenzt und minimal.

Wann ist die EU-KI-Verordnung in Kraft getreten?

Die EU-KI-Verordnung ist am 1. August 2024 in Kraft getreten, zwanzig Tage nach ihrer Veröffentlichung im Amtsblatt am 12. Juli 2024. Verschiedene Bestimmungen gelten zu unterschiedlichen Zeitpunkten zwischen Februar 2025 und August 2027.

Gilt die EU-KI-Verordnung auch für Unternehmen außerhalb der Europäischen Union?

Ja. Artikel 2 legt einen weiten räumlichen Anwendungsbereich fest: Die Verordnung gilt für Anbieter, die KI-Systeme auf dem EU-Markt in Verkehr bringen, unabhängig von ihrem Sitz, für Betreiber innerhalb der EU sowie für Anbieter und Betreiber außerhalb der EU, sofern die Ergebnisse ihres KI-Systems in der Union verwendet werden.

Wie hoch ist die maximale Geldbuße nach der EU-KI-Verordnung?

Artikel 99 sieht eine maximale Geldbuße von 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes vor — je nachdem, welcher Betrag höher ist — bei Verstößen gegen die in Artikel 5 aufgeführten verbotenen KI-Praktiken. Niedrigere Stufen gelten für andere Verstöße: 15 Mio. € / 3 % bei Nichteinhaltung von Hochrisiko-Anforderungen und 7,5 Mio. € / 1 % bei falschen Auskünften an Behörden.

Welche vier Risikostufen gibt es in der EU-KI-Verordnung?

Unannehmbares Risiko (verboten nach Artikel 5), hohes Risiko (Artikel 6–7 sowie Anhänge I und III), begrenztes Risiko (Transparenzpflichten nach Artikel 50) und minimales Risiko (keine besonderen Pflichten über das bestehende Recht hinaus).

Ab wann gelten die Pflichten für Hochrisiko-KI-Systeme?

Die meisten Pflichten für Hochrisikosysteme gelten ab dem 2. August 2026, einschließlich aller eigenständigen Hochrisikosysteme nach Anhang III. Hochrisikosysteme, die Sicherheitskomponenten von Produkten gemäß bestehender EU-Harmonisierungsrechtsvorschriften nach Anhang I sind, folgen einem längeren Zeitplan und unterliegen der vollen Anwendung ab dem 2. August 2027.

Gilt die EU-KI-Verordnung für ChatGPT, Claude und andere große Sprachmodelle?

Ja. Große Sprachmodelle fallen unter das in Kapitel V geregelte Regime für KI-Modelle mit allgemeinem Verwendungszweck (GPAI). Alle GPAI-Anbieter müssen technische Dokumentationen führen, eine Zusammenfassung der Trainingsdaten veröffentlichen und das Urheberrecht beachten. Modelle, die mit mehr als 10^25 FLOPs trainiert wurden, gelten als systemisch riskant und unterliegen zusätzlichen Pflichten wie Modellevaluierung, adversarialem Testen und Vorfallsmeldung.

Was ist der Unterschied zwischen Anbieter und Betreiber?

Ein Anbieter (Artikel 3 Absatz 3) entwickelt ein KI-System oder GPAI-Modell und bringt es unter eigenem Namen oder eigener Marke in Verkehr oder nimmt es in Betrieb. Ein Betreiber (Artikel 3 Absatz 4) nutzt ein KI-System unter eigener Verantwortung im Rahmen einer beruflichen Tätigkeit. Anbieter tragen den Großteil der materiellen Pflichten für Hochrisikosysteme; Betreiber haben einen engeren Pflichtenkreis, der sich auf den ordnungsgemäßen Betrieb des Systems, die Überwachung und (bei öffentlichen Stellen) die Durchführung einer Grundrechte-Folgenabschätzung konzentriert.

Ist die EU-KI-Verordnung dasselbe wie die DSGVO?

Nein. Die DSGVO (Verordnung 2016/679) regelt die Verarbeitung personenbezogener Daten. Die EU-KI-Verordnung regelt die Gestaltung, das Inverkehrbringen und die Nutzung von KI-Systemen unabhängig davon, ob sie personenbezogene Daten verarbeiten. Viele KI-Systeme unterliegen beiden Regimen gleichzeitig: Die KI-Verordnung regelt die Klassifizierung und Sicherheit des Systems, während die DSGVO jede Verarbeitung personenbezogener Daten regelt.

Muss ich mein KI-System in der EU registrieren?

Anbieter und Betreiber von Hochrisiko-KI-Systemen nach Anhang III (mit begrenzten Ausnahmen) müssen das System nach Artikel 49 in der EU-Datenbank registrieren, bevor sie es in Verkehr bringen oder in Betrieb nehmen. Betreiber, die öffentliche Stellen oder Organe der Union sind, haben ebenfalls Registrierungspflichten. Systeme mit geringerem Risiko erfordern keine Registrierung.

Make Your AI Auditable and Compliant

Ctrl AI provides expert-verified reasoning units with full execution traces — the infrastructure you need for EU AI Act compliance.

Explore Ctrl AI

Verwandte Artikel