Website-Icon Kanzlei Plutte

Große FAQ zur KI-Verordnung (KI-VO) mit Check

ki verordnung faq

Immer mehr Unternehmen setzen künstliche Intelligenz (KI) in ihren Produkten und Internetseiten ein. Wir erklären, was Unternehmen nach der neuen KI-Verordnung beachten müssen, wenn sie KI entwickeln, nutzen oder verkaufen wollen.

Rechtsanwalt Niklas Plutte
Fachanwalt für gewerblichen Rechtsschutz

Rechtsanwalt Oliver Wolf, LL.M.
Fachanwalt für Urheber- und Medienrecht

Unsere Kanzlei ist spezialisiert und IT-Recht, Urheberrecht und Persönlichkeitsrecht. Wir beraten Unternehmen bei Rechtsfragen rund um die Nutzung von künstlicher Intelligenz. Nutzen Sie unsere kostenlose Erstberatung.

Tipp: Beachten Sie auch unsere großen Rechts-FAQ zu ChatGPT und Co.

1. Was ist die KI-Verordnung?

Die EU-Verordnung 2024/1689 („KI-Verordnung“, „KI-VO“ oder „AI-Act“ genannt), ist das weltweit erste Gesetz, das sich umfassend der Regulierung von Künstlichen Intelligenz-Systemen und Künstlichen Intelligenz-Modellen widmet. Sie gilt unmittelbar in allen EU-Mitgliedsstaaten, ein zusätzliches deutsches Umsetzungsgesetz ist nicht erforderlich.

nach oben

2. Was regelt die KI-Verordnung?

Die KI-VO soll einen einheitlichen Rechtsrahmen mit Regeln und Pflichten für die Verwendung und Entwicklung von künstlicher Intelligenz (KI) innerhalb des europäischen Binnenmarktes schaffen und die Grundrechte der Unionsbürger in Bezug auf die Auswirkungen von künstlicher Intelligenz schützen (Art. 1 Abs. 1 KI-VO).

Der EU-Gesetzgeber hat sich für einen Regulierungsansatz entschieden, bei dem die Anforderungen in der Verordnung nur umrissen und anschließend durch die europäischen Normungsorganisationen und die Anbieter selbst konkretisiert werden. Der Normungsprozess ist derzeit noch nicht abgeschlossen. Daher ist der Inhalt vieler Pflichten noch nicht final geklärt. Sobald der Normierungsprozess abgeschlossen ist, gilt eine sog. Konformitätsvermutung (Art. 40 Abs. 1 KI-VO): Durch Einhalten der Norm wird vermutet, dass der Akteur die entsprechende Pflicht der KI-VO erfüllt.

Privatorganisationen formen gesetzlichen Pflichtenrahmen: Die Entscheidung, die Konkretisierung von Pflichten nach der KI-VO auf Normierungsorganisationen zu übertragen, ist nicht unumstritten. Auf der einen Seite verfügen die Normierungsbehörden über einen hohen Sachverstand. Auf der anderen Seite handelt es sich um private Organisationen. Füllen diese den Inhalt eines Gesetzes aus, stellt sich die Frage, ob sie dazu überhaupt demokratisch legitimiert sind, da die europäischen Gesetzgebungsorgane auf den Normierungsprozess keine Einwirkung haben (vgl. Ebers/Streitbörger: Die Regulierung von Hochrisiko-KI-Systemen in der KI-VO (RDi 2024, 393)).

nach oben

3. Ab wann gilt die KI-Verordnung?

Die KI-VO ist am 01.08.2024 in Kraft getreten und wird schrittweise wie folgt umgesetzt (Art. 113 KI-VO):

nach oben

4. Wo gilt die KI-Verordnung?

Die KI-Verordnung greift bei Bezug zur EU oder dem europäischen Binnenmarkt. Sie gilt also nicht nur innerhalb der EU-Mitgliedstaaten, sondern auch im gesamten Europäischen Wirtschaftsraum (EWR) sowie zusätzlich in Norwegen, Island und Liechtenstein. Entscheidend ist nicht nur der geografische Standort, sondern auch, wo ein KI-System angeboten, eingesetzt oder verwendet wird.

Für Anbieter von KI-Systemen greift das sogenannte Marktortprinzip. Das bedeutet: Die KI-Verordnung gilt unabhängig vom Sitz des Anbieters, sobald ein KI-System in der EU oder im EWR bereitgestellt, in Verkehr gebracht oder in Betrieb genommen wird. Dies betrifft auch Unternehmen mit Sitz außerhalb der EU, sofern deren KI-Systeme auf den europäischen Markt ausgerichtet sind.

Für Betreiber von KI-Systemen gilt hingegen das Niederlassungsprinzip. Maßgeblich ist hier, ob die betreffende Organisation oder Person ihren Sitz oder eine Niederlassung innerhalb der Union hat.

nach oben

5. Was sind KI-Systeme und KI-Modelle?

Zunächst ist es wichtig zu verstehen, was KI-Systeme und KI-Modelle im Sinne der KI-VO sind.

Nach Art. 3 Nr. 1 KI-VO ist ein KI-System definiert als

„ein maschinengestütztes System, das für einen in unterschiedlichem Grade autonomen Betrieb ausgelegt ist und das nach seiner Betriebsaufnahme anpassungsfähig sein kann und das aus den erhaltenen Eingaben für explizite oder implizite Ziele ableitet, wie Ausgaben wie etwa Vorhersagen, Inhalte, Empfehlungen oder Entscheidungen erstellt werden, die physische oder virtuelle Umgebungen beeinflussen können“.

Demnach sind KI-Systeme Softwareanwendungen, die auf Basis von Daten arbeiten, diese analysieren und selbständige Ergebnisse wie Vorhersagen, Empfehlungen oder Entscheidungen generieren. Diese Ergebnisse können sowohl die reale als auch die virtuelle Umgebung beeinflussen.

Bekannte Beispiele für KI-Systeme, die nahezu jeder schon einmal genutzt hat, sind Sprachassistenten wie Siri, Alexa oder Google Assistant.

Der Begriff des KI-Modells wird in der KI-VO nicht definiert. Im Unterschied zum KI-System, das eine zur Nutzung geeignete Anwendung darstellt, versteht man unter einem KI-Modell das hinter dem KI-System stehende Element. Ein KI-Modell allein ist daher also noch kein KI-System. Damit ein KI-System entsteht, sind zusätzliche Komponenten erforderlich, wie z.B. eine Nutzerschnittstelle, die die Interaktion mit dem System ermöglicht (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht, § 10 Rn. 8). Ein KI-System kann aus einem oder mehreren KI-Modellen bestehen. Die KI-Modelle werden mit Datensätzen trainiert, um Muster zu erkennen und entsprechenden Output zu erzeugen (What is AI).

nach oben

6. Was sind KI-Systeme oder KI-Modelle mit allgemeinem Verwendungszweck?

Die KI-VO spricht häufig von KI-Systemen oder KI-Modellen mit allgemeinem Verwendungszweck. Der Begriff der KI-Systeme mit allgemeinem Verwendungszweck, auch als generative KI-Systeme bekannt, wurde in der KI-VO ursprünglich nicht berücksichtigt. Erst nachdem OpenAI im November 2022 ChatGPT der breiten Öffentlichkeit zugänglich gemacht hatte, wurde klar, dass auch KI-Systeme mit allgemeinem Verwendungszweck in der Verordnung zu berücksichtigen seien (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht, § 10 Rn. 17-19).

Ein Beispiel für ein KI-Modell mit allgemeinem Verwendungszweck ist GPT-4, das ChatGPT zum Zeitpunkt der Veröffentlichung dieses Beitrags zugrunde liegende KI-Modell.

nach oben

7. CHECK: Für wen gilt die KI-Verordnung?

Die KI-VO richtet sich vor allem an Anbieter (Provider) und Betreiber (Developer) von KI-Systemen und -Modellen. Ihre Geltung ist standortunabhängig. Nach Art. 2 Abs. 1 lit. c KI-VO erfasst sie auch Anbieter und Betreiber mit Sitz in Drittstaaten, sofern das KI-System innerhalb der EU genutzt wird oder der daraus resultierende Output in der EU Verwendung findet (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht, § 3 Rn. 53).

Die KI-VO definiert Anbieter und Betreiber wie folgt:

Anbieter ist nach Art. 2 Abs.1 lit. a KI-VO in Verbindung mit Art. 3 Nr. 3 KI-VO eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI System oder ein KI Modell mit allgemeinem Verwendungszweck entwickelt oder entwickeln lässt und es unter eigenen Namen oder Handelsmarke in Verkehr bringt (Art. 3 Nr. 9 KI-VO) oder das KI System unter eigenen Namen oder Handelsmarke in Betrieb nimmt (Art. 3 Nr. 10 KI-VO), sei es entgeltlich oder unentgeltlich. Die Definition umfasst somit auch Akteure, die KI-Systeme fremdentwickeln lassen und sie auf den Markt bringen oder selbst in Betrieb nehmen. Ausgenommen sind dagegen Personen, die Modelle für nicht berufliche oder wissenschaftliche Forschungszwecke entwickeln oder verwenden (Erwgr. 109, Satz 1 KI-VO).

Betreiber ist nach Art. 2 Abs.1 lit. b KI-VO in Verbindung mit Art. 3 Nr. 4 KI-VO eine natürliche oder juristische Person, Behörde, Einrichtung oder sonstige Stelle, die ein KI System in eigener Verantwortung verwendet, es sei denn, das KI System wird im Rahmen einer persönlichen und nicht beruflichen Tätigkeit verwendet.

Betreiber sind beispielsweise Unternehmen, die ein handelsübliches KI-System in ihrem Betrieb einsetzen. Durch die stark zunehmende Integration von künstlicher Intelligenz in Unternehmensprozessen aller Ebenen ist diese Variante für viele Firmen relevant.

KI-Risikoprüfung

Gehören Sie zur Zielgruppe der KI-VO? Prüfen Sie anhand der folgenden Punkte, ob Sie von der Verordnung betroffen sind:

  • Anbieter

  • 1. Entwickeln Sie KI-Systeme oder lassen Sie KI-Systeme bzw. KI-Modelle entwickeln und bringen Sie diese unter eigenem Namen oder Ihrer Handelsmarke entgeltlich oder unentgeltlich in der EU in den Verkehr? Ob Ihr Sitz innerhalb der EU liegt, hat keine Bedeutung.
  • Sie sind Anbieter eines KI-Systems, Art. 2 Abs. 1 lit. a KI-VO in Verbindung mit Art. 3 Nr. 3 KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind nicht Anbieter eines KI-Systems im Sinne der KI-Verordnung.
  • Betreiber

  • 2. Betreiben Sie KI-Systeme bzw. KI-Modelle in eigener Verantwortung innerhalb der EU? Ob Ihr Sitz in der EU liegt, ist nicht relevant.
  • Sie sind Betreiber eines KI-Systems, Art. 2 Abs. 1 lit. b KI-VO in Verbindung mit Art. 3 Nr. 4 KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind kein Betreiber eines KI-Systems im Sinne der KI-Verordnung.
  • Einführer

  • 3. Sind Sie eine in der Union ansässige oder niedergelassene natürliche oder juristische Person, die ein KI-System, das den Namen oder die Handelsmarke einer in einem Drittland niedergelassenen natürlichen oder juristischen Person trägt, in den Verkehr bringt?
  • Sie sind Einführer eines KI-Systems im Sinne von Art. 2 Abs. 1 lit. d KI-VO in Verbindung mit Art. 3 Nr. 6 KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind nicht Einführer eines KI-Systems im Sinne der KI-Verordnung.
  • Händler

  • 4. Sind Sie eine natürliche oder juristische Person, die ein KI-System in der EU bereitstellt, jedoch nicht als Anbieters oder Einführer?
  • Sie sind Händler im Sinne von Art. 2 Abs.1 lit. d KI-VO in Verbindung mit Art. 3 Nr. 7 KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind kein Händler im Sinne von Art. 2 Abs.1 lit. d KI-VO in Verbindung mit Art. 3 Nr. 7 KI-VO.
  • Produkthersteller

  • 5. Bringen Sie KI-Systeme zusammen mit ihren Produkten unter eigenem Namen oder ihrer Handelsmarke in den Verkehr oder nehmen Sie diese in Betrieb?
  • Sie sind Produkthersteller im Sinne von Art. 2 Abs. 1 lit. e KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind kein Produkthersteller im Sinne von Art. 2 Abs. 1 lit. e KI-VO.
  • Bevollmächtigter

  • 6. Handeln Sie als Bevollmächtigter für einen Anbieter eines KI-Systems oder eines KI-Modells mit allgemeinem Verwendungszweck, der nicht in der Union niedergelassen ist?
  • Sie sind Bevollmächtigter eines KI-Anbieters im Sinne von Art. 2 lit. f KI-VO in Verbindung mit Art. 3 Nr. 5 KI-VO. Haben Sie rechtliche Fragen? Wir beraten Sie gerne. Nutzen Sie unsere kostenfreie Ersteinschätzung.
  • Sie sind nicht Bevollmächtigter einer KI-Anbieters im Sinne von Art. 2 lit. f KI-VO in Verbindung mit Art. 3 Nr. 5 KI-VO.

Art. 25 KI-VO regelt den Fall, dass ein Betreiber in die Rolle des Anbieters „einrückt“. Nimmt ein Betreiber wesentliche Veränderungen an einem bereits in den Verkehr gebrachten KI-System vor, wodurch das KI-System als Hochrisiko-KI zu qualifizieren ist, rückt der Betreiber in die Rolle des Anbieters ein. Das Gleiche gilt, wenn ein Betreiber ein KI-System, das vorher nicht als hochriskant eingestuft wurde, zu einem Zweck verwendet, der unter den Katalog der Hochrisiko-KI-Systeme fällt.

Beispiel: Setzt ein Unternehmen ChatGPT in einer Weise ein, dass die Anwendung von der KI-VO als Hochrisiko-Anwendung eingestuft wird (etwa in einem Bewerbungsprozess), muss das Unternehmen (das grundsätzlich nur „Betreiber“ ist), die Pflichten für „Anbieter“ von Hochrisiko-KI-Systemen beachten. Das ist nicht unproblematisch: Rückt man als Betreiber in die Anbieterpflichten ein, kann es notwendig werden, ein Konformitätsbewertungsverfahren durchzuführen. Dieses Verfahren kann bei einer Nutzung von ChatGPT ohne die Mitwirkung von OpenAI, dem Unternehmen hinter ChatGPT, nicht bewerkstelligt werden (vgl. Ebers/Streitbörger: Die Regulierung von Hochrisiko-KI-Systemen in der KI-VO (RDi 2024, 393)).

Zum Spannungsfeld der Kooperationspflicht des Art. 25 KI-VO und möglicher Geschäftsgeheimnisse empfehlen wir diesen vertiefenden Beitrag der geschätzten Kollegen von Löffel Abrar.

nach oben

8. Wann gilt die KI-Verordnung nicht?

Die KI-VO gilt nicht für Verbraucher, die KI Systeme im Rahmen einer ausschließlich persönlichen und nicht beruflichen Tätigkeit verwenden (Art. 2 Abs. 10 KI-VO).

Auch die meisten Open-Source-KI-Systeme sind von der Anwendbarkeit der KI-VO ausgeschlossen. Eine Ausnahme besteht, wenn sie als Hochrisiko-KI-Systeme oder als KI-Systeme, die unter Art. 5 KI-VO oder Art. 50 KI-VO fallen, in Verkehr gebracht oder in Betrieb genommen werden (Art. 2 Abs. 12 KI-VO). Dazu zählen beispielsweise quelloffene Hochrisiko-KI-Systeme, die synthetische Inhalte wie Bilder, Texte, Audio- und Videodateien erzeugen (z.B. Deepfakes) oder für Emotionserkennung und biometrische Kategorisierung eingesetzt werden.

Weiter von der KI-VO ausgenommen sind:

nach oben

9. Wie funktioniert das Risikosystem der KI-Verordnung?

Die KI-VO unterteilt KI-Systeme in die vier Risikostufen. Je nach Risikostufe kann die KI völlig einschränkungslos nutzbar sein, Beschränkungen unterliegen oder verboten sein. Neben den vier Risikostufen, die sich an dem Gefahrenpotenzial der konkreten Anwendung eines KI-Systems orientieren gibt es noch die KI-Systeme mit allgemeinem Verwendungszweck (Art. 51 ff. KI-VO). Bei KI-Systemen mit allgemeinem Verwendungszweck lässt sich gerade kein konkretes Anwendungsszenario ausmachen (vgl. Wendt in Wendt/Wendt Das neue KI-Recht, § 3 Rn. 48), weswegen diese nicht vom Risiko-Stufensystem der KI-VO umfasst sind.

nach oben

a. Verbotene Praktiken

KI-Systeme, die Praktiken einsetzen, die der Liste des Art. 5 KI-VO unterfallen, sind verboten. Hierzu zählen KI-Systeme, die

nach oben

b. Hochrisiko-KI-Systeme

Den Schwerpunkt der KI-VO bilden die Hochrisiko-KI-Systemen nach Art. 6 ff. KI-VO. Diese sind nicht verboten, aber streng reguliert. Der Gesetzgeber hat sich für ein dynamisches System zur Klassifizierung von Hochrisiko-KI-Systemen entschieden. Die Einstufung hängt von der Anwendung und den möglichen Auswirkungen auf Grundrechte, Gesundheit oder Sicherheit ab. Wann liegt ein Hochrisiko-KI-System vor? Nach Art. 6 Abs. 1 KI-VO fallen unter Hochrisiko-KI-Systeme solche, die als Sicherheitsbauteil für ein Produkt dienen, das bereits Regelungsgegenstand eines in Anhang I Abschnitt A der VO aufgeführtem EU-Rechtsakts ist oder das KI-System selbst ein solches Produkt ist.

Dazu zählen Maschinen, Spielzeuge, Medizinprodukte aber auch Aufzüge, Druckgeräte und Funkanlagen (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht § 4 Rn. 23). Hochrisiko-KI-Systeme müssen, bevor diese in den Verkehr gebracht oder in Betrieb genommen werden, einer Konformitätsbewertung durch Dritte unterzogen werden. Diese Bewertung erfolgt gemäß den in Anhang I der KI-VO aufgeführten Harmonisierungsrechtsvorschriften der Union (Art. 6 Abs. 1 lit. b KI-VO). Zusätzlich zu den in Art. 6 Abs. 1 KI-VO genannten Hochrisiko-KI-Systemen gelten gemäß Art. 6 Abs. 2 KI-VO auch die in Anhang III als hochriskant. Diese KI-Systeme werden aufgrund ihres sensiblen Anwendungsbereichs eigenständig von der KI-VO als Hochrisiko-System eingestuft. Unter Anhang III der KI-VO fallen die folgenden Bereiche:

Ein KI-System gilt gemäß Art. 6 Abs. 3 Satz 1 KI-VO nicht als hochriskant, wenn es kein erhebliches Risiko der Beeinträchtigung in Bezug auf die Gesundheit, Sicherheit oder Grundrechte natürlicher Personen birgt, indem es u.a. nicht das Ergebnis der Entscheidungsfindung wesentlich beeinflusst. Ein Ergebnis wird beeinflusst, wenn mindestens eine der folgenden Bedingungen erfüllt ist:

Das KI-System ist dazu bestimmt

Ausnahme: Unabhängig von den oben genannten Bedingungen ist ein KI-System als hochriskant einzustufen, wenn es ein Profiling natürlicher Personen vornimmt, Art. 6 Abs. 3 Satz 3 KI-VO. Gemäß Art. 6 Abs. 5 KI-VO soll die EU-Kommission nach Konsultation des Europäischen Gremiums für Künstliche Intelligenz spätestens innerhalb von 18 Monaten nach Inkrafttreten der KI-VO Leitlinien sowie eine umfassende Liste von Regel- und Gegenbeispielen für eine rechtssichere Einstufung von KI-Systeme veröffentlichen. Dadurch sollen sowohl Unternehmen als auch Behörden unterstützt werden, ein korrekte Risikoeinstufung vorzunehmen.

nach oben

c. KI-Systeme mit begrenztem Risiko

Ein begrenztes Risiko umfassen KI-Systeme mit Transparenzrisiko. Darunter fallen solche KI-Systeme, die direkt mit Menschen interagieren. Die Anbieter solcher KI-Systeme sollen gemäß Art. 50 Abs. 1 KI-VO sicherstellen, dass Personen, die mit einem KI-System interagieren, hierüber informiert sind. Die Information soll den Nutzern spätestens zum Zeitpunkt der ersten Interaktion oder Aussetzung in klarer und eindeutiger Weise bereitgestellt werden (Art. 50 Abs. 5 KI-VO). Dies ist ausnahmsweise dann nicht erforderlich, wenn aus Sicht einer angemessenen informierten, aufmerksamen und verständigen natürlichen Person aufgrund der Umstände und des Kontexts der Nutzung offensichtlich ist, dass es sich um eine Interaktion mit einem KI-System handelt (Art. 50 Abs. 1 KI-VO). Darunter fallen insbesondere (KI-)Chatbots sowie Deepfakes (Art. 3 Nr. 60 KI-VO).

nach oben

d. KI-Systeme mit keinem oder geringem Risiko

KI-Systeme, die nicht unter die obigen drei Stufen fallen, sind in die vierte Kategorie einzuordnen. Für solche KI-Systeme gelten keine besonderen Regeln, da von ihnen nur ein minimales Risiko ausgeht. Für diese Systeme können Anbieter freiwillige Verhaltenskodizes entwickeln und diese einhalten.

Ein Beispiel für ein KI-System mit keinem oder minimalem Risiko sind Spamfilter.

nach oben

e. KI-Systeme mit allgemeinem Verwendungszweck (GPAI)

Ein KI-Modell mit allgemeinem Verwendungszweck („General Purpose Artificial Intelligence“, kurz „GPAI“) weist ein systemisches Risiko auf, wenn es über Fähigkeiten mit hoher Wirkkraft bzw. hohem Wirkungsgrad verfügt. Dabei sind zwei Wege vorgesehen, worüber ein systemisches Risiko festgestellt werden kann (vgl. Bernsteiner/Schmitt in Martini/Wendehorst, KI-VO, Art. 51 Rn. 21):

Ein systemisches Risiko wird in Art. 3 Nr. 65 KI-VO definiert als

„ein Risiko, das für die Fähigkeiten mit hoher Wirkkraft von KI Modellen mit allgemeinem Verwendungszweck spezifisch ist und aufgrund deren Reichweite oder aufgrund tatsächlicher oder vernünftigerweise vorhersehbarer negativer Folgen für die öffentliche Gesundheit, die Sicherheit, die öffentliche Sicherheit, die Grundrechte oder die Gesellschaft insgesamt erhebliche Auswirkungen auf den Unionsmarkt hat, die sich in großem Umfang über die gesamte Wertschöpfungskette hinweg verbreiten können“

Um diesem gesteigerten Risiko zu begegnen, gelten für KI-Systeme und Modelle mit systemischem Risiko verschärfte Regeln (siehe Ziffer 8e).

nach oben

10. Welche Anforderungen gelten für Hochrisiko-KI-Systeme?

Hochrisiko-KI-Systeme müssen eine Vielzahl von Anforderungen erfüllen:

nach oben

11. Welche Pflichten gelten für Anbieter, Betreiber und andere Beteiligte von KI-Systemen?

Die KI-VO berücksichtigt, dass an der Entwicklung und dem Betrieb von KI-Systemen in der Regel nicht nur ein Akteur beteiligt ist. Daher differenziert sie klar zwischen verschiedenen Akteuren und weist ihnen unterschiedliche Pflichten zu. Insbesondere obliegen dem Anbieter in diesem Zusammenhang umfassende Pflichten, die sich aus Art. 16 KI-VO ergeben. (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht, § 6 Rn. 72).

nach oben

a. Pflichten der Anbieter von Hochrisiko-KI-Systemen

Im Folgenden geben wir einen Überblick über die Pflichten, die Anbieter von Hochrisiko-KI-Systemen treffen:

Eine notifizierte Stelle ist gemäß Art. 3 Nr. 22 KI-VO eine Konformitätsbewertungsstelle im Sinne von Art. 3 Nr. 21 KI-VO, die nach den Vorgaben der KI-VO und anderen einschlägigen Harmonisierungsvorschriften der Union notifiziert wurde. Die Notifizierung erfolgt durch die sog. „notifizierende Behörde“, welche gemäß Art. 3 Nr. 19 KI-VO als nationale Behörde, für die Einrichtung und Durchführung der erforderlichen Verfahren für die Bewertung, Benennung und Notifizierung von Konformitätsbewertungsstellen und deren Überwachung zuständig ist. Die Anforderungen an notifizierte Stellen sind in Art. 31 KI-VO geregelt. Nach Art. 35 KI-VO erhalten notifizierte Stellen eine Identifizierungsnummer und werden in einem von der Kommission geführten Verzeichnis gelistet.

Im externen Bewertungsverfahren werden das Qualitätsmanagement und die technische Dokumentation überprüft. Über die Überprüfung der technischen Dokumentation lassen sich darüber hinaus Rückschlüsse über weitere Vorgaben der KI-VO wie Transparenz, Robustheit und Cybersecurity nachvollziehen. Beim internen Verfahren sind die Prüfschritte in Anhang VI der KI-VO grob skizziert. Dadurch wird dem Anbieter ein größerer Spielraum bei der Konformitätsprüfung eingeräumt. Bei wesentlichen Änderungen am KI-System ist ein erneutes Konformitätsbewertungsverfahren durchzuführen.

nach oben

b. Pflichten der Betreiber von Hochrisiko-KI-Systemen

Auch Betreiber von Hochrisiko-KI-Systemen sind Adressaten eines umfassenden Pflichtenkatalogs:

Beispiel: Wird ein KI-System zur Diagnose von Hautkrankheiten (z.B. zur Erkennung von Melanomen) verwendet, liegt der Zweck des KI-System in der zuverlässigen Diagnose von Hautkrankheiten bei Menschen mit unterschiedlichen Altersgruppen, Geschlechtern und Hauttypen. Der Betreiber muss in diesem Fall sicherstellen, dass die Eingabedaten, soweit er Einfluss auf diese hat, stets dem vorgesehenen Zweck entsprechen und ausreichend repräsentativ sind. Er muss sich also fragen, ob das System über ausreichend Daten (Hauttypen, Krankheitsbilder usw.) verfügt, um eine zuverlässige Diagnose treffen zu können. Dies dient insbesondere einer zuverlässigen und diskriminierungsfreien Arbeit des KI-Systems.

Dieser Ansatz ist nicht ohne Kritik geblieben, da fraglich ist, wie weit eine solche Verpflichtung des Betreibers gehen kann. Eigentlich sollte es Aufgabe der Anbieter sein, ihre KI-Systeme so zu gestalten, dass Diskriminierung gar nicht erst auftritt (vgl. I. Eisenberger in Martini/Wendehorst, KI-VO, Art. 26 Rn. 564). Im obigen Beispiel müsste bereits der Anbieter sicherstellen, dass sein KI-System nicht ausschließlich Daten von jungen Menschen mit einem hellen Hauttyp als Grundlage der Analysen verwendet, sondern eine repräsentative Datengrundlage schafft.

Art. 27 Abs. 1 KI-VO zählt die erforderlichen Informationen auf, die die Grundrechte-Folgenabschätzung erhalten muss. Die Grundrechts-Folgenabschätzung ist vor der Inbetriebnahme durchzuführen.

nach oben

c. Pflichten der Händler von Hochrisiko-KI-Systemen

Nach Art. 24 KI-VO sind Händler u.a. verpflichtet zu überprüfen,

Erst nach positiver Kontrolle darf das KI-System auf den Markt gebracht werden.

nach oben

d. Allgemeine Pflichten für Anbieter und Betreiber aller Risikostufen

Für Anbieter und Betreiber von KI-Systemen aller Risikostufen gelten die folgenden Pflichten:

nach oben

e. Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck

Für KI-Modelle mit allgemeinem Verwendungszweck gelten gesonderte Regelungen, die auf ihre spezifischen Risiken zugeschnitten sind.

Für die Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck sollen harmonisierten Normen ausgearbeitet werden. Hält man diese ein, wird nach Art. 53 Abs. 4 Satz 2 KI-VO vermutet, dass das KI-Modell mit den jeweiligen Anforderungen der KI-VO konform ist. Bis die harmonisierten Normen fertiggestellt sind, können die Anbieter auf Praxisleitfäden zurückgreifen, die gemäß Art. 56 KI-VO von der EU erstellt werden (Art. 53 Abs. 4 KI-VO) und bis spätestens 02.05.2025 vorliegen sollen (Art. 56 Abs. IX KI-VO). Außerdem hat die Europäische Kommission die Befugnis, Mess- und Berechnungsmethoden im Einzelnen zu entwickeln, um eine einheitliche Dokumentation von KI-Modellen mit allgemeinem Verwendungszweck zu ermöglichen (Art. 53 Abs. 5 KI-VO).

nach oben

f. Pflichten der Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und systemischem Risiko

Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck und systemischem Risiko gelten zusätzliche Pflichten:

Auch für KI-Modelle mit allgemeinem Verwendungszweck mit systemischem Risiko soll eine harmonisierte Norm ausgearbeitet werden. Bis dahin können sich die Anbieter auf die Praxisleitfäden des Art. 56 KI-VO stützen (Art. 55 Abs. 2 KI-VO).

nach oben

g. Konkretisierung durch die EU

Die KI-VO ist nur ein Teil des neuen Systems zur Regulierung von KI. Art. 40 Abs. 1 KI-VO sieht die Erstellung sog. harmonisierter Normen vor, die vom Komitee JTC 21, einem Zusammenschluss der europäischen Normungsorganisationen CEN (Europäisches Komitee für Normung) und CENELEC (Europäisches Komitee für elektronische Normung), erarbeitet werden. Aus Art. 40 Abs. 2 KI-VO ergeben sich Einzelheiten zum Anwendungsbereich, zu den Fristen und zu den rechtlichen Anforderungen, die die Normen erfüllen müssen. (vgl. Wendt in Wendt/Wendt, Das neue KI-Recht, § 6 Rn. 1-3). Zudem wird die Europäische Kommission gemäß Art. 96 KI-VO Leitlinien zur praktischen Anwendung der KI-VO erstellen.

Die harmonisierten Normen werden bis Ende 2025 erwartet. Bis dahin herrscht große Unsicherheit darüber, wie die Vorgaben der Verordnung umzusetzen sind (vgl. Kilian/Denga: Das Testen und Zertifizieren von KI-Systemen, NJW 2024, 2945).

nach oben

12. Welche Sanktionen drohen bei Verstoß gegen die KI-Verordnung?

Die KI-VO sieht bei Verstößen ein gestaffeltes Sanktionssystem vor. Die Höhe der Geldbuße ist abhängig von Art, Schwere und den Folgen des Verstoßes sowie u.a. auch von dem Jahresumsatz, der Marktmacht und der Größe des Unternehmens. Es bedarf gemäß Art. 99 Abs. 7 KI-VO einer umfassenden Beurteilung der Umstände des Einzelfalls.

Bei Missachtung des Verbots der in Art. 5 KI-VO genannten Praktiken werden Geldbußen von bis zu 35 Mio. Euro oder – im Falle von Unternehmen – bis zu 7 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art. 99 Abs. 3 KI-VO).

Bei Verstößen gegen die

werden Geldbußen von bis zu 15 Mio. Euro oder – im Falle von Unternehmen – bis zu 3 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt, je nachdem, welcher Betrag höher ist (Art. 99 Abs. 4 KI-VO).

Bei Mängeln in der Dokumentation oder Auskunftserteilung werden Geldbußen von bis zu 7,5 Mio. Euro oder – im Falle von Unternehmen – von bis zu 1 % des gesamten weltweiten Jahresumsatzes des vorangegangenen Geschäftsjahres verhängt (Art. 99 Abs. 5 KI-VO).

Für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck gelten die gesonderten Sanktionsvorschriften aus Art. 101 KI-VO.

nach oben

13. Was ist hinsichtlich des Datenschutzrechts zu beachten?

Die DSGVO findet neben der KI-VO Anwendung. Da Anbieter und Betreiber im Umgang mit personenbezogenen Daten häufig Verantwortliche im Sinne des Datenschutzrechts sind, müssen diese die Vorgaben der DSGVO beachten. Das gilt beispielsweise für personenbezogene Eingabedaten durch Kunden, die mit einem KI-gestützten Chatbot interagieren. Muss eine Datenschutz-Folgenabschätzung gemäß der DSGVO gemacht werden, ist zu beachten, dass die nach Art. 13 KI-VO bereitgestellten Daten hierfür verwendet werden müssen.

Hinweis: An diesem Beitrag haben Rechtsanwältin Katja Schott sowie unsere wissenschaftliche Mitarbeiterin Laura Hellfeuer mitgewirkt.

nach oben

Die mobile Version verlassen

Sie sehen gerade einen Platzhalterinhalt von VG Wort. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf den Button unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.

Weitere Informationen '
'