Artikel 2: Anwendungsbereich
Artikel 2 ist die Geltungskarte der EU-KI-VO: Er nennt die erfassten Akteure (Anbieter, Betreiber, Importeure, Händler u. a.), territoriale Anknüpfungen für Drittländer, Teilanwendung für bestimmte Hochrisiko-Fälle mit Bezug zu Anhang I sowie Ausschlüsse (Militär, FuE, persönliche Nutzung, FOSS unter Voraussetzungen u. a.). Zusammen mit Art. 1 (Gegenstand) und Art. 3 (Begriffe) lesen. Paragraphengenau immer EUR-Lex.
Für wen gilt das?
- -Anbieter, die KI-Systeme oder GPAI-Modelle in der Union in Verkehr bringen oder in Betrieb nehmen—einschließlich Drittlandsanbieter nach Art. 2 Abs. 1 lit. a oder c
- -Betreiber mit Sitz oder Ort in der Union sowie Drittlandsakteure, wenn Output des KI-Systems in der Union genutzt wird
- -Importeure, Händler, Hersteller mit KI-Komponente, Bevollmächtigte und betroffene Personen in der Union nach Art. 2 Abs. 1
- -Legal- und Compliance-Teams zu Grenzfällen Militär, FuE, FOSS, Arbeitsrecht und Intermediärdienste nach Art. 2 Abs. 3 bis 12
Szenarien
Ein Anbieter in Singapur stellt ein Allgemeinzweck-Modell per API für Kunden in Italien bereit.
Eine polnische Bank setzt ein Kredit-Scoring-KI nur in Warschau ein; der Modellanbieter sitzt in Kanada.
Output eines US-Bildgenerators wird nur innerhalb der Union von einem Marketingteam genutzt.
Eine KI-Komponente ist in ein Medizinprodukt nach unionsrechtlicher Harmonisierung (Anhang I Teil B) eingebettet.
Was Artikel 2 leistet (Klartext)
Artikel 2 beantwortet wer verpflichtet werden kann und welche Konstellationen ein- oder ausgeschlossen sind. Absatz 1 listet die Erfassungstatbestände—von Betreibern in der Union bis zu Drittlandsfällen über Inverkehrbringen, Inbetriebnahme oder Nutzung von Output in der Union.
Absatz 2 regelt Teilanwendung für bestimmte nach Art. 6 Abs. 1 hochriskante KI-Systeme im Zusammenhang mit Anhang I Teil B—bis zur Integration in Harmonisierungsrecht greifen nur ausgewählte Artikel.
Absätze 3 bis 12 enthalten Ausschlüsse und Vorbehalte (u. a. nationale Sicherheit/Verteidigung, wissenschaftliche FuE, Tätigkeiten vor Inverkehrbringen mit Grenzen, rein persönliche nicht-berufliche Nutzung, FOSS unter Bedingungen, arbeitsrechtlicher Vorbehalt, Vorrang des Datenschutzes für personenbezogene Daten). Artikel 3 und die Kapitel zu den Einzelpflichten bleiben unverzichtbar—Artikel 2 ist die Grenzziehung direkt nach Artikel 1.
Artikel 2 Absatz 1: Prüfreihenfolge
Exakte Begriffe nur auf EUR-Lex; pragmatisch:
- a) Gibt es einen Anbieter (KI-System oder GPAI-Modell) mit Bezug zum EU-Markt?
- b) Betreibt jemand mit Sitz oder Ort in der Union?
- c) Wird Output eines Drittland-KI-Systems in der Union genutzt?
- d) bis f) Importeur, Händler, Hersteller mit Produkt und KI, Bevollmächtigte
- g) Betroffene Personen in der Union, soweit die Norm Anknüpfungen schafft
Wenn kein Tatbestand greift und kein Ausschluss einschlägig ist, kann die KI-VO unanwendbar sein—Begründung dokumentieren und bei Faktenänderung neu prüfen.
Anschluss an andere Artikel
- Artikel 1 — Gegenstand: wofür die Verordnung steht; Artikel 2 entscheidet, wer drin ist.
- Artikel 3 — Begriffsbestimmungen: Anbieter, Betreiber, Importeur usw.
- Artikel 4 — KI-Kompetenz: bei Anwendbarkeit müssen Anbieter und Betreiber Kompetenz verhältnismäßig aufbauen.
- Artikel 5 — Verbotene Praktiken (weiterhin anwendungsabhängig).
- Artikel 6 + Anhang III — Hochrisiko (Art. 2 Abs. 2 begrenzt die Schnittmenge mit Anhang I Teil B).
- Artikel 50 — Transparenz (FOSS-Ausnahme in Art. 2 Abs. 12 nennt ausdrücklich Art. 5 oder Art. 50).
- Artikel 113 — Anwendungszeitpunkte.
Zu personenbezogenen Daten verweist Art. 2 Abs. 7 auf Vorrang von Verordnung (EU) 2016/679 (DSGVO), (EU) 2018/1725, Richtlinie 2002/58/EG und Richtlinie (EU) 2016/680; DSFA und KI-Konformität zusammen denken.
Praktische Checkliste (Scoping)
- Wertschöpfungskette gegen lit. a bis g spiegeln, bevor „kein EU-Bezug“ behauptet wird.
- Drittland + Output: Art. 2 Abs. 1 lit. c als bewusste Anknüpfung—Nutzungsort und Datenflüsse belegen.
- Verteidigung/Militär: Art. 2 Abs. 3 eng lesen; nationale Sicherheit sensibel—bei klassifizierten Programmen Fachanwälte einbinden.
- FOSS: Art. 2 Abs. 12 kein Freifahrtschein—Hochrisiko, Art. 5 oder 50 können greifen.
- FuE vs Markt: Art. 2 Abs. 6 bis 8 unterscheiden wissenschaftliche FuE, Tätigkeiten vor Inverkehrbringen und Tests unter realen Bedingungen (ausdrücklich nicht ausgenommen).
- Fristen: Art. 113 parallel zu jeder Scope-Notiz führen.
Amtlicher Wortlaut (Auszug): Artikel 2 vollständig
Note: Für buchstabentreue Zitate ohne Übersetzungsrisiko folgt hier die englische Amtsfassung von Artikel 2 der Verordnung (EU) 2024/1689, wie sie auf EUR-Lex im konsolidierten HTML üblich zitiert wird. Für deutsche Behörden, Verträge und Prozessführung ist die deutsche Fassung auf EUR-Lex maßgeblich (Link oben). Bitte EUR-Lex erneut öffnen, bevor Sie Compliance daraus ableiten.
1. This Regulation applies to:
(a) providers placing on the market or putting into service AI systems or placing on the market general-purpose AI models in the Union, irrespective of whether those providers are established or located within the Union or in a third country;
(b) deployers of AI systems that have their place of establishment or are located within the Union;
(c) providers and deployers of AI systems that have their place of establishment or are located in a third country, where the output produced by the AI system is used in the Union;
(d) importers and distributors of AI systems;
(e) product manufacturers placing on the market or putting into service an AI system together with their product and under their own name or trademark;
(f) authorised representatives of providers, which are not established in the Union;
(g) affected persons that are located in the Union.
2. For AI systems classified as high-risk AI systems in accordance with Article 6(1) related to products covered by the Union harmonisation legislation listed in Section B of Annex I, only Article 6(1), Articles 102 to 109 and Article 112 apply. Article 57 applies only in so far as the requirements for high-risk AI systems under this Regulation have been integrated in that Union harmonisation legislation.
3. This Regulation does not apply to areas outside the scope of Union law, and shall not, in any event, affect the competences of the Member States concerning national security, regardless of the type of entity entrusted by the Member States with carrying out tasks in relation to those competences.
This Regulation does not apply to AI systems where and in so far they are placed on the market, put into service, or used with or without modification exclusively for military, defence or national security purposes, regardless of the type of entity carrying out those activities.
This Regulation does not apply to AI systems which are not placed on the market or put into service in the Union, where the output is used in the Union exclusively for military, defence or national security purposes, regardless of the type of entity carrying out those activities.
4. This Regulation applies neither to public authorities in a third country nor to international organisations falling within the scope of this Regulation pursuant to paragraph 1, where those authorities or organisations use AI systems in the framework of international cooperation or agreements for law enforcement and judicial cooperation with the Union or with one or more Member States, provided that such a third country or international organisation provides adequate safeguards with respect to the protection of fundamental rights and freedoms of individuals.
5. This Regulation shall not affect the application of the provisions on the liability of providers of intermediary services as set out in Chapter II of Regulation (EU) 2022/2065.
6. This Regulation does not apply to AI systems or AI models, including their output, specifically developed and put into service for the sole purpose of scientific research and development.
7. Union law on the protection of personal data, privacy and the confidentiality of communications applies to personal data processed in connection with the rights and obligations laid down in this Regulation. This Regulation shall not affect Regulation (EU) 2016/679 or (EU) 2018/1725, or Directive 2002/58/EC or (EU) 2016/680, without prejudice to Article 10(5) and Article 59 of this Regulation.
8. This Regulation does not apply to any research, testing or development activity regarding AI systems or AI models prior to their being placed on the market or put into service. Such activities shall be conducted in accordance with applicable Union law. Testing in real world conditions shall not be covered by that exclusion.
9. This Regulation is without prejudice to the rules laid down by other Union legal acts related to consumer protection and product safety.
10. This Regulation does not apply to obligations of deployers who are natural persons using AI systems in the course of a purely personal non-professional activity.
11. This Regulation does not preclude the Union or Member States from maintaining or introducing laws, regulations or administrative provisions which are more favourable to workers in terms of protecting their rights in respect of the use of AI systems by employers, or from encouraging or allowing the application of collective agreements which are more favourable to workers.
12. This Regulation does not apply to AI systems released under free and open-source licences, unless they are placed on the market or put into service as high-risk AI systems or as an AI system that falls under Article 5 or 50.
Erwägungsgründe (Präambel) auf EUR-Lex
Die Erwägungsgründe im selben konsolidierten KI-Rechtsakt auf EUR-Lex erläutern oft den Regelungszweck von Anwendungsbereich, Territorialität und Ausschlüssen. Nutzen Sie die offizielle Präambel auf EUR-Lex—keine inoffiziellen Erwägungsgrund-Listen ohne Abgleich mit Reihenfolge und Wortlaut.
Checkliste
- Datierten Art.-2-Entscheidungsbaum (Abs. 1, dann Ausschlüsse Abs. 3–12) pro Produktlinie pflegen.
- Schnittmengen mit Anhang I Teil B und Art. 2 Abs. 2 markieren und Sektorintegration verfolgen.
- Bei grenzüberschreitendem Output dokumentieren, wo „Nutzung in der Union“ liegt und wer Anbieter vs. Betreiber nach Art. 3 ist.
- DSGVO-Unterlagen (Rechtsgrundlage, DSFA) mit KI-Dokumentation abstimmen—Art. 2 Abs. 7 bewahrt Datenschutzrecht.
- Scope neu prüfen bei Lizenz-/Deployment-Wechsel (FOSS vs. kommerziell, On-Prem vs. API, Dual-Use-Narrative).
Unklar, ob Ihr Setup in den Anwendungsbereich fällt? Kostenlose Einschätzung starten.
Kostenlose Bewertung startenVerwandte Artikel
Artikel 1: Gegenstand
Artikel 3: Begriffsbestimmungen
Artikel 4: KI-Kompetenz (AI literacy)
Artikel 5: Verbotene KI-Praktiken
Artikel 6: Einordnungsregeln für Hochrisiko-KI-Systeme
Artikel 50: Transparenzpflichten für begrenzte Risiken
Artikel 51: GPAI-Modelle mit Systemrisiko
Artikel 113: Entry into force and application, EU AI Act
Verwandte Anhänge
- Anhang I — Unionsrechtliche Harmonisierungsvorschriften (Teil B i. V. m. Art. 2 Abs. 2)
Häufige Fragen
Befreit Artikel 2 alle Open-Source-KI?
Nein. Art. 2 Abs. 12 gilt nur unter der Bedingung, dass die Systeme nicht als Hochrisiko in Verkehr gebracht oder in Betrieb genommen werden und nicht unter Art. 5 oder 50 fallen. Es ist eine bedingte Ausnahme, keine generelle Freistellung.
Wir machen nur FuE—sind wir automatisch außerhalb?
Art. 2 Abs. 6 bis 8 schließen bestimmte Forschungs- und Entwicklungsaktivitäten aus, aber eng gefasst (z. B. wissenschaftliche FuE, Tätigkeiten vor Inverkehrbringen). Tests unter realen Bedingungen fallen ausdrücklich nicht unter die Ausnahme—jede Aktivität auf EUR-Lex prüfen.
Ersetzt Artikel 2 die Definitionen in Artikel 3?
Nein. Artikel 2 regelt den Anwendungsbereich, Artikel 3 die Begriffe und Rollen. Seriöse Memos zitieren beides: zuerst Scope, dann rollenspezifische Pflichten.