Kapitel I — Allgemeine BestimmungenArtikel 1

Artikel 1: Gegenstand

Gilt ab 2. Aug. 2026ca. 1034 WörterEUR-Lex geprüft Apr. 2026

Artikel 1 legt den Gegenstand der EU-KI-Verordnung fest: harmonisierte Regeln für den Binnenmarkt, Schutz von Gesundheit, Sicherheit, Grundrechten, Demokratie und Rechtsstaat sowie Innovationsförderung—und benennt die wichtigsten Bausteine (Verbote, Hochrisiko, Transparenz, GPAI, Governance u. a.). Paragraphengenau immer EUR-Lex.

Für wen gilt das?

  • -Alle von KI-Systemen Betroffenen im Anwendungsbereich—Anbieter, Betreiber, Importeure, Händler und ggf. Hersteller von Produkten mit KI-Komponente
  • -Behörden und öffentliche Auftraggeber in den Mitgliedstaaten
  • -Drittlandsakteure, deren Modelle oder Systeme in der Union in Verkehr gebracht, in Betrieb genommen oder genutzt werden

Szenarien

Ein US-SaaS-Anbieter verkauft eine API zur Bewertung von EU-Bewerbern, ohne Niederlassung in der EU.

Art. 1 Abs. 2 lit. a ordnet solche Fälle in die harmonisierten Regeln zu Inverkehrbringen, Inbetriebnahme und Nutzung ein—konkrete Rollen folgen aus Art. 2 ff.
Ref. Art. 1 Abs. 2 lit. a

Ein Ministerium will Biometrie-Analytik im öffentlichen Raum für die Strafverfolgung einsetzen.

Der Gegenstand umfasst Verbote, Hochrisiko- und Transparenzschichten; Art. 5 und die Einordnung (z. B. Art. 6, Anhang III) bestimmen, was zulässig ist.
Ref. Art. 1 Abs. 2 lit. b bis d

Ein Foundation-Model-Anbieter veröffentlicht offene Gewichte und Dokumentation für EU-Entwickler.

Art. 1 Abs. 2 lit. e stellt Allgemeinzweck-KI-Modelle ausdrücklich unter den harmonisierten Rahmen (Ausgestaltung in Kapitel V und Anhängen).
Ref. Art. 1 Abs. 2 lit. e

Ein KMU fragt, ob die Verordnung nur für „gefährliche Roboter“ gilt.

Art. 1 Abs. 1 nennt mehrere Ziele; Abs. 2 zeigt, dass Pflichten Verbote, Hochrisiko, begrenztes Risiko und GPAI umfassen—nicht nur Hardware-Roboter.
Ref. Art. 1 Abs. 1 und 2

Was Artikel 1 leistet (Klartext)

Artikel 1 beantwortet worum es in der EU-KI-Verordnung geht. Absatz 1 nennt die Ziele, u. a. bessere Funktion des Binnenmarkts für KI, menschenzentrierte und vertrauenswürdige KI sowie hohen Schutz von Gesundheit, Sicherheit, Grundrechten, Demokratie, Rechtsstaat und Umwelt—bei Förderung von Innovation (insbesondere KMU und Start-ups).

Absatz 2 listet die wesentlichen harmonisierten Regelungsbereiche auf. Praktisch ist das das Inhaltsverzeichnis des Gesetzes: Markt- und Nutzungsregeln, Verbote, Hochrisiko-Anforderungen, Transparenz für bestimmte Systeme, GPAI-Modelle, Marktüberwachung und Governance sowie Innovationsmaßnahmen.

Wichtig: Artikel 1 definiert nicht Ihre Rolle (Anbieter vs. Betreiber) und nicht jeden Ausnahmetatbestand—das regeln Artikel 2 (Anwendungsbereich) und Artikel 3 (Begriffsbestimmungen) zusammen mit weiteren Kapiteln.

Artikel 1 Absatz 2: die sieben Bausteine

Der Amtswortlaut strukturiert den Gegenstand in Buchstaben—EUR-Lex für exakte Fassung; hier eine Navigationshilfe:

  • a) Inverkehrbringen, Inbetriebnahme und Nutzung von KI-Systemen in der Union
  • b) Verbotene KI-Praktiken (Kapitel II)
  • c) Hochrisiko-KI-Systeme und Pflichten der Beteiligten (Kapitel III und Anhänge)
  • d) Transparenzpflichten für bestimmte KI-Systeme
  • e) Regeln zum Inverkehrbringen von Allgemeinzweck-KI-Modellen (Kapitel V u. a.)
  • f) Marktüberwachung (monitoring), Marktaufsicht (surveillance), Governance und Vollzug
  • g) Maßnahmen zur Förderung von Innovation, insbesondere für KMU und Start-ups

Bei der Priorisierung: zuerst Verbote, dann Einordnung (Hochrisiko / GPAI), dann Transparenz, dann übergreifende Governance.

Anschluss an andere Artikel

  • Artikel 2Anwendungsbereich: räumliche und sachliche Grenzen.
  • Artikel 3Begriffsbestimmungen: Anbieter, Betreiber, KI-System, Hochrisiko, GPAI-Modell usw.
  • Artikel 4KI-Kompetenz: Maßnahmen für Anbieter und Betreiber, an Art. 3 Nr. 56 geknüpft.
  • Artikel 5 — Erster harter Schwellenwert: verbotene Praktiken.
  • Artikel 6 + Anhang IIIHochrisiko-Einordnung.
  • Artikel 50Transparenz bei begrenztem Risiko.
  • Artikel 51–56GPAI-Modelle auf dem EU-Markt.
  • Artikel 113Anwendungszeitpunkte vieler Regeln.

Artikel 1 ist damit die Einordnungsnorm; operative Details stehen in den genannten Artikeln.

Praktische Checkliste (Orientierung)

  • Artikel 1 Abs. 2 bei jedem größeren Onboarding (Legal, Produkt, Security) einmal referieren.
  • Neues Feature oder Vendor gegen lit. a bis g spiegeln, bevor Sie tief in Anhang III gehen.
  • Artikel 1 mit Artikel 2 in jeder Jurisdiktionsnotiz koppeln (Gegenstand ≠ vollständiger Anwendungsbereich).
  • Nach Änderungen konsolidierten EUR-Lex-Stand datiert ablegen.

Amtlicher Wortlaut (Auszug): Art. 1 Abs. 1 und Abs. 2 lit. a bis g

Note: Für buchstabentreue Zitate ohne Übersetzungsrisiko folgt hier die englische Amtsfassung von Artikel 1 der Verordnung (EU) 2024/1689, wie sie auf EUR-Lex im konsolidierten HTML üblich zitiert wird. Für deutsche Behörden, Verträge und Prozessführung ist die deutsche Fassung auf EUR-Lex maßgeblich (Link oben). Bitte EUR-Lex erneut öffnen, bevor Sie Compliance daraus ableiten.

1. The purpose of this Regulation is to improve the functioning of the internal market and promote the uptake of human-centric and trustworthy artificial intelligence (AI), while ensuring a high level of protection of health, safety, fundamental rights enshrined in the Charter, including democracy, the rule of law and environmental protection, against the harmful effects of AI systems in the Union and supporting innovation.

2. This Regulation lays down:

(a) harmonised rules for the placing on the market, the putting into service, and the use of AI systems in the Union;

(b) prohibitions of certain AI practices;

(c) specific requirements for high-risk AI systems and obligations for operators of such systems;

(d) harmonised transparency rules for certain AI systems;

(e) harmonised rules for the placing on the market of general-purpose AI models;

(f) rules on market monitoring, market surveillance, governance and enforcement;

(g) measures to support innovation, with a particular focus on SMEs, including start-ups.

Erwägungsgründe (Präambel) auf EUR-Lex

Die Erwägungsgründe stehen im selben konsolidierten KI-Rechtsakt auf EUR-Lex wie die Artikel und dienen oft der Auslegung von Gegenstandsklauseln wie Artikel 1. Nutzen Sie die offizielle Präambel auf EUR-Lex (Gliederung / „Da“-Abschnitte)—keine inoffiziellen Erwägungsgrund-Listen ohne Abgleich mit Reihenfolge und Wortlaut.

Checkliste

  • Art. 1 Abs. 2 als Agenda nutzen (verboten → Hochrisiko → Transparenz → GPAI → Governance).
  • Vorstand/KI-Policy an den Zielen des Art. 1 Abs. 1 ausrichten (vertrauenswürdige KI, Rechte, Demokratie, Umwelt).
  • Für Nicht-Jurist:innen zuerst Art. 1, dann Art. 2 („trifft uns das?“) und Art. 3 (Rollen).
  • Prüfung: datierter EUR-Lex-Abdruck, nicht nur Sekundärliteratur.
  • Abstimmung mit Datenschutz (DSGVO) und Produktsicherheit—Art. 1 ordnet die KI-VO in das Gesamtregime ein.

KI-Anwendungsfall gegen die Bausteine der Verordnung mappen—kostenlose Bewertung.

Kostenlose Bewertung starten

Verwandte Anhänge

  • Anhang III — Hochrisiko-KI-Systeme (Einordnungskontext zu Art. 1 Abs. 2 lit. c)
  • Anhang XI — Technische Dokumentation für GPAI-Modelle (Kontext zu Art. 1 Abs. 2 lit. e)

Häufige Fragen

Sagt Artikel 1, ob mein System „hochriskant“ ist?

Nein. Artikel 1 beschreibt den Gegenstand auf hoher Ebene. Die Einordnung folgt aus Art. 5–7, Anhang III und weiteren Vorschriften.

Gilt Artikel 1 außerhalb der EU?

Artikel 1 bezieht sich auf den Gegenstand der Verordnung im Unionsrecht. Ob ein Drittlandsakteur erfasst ist, beurteilen Sie über Art. 2 und die dortigen Anknüpfungstatbestände.

Reicht Artikel 1 für eine Behördenanfrage?

Behörden erwarten Nachweise zu den einschlägigen Detailartikeln und Anhängen. Artikel 1 ist Kontext für Policies, nicht der alleinige Compliance-Nachweis.