Artikel 15: Genauigkeit, Robustheit und Cybersicherheit
Art. 15 verlangt, dass Hochrisiko-KI-Systeme so entwickelt werden, dass sie ein angemessenes Maß an Genauigkeit, Robustheit und Cybersicherheit erreichen und konsistent über den Lebenszyklus performen. Die Kommission soll Benchmarks und Messmethoden mit Stakeholdern fördern (Art. 15 Abs. 2). Genauigkeitsniveaus und -metriken sind in der IFU anzugeben (Art. 15 Abs. 3). Robustheit umfasst Fehler, Inkonsistenzen, Umgebung, Redundanz/Fail-safe und Feedback-Schleifen bei Weiterlernen (Art. 15 Abs. 4 auf EUR-Lex). Cybersicherheit gegen unbefugte Manipulation und KI-spezifische Angriffe (u. a. Data/Model Poisoning, Adversarial Examples—Art. 15 Abs. 5 auf EUR-Lex).
Für wen gilt das?
- -Anbieter, die Hochrisiko-KI entwickeln, härten und validieren
- -Betreiber mit Einfluss auf Umgebung und Angriffsfläche im Betrieb
Szenarien
Online-Lernen in Produktion ohne Kontrolle verzerrter Rückkopplungen.
IFU behauptet 98 % Genauigkeit, interne EU-repräsentative Tests 85 %.
Was Artikel 15 verlangt (Klartext)
Genauigkeit — zum Zweck passende Metriken; validieren und in der IFU deklarieren.
Robustheit — Fehler, Umgebung, Kopplung; Redundanz/Fail-safe wo sinnvoll; Weiterlernen: Feedback-Loops mitigieren (EUR-Lex).
Cybersicherheit — KI-spezifische Bedrohungen (Art. 15 Abs. 5 Liste auf EUR-Lex).
Art. 15 Abs. 2 — Kommission und Benchmarks beobachten.
Amtlicher Wortlaut (Auszug): Art. 15 Abs. 1–3 (englische Fassung)
Hinweis (Redaktion): Art. 15 Abs. 1–3 englisch; Abs. 4–5 vollständig auf EUR-Lex Art. 15. Maßgeblich die deutsche Fassung.
1. High-risk AI systems shall be designed and developed in such a way that they achieve an appropriate level of accuracy, robustness, and cybersecurity, and that they perform consistently in those respects throughout their lifecycle.
2. To address the technical aspects of how to measure the appropriate levels of accuracy and robustness set out in paragraph 1 and any other relevant performance metrics, the Commission shall, in cooperation with relevant stakeholders and organisations such as metrology and benchmarking authorities, encourage, as appropriate, the development of benchmarks and measurement methodologies.
3. The levels of accuracy and the relevant accuracy metrics of high-risk AI systems shall be declared in the accompanying instructions of use.
(4)–(5) — EUR-Lex.
Erwägungsgründe (Präambel) auf EUR-Lex
Die Erwägungsgründe im konsolidierten KI-Rechtsakt stützen Leistung, Robustheit und Cybersicherheit. Präambel EUR-Lex—keine inoffiziellen Listen ohne Abgleich.
Checkliste
- Genauigkeitsmetriken zum Zweck; Testdaten und Schwellen dokumentieren.
- Robustheit: Randfälle, Drift, adversarische Eingaben je Modalität.
- SBOM, Patches, Incident Response zu Art. 15 Abs. 5.
- Bei Post-Market-Lernen Feedback-Loop-Kontrollen dokumentieren.
- IFU-Deklarationen mit Anhang IV und Monitoring abstimmen.
Pflichten über Artikel hinweg kartieren—kostenlose Einschätzung.
Kostenlose Bewertung startenVerwandte Artikel
Artikel 8: Einhaltung der Anforderungen
Artikel 9: Risikomanagementsystem
Artikel 10: Daten und Daten-Governance
Artikel 11: Technische Dokumentation
Artikel 12: Aufzeichnungen (Logging)
Artikel 13: Transparenz und Information der Betreiber
Artikel 14: Menschliche Aufsicht
Artikel 16: Obligations of providers of high-risk AI systems, EU AI Act
Artikel 113: Entry into force and application, EU AI Act
Verwandte Anhänge
- Anhang IV — Technische Dokumentation
Häufige Fragen
Reicht SOC 2?
Hilft organisatorisch, ersetzt aber nicht KI-spezifische Tests und Nachweise zu Art. 15 Abs. 4–5 und Anhang IV.
Neu-Zertifizierung nach jedem Fine-Tune?
Wesentliche Änderungen können neue Konformität auslösen; kleine Updates dennoch Metriken und Dokumentation prüfen.