1. Risikokategorien: Vom Verbot bis zum Niedrigrisiko
Der EU AI Act klassifiziert KI-Systeme nach vier Risikostufen. Diese Klassifizierung bestimmt, welche Pflichten gelten, und ob ein System überhaupt eingesetzt werden darf.
| Kategorie | Definition | Rechtsfolge |
|---|---|---|
| Inakzeptables Risiko | Systeme, die grundlegende Rechte verletzen | Vollständiges Verbot (Art. 5) |
| Hochrisiko | Systeme in kritischen Sektoren (Anhang III) | Strenge Pflichten, Konformitätsbewertung |
| Begrenztes Risiko | Systeme mit spezifischen Transparenzrisiken | Transparenzpflichten (Chatbots, Deepfakes) |
| Minimales Risiko | Alle anderen KI-Systeme | Keine spezifischen Pflichten (freiwilliger Kodex) |
2. Was ist verboten? (Art. 5)
Art. 5 EU AI Act verbietet bestimmte KI-Praktiken vollständig . ohne Ausnahmemöglichkeit für private Betreiber. Diese Verbote gelten seit Februar 2025.
Vollständig verbotene KI-Systeme
- Echtzeit-Fernidentifizierung (Biometrie) im öffentlichen Raum(Gesichtserkennung zur Identifizierung von Personen in Echtzeit), eng begrenzte Ausnahmen nur für Strafverfolgung unter richterlichem Vorbehalt
- Nachträgliche biometrische Identifizierung in öffentlichen Räumen, außer für Strafverfolgungszwecke mit behördlicher Genehmigung
- Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, Ausnahme: medizinische oder sicherheitstechnische Zwecke
- Biometrische Kategorisierung nach Rasse, politischen Meinungen, Gewerkschaftszugehörigkeit, religiösem oder weltanschaulichem Glauben, sexueller Orientierung oder Gesundheitsstatus
- Social Scoring: Bewertung oder Klassifizierung von Personen über einen Zeitraum basierend auf sozialem Verhalten oder persönlichen Merkmalen
- Manipulation durch unterschwellige Techniken, die das Bewusstsein einer Person umgehen und ihr Verhalten auf schädliche Weise beeinflussen
- Ausnutzung von Schwächen aufgrund von Alter oder Behinderung
Praktische Konsequenz für Sicherheitsbetreiber: Systeme, die Live-Biometrie zur Identifizierung (nicht nur Erkennung) von Personen in öffentlichen Bereichen einsetzen, sind seit Februar 2025 verboten. Das gilt auch für private Betreiber öffentlich zugänglicher Räume (Bahnhöfe, Einkaufszentren, Sportstätten).
3. Hochrisiko-KI: Pflichten für Sicherheitssysteme
Anhang III des EU AI Act listet Hochrisiko-KI-Systeme auf. Für den Sicherheitsbereich besonders relevant:
- Nr. 2: Kritische Infrastruktur, KI-Systeme als Sicherheitskomponenten für Energie, Wasser, Gas, Verkehr und digitale Infrastruktur
- Nr. 6: Strafverfolgung, KI zur Risikobeurteilung, Lügenerkennung, Verlässlichkeitsprüfung, Vorhersage von Straftaten
- Nr. 7: Grenzmanagement, biometrische Identifizierung, Risikobeurteilung
Pflichten für Hochrisiko-Systeme (Anbieter)
Anbieter von Hochrisiko-KI müssen vor Inbetriebnahme sicherstellen:
- Risikomanagementsystem (Art. 9): Kontinuierliche Identifikation, Analyse und Minderung von Risiken
- Daten-Governance (Art. 10): Trainingsdaten müssen relevant, repräsentativ und frei von Bias sein
- Technische Dokumentation (Art. 11 + Anhang IV): Vollständige Beschreibung des Systems
- Protokollierung (Art. 12): Automatische Protokolle für den gesamten Betrieb
- Transparenz (Art. 13): Klare Informationen für Betreiber über Fähigkeiten, Grenzen und Risiken
- Menschliche Aufsicht (Art. 14): Design muss Eingriff, Überwachung und Abschaltung durch Menschen ermöglichen
- Genauigkeit und Robustheit (Art. 15): Systemleistung muss über den Lebenszyklus aufrechterhalten werden
- Konformitätsbewertung (Art. 43): Vor Inbetriebnahme
- EU-Konformitätserklärung + CE-Kennzeichnung (Art. 47–49)
- Registrierung in EU-Datenbank (Art. 71)
4. Zeitplan und Übergangsfristen
| Datum | Was tritt in Kraft |
|---|---|
| 1. August 2024 | Inkrafttreten der Verordnung (EU) 2024/1689 |
| 2. Februar 2025 | Verbote für inakzeptables Risiko (Art. 5) |
| 2. August 2025 | GPAI-Regelungen (allgemeine KI-Modelle, z.B. LLMs) |
| 2. August 2026 | Alle Hochrisiko-Pflichten (Anhang III) |
| 2. August 2027 | Hochrisiko-Systeme in Produkten (Anhang I) |
Wichtig: Der August 2026 ist kein "wir fangen dann an"-Datum. Bis August 2026 muss die Konformität hergestellt sein, Konformitätsbewertungen, technische Dokumentationen und Risikomanagementsysteme brauchen Vorlauf. Wer jetzt noch nicht begonnen hat, ist in Zeitnot.
5. Pflichten für Betreiber (Deployers)
Der EU AI Act unterscheidet zwischen Anbietern (Hersteller, Entwickler) und Betreibern (Unternehmen, die fertige KI-Systeme einsetzen). Für Betreiber gelten spezifische Pflichten nach Art. 26:
- Sicherstellung, dass das System entsprechend seiner Zweckbestimmung eingesetzt wird
- Sicherstellung ausreichender menschlicher Aufsicht
- Monitoring des Systembetriebs auf Basis der Anbieter-Anleitungen
- Meldung von Vorfällen und Sicherheitsverletzungen an den Anbieter
- Aufzeichnung des Betriebs für die vorgeschriebene Dauer
- Information der betroffenen Personen über den KI-Einsatz (Transparenz)
- Datenschutz-Folgenabschätzung, wenn DSGVO-relevant und Hochrisiko-KI
Wichtig für Einkäufer: Wer ein KI-Sicherheitssystem kauft oder mietet, muss sicherstellen, dass der Anbieter eine vollständige technische Dokumentation, EU-Konformitätserklärung und Benutzerhandbuch für EU AI Act- konforme Nutzung bereitstellt. Diese Unterlagen sind Teil der Lieferpflicht.
6. KRITIS: Besondere Relevanz für kritische Infrastruktur
Betreiber kritischer Infrastrukturen (KRITIS) sind doppelt betroffen: durch den EU AI Act als Regulierung des KI-Systems und durch die NIS-2-Richtlinie als Regulierung der Cybersicherheit. Beide Regelwerke überschneiden sich bei KI-Sicherheitssystemen.
NIS-2 und EU AI Act: Synergien und Konflikte
| Anforderung | NIS-2 | EU AI Act |
|---|---|---|
| Risikomanagementsystem | Pflicht | Pflicht (Anhang III) |
| Meldepflicht bei Vorfällen | 24h/72h | Anbieter + Betreiber |
| Dokumentation | Maßnahmen | Technische Dokumentation |
| Lieferkettensicherheit | Explizit | Implizit (Anbieter-Pflichten) |
| Menschliche Aufsicht | Implizit | Explizit (Art. 14) |
Empfehlung: KRITIS-Betreiber sollten NIS-2- und EU AI Act- Compliance integriert angehen. Die Dokumentationsanforderungen überlappen erheblich; ein gemeinsames Framework spart Aufwand.
7. Sicherheitsroboter und autonome Systeme
Autonome Sicherheitsroboter wie der Darlot-Roboter sind KI-Systeme im Sinne des EU AI Acts. Die Einordnung in eine Risikokategorie hängt von Einsatzbereich und Autonomiegrad ab.
Wann ist ein Sicherheitsroboter Hochrisiko-KI?
Hochrisiko liegt vor, wenn der Roboter:
- in kritischer Infrastruktur (KRITIS) eingesetzt wird
- autonome Entscheidungen trifft, die direkte physische Konsequenzen haben
- biometrische Daten verarbeitet (Gesichtserkennung, Gang-Erkennung)
- in öffentlich zugänglichen Räumen Personen erkennt und verfolgt
Sicherheitsroboter, die kein Hochrisiko darstellen
Roboter, die nur auf vordefinierten Routen patrouillieren, Anomalien melden (ohne autonom zu reagieren) und keine biometrischen Daten verarbeiten, können als Niedrigrisiko-Systeme klassifiziert werden, insbesondere bei vollständiger menschlicher Aufsicht über alle Reaktionsentscheidungen.
Darlot-Roboter und EU AI Act
Der Darlot-Sicherheitsroboter ist mit einem Hochrisiko-KI-kompatiblen Betriebsmodus konfigurierbar: vollständige Protokollierung, Mensch-in-der- Schleife für Reaktionsentscheidungen, keine biometrische Identifizierung, technische Dokumentation nach Anhang IV. Für KRITIS-Einsätze liefern wir die vollständigen Konformitätsunterlagen mit.
8. Sanktionen und Bußgelder
| Verstoß | Maximale Strafe |
|---|---|
| Verbotene KI-Praktiken (Art. 5) | 35 Mio. € oder 7% des weltweiten Jahresumsatzes |
| Verstöße gegen Hochrisiko-Pflichten | 15 Mio. € oder 3% des Jahresumsatzes |
| Falsche Informationen gegenüber Behörden | 7,5 Mio. € oder 1,5% des Jahresumsatzes |
Zuständige Aufsichtsbehörde in Deutschland ist voraussichtlich die Bundesnetzagentur. Für KRITIS-Sektoren können sektorspezifische Behörden (BSI, BNetzA) zuständig sein.
FAQ: EU AI Act für Sicherheitssysteme
Wann gilt der EU AI Act vollständig?
Der EU AI Act trat am 1. August 2024 in Kraft. Die Verbote für inakzeptables Risiko gelten seit Februar 2025. Alle Hochrisiko-Pflichten sind ab August 2026 vollständig anwendbar.
Welche Sicherheitssysteme gelten als Hochrisiko-KI?
KI-Systeme als Sicherheitskomponenten für kritische Infrastrukturen (Energie, Wasser, Transport) sind in Anhang III als Hochrisiko-KI eingestuft. Das betrifft insbesondere KI-gestützte Videoüberwachung für KRITIS-Betreiber und autonome Zutrittskontrollsysteme.
Was ist nach dem EU AI Act bei Videoüberwachung verboten?
Vollständig verboten: Echtzeit-Fernidentifizierung anhand biometrischer Daten in öffentlichen Räumen, Emotionserkennung am Arbeitsplatz und Social Scoring . alles seit Februar 2025.
Welche Strafen drohen bei Verstoß?
Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen die Verbote; bis zu 15 Millionen Euro oder 3% für andere Verstöße.