DARLOTParis · 1856

Leitfaden · Regulierung & Compliance

EU AI Act für Sicherheitssysteme 2025/2026: Was Betreiber wissen müssen

Der EU AI Act ist die weltweit erste umfassende KI-Regulierung und gilt seit August 2024 in allen EU-Mitgliedstaaten. Für Betreiber von KI-gestützter Videoüberwachung, Zutrittskontrolle und Sicherheitsrobotik schafft er neue Pflichten, und neue Haftungsrisiken. Dieser Leitfaden gibt einen vollständigen Überblick.

Stand: April 2026 · Lesezeit: ca. 14 Minuten

Wichtige Fristen

  • Februar 2025: Verbote für inakzeptables Risiko (Art. 5) in Kraft
  • August 2025: Regelungen für allgemeine KI-Modelle (GPAI) anwendbar
  • August 2026: Alle Hochrisiko-Pflichten vollständig anwendbar
  • August 2027: Hochrisiko-Systeme in Produkten nach anderen Richtlinien

1. Risikokategorien: Vom Verbot bis zum Niedrigrisiko

Der EU AI Act klassifiziert KI-Systeme nach vier Risikostufen. Diese Klassifizierung bestimmt, welche Pflichten gelten, und ob ein System überhaupt eingesetzt werden darf.

KategorieDefinitionRechtsfolge
Inakzeptables RisikoSysteme, die grundlegende Rechte verletzenVollständiges Verbot (Art. 5)
HochrisikoSysteme in kritischen Sektoren (Anhang III)Strenge Pflichten, Konformitätsbewertung
Begrenztes RisikoSysteme mit spezifischen TransparenzrisikenTransparenzpflichten (Chatbots, Deepfakes)
Minimales RisikoAlle anderen KI-SystemeKeine spezifischen Pflichten (freiwilliger Kodex)

2. Was ist verboten? (Art. 5)

Art. 5 EU AI Act verbietet bestimmte KI-Praktiken vollständig . ohne Ausnahmemöglichkeit für private Betreiber. Diese Verbote gelten seit Februar 2025.

Vollständig verbotene KI-Systeme

  • Echtzeit-Fernidentifizierung (Biometrie) im öffentlichen Raum(Gesichtserkennung zur Identifizierung von Personen in Echtzeit), eng begrenzte Ausnahmen nur für Strafverfolgung unter richterlichem Vorbehalt
  • Nachträgliche biometrische Identifizierung in öffentlichen Räumen, außer für Strafverfolgungszwecke mit behördlicher Genehmigung
  • Emotionserkennung am Arbeitsplatz und in Bildungseinrichtungen, Ausnahme: medizinische oder sicherheitstechnische Zwecke
  • Biometrische Kategorisierung nach Rasse, politischen Meinungen, Gewerkschaftszugehörigkeit, religiösem oder weltanschaulichem Glauben, sexueller Orientierung oder Gesundheitsstatus
  • Social Scoring: Bewertung oder Klassifizierung von Personen über einen Zeitraum basierend auf sozialem Verhalten oder persönlichen Merkmalen
  • Manipulation durch unterschwellige Techniken, die das Bewusstsein einer Person umgehen und ihr Verhalten auf schädliche Weise beeinflussen
  • Ausnutzung von Schwächen aufgrund von Alter oder Behinderung

Praktische Konsequenz für Sicherheitsbetreiber: Systeme, die Live-Biometrie zur Identifizierung (nicht nur Erkennung) von Personen in öffentlichen Bereichen einsetzen, sind seit Februar 2025 verboten. Das gilt auch für private Betreiber öffentlich zugänglicher Räume (Bahnhöfe, Einkaufszentren, Sportstätten).

3. Hochrisiko-KI: Pflichten für Sicherheitssysteme

Anhang III des EU AI Act listet Hochrisiko-KI-Systeme auf. Für den Sicherheitsbereich besonders relevant:

  • Nr. 2: Kritische Infrastruktur, KI-Systeme als Sicherheitskomponenten für Energie, Wasser, Gas, Verkehr und digitale Infrastruktur
  • Nr. 6: Strafverfolgung, KI zur Risikobeurteilung, Lügenerkennung, Verlässlichkeitsprüfung, Vorhersage von Straftaten
  • Nr. 7: Grenzmanagement, biometrische Identifizierung, Risikobeurteilung

Pflichten für Hochrisiko-Systeme (Anbieter)

Anbieter von Hochrisiko-KI müssen vor Inbetriebnahme sicherstellen:

  1. Risikomanagementsystem (Art. 9): Kontinuierliche Identifikation, Analyse und Minderung von Risiken
  2. Daten-Governance (Art. 10): Trainingsdaten müssen relevant, repräsentativ und frei von Bias sein
  3. Technische Dokumentation (Art. 11 + Anhang IV): Vollständige Beschreibung des Systems
  4. Protokollierung (Art. 12): Automatische Protokolle für den gesamten Betrieb
  5. Transparenz (Art. 13): Klare Informationen für Betreiber über Fähigkeiten, Grenzen und Risiken
  6. Menschliche Aufsicht (Art. 14): Design muss Eingriff, Überwachung und Abschaltung durch Menschen ermöglichen
  7. Genauigkeit und Robustheit (Art. 15): Systemleistung muss über den Lebenszyklus aufrechterhalten werden
  8. Konformitätsbewertung (Art. 43): Vor Inbetriebnahme
  9. EU-Konformitätserklärung + CE-Kennzeichnung (Art. 47–49)
  10. Registrierung in EU-Datenbank (Art. 71)

4. Zeitplan und Übergangsfristen

DatumWas tritt in Kraft
1. August 2024Inkrafttreten der Verordnung (EU) 2024/1689
2. Februar 2025Verbote für inakzeptables Risiko (Art. 5)
2. August 2025GPAI-Regelungen (allgemeine KI-Modelle, z.B. LLMs)
2. August 2026Alle Hochrisiko-Pflichten (Anhang III)
2. August 2027Hochrisiko-Systeme in Produkten (Anhang I)

Wichtig: Der August 2026 ist kein "wir fangen dann an"-Datum. Bis August 2026 muss die Konformität hergestellt sein, Konformitätsbewertungen, technische Dokumentationen und Risikomanagementsysteme brauchen Vorlauf. Wer jetzt noch nicht begonnen hat, ist in Zeitnot.

5. Pflichten für Betreiber (Deployers)

Der EU AI Act unterscheidet zwischen Anbietern (Hersteller, Entwickler) und Betreibern (Unternehmen, die fertige KI-Systeme einsetzen). Für Betreiber gelten spezifische Pflichten nach Art. 26:

  • Sicherstellung, dass das System entsprechend seiner Zweckbestimmung eingesetzt wird
  • Sicherstellung ausreichender menschlicher Aufsicht
  • Monitoring des Systembetriebs auf Basis der Anbieter-Anleitungen
  • Meldung von Vorfällen und Sicherheitsverletzungen an den Anbieter
  • Aufzeichnung des Betriebs für die vorgeschriebene Dauer
  • Information der betroffenen Personen über den KI-Einsatz (Transparenz)
  • Datenschutz-Folgenabschätzung, wenn DSGVO-relevant und Hochrisiko-KI

Wichtig für Einkäufer: Wer ein KI-Sicherheitssystem kauft oder mietet, muss sicherstellen, dass der Anbieter eine vollständige technische Dokumentation, EU-Konformitätserklärung und Benutzerhandbuch für EU AI Act- konforme Nutzung bereitstellt. Diese Unterlagen sind Teil der Lieferpflicht.

6. KRITIS: Besondere Relevanz für kritische Infrastruktur

Betreiber kritischer Infrastrukturen (KRITIS) sind doppelt betroffen: durch den EU AI Act als Regulierung des KI-Systems und durch die NIS-2-Richtlinie als Regulierung der Cybersicherheit. Beide Regelwerke überschneiden sich bei KI-Sicherheitssystemen.

NIS-2 und EU AI Act: Synergien und Konflikte

AnforderungNIS-2EU AI Act
RisikomanagementsystemPflichtPflicht (Anhang III)
Meldepflicht bei Vorfällen24h/72hAnbieter + Betreiber
DokumentationMaßnahmenTechnische Dokumentation
LieferkettensicherheitExplizitImplizit (Anbieter-Pflichten)
Menschliche AufsichtImplizitExplizit (Art. 14)

Empfehlung: KRITIS-Betreiber sollten NIS-2- und EU AI Act- Compliance integriert angehen. Die Dokumentationsanforderungen überlappen erheblich; ein gemeinsames Framework spart Aufwand.

7. Sicherheitsroboter und autonome Systeme

Autonome Sicherheitsroboter wie der Darlot-Roboter sind KI-Systeme im Sinne des EU AI Acts. Die Einordnung in eine Risikokategorie hängt von Einsatzbereich und Autonomiegrad ab.

Wann ist ein Sicherheitsroboter Hochrisiko-KI?

Hochrisiko liegt vor, wenn der Roboter:

  • in kritischer Infrastruktur (KRITIS) eingesetzt wird
  • autonome Entscheidungen trifft, die direkte physische Konsequenzen haben
  • biometrische Daten verarbeitet (Gesichtserkennung, Gang-Erkennung)
  • in öffentlich zugänglichen Räumen Personen erkennt und verfolgt

Sicherheitsroboter, die kein Hochrisiko darstellen

Roboter, die nur auf vordefinierten Routen patrouillieren, Anomalien melden (ohne autonom zu reagieren) und keine biometrischen Daten verarbeiten, können als Niedrigrisiko-Systeme klassifiziert werden, insbesondere bei vollständiger menschlicher Aufsicht über alle Reaktionsentscheidungen.

Darlot-Roboter und EU AI Act

Der Darlot-Sicherheitsroboter ist mit einem Hochrisiko-KI-kompatiblen Betriebsmodus konfigurierbar: vollständige Protokollierung, Mensch-in-der- Schleife für Reaktionsentscheidungen, keine biometrische Identifizierung, technische Dokumentation nach Anhang IV. Für KRITIS-Einsätze liefern wir die vollständigen Konformitätsunterlagen mit.

8. Sanktionen und Bußgelder

VerstoßMaximale Strafe
Verbotene KI-Praktiken (Art. 5)35 Mio. € oder 7% des weltweiten Jahresumsatzes
Verstöße gegen Hochrisiko-Pflichten15 Mio. € oder 3% des Jahresumsatzes
Falsche Informationen gegenüber Behörden7,5 Mio. € oder 1,5% des Jahresumsatzes

Zuständige Aufsichtsbehörde in Deutschland ist voraussichtlich die Bundesnetzagentur. Für KRITIS-Sektoren können sektorspezifische Behörden (BSI, BNetzA) zuständig sein.

FAQ: EU AI Act für Sicherheitssysteme

Wann gilt der EU AI Act vollständig?

Der EU AI Act trat am 1. August 2024 in Kraft. Die Verbote für inakzeptables Risiko gelten seit Februar 2025. Alle Hochrisiko-Pflichten sind ab August 2026 vollständig anwendbar.

Welche Sicherheitssysteme gelten als Hochrisiko-KI?

KI-Systeme als Sicherheitskomponenten für kritische Infrastrukturen (Energie, Wasser, Transport) sind in Anhang III als Hochrisiko-KI eingestuft. Das betrifft insbesondere KI-gestützte Videoüberwachung für KRITIS-Betreiber und autonome Zutrittskontrollsysteme.

Was ist nach dem EU AI Act bei Videoüberwachung verboten?

Vollständig verboten: Echtzeit-Fernidentifizierung anhand biometrischer Daten in öffentlichen Räumen, Emotionserkennung am Arbeitsplatz und Social Scoring . alles seit Februar 2025.

Welche Strafen drohen bei Verstoß?

Bis zu 35 Millionen Euro oder 7% des weltweiten Jahresumsatzes für Verstöße gegen die Verbote; bis zu 15 Millionen Euro oder 3% für andere Verstöße.


EU AI Act-konform ab Tag eins.

Darlot liefert alle Sicherheitssysteme mit vollständiger EU AI Act-Konformitätsdokumentation, technischem Dossier nach Anhang IV und konfigurierbarer Mensch-in-der-Schleife-Architektur.

Marke · 1856 bis heute

Seit 1856.

Was wir sehen, hat über uns entschieden.

1856 fertigte Darlot in Paris Präzisionsoptik. Linsen, die sahen, was andere übersahen. Das Handwerk hat sich gewandelt, der Anspruch nicht. Wo früher Glas die Wahrnehmung schärfte, klassifiziert heute KI in Echtzeit. Dieselbe Disziplin. Neue Mittel. Darlot sieht weiterhin, was zählt. Heute für die kritische Infrastruktur Europas.