
EU AI Act: Was Unternehmen bei Hochrisiko-KI jetzt konkret tun müssen

Viele Organisationen haben den EU AI Act bislang als regulatorisches Fernproblem behandelt – zuständig irgendwo in der Rechtsabteilung, relevant irgendwann in der Zukunft. Diese Haltung wird zunehmend riskant. Die Pflichten für Hochrisiko-KI-Systeme greifen schrittweise, und die verbleibende Zeit für strukturierte Vorbereitung wird knapp. Dieser Beitrag richtet sich an Entscheidende in IT-Management und Business, die verstehen wollen, was jetzt konkret zu tun ist – jenseits juristischer Abstraktion.
Was ist ein Hochrisiko-KI-System?
Der EU AI Act unterscheidet vier Risikostufen: verbotene Praktiken, Hochrisiko-Systeme, Systeme mit Transparenzpflichten und alle übrigen Systeme mit minimalem Risiko. Die schärfsten Anforderungen gelten für die zweite Kategorie – die sogenannten Hochrisiko-KI-Systeme.
Als Hochrisiko eingestuft werden KI-Systeme, die in bestimmten Bereichen eingesetzt werden oder selbst sicherheitsrelevante Komponenten von Produkten sind. Die im Gesetz genannten Bereiche umfassen unter anderem: kritische Infrastruktur, Bildung und Berufsausbildung, Personalentscheidungen und Zugang zu Beschäftigung, wesentliche Dienstleistungen wie Kredit- oder Versicherungsbewertung, Strafverfolgung, Migration und Grenzkontrolle sowie Rechtspflege.
Ein häufiges Missverständnis: Hochrisiko bedeutet nicht, dass das System tatsächlich Schaden angerichtet hat oder wahrscheinlich anrichten wird. Es bedeutet, dass der Einsatzkontext als sensibel eingestuft ist und damit erhöhte Sorgfaltspflichten gelten – unabhängig davon, wie gut das Modell im Alltag funktioniert.
Ebenfalls wichtig: Der Act unterscheidet zwischen dem Anbieter (Provider) eines KI-Systems, der es entwickelt oder in Verkehr bringt, und dem Betreiber (Deployer), der es im eigenen Kontext einsetzt. Beide tragen Pflichten, aber unterschiedliche. Wer KI-Dienste Dritter für eigene HR-, Kredit- oder Sicherheitsentscheidungen nutzt, ist Deployer – und steht damit nicht außerhalb der Regulierung.
Warum jetzt? Treiber und Kontext
Der EU AI Act ist seit dem Sommer 2024 in Kraft. Seither greifen die einzelnen Pflichten gestaffelt: Die Verbote bestimmter KI-Praktiken gelten bereits seit Anfang 2025. Die Regeln für sogenannte General Purpose AI Models sowie die Einrichtung nationaler Aufsichtsbehörden wurden ebenfalls im Jahr 2025 wirksam. Die Hauptpflichten für Hochrisiko-KI-Systeme – technische Dokumentation, Konformitätsbewertung, Risikomanagement, Transparenz – folgen im weiteren Verlauf der Umsetzungsfristen.
Das bedeutet: Wer jetzt erst beginnt, eine interne KI-Systemliste anzulegen, Verantwortlichkeiten zu definieren und Dokumentationsprozesse aufzubauen, hat wenig Puffer. Compliance entsteht nicht durch eine Schlussspurt-Aktion, sondern durch systematische Vorbereitung.
Hinzu kommt ein wirtschaftlicher Treiber: Immer mehr Großunternehmen und öffentliche Auftraggeber verlangen von Lieferanten und Dienstleistern Nachweise über die Konformität eingesetzter KI-Systeme. AI-Act-Compliance wird damit auch ein Wettbewerbsmerkmal.
Wie der EU AI Act funktioniert: Pflichten im Überblick
Für Hochrisiko-Systeme schreibt der Act einen strukturierten Rahmen vor. Die zentralen Anforderungen lassen sich in fünf Bereiche gliedern:
- Risikomanagementsystem: Kontinuierliche Identifikation, Analyse und Minderung von Risiken über den gesamten Lebenszyklus des Systems.
- Datenmanagementsystem: Anforderungen an Qualität, Repräsentativität und Dokumentation der Trainings-, Validierungs- und Testdaten.
- Technische Dokumentation: Vollständige Beschreibung des Systems, seines Zwecks, seiner Architektur, seiner Leistungsmerkmale und Grenzen – vor dem Inverkehrbringen.
- Logging und Protokollierung: Automatische Ereignisprotokollierung, die eine nachträgliche Prüfung ermöglicht.
- Transparenz gegenüber Betreibern: Klare Gebrauchsanweisungen, Beschreibung der Leistungsgrenzen und Hinweise zur menschlichen Aufsicht.
- Menschliche Aufsicht (Human Oversight): Das System muss so gestaltet sein, dass zuständige Personen es überwachen, unterbrechen oder korrigieren können.
- Konformitätsbewertung: Je nach Systemkategorie entweder eine Selbstbewertung oder eine Prüfung durch eine zugelassene externe Stelle (Notified Body).
Deployer – also Unternehmen, die Hochrisiko-Systeme betreiben – tragen zusätzlich eigene Pflichten: Sie müssen sicherstellen, dass das System dem vorgesehenen Zweck entsprechend eingesetzt wird, interne Verantwortlichkeiten benennen und Mitarbeitende ausreichend schulen.
Praxis: Anwendungsfälle und Entscheidungslogik
Wenn ein Unternehmen KI zur Vorauswahl von Bewerbungen oder zur Bewertung von Mitarbeitenden einsetzt, dann handelt es sich typischerweise um ein Hochrisiko-System im Bereich Beschäftigung. Die Pflichten treffen in der Regel den Deployer, also das Unternehmen – auch wenn die Lösung von einem externen Anbieter stammt.
Wenn ein Finanzdienstleister ein Scoring-Modell für Kreditentscheidungen nutzt, dann gelten sowohl für den Modellanbieter als auch für den Betreiber Hochrisiko-Pflichten. Kritisch ist hier vor allem die Dokumentation der Entscheidungslogik und der Beschwerdewege für Betroffene.
Wenn ein Unternehmen KI-Systeme intern für IT-Sicherheit oder Zugangskontrolle betreibt, dann hängt die Einstufung stark vom konkreten Kontext ab. Systeme, die lediglich Anomalien in Netzwerkdaten erkennen, fallen häufig nicht unter Hochrisiko – Systeme, die Zugangsentscheidungen für Personen treffen oder bewachen, können es tun.
Wenn ein Unternehmen ausschließlich KI-Dienste konsumiert (z. B. generative Assistenten ohne Entscheidungsfunktion), dann sind die Transparenzpflichten deutlich geringer – aber nicht null. Auch hier gelten Kennzeichnungspflichten für KI-generierte Inhalte in bestimmten Kontexten.
Die zentrale Entscheidungslogik lautet: Trifft das System Entscheidungen, die Rechte oder Chancen von Personen beeinflussen – oder beeinflusst es Entscheidungen in einem regulierten Bereich? Wenn ja, ist eine Hochrisiko-Prüfung zwingend.
Risiken, Grenzen, Kontrollmechanismen
Fehlklassifikation des eigenen Systems ist das häufigste Praxisrisiko. Unternehmen neigen dazu, ihre Systeme als „Unterstützungswerkzeuge" zu deklarieren, um einer Hochrisiko-Einstufung zu entgehen. Aufsichtsbehörden werden jedoch die tatsächliche Funktion bewerten, nicht die gewählte Bezeichnung. Gegenmaßnahme: Externe rechtliche Vorprüfung der Systemklassifikation, dokumentiert und revisionssicher abgelegt.
Lieferkettenrisiko: Wer Hochrisiko-Systeme von Drittanbietern bezieht, übernimmt als Deployer Pflichten, ohne vollständige Kontrolle über die technische Dokumentation des Anbieters zu haben. Gegenmaßnahme: Vertraglich sicherstellen, dass Anbieter die erforderliche Dokumentation bereitstellen; entsprechende Klauseln in SLAs und Beschaffungsverträgen verankern.
Dokumentationsrückstand: Viele Systeme sind historisch gewachsen und wurden nie mit dem Blick auf regulatorische Nachweispflichten dokumentiert. Der Aufwand, diese Lücke zu schließen, wird häufig unterschätzt. Gegenmaßnahme: Frühzeitig mit einer strukturierten Systemerfassung beginnen – idealerweise mit einem standardisierten Inventarformat, das spätere Audits erleichtert.
Fehlende Governance-Strukturen: AI-Act-Compliance ist keine einmalige Zertifizierung, sondern ein laufender Prozess. Ohne klare Verantwortlichkeiten (AI Compliance Owner, Datenschutzbeauftragter, IT-Management) entstehen blinde Flecken. Gegenmaßnahme: AI Governance in bestehende GRC-Strukturen (Governance, Risk, Compliance) integrieren, nicht als separate Silo-Funktion aufbauen.
Umsetzung: 30-60-90-Tage-Plan
30 Tage – Bestandsaufnahme:
- Alle im Unternehmen eingesetzten KI-Systeme inventarisieren (inkl. eingekaufte SaaS-Lösungen mit KI-Komponenten)
- Vorläufige Risikoeinstufung je System vornehmen (Hochrisiko / Transparenzpflicht / Minimal)
- Verantwortlichkeit für AI Compliance benennen – auch wenn zunächst als Zusatzrolle
60 Tage – Priorisierung und Gap-Analyse:
- Für alle vorläufig als Hochrisiko eingestuften Systeme: Anforderungsabgleich gegen den Act-Kriterienkatalog
- Dokumentationslücken identifizieren und priorisieren
- Anbieter kontaktieren und vertragliche Nachweispflichten prüfen
- Schulungsbedarf für zuständige Rollen ermitteln
90 Tage – Governance-Fundament legen:
- AI-Governance-Richtlinie verabschieden (Policy, Rollen, Eskalationspfade)
- Technische Dokumentation für priorisierte Hochrisiko-Systeme beginnen
- Logging- und Monitoringkonzept für betroffene Systeme aufsetzen
- Konformitätsbewertungsverfahren klären: Selbstbewertung oder Notified Body?
Fazit
Der EU AI Act ist kein theoretisches Regulierungswerk – er verändert konkret, welche Nachweise Unternehmen für den Betrieb bestimmter KI-Systeme erbringen müssen. Die größte Gefahr liegt derzeit nicht in der Komplexität der Anforderungen, sondern im Aufschieben: Wer jetzt keine strukturierte Bestandsaufnahme einleitet, wird in absehbarer Zeit unter Zeitdruck reagieren müssen – mit entsprechend höheren Kosten und Qualitätsabstrichen. IT-Management und Business sollten den AI Act deshalb nicht als Rechtsthema delegieren, sondern als operative Gestaltungsaufgabe begreifen. Die gute Nachricht: Viele der geforderten Strukturen – Risikoregister, Dokumentationsprozesse, Governance-Rollen – sind in gut aufgestellten Organisationen bereits teilweise vorhanden. Es geht oft mehr um Konsolidierung als um Neuaufbau.