Cover Image for EU AI Act: Was Unternehmen bei Hochrisiko-KI jetzt konkret tun müssen

EU AI Act: Was Unternehmen bei Hochrisiko-KI jetzt konkret tun müssen

Marcel Breuer
Marcel Breuer

Viele Organisationen haben den EU AI Act bislang als regulatorisches Fernproblem behandelt – zuständig irgendwo in der Rechtsabteilung, relevant irgendwann in der Zukunft. Diese Haltung wird zunehmend riskant. Die Pflichten für Hochrisiko-KI-Systeme greifen schrittweise, und die verbleibende Zeit für strukturierte Vorbereitung wird knapp. Dieser Beitrag richtet sich an Entscheidende in IT-Management und Business, die verstehen wollen, was jetzt konkret zu tun ist – jenseits juristischer Abstraktion.

Was ist ein Hochrisiko-KI-System?

Der EU AI Act unterscheidet vier Risikostufen: verbotene Praktiken, Hochrisiko-Systeme, Systeme mit Transparenzpflichten und alle übrigen Systeme mit minimalem Risiko. Die schärfsten Anforderungen gelten für die zweite Kategorie – die sogenannten Hochrisiko-KI-Systeme.

Als Hochrisiko eingestuft werden KI-Systeme, die in bestimmten Bereichen eingesetzt werden oder selbst sicherheitsrelevante Komponenten von Produkten sind. Die im Gesetz genannten Bereiche umfassen unter anderem: kritische Infrastruktur, Bildung und Berufsausbildung, Personalentscheidungen und Zugang zu Beschäftigung, wesentliche Dienstleistungen wie Kredit- oder Versicherungsbewertung, Strafverfolgung, Migration und Grenzkontrolle sowie Rechtspflege.

Ein häufiges Missverständnis: Hochrisiko bedeutet nicht, dass das System tatsächlich Schaden angerichtet hat oder wahrscheinlich anrichten wird. Es bedeutet, dass der Einsatzkontext als sensibel eingestuft ist und damit erhöhte Sorgfaltspflichten gelten – unabhängig davon, wie gut das Modell im Alltag funktioniert.

Ebenfalls wichtig: Der Act unterscheidet zwischen dem Anbieter (Provider) eines KI-Systems, der es entwickelt oder in Verkehr bringt, und dem Betreiber (Deployer), der es im eigenen Kontext einsetzt. Beide tragen Pflichten, aber unterschiedliche. Wer KI-Dienste Dritter für eigene HR-, Kredit- oder Sicherheitsentscheidungen nutzt, ist Deployer – und steht damit nicht außerhalb der Regulierung.

Warum jetzt? Treiber und Kontext

Der EU AI Act ist seit dem Sommer 2024 in Kraft. Seither greifen die einzelnen Pflichten gestaffelt: Die Verbote bestimmter KI-Praktiken gelten bereits seit Anfang 2025. Die Regeln für sogenannte General Purpose AI Models sowie die Einrichtung nationaler Aufsichtsbehörden wurden ebenfalls im Jahr 2025 wirksam. Die Hauptpflichten für Hochrisiko-KI-Systeme – technische Dokumentation, Konformitätsbewertung, Risikomanagement, Transparenz – folgen im weiteren Verlauf der Umsetzungsfristen.

Das bedeutet: Wer jetzt erst beginnt, eine interne KI-Systemliste anzulegen, Verantwortlichkeiten zu definieren und Dokumentationsprozesse aufzubauen, hat wenig Puffer. Compliance entsteht nicht durch eine Schlussspurt-Aktion, sondern durch systematische Vorbereitung.

Hinzu kommt ein wirtschaftlicher Treiber: Immer mehr Großunternehmen und öffentliche Auftraggeber verlangen von Lieferanten und Dienstleistern Nachweise über die Konformität eingesetzter KI-Systeme. AI-Act-Compliance wird damit auch ein Wettbewerbsmerkmal.

Wie der EU AI Act funktioniert: Pflichten im Überblick

Für Hochrisiko-Systeme schreibt der Act einen strukturierten Rahmen vor. Die zentralen Anforderungen lassen sich in fünf Bereiche gliedern:

  • Risikomanagementsystem: Kontinuierliche Identifikation, Analyse und Minderung von Risiken über den gesamten Lebenszyklus des Systems.
  • Datenmanagementsystem: Anforderungen an Qualität, Repräsentativität und Dokumentation der Trainings-, Validierungs- und Testdaten.
  • Technische Dokumentation: Vollständige Beschreibung des Systems, seines Zwecks, seiner Architektur, seiner Leistungsmerkmale und Grenzen – vor dem Inverkehrbringen.
  • Logging und Protokollierung: Automatische Ereignisprotokollierung, die eine nachträgliche Prüfung ermöglicht.
  • Transparenz gegenüber Betreibern: Klare Gebrauchsanweisungen, Beschreibung der Leistungsgrenzen und Hinweise zur menschlichen Aufsicht.
  • Menschliche Aufsicht (Human Oversight): Das System muss so gestaltet sein, dass zuständige Personen es überwachen, unterbrechen oder korrigieren können.
  • Konformitätsbewertung: Je nach Systemkategorie entweder eine Selbstbewertung oder eine Prüfung durch eine zugelassene externe Stelle (Notified Body).

Deployer – also Unternehmen, die Hochrisiko-Systeme betreiben – tragen zusätzlich eigene Pflichten: Sie müssen sicherstellen, dass das System dem vorgesehenen Zweck entsprechend eingesetzt wird, interne Verantwortlichkeiten benennen und Mitarbeitende ausreichend schulen.

Praxis: Anwendungsfälle und Entscheidungslogik

Wenn ein Unternehmen KI zur Vorauswahl von Bewerbungen oder zur Bewertung von Mitarbeitenden einsetzt, dann handelt es sich typischerweise um ein Hochrisiko-System im Bereich Beschäftigung. Die Pflichten treffen in der Regel den Deployer, also das Unternehmen – auch wenn die Lösung von einem externen Anbieter stammt.

Wenn ein Finanzdienstleister ein Scoring-Modell für Kreditentscheidungen nutzt, dann gelten sowohl für den Modellanbieter als auch für den Betreiber Hochrisiko-Pflichten. Kritisch ist hier vor allem die Dokumentation der Entscheidungslogik und der Beschwerdewege für Betroffene.

Wenn ein Unternehmen KI-Systeme intern für IT-Sicherheit oder Zugangskontrolle betreibt, dann hängt die Einstufung stark vom konkreten Kontext ab. Systeme, die lediglich Anomalien in Netzwerkdaten erkennen, fallen häufig nicht unter Hochrisiko – Systeme, die Zugangsentscheidungen für Personen treffen oder bewachen, können es tun.

Wenn ein Unternehmen ausschließlich KI-Dienste konsumiert (z. B. generative Assistenten ohne Entscheidungsfunktion), dann sind die Transparenzpflichten deutlich geringer – aber nicht null. Auch hier gelten Kennzeichnungspflichten für KI-generierte Inhalte in bestimmten Kontexten.

Die zentrale Entscheidungslogik lautet: Trifft das System Entscheidungen, die Rechte oder Chancen von Personen beeinflussen – oder beeinflusst es Entscheidungen in einem regulierten Bereich? Wenn ja, ist eine Hochrisiko-Prüfung zwingend.

Risiken, Grenzen, Kontrollmechanismen

Fehlklassifikation des eigenen Systems ist das häufigste Praxisrisiko. Unternehmen neigen dazu, ihre Systeme als „Unterstützungswerkzeuge" zu deklarieren, um einer Hochrisiko-Einstufung zu entgehen. Aufsichtsbehörden werden jedoch die tatsächliche Funktion bewerten, nicht die gewählte Bezeichnung. Gegenmaßnahme: Externe rechtliche Vorprüfung der Systemklassifikation, dokumentiert und revisionssicher abgelegt.

Lieferkettenrisiko: Wer Hochrisiko-Systeme von Drittanbietern bezieht, übernimmt als Deployer Pflichten, ohne vollständige Kontrolle über die technische Dokumentation des Anbieters zu haben. Gegenmaßnahme: Vertraglich sicherstellen, dass Anbieter die erforderliche Dokumentation bereitstellen; entsprechende Klauseln in SLAs und Beschaffungsverträgen verankern.

Dokumentationsrückstand: Viele Systeme sind historisch gewachsen und wurden nie mit dem Blick auf regulatorische Nachweispflichten dokumentiert. Der Aufwand, diese Lücke zu schließen, wird häufig unterschätzt. Gegenmaßnahme: Frühzeitig mit einer strukturierten Systemerfassung beginnen – idealerweise mit einem standardisierten Inventarformat, das spätere Audits erleichtert.

Fehlende Governance-Strukturen: AI-Act-Compliance ist keine einmalige Zertifizierung, sondern ein laufender Prozess. Ohne klare Verantwortlichkeiten (AI Compliance Owner, Datenschutzbeauftragter, IT-Management) entstehen blinde Flecken. Gegenmaßnahme: AI Governance in bestehende GRC-Strukturen (Governance, Risk, Compliance) integrieren, nicht als separate Silo-Funktion aufbauen.

Umsetzung: 30-60-90-Tage-Plan

30 Tage – Bestandsaufnahme:

  • Alle im Unternehmen eingesetzten KI-Systeme inventarisieren (inkl. eingekaufte SaaS-Lösungen mit KI-Komponenten)
  • Vorläufige Risikoeinstufung je System vornehmen (Hochrisiko / Transparenzpflicht / Minimal)
  • Verantwortlichkeit für AI Compliance benennen – auch wenn zunächst als Zusatzrolle

60 Tage – Priorisierung und Gap-Analyse:

  • Für alle vorläufig als Hochrisiko eingestuften Systeme: Anforderungsabgleich gegen den Act-Kriterienkatalog
  • Dokumentationslücken identifizieren und priorisieren
  • Anbieter kontaktieren und vertragliche Nachweispflichten prüfen
  • Schulungsbedarf für zuständige Rollen ermitteln

90 Tage – Governance-Fundament legen:

  • AI-Governance-Richtlinie verabschieden (Policy, Rollen, Eskalationspfade)
  • Technische Dokumentation für priorisierte Hochrisiko-Systeme beginnen
  • Logging- und Monitoringkonzept für betroffene Systeme aufsetzen
  • Konformitätsbewertungsverfahren klären: Selbstbewertung oder Notified Body?

Fazit

Der EU AI Act ist kein theoretisches Regulierungswerk – er verändert konkret, welche Nachweise Unternehmen für den Betrieb bestimmter KI-Systeme erbringen müssen. Die größte Gefahr liegt derzeit nicht in der Komplexität der Anforderungen, sondern im Aufschieben: Wer jetzt keine strukturierte Bestandsaufnahme einleitet, wird in absehbarer Zeit unter Zeitdruck reagieren müssen – mit entsprechend höheren Kosten und Qualitätsabstrichen. IT-Management und Business sollten den AI Act deshalb nicht als Rechtsthema delegieren, sondern als operative Gestaltungsaufgabe begreifen. Die gute Nachricht: Viele der geforderten Strukturen – Risikoregister, Dokumentationsprozesse, Governance-Rollen – sind in gut aufgestellten Organisationen bereits teilweise vorhanden. Es geht oft mehr um Konsolidierung als um Neuaufbau.