29 April 2026

Wer KI in eine SaaS-App eingebaut hat und bisher dachte „das ist ja nur ein Feature“: Ab 2. August 2026 gilt die Hochrisiko-Klassifizierung des EU AI Act für bestimmte KI-Systeme scharf. Wer zu spät merkt dass er betroffen ist, hat ein Compliance-Problem und kein Technik-Problem.

6 Min. Lesezeit

Das Wichtigste in Kürze

  • Ab 2. August 2026 müssen Anbieter von KI-Hochrisikosystemen technische Dokumentation nach Annex IV nachweisen – keine Zusammenfassung, auditierbare Unterlagen.
  • Hochrisiko trifft viele SaaS-Kategorien direkt: HR-Software mit KI-Scoring, Bildungsplattformen mit adaptivem Assessment und KI-gestützte Kreditentscheidungen.
  • Annex IV schreibt 11 Pflicht-Abschnitte für technische Dokumentation vor – plus Risikomanagementsystem, Daten-Governance und Konformitätsbewertung.
  • Wer GPAI-Modelle (GPT-4o, Claude, Gemini) als Foundation nutzt, trägt geteilte Verantwortung mit dem Modell-Anbieter – aber nur wenn der eigene Use Case Hochrisiko-Kontext bedient.
  • Registrierung im EU-KI-Datenbank vor dem ersten Deployment ist Pflicht, nicht nachholbar.

Was ist ein Hochrisiko-KI-System im Sinne des EU AI Act? Hochrisiko-KI-Systeme sind nach Annex III des EU AI Act KI-Anwendungen in acht regulierten Anwendungsbereichen: biometrische Identifikation, kritische Infrastruktur, Bildung und Ausbildung, Beschäftigung und Personalverwaltung, Zugang zu wesentlichen Dienstleistungen (Kredit, Versicherung, öffentliche Leistungen), Strafverfolgung, Migration und Grenzkontrolle sowie Justiz. Innerhalb dieser Bereiche kommt es auf die konkrete Funktion an – nicht auf den Produktnamen.

Der EU AI Act ist seit August 2024 in Kraft. Was am 2. August 2026 passiert, ist kein neues Gesetz, sondern der Ablauf der Übergangsfrist für Hochrisiko-Systeme. Ab diesem Datum gelten alle Pflichten vollständig. Wer vorher nicht fertig ist, operiert nicht-konform.

Für SaaS-Anbieter ist das keine theoretische Frage. Drei Produktkategorien verdienen besondere Aufmerksamkeit:

HR-Software mit KI-gestütztem Screening oder Ranking von Bewerbungen fällt direkt unter Annex III Punkt 4 (Beschäftigung). Bildungsplattformen die adaptive Lernpfade oder automatisiertes Assessment einsetzen, landen unter Punkt 3. Und jede Art von KI-gestützter Kreditscoring-Funktion – auch als „AI-powered insight“ vermarktet – trifft Punkt 5.

11
Pflicht-Abschnitte in Annex IV
technische Dokumentation

3
Jahre Aufbewahrungspflicht
nach letztem Deployment

30 Mio €
maximale Strafe
oder 6% des Jahresumsatzes

Was Annex IV konkret fordert: die elf Pflicht-Abschnitte

Das ist der Teil den viele SaaS-Teams unterschätzen. Annex IV ist keine Checkliste die man in einem Nachmittag abhakt. Es sind elf Dokumentationselemente die für jedes Hochrisiko-Modell nachweisbar vorliegen müssen:

  1. Allgemeine Beschreibung: Zweck, Version, Entwicklungskontext und Änderungshistorie des KI-Systems
  2. Systemdesign: Architektur, Trainingslogik, Entscheidungslogik – maschinenlesbar wo möglich
  3. Trainingsdaten: Beschreibung der Datensets, Datenherkunft, Preprocessing-Schritte und Qualitätssicherung
  4. Validierungs- und Testdaten: Wie wurde das Modell auf Bias, Genauigkeit und Robustheit getestet?
  5. Performance-Metriken: Genauigkeits-, Präzisions- und Recall-Metriken für alle relevanten Personengruppen
  6. Risikomanagementsystem: Dokumentation des Risikoidentifikations- und Mitigationsprozesses
  7. Änderungsprotokoll: Jede Modelländerung die Conformity-relevant ist, nachverfolgt und dokumentiert
  8. Qualitätsmanagement: Prozesse für Testing, Monitoring und Post-Market-Überwachung
  9. Cybersecurity: Maßnahmen gegen Adversarial Inputs, Data Poisoning und Prompt Injection
  10. Gebrauchsanweisung: Für Deployer verständliche Dokumentation was das System kann und was nicht
  11. EU-Konformitätserklärung: Formell unterzeichnetes Dokument nach Artikel 47

Punkt 5 ist der der in der Praxis am meisten Arbeit macht: Fairness-Evaluation über Personengruppen hinweg. Wer Bewerbungsscoring baut und keine stratifizierten Test-Sets nach Geschlecht, Herkunft und Alter hat, wird das nicht in einer Woche nachholen können.

Selbstbewertung oder Drittprüfung: was SaaS-Anbieter wählen können

Selbstbewertung (Art. 43 Abs. 2) Drittprüfung (Art. 43 Abs. 1)
Möglich wenn Harmonisierte Normen angewendet werden Pflicht bei biometrischer Fernidentifikation
Intern durchführbar, eigenes QM-System Notified Body erforderlich (noch wenige akkreditiert)
Schneller und günstiger Höhere Glaubwürdigkeit gegenüber Aufsicht
Vollständige Annex-IV-Dokumentation trotzdem Pflicht Auch vollständige Dokumentation + externe Review nötig

Für die meisten SaaS-Anbieter die nicht in biometrische Identifikation gehen ist Selbstbewertung der realistischere Weg – sofern die Harmonisierten Normen (EN-Standards die noch entwickelt werden) rechtzeitig vorliegen.

Was GPAI-Foundation-Nutzer beachten müssen

Wer GPT-4o, Claude oder Gemini als Foundation für ein Hochrisiko-Produkt nutzt, teilt die Verantwortung mit dem Modell-Anbieter. OpenAI, Anthropic und Google haben ihre GPAI-Dokumentationspflichten (Art. 53) bis August 2025 zu erfüllen. Was das für SaaS-Provider bedeutet: Sie können sich auf diese Dokumentation berufen – müssen aber den eigenen Use-Case-Layer vollständig selbst dokumentieren. Das Modell ist nicht der Scope, der Einsatzbereich schon.

Häufige Fragen

Gilt der EU AI Act auch für SaaS-Anbieter außerhalb der EU die EU-Kunden bedienen?

Ja. Der AI Act hat extraterritorialen Geltungsbereich ähnlich der DSGVO. Entscheidend ist nicht der Sitz des Anbieters, sondern ob das KI-System in der EU eingesetzt wird oder die Outputs in der EU genutzt werden. Ein US-SaaS mit deutschen Enterprise-Kunden ist betroffen.

Muss ich für jede KI-Funktion in meinem Produkt eine Hochrisiko-Bewertung machen?

Nein. Der Scope ist der Use Case, nicht die Technologie. Ein LLM-gestütztes Chatbot-Feature das allgemeine Fragen beantwortet, ist kein Hochrisiko-System. Dieselbe Technologie in einem Kreditentscheidungs-Workflow wäre es. Die Klassifizierung hängt von der konkreten Funktion ab die das System im regulierten Kontext übernimmt.

Was passiert wenn ich die Frist am 2. August 2026 verpasse?

Nationale Marktaufsichtsbehörden können Abmahnungen, Bußgelder bis 30 Mio € oder 6% des weltweiten Jahresumsatzes verhängen. Zusätzlich können sie anordnen dass das System vom Markt genommen wird. Ein Aufschub durch „wir sind gerade dabei“ ist kein anerkannter Compliance-Status.

Muss ich mein KI-System neu trainieren wenn die Trainingsdaten-Dokumentation fehlt?

Nicht zwingend. Die Dokumentationspflicht nach Annex IV verlangt Beschreibungen der Trainingsdaten, nicht den vollständigen Datensatz. Wenn die Herkunft, das Preprocessing und die Qualitätssicherung nachvollziehbar sind – auch im Nachhinein rekonstruiert und dokumentiert – ist das ausreichend. Was fehlt, kann oft dokumentiert werden ohne das Modell anzufassen.

Was ist die EU-KI-Datenbank und wie registriere ich mein System dort?

Die EU-Datenbank nach Artikel 71 AI Act wird von der EU-KI-Behörde betrieben. Provider von Hochrisiko-Systemen müssen ihr System vor dem ersten Deployment in der EU registrieren. Die Registrierung umfasst Kontaktdaten des Providers, Beschreibung des Systems, geographischen Geltungsbereich und Angaben zur Konformitätsbewertung. Das Portal ist unter eudatabase.eu zugänglich; konkrete Schritte werden von der zuständigen nationalen Behörde kommuniziert.

Quelle Titelbild: Pexels

Ein Magazin der Evernine Media GmbH