AGILERO

EU AI Act · Zuletzt aktualisiert: April 2026

Was bedeutet der EU AI Actfür Ihr Unternehmen?

Die verbindliche Referenz für Mittelständler: Risikoklassen, Fristen, Pflichten — erklärt ohne Juristendeutsch. Diese Seite wird aktualisiert, wenn der Gesetzgeber nachschärft.

Kritische Frist: August 2026 — Hochrisiko-KI-Pflichten greifen

Einordnung

Das erste KI-Gesetz der Welt.

Der EU AI Act ist die weltweit erste umfassende Regulierung für Künstliche Intelligenz. Er gilt für jedes Unternehmen, das KI-Systeme in der EU einsetzt, entwickelt oder vermarktet — unabhängig davon, wo das Unternehmen seinen Sitz hat.

Das Gesetz stuft KI-Systeme nach ihrem Risiko ein. Je höher das Risiko, desto strengere Pflichten: Dokumentation, Transparenz, menschliche Kontrolle, Audit-Trail. Wer Hochrisiko-KI betreibt, ohne diese Nachweise zu führen, riskiert Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes.

Für den Mittelstand gilt: Nicht jedes Unternehmen ist betroffen — aber jedes Unternehmen muss das jetzt prüfen. Die Frist für Hochrisiko-Systeme läuft im August 2026 ab.

Vollständige Analyse: Was der EU AI Act für den Mittelstand bedeutet →
Eckdaten EU AI Act
Inkrafttreten01. August 2024
Gilt fürAlle Unternehmen, die KI in der EU einsetzen
Letzte Frist01. August 2026 (Hochrisiko)
Bußgeld max.35 Mio. € oder 7 % Jahresumsatz
ZuständigNationale Marktüberwachungsbehörden

Fristen

Was gilt ab wann?

Der EU AI Act tritt schrittweise in Kraft. Für den Mittelstand ist August 2026 der entscheidende Termin.

Aug 2024

Gesetz in Kraft

Der EU AI Act tritt offiziell in Kraft. Beginn der schrittweisen Anwendung.

Feb 2025

Verbote wirksam

Verbotene KI-Praktiken sind ab sofort untersagt: Social Scoring, manipulative Systeme, Echtzeit-Biometrie im öffentlichen Raum.

Aug 2025

GPAI-Regeln

Pflichten für Anbieter allgemeiner KI-Modelle (z. B. GPT-Klasse) greifen. Transparenzanforderungen für große Modelle.

Aug 2026

Hochrisiko-KI-PflichtenJetzt relevant

Die kritische Frist für den Mittelstand: Wer Hochrisiko-KI einsetzt oder entwickelt, muss Compliance nachweisen — oder riskiert Bußgelder bis 35 Mio. €.

Risikoklassen

Welche Risikoklasse ist Ihr Unternehmen?

Der EU AI Act unterscheidet vier Stufen. Die Einordnung entscheidet, welche Pflichten für Sie gelten.

InakzeptabelVerboten seit Feb 2025

KI-Systeme, die Grundrechte verletzen: Social Scoring durch Behörden, Verhaltensmanipulation durch Ausnutzung von Schwächen, biometrische Echtzeit-Überwachung im öffentlichen Raum.

Für den Mittelstand in der Regel nicht relevant.

HochrisikoPflichten ab Aug 2026Mittelstand relevant

KI in sensiblen Bereichen: Personalentscheidungen (Bewerbungsscreening), Kreditwürdigkeitsbewertung, medizinische Diagnostik, kritische Infrastruktur, Bildung.

Relevant für viele Mittelständler — prüfen Sie Ihren Use Case.

BegrenztTransparenzpflichten sofortMittelstand relevant

Chatbots und KI-generierte Inhalte müssen als solche kenntlich gemacht werden. Nutzer müssen wissen, dass sie mit einer KI kommunizieren.

Betrifft jeden, der einen KI-Chatbot oder -Assistenten einsetzt.

MinimalKeine Pflichten

Standard-Spam-Filter, Empfehlungssysteme, einfache Automatisierung ohne Entscheidungsrelevanz.

Keine regulatorischen Anforderungen.

Schnell-Check

Bin ich Hochrisiko?

Trifft einer der folgenden Punkte auf Ihr Unternehmen zu?

  • Mein Unternehmen nutzt KI für Personalentscheidungen (Bewerbung, Kündigung, Bewertung).
  • Mein Unternehmen nutzt KI für Kreditbewertungen oder Bonitätsprüfungen.
  • Mein Unternehmen setzt KI in der medizinischen Diagnostik oder Pflege ein.
  • Mein Unternehmen betreibt KI-gestützte Systeme in kritischer Infrastruktur.
  • Mein Unternehmen nutzt KI-Chatbots mit Kundenkontakt.

Wenn Sie auch nur einen Punkt ankreuzen, sind Sie potenziell Hochrisiko — und der August 2026 gilt für Sie.

KI-Governance Stresstest anfragen

Sofortmaßnahmen

Drei Maßnahmen, die sofort helfen.

Kein Unternehmen muss sofort vollständig compliant sein. Aber jedes Unternehmen sollte diese drei Schritte jetzt angehen.

01

KI-Inventar erstellen

Welche KI-Tools sind im Einsatz — offiziell und inoffiziell? Schatten-KI (ChatGPT, Copilot ohne IT-Freigabe) zählt ebenfalls. Ohne Inventar keine Compliance.

02

Risikoklasse bestimmen

Hochrisiko oder nicht — das entscheidet über Ihren Compliance-Aufwand. Die Einordnung braucht keine Rechtsabteilung, aber klares Methodenwissen.

03

Governance dokumentieren

Audit-Trail aufbauen, Human-in-the-Loop verankern, Transparenznachweise sichern. Der Regulierer verlangt Belege — nicht Absichtserklärungen.

Alle drei Maßnahmen in einem strukturierten Tag — mit schriftlichem Bericht und priorisierten Sofortmaßnahmen.

KI-Governance Stresstest — 2.900 € · 1 Tag

Häufige Fragen

Was Entscheider zum EU AI Act wissen wollen.

Keine Anwaltsprosa. Klare Antworten für den Mittelstand.

Ja. Es gibt keine Ausnahme für KMU. Der EU AI Act gilt für jedes Unternehmen, das KI-Systeme in der EU einsetzt, entwickelt oder in Verkehr bringt — unabhängig von Größe und Sitz. Allerdings hängt der tatsächliche Compliance-Aufwand von der Risikoklasse der eingesetzten Systeme ab: Wer nur Minimal-Risiko-KI nutzt, hat keine nennenswerten Pflichten.

Hochrisiko-KI sind Systeme, die in sensiblen Bereichen eingesetzt werden und potenziell erhebliche Auswirkungen auf Personen haben. Dazu zählen laut EU AI Act: KI in der Personalverwaltung (Bewerbungsscreening, Leistungsbewertung), in der Kreditvergabe, in der medizinischen Diagnostik, in kritischer Infrastruktur sowie in Bildung und Berufsausbildung. Für diese Systeme gelten ab August 2026 strenge Dokumentations-, Transparenz- und Aufsichtspflichten.

Nicht registrieren — aber regulieren. Wer ChatGPT, Copilot oder ähnliche Tools im Arbeitsalltag einsetzt, muss sicherstellen, dass keine vertraulichen Unternehmensdaten unkontrolliert in US-Cloud-Systeme fließen, KI-generierte Inhalte als solche kenntlich gemacht werden, und bei Kundenkontakt klar kommuniziert wird, dass eine KI antwortet. Sogenannte Schatten-KI — also nicht offiziell freigegebene Tools — ist das größte Compliance-Risiko für den Mittelstand.

Bußgelder von bis zu 35 Millionen Euro oder 7 % des weltweiten Jahresumsatzes — je nachdem, welcher Betrag höher ist. Dazu kommen Betriebsunterbrechungen, Reputationsschäden und persönliche Haftungsrisiken für die Geschäftsführung. Wichtig: Die Aufsichtsbehörden müssen nicht auf eine Beschwerde warten — sie können proaktiv prüfen.

Die Geschäftsführung. Der EU AI Act adressiert Betreiber und Anbieter von KI-Systemen als Unternehmen — die Verantwortung liegt auf Führungsebene, nicht in der IT-Abteilung. Die IT setzt um, aber die Governance-Verantwortung — also Entscheidungen über Einsatz, Kontrolle und Dokumentation von KI — trägt die Geschäftsführung.

Das hängt von Ihrer Risikoklasse ab. Für Minimal-Risiko-Systeme entstehen kaum Kosten. Für Hochrisiko-Systeme sind strukturierte Maßnahmen nötig: Dokumentation, Audit-Trail, Human-in-the-Loop. Ein erster strukturierter Check (KI-Governance Stresstest) kostet 2.900 € und liefert eine klare Einordnung — oft der wirtschaftlichste erste Schritt.

Für Hochrisiko-KI-Systeme läuft die Frist am 1. August 2026 ab. Das klingt weit, ist es aber nicht: Wer jetzt noch kein KI-Inventar hat, keine Risikoklassifizierung vorgenommen hat und keine Governance-Strukturen aufgebaut hat, braucht mindestens 6–9 Monate für eine ordentliche Umsetzung. Der sinnvolle Startpunkt ist jetzt.

Die DSGVO regelt den Schutz personenbezogener Daten — sie gilt beim Verarbeiten von Informationen über Personen. Der EU AI Act regelt den Einsatz von KI-Systemen — unabhängig davon, ob personenbezogene Daten verarbeitet werden. Beide Regelwerke können gleichzeitig gelten: Wer eine KI zur Personalentscheidung einsetzt, muss sowohl DSGVO als auch EU AI Act beachten.

Ja — als Betreiber tragen Sie Mitverantwortung. Der EU AI Act unterscheidet zwischen Anbietern (die ein KI-System entwickeln und in Verkehr bringen) und Betreibern (die es einsetzen). Microsoft ist Anbieter, Ihr Unternehmen ist Betreiber. Als Betreiber müssen Sie sicherstellen, dass der Einsatz den Anforderungen entspricht — auch wenn Sie das System nicht selbst entwickelt haben.

Der EU AI Act verlangt für Hochrisiko-Systeme, dass Menschen die Ausgaben der KI verstehen, überwachen und im Zweifelsfall übersteuern können. Das ist kein bürokratisches Konstrukt — es ist die Grundlage jeder rechtskonformen KI-Nutzung. In der Praxis bedeutet es: Keine KI trifft finale Entscheidungen über Personen ohne menschliche Prüfung. Human-in-the-Loop im Detail →

Der EU AI Act schreibt keinen KI-Beauftragten explizit vor — aber er verlangt klare interne Verantwortlichkeiten für Hochrisiko-Systeme. In der Praxis empfiehlt sich eine benannte Person oder Rolle, die KI-Governance koordiniert. Das muss keine Vollzeitstelle sein — aber die Verantwortung muss dokumentiert und zugewiesen sein.

Ein KI-Betriebsmodell strukturiert, wie KI im Unternehmen eingesetzt, kontrolliert und weiterentwickelt wird — mit klaren Prozessen, Audit-Trails und Human-in-the-Loop-Strukturen. Es ist die strukturelle Antwort auf die Anforderungen des EU AI Act: Wer ein KI-Betriebsmodell hat, ist nicht nur compliant — er hat einen nachhaltigen Wettbewerbsvorteil.

Unsicher, wo Sie stehen?

30 Minuten Erstgespräch.
Keine Verpflichtung.

Wir klären, ob Sie betroffen sind, welche Risikoklasse auf Sie zutrifft — und welcher erste Schritt für Ihr Unternehmen sinnvoll ist.