AGILERO
← KI-Blog

30.03.2026

Schatten-KI: Was passiert, wenn Ihre Mitarbeiter ChatGPT ohne Governance nutzen

Schatten-KI: Was passiert, wenn Ihre Mitarbeiter ChatGPT ohne Governance nutzen

Ihre Mitarbeiter nutzen ChatGPT bereits. Nicht alle. Aber genug. Sie fügen Kundenanfragen ein, lassen Angebote umschreiben, verfassen HR-Briefe mit Unterstützung eines öffentlichen Sprachmodells. Wahrscheinlich gerade jetzt, während Sie das hier lesen.

Laut aktuellen Erhebungen nutzen in Deutschland mehr als die Hälfte aller Wissensarbeiter KI-Tools im Arbeitsalltag – unabhängig davon, ob ihr Arbeitgeber ein offizielles Tool bereitstellt oder nicht. Die meisten tun es nicht aus Ungehorsam. Sie tun es, weil es funktioniert. Weil es schneller geht. Weil der Kollege es auch tut.

Schatten-IT ist kein neues Phänomen. Mitarbeiter, die eigene Tools nutzen, weil die bereitgestellten Werkzeuge nicht gut genug sind, gibt es seit Jahren. Mit KI hat dieses Muster eine neue Qualität erreicht. Ein Vertriebler, der eine Angebotsformulierung von ChatGPT optimieren lässt, gibt dabei unter Umständen Preisstrukturen, Kundennamen und Verhandlungsstrategien an ein US-amerikanisches System weiter – ohne dass er sich dabei etwas Böses denkt. Eine HR-Managerin, die einen Gesprächsleitfaden für ein schwieriges Personalgespräch formulieren lässt, teilt interne Personalinformationen mit einem Modell außerhalb Ihrer Kontrolle. Keiner dieser Schritte ist böswillig. Jeder einzelne ist ein strukturelles Problem.

Deployer ohne Entscheidung

Seit dem 2. Februar 2025 gilt die erste Stufe des EU AI Act. Was viele Geschäftsführer noch nicht wissen: Wer KI-Ergebnisse in Geschäftsprozesse einfließen lässt, gilt rechtlich als „Deployer" – auch ohne bewusste Einführungsentscheidung. Transparenzpflichten, Risikobewertungen, Dokumentationsanforderungen: Sie greifen unabhängig davon, ob das Unternehmen die Nutzung offiziell kennt oder nicht. Eine inoffizielle Nutzung schützt nicht vor dieser Verantwortung. Sie erschwert nur deren Nachweis.

Gleichzeitig verlassen Daten Ihre Infrastruktur, sobald ein Mitarbeiter Inhalte in ein öffentliches Modell eingibt – Kundendaten, Kalkulationsgrundlagen, strategische Interna. Die DSGVO kennt keine Ausnahme für KI-Workflows. Und es gibt keinen Log, keine Kontrolle, keine Rückverfolgbarkeit: Wer hat was eingegeben, wann, mit welchem Ergebnis?

Geschäftsführer eines mittelständischen Unternehmens erkennt Handlungsbedarf beim EU AI Act und KI-Compliance
EU AI Act: Was Ihr Unternehmen als Deployer jetzt konkret wissen muss.

Die Frage nach der Auditierbarkeit

Es gibt eine Frage, die in diesem Zusammenhang fast nie gestellt wird: Welche Entscheidungen in Ihrem Unternehmen wurden in den vergangenen Monaten durch KI-generierte Inhalte beeinflusst? Welche Angebote, Briefe, Analysen oder Empfehlungen enthielten Formulierungen, die ein öffentliches Modell produziert hat? Die ehrliche Antwort lautet in fast allen Mittelstandsunternehmen: Sie wissen es nicht.

Das ist der eigentliche Kern des Problems – nicht der Einsatz von KI, sondern dessen Unsichtbarkeit. Eine KI, die halluziniert, ist ein technisches Problem. Eine KI, die unkontrolliert im Unternehmen operiert und deren Ausgaben niemand mehr zurückverfolgen kann, ist ein Governance-Problem. Und Governance-Probleme werden teuer, sobald jemand von außen fragt.

CFO analysiert die versteckten Kosten von KI-Fehlern in der Unternehmensbilanz
Was KI-Fehler tatsächlich kosten – die Bilanzposition, die kein CFO auf dem Schirm hat.

Warum ein Verbot keine Antwort ist

Viele Unternehmen reagieren mit dem Naheliegenden: einer internen Richtlinie. „KI-Tools sind ohne Freigabe nicht zu nutzen." Das ist verständlich. Und es reicht nicht. Eine Richtlinie ist kein Governance-Modell. Sie beschreibt, was erlaubt ist – aber sie kontrolliert nicht, was passiert. Ohne technische Leitplanken, ohne ein alternatives System das besser ist als der Status quo, und ohne eine Kultur die KI als strategisches Werkzeug begreift, erzeugt ein Verbot vor allem eines: versteckte Nutzung statt offener.

Die Alternative zum kontrollierten KI-Einsatz ist nicht kein KI-Einsatz. Die Alternative ist unkontrollierter KI-Einsatz – den Sie nur nicht sehen. Der Reflex, KI zu verbieten, ist menschlich verständlich. Strategisch ist er kontraproduktiv.

Kontrolle statt Verbot

Wer Schatten-KI ernsthaft adressieren will, braucht keine strengere Richtlinie. Er braucht eine Architektur. Das bedeutet ein Proprietary Knowledge System, das das Wissen Ihres Unternehmens strukturiert, sichert und für KI-Systeme innerhalb Ihrer Infrastruktur nutzbar macht – außerhalb der öffentlichen Cloud, außerhalb des US Cloud Act. Es bedeutet ein Human-in-the-Loop-Prinzip, das festlegt, welche Entscheidungen die KI vorbereiten darf – und wo ein Mensch das letzte Wort behält.

Der Unterschied zwischen einem Unternehmen mit Schatten-KI und einem Unternehmen mit souveränem KI-Betrieb ist kein kultureller. Er ist ein architektonischer. Und er lässt sich messen – in Haftungsrisiken, in Datensicherheit, in der Fähigkeit, bei einer Prüfung lückenlos Auskunft zu geben.

KI-Audit im Mittelstand: Wer prüft die KI und welches Kontrollsystem fehlt in deutschen Unternehmen
Wer prüft die KI? Das Kontrollsystem, das in fast keinem Mittelstandsunternehmen existiert.

Bevor eine Architektur implementiert werden kann, braucht es eine ehrliche Bestandsaufnahme. Welche KI-Tools werden in Ihrem Unternehmen genutzt – offiziell und inoffiziell? Welche Prozesse berühren datenschutzrelevante Informationen? Wo existieren bereits Governance-Lücken, die heute niemand benennt? Wenn Sie diese Fragen nicht sicher beantworten können, ist das kein Versäumnis – es ist der Normalzustand. Und er ist der Ausgangspunkt für jede sinnvolle nächste Entscheidung.

Strategische KI-Planung im Mittelstand: Der AGILERO-Architekt entwirft ein souveränes KI-Betriebsmodell mit PKS, Knowledge Injection und Human-in-the-Loop
Drei Perspektiven auf Ihr KI-Betriebsmodell – IT, Finanzen, Kommunikation: Der KI-Architekt beantwortet Ihre Fragen in unter fünf Minuten.

Wenn Sie verstehen wollen, wo Ihr Unternehmen heute steht, ist der KI-Governance Stresstest der richtige erste Schritt. Ein Remote-Format, ein Tag, sieben Dimensionen. Am Ende stehen drei konkrete Handlungsempfehlungen – und Klarheit darüber, was in Ihrem Unternehmen bereits passiert.

Wo steht Ihr Unternehmen bei KI?

KI-Potenzial-Check — 8 Fragen, persönliches Profil. Kostenlos.

KI-Potenzial-Check starten