AGILERO
← KI-Blog

28.04.2026

Wenn der Chatbot lügt – warum Ihr Unternehmen für KI-Outputs haftet

Wenn der Chatbot lügt – warum Ihr Unternehmen für KI-Outputs haftet

Stellen Sie sich vor: Ihr KI-gestützter Kundenservice bestätigt einem Kunden eine Lieferzusage, die so nie möglich war. Das System hat sie generiert – plausibel formuliert, professionell klingend, vollständig erfunden. Der Kunde besteht auf Erfüllung. Sie verweisen auf Ihre AGB, in denen steht, dass KI-Antworten Fehler enthalten können.

Das Gericht gibt dem Kunden recht.

Diese Situation ist kein Gedankenexperiment. Sie ist die logische Konsequenz einer Rechtslage, die in deutschen Unternehmen noch kaum bekannt ist – obwohl sie bereits gilt.

Wer lieber hört als liest: Die wichtigsten Urteile, Risiken und Handlungsoptionen aus diesem Artikel gibt es auch als KI-generierten Podcast.

Der rechtliche Ausgangspunkt: KI spricht für Ihr Unternehmen

Schon 2012 hat der Bundesgerichtshof klargestellt, was viele Unternehmen noch nicht auf ihren KI-Einsatz übertragen haben: Vollautomatisch generierte Nachrichten sind rechtlich bindende Willenserklärungen des Unternehmens, das sie ausspielt (BGH, Urt. v. 16.10.2012 – X ZR 37/12). Es spielt dabei keine Rolle, ob ein Mensch die Aussage geprüft hat oder nicht. Das System handelt im Namen Ihres Unternehmens. Punkt.

Für Chatbots im Kundenservice, KI-gestützte Angebotstools oder automatisierte Auskunftssysteme bedeutet das: Jede Antwort, die Ihr System gibt, ist rechtlich so zu behandeln, als hätte ein Mitarbeiter sie gegeben. Preisaussagen. Lieferversprechen. Produkteigenschaften. Vertragsbedingungen. All das bindet Sie – wenn der Kunde es als Zusage verstehen durfte.

CFO erkennt kritisch eine KI-Halluzination auf dem Monitor – Haftungsrisiko durch fehlerhafte KI-Outputs im Mittelstand
KI-Halluzinationen sind kein Ausnahmefall, sondern ein architekturelles Merkmal großer Sprachmodelle – mit direkten rechtlichen Konsequenzen für den Betreiber.

Zwei Urteile, die Sie kennen sollten

Die Rechtsprechung hat diesen Grundsatz inzwischen auf KI-Systeme angewendet – mit konkreten Konsequenzen.

Landgericht Kiel, 29.02.2024 (Az. 6 O 151/23): Ein Wirtschaftsinformationsdienst nutzte KI zur vollautomatisierten Auswertung öffentlicher Register. Das System bündelte fehlerhafte Daten und behauptete, ein mittelständisches Unternehmen werde wegen Vermögenslosigkeit aus dem Handelsregister gelöscht. Die Behauptung war falsch. Der Betreiber berief sich auf seinen AGB-Hinweis, dass Daten fehlerbehaftet sein könnten. Das Gericht verurteilte ihn dennoch zur Unterlassung: Wer KI bewusst als eigenes Werkzeug einsetzt, übernimmt die inhaltliche Verantwortung – unabhängig davon, was in den Nutzungsbedingungen steht (§ 1004 BGB analog i. V. m. § 823 Abs. 1 BGB).

Landgericht Hamburg, 23.09.2025 (Az. 324 O 461/25): Der KI-Chatbot „Grok" auf der Plattform X behauptete, die NGO Campact e. V. erhalte Bundesmittel für ihre Tätigkeit. Eine Halluzination – komplett erfunden. Das Gericht erließ eine einstweilige Verfügung gegen den Betreiber X.AI LLC. Bei Zuwiderhandlung: bis zu 250.000 Euro Ordnungsgeld. Begründung: Wer KI-Antworten auf seiner Plattform präsentiert, macht sich diese Aussagen zu eigen.

Beide Urteile zeigen dasselbe Muster: Der Betreiber haftet, nicht das Modell. Der Anbieter Ihrer KI-Lösung – ob OpenAI, Microsoft oder ein anderer – wird in keinem dieser Fälle in die Pflicht genommen.

Warum AGB-Ausschlüsse nicht schützen

Der verbreitete Reflex, Haftungsrisiken durch einen Disclaimer abzufangen – „KI kann Fehler machen, keine Gewähr für die Richtigkeit der Angaben" – greift in der Praxis zu kurz.

Das Problem ist struktureller Natur: Wenn Ihr System Antworten in einem professionellen, faktenorientierten Ton präsentiert, weckt es beim Nutzer legitime Erwartungen. Die inhaltliche Gestaltung – Aufmachung, Kontext, Positionierung – signalisiert Verlässlichkeit. Ein kleiner Disclaimer im Kleingedruckten hebt das nicht auf. Gerichte bewerten, wie ein durchschnittlicher Nutzer die Aussage verstehen durfte. Nicht, was Ihre AGB im Hintergrund regeln.

Das gilt besonders dann, wenn das KI-System in einem Kontext eingesetzt wird, in dem Nutzer Verlässlichkeit erwarten – Kundenservice, Preisauskünfte, Produktberatung, Recruiting.

Was ab Dezember 2026 gilt

Die aktuelle Haftungslage ist bereits anspruchsvoll. Sie wird sich verschärfen.

Ab Dezember 2026 gilt die neue EU-Produkthaftungsrichtlinie. Sie stuft Software – und damit KI-Systeme – als Produkte ein. Die Folge: Hersteller und Betreiber haften verschuldensunabhängig für Schäden durch fehlerhafte Systeme. Bisher musste ein Geschädigter nachweisen, dass Sie fahrlässig oder vorsätzlich gehandelt haben. Künftig reicht der Nachweis, dass das System fehlerhaft war und ein Schaden entstanden ist. Zusätzlich werden Beweiserleichterungen eingeführt, wenn die technische Komplexität des Systems den Nachweis erschwert – was bei KI fast immer der Fall ist.

Der Zeitpunkt, um Strukturen aufzubauen, ist jetzt. Nicht wenn die Richtlinie gilt.

Die Lösung: Kontrolle dort einbauen, wo sie zählt

Das Ziel ist nicht, jeden KI-Output manuell zu prüfen. Das würde den Effizienzgewinn zunichte machen. Das Ziel ist, in riskanten Kontexten einen Kontrollmechanismus einzubauen, der automatisch greift.

Human-in-the-Loop ist kein Konzept für übervorsichtige Unternehmen – es ist die strukturelle Antwort auf die beschriebene Haftungslage. Konkret bedeutet das: KI-Outputs, die Preise, Lieferversprechen, Rechtsfragen oder andere bindende Aussagen enthalten, werden vor der Ausgabe an den Nutzer durch eine Kontrollinstanz geführt. Diese Instanz kann ein Mensch sein. Sie kann auch eine regelbasierte Schleife sein, die bestimmte Inhaltstypen herausfiltert. Entscheidend ist, dass der Kontrollpunkt existiert – dokumentiert, auditierbar, nachweisbar.

Dieser Nachweis ist nicht nur haftungsrechtlich relevant. Er ist auch die Grundlage für das, was Art. 4 der EU-KI-Verordnung von Ihnen verlangt: dass Ihr Unternehmen sicherstellt, dass die Menschen, die mit KI-Systemen arbeiten, deren Funktionsweise und Risiken verstehen. KI-Kompetenz ist damit keine freiwillige Weiterbildungsmaßnahme mehr – sie ist eine gesetzliche Pflicht, die für viele Unternehmen bereits gilt.

Was jetzt zu tun ist

Die Frage ist nicht, ob Sie KI einsetzen. Die Frage ist, ob Ihr Einsatz strukturiert genug ist, um die Haftung zu begrenzen, die mit jedem automatisierten Output entsteht.

Ein erster Schritt ist die Bestandsaufnahme: Welche Ihrer KI-Systeme geben nach außen Aussagen ab, die Nutzer als Zusagen verstehen könnten? Wo fehlt ein Kontrollmechanismus? Und welche Ihrer internen KI-Prozesse laufen ohne dokumentierte Governance?

Der KI-Governance Stresstest beantwortet genau diese Fragen – in einem Tag, remote, mit einem konkreten Ergebnisbericht. Er ist der schnellste Weg, die eigene Haftungslage zu verstehen, bevor ein Urteil das für Sie tut.

Wer tiefer einsteigen will: Das KI-Betriebsmodell beschreibt, wie Human-in-the-Loop, Knowledge Injection und Governance als integriertes System zusammenwirken – so dass KI-Nutzung nicht zur Haftungsfalle wird, sondern zum belastbaren Wettbewerbsvorteil.

Wo steht Ihr Unternehmen bei KI?

KI-Potenzial-Check — 8 Fragen, persönliches Profil. Kostenlos.

KI-Potenzial-Check starten