Ich habe viele Jahre als Projektmanager gearbeitet. Bei Twick.it, bei Praxis4future, beim Brand Hub. Die Arbeit war jedes Mal dieselbe, auch wenn das Produkt ein anderes war: Ich saß in der Mitte. Auf der einen Seite Kunden, die wussten, was sie brauchten — aber es nicht in technische Anforderungen übersetzen konnten. Auf der anderen Seite Entwickler, die präzise bauten, was spezifiziert wurde — aber nicht wussten, warum. Meine Aufgabe war Übersetzung. Und jede Übersetzung kostet etwas.
Es kostet Nuance. Es kostet Dringlichkeit. Es kostet das, was zwischen den Zeilen eines Kundengespräches steckt und im Pflichtenheft nicht mehr steht. Das Ergebnis war selten falsch — aber es war fast nie ganz richtig. Nicht weil jemand schlechte Arbeit geleistet hätte. Sondern weil das System Übersetzung erzwingt, wo direkte Verbindung eigentlich möglich sein müsste.
Das Übersetzungsproblem ist kein IT-Problem
Uwe Peter, Deutschlandchef von Cisco, hat auf der Cisco Live in Amsterdam denselben Mechanismus für die Industrie beschrieben. „Wir haben die Leute, die den Dieselmotor verstehen. Nur blöderweise schreiben die typischerweise keine Programme. Wie schön wär es, wenn die den digitalen Zwilling selber schreiben könnten? Weil dann hab ich dieses ganze Übersetzungsproblem nicht — dass der eigentliche Experte es einem IT-Mann erklärt, der IT-Mann programmiert's, dann ist es wieder anders."
Das ist präzise. Die Übersetzungskette lautet: Experte erklärt → IT versteht → IT baut → Ergebnis ist anders. Niemand ist schuld. Aber das Ergebnis stimmt nicht. Und dieser Schaden akkumuliert sich über jedes Projekt, über jede Iteration, über jeden Mitarbeiter, der geht und sein Wissen mitnimmt.
Der Fachkräftemangel wird meist als Recruiting-Problem diskutiert: zu wenige Menschen mit den richtigen Skills. Das ist ein echter Engpass. Aber er überdeckt ein strukturell tieferes Problem: Das Wissen der vorhandenen Experten ist nicht skalierbar. Es sitzt in Köpfen, die nicht kopierbar sind. Es ist transferierbar nur durch Gespräche, Dokumente und — unvermeidlich — Übersetzungen, die etwas verlieren.
Der eigentliche Fachkräftemangel ist kein Mangel an Menschen. Es ist ein Mangel an Systemen, die ihr Wissen tragen können.
Was KI-Agenten verändern — und was nicht
Ein KI-Agent ohne Kontext ist ein brillanter Fremder. Schnell. Eloquent. Oft falsch. Ein großes Sprachmodell, dem man eine Frage über Fertigungsprozesse stellt, antwortet mit dem, was im Internet über Fertigungsprozesse steht — nicht mit dem, was in zwanzig Jahren Produktionserfahrung eines konkreten Unternehmens liegt. Das ist der Unterschied, der in der Praxis zählt.
Was KI-Agenten grundlegend verändern, ist die Richtung der Verbindung. Nicht der Experte muss sich anpassen, um mit der Maschine zu sprechen. Die Maschine wird so aufgebaut, dass sie die Sprache des Experten spricht. Das klingt nach einer kleinen Verschiebung. Es ist eine fundamentale.
Der Mechanismus dafür heißt Knowledge Injection. Kein Prompt-Engineering im Sinne von cleveren Formulierungen — sondern die strukturierte Verankerung von Domänenwissen als Fundament des Systems. Das Wissen des Unternehmens, seiner Experten, seiner Prozesse wird einmalig in das System eingebracht. Danach spricht der Agent aus diesem Wissen heraus — nicht aus dem Internet.
Wie der Experte zum Autor wird — ohne zu programmieren
Konkret funktioniert das in zwei Schritten, die sich in der Praxis überlagern.
Der erste Schritt ist die Wissensbasis. Prozessdokumentation, Fehlerhistorien, Handbücher, Erfahrungswissen aus internen Gesprächen — all das wird strukturiert aufbereitet und dem Agenten als Referenz übergeben. Das Verfahren, das dabei den Unterschied macht, ist Retrieval-Augmented Generation: Der Agent sucht aktiv in dieser Wissensbasis, bevor er antwortet. Er erfindet keine Antwort aus Wahrscheinlichkeiten — er liest nach, was das Unternehmen selbst dokumentiert hat.
Der zweite Schritt ist die Interaktion. Ein Agent mit dieser Grundlage kann von einem Produktionsleiter, einem Konstrukteur, einem Servicetechniker direkt befragt werden — in ihrer Sprache, über ihre Prozesse, mit ihrem Vokabular. Der IT-Mann als Vermittler ist nicht mehr notwendig. Der Übersetzungsschritt entfällt nicht vollständig, aber er findet einmalig statt — beim Aufbau der Wissensbasis — statt bei jeder einzelnen Interaktion.
Der Experte wird zum Autor des Systems, ohne Programmierer zu sein. Sein Wissen ist nicht mehr an seine Anwesenheit gebunden.
Das ist der Kern dessen, was Agentic AI für Unternehmen mit tiefem Domänenwissen bedeutet. Nicht Automatisierung im klassischen Sinne — nicht der Ersatz von Menschen durch Maschinen. Sondern die Übertragung von Expertise in ein System, das skaliert: das nicht kündigt, nicht vergisst, nicht interpretiert, und das von anderen Experten direkt genutzt werden kann.
Was das für den Fachkräftemangel bedeutet
Die Diskussion über Fachkräftemangel dreht sich um Köpfe. Wieviele haben wir, wieviele brauchen wir, wieviele können wir ausbilden. Diese Rechnung verändert sich, wenn Expertenwissen von der Person entkoppelt und in Systemen verankert werden kann.
Ein Unternehmen mit zwanzig erfahrenen Ingenieuren, deren Wissen strukturiert in einem Agenten-System abgebildet ist, hat nicht zwanzig Experten — es hat das skalierbare Äquivalent von zwanzig Experten, das neuen Mitarbeitern, Junior-Ingenieuren und operativen Teams direkt zur Verfügung steht. Die Einarbeitung verkürzt sich. Die Fehlerquote sinkt. Und wenn ein erfahrener Mitarbeiter das Unternehmen verlässt, verlässt sein Wissen es nicht vollständig.
Das ändert die Recruiting-Gleichung. Nicht jede offene Stelle muss mit einem Experten besetzt werden, wenn das vorhandene Expertenwissen im System steckt und von weniger erfahrenen Mitarbeitern abgerufen werden kann. Das ist kein theoretisches Szenario — es ist die praktische Konsequenz aus dem, was Knowledge Injection und Human-in-the-Loop-Architekturen heute ermöglichen.
Der Engpass verschiebt sich. Nicht mehr: Wer hat das Wissen? Sondern: Wie gut ist das Wissen im System verankert?
Was die Umsetzung erfordert
Dieser Ansatz funktioniert nicht mit einem ChatGPT-Abo und einem guten Prompt. Er erfordert Arbeit, die vor der Implementierung stattfinden muss: Die Identifikation, welches Wissen im Unternehmen strategisch relevant ist. Die Entscheidung, wie dieses Wissen strukturiert wird. Die Architektur, die sicherstellt, dass der Agent aus dieser Basis antwortet und nicht aus allgemeinem Modellwissen.
Das ist Präzisionsarbeit. Sie ist einmalig — aber sie ist die Voraussetzung dafür, dass alles danach funktioniert. Unternehmen, die diesen Schritt überspringen und direkt mit einem allgemeinen Agenten starten, lösen das Übersetzungsproblem nicht. Sie verlagern es: vom IT-Mann zum Prompt-Ingenieur.
Dass der Experte dem Agenten seine Fragen gut stellen kann, ist kein Programmieren — es ist Intent Engineering: das Handwerk, Absichten präzise zu formulieren. Eine andere Sprache als Code — und eine, die die meisten Experten intuitiv beherrschen.
Uwe Peter beschreibt im selben Interview, warum für industrielle Prozesse kleine, lokale Modelle den großen Sprachmodellen vorzuziehen sind — eine Architekturentscheidung, die direkt mit dem richtigen Wissensfundament zusammenhängt. Warum Ihre Fabrik kein Large Language Model braucht führt diesen Gedanken aus.
Wenn Sie verstehen wollen, wo in Ihrem Unternehmen das Expertenwissen sitzt, das sich heute nicht skalieren lässt — und wie ein Agenten-System konkret aussehen würde, das dieses Wissen trägt: KI-Audit anfragen.
