Die Frage, die Führungskräfte in den nächsten Jahren wirklich beschäftigen wird, lautet nicht: Wie nutze ich KI? Sie lautet: Was will ich eigentlich noch selbst tun?
Das klingt nach Luxusproblem. Es ist keins. Es ist die strategisch entscheidende Frage der nächsten Unternehmensgeneration.
Die falsche Debatte
Wir diskutieren, welche Jobs KI übernimmt. Wir diskutieren, ob KI kreativ ist. Wir diskutieren, ob man ihr vertrauen kann. All das sind Fragen über das Werkzeug. Die eigentliche Frage ist eine über uns: Welcher Teil unserer Arbeit ist der, den wir für schützenswert halten — nicht im Sinne von Verteidigung, sondern weil wir ihn so sehr schätzen, weil wir wissen, dass er uns im Kern menschlich macht?
Christoph Magnussen, Unternehmer und einer der präzisesten Beobachter der KI-Transformation im deutschen Mittelstand, gibt darauf eine klare Antwort: Was bleibt, ist einem Agent die Richtung zu geben, ihm Charakter zu geben, ihm Kultur zu geben. Den Report schreiben, Termine suchen, E-Mails beantworten, Belege sortieren — das sind Dinge, die delegiert werden können und delegiert werden sollten.
Das ist keine Aussage über Faulheit. Es ist eine Aussage über Prioritäten. Und sie beschreibt exakt das, was wir bei AGILERO Intent-Engineering nennen.
Was Intent-Engineering wirklich bedeutet
Intent-Engineering ist nicht die Kunst, bessere Prompts zu schreiben. Es ist die Fähigkeit, einem KI-System das Ziel, den Kontext und die Grenzen einer Aufgabe so klar zu vermitteln, dass die Ausgaben strategisch nützlich sind — nicht nur technisch korrekt.
Magnussen nennt als Beispiel die System Prompts in Claude Code: Dort wird definiert, wie sich das System verhält, welche Werte es vertritt, wie es mit Unsicherheiten umgeht. Das ist nicht Prompt Engineering. Das ist die Übersetzung von Unternehmenskultur in maschinellen Charakter.
Und genau darin liegt die Arbeit, die kein Modell für uns übernehmen kann: zu wissen, wofür wir stehen. Was unverhandelbar ist. Was uns von anderen unterscheidet.
Der Fehler, den die meisten machen
Die meisten Unternehmen gehen den umgekehrten Weg. Sie geben KI-Systemen Aufgaben, ohne ihnen Absicht zu geben. Sie definieren, was getan werden soll — aber nicht warum, für wen, mit welchem Wirkungsgrad.
Das Ergebnis: KI-Outputs, die technisch einwandfrei und strategisch wertlos sind. Texte, die korrekt sind, aber nicht treffen. Analysen, die vollständig sind, aber keine Entscheidung ermöglichen. Kommunikation, die antwortet, aber nicht verbindet.
Das ist kein Modell-Problem. Es ist ein Intent-Problem.
Die häufigste Ursache: Unternehmen übertragen KI-Nutzung direkt an Fachabteilungen, ohne vorher eine gemeinsame Sprache für Ziele, Kontexte und Grenzen zu entwickeln. Das Ergebnis sind zehn verschiedene Vorstellungen davon, was guter Output bedeutet — und ein KI-System, das zwischen diesen Vorstellungen navigiert, ohne eine davon wirklich zu kennen.
Was für Führungskräfte bleibt
Die entscheidende Kompetenz der nächsten Jahre ist nicht der Umgang mit KI-Tools. Es ist die Fähigkeit, Absicht zu artikulieren — präzise genug, dass ein System damit arbeiten kann; klar genug, dass Menschen wissen, wofür das System steht.
Das bedeutet in der Praxis: Bevor einem KI-System eine Aufgabe gegeben wird, muss das Ziel hinter der Aufgabe definiert sein. Der Kontext, den die KI braucht. Die Grenzen, die nicht verhandelbar sind. Und der Charakter, den die Ausgabe tragen soll.
Das ist die Arbeit, die bleibt. Und es ist — wenn man es so sieht — die interessanteste Arbeit, die es je gab: nicht Ausführung, sondern Ausrichtung.
Ein einfacher Test, ob Intent-Engineering in einem Unternehmen fehlt: Fragen Sie drei Beteiligte unabhängig voneinander, was der KI-Einsatz leisten soll. Wenn die Antworten voneinander abweichen, haben Sie kein Prompt-Problem — Sie haben ein Intent-Problem.
Wenn Sie wissen möchten, wo Intent in Ihrer KI-Strategie heute fehlt: Im KI-Architekt analysieren drei unabhängige Experten-Perspektiven, wo Ihre Architektur steht — und wo die Absicht noch fehlt.
