Bereits 2019 habe ich postuliert, dass wir eine „soziale Transformation“ brauchen. Mein Kernargument war und ist, dass die Digitale Transformation kein technologisches Projekt ist, sondern ein radikaler Umbau unseres gesellschaftlichen „Betriebssystems“. Ich warnte davor, dass wir nicht unsere Werkzeuge ändern, sondern uns selbst schleichend an diese anpassen.
Heute, im Jahr 2026, sehe ich die Gitterstäbe deutlicher denn je. Wir haben uns in einen Käfig aus Code manövriert. Angetrieben durch Künstliche Intelligenz hat die Digitale Transformation einen kritischen Punkt erreicht, den ich den Ereignishorizont der Rekursion nenne. Was passiert mit unserer Kreativität, wenn KI-Systeme anfangen, sich selbst zu trainieren und zu programmieren? Wird es der Maschine gelingen, die letzte Bastion zu stürmen: die transformationale Kreativität?
Die rekursive Falle
Wir beobachten heute ein Phänomen, das man als digitalen Inzest bezeichnen könnte: KIs, die mit den Daten von anderen KIs gefüttert werden. Während KI-Evangelisten von einer exponentiellen Intelligenzexplosion träumen, zeigt die Realität eine kognitive Implosion. Aktuelle Studien, wie „The Curse of Recursion“ von Shumailov et al. (Nature, 2024) beweisen, dass diese rekursive Fütterung zum sogenannten „Model Collapse“ führt.
Was ist der Model Collapse?
Wenn eine KI nur noch den Output einer anderen Maschine als Input erhält, beginnt sie, die Nuancen der Realität zu vergessen. Sie konzentriert sich auf den statistischen Durchschnitt und löscht das Kuriose, das Abwegige, das Geniale aus. Es entsteht ein glatter, steriler Raum, in dem keine echte Neuerung mehr möglich ist. Transformation bedeutet, den Rahmen zu sprengen – eine KI in einer rekursiven Schleife hingegen verstärkt nur die Gitterstäbe ihres eigenen Käfigs.

Die kognitive Mauer: Interpolation vs. Extrapolation
Das Problem liegt in der Architektur. Studien zur Generalisierungsfähigkeit von Large Language Models (LLMs) zeigen das sogenannte Out-of-Distribution (OOD) Problem.
KIs sind exzellent darin, Muster zu interpolieren – also innerhalb bekannter Datenpunkte klug zu raten. Doch sie scheitern kläglich daran, zu extrapolieren, d. h. völlig neue Bereiche zu erschließen, sobald der menschliche „Anker“ fehlt. Transformationale Kreativität nach Margaret Boden setzt voraus, dass man Regeln bricht, weil man versteht, warum sie existieren. Eine KI bricht Regeln meist nur durch statistisches Rauschen – ohne tieferen Sinn oder gar Absicht.
Das Konzept der Self-Improving AI: Ein Käfig aus Code
In der Informatik wird oft das Konzept der Self-Improving AI zitiert. Doch auch hier bleibt der formale Rahmen starr:
- Die Loss Function als Grenze: Auch wenn KI A die KI B trainiert, geschieht dies auf Basis einer mathematischen Verlustfunktion (Loss Function). Diese definiert, was „gut“ oder „erfolgreich“ ist. Solange der Mensch dieses Ziel vorgibt (z. B. „Erzeuge ein Bild, das Menschen gefällt“), bleibt die Maschine ein Gefangener unserer bisherigen Erwartungen.
- Fehlende autonome Zielsetzung: Damit eine KI wirklich transformational kreativ sein könnte, müsste sie sich eigene Ziele setzen können. Bisher gibt es kein wissenschaftliches Modell für eine KI, die ihre eigene Belohnungsfunktion autonom und sinnvoll ändert. Ohne dieses bewusste „Wollen“ bleibt jede Abweichung vom Standard reiner Zufall ohne Relevanz.
Warum kann die KI den Rahmen nicht knacken?
Weil ihr die menschliche Vision fehlt. Wahre Kreativität ist oft das Ergebnis von Liebesschmerz, Rebellion oder irrationalem Glauben. Ein Algorithmus kann lernen, wie ein „Rebell“ zu klingen, aber er kann nicht rebellieren, weil er nichts zu verlieren hat. Transformationale Kreativität ist ein biochemischer „Fehler“ im System – eine produktive Anomalie, die Kreation erst möglich macht. Es ist der Mensch, der eine neue Welt erschafft, während die KI lediglich die alte Welt perfektioniert.
Von der Optimierung zur Sinnstiftung
Wenn KIs sich gegenseitig prompten, erzeugen sie eine gigantische Welle von effizientem Rauschen. Sie optimieren die Austauschbarkeit. Die Gefahr der Zukunft ist nicht, dass KIs uns „überholen“. Die Gefahr ist, dass wir in einer Welt aufwachen, die perfekt funktioniert, aber nichts mehr bedeutet. In diesem Szenario werden wir Menschen nicht überflüssig, aber unsere Rolle verschiebt sich radikal: Vom Produzenten zum Souverän des Sinns, vom Nutzer zum Gestalter der Digitalen Transformation.
Als Gestalter der Transformation sehe ich es als meine Aufgabe, den rekursiven Kreis zu durchbrechen. Wir müssen die soziale Komponente – das Unberechenbare, das Menschliche, das Ethische – mit solcher Wucht in die Algorithmen injizieren, dass sie gezwungen sind, über sich selbst hinauszuwachsen.
Denn am Ende wird die Geschichte der Menschheit nicht von der effizientesten Maschine geschrieben, sondern von demjenigen, der den Mut hat, die Spielregeln zu ändern, wenn das Spiel seinen Sinn verloren hat.



