Wohin entwickelt sich KI eigentlich gerade?
Yann LeCun – Turing-Preisträger, langjähriger Chefwissenschaftler von Meta AI – hat im März 2026 ein neues Startup in Paris gegründet: AMI Labs (Advanced Machine Intelligence Labs). Rund 890 Millionen Euro Seed-Finanzierung, unter anderem von Nvidia, Samsung, Toyota und Jeff Bezos. Die größte Runde ihrer Art in Europa.
Interessant fanden wir weniger die Summe, sondern einen Satz auf der Startup-Website:
„Real intelligence does not start in language. It starts in the world.“
Der Satz ist nicht revolutionär – aber er macht ein Fenster auf. Denn er wirft eine Frage auf, die wir uns auch bei Schaltzeit immer wieder stellen: Wo geht die Reise mit KI eigentlich hin? Haben wir den Fokus in letzter Zeit zu sehr auf Sprachmodellen, wenn wir darüber nachdenken, was KI für uns leisten kann und soll?
- Kurz erklärt: LLMs und World Models

LLMs (Large Language Models) wie ChatGPT, Claude oder Gemini lernen aus riesigen Textmengen. Sie erkennen statistische Muster in Sprache und erzeugen daraus Antworten, die menschliche Kommunikation simulieren. Ihr „Weltbild“ ist dabei immer sprachvermittelt: Was nicht in Text steht, existiert für sie nicht.
World Models verfolgen einen grundlegend anderen Ansatz: Sie bauen ein internes Modell der physischen Welt auf und simulieren darin Ursache und Wirkung – ähnlich wie Kleinkinder, die durch Berührung, Bewegung und Beobachtung lernen, noch bevor sie sprechen können. Besonders für KI-Robotik und physische Interaktion wird hier großes Potenzial gesehen.
Warum Sprachmodelle an Grenzen stoßen
Wer heute mit ChatGPT, Claude oder Gemini arbeitet, erlebt, wie gut diese Systeme Texte analysieren, Argumente aufbauen, kreativ formulieren können. Das beeindruckt – und verdeckt gleichzeitig ein strukturelles Problem: Sprache kodiert immer das, was schon da war. Was Menschen bereits gedacht, erlebt und aufgeschrieben haben, fließt in die Trainingsdaten ein. Was noch nicht in Sprache gefasst wurde – neue Zusammenhänge, unbenannte Phänomene, körperliches oder intuitives Wissen – bleibt für Sprachmodelle schlicht unsichtbar.
Für uns in der Zukunftsforschung ist das kein abstraktes Problem. Der Zukunftsforscher und Wissenschaftsphilosoph Armin Grunwald hat es präzise beschrieben: Zukunft existiert gegenwärtig nicht als empirisch erforschbarer Tatsache – sie ist immer nur sprachlich zugänglich, durch Szenarien, Narrative, Bilder, Metaphern. Wir verhandeln Zukunft in Sprache. Und damit tragen wir auch alle blinden Flecken von Sprache in unsere Zukunftsbilder hinein.
Wittgensteins Satz „Die Grenzen meiner Sprache sind die Grenzen meiner Welt“ – er gilt eben auch für Sprachmodelle. Vielleicht sogar besonders für sie.
World Models: Ein Gegenentwurf nimmt Fahrt auf
LeCuns Antwort auf diese Begrenzung: World Models. Die Idee dahinter – KI soll nicht aus Text über die Welt lernen, sondern ein internes Modell der physischen Welt aufbauen. Ähnlich wie ein Kleinkind, das Schwerkraft durch Fallen lernt. Nicht durch einen Wikipedia-Eintrag.
Und LeCun ist nicht allein. Parallel arbeiten World Labs (ebenfalls mit rund einer Milliarde US-Dollar finanziert), Meta mit der JEPA-Architektur und Google mit Genie 3 an ähnlichen Ansätzen. Was wir hier beobachten, ist kein Randprojekt – es formiert sich ein Paradigmenwechsel in der KI-Forschung.
Was würde das konkret verändern? Eine KI, die nicht mehr durch Sprache auf die Welt schaut, könnte Muster erkennen, für die wir noch keine Worte haben. Sie könnte Zusammenhänge modellieren, die in unseren sprachlichen Kategorien bisher keinen Platz finden. Das macht die Sache spannend – und gleichzeitig schwieriger zu greifen.
Die Blackbox wird größer – was heißt das für uns?
Bei LLMs haben wir immerhin eine sprachliche Oberfläche, an der wir ansetzen können. Wir können beobachten, welche Sprache ein Modell verwendet, welche Metaphern es bevorzugt, welche Zukünfte es als „normal“ oder „unvermeidlich“ rahmt. Hermeneutische Methoden – also das systematische Interpretieren und Hinterfragen von Texten – greifen hier noch.
World Models nehmen diesen Hebel teilweise weg. Wenn die Verarbeitungslogik nicht mehr sprachlich organisiert ist, verlieren wir genau die Oberfläche, an der wir Deutungsmuster reflektieren und kritisch bewerten können.
Wir kennen dieses Problem aus unserer eigenen Praxis. Unser BLACK BOX Workshopkonzept, das wir für die KI-Konferenz des Kapitel 21 entwickelt haben, hat genau diese Spannung greifbar gemacht: Sowohl menschliche Intuition als auch KI-Entscheidungslogik sind in ihren Verarbeitungsprozessen opak. Input und Output sind sichtbar – was dazwischen passiert, nicht. Mit World Models wächst diese Blackbox. Und die Fragen, die wir im Workshop gestellt haben, werden drängender.
Drei Ansatzpunkte, die bleiben
Heißt das: keine Reflexion mehr möglich? Wir glauben nicht. Drei Ansatzpunkte sehen wir:
Die Rahmung bleibt sprachlich. Was wir ein World Model fragen, wie wir das Problem formulieren, welche Ziele wir vorgeben – das bleibt menschlich-sprachlich verfasst. Und genau dort können wir weiterhin ansetzen: bei den Fragen, die wir stellen, und den Annahmen, die darin stecken.
Von der Prozessanalyse zur Folgenabschätzung. Vielleicht müssen wir uns damit abfinden, dass wir nicht mehr fragen können: „Wie kam das Modell zu diesem Ergebnis?“ Aber wir können fragen: „In welche Welt führt uns dieses Ergebnis?“ – also den Blick von der Nachvollziehbarkeit des Prozesses auf die Bewertung der Konsequenzen und inhärenten Bedingungen verschieben.
Kollektive Aushandlung gewinnt an Gewicht. Wenn niemand mehr vollständig versteht, was im Modell passiert, wird die Frage, ob ein Ergebnis akzeptabel ist, noch stärker zu einer sozialen Frage. Teams, Organisationen, demokratische Öffentlichkeit – sie alle werden stärker gefordert sein, gemeinsam zu entscheiden, was sie mit KI-Ergebnissen anfangen wollen.
Die Welt verstehen, ohne sie zu erleben – geht das?
World Models versprechen ein Weltverstehen jenseits der Sprache. Aber sie bleiben körperlos. Sie modellieren die physische Welt mathematisch – haben aber keinen Zugang zu dem, was menschliches Lernen so grundlegend prägt: gelebte Erfahrung. Ein Kleinkind lernt Schwerkraft durch Fallen und Schmerz. Nicht durch ein Kalkül.
Dahinter steckt eine Frage, die größer ist als die Technik: Kann etwas, das die Welt ohne Körper und ohne soziale Einbettung erfasst, überhaupt begreifen, was wir mit der Welt vorhaben? Was wünschenswert ist, was gerecht, was menschenwürdig – das entsteht nicht in Gleichungen. Es entsteht in geteilter Erfahrung, in Gesprächen, in Konflikten, im Zusammenleben.
Und vielleicht ist genau das der Punkt, den man bei all der Faszination für World Models nicht vergessen sollte: Sprache ist nicht nur eine Begrenzung. Sie ist auch ein Werkzeug der Ermächtigung. In Sprache verhandeln wir Gerechtigkeit, Würde, Zukunftswünsche. Politische und soziale Bewegungen sind immer auch Sprachkämpfe – um Begriffe, Metaphern, Narrative. Diese Fähigkeit, durch Sprache über uns selbst nachzudenken, ist ein demokratisches Gut.
Was das für Zukunftsgestaltung bedeutet – vier Überlegungen
- Sprachliche Reflexion bleibt unverzichtbar. Gerade weil KI künftig jenseits von Sprache operieren könnte, braucht es Menschen, die Ergebnisse interpretieren, einordnen und mit Wertvorstellungen in Beziehung setzen. Hermeneutische Kompetenz wird noch wichtiger.
- Partizipative Verfahren müssen robuster werden. Je weniger wir nachvollziehen können, wie ein KI-System zu seinen Ergebnissen kommt, desto stärker brauchen wir soziale Mechanismen der Kontrolle – in Teams, in Organisationen, in der öffentlichen Debatte.
- Die Frage „Welche KI, wofür?“ wird drängender. „Nutzen wir KI?“ ist längst die falsche Frage. Welche Art von KI, für welches Ziel, unter welchen Bedingungen – das ist die Frage, die wir uns bei jedem Projekt stellen. World Models machen das Spektrum breiter und die Entscheidung anspruchsvoller.
- Die Frage nach der Zukunft bleibt eine menschliche. World Models mögen die Welt präziser modellieren als Sprachmodelle. Aber welche Welt wir gestalten wollen – das ist eine normative Frage. Und Normativität entsteht nicht in mathematischen Modellen, sondern zwischen Menschen.
Ein produktiver Paradigmenwechsel
LeCun hat eine alte Frage neu aufgemacht: Ist Intelligenz ohne Sprache möglich? Für uns in der Zukunftsforschung schließt sich eine eigene daran an: Ist Zukunftsforschung ohne Sprache denkbar?
Unsere vorläufige Antwort: Eher nicht. Aber die Frage lohnt sich trotzdem. World Models werden neue Möglichkeiten eröffnen, Zusammenhänge zu erkennen, die sprachlich noch nicht fassbar sind. Sie werden uns herausfordern, Reflexion anders zu organisieren. Und sie erinnern uns daran, dass es in der Arbeit mit KI am Ende nicht um die Technologie geht – sondern um die Fragen, die wir an sie nutzen.
Was denkst du: Wie verändern World Models unser Verständnis von Zukunftsforschung? Welche Fragen wirft das für deine Arbeit auf? Wir freuen uns auf den Austausch – in den Kommentaren, per Mail oder auf LinkedIn.
Schaltzeit und KI im Foresight
KI ist bei uns kein Thema, das erst 2022 mit dem ChatGPT-Hype auf die Agenda kam. Schon 2020 haben wir für das Bundesministerium für Arbeit und Soziales einen Foresight-Prozess konzipiert und pilotiert, in dem KI-Methoden zum Einsatz kamen. Damals war das noch Pionierarbeit. Was seitdem klarer geworden ist: Zwischen einer niedrigschwelligen GPT-Anwendung und einem strukturierten KI-Workflow-System liegt ein breites Spektrum – und welcher Ansatz sinnvoll ist, entscheidet sich immer an den Zielen und konkreten Fragestellungen.
Die Debatte um World Models passt genau hierhin. Sie macht sichtbar, was wir in unserer täglichen Arbeit erleben: KI ist kein monolithischer Block. Es ist ein Feld, das sich schnell verändert – und in dem die richtige Frage mehr zählt als die neueste Technologie.
Interesse, darüber zu sprechen? Wir freuen uns über Austausch – zu laufenden Projekten, methodischen Fragen oder dem Einsatz von KI in eurem Foresight-Kontext.
Related Links
- AMI Labs: amilabs.xyz
- Heise Online: „World model instead of LLM: Yann LeCun’s startup receives 890 million euros“ (März 2026)
- World Labs: worldlabs.ai/blog/funding-2026
- Grunwald, A.: Wovon ist die Zukunftsforschung eine Wissenschaft?
- Soetebeer, M. (2022): BLACK BOX Workshopkonzept, Schaltzeit Blog
- Weh, L. & Soetebeer, M. (2021): KI-Ethik und Neuroethik fördern relationalen KI-Diskurs. In: Arbeitswelt und KI 2030, Springer Gabler


