Thinking Machines Lab: Wenn wir KI heute zehnmal dieselbe Frage stellen, erhalten wir zehn verschiedene Antworten. Was für kreative Spielereien nützlich sein mag, ist für Wissenschaft, Wirtschaft und zuverlässige KI-Systeme ein Albtraum. Genau dieses fundamentale Problem der Unberechenbarkeit will Mira Muratis neues, mit 2 Milliarden Dollar finanziertes Startup Thinking Machines Lab lösen. Mit einem Team aus ehemaligen OpenAI-Stars und einer bahnbrechenden ersten Forschungsarbeit greifen sie nach der Krone der KI-Welt.
In diesem Deep-Dive analysieren wir, wie Thinking Machines Lab das „KI-Chaos“ bändigt, warum ihre Methode die Spielregeln für immer verändern könnte und was das für dich und die Zukunft der künstlichen Intelligenz bedeutet. Wir beleuchten die Technologie, das Team und die Vision, die das Potenzial hat, die Branche nachhaltig zu prägen. Bereit für den Blick in die nächste Ära der KI?
Als Murati OpenAI im September 2024 verliess, war dies ein Paukenschlag in der Branche. Knappe drei Wochen später war klar, dass Murati nun selbst ein Unternehmen gründen wird, dies zog sofort Interesse von Investoren auf sich. Mitte Februa 2025 wurde dann Thinking Machines Lab offiziell vorgestellt.
Thinking Machines Lab 2025 – Das Wichtigste in Kürze
- Neuer KI-Titan: Thinking Machines Lab ist das neue Startup von Ex-OpenAI-CTO Mira Murati, finanziert mit einer Rekordsumme von 2 Mrd. Dollar bei einer Bewertung von 12 Mrd. Dollar.
- Das Kernproblem gelöst: Die Forschung des Labs zielt darauf ab, die Zufälligkeit (Nichtdeterminismus) von KI-Antworten zu eliminieren und Modelle zu schaffen, die auf dieselbe Anfrage immer exakt dieselbe Antwort geben.
- Die Ursache gefunden: Das Team identifizierte die Art und Weise, wie GPU-Kerne (die Recheneinheiten in Grafikkarten) orchestriert werden, als Hauptquelle für die Unvorhersehbarkeit.
- Bahnbrechender Ansatz: Durch eine präzise Steuerung dieser Prozesse können sie reproduzierbare Ergebnisse erzwingen, was bisher als unlösbares Problem galt.
- Enorme Auswirkungen: Diese Konsistenz ist ein Game-Changer für das Training von KI (Reinforcement Learning), die wissenschaftliche Forschung und den Einsatz von KI in Unternehmen, wo Verlässlichkeit entscheidend ist.
- All-Star-Team: Ein Großteil der führenden Köpfe besteht aus ehemaligen Top-Forschern von OpenAI, was dem Unternehmen einen enormen Wissensvorsprung sichert.
- Erstes Produkt in Kürze: Ein erstes Produkt für Entwickler und Forscher, das auf multimodalen Fähigkeiten und Open-Source-Komponenten basiert, wird in den kommenden Monaten erwartet.
Das Kernproblem: Warum antwortet KI wie ChatGPT immer anders?
Jeder, der schon einmal intensiv mit großen Sprachmodellen (LLMs) gearbeitet hat, kennt das Phänomen: Du formulierst einen perfekten Prompt, bekommst eine gute Antwort, stellst ihn aber zur Sicherheit noch einmal – und das Ergebnis ist völlig anders. Dieses Verhalten wird als Nichtdeterminismus bezeichnet. Es bedeutet, dass das System unter identischen Ausgangsbedingungen (gleicher Prompt, gleiches Modell) unterschiedliche Ergebnisse liefern kann.
Bisher wurde dies als eine Art „Feature“ oder eine unumgängliche Eigenschaft von KI-Systemen akzeptiert. Die Gründe dafür sind komplex und liegen tief in der Hardware- und Software-Architektur begraben. Besonders bei der Inferenz – also dem Prozess, der nach deiner Eingabe abläuft – führen winzige, unkontrollierte Variationen in der Parallelverarbeitung auf Tausenden von GPU-Kernen zu leicht abweichenden mathematischen Ergebnissen. Diese winzigen Abweichungen schaukeln sich in den vielen Berechnungsschritten eines LLMs zu völlig unterschiedlichen Antworten hoch. Für kreative Texte mag das egal sein, aber für Code-Generierung, wissenschaftliche Analysen oder Finanzmodelle ist es fatal.
Thinking Machines Labs‘ Geniestreich: Wie sie das KI-Chaos bändigen
Hier setzt die erste, am 10. September 2025 im Firmenblog „Connectionism“ veröffentlichte Forschungsarbeit von Thinking Machines Lab an. Unter dem Titel „Defeating Nondeterminism in LLM Inference“ legt der Forscher Horace He dar, dass dieser Zustand nicht gottgegeben ist.
Der revolutionäre Ansatz des Teams konzentriert sich nicht auf das KI-Modell selbst, sondern auf die Ebene darunter: die Orchestrierung der GPU-Kerne. Das sind die kleinen Programme, die die Berechnungen auf den Nvidia-Chips steuern.
Die Lösung im Detail: Das Team entwickelte sogenannte „batch-invariante Operationen“. Das bedeutet, sie haben Wege gefunden, die Berechnungen so zu steuern, dass numerische Unterschiede eliminiert werden, unabhängig davon, wie viele Anfragen (Batch Size) gleichzeitig verarbeitet werden oder wie die Serverlast gerade aussieht.
Das Ergebnis ist verblüffend:
- Ohne ihre Methode: 1.000 Wiederholungen desselben Prompts ergaben 80 verschiedene Antworten.
- Mit ihrer Methode: Alle 1.000 Durchläufe lieferten eine absolut identische Antwort.
Dieser Durchbruch hat allerdings einen Preis: eine Performance-Verzögerung von 20-50 %. Diesen Kompromiss hält das Team jedoch für viele professionelle Anwendungen für absolut akzeptabel.
Schritt-für-Schritt: So funktioniert der Weg zu deterministischer KI
Obwohl der genaue Code geschützt ist, lässt sich der von Thinking Machines Lab beschriebene Prozess in einem konzeptionellen Tutorial zusammenfassen, um die Genialität des Ansatzes zu verstehen:
- Analyse der Inferenz-Kette: Identifiziere alle Operationen während der Inferenz, die zu numerischen Abweichungen führen können (z.B. bestimmte Matrixmultiplikationen, parallele Reduktionsoperationen).
- Identifikation der GPU-Kernel: Finde die exakten Low-Level-Programme (Kernel) auf der GPU, die für diese instabilen Operationen verantwortlich sind.
- Entwicklung invarianter Alternativen: Schreibe neue oder modifizierte GPU-Kernel, die mathematisch äquivalente, aber deterministische Ergebnisse garantieren. Das kann bedeuten, die Reihenfolge von Berechnungen streng festzulegen, anstatt sie der GPU zu überlassen.
- Kontrollierte Orchestrierung: Implementiere eine übergeordnete Steuerungsschicht, die sicherstellt, dass bei jeder Anfrage exakt diese neuen, stabilen Kernel in der richtigen Reihenfolge aufgerufen werden.
- Floating-Point-Kontrolle: Stelle sicher, dass die Behandlung von Gleitkommazahlen (die oft eine Quelle für winzige Rundungsfehler sind) über alle parallelen Prozesse hinweg standardisiert ist.
- Batch-Normalisierung: Entwickle Methoden, die das Ergebnis unabhängig von der Anzahl der gleichzeitig verarbeiteten Anfragen (Batch-Größe) halten.
- End-to-End-Verifizierung: Richte ein Testsystem ein, das Tausende von identischen Anfragen an das Modell sendet und prüft, ob der Output Bit für Bit identisch ist.
- Performance-Optimierung: Optimiere die neuen, deterministischen Kernel, um den unvermeidlichen Geschwindigkeitsverlust so gering wie möglich zu halten.
- Abwägung und Implementierung: Entscheide, für welche Anwendungsfälle der Gewinn an Zuverlässigkeit den Performance-Verlust rechtfertigt.
- Integration in die Trainingspipeline: Nutze die gewonnenen Erkenntnisse, um auch den Trainingsprozess (insbesondere Reinforcement Learning) stabiler und effizienter zu gestalten.
Der Game-Changer: Was bedeutet diese Entdeckung für die KI-Welt?
Die Fähigkeit, KI-Antworten zu 100 % reproduzierbar zu machen, ist weit mehr als eine technische Spielerei. Sie ist ein fundamentaler Paradigmenwechsel mit enormen Auswirkungen:
- Für die Wissenschaft: Forscher können endlich Experimente mit KI-Modellen durchführen, die wirklich vergleichbar und wiederholbar sind.
- Für Unternehmen: Firmen können KI-Systeme für kritische Aufgaben (z.B. Diagnosen, Finanzanalysen, Qualitätskontrolle) einsetzen und sich darauf verlassen, dass die Ergebnisse konsistent sind. Das ermöglicht auch eine viel einfachere Fehlersuche (Debugging).
- Für das KI-Training: Das sogenannte Reinforcement Learning (RL), bei dem eine KI für richtige Antworten belohnt wird, wird massiv verbessert. Bisher war das „Datenrauschen“ durch inkonsistente Antworten ein großes Problem. Ein stabiles Modell lernt schneller und effizienter – ein Prozess, den Thinking Machines Lab laut Investoren zur Anpassung von KI-Modellen für Unternehmen nutzen will.
- Für Sicherheit und Ethik: Die Überprüfung von KI-Modellen auf Voreingenommenheit (Bias) oder schädliches Verhalten wird einfacher, wenn man sicher sein kann, dass das Modell unter gleichen Umständen immer gleich reagiert.
Thinking Machines Lab vs. OpenAI & Co.: Ein neuer Titan am KI-Himmel
Mit seinem Fokus auf Open Science und grundlegende Probleme positioniert sich Thinking Machines Lab bewusst anders als die etablierten Player.
Dimension | Thinking Machines Lab | OpenAI | Anthropic |
Philosophie | Open Science, Mensch-KI-Kollaboration | Zunehmend geschlossen, Fokus auf AGI | Sicherheit an erster Stelle (Constitutional AI) |
Gründerin | Mira Murati (Ex-OpenAI CTO) | Sam Altman, Elon Musk u.a. | Dario Amodei (Ex-OpenAI VP) |
Kern-Team | Ca. 2/3 Ex-OpenAI-Elite | Etabliertes Team, Microsoft-Integration | Kernteam Ex-OpenAI |
Bekanntes Projekt | Deterministische Inferenz | GPT-4, ChatGPT, Sora, DALL-E | Claude 3 Familie |
Finanzierung | 2 Mrd. $Seed Round | >13 Mrd.$ (primär von Microsoft) | >7 Mrd. $ (von Google, Amazon) |
Bewertung | 12 Mrd. $(Pre-Revenue) | ~86 Mrd.$ | ~18 Mrd. $ |
Marktfokus | Tools für Entwickler, anpassbare Modelle | Consumer- & Enterprise-Produkte | Enterprise-Fokus, Sicherheit |
Expertenstimmen: Was die Branche über Muratis Coup sagt
Obwohl das Unternehmen noch jung ist, sorgt es bereits für Furore. Horace He, der Autor der Forschungsarbeit, betont, dass die Schaffung reproduzierbarer Antworten den gesamten Prozess des KI-Trainings „reibungsloser“ machen könnte.
Mira Murati selbst kündigte an, dass das erste Produkt „nützlich für Forscher und Startups sein wird, die benutzerdefinierte Modelle entwickeln“. Dies deutet auf einen Werkzeugkasten-Ansatz hin, der die gesamte Branche voranbringen soll. Ihr Bekenntnis, „Forschung, Code und andere Informationen häufig zu veröffentlichen“, um „der Öffentlichkeit zu nützen“, ist ein direkter Gegenentwurf zu OpenAIs zunehmend verschlossener Haltung.
Die 3 größten Hürden auf dem Weg zur KI-Dominanz
Trotz des Hypes und des brillanten Teams steht Thinking Machines Lab vor gewaltigen Herausforderungen:
- Enormer Erwartungsdruck: Eine Bewertung von 12 Milliarden Dollar vor dem ersten Produkt erzeugt einen immensen Druck, nicht nur bahnbrechende Forschung, sondern auch kommerziell extrem erfolgreiche Produkte zu liefern.
- Gesättigter Markt: Der KI-Markt ist hart umkämpft. Gegen die etablierten Ökosysteme von Google, Microsoft/OpenAI und Amazon anzukommen, erfordert mehr als nur bessere Technologie – es braucht eine überlegene Go-to-Market-Strategie.
- Das Open-Science-Dilemma: Der Spagat zwischen offener Forschung zum Wohl der Allgemeinheit und der Notwendigkeit, geistiges Eigentum zu schützen, um die gigantische Bewertung zu rechtfertigen, wird eine ständige Herausforderung sein.
Ausblick 2026: Was kommt als Nächstes von Thinking Machines Lab?
Die kommenden Monate werden entscheidend sein. Der angekündigte erste Produkt-Launch Ende 2025 wird zeigen, ob das Team seine Forschung in ein nutzbares Werkzeug verwandeln kann. Wir erwarten eine Plattform, die es anderen Unternehmen ermöglicht, ihre eigenen, deterministischen und multimodalen KI-Modelle zu bauen und zu trainieren.
Der Fokus auf Mensch-KI-Kollaboration und anpassbare Lösungen könnte eine lukrative Nische besetzen, die von den großen Allzweck-Modellen bisher vernachlässigt wird. Wenn es Thinking Machines Lab gelingt, seinem Ethos der Offenheit treu zu bleiben und gleichzeitig ein tragfähiges Geschäftsmodell aufzubauen, könnten sie nicht nur technologisch, sondern auch kulturell die Richtung der gesamten KI-Branche für die nächsten Jahre vorgeben.
Werkzeuge & Ressourcen: Bleib auf dem Laufenden
Um die Entwicklungen von Thinking Machines Lab direkt zu verfolgen, empfehlen wir die folgenden Ressourcen:
- Der „Connectionism“ Blog: Die offizielle Quelle für alle Forschungs-Updates des Teams.
- Der Forschungsartikel: „Defeating Nondeterminism in LLM Inference“ (sobald öffentlich verfügbar).
- Mira Muratis Social-Media-Kanäle: Für direkte Ankündigungen und Einblicke.
- KINEWS24: Wir bleiben natürlich am Ball und werden über alle wichtigen Meilensteine berichten.
Infokasten: Mira Murati – Die Architektin der nächsten KI-Generation
Profil | Details |
Name | Ermira „Mira“ Murati |
Geboren | 16. Dezember 1988 in Vlorë, Albanien |
Ausbildung | B.A. Mathematik (Colby College), B.Eng. Maschinenbau (Dartmouth College) |
Geschätztes Vermögen | ca. 1,4 Mrd. US-Dollar (2025), primär durch 14% Anteil an Thinking Machines Lab |
Karriere-Highlights | – Tesla (2013-2016): Senior Product Manager, leitete das Model X Programm und arbeitete an frühen Autopilot-Versionen. – Leap Motion (2016-2018): VP of Product and Engineering. – OpenAI (2018-2024): Stieg von VP zur Chief Technology Officer (CTO) auf. Leitete die Entwicklung von ChatGPT, DALL-E, GPT-4 und Sora. Diente kurzzeitig als Interims-CEO. – Thinking Machines Lab (seit 2025): Gründerin und CEO. |
Vision & Philosophie | Murati ist eine starke Verfechterin einer verantwortungsvollen KI-Entwicklung. Sie betont, dass KI „mit menschlichen Absichten im Einklang stehen und letztendlich der Menschheit dienen muss“. Ihr Fokus bei Thinking Machines Lab liegt auf offener Wissenschaft, Transparenz und der Entwicklung von KI als kollaboratives Werkzeug für den Menschen, anstatt als autonomer Ersatz. Ihr gelang es, ihr gesamtes Gründungsteam trotz milliardenschwerer Abwerbeversuche von Meta zusammenzuhalten, was ihre starke Führungspersönlichkeit unterstreicht. |
Häufig gestellte Fragen (FAQ) zu Thinking Machines Lab
1. Was genau ist Thinking Machines Lab? Thinking Machines Lab ist ein 2025 von der ehemaligen OpenAI-CTO Mira Murati gegründetes KI-Forschungs- und Produktunternehmen. Es hat das Ziel, verlässlichere, anpassbarere und kollaborative KI-Systeme zu entwickeln.
2. Wer finanziert Thinking Machines Lab? Das Unternehmen hat in einer Rekord-Seed-Runde 2 Milliarden Dollar eingesammelt, angeführt von Andreessen Horowitz (a16z). Weitere große Investoren sind Nvidia, AMD, Accel und sogar die albanische Regierung. Die Bewertung liegt bei 12 Milliarden Dollar.
3. Was ist das Problem des „Nichtdeterminismus“ bei KI? Nichtdeterminismus bedeutet, dass ein KI-Modell auf dieselbe exakte Frage mehrere unterschiedliche Antworten geben kann. Dies liegt an winzigen, unkontrollierten Schwankungen bei der Verarbeitung auf den GPU-Chips und macht die KI für kritische Anwendungen unzuverlässig.
4. Wie löst Thinking Machines Lab dieses Problem? Sie haben eine Methode entwickelt, um die Programme, die die Berechnungen auf den GPUs steuern (die „Kernel“), präzise zu orchestrieren. Dadurch werden die numerischen Schwankungen eliminiert und die KI gibt eine zu 100 % reproduzierbare Antwort.
5. Warum ist ein deterministisches KI-Modell besser? Es ist verlässlicher für wissenschaftliche Experimente und Unternehmensanwendungen, erleichtert die Fehlersuche erheblich und macht das Training der KI (Reinforcement Learning) deutlich effizienter und schneller, da „Datenrauschen“ reduziert wird.
6. Wer gehört zum Team von Thinking Machines Lab? Das Team besteht zu einem großen Teil aus ehemaligen Spitzenforschern von OpenAI, darunter Schwergewichte wie John Schulman (Mitgründer von OpenAI) und Barret Zoph (ehem. VP of Research bei OpenAI).
7. Wann kommt das erste Produkt von Thinking Machines Lab auf den Markt? Mira Murati hat angekündigt, dass das erste Produkt in den „kommenden Monaten“ (also voraussichtlich Ende 2025) veröffentlicht wird. Es soll sich an Forscher und Entwickler richten und eine starke Open-Source-Komponente haben.
Fazit: Ein fundamentaler Schritt in eine zuverlässige KI-Zukunft
Thinking Machines Lab ist mehr als nur das nächste hochgehypte KI-Startup. Mit seinem gezielten Angriff auf eines der fundamentalsten Probleme der künstlichen Intelligenz – die Unberechenbarkeit – legt das Team um Mira Murati das Fundament für eine neue Ära. Die Ära einer KI, auf die wir uns verlassen können. Der Schritt von einer kreativen, aber unzuverlässigen zu einer deterministischen, verlässlichen Technologie ist vergleichbar mit dem Schritt von der Alchemie zur modernen Chemie.
Die Auswirkungen dieses Durchbruchs werden in den kommenden Jahren in allen Branchen zu spüren sein, von der medizinischen Forschung über die Finanzwelt bis hin zur Softwareentwicklung. Es ermöglicht ein Maß an Kontrolle, Sicherheit und Effizienz, das bisher unerreichbar schien. Die größte Herausforderung wird nun sein, diese technologische Brillanz in zugängliche Produkte zu gießen und den immensen Erwartungen gerecht zu werden.
Die Botschaft von Thinking Machines Lab ist klar: Die Zukunft der KI liegt nicht in immer größeren, unkontrollierbareren Modellen, sondern in intelligenteren, stabileren und kollaborativeren Systemen. Wenn ihnen das gelingt, bauen sie nicht nur ein erfolgreiches Unternehmen auf, sondern definieren die Beziehung zwischen Mensch und Maschine für die kommenden Jahrzehnte neu. Es ist der Beginn einer leisen, aber tiefgreifenden Revolution.