Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung

Stimmen zwei KI-Wissenschaftler überein? Neue MIT-Studie mit LNN (!) MASS-Netzwerk erklärt Theorien-Konvergenz!

BY Oliver Welling
KINEWS24.de - Stimmen zwei KI-Wissenschaftler überein

Do Two AI Scientists Agree? Diese Grundfrage ist Kern dieser Forschung. Einfach erklärt: Stell dir vor, zwei künstliche Intelligenzen (KIs) bekommen exakt die gleichen Daten aus einem physikalischen Experiment. Werden sie unabhängig voneinander dieselbe wissenschaftliche Theorie entwickeln, um die Beobachtungen zu erklären? Oder kommen sie zu unterschiedlichen Schlussfolgerungen, ähnlich wie es in der Geschichte der Wissenschaft oft bei menschlichen Forschern der Fall war?

Diese faszinierende Frage steht im Mittelpunkt einer Studie von Forschern des MIT, die untersuchten, ob und wie KI-Systeme, die als „KI-Wissenschaftler“ agieren, zu einer übereinstimmenden Beschreibung der physikalischen Realität gelangen. Aktuell gibt es mehrere Entwicklungen, die in die Richtung gehen, dass KI Systeme eigenständig und selbstständig forschen. Sakana AI und Microsoft und Open AI sind hier in einem engen Rennen. Wie wir es auch gerade bei den Research Agenten erleben, wird es auch im Bereich „KI und automatisierte Forschung“ bald viele unterschiedliche Anbieter geben.

Diese aktuelle Forschung „Do Two AI Scientists Agree?“, veröffentlicht im April 2025, wirft ein Licht darauf, wie KIs lernen und welche Theorien sie bevorzugen, wenn sie mit physikalischen Problemen konfrontiert werden – von einfachen Pendeln bis hin zu komplexeren Systemen. Um dies mechanistisch zu untersuchen, entwickelten die Forscher eine spezielle Architektur namens MASS (Multiple AI Scalar Scientists). Ihre Ergebnisse sind aufschlussreich: Mit zunehmender Datenmenge und Komplexität der beobachteten Systeme neigen KI-Wissenschaftler dazu, in ihren gelernten Theorien zu konvergieren. Überraschenderweise bevorzugen sie dabei oft eine bestimmte mathematische Formulierung der Physik – die Lagrange-Dynamik – selbst wenn andere Beschreibungen möglich wären.

Diese Untersuchung ist mehr als nur ein akademisches Gedankenspiel. „Do Two AI Scientists Agree“ berührt Kernfragen über die Zukunft der wissenschaftlichen Entdeckung durch KI. Werden KIs uns helfen, bekannte Theorien zu bestätigen oder vielleicht sogar völlig neue, unerwartete physikalische Gesetze aufzudecken? Und können wir verstehen und nachvollziehen, welche Theorien diese KIs lernen? Die MIT-Studie liefert erste spannende Antworten und ein Werkzeug – MASS – um diese Fragen weiter zu erforschen.

Das musst Du wissen – KI-Wissenschaftler & Theorienübereinstimmung „Do Two AI Scientists Agree“

  • Die Kernfrage: Untersucht wird, ob unabhängig trainierte KI-Wissenschaftler bei gleicher Datenlage zu identischen oder unterschiedlichen wissenschaftlichen Theorien gelangen.
  • Der Ansatz (MASS): Die Forscher entwickelten das MASS-Netzwerk (Multiple AI Scalar Scientists), eine flexible Architektur, die es KIs erlaubt, aus Daten sowohl eine skalare Funktion (ähnlich Hamiltonian oder Lagrangian) als auch die daraus abgeleiteten Bewegungsgleichungen zu lernen.
  • Konvergenz mit Daten: Die Studie zeigt, dass KI-Wissenschaftler mit zunehmender Menge und Komplexität der Trainingsdaten dazu neigen, ähnlichere Theorien zu entwickeln.
  • Bevorzugung des Lagrangian: Insbesondere bei komplexeren oder nicht-standardmäßigen Problemen konvergieren die KIs stark zu einer Lagrange-Beschreibung der Dynamik, was auf deren Allgemeingültigkeit im untersuchten „Theorienraum“ hindeutet.
  • Seed-Abhängigkeit: Die initialen Einstellungen (Random Seed) des neuronalen Netzes haben einen starken Einfluss darauf, welche Theorie gelernt wird und ob eine KI bei neuen Daten „überlebt“ oder ihre Theorie verwerfen muss.

Wenn KIs Physik lernen: Ein Blick unter die Haube

Die Idee, dass Maschinen wissenschaftliche Entdeckungen machen könnten, ist nicht neu. Schon lange gibt es Ansätze wie die symbolische Regression, die versucht, aus Daten mathematische Formeln abzuleiten. Doch mit dem Aufkommen tiefer neuronaler Netze eröffnen sich neue Möglichkeiten. Netzwerke wie Hamiltonian Neural Networks (HNNs) und Lagrangian Neural Networks (LNNs) wurden entwickelt, um physikalische Prinzipien wie Energieerhaltung oder das Prinzip der stationären Wirkung direkt in ihre Architektur zu integrieren. Sie lernen eine zugrundeliegende skalare Funktion (Hamiltonian H oder Lagrangian L) und leiten daraus die Dynamik ab.

Das Problem dabei: Diese Netzwerke sind oft auf eine bestimmte Formulierung (entweder Hamilton oder Lagrange) festgelegt. Was aber, wenn die KI die Freiheit hätte, selbst zu entscheiden, welche Art von Theorie sie entwickelt? Genau hier setzt MASS an.

MASS: Ein flexibler Werkzeugkasten für KI-Wissenschaftler

Die MASS-Architektur, vorgestellt von Xinghong Fu, Ziming Liu und Max Tegmark, ist ein generalisiertes Framework. Stell es Dir wie einen Baukasten vor:

  1. Datenaufnahme: MASS erhält Beobachtungsdaten (z.B. Trajektorien) von verschiedenen physikalischen Systemen.
  2. Hypothesenbildung: Für jedes System lernt ein separates neuronales Netz eine spezifische skalare Funktion S (ähnlich L oder H).
  3. Theorie-Evaluation: Eine gemeinsame letzte Schicht nimmt diese Skalarfunktionen und differenziert sie auf vielfältige Weise nach den Systemkoordinaten (Position x, Geschwindigkeit y = ẋ) bis zur zweiten Ordnung (z.B. ∂S/∂x = Sx, ∂²S/∂y² = Syy, ∂²S/∂x∂y = Sxy usw.). Sie berechnet sogar Produkte und Inverse dieser Ableitungen – insgesamt 172 verschiedene Terme pro System!
  4. Verfeinerung & Generalisierung: MASS lernt dann, eine Linearkombination dieser 172 Terme zu bilden, um die zeitliche Änderung der Geschwindigkeit (Beschleunigung ÿ) vorherzusagen. Der Fehler zur echten Beschleunigung wird über alle Systeme summiert und zur Optimierung einer einzigen, gemeinsamen Theorie (repräsentiert durch die Gewichte in der letzten Schicht) genutzt.

Der Clou: MASS ist nicht darauf festgelegt, ob S ein Hamiltonian oder ein Lagrangian ist. Es hat die Freiheit, aus den 172 möglichen Termen diejenigen auszuwählen, die die Dynamik aller beobachteten Systeme am besten beschreiben. Die „Theorie“, die MASS lernt, besteht also aus der Kombination der gelernten Skalarfunktionen S für jedes System und den gelernten Gewichten in der finalen Schicht, die bestimmen, wie aus S die Bewegung abgeleitet wird.

Experimente im KI-Labor: Vom Pendel zur Chaostheorie

Um zu testen, wie sich KI-Wissenschaftler unter MASS verhalten, führten die Forscher eine Reihe von Experimenten durch:

1. Ein einzelner KI-Wissenschaftler, ein einfaches System:
Zuerst trainierten sie MASS nur auf Daten eines einfachen harmonischen Oszillators (SHO, eine schwingende Feder). Wie erwartet, lernte MASS schnell, die Bewegung präzise vorherzusagen. Interessanterweise nutzte die KI aber nicht nur den einen Term (-x), der der Newtonschen Physik entspricht, sondern eine Kombination aus über 40 verschiedenen Termen (Fig. 5a). Diese Terme waren jedoch stark miteinander korreliert, was darauf hindeutet, dass sie im Grunde dieselbe zugrundeliegende Theorie repräsentierten, wenn auch in redundanter Weise. Die gelernte Skalarfunktion S ähnelte dabei der Hamilton-Funktion (Energie), war aber nicht identisch.

2. Ein KI-Wissenschaftler, mehrere zunehmend komplexe Systeme:
Nun konfrontierten die Forscher einen KI-Wissenschaftler schrittweise mit komplexeren Systemen: nach dem SHO kamen das einfache Pendel, dann das Kepler-Problem (Gravitation) und schließlich ein relativistischer harmonischer Oszillator hinzu. In jeder Phase wurde die KI auf der Summe aller bis dahin gesehenen Systeme trainiert.
Das Ergebnis: Mit jedem neuen, komplexeren System musste die KI ihre Theorie anpassen. Die Anzahl der „signifikanten“ Terme, die zur Vorhersage beitrugen, nahm ab. Die KI lernte, sich auf eine sparsamere Beschreibung zu konzentrieren, die für alle Systeme gültig war. Gleichzeitig wurden die verbleibenden Terme diverser, weniger stark miteinander korreliert. Die KI generalisierte ihre Theorie.

3. Mehrere KI-Wissenschaftler, gleiche Systeme:
Was passiert, wenn man viele KI-Wissenschaftler (hier simuliert durch verschiedene Zufallsinitialisierungen, „Seeds“) unabhängig voneinander auf dieselben Systeme trainiert? Würden sie zur gleichen Theorie konvergieren?
Die Analyse der „Aktivierungsstärken“ (welche der 172 Terme sind wichtig?) zeigte: Obwohl die exakten numerischen Gewichte stark variierten, konzentrierten sich fast alle KIs auf eine ähnliche Untermenge der möglichen Terme. Eine Hauptkomponentenanalyse (PCA) der Aktivierungen über viele Datenpunkte hinweg offenbarte, dass die erste Hauptkomponente oft über 90% der Varianz erklärte. Und die Korrelation dieser ersten Hauptkomponente war zwischen den verschiedenen KIs extrem hoch.


Die verblüffende Schlussfolgerung: Ja, trotz der Unterschiede im Detail lernen die KI-Wissenschaftler im Wesentlichen die gleiche zugrundeliegende Theorie! Die Antwort auf die Eingangsfrage „Do Two AI Scientists Agree?“ lautet also tendenziell: Ja, das tun sie, zumindest wenn sie genug Daten sehen.

4. Hamiltonian oder Lagrangian? Der Wettstreit der Theorien:
Da MASS beide Formulierungen lernen könnte, untersuchten die Forscher, welche bevorzugt wird. Sie analysierten, ob die gelernte Skalarfunktion S eher der Summe aus kinetischer und potenzieller Energie (T+V, wie im Hamiltonian) oder der Differenz (T-V, wie im Lagrangian) entsprach.
Das Ergebnis war eindeutig: Bei einfachen Systemen (SHO, Pendel) lernten über 90% der KIs eine Hamiltonian-ähnliche Theorie. Sobald aber komplexere Systeme (Kepler, Relativistik) hinzukamen, wechselten die KIs fast vollständig zu einer Lagrangian-Beschreibung! Der R²-Wert, der die Übereinstimmung der gelernten Aktivierungen mit den analytisch abgeleiteten Lagrangian-Termen misst, stieg auf Werte nahe 1.

5. Jenseits des Bekannten: Synthetische Probleme und höhere Dimensionen:
Um die Grenzen auszuloten, testeten die Forscher MASS auch mit zwei „synthetischen“ physikalischen Systemen, die komplexere kinetische Terme beinhalteten, sowie mit dem bekannten, aber chaotischen Doppelpendel-Problem (ein 2D-System).
Auch hier zeigte sich: MASS konnte diese Systeme lernen. Die Anzahl der „überlebenden“ KIs (die eine niedrige Fehlerrate erzielten) nahm zwar mit der Anzahl der Systeme ab, aber die erfolgreichen KIs konvergierten weiterhin stark auf eine sparsame Theorie. Und diese Theorie ähnelte weiterhin stark dem Lagrangian, wie constrained Optimization zeigte. Selbst die komplexen Trajektorien des Doppelpendels konnte MASS mit hoher Genauigkeit reproduzieren, obwohl Energieerhaltung nicht explizit eingebaut war.

Interpretation: Warum der Lagrangian gewinnt

Die konsequente Konvergenz hin zur Lagrange-Formulierung, besonders bei komplexeren Problemen, ist eines der Hauptresultate der Studie. Die Forscher vermuten, dass dies daran liegt, dass der Lagrangian direkt in generalisierten Koordinaten formuliert werden kann, während der Hamiltonian kanonische Koordinaten erfordert, die nicht immer trivial zu finden sind. Da die Experimente in generalisierten Koordinaten durchgeführt wurden, bot die Lagrange-Beschreibung im reichen „Theorienraum“ von MASS offenbar den direktesten und robustesten Weg, die Physik korrekt abzubilden. Es scheint, als ob der Lagrangian in diesem Kontext die „singuläre, akkurate Familie von Beschreibungen“ darstellt.

Die Ergebnisse unterstreichen auch die historische Beobachtung aus der Wissenschaft: Mit mehr experimentellen Daten wird der Raum möglicher Theorien eingeschränkt. Theorien, die zuvor funktionierten, müssen möglicherweise verworfen oder modifiziert werden, wenn neue, komplexere Phänomene beobachtet werden – genau wie es die KI-Wissenschaftler im Experiment taten.

Schlussfolgerung: Ja, sie einigen sich (meistens) – auf den Lagrangian!

Die Studie „Do Two AI Scientists Agree?“ liefert überzeugende Belege dafür, dass KI-Systeme, wenn sie mit genügend Daten und der nötigen Flexibilität (wie durch MASS gegeben) ausgestattet sind, zu konvergenten wissenschaftlichen Theorien finden können. Die Antwort auf die Titelfrage ist also ein klares „Ja, tendenziell“.

Die Untersuchung geht jedoch noch weiter und zeigt wie diese Konvergenz stattfindet:

  • Datengetriebene Selektion: Mehr Daten und komplexere Systeme zwingen die KIs, ihre Theorien zu verfeinern und zu generalisieren, wobei redundante oder falsche Erklärungsansätze verworfen werden.
  • Dominanz des Lagrangian: Im untersuchten Rahmen scheint die Lagrange-Formulierung der klassischen Mechanik die robusteste und allgemeinste Beschreibung zu sein, zu der die KIs konvergieren. Dies legt nahe, dass bestimmte mathematische Prinzipien eine fundamentale Rolle spielen, auch wenn KIs sie „entdecken“.
  • Verständnis und Interpretierbarkeit: Obwohl die internen Vorgänge neuronaler Netze oft als „Black Box“ gelten, zeigt die MASS-Architektur mit ihrer expliziten Theorie-Evaluierungsschicht einen Weg auf, wie die von KIs gelernten Theorien mechanistisch interpretiert werden können. Die Analyse der Aktivierungen und die Korrelation mit bekannten physikalischen Formulierungen machen die „Gedanken“ der KI nachvollziehbarer.

Diese Arbeit ist ein wichtiger Schritt hin zu KI-Systemen, die nicht nur Daten analysieren, sondern eigenständig wissenschaftliche Hypothesen formulieren und testen können. Während MASS hier auf klassische Mechanik angewendet wurde, bietet der Ansatz Potenzial für viele andere Bereiche. Die klare Tendenz zur Konvergenz und die Identifizierung einer bevorzugten theoretischen Beschreibung (Lagrangian) sind ermutigende Zeichen. Sie deuten darauf hin, dass KI-Wissenschaftler möglicherweise nicht in eine unüberschaubare Vielfalt von Theorien fragmentieren, sondern uns helfen könnten, einheitlichere und fundamentalere Beschreibungen der Welt zu finden. Die im Paper skizzierten zukünftigen Arbeiten, wie die Untersuchung anderer Koordinatensysteme oder komplexerer Architekturen, werden zeigen, wie weit dieser Weg führt.


www.KINEWS24-academy.de – KI. Direkt. Verständlich. Anwendbar.


Quellen


#KI #AI #ArtificialIntelligence #KuenstlicheIntelligenz #AIinScience #MachineLearning #DeepLearning #PhysicsAI, KI Wissenschaftler Theorienuebereinstimmung

KINEWS24.de - Stimmen zwei KI-Wissenschaftler überein
KINEWS24.de – Stimmen zwei KI-Wissenschaftler überein

Ähnliche Beiträge

Business Ethik und Gesellschaft

DeepSeek Unmasked: US Kongress enthüllt ein verstecktes Sicherheitsrisiko

DeepSeek KI China: Als ernstes Sicherheitsrisiko eingestuft! US-Bericht enthüllt Spionage, Datenklau, Zensur nach CCP-Vorgaben und Exportkontroll-Verstöße.

Business

OpenAI Flex Processing: Einfach KI Kosten halbieren

OpenAI Flex Processing: Spare 50% bei OpenAI API Kosten für o3 & o4-mini. Akzeptiere langsamere Antworten für nicht-dringende KI-Aufgaben. Ideal.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish