Die Diskussion über die Zukunft der Künstlichen Intelligenz (KI) ist von polarisierenden Ansichten geprägt. Einige Experten und prominente Persönlichkeiten, darunter Elon Musk und Sam Altman, prognostizieren, dass die KI in naher Zukunft menschliche Intelligenz übertreffen könnte, was zu tiefgreifenden gesellschaftlichen und technologischen Veränderungen führen würde. Doch Yann LeCun, einer der Mitbegründer der modernen KI-Forschung und Chef-Wissenschaftler bei Meta, ist anderer Meinung. Er ist der Meinung, dass die gegenwärtigen Modelle weit davon entfernt sind, auch nur die Intelligenz einer Katze zu erreichen.
Dieser Artikel beleuchtet LeCuns Perspektive, seine Kritik an der gegenwärtigen KI-Entwicklung und die Herausforderungen, die noch zu bewältigen sind, um ein wirklich menschenähnliches Verständnis und Verhalten in Maschinen zu erreichen.
Wer ist Yann LeCun?
Yann LeCun ist eine Schlüsselfigur in der KI-Forschung und hat maßgeblich dazu beigetragen, dass neuronale Netze, die Grundlage vieler moderner KI-Systeme, so erfolgreich wurden. Als Professor an der New York University und Chef-KI-Wissenschaftler bei Meta ist er nicht nur ein Wegbereiter der Technologie, sondern auch ein kritischer Beobachter ihrer aktuellen Entwicklung.
LeCun, der 2019 gemeinsam mit Geoffrey Hinton und Yoshua Bengio den Turing Award, den „Nobelpreis der Informatik“, gewann, arbeitet weiterhin sowohl in der akademischen als auch in der industriellen Forschung. Trotz seines beachtlichen Erfolgs ist er bekannt für seine kontroversen Ansichten über die Grenzen der heutigen KI.
Die „übertriebenen“ Warnungen vor der KI
Während führende Persönlichkeiten wie Elon Musk und Geoffrey Hinton die potenziellen Gefahren einer zukünftigen „superintelligenten“ KI betonen, bleibt LeCun skeptisch. Hinton, ein Freund von LeCun, äußerte wiederholt die Sorge, dass KI in Zukunft eine existenzielle Bedrohung für die Menschheit darstellen könnte. Diese Meinung teilt LeCun jedoch nicht.
In Interviews und öffentlichen Diskussionen stellt LeCun klar, dass er heutige KI-Systeme für weit davon entfernt hält, ein echtes Risiko darzustellen. In einer besonders pointierten Aussage sagte er: „Bevor wir uns Gedanken darüber machen, wie wir Systeme kontrollieren, die klüger sind als wir, sollten wir erst einmal herausfinden, wie wir Systeme entwickeln, die intelligenter sind als eine Hauskatze.“ Dieser Vergleich verdeutlicht, wie wenig er die gegenwärtigen KI-Modelle in ihrer jetzigen Form für „intelligent“ hält.
Intelligenz nach LeCuns Definition
LeCun argumentiert, dass heutige KI-Systeme zwar beeindruckende Ergebnisse liefern, aber in ihrer Funktionsweise äußerst limitiert sind. Sie verfügen nicht über eine eigene „Weltmodellierung“, können also nicht wirklich verstehen oder planen, wie es selbst Tiere wie Katzen tun. Katzen besitzen eine grundlegende Fähigkeit, ihre Umgebung zu verstehen, sich daran zu erinnern und darauf zu reagieren – Fähigkeiten, die LeCun in aktuellen KI-Systemen nicht sieht.
Er erklärt, dass große Sprachmodelle wie ChatGPT und andere generative KI-Systeme zwar die Fähigkeit haben, beeindruckende Sprachverarbeitung zu zeigen, aber dennoch lediglich Worte basierend auf statistischen Wahrscheinlichkeiten vorhersehen. Sie besitzen kein echtes Verständnis oder eine innere Repräsentation der Welt, wie es Menschen oder selbst einfache Tiere haben.
Warum heutige KI „dümmer als eine Katze“ ist
LeCuns zentrale These ist, dass heutige KI-Systeme, insbesondere die auf großen Sprachmodellen (LLMs) basierenden wie ChatGPT, nicht wirklich intelligent sind. „Diese Systeme können Sprache manipulieren, ohne wirklich zu verstehen, was sie tun“, sagt er. Sie sind hervorragend darin, Muster zu erkennen und Texte basierend auf riesigen Datenmengen zu erzeugen, aber sie besitzen keine echte Fähigkeit zum logischen Denken, zur Planung oder zum Verstehen komplexer Zusammenhänge.
Während viele KI-Enthusiasten glauben, dass eine Erhöhung der Rechenleistung und der Datenmenge letztendlich zu Maschinen mit menschenähnlicher Intelligenz führen wird, bleibt LeCun skeptisch. Er ist überzeugt, dass die zugrunde liegende Architektur der aktuellen KI-Modelle nicht ausreicht, um echte allgemeine Intelligenz (AGI) zu erreichen.
Die Herausforderungen auf dem Weg zur AGI
LeCun stimmt darin überein, dass die Entwicklung einer allgemeinen Künstlichen Intelligenz (AGI) – also einer KI, die in der Lage ist, auf eine Weise zu denken und zu handeln, wie es Menschen tun – ein lohnenswertes Ziel ist. Allerdings ist er der Ansicht, dass wir noch weit davon entfernt sind, und er sieht die heutigen Ansätze als unzureichend.
Die meisten heutigen KI-Systeme basieren auf der Verarbeitung riesiger Datenmengen, um Muster zu erkennen und Vorhersagen zu treffen. Diese Methode hat sich in vielen Bereichen als erfolgreich erwiesen, wie etwa bei der automatischen Übersetzung, der Bildverarbeitung oder dem Spielen von komplexen Spielen wie Go. Doch um menschenähnliche Intelligenz zu erreichen, so LeCun, reicht das bloße Training auf immer größeren Datenmengen nicht aus.
Die Rolle von Weltmodellen
Einer der Ansätze, die LeCun besonders interessieren, ist die Entwicklung von KI-Systemen, die auf einer echten „Weltmodellierung“ basieren. Das bedeutet, dass die KI die Fähigkeit entwickelt, die physische Welt zu verstehen, ihre Umgebung zu beobachten und aus diesen Beobachtungen zu lernen – ähnlich wie es ein Kind tut, wenn es aufwächst.
Diese Art von Lernen würde es einer KI ermöglichen, eine innere Repräsentation der Welt zu entwickeln, die sie verwenden kann, um Situationen zu analysieren, Vorhersagen zu treffen und sogar kreative Problemlösungen zu finden. Dieser Ansatz steht im Gegensatz zu den derzeit dominierenden Modellen, die sich hauptsächlich auf Textdaten stützen und keine visuelle oder physische Welt verstehen.
Meta und die KI-Zukunft
Als Chef-KI-Wissenschaftler bei Meta ist LeCun auch direkt in die Weiterentwicklung der KI bei einem der größten Technologieunternehmen der Welt involviert. Meta investiert massiv in die Forschung und Entwicklung von KI, insbesondere im Bereich der sogenannten großen Sprachmodelle, aber auch in neuen, experimentelleren Ansätzen.
LeCun sieht großes Potenzial in der Entwicklung von KI-Systemen, die über reine Textverarbeitung hinausgehen und in der Lage sind, visuelle Informationen zu interpretieren und physische Umgebungen zu verstehen. Diese Art von Forschung wird derzeit in Metas Fundamental AI Research (FAIR) Gruppe vorangetrieben, die versucht, neue Paradigmen zu erforschen, die über die bloße Erweiterung der aktuellen Modelle hinausgehen.
Ein Beispiel dafür ist die Erforschung von KI-Systemen, die durch die Beobachtung von Videos lernen, ähnlich wie Tiere durch Beobachtung und Erfahrung lernen. Solche Systeme könnten eines Tages in der Lage sein, Aufgaben in der realen Welt auf eine Weise zu bewältigen, die heutigen KI-Modellen weit überlegen ist.
Kontroverse und Kritik
LeCuns skeptische Haltung gegenüber der Idee, dass KI bald menschenähnliche Intelligenz erreichen könnte, hat zu Spannungen in der KI-Community geführt. Einige seiner engsten Kollegen, wie Geoffrey Hinton und Yoshua Bengio, warnen vor den potenziellen Risiken, die eine hochentwickelte KI mit sich bringen könnte. Bengio beispielsweise argumentiert, dass Unternehmen allein nicht in der Lage sein werden, sicherzustellen, dass KI-Systeme nicht missbraucht werden oder eine Bedrohung darstellen.
LeCun teilt diese Bedenken nicht und betont, dass die heutigen KI-Systeme noch sehr weit von einer solchen Bedrohung entfernt sind. Er sieht die eigentliche Herausforderung darin, überhaupt erst Systeme zu entwickeln, die über die Fähigkeit einer Katze hinausgehen, und nicht darin, sich um die Kontrolle hypothetischer „Superintelligenzen“ zu sorgen.
Fazit: Die Zukunft der KI ist noch lange nicht erreicht
Yann LeCun bleibt eine wichtige Stimme in der Diskussion um die Entwicklung der KI. Trotz seines Einflusses und seiner Errungenschaften als KI-Pionier bleibt er kritisch gegenüber dem Hype, der die KI-Entwicklung umgibt. Während andere über die Gefahren von Superintelligenzen sprechen, die die Menschheit bedrohen könnten, lenkt LeCun die Aufmerksamkeit auf die fundamentalen Herausforderungen, die noch gelöst werden müssen, bevor wir auch nur ansatzweise über eine menschenähnliche KI nachdenken können.
LeCuns Haltung erinnert uns daran, dass, obwohl die Fortschritte im Bereich der KI in den letzten Jahren bemerkenswert waren, wir noch einen langen Weg vor uns haben, bevor wir wirklich intelligente Maschinen schaffen. Und vielleicht ist es genau dieser Realismus, der uns davor bewahrt, voreilige Schlüsse zu ziehen und die Entwicklung in eine Richtung zu lenken, die weder sicher noch nachhaltig ist.
Am Ende bleibt die Frage, ob die KI wirklich jemals das Niveau erreichen kann, das von vielen prognostiziert wird – oder ob wir uns von überzogenen Erwartungen blenden lassen.
Quelle:
Christopher Mims, „This AI Pioneer Thinks AI Is Dumber Than a Cat,“ Wall Street Journal, 11. Oktober 2024. Link zum Artikel