Starten Sie Ihre KI-Reise mit Deutschlands modernster KI-Beratung
Search
Close this search box.
Search
Close this search box.

Google DeepMind SCoRe: Revolutionäre Selbstkorrektur durch Reinforcement Learning – Die Zukunft der KI nach OpenAI o1

BY Oliver Welling
Google DeepMind SCoRe: Revolutionäre Selbstkorrektur durch Reinforcement Learning – Die Zukunft der KI nach OpenAI o1

Die Entwicklung von SCoRe (Self-Correction via Reinforcement Learning) durch Google DeepMind markiert einen bedeutenden Durchbruch im Bereich des maschinellen Lernens. Diese Methode stellt eine neue Herangehensweise dar, um großen Sprachmodellen (LLMs) eine effektive Selbstkorrektur beizubringen – eine Fähigkeit, die bisher als unzureichend galt. Besonders spannend ist die Tatsache, dass SCoRe die selbstgenerierten Korrekturen des Modells nutzt, ohne dass dafür externe Rückmeldungen erforderlich sind.

Einleitung: Was macht SCoRe so revolutionär?

Im Zuge der wachsenden Bedeutung von LLMs in Bereichen wie der Beantwortung komplexer Fragen, der Programmierung oder der mathematischen Problemlösung wird das Thema Selbstkorrektur immer relevanter. Viele Modelle, auch die von OpenAI entwickelten, zeigen Schwächen bei der Selbstkorrektur, da sie oft auf fehlerhafte Antworten beharren. Google DeepMind stellt mit SCoRe eine Lösung vor, die ausschließlich mit selbstgenerierten Daten arbeitet und somit das Modell effizienter verbessert.

Das SCoRe-Verfahren verwendet Online-Reinforcement-Learning (RL), um den Selbstkorrekturprozess des Modells in mehreren Durchläufen zu trainieren. Es erzielt beeindruckende Verbesserungen in Benchmark-Aufgaben: 15,6 % bei MATH und 9,1 % bei HumanEval, was es zu einem der führenden Ansätze für selbstlernende Modelle macht.

Hauptfrage: Wie funktioniert SCoRe?

SCoRe ist ein zweistufiger Prozess, der auf Reinforcement-Learning basiert. Hier ein Überblick über die Implementierung:

  1. Auswahl eines vortrainierten Modells: Google DeepMind verwendet Modelle wie Gemini 1.0 Pro oder Gemini 1.5 Flash als Grundlage.
  2. SCoRe Stage 1: Erstes RL-Training mit Einschränkungen
    In der ersten Phase wird das Modell darauf trainiert, Korrekturen vorzunehmen, aber mit der Einschränkung, dass die erste Antwort nicht verändert werden darf. Diese Einschränkung wird durch den Einsatz der KL-Divergenz (Kullback-Leibler-Divergenz) erzwungen, die die Verteilung der Antworten in der ersten und zweiten Runde voneinander entkoppelt. Dies dient dazu, das Modell darauf zu fokussieren, wie es Korrekturen vornehmen kann, ohne dass die ursprüngliche Antwort beeinflusst wird.
  3. SCoRe Stage 2: Optimierung beider Durchläufe
    In der zweiten Phase wird diese Einschränkung aufgehoben, und das Modell lernt, sowohl die erste als auch die korrigierte Antwort zu optimieren. Ein besonders wichtiger Aspekt ist hier die Belohnungsstruktur, bei der das Modell für Korrekturen, die zur richtigen Antwort führen, höhere Belohnungen erhält. Diese „shaped reward“-Struktur maximiert den Anreiz zur Selbstkorrektur.

Durch die REINFORCE-Algorithmus-Implementierung in beiden Phasen und die Verwendung von On-Policy-Sampling (d.h., das Modell lernt direkt aus seinen eigenen Korrekturen) wird das Modell iterativ besser darin, seine Fehler zu erkennen und zu beheben.

Relevante Folgefragen und Antworten:

1. Warum ist Selbstkorrektur bei LLMs so wichtig?

Die Fähigkeit zur Selbstkorrektur erlaubt es einem Modell, selbstständig Fehler zu erkennen und zu beheben, was besonders bei komplexen Aufgaben wie Programmierung, mathematischem Problemlösen oder wissenschaftlichen Berechnungen entscheidend ist. Fehlende Selbstkorrektur führt oft dazu, dass Modelle fehlerhafte Ergebnisse wiederholt ausgeben.

2. Was unterscheidet SCoRe von bisherigen Ansätzen?

Bisherige Ansätze erforderten oft ein zweites, leistungsstärkeres Modell, um die Korrekturen vorzunehmen. SCoRe ist revolutionär, weil es nur ein einziges Modell verwendet, das durch Reinforcement Learning lernt, sich selbst zu korrigieren. Zudem wird auf selbstgenerierte Daten gesetzt, was die Notwendigkeit externer Datenquellen eliminiert.

3. Wie schneidet SCoRe im Vergleich zu anderen Modellen ab?

SCoRe hat in den Benchmarks MATH und HumanEval herausragende Ergebnisse erzielt, indem es die Leistung um 15,6 % bzw. 9,1 % gegenüber den Basismodellen verbessert hat. Dies zeigt, dass SCoRe einen deutlichen Vorteil gegenüber herkömmlichen Modellen bietet, insbesondere im Hinblick auf die Fähigkeit, Fehler selbstständig zu erkennen und zu korrigieren.

4. Was sind die größten Herausforderungen bei der Implementierung von SCoRe?

Ein Hauptproblem bei bisherigen Versuchen der Selbstkorrektur ist das Verteilungsproblem. Modelle neigen dazu, während des Trainings einen bestimmten Modus der Korrektur zu bevorzugen, der dann jedoch in realen Test-Szenarien oft versagt. SCoRe löst dieses Problem durch On-Policy-Sampling und eine spezielle Belohnungsstruktur, die das Modell dazu bringt, bessere Selbstkorrekturen zu lernen.

5. Was ist der Unterschied zwischen REINFORCE und STaR in diesem Kontext?

Während REINFORCE ein Standardalgorithmus im Reinforcement Learning ist, der direkt darauf abzielt, die Belohnung zu maximieren, scheint der alternative Ansatz STaR in diesem speziellen Szenario nicht so gut zu funktionieren. Die Tests zeigten, dass REINFORCE bessere Ergebnisse in Bezug auf die Selbstkorrektur liefert.

Tipps und Handlungsempfehlungen:

Für Entwickler und Forscher, die SCoRe implementieren möchten, sind hier einige konkrete Tipps:

  • Vorbereitung des Basismodells: Wähle ein leistungsfähiges LLM wie Gemini 1.0 oder 1.5 als Grundlage, um von einem starken Ausgangspunkt zu starten.
  • Zwei-Phasen-Training: Es ist entscheidend, die zwei Trainingsphasen strikt zu trennen. Zuerst sollte das Modell lernen, Korrekturen zu identifizieren, ohne die ursprüngliche Antwort zu verändern. Erst in der zweiten Phase wird die Optimierung beider Durchläufe trainiert.
  • Belohnungsstruktur anpassen: Eine durchdachte Gestaltung der Belohnungsfunktion ist entscheidend für den Erfolg. Je höher der Belohnungswert für erfolgreiche Korrekturen, desto besser lernt das Modell, sich selbst zu korrigieren.
  • Vermeide Supervised Fine-Tuning: Studien haben gezeigt, dass reines Supervised Fine-Tuning (SFT) auf Korrekturdaten nicht ausreicht, um effektive Selbstkorrektur zu erlernen. Setze stattdessen auf RL-basierte Ansätze.

Schlussfolgerung:

SCoRe ist ein wegweisender Ansatz, der das Potenzial hat, die Selbstkorrektur von LLMs auf ein völlig neues Niveau zu heben. Durch die Fokussierung auf Reinforcement Learning und den Verzicht auf externe Korrekturquellen schafft SCoRe einen neuen Standard in der Entwicklung intelligenter, selbstlernender Sprachmodelle. Mit beeindruckenden Verbesserungen in Benchmark-Tests wie MATH und HumanEval zeigt SCoRe, dass Google DeepMind einen wichtigen Schritt in Richtung autonomer Modellkorrektur gemacht hat.

Für die Zukunft der KI und maschinellen Lernens ist die Fähigkeit zur Selbstkorrektur ein zentraler Baustein, um Sprachmodelle noch zuverlässiger und präziser zu machen.

Liste der Quellen:

  1. Training Language Models to Self-Correct via Reinforcement Learning (Hugging Face)
  2. Training Language Models to Self-Correct via Reinforcement Learning (arXiv)
  3. Training Language Models to Self-Correct via Reinforcement Learning (arXiv PDF)

Ähnliche Beiträge

Business

NVIDIA NIM-Microservices beschleunigt die Wettervorhersage um den Faktor 500

NVIDIA NIM-Microservices beschleunigt die Wettervorhersage um den Faktor 500 Earth-2 als digitale Zwillingstechnologie: Simuliert und visualisiert präzise Wetter- und Klimabedingungen..

Business

Wie Meta durch Llama zu einem AI-Pionier wird

Meta hat einen beeindruckenden Wandel vollzogen, indem es sich komplett um sein Open-Source-Modell Llama neu ausgerichtet hat. Dieser mutige Schritt.

Folge uns

Beliebte Artikel

About Author

Maßgeschneiderte KI-Lösungen für Ihr Unternehmen

TechNow ist Ihr strategischer Partner für den erfolgreichen Einsatz von Künstlicher Intelligenz.

Beraten lassen

HOT CATEGORIES

en_GBEnglish