Die Funktionsweise großer Sprachmodelle: Anthropic Studie über Chain-of-Thought. Tiefe Einblicke in treue Argumentation und die Verlässlichkeit von CoTDie Funktionsweise großer Sprachmodelle: Anthropic Studie über Chain-of-Thought. Tiefe Einblicke in treue Argumentation und die Verlässlichkeit von CoT

Chain of Thoughts (CoT)

Die “Chain of Thoughts” (CoT), oder “Gedankenkette”, ist ein wichtiger Aspekt bei Sprachmodellen, insbesondere bei großen Sprachmodellen (Large Language Models, LLMs), da sie die Basis für die Art und Weise bildet, wie diese Modelle Informationen verarbeiten und Antworten generieren.

  1. Komplexe Aufgabenlösung: Eine Chain of Thoughts ermöglicht es Sprachmodellen, komplexe Aufgaben zu lösen, indem sie das Problem schrittweise bearbeiten. Diese sequenzielle Verarbeitung ähnelt der Art und Weise, wie Menschen komplexe Aufgaben lösen, indem sie sie in kleinere, handhabbare Teilaufgaben zerlegen.
  2. Transparenz: Durch die Nutzung einer Chain of Thoughts kann ein Modell seine “Denkprozesse” besser darstellen. Dies ist besonders wichtig für die Transparenz und Nachvollziehbarkeit von KI-Systemen. Anwender können so besser verstehen, wie das Modell zu seinen Ergebnissen gekommen ist.
  3. Fehlersuche und Verbesserung: Die Fähigkeit, den Denkprozess eines Modells nachzuvollziehen, kann auch bei der Fehlersuche und der Verbesserung der Modelle helfen. Wenn klar ist, wie das Modell zu seiner Antwort gekommen ist, kann es einfacher sein, Fehler in diesem Prozess zu identifizieren und zu korrigieren.
  4. Anpassungsfähigkeit: Durch die Nutzung einer Chain of Thoughts kann ein Sprachmodell flexibler und anpassungsfähiger sein. Anstatt nur eine einzige Antwort zu liefern, kann es den Denkprozess anpassen und optimieren, um bessere oder spezifischere Ergebnisse zu liefern.
  5. Vertrauensbildung: Schließlich kann die Darstellung der Denkprozesse eines Modells dazu beitragen, Vertrauen bei den Anwendern aufzubauen. Wenn Anwender verstehen, wie das Modell zu seinen Ergebnissen kommt, könnten sie eher bereit sein, seine Antworten zu akzeptieren und darauf zu vertrauen.

Die Chain of Thoughts ist jedoch nicht perfekt und ihre “Treue” oder Genauigkeit bei der Darstellung der tatsächlichen Überlegungen des Modells kann variieren, wie die von Ihnen genannte Studie zeigt.

Was ist Chain-of-Thought?

Große Sprachmodelle (LLMs) arbeiten besser, wenn sie schrittweise, eine sogenannte “Chain-of-Thought” (CoT) verwenden um eine Frage zu beantworten. Chain-of-Thought ist ein Prozess bei dem das Modell seine Überlegungen in einzelnen Schritten darlegt bevor es die Antwort liefert. Es ist jedoch unklar, ob die angegebene Argumentation eine “treue Darstellung” der tatsächlichen Überlegungen des Modells ist, also des Prozesses, mit dem es die Frage beantwortet.

Die Studie ist umfassend und ziemlich komplex – wir versuchen hier den Kern zu zitieren und entsprechend herauszuarbeiten. Gleichwohl ist uns bewusst, dass wir mit dieser Herangehensweise wesentliche Elemente auslassen und empfehlen für einen tieferen Einblick die gesamte Studie zu lesen.

Anthropic Studie – Was bedeutet “treue” Argumentation?

Wenn in der Studie die Rede von “treuer Darstellung”, oder “treuer Argumentation” gesprochen wird, dann meint man damit, dass das Modell genau erklärt, wie es zu seiner Vorhersage gekommen ist. Aber das ist nicht immer der Fall. Deshalb wurden Tests durchgeführt um zu sehen und zu verstehen wie “treu” das CoT in verschiedenen Situationen ist.

Wie verlässlich ist Chain-of-Thought?

Wir haben Hypothesen untersucht, wie untreu die Chain-of-Thought-Argumentation sein könnte. Dazu haben wir angeschaut, wie sich die Vorhersagen des Modells ändern, wenn wir in die CoT eingreifen. Das bedeutet, wir haben Fehler hinzugefügt oder sie umformuliert. Es zeigt sich, dass die Modelle in ihrer Reaktion auf solche Eingriffe stark variieren. Manchmal verlassen sie sich stark auf die CoT, manchmal ignorieren sie sie weitgehend.

Faktoren der Chain-of-Thought-Leistung

Die verbesserte Leistung durch die CoT scheint nicht nur auf zusätzliche Rechenzeit während des Tests oder auf in der speziellen Formulierung der CoT codierte Informationen zurückzuführen zu sein. Als die Modelle größer und leistungsfähiger wurden, zeigten sie auf den meisten von uns untersuchten Aufgaben weniger treue Argumentation.

Abschließende Gedanken

Insgesamt deuten unsere Ergebnisse darauf hin, dass die CoT treu sein kann, wenn die Umstände wie die Modellgröße und die Aufgabe sorgfältig ausgewählt werden. Das bedeutet, dass große Sprachmodelle durchaus die Fähigkeit besitzen, ihre Denkprozesse verständlich darzustellen. Es erfordert jedoch ein genaues Verständnis davon, wie diese Modelle arbeiten und unter welchen Bedingungen ihre “Gedanken” am genauesten sind. Es ist eine komplexe, aber faszinierende Welt, die noch viele Geheimnisse birgt, die es zu entdecken gilt.

Studien-Autoren

Die Autoren dieser Studie wurde von einer Vielzahl von Autoren geschrieben, darunter Tamera Lanham, Anna Chen, Ansh Radhakrishnan, Benoit Steiner, Carson Denison, Danny Hernandez, Dustin Li, Esin Durmus, Evan Hubinger, Jackson Kernion, Kamile Lukosiute, Karina Nguyen, Newton Cheng, Nicholas Joseph, Nicholas Schiefer, Oliver Rausch, Robin Larson, Sam McCandlish, Sandipan Kundu, Saurav Kadavath, Shannon Yang, Thomas Henighan, Timothy Maxwell, Timothy Telleen-Lawton, Tristan Hume, Zac Hatfield-Dodds, Jared Kaplan, Jan Brauner, Samuel R. Bowman, und Ethan Perez.

Die Autoren und ihre Kontaktdaten Alle Autoren arbeiten bei Anthropic, außer Jan Brauner. Er ist an der Universität Oxford. Wenn du Fragen hast, kannst du dich an Tamera Lanham (tamera@anthropic.com) oder Ethan Perez (ethan@anthropic.com) wenden. Unsere Tests zur Messung der Treue

Quelle: Anthropic + Studien-Paper