Grok-1.5 von xAIGrok-1.5 von xAI

Grok-1.5 von xAI: xAI hat mit Grok-1.5 ein neues Sprachmodell vorgestellt, das in der Lage ist, lange Kontexte zu verstehen und fortschrittliche Schlussfolgerungen zu ziehen. Das Modell wird in den kommenden Tagen für erste Tester und bestehende Grok-Nutzer auf der 𝕏-Plattform verfügbar sein.

Vor zwei Wochen gewährte xAI durch die Veröffentlichung der Modellgewichte und Netzwerkarchitektur von Grok-1 einen Einblick in die bis November letzten Jahres erzielten Fortschritte. Seitdem wurden die Fähigkeiten zur Argumentation und Problemlösung im neuesten Modell Grok-1.5 weiter verbessert.

Verbesserte Fähigkeiten und Schlussfolgerungen

Eine der bemerkenswertesten Verbesserungen in Grok-1.5 ist die Leistung bei Programmier- und Mathematikaufgaben. In Tests erzielte Grok-1.5 eine Punktzahl von 50,6% beim MATH-Benchmark und 90% beim GSM8K-Benchmark. Diese Benchmarks decken ein breites Spektrum von Wettbewerbsproblemen von der Grundschule bis zur High School ab. Zusätzlich erreichte es 74,1% beim HumanEval-Benchmark, der die Fähigkeiten zur Codegenerierung und Problemlösung bewertet.

BenchmarkGrok-1Grok-1.5Mistral LargeClaude 2Claude 3 SonnetGemini Pro 1.5GPT-4Claude 3 Opus
MMLU73% 5-shot81.3% 5-shot81.2% 5-shot75% 5-shot79% 5-shot83.7% 5-shot86.4% 5-shot86.8 5-shot
MATH23.9% 4-shot50.6% 4-shot40.5% 4-shot58.5% 4-shot52.9% 4-shot61% 4-shot
GSM8K62.9 8-shot90% 8-shot81% 5-shot88% 0-shot CoT92.3% 0-shot CoT91.7% 11-shot92% 5-shot95% 0-shot CoT
HumanEval63.2% 0-shot74.1% 0-shot45.1% 0-shot70% 0-shot73% 0-shot71.9% 0-shot67% 0-shot84.9% 0-shot

Verständnis langer Kontexte

Eine neue Funktion in Grok-1.5 ist die Fähigkeit, lange Kontexte von bis zu 128.000 Token innerhalb seines Kontextfensters zu verarbeiten. Dadurch erhöht sich die Speicherkapazität von Grok um das bis zu 16-fache im Vergleich zur vorherigen Kontextlänge. Dies ermöglicht die Nutzung von Informationen aus wesentlich längeren Dokumenten.

In der Needle In A Haystack (NIAH) Evaluierung zeigte Grok-1.5 leistungsstarke Abruffähigkeiten für eingebetteten Text innerhalb von Kontexten mit einer Länge von bis zu 128.000 Token und erzielte perfekte Abrufergebnisse. Außerdem kann das Modell längere und komplexere Eingabeaufforderungen verarbeiten und behält dabei seine Fähigkeit zur Anweisungsbefolgung bei, während sich das Kontextfenster erweitert.

Infrastruktur von Grok-1.5

Grok-1.5 basiert auf einem maßgeschneiderten verteilten Trainingsframework, das auf JAX, Rust und Kubernetes aufbaut. Dieser Trainingsstack ermöglicht es dem Team, Ideen im großen Maßstab zu entwickeln und neue Architekturen mit minimalem Aufwand zu trainieren. Eine große Herausforderung beim Training von LLMs auf großen Compute-Clustern ist die Maximierung von Zuverlässigkeit und Betriebszeit des Trainingsjobs. Der speziell entwickelte Trainingsorganisator stellt sicher, dass problematische Knoten automatisch erkannt und aus dem Trainingsjob ausgeschlossen werden. Außerdem wurden Checkpointing, Datenladung und Neustart von Trainingsjobs optimiert, um Ausfallzeiten im Fehlerfall zu minimieren.

Fazit Grok-1.5 von xAI

Mit Grok-1.5 präsentiert xAI ein leistungsstarkes KI-Sprachmodell, das lange Kontexte verstehen und komplexe Schlussfolgerungen ziehen kann. Durch die Fähigkeit, Informationen aus umfangreichen Dokumenten zu nutzen und anspruchsvolle Programmier- und Mathematikaufgaben zu lösen, eröffnet Grok-1.5 neue Möglichkeiten für den Einsatz von KI in vielfältigen Anwendungsbereichen. Die robuste Infrastruktur ermöglicht zuverlässiges Training und Skalierung des Modells.

Quelle: xAI

#KünstlicheIntelligenz #AI #Sprachmodell #NLP #MachineLearning #DeepLearning #Grok #xAI

Die 10 besten Alternativen zu ChatGPT findest Du hier!
KI im Mittelstand – Jetzt künstliche Intelligenz im Unternehmen nutzen
16 besten KI Meeting Assistenten
Die 22 KI-Supermächte: Ein DeepDive auf die führenden Player 2024
Keymate.ai ist ChatGPT MIT Google Search – Krasse Kombi