Die LLM Challenge revolutioniert den Zugang zu Large Language Models. LLMs werden in nur 24 Stunden mit einer GPU optimiert.Die LLM Challenge revolutioniert den Zugang zu Large Language Models. LLMs werden in nur 24 Stunden mit einer GPU optimiert.

Die NeurIPS Large Language Model Efficiency Challenge, kurz LLM Challenge, setzt sich mit der massiven Aufmerksamkeit auseinander, die Large Language Models (LLMs) in den letzten Jahren erregt haben. LLMs wurden auf umfangreichen Textkorpora trainiert und können Aufgaben mit wenigen beaufsichtigten Beispielen lösen. Von der Erkennung von Entitäten, über Sprachübersetzungen, standardisierte Prüfungen (wie SAT, AP-Prüfungen, medizinisches Wissen) bis hin zu Programmieraufgaben und Chatbots – diese sogenannten “few-shot” Modelle haben überall beeindruckende Erfolge erzielt.

LLM Challenge – Die Herausforderungen großer Sprachmodelle

Doch die Nutzung dieser Modelle birgt auch Herausforderungen. Sie benötigen eine Anpassung, auch “Fine-Tuning” genannt, an spezifische Aufgaben durch Aktualisierung mit begrenzten, aufgabenbezogenen Daten. Leider sind die Kosten für den Zugang, die Anpassung und das Abfragen dieser Modelle hoch und oft an teure, proprietäre Hardware gebunden. Das macht sie für Menschen ohne erhebliche Ressourcen unzugänglich. Zudem gibt es ein Mangel an Transparenz bei den Trainingsmethoden, was dazu führt, dass die meisten Modelle nicht reproduzierbar sind. Auch fehlt es an einem Standardbenchmark, um die Modelle direkt miteinander zu vergleichen.

Die Lösung: LLM Efficiency Challenge

Hier kommt die LLM Challenge ins Spiel. Sie zielt darauf ab, den Zugang zu LLMs zu demokratisieren und diese Herausforderungen zu lösen. Konkret fordert die Challenge die Gemeinschaft dazu auf, ein Basismodell innerhalb eines Tages auf einer einzelnen GPU (4090 oder A100) an spezifische Aufgaben anzupassen und dabei eine hohe Genauigkeit zu gewährleisten.

Bewertung und Analyse

Neben einer Reihe von Bewertungsaufgaben wird jede Einreichung umfangreich analysiert, um die Trade-offs zwischen Genauigkeit und Rechenleistung auf handelsüblicher Hardware zu studieren.

Aus dem Wettbewerb lernen

Das Ziel des Wettbewerbs ist es, die Erkenntnisse und Lektionen in eine Reihe gut dokumentierter Schritte und leicht zu befolgender Tutorials zu destillieren. So erhält die Machine-Learning-Gemeinschaft Dokumentationen, die zeigen, wie sie die gleiche Leistung wie die Gewinnereinträge erreichen können. Dies dient als Ausgangspunkt, um eigene LLM-Lösungen zu erstellen. Mit der LLM Challenge schaffen wir also eine Basis für mehr Transparenz, Vergleichbarkeit und Zugänglichkeit bei der Arbeit mit großen Sprachmodellen.

Quelle: Github