Am 24. September 2024 hat Google neue und verbesserte Versionen seiner Gemini 1.5 Modelle angekündigt: Gemini-1.5-Pro-002 und Gemini-1.5-Flash-002. Diese Modelle sind speziell für den produktionsreifen Einsatz optimiert und bieten signifikante Verbesserungen in Leistung und Preis. Hier sind die wichtigsten Neuerungen:
Hauptpunkte der Updates:
- Über 50% Preisreduktion: Für das Modell Gemini 1.5 Pro gibt es eine drastische Senkung der Kosten – sowohl für Eingabe- als auch Ausgabetokens (bei Prompts unter 128K Tokens).
- Höhere Abfrageraten: Die Abfragerate des Modells Gemini 1.5 Flash wurde verdoppelt (2.000 Anfragen pro Minute) und die Rate des Pro-Modells wurde fast verdreifacht (auf 1.000 Anfragen pro Minute).
- Schnellere Ergebnisse und geringere Latenz: Die Ausgabezeit der Modelle hat sich verdoppelt, während die Latenz um das Dreifache reduziert wurde.
- Verbesserte Leistung bei Mathematik, Vision und Code: Die neuen Modelle bieten eine Leistungssteigerung von 7% auf dem MMLU-Pro-Benchmark, sowie erhebliche Fortschritte von 20% bei mathematischen Aufgaben.
- Kompaktere Ausgabe: In Reaktion auf Entwickler-Feedback geben die Modelle kürzere, prägnantere Antworten – ideal für Anwendungen wie Zusammenfassungen und Extraktionen. Dennoch können Entwickler längere Antworten durch spezielle Prompt-Strategien erzielen.
Verbesserte Leistung in Kernbereichen
Die Gemini 1.5-Modelle sind für eine Vielzahl von Aufgaben optimiert, darunter:
- Text- und Code-Generierung: Beide Modelle wurden für eine breitere Palette von Anwendungen verbessert, wie z.B. das Verarbeiten langer Dokumente oder große Code-Repositories.
- Mathematik- und Wettbewerbaufgaben: Verbesserungen im Bereich Mathematik, insbesondere bei Benchmarks wie MATH und HiddenMath, mit einer Leistungssteigerung von 20%.
- Visuelle und multimodale Aufgaben: Sowohl das Verstehen visueller Inhalte als auch die Python-Codegenerierung zeigten Leistungszuwächse von bis zu 7%.
Diese verbesserten Modelle sind ab sofort in der Google AI Studio und über die Gemini API verfügbar. Unternehmen, die Google Cloud nutzen, können die Modelle zudem über Vertex AI einbinden.
Kostenoptimierungen und neue Nutzungsmöglichkeiten
Einer der größten Vorteile dieser Updates ist die deutliche Kostensenkung. Google reduziert den Preis für Gemini 1.5 Pro Tokens um:
- 64% für Eingabetokens
- 52% für Ausgabetokens
- 64% für inkrementelle Caching-Tokens
Diese Einsparungen gelten für Prompts unter 128K Tokens und werden ab dem 1. Oktober 2024 wirksam. Zusammen mit dem verbesserten Context Caching werden die Kosten für Entwickler noch weiter gesenkt, was das Modell für verschiedenste produktionsreife Anwendungen attraktiv macht.
Höhere Abfrageraten und schnellere Leistung
Um die Nutzung der Modelle zu erleichtern, hat Google die Abfrageraten erheblich erhöht. Für das Gemini 1.5 Flash wurde die Abfragerate auf 2.000 Anfragen pro Minute verdoppelt, während Gemini 1.5 Pro auf 1.000 Anfragen pro Minute angehoben wurde. Diese Änderungen ermöglichen es Entwicklern, umfangreichere und anspruchsvollere Anwendungen zu erstellen, ohne an Grenzen zu stoßen.
Darüber hinaus wurden sowohl die Ausgabezeiten verdoppelt als auch die Latenzzeiten um das Dreifache reduziert, was die Modelle noch attraktiver für zeitkritische Anwendungen macht.
Verbesserte Sicherheit und Flexibilität
Die neuen Modelle kommen auch mit verbesserten Sicherheitseinstellungen. Entwickler haben die Möglichkeit, benutzerdefinierte Filter anzupassen, um ihre spezifischen Anforderungen zu erfüllen, ohne dass standardmäßig Sicherheitsfilter aktiviert sind. Das bedeutet, dass Entwickler mehr Kontrolle über die Ausgabe haben und die Modelle auf ihre Bedürfnisse anpassen können.
Neues Experiment mit Gemini 1.5 Flash-8B
Zusätzlich zu den oben genannten Modellen stellt Google eine weiter verbesserte Version des Gemini 1.5 Flash-Modells vor, genannt Gemini-1.5-Flash-8B-Exp-0924. Diese experimentelle Version bietet signifikante Leistungssteigerungen sowohl bei Text- als auch multimodalen Anwendungen. Dieses Modell ist ab sofort im Google AI Studio und über die Gemini API verfügbar und richtet sich an Entwickler, die mit den neuesten Technologien experimentieren möchten.
Zusammenfassung
Google macht mit den neuen Gemini 1.5 Modellen einen großen Schritt nach vorne, indem es leistungsfähigere und kostengünstigere Lösungen für Entwickler bietet. Zu den wichtigsten Verbesserungen gehören:
- Deutliche Preissenkungen für die Nutzung von Gemini 1.5 Pro.
- Verdoppelte Abfrageraten und schnellere Leistung.
- Verbesserte Ergebnisse in den Bereichen Mathematik, Vision und Code.
- Flexiblere Sicherheits- und Filtereinstellungen.
Diese Modelle eröffnen neue Möglichkeiten für Unternehmen und Entwickler, insbesondere in Bereichen wie Langtextverarbeitung, Videoanalyse und komplexer Codegenerierung. Entwickler können die neuen Modelle über die Gemini API und das Google AI Studio nutzen und von den verbesserten Kostenstrukturen profitieren. Mit diesen Updates zeigt Google, dass es sich auf die Bedürfnisse von Entwicklern konzentriert und gleichzeitig innovative Technologien für die breite Anwendung bereitstellt.
Call-to-Action:
Möchtest du mehr über die neuen Gemini-Modelle erfahren oder direkt damit starten? Besuche die offizielle Google AI Studio-Seite und entdecke die Möglichkeiten, die die neuen Gemini 1.5 Modelle bieten.