Google Gemma 2Google Gemma 2

Google hat die nächste Generation seiner offenen KI-Modelle, Gemma 2, veröffentlicht. Diese leistungsstarken Modelle stehen ab sofort Forschern und Entwicklern weltweit zur Verfügung. Die neuen Gemma 2 Modelle, verfügbar in 9 Milliarden (9B) und 27 Milliarden (27B) Parametergrößen, bieten eine herausragende Leistung und Effizienz bei der Inferenz und setzen neue Maßstäbe in der KI-Entwicklung.

Das musst du wissen – Google Gemma 2

  1. Leistungsstarke Modelle: Gemma 2 bietet in der 27B-Variante eine konkurrenzfähige Leistung zu Modellen, die doppelt so groß sind.
  2. Effizienz und Kosteneinsparungen: Optimiert für kostengünstige Inferenz auf einem einzigen NVIDIA H100 Tensor Core GPU oder TPU-Host.
  3. Breite Kompatibilität: Integrierbar mit gängigen KI-Frameworks wie Hugging Face, TensorFlow, PyTorch und JAX.
  4. Einfache Bereitstellung: Ab nächsten Monat können Google Cloud-Kunden Gemma 2 auf Vertex AI einsetzen.
  5. Verantwortungsvolle KI-Entwicklung: Strenge Sicherheitsprotokolle und Filterung der Trainingsdaten zur Reduktion von Bias und Risiken.

Gemma 2 wurde auf einer neu gestalteten Architektur aufgebaut, die außergewöhnliche Leistung und Inferenz-Effizienz ermöglicht. Die 27B-Variante von Gemma 2 bietet konkurrenzfähige Alternativen zu deutlich größeren Modellen und läuft effizient auf einem einzelnen Google Cloud TPU-Host oder NVIDIA H100 Tensor Core GPU. Dies reduziert die Bereitstellungskosten erheblich und macht KI zugänglicher.

Gemma 2 ist auf schnelle Inferenz über verschiedene Hardwareplattformen hinweg optimiert, von leistungsstarken Gaming-Laptops bis hin zu Cloud-basierten Setups. Nutzer können Gemma 2 in voller Präzision in Google AI Studio testen oder die quantisierte Version für lokale Leistung mit Gemma.cpp auf ihrer CPU verwenden.

Gemma 2 ist unter einer kommerziell freundlichen Lizenz verfügbar und kompatibel mit führenden KI-Frameworks, einschließlich Hugging Face Transformers, Keras, PyTorch und TensorFlow. Zudem ist das Modell optimiert für NVIDIA TensorRT-LLM und als NVIDIA NIM-Inferenz-Mikroservice verfügbar.

Google legt großen Wert auf verantwortungsvolle KI-Entwicklung. Die Trainingsdaten von Gemma 2 wurden gründlich gefiltert, um potenzielle Bias und Risiken zu minimieren. Entwickler und Forscher können den offenen LLM Comparator nutzen, um tiefgehende Evaluierungen ihrer Modelle durchzuführen.

Seit der Einführung der ersten Gemma-Modelle wurden über 10 Millionen Downloads verzeichnet und zahlreiche inspirierende Projekte gestartet. Ein herausragendes Beispiel ist das Navarasa-Projekt, das die linguistische Vielfalt Indiens nutzt.

Gemma 2 ist ab sofort in Google AI Studio verfügbar, sodass Nutzer die vollen Leistungsmöglichkeiten der 27B-Variante testen können. Die Modellgewichte können von Kaggle und Hugging Face heruntergeladen werden, und bald auch im Vertex AI Model Garden. Zudem steht Forschern ein kostenloses Tier für Colab-Notebooks zur Verfügung.

Google bietet auch das Gemma 2 Academic Research Program an, bei dem akademische Forscher Google Cloud-Guthaben erhalten können, um ihre Forschung mit Gemma 2 zu beschleunigen.

Erleben Sie die neue Ära der KI-Entwicklung mit Gemma 2 und nutzen Sie die vielfältigen Möglichkeiten, die diese fortschrittlichen Modelle bieten.

#GoogleGemma2 #KIEntwicklung #AIForschung #GoogleCloud #MaschinellesLernen

Google Blog: Google launches Gemma 2, its next generation of open models