Neue AWS EC2 P5-Instanzen mit NVIDIA H100 GPUs optimieren KI-Training und Inferenz. Skaliere generative KI und HPC-Anwendungen in der Cloud.Neue AWS EC2 P5-Instanzen mit NVIDIA H100 GPUs optimieren KI-Training und Inferenz. Skaliere generative KI und HPC-Anwendungen in der Cloud.

Neuer Amazon EC2 P5 mit NVIDIA-Beschleuniger liefert Top-Performance für generative KI und mehr

AWS-Nutzer haben jetzt Zugang zur besten Performance in Industriebenchmarks für KI-Training und Inferenz. AWS hat offiziell eine neue Amazon EC2 P5-Instanz eingeführt, die mit NVIDIA H100 Tensor Core GPUs läuft. Mit diesem Dienst kannst du generative KI, Hochleistungsrechnen (HPC) und andere Anwendungen mit einem Klick von einem Browser aus skalieren.

Die Ankündigung erfolgt in einer Zeit, in der KI-Anwendungen täglich neue Einsatzmöglichkeiten entdecken. Für die Markteinführung dieser neuen Anwendungsfälle ist effizientes beschleunigtes Rechnen unerlässlich.

Die NVIDIA H100 GPU liefert Supercomputer-Leistung dank architektonischer Innovationen wie vierte Generation Tensor Cores, einem neuen Transformer Engine zur Beschleunigung von großen Sprachmodellen (LLMs) und der neuesten NVLink-Technologie, die es GPUs ermöglicht, miteinander mit einer Geschwindigkeit von 900GB/Sek zu kommunizieren.

Skalierung mit P5-Instanzen

Amazon EC2 P5-Instanzen eignen sich ideal für Training und Inferenz von immer komplexeren LLMs und Computer-Vision-Modellen. Diese neuronalen Netzwerke treiben die anspruchsvollsten und rechenintensivsten generativen KI-Anwendungen an, einschließlich Fragebeantwortung, Codegenerierung, Video- und Bildgenerierung, Spracherkennung und mehr.

P5-Instanzen können in Hyperscale-Clustern, den sogenannten EC2 UltraClusters, eingesetzt werden. Jeder EC2 UltraCluster ist ein leistungsfähiger Supercomputer, der es Kunden ermöglicht, ihre komplexesten KI-Trainings und verteilten HPC-Workloads über mehrere Systeme hinweg auszuführen.

Die P5-Instanzen bieten petabit-scale nicht-blockierende Netzwerke, angetrieben von AWS EFA, einer 3,200 Gbps Netzwerkschnittstelle für Amazon EC2-Instanzen. Damit können Anwendungen, die hohe Kommunikationsniveaus zwischen Rechenknoten erfordern, im großen Stil ausgeführt werden.

Mit P5-Instanzen können Machine-Learning-Anwendungen die NVIDIA Collective Communications Library nutzen, um bis zu 20.000 H100 GPUs einzusetzen.

NVIDIA AI Enterprise und P5-Instanzen

NVIDIA AI Enterprise hilft Nutzern, das Beste aus P5-Instanzen herauszuholen. Es handelt sich um eine vollständige Software-Suite, die mehr als 100 Frameworks, vortrainierte Modelle, KI-Workflows und Tools zur Optimierung der KI-Infrastruktur enthält.

NVIDIA AI Enterprise wurde entwickelt, um die Entwicklung und den Einsatz von KI-Anwendungen zu vereinfachen. Es adressiert die Komplexität des Aufbaus und der Wartung einer hochleistungsfähigen, sicheren, Cloud-nativen KI-Softwareplattform. Es bietet kontinuierliches Sicherheitsmonitoring, regelmäßige und zeitnahe Patching von gemeinsamen Schwachstellen und Expositionen, API-Stabilität und Unternehmensunterstützung sowie Zugang zu NVIDIA KI-Experten.

Was die Kunden sagen

NVIDIA und AWS haben mehr als ein Dutzend Jahre zusammengearbeitet, um GPU-Beschleunigung in die Cloud zu bringen. Die neuen P5-Instanzen sind ein weiterer großer Schritt vorwärts, um die erstklassige Performance zu liefern, die Entwickler benötigen, um die nächste Generation von KI zu erfinden.

Anthropic, ein Unternehmen, das zuverlässige, interpretierbare und steuerbare KI-Systeme entwickelt, sieht in den P5-Instanzen erhebliche Preis-Leistungs-Vorteile gegenüber P4d-Instanzen und die Möglichkeit, in der für den Bau von Next-Gen-LLMs und verwandten Produkten erforderlichen Skala verfügbar zu sein.

Cohere, ein führender Pionier im Bereich Language AI, sieht die Kombination aus der Rechenleistung der NVIDIA H100-betriebenen Amazon EC2 P5-Instanzen und Cohere’s state-of-the-art LLM und generativen KI-Fähigkeiten als eine Möglichkeit für Unternehmen, schneller zu wachsen und zu skalieren.

Hugging Face, das die Demokratisierung von gutem maschinellem Lernen anstrebt, freut sich auf die Nutzung der Amazon EC2 P5-Instanzen über Amazon SageMaker im großen Stil in UltraClusters mit EFA, um die Lieferung neuer Foundation AI-Modelle für alle zu beschleunigen.

Pinterest, das von mehr als 450 Millionen Menschen weltweit genutzt wird, freut sich darauf, die Amazon EC2 P5-Instanzen mit NVIDIA H100 GPUs, AWS EFA und UltraClusters zu nutzen, um die Produktentwicklung zu beschleunigen und neue empathische KI-basierte Erlebnisse für ihre Kunden zu ermöglichen.

Erfahre mehr über die neuen AWS P5-Instanzen, die von NVIDIA H100 angetrieben werden.

Quelle: NVDIA Blog