NVIDIA gab heute im Rahmen der GTC 2024 bekannt, dass die Einführung der NVIDIA Blackwell-Plattform eine neue Ära des Computings einläutet. Sie ermöglicht Organisationen weltweit die Erstellung und Ausführung von Echtzeit-generativer KI auf Sprachmodellen mit bis zu einer Billion Parametern zu einem Bruchteil der Kosten und des Energieverbrauchs im Vergleich zum Vorgänger.
Die Blackwell-GPU-Architektur umfasst sechs wegweisende Technologien für schnelleres Computing. Diese werden dazu beitragen, Fortschritte in den Bereichen Datenverarbeitung, Ingenieurssimulation, elektronisches Design, computergestütztes Medikamenten-Design, Quantencomputing und generative KI zu ermöglichen – alles vielversprechende Marktchancen für NVIDIA.
Bildquelle: Nvidia
"Seit drei Jahrzehnten verfolgen wir beschleunigtes Computing mit dem Ziel, transformative Durchbrüche wie Deep Learning und KI zu ermöglichen", sagte Jensen Huang, Gründer und CEO von NVIDIA. "Generative KI ist die prägende Technologie unserer Zeit. Blackwell ist der Motor, der diese neue industrielle Revolution antreibt. In Zusammenarbeit mit den dynamischsten Unternehmen der Welt werden wir das Versprechen der KI für jede Branche verwirklichen."
Bildquelle: Nvidia
Dies sind die Hauptmerkmale der neuen Blackwell-Architektur:
Weltweit leistungsstärkster Chip — Die GPUs der Blackwell-Architektur sind mit 208 Milliarden Transistoren bestückt und werden mit einem individuell entwickelten 4NP-TSMC-Prozess hergestellt, wobei GPU-Chips mit einer Zwei-Reticle-Grenze über eine 10 TB/s-Chip-zu-Chip-Verbindung zu einem einzigen, vereinheitlichten GPU verbunden sind.
Zweite Generation des Transformer Engines — Angetrieben durch neue Mikro-Tensor-Skalierungsfunktionen und fortschrittliche Dynamikbereichsmanagement-Algorithmen von NVIDIA, die in die NVIDIA TensorRT-LLM- und NeMo Megatron-Frameworks integriert sind, wird Blackwell die doppelte Rechenleistung und Modellgröße mit neuen 4-Bit-Fließkommaberechnungen für KI-Inferenzen unterstützen.
Fünfte Generation von NVLink — Um die Leistung für KI-Modelle mit mehreren Billionen Parametern und Mischexperten zu beschleunigen, bietet die neueste Iteration von NVIDIA NVLink bahnbrechende bidirektionale Durchsatzraten von 1,8 TB/s pro GPU und gewährleistet nahtlose Hochgeschwindigkeitskommunikation zwischen bis zu 576 GPUs für die komplexesten LLMs.
RAS Engine — GPUs, die von Blackwell betrieben werden, enthalten eine dedizierte Engine für Zuverlässigkeit, Verfügbarkeit und Wartungsfreundlichkeit. Darüber hinaus bietet die Blackwell-Architektur auf Chip-Ebene Fähigkeiten zur Nutzung KI-basierter vorbeugender Wartung zur Diagnose und Vorhersage von Zuverlässigkeitsproblemen. Dies maximiert die Systemverfügbarkeit und verbessert die Robustheit für massiv skalierbare KI-Bereitstellungen, die über Wochen oder sogar Monate hinweg ununterbrochen betrieben werden können, und reduziert die Betriebskosten.
Sichere KI — Fortgeschrittene vertrauliche Rechenfähigkeiten schützen KI-Modelle und Kundendaten, ohne die Leistung zu beeinträchtigen, mit Unterstützung für neue nativen Schnittstellenverschlüsselungsprotokolle, die für datenschutzsensible Branchen wie Gesundheitswesen und Finanzdienstleistungen entscheidend sind.
Dekompressions-Engine — Eine dedizierte Dekompressions-Engine unterstützt die neuesten Formate und beschleunigt Datenbankabfragen, um die höchste Leistung in der Datenanalyse und Datenwissenschaft zu erzielen. In den kommenden Jahren wird die Datenverarbeitung, für die Unternehmen jährlich Milliarden von Dollar ausgeben, zunehmend durch GPUs beschleunigt.
Bildquelle: Nvidia
NVIDIA setzt mit der Blackwell-Architektur neue Standards und fordert gleichzeitig die Mitbewerber, wie AMD heraus, mit dem Unternehmen Schritt zu halten. Alles in allem stehen die Zeichen beim Branchenprimus auf Erfolg und in Zukunft führt wohl kein WEG am renommierten Chiphersteller vorbei, wenn es um innovative neue Technologien geht.
Bildquelle: Nvidia