Nvidia kündigt Blackwell Ultra und Vera Rubin Ai Chips an

Jensen Huang, CEO von Nvidia, kommt an der Eröffnungsfeier der Tan Ke -Anlage von Siliconware Precision Industries Co. (SPIL) in Taichung, Taiwan, 16. Januar 2025.

Ann Wang | Reuters

Nvidia Kündigte neue Chips für den Aufbau und die Bereitstellung künstlicher Intelligenzmodelle auf seiner jährlichen GTC -Konferenz am Dienstag bekannt.

CEO Jensen Huang enthüllte Blackwell Ultra, eine Familie von Chips in der zweiten Hälfte dieses Jahres, sowie Vera Rubin, die Grafikverarbeitungseinheit der nächsten Generation, die im Jahr 2026 versendet wird.

Die Verkäufe von NVIDIA sind mehr als sechsfach gestiegen, da sein Geschäft durch die Veröffentlichung von OpenAIs Chatgpt Ende 2022 verändert wurde. Das liegt daran, dass sein “Big GPUs” den größten Teil des Marktes für die Entwicklung von Advanced AI, einem Prozess namens Training, hat.

Softwareentwickler und -investoren beobachten die neuen Chips des Unternehmens genau, um festzustellen, ob sie genügend zusätzliche Leistung und Effizienz bieten, um die größten Endkunden des Unternehmens zu überzeugen – Cloud -Unternehmen einschließlich MicrosoftAnwesend Google Und Amazonas – weiterhin Milliarden von Dollar auszugeben, um Rechenzentren basierend auf Nvidia -Chips zu bauen.

“In diesem letzten Jahr hat sich fast die ganze Welt involviert. Die Rechenanforderung, das Skalierungsgesetz von KI, ist widerstandsfähiger und tatsächlich hyperbeschleunigt”, sagte Huang.

Die Ankündigungen am Dienstag sind auch ein Test der neuen Jahresveröffentlichungs -Kadenz von NVIDIA. Das Unternehmen bemüht sich, jedes Jahr neue Chip-Familien bekannt zu geben. Vor dem KI -Boom veröffentlichte Nvidia alle zwei Jahre neue Chiparchitekturen.

Die GTC -Konferenz in San Jose, Kalifornien, ist auch eine Stärke der Stärke für Nvidia.

Die Veranstaltung, die zweite persönliche Konferenz von Nvidia seit der Pandemie, wird voraussichtlich 25.000 Teilnehmer und Hunderte von Unternehmen haben, die die Art und Weise, wie sie die Hardware des Unternehmens für KI verwenden, diskutieren. Dazu gehören Waymo, Microsoft und Fordunter anderem. General Motors gab auch bekannt, dass es den Nvidia-Dienst für seine Fahrzeuge der nächsten Generation nutzen wird.

Die Chip -Architektur nach Rubin wird nach dem Physiker Richard Feynman benannt, sagte Nvidia am Dienstag und setzte seine Tradition der Benennung von Chipfamilien nach Wissenschaftlern fort. Die Feynman -Chips von Nvidia werden voraussichtlich im Jahr 2028 erhältlich sein, wie aus einer Folie von Huang angezeigt wird.

Nvidia wird auch seine anderen Produkte und Dienstleistungen auf der Veranstaltung präsentieren.

Zum Beispiel kündigte NVIDIA neue Laptops und Desktops mit seinen Chips an, darunter zwei AI-fokussierte PCs namens DGX Spark und DGX Station, die große KI-Modelle wie Lama oder Deepseek betreiben können. Das Unternehmen kündigte außerdem Aktualisierungen seiner Netzwerkteile an, um Hunderte oder Tausende von GPUs zusammenzubinden, damit sie als ein Softwarepaket namens Dynamo arbeiten, das den Benutzern hilft, das Beste aus ihren Chips herauszuholen.

Jensen Huang, Mitbegründer und Chief Executive Officer von Nvidia Corp., spricht am Dienstag, den 18. März 2025, während der NVIDIA GPU Technology Conference (GTC) in San Jose, Kalifornien, USA.

David Paul Morris | Bloomberg | Getty -Bilder

Vera Rubin

Nvidia erwartet in der zweiten Hälfte von 2026 in der GPU-Familie der nächsten Generation in der nächsten Generation.

Das System verfügt über zwei Hauptkomponenten: eine CPU namens Vera, und ein neues GPU -Design namens Rubin. Es ist nach dem Astronomen Vera Rubin benannt.

Vera ist das erste kundenspezifische CPU -Design von NVIDIA, so das Unternehmen, und es basiert auf einem Kerndesign, das sie Olympus bezeichnet haben.

Zuvor benutzte Nvidia, als es CPUs benötigte, ein Off-the-Shelf-Design von Arm. Unternehmen, die kundenspezifische ARM -Kerndesigns wie Qualcomm und Apple entwickelt haben, sagen, dass sie besser zugeschnitten sind und eine bessere Leistung freischalten können.

Das benutzerdefinierte Vera -Design wird doppelt so schnell sein wie die CPU, die in Grace Blackwell Chips des letzten Jahres verwendet wird, sagte das Unternehmen.

In Kombination mit Vera kann Rubin 50 Petaflops bei Inferenz verwalten und die 20 Petaflops für die aktuellen Blackwell -Chips des Unternehmens mehr als verdoppeln. Rubin kann auch bis zu 288 Gigabyte schneller Speicher unterstützen, was einer der Kernspezifikationen ist, die KI -Entwickler beobachten.

Nvidia ändert sich auch zu dem, was es als GPU bezeichnet. Rubin ist tatsächlich zwei GPUs, sagte Nvidia.

Die Blackwell -GPU, die derzeit auf dem Markt ist, besteht tatsächlich aus zwei separaten Chips, die zusammengebaut und als ein Chip arbeiten gemacht wurden.

Beginnend mit Rubin wird Nvidia sagen, dass es bei zwei oder mehr Stanzhöfen für einen einzelnen Chip als separate GPUs bezeichnet. In der zweiten Hälfte von 2027 plant Nvidia, einen “Rubin Next” -Phip zu veröffentlichen, der vier Würfel kombiniert, um einen einzelnen Chip zu erstellen, der die Geschwindigkeit von Rubin verdoppelt, und es wird das als vier GPUs bezeichnen.

Nvidia sagte, dass dies in einem Rack namens Vera Rubin NVL144 kommen wird. Frühere Versionen von Nvidia’s Rack wurden NVL72 genannt.

Jensen Huang, Mitbegründer und Chief Executive Officer von Nvidia Corp., spricht am Dienstag, den 18. März 2025, während der NVIDIA GPU Technology Conference (GTC) in San Jose, Kalifornien, USA.

David Paul Morris | Bloomberg | Getty -Bilder

Blackwell Ultra

Nvidia kündigte auch neue Versionen seiner Blackwell -Familie von Chips an, die es Blackwell Ultra nennt.

Dieser Chip wird in der Lage sein, mehr Token pro Sekunde zu produzieren, was bedeutet, dass der Chip in der gleichen Zeit wie sein Vorgänger mehr Inhalte erzeugen kann, teilte das Unternehmen in einem Briefing mit.

Laut NVIDIA können Cloud-Anbieter Blackwell Ultra verwenden, um einen Premium-KI-Service für zeitkritische Anwendungen anzubieten, sodass sie als das 50-fache der Einnahmen aus den neuen Chips als Hopper-Generation, die 2023 versendet wurden, erzielen können.

Blackwell Ultra wird in einer Version mit zwei gepaart an einer Nvidia Arm -CPU, genannt GB300, und einer Version mit nur der GPU mit dem Namen B300 erhältlich. Es wird auch in Versionen mit acht GPUs in einer einzelnen Serverklinge und einer Rack -Version mit 72 Blackwell -Chips erhältlich sein.

Die vier besten Cloud -Unternehmen haben die dreifache Anzahl der Blackwell -Chips als Hopper -Chips eingesetzt, sagte Nvidia.

Deepseek

Chinas Deek R1 -Modell Chinas hat bei der Veröffentlichung im Januar möglicherweise Nvidia -Investoren erschreckt, aber Nvidia hat die Software angenommen. Der Chipmaker wird das Modell verwenden, um einige seiner neuen Produkte zu bewerten.

Viele AI -Beobachter sagten, dass Deepseeks Modell, das Berichten zufolge weniger Chips als in den USA hergestellte Modelle benötigte, das Geschäft von Nvidia bedrohte.

Aber Huang sagte Anfang dieses Jahres, dass Deepseek tatsächlich ein gutes Zeichen für Nvidia sei. Dies liegt daran, dass Deepseek einen Prozess namens “Argumentation” verwendet, der mehr Rechenleistung erfordert, um den Benutzern bessere Antworten zu geben.

Die neuen Blackwell -Ultra -Chips sind besser zum Argumentieren, sagte Nvidia.

Es hat seine Chips entwickelt, um effizienter inferenziert zu werden. Wenn neue Argumentationsmodelle zum Zeitpunkt der Bereitstellung mehr Rechenleistung erfordern, können die Chips von NVIDIA damit umgehen.

“In den letzten 2 bis 3 Jahren ereignete sich ein großer Durchbruch, ein grundlegender Fortschritt in der künstlichen Intelligenz. Wir nennen es Agentic AI”, sagte Huang. “Es kann begründen, wie man beantwortet oder wie man ein Problem löst.”

BETRACHTEN: Nvidia startet seine GTC -Konferenz: Die Ausschussdebatte, wie man es handelt

Nvidia startet seine GTC -Konferenz: Die Ausschussdebatte, wie man es handelt

Leave a Reply

Your email address will not be published. Required fields are marked *