NvidiaはDGX Station、Spark PCでGB300スーパーチップをデスクに搭載したいと考えている

Table of Contents

NvidiaはDGX Station、Spark PCでGB300スーパーチップをデスクに搭載したいと考えている

GTCホッパー休止後、Nvidia の DGX Station が、20 ペタフロップスの AI パフォーマンスを生み出せる、デスクトップ向けに調整された最新の Grace-Blackwell Ultra スーパーチップを搭載して復活しました。

このシステムは、Ampere GPU世代以来、NVIDIAがDGX Stationラインナップをアップデートした初めてのケースとなります。前モデルのDGX Stationは、A100ベースのシステムで、クアッドGPUとシングルAMD Epycプロセッサを搭載し、カスタム冷却ループで冷却されていました。

それに比べると、Nvidiaの新しいBlackwellベースのシステムははるかにシンプルで、単一のBlackwell Ultra GPUを搭載し、コードネーム「GB300」が示唆するように、Grace CPUを搭載しています。このシステムは合計784GBの「CPUのLPDDR5x DRAMとGPUのHBM3eを統合したメモリ」を搭載するとのことです。

これは、新しいDGXステーションの心臓部であるGB300デスクトップスーパーチップのクローズアップ画像です。

こちらは、新しいDGXステーションの中核を成すGB300デスクトップスーパーチップのクローズアップ画像です。クリックして拡大してください。

しかし、このシステムはCPUとGPUを同じマザーボードに詰め込んだだけではありません。DGXステーションのミニクラスターを構築したい場合に備えて、800GbpsのConnectX-8 NICも搭載しています。NVIDIAによると、GB300デスクトップボードは、専用の金メッキボックスに加え、ASUS、BOXX、Dell、HP、Lambda、SupermicroなどのOEMからも今年後半に発売される予定です。

DGX Stationと並行して、NVIDIAはProject Digitsボックスの予約受付を開始しました。今年初めのCESで初めて発表された、現在DGX Sparkと呼ばれるこの3,000ドルのシステムは、GB10 Grace Blackwellシステムオンチップを搭載しています。パフォーマンス面では、最大1,000兆/秒のAIコンピューティングと128GBの統合システムメモリに加え、統合ConnectX-7ネットワークを誇​​ります。

Nvidia's pint sized Spark workstation promises 1,000 TOPS of AI performance 128GB of unified memory.

Nvidiaの小型Sparkワークステーションは、1,000TOPSのAI性能と128GBの統合メモリを約束します – クリックして拡大

L40SにRTX PROの後継機が登場

NVIDIAは本日、GPUテクノロジーカンファレンス(GTC)において、新型ワークステーションに加え、プロフェッショナル向けワークステーションおよびサーバーアプリケーション向けのPCIeベースGPUシリーズを発表しました。最上位モデルは、96GBのストレージ容量を誇るNVIDIA RTX PRO 6000シリーズのサーバーおよびワークステーション向けチップです。

これらのパーツは、Nvidia の老朽化した L40S および RTX 6000 Ada グラフィック カードを置き換えるように設計されており、それぞれ 3,753 teraFLOPS と 4,030 teraFLOPS で、2.5 倍から 2.7 倍の浮動小数点パフォーマンスを誇ります。

もちろん、これはすべてを物語るものではありません。RTX PRO 6000カードは新しいFP4データ型をサポートしていますが、Ada Lovelace GPUはサポートしていません。FP8パフォーマンスに正規化すると、サーバーカードでは約28%、ワークステーションカードでは約38%の向上にとどまり、それほど目覚ましい向上には至りません。

とはいえ、FP4のサポートは、NVIDIAのFLOPS(フロップス)性能を向上させるだけではありません。FP8やFP16ではパラメータあたり1~2バイトだったモデルサイズが、わずか4ビットにまで縮小されるというメリットもあります。つまり、企業はより大規模で高性能なモデルを、以前よりも少ないGPUに詰め込むことができるのです。

今日では、DeepSeek、OpenAI、Anthropic、Googleといった企業が開発した、6000億を超えるパラメータを持つ大規模なモデルが注目を集めることがよくあります。しかし、これらのモデルは、企業が導入を検討している検索拡張型生成やカスタマーサービスチャットボットといっ​​た用途には、大抵過剰な性能です。

このため、240億から700億のパラメータ範囲のモデルは、十分な処理能力があり、微調整も比較的容易である一方で、L40Sのような比較的小型のGPUに導入するには現実的ではないほど大規模であるため、非常に人気が高まっています。MetaのLlama 3.3 70B、Mistral-Small V3、AlibabaのQwQ、GoogleのGemma 3などは、エンタープライズ導入を目的とした中規模モデルのほんの一例です。

96 GB の容量を備えた Nvidia の RTX PRO 6000 シリーズ カードでは、以前は 1 枚のカードで 2 つの L40S を必要としたモデルを実行できるようになりました。また、4 ビット浮動小数点クォンタムを利用する場合は、その 2 倍のサイズのモデルも実行できます。

これらのカードは、前世代の 2 倍の容量を提供しているほか、サーバー部分とワークステーション部分でそれぞれ 1.6~1.8 TBps で、66~88% 高いメモリ帯域幅も提供しています。

Nvidia's new RTX Pro 6000 accelerators will be offered in passively cooled server and actively cooled workstation designs.

Nvidiaの新しいRTX Pro 6000アクセラレーターは、パッシブ冷却サーバーとアクティブ冷却ワークステーション設計で提供される予定だ – クリックして拡大

サーバーカードとワークステーションカードでこれほど大きな差があるのはなぜかと疑問に思う方もいるかもしれませんが、両者の主な違いは冷却システムにあると説明されています。ワークステーションカードには、RTX 5090に搭載されているものを彷彿とさせる大型のアクティブクーラーが搭載されているのに対し、サーバーカードにはより従来型のパッシブヒートシンクが搭載されています。

  • AIバブル?何のAIバブル?データセンター投資家はバブル崩壊のささやきにもかかわらず、総投資している
  • AIトレーニングレースではNVIDIAが勝利したが、推論は依然として誰の手に委ねられているか
  • オラクルはまだスターゲイト契約を締結しておらず、AIメガビルドからの収益も予測していない
  • CoreWeaveはIPO申請でAIの波に乗るが、その運命はマイクロソフトにかかっている

熱対策について言えば、この浮動小数点演算性能とメモリ容量の向上は、消費電力の増加を伴います。NVIDIAによると、このワークステーションカードの消費電力は最大600Wと、前身となるRTX 6000 Adaの2倍に相当します。

良いニュースとしては、より省電力のものを探している場合、Nvidia はハイエンドのモバイル ワークステーションを対象とした RTX PRO 6000 の Max-Q バリアントも提供するということです。

モバイル GPU は同じ 1.8 TBps のメモリ帯域幅を約束していますが、最大 24 GB で、FP4 パフォーマンスは 3.75 petaFLOPS しか実現できません。

RTX PRO 6000 Blackwell Workstation Edition は 4 月に発売され、サーバー バージョンは 5 月に、モバイル バージョンは 6 月に発売される予定です。

Nvidia はまた、今夏後半からワークステーションおよびモバイル セグメント全体で RTX PRO 5000、4500、4000 をリリースする予定です。®

Discover More