GTC Nvidia は、顧客が既に運用しているサーバーを使用できない限り AI アクセラレーションを導入しないと考えたため、データ センターに適した小型の GPU を 2 つ作成しました。
新モデル(A10とA30)は、それぞれフルハイト・フルレングスPCIeスロットを1つと2つ必要とします。どちらも、NVIDIAが他のグラフィックプロセッサで採用しているAmpereアーキテクチャを採用しています。しかし、どちらも同社の他のGPUよりもかなり小型であり、これはNVIDIAがVMware vSphere専用にパッケージ化した最近リリースされたAI Enterpriseバンドルの文脈において重要です。
VMware がプライベート クラウドやハイブリッド クラウドに注目する前は、サーバー統合に全力を注いでいました。つまり、サーバーを特定のアプリケーションに密接に結合するのではなく、サーバー群をリソースの論理プールに変えることに重点を置いていました。
NVIDIAのエンタープライズコンピューティング部門責任者であるマヌヴィル・ダス氏は、The Register紙に対し、NVIDIAは実際には大型で高負荷のGPUは専用ハードウェアに搭載され、AIと専用サーバーを密に結び付けていることを理解していると語った。ダス氏とNVIDIAは、AIエンタープライズを既存のハードウェア、あるいは主に購入するハードウェア(1Uサーバーや2Uサーバー)で実行することを望んでいる。
そのため、一般的なサーバーに搭載するため、そしてオンプレミスのデータセンターが高密度化のプレッシャーにさらされていることを踏まえ、より小型のGPUが求められています。大手サーバーメーカーのほとんど(Dell、Lenovo、H3C、Inspur、QCT、Supermicro)はA10とA30を採用しており、NVIDIAはEGXコンテナ型MLプラットフォームがこの環境に最適であると断言しています。
A10 GPU。クリックして拡大
ダス氏は、新しいGPUにより、12,000ドルのサーバー価格に2,000ドルから3,000ドルが追加されると述べた。NVIDIAはA10のスペックを以下のように発表した。
- TDP: 150W
- FP32: 31.2テラフロップス
- BFLOAT16 Tensor コア: 125 テラFLOPS | 250 テラFLOPS*
- FP16 Tensor コア: 125 テラフロップス | 250 テラフロップス*
- INT8 テンソル コア: 250 TOPS | 500 TOPS*
- GPU帯域幅: 600GB/秒
- GPUメモリ: 24GB GDDR6
A30 の仕様は次のとおりです。
- TDP: 165W
- FP32: 10.3テラフロップス
- BFLOAT16 Tensor コア: 165 テラFLOPS | 330 テラFLOPS*
- FP16 Tensor コア: 165 テラフロップス | 330 テラフロップス*
- INT8 テンソルコア: 330 TOPS | 661 TOPS*
- GPU帯域幅: 933GB/秒
- GPUメモリ: 24GB HBM2 (オンダイ)
*スパース性あり
Nvidia は、A10 は今月から、A30 は今年後半に発売される予定だと述べた。世界的なシリコン不足が続く中、Nvidia の製品を見つけるのは困難な場合が多いことを心に留めておいてほしい。®
GTCのその他のニュース…本日、Nvidiaの2021 GPUテクノロジーカンファレンスが開幕し、A10とA30以外にも多くの発表が予定されています。ハイライトをいくつかご紹介します。
- Nvidiaは、Armベースのサーバーグレードプロセッサ「Grace」を設計しました。このプロセッサは、将来のArm Neoverse CPUコアを搭載し、スーパーコンピューターや大規模なAIワークロードを対象としています。
- 同社はまた、マシンのホストプロセッサから離れたハードウェアでソフトウェア定義のネットワーク、ストレージ、セキュリティ機能を高速化する、いわゆるスマート NIC 向けに設計された BlueField 3 DPU についても説明しました。