GTC Nvidia は、同社をより広範な市場へと導いたコンシューマー向け GPU ビジネスを主に重視する姿勢から転換を続け、今週開催される GPU テクノロジー カンファレンスで、新たなエンタープライズ ビジネスの機会に焦点を当てています。
メイン基調講演で、Nvidia CEO の Jensen Huang 氏は、Hopper GPU、Grace CPU、再設計されたネットワーク スタック、ソフトウェア ツールなど、さまざまなハードウェア デバイスとソフトウェア プラットフォームを使用して、Omniverse での創作物を統括する壮大な計画を発表しました。これは、Second Life への別の試みというよりも、仮想現実での設計とテストに重点を置いています。
黄氏は、NVIDIA が自社の技術を通じて人工知能、スーパーコンピューティング、ヘルスケア、自動車、ソフトウェアに投資する多角経営企業としての役割を強調した。
「過去10年間で、NVIDIAのコンピューティングはAIの速度を100万倍に向上させ、現代のAI革命の幕開けとなりました。これからはAIがあらゆる産業に革命を起こすでしょう」と、彼はカンファレンスの開会の辞で述べた。
CEOのジェンセン氏が今後の計画を発表… 出典:Nvidia。クリックして拡大
Nvidiaにとって、今年は決して軽視できない年だった。Arm買収計画は失敗に終わり、悪意のある人物がNvidiaのネットワークに侵入し、GPUでの暗号通貨マイニングの制限などを理由に内部ファイルを盗み出し、漏洩した。
しかし、新しいエンタープライズGPUと野心的なArmベースプロセッサは、Huang氏の特徴である長時間にわたる基調講演の目玉であり、いつものように発表とデモンストレーションが満載でした。以下に発表内容をまとめます。
新しいグラフィックスとCPUプロセッサ
データセンターをターゲットとするHopperアーキテクチャは、プロフェッショナル向けとコンシューマー向けの両GPU市場で使用されていたAmpereアーキテクチャの後継となります。H100 GPUは、Hopperをベースにした最初のシリコンです。AI、スーパーコンピューティング、メタバースなどの3Dユニバースを含むアプリケーションを対象としています。H100は800億トランジスタのチップで、TSMCの4nmプロセスで製造されます。
黄氏は、Hopper H100 は Nvidia の A100 に比べてトレーニング パフォーマンスが 9 倍向上し、大規模言語モデルの推論スループットが 30 倍向上すると述べました。
H100は、40テラビット/秒のI/O帯域幅を備えた、初のPCIe Gen-5および高帯域幅メモリ3(HBM3)GPUであるとHuang氏は述べた。
「H100を20基搭載すれば、全世界のインターネットトラフィックに相当する処理能力を維持できます」とフアン氏は主張した。このGPUには、トランスフォーマー向けのAIエンジンが搭載されており、トレーニング時間を数週間から数日に短縮できる。また、動的プログラミング用のDPXと呼ばれる新しい命令セットも搭載されており、タンパク質の折り畳みといった複雑なアルゴリズムを最大40倍高速化するとのことだ。
黄氏はまた、同社初の高性能コンピューティング向けデータセンターアプリケーションプロセッサであるGrace CPUスーパーチップも発表しました。Graceは、NVIDIAの新しいチップ間相互接続技術NVLinkを介して同一ユニット内で相互接続された2つのArmベースプロセッサで構成される144個のCPUコアコンポーネントで、1TBのLPDDR5xメモリをサポートします。
Grace の SPEC 2017 ベンチマーク レートは 740 と推定されるが、これは「現在出荷されているものには遠く及ばない」と Huang 氏は主張した。
「驚くべきことに、1TBのメモリを含むモジュール全体の消費電力はわずか500ワットです。Graceスーパーチップは、当時の最高峰CPUの2倍のエネルギー効率と最高のパフォーマンスを実現すると期待しています」と彼は付け加えた。
Graceスーパーチップは、先に発表されたGrace Hopperスーパーチップを補完するものです。Grace Hopperスーパーチップは、NVLink経由で接続された単一のユニットにGrace CPUプロセッサ1基とHopper GPU 1基を搭載しています。このチップは、大規模なAIおよびHPCアプリケーション向けに設計されています。
新しい GPU および CPU チップは、ハードウェアとソフトウェアを通じて AI に重点を置いたコンピューターとメタバースのグラフィカルな配管を作成するという同社の取り組みの主要な要素です。
フアン氏は、Hopper GPUやその他の自社製ハードウェア上に構築される「AI工場」という構想を提唱しました。これは、企業がこれらの装置を用いて、サイロ化されたデータから機械学習モデルを構築できることを意味するようです。これらのモデルは、特に企業がコンピューティング能力を拡大する際に、従業員や経営陣がより良いビジネス上の意思決定を行い、コスト削減を実現するのに役立つことが期待されています。
「音声、会話、顧客サービス、レコメンデーションといったAIアプリケーションは、データセンター設計に根本的な変化をもたらしています。AIデータセンターは、膨大な量の継続的なデータを処理してAIモデルのトレーニングと改良を行います。生データが入力され、改良され、インテリジェンスが出力されます」とHuang氏は述べています。
NVIDIAのCEOは、GraceとHopperに搭載される新しいNVLinkインターコネクトについても詳細を説明した。この技術は、CPU、GPU、DPU、SoCなど、将来のNVIDIA製チップを接続するために使用される。同社はまた、この技術を用いてカスタムチップを開発したいパートナーにもNVLinkを開放する予定だ。
NVは、H100 GPUを搭載した新しいスーパーコンピュータ、DGX H100も発表しました。DGX H100は、H100 GPUを8基搭載し、FP8精度で32ペタフロップスのAI性能、640GBのHBM3メモリ、24テラバイト/秒のメモリ帯域幅を備えています。また、DGX PodとDGX SuperPODも発表しました。
NvidiaのDGX H100に関するスライド
GTCはスーパーコンピューティング業界の期待を裏切ることは滅多にありません。NVIDIAは、EOSと呼ばれる新ハードウェアをベースにした新しいスーパーコンピュータを発表しました。フアン氏はこれをNVIDIAの「初のホッパーAIファクトリー」と呼びました。このシステムは、FP64(ほとんどのHPCアプリケーションで使用されている倍精度)で275ペタフロップス、AIではFP8で18.4エクサフロップス、FP16で9エフロップスのパフォーマンスを実現します。このスーパーコンピュータは数ヶ月以内に稼働開始し、主要OEMを含む顧客にとってH100ハードウェアのショーケースとなるとフアン氏は述べています。
オムニバース
基調講演の大部分は、同社の並列3D宇宙構築プラットフォームであるOmniverseに焦点が当てられました。NVIDIAのGPU、ソフトウェアスタック、そしてグラフィカルドリブンインターフェース向けAIモデルのほとんどがOmniverseに統合されており、これは同社の3D版インターネットを提供するプラットフォームです。
メタバースのような未来に向けて全速力で取り組むNvidiaの姿勢は、このコンセプトが批評家によって空想的製品として既に退けられていることを踏まえ、慎重にアプローチしているライバルのIntel、Qualcomm、AMDとは対照的だ。
基調講演では、3D空間での仮想ロボットのテストや、Nvidiaが構築中のスーパーコンピュータ「Earth-2」を使用した地球規模の気候変動のシミュレーションなど、進行中のOmniverseの複数の取り組みが強調されました。
「科学者たちは、地域の気候変動を効果的にシミュレートするには、現在のスーパーコンピュータの10億倍の性能を持つスーパーコンピュータが必要だと予測しています。しかし、産業上の意思決定の影響と、緩和策および適応策の有効性を今予測することが不可欠です」と黄氏は述べた。
Earth-2は「世界初のAIデジタルツインスーパーコンピュータであり、手遅れになる前に新たなAIとコンピューティング技術を発明して、10億倍の進歩をもたらす」と黄氏は主張した。
これらのモデルから導き出される結論は、Nvidia の GPU 上で実行される人工知能モデルによって決定された確率に基づきます。
Omniverse では、複数のシステムがリアルタイムで直接相互作用しながら大規模なシミュレーションを実行する Nvidia OVX システムを発表しました。
OVXハードウェアは、スイッチファミリー、ConnectX-7 SmartNIC、BlueField-3データ処理ユニット、DOCAデータセンターインフラソフトウェアを含む、400Gbpsネットワークプラットフォーム「Spectrum-4」を基盤としています。Spectrum-4プラットフォームは1,000億個のトランジスタを搭載し、TSMCの4nmプロセスで製造されます。
NvidiaのConnectX-7 SmartNICの仕様とレンダリングのスライド
同社はまた、ハードウェアを購入する余裕はないがメタバース向けのものを作りたい人向けに、Omniverse Cloud も発表した。
ロボットと車
NVIDIAは、Drive Atlanシステムオンチップを搭載した車載コンピューター「Hyperion 9」を発表しました。これは、Orin SoCを搭載した現行のHyperion 8コンピューターの2倍の速度になるとのことです。最新チップを搭載したHyperion 9コンピューターは、2026年に出荷される予定です。
CEOによると、ハイペリオン9は14台のカメラ、9台のレーダー、3台のライダー、20台の超音波センサーを搭載でき、ハイペリオン8に比べて2倍のセンサーデータを処理できるという。
一方、Hyperion 8コンピューターは、2024年からメルセデス・ベンツの車両に、翌年にはジャガー・ランドローバーの車両にも搭載される予定です。NVIDIAは以前、Hyperion 8コンピューターを搭載した自動車が約1,000万台走行すると推定していました。
エヌビディアは、自動運転車のソフトウェアアップデートと、車両のライフサイクル全体にわたるハードウェアアップグレードから収益を得ることを期待しています。Driveコンピューターの他の顧客には、EVメーカーのBYDやLucid Motorsなどが挙げられます。
エヌビディア社によると、同社の自動車関連事業のパイプラインは今後6年間で110億ドル以上に増加する見込みだ。
同社はまた、自動運転システム向けに地球規模のデジタルツインを構築しており、実験的なアルゴリズムと設計を用いて検証し、車両への導入前にソフトウェアをテストする。このシステムは、世界の正確な3D表現を作成するマルチモーダルマップエンジンを使用している。このマップはOmniverseに読み込まれ、物体、道路の交差点、歩行者を識別する自動運転シミュレーションが可能になる。
目標は、仮想シミュレーションを通じて自動運転AIモデルの精度を向上させることです。「それぞれの動的オブジェクトをアニメーション化したり、AI行動モデルを割り当てたりすることができます」とHuang氏は述べています。
彼はまた、NVIDIAがソフトウェア開発キットを含むプラットフォーム「Clara Holoscan」を通じて、医療分野におけるAIの活用を加速させていることについても言及しました。すでに一部の顧客に提供されているHoloscan開発プラットフォームは、5月に一般提供が開始されます。Holoscanの「医療グレード対応」は、2023年第1四半期に実現する予定です。
ロボット分野では、Huang氏は自律移動ロボットの開発に必要なコンピューティングとセンサー機能を提供するハードウェア/ソフトウェア・プラットフォーム「Isaac Nova Orin」を発表しました。このプラットフォームは、Jetson AGX Orin開発ボードをベースとしています。Isaacは移動ロボットに特化しており、Metropolisと呼ばれる別のロボット製品は、移動物体を追跡する固定型マシンの開発をターゲットとしています。
黄氏によると、Nova自律移動ロボットプラットフォームは第2四半期に提供開始予定だ。カメラ2台、LIDAR2台、超音波センサー8台、魚眼カメラ4台を搭載。NVIDIAはすでに、Isaac SIMソフトウェアスタックを介して仮想環境でのロボットトレーニングシミュレーションを実施できる。
ソフトウェアスタック
エヌビディアは、自社の最高峰チップに充実したソフトウェアを投入することで、将来的にさらなる収益の創出を目指している。基調講演でフアン氏は、同社のソフトウェア関連事業の一部を紹介した。これには、60ものソフトウェア開発キット(SDK)とフレームワークのアップデートが含まれる。
世界中で 25,000 社が利用している Nvidia の AI プラットフォームは、Triton Inference Server を含むアップデートを取得中です。Jensen 氏はこれを「AI 展開トレーニングのグランド セントラル ステーションであり、あらゆる世代の Nvidia GPU、x86、Arm CPU にモデルを展開します」と呼んでいます。
Nvidia の AI バックエンドには、特殊なフレームワークと事前トレーニング済みのモデルである Riva、Maxine、Nemo、Merlin ライブラリが含まれます。
同社は、7つの言語での音声認識と、男性と女性の声に対応したニューラルテキスト読み上げモデルを備えたRiva 2.0の一般提供を発表した。Riva 2.0は、同社のTaoツールキットに合わせて調整することができ、学習した機能を既存のニューラルネットワークから新しいネットワークに転送することができる。
同社はまた、大規模ディープラーニングレコメンデーションシステム構築フレームワーク「Merlin」のバージョン1.0のリリースを発表しました。また、エンジニアがAIソリューションを共同で構築するためのAI Acceleratedプログラムも発表しました。
Nvidia は、大規模言語モデルのトレーニング用の NeMo Megatron フレームワークと、通信を含む市場でオーディオとビデオの品質を向上させる Maxine フレームワークもアップデートしています。
黄氏はまた、GPUを介した量子コンピューティングのシミュレーションにDGX上のCuQuantumを活用することを強く推奨しました。さらに、6Gネットワーク開発のための新たなAIフレームワークも発表しました。®