AIバブルであろうとなかろうと、NvidiaはGPU加速の未来にすべてを賭けている

Table of Contents

AIバブルであろうとなかろうと、NvidiaはGPU加速の未来にすべてを賭けている

コメント多くの人にとって、ChatGPT、Copilot、Midjourney、Gemini などのアプリは生成 AIです

しかし、Nvidia CEO の Jensen Huang 氏の GTC 基調講演から 1 つだけ注目すべき点があるとすれば、それは、ChatGPT は優れており、大規模言語モデル (LLM) に対する世界の目を開かせたが、それは GPU を販売するためのテクノロジの可能性の表面に触れたに過ぎない、ということだ。

マイクロサービス

Nvidia: チャットボットをいくつかつなげて作れるのに、なぜコードを書く必要があるのでしょうか?

続きを読む

注目を集めたのは主にNvidiaの新しいBlackwellチップだったが、Huang氏の2時間のプレゼンテーションの大部分は、オフィス、製造工場、倉庫、医療研究、ロボット工学など、AIのより具体的な応用分野に焦点が当てられていた。

理由は明白です。ChatGPTやその類似モデルを支えるモデルは、数千億から数兆のパラメータを持つ大規模なものです。その規模の大きさゆえに、学習には数万台のGPUを数週間にわたって稼働させる必要があることも珍しくありません。

  • NVIDIAがPC市場向けにArm CPUを開発中との報道を受け、インテル株が下落
  • インテルがファウンドリーサービス事業の強化を目指す中、ゲルシンガー氏がマスク氏を誘致
  • サムスン、NVIDIAに対抗する推論アクセラレータを準備、巨額の売却を実現
  • AIの台頭でメモリ価格が上昇する中、マイクロンは回復

これに加え、大企業がAIを業務に統合しようと躍起になっていることから、アクセラレータの需要が高まっています。大手クラウドプロバイダーやハイパースケーラーは、この目的のために数万、数十万ものGPUを購入し、その先頭に立っています。

はっきり言って、これらの取り組みはNVIDIAにとって非常に大きな利益をもたらし、同社の売上高は過去1年間で2倍以上に増加しました。現在、同社の時価総額は2兆ドルを超えています。

しかし、こうしたモデルを開発できる余裕のある企業の数は比較的少ない。さらに悪いことに、こうした取り組みの成果を商業化しようとする初期の試みの多くは、精彩を欠き、問題を抱え、その価値について概して説得力に欠けていることが判明している。

最近の報告によると、Microsoft の Copilot サービスのテスターは、多くの人がこのサービスを便利だと感じているにもかかわらず、月額 30 ドルという価格を正当化するのに苦労していることがわかりました。

現在、チャットボットやテキスト画像生成ツールといったLLM(法学修士)がGPUの市場を牽引していますが、NVIDIAが全ての事業を一つの事業に集中させているわけではないことは明らかです。そして、いつものように、他社が自社のハードウェア市場を開拓してくれるのを待つつもりもありません。

コード?私たちが向かう場所にはコードは必要ありません

これが最初に実現すると思われる場所の 1 つは、数十億ドルの研究開発予算を持たない中小企業が AI を活用したアプリをより簡単に構築できるようにすることです。

今週初めにこれについてより詳しく検討しましたが、そのアイデアは、1 つの大きなモデルをトレーニングして多数のタスクを実行するのではなく、これらの AI アプリが、作業のさまざまな側面を担当する複数の事前トレーニング済みまたは微調整済みのモデルを備えた組立ラインのように機能するというものです。

このようなアプリを使えば、売上データを自動的に取得し、分析し、結果を整理されたレポートにまとめることができるでしょう。モデルがデータポイントを誤認しないことを信頼できると仮定すれば、このアプローチは少なくとも理論上はAIアプリ構築のハードルを下げるはずです。

Nvidia は NIM を使用してこれを実現しています。NIM は基本的に、特定のインフラストラクチャに合わせて最適化されたコンテナ化されたモデルです。

NVIDIAにとってさらに重要なのは、AIコンテナランタイムが同社のAIエンタープライズスイートの一部であることです。このスイートは、GPU1台あたり年間4,500ドル、またはクラウドでは1GPUあたり1時間あたり1ドルかかります。つまり、NVIDIAがユーザーにGPUの追加購入を促せなかったとしても、既に所有またはレンタルしているGPUから年間収益を得ることができるということです。

ウェアハウスタイクーン2

多数の LLM を連結してレポートを生成するのは素晴らしいことですが、Huang 氏は AI が現実世界にも応用できると確信しています。

彼はここ数年、DGX および OVX システムを使用して工場の現場、倉庫、出荷業務のフォトリアリスティックなデジタル ツインを生成するというアイデアを推進しており、この春の GTC でもそれは変わりません。

Huang 氏によると、これらのデジタル ツインは、運用上の変更が現実世界に実装される前にそれが成果をもたらすかどうかをシミュレートしたり、建設が始まる前に設計上の欠陥を特定したりするのに役立ちます。

黄氏の基調講演にはデジタル シミュレーションが随所に盛り込まれており、彼がかつて RollerCoaster Tycoon や SimCity の大ファンであり、すべてに同じことをしたらどうなるだろうと考えていたに違いないと私たちは考えています。

しかし、どうやらこれらの仮想世界は、効率性の向上と運用コストの削減に非常に役立つようです。NVIDIAは、DGXサーバーを製造しているWistron社が、デジタルツインを用いて工場のフロアレイアウトをテスト・最適化することで、作業効率を51%向上させ、サイクルタイムを50%短縮し、不良率を40%抑制できたと主張しています。

これらのデジタル ツインは、顧客がコストのかかるミスを回避するのに役立つ可能性がありますが、OVX システムで使用されるアクセラレータが AI 中心の DGX システムのアクセラレータとは異なるため、Nvidia にとってはさらに多くの GPU を販売するための口実にもなります。

私はGR00Tです

どうやら、これらのデジタル ツインは、工場や倉庫のフロアでロボットがより自立して動作できるようにトレーニングするのにも役立つようです。

NVIDIAはここ数年、ロボット工学をターゲットとした様々なハードウェアおよびソフトウェア・プラットフォームを開発してきました。GTC24において、Huang氏はJetson Thorと呼ばれる新しいハードウェア・プラットフォームと、General Robotics 00 Technology(略称GR00T)と呼ばれる基盤モデルを発表しました。これらはヒューマノイドロボットの開発を加速させることを目指しています。

「ある意味、人間型ロボットの方が簡単かもしれません。なぜなら、人間はロボットと非常に似た構造をしているため、ロボットに提供できる模倣訓練データがはるかに豊富だからです」と彼は説明した。

NVIDIAがこれらのロボットを訓練する計画は、映画『マトリックス』でネオがカンフーを学んだ方法に少し似ているように思われます。GR00Tは、ライブ映像とシミュレーション映像、そしてその他の人間の画像で構成されるデータセットを用いて訓練されます。その後、このモデルはNVIDIAが「Isaac Reinforcement Learning Gym」と呼ぶ仮想環境でさらに改良されます。この環境では、GR00Tを実行するシミュレーションロボットが、現実世界とのインタラクションを学習することができます。

この改良されたモデルは、Nvidia の Jetson Thor コンピューティング プラットフォームをベースにしたロボットに展開できます。

より大きな問題にはより大きなモデルを

Nvidia の AI 戦略は LLM のトレーニングに限定されませんが、Huang 氏は、最終的にはより大規模で高性能なモデルが必要になると考えています。

「さらに大規模なモデルが必要です。インターネット上のテキストだけでなく、マルチモーダルデータを使って学習させます。テキスト、画像、グラフ、チャートなどです」と彼は述べた。「テレビを見て学習するのと同じように、大量のビデオを見ることで、これらのモデルが物理学に基づいて理解し、腕が壁を通り抜けられないことを理解できるようになるでしょう。」

しかし、世界最大のAIインフラサプライヤーのCEOなら当然そう言うだろう。NVIDIAはこのAIゴールドラッシュでシャベルを売っているのだ。そして、イーサリアムとの統合後に起きた仮想通貨暴落のように、NVIDIAはいつものように次の大きなチャンスを見据えているのだ。®

Discover More