DeepSeekは企業がAI投資をより慎重に検討する必要があることを示唆している

Table of Contents

DeepSeekは企業がAI投資をより慎重に検討する必要があることを示唆している

分析中国の新興企業 DeepSeek による競争力のある AI モデルのリリースに続く衝撃波により、高価な大規模 GPU ベースのインフラストラクチャにさらに多くの資金を投入すれば最良の結果が得られるという仮定に疑問を抱く人が増えています。

The Registerが先に報じたように、AIブームに沸くアメリカの大手テクノロジーブランドの株価は、OpenAIやMetaのモデルよりも優れたパフォーマンスを発揮し、より少ないNvidia GPUでトレーニングできると言われているDeepSeek R1モデルのデビューを受けて急落した。

中国に拠点を置く同社は、DeepSeekのパフォーマンスは既存の最高のモデルと同等であり、トレーニング費用は600万ドル未満であると主張しているが、これも検証されていない。

この動きは、中国が限られた旧式ハードウェアの供給で大規模かつ複雑なモデルの構築競争に数十億ドルを投じることが、未来への道であるという前提に疑問を投げかけた。AI向けGPUアクセラレーターで記録的な利益を上げてきたNVIDIAは、時価総額が1日で約6,000億ドル下落した。

このヒステリーは、AI開発とそれを支えるインフラにさらなる投資が注ぎ込まれているにもかかわらず、今のところほとんど成果が見られないという不安が高まっていることに拍車をかけている。

しかし、当初のパニックは杞憂だったかもしれない。米国のハイテク株の急落はすぐに収まったからだ。専門家は、DeepSeekがトレーニングにAnthropicとOpenAIが開発した既存モデルの出力を使用している可能性があると指摘した。中国に拠点を置くDeepSeekは、自社のV3モデルの性能は既存の最高峰モデルと同等であり、クラウドでのトレーニング費用は600万ドル未満だと主張しているが、これも検証されていない。DeepSeekの最新推論モデルR1はV3をベースにしている。

V3の推定コストは、DeepSeekがモデルのトレーニングに費やしたNVIDIA H800 GPUの稼働時間数に、一般的なクラウドレンタル料金である1時間あたり2ドルを乗じた数値に基づいています(DeepSeekの論文5ページ参照)。実際には、DeepSeekは自社所有のGPU数千台を用いてモデルを構築し、数百万ドルを投じています。ある独立系分析によると、DeepSeekはAIハードウェアに16億ドルを費やしたとされています。さらに、研究開発費も考慮に入れる必要があります。

「DeepSeekのイノベーションに関する懸念は、かなり誇張されていると思う」と、OmdiaのデータセンターIT担当主席アナリスト、マノジ・スクマラン氏はThe Registerに語った。

「DeepSeekのモデルの事前トレーニングには、強化学習を中核トレーニング手法として利用すること、大規模なラベル付きデータセットへの依存からの脱却、モデルパラメータのスパースアクティベーション、作業するエキスパートモデルを選択するための適応ルーティングなど、独創的なイノベーションがいくつかあることは間違いありません」と氏は述べた。

しかし、これらのイノベーションは GenAI をより多くのユーザーが利用できるようにするために不可欠であり、むしろこのテクノロジーのユーザーによる採用を加速させるだろうとスクマラン氏は付け加えた。

これらすべてを支えるインフラに関しては、大規模な AI の構築が今後も続く可能性が高いとスクマラン氏は語る。

「AI推論市場はまだ発展途上であり、今後数年間で大きく成長するでしょう。Omdiaは、AI推論用サーバーの年間出荷数は2028年まで年平均成長率17%で増加すると予測しています」と彼は付け加えた。

Qwen 2.5 Max による自己生成画像 (自分自身を表す画像を生成できるとしたら、それは何でしょうか?)

OpenAIとその仲間たちが懸念している中国のLLMメーカーはDeepSeekだけではない。そうだろう、アリババ?

続きを読む

それでも、台湾を拠点とする調査会社TrendForceは、今後は組織がAIインフラ投資についてより厳密な評価を実施し、GPUなどのハードウェアへの依存を減らすために、より効率的なモデルの採用に重点を置くようになると予想している。

アナリストはまた、導入コストを下げるためにカスタム ASIC (特定用途向け集積回路) を使用するインフラストラクチャの導入が拡大し、GPU ベースの製品の需要が 2025 年以降「顕著な変化」を見せる可能性があると予測しています。

「歴史的に、AI業界は成長のためにモデルのスケーリング、データ量の増加、ハードウェア性能の向上に依存してきました。しかし、コストの高騰と効率性の課題により、戦略の転換が求められています」とTrendForceは述べています。「DeepSeekは、大規模モデルの圧縮、推論速度の向上、ハードウェアへの依存度の低減を実現するために、モデル蒸留技術を採用しました。」

  • マイクロソフトがDeepSeek R1をAzure AI FoundryとGitHubに導入
  • DeepSeekはテクノロジー業界全体に好奇心と疑念を巻き起こす
  • マイクロソフト、ディープシークへのAI業界からの反応を受け「大規模な資本投資」を主張
  • チャットログやAPIキーなどを公開したままデータベースを放置したのは誰だと思いますか?そう、DeepSeekです。

今週初め、IBM CEO のアルヴィンド・クリシュナ氏は、DeepSeek が自社の AI へのアプローチをある程度裏付けるものであったと述べた。

「大規模言語モデルの企業展開には、より小規模なモデルとより合理的な学習時間が不可欠になると、約1年前から強く主張してきました。私たち自身も1年以上、この取り組みに取り組んできました」と、クリシュナ氏は同社の最近の決算説明会で主張した。

これらのアプローチを用いることで、推論コストを最大30分の1に削減できます。他社も同様のアプローチを採用し始めており、これは当社のエンタープライズクライアントにとって非常に有益だと考えています。私たちは間違いなくこのアプローチをビジネスに活用しますが、他社も同様のアプローチを採用するだろうと確信しています。

ガートナーが発行したDeepSeekの影響に関するメモの中で、アナリストは、AIを構築するためにどれだけの計算能力を集められるかよりも、AIの効率的なスケーリングが将来的に重要になるだろうと述べた。

「DeepSeekで設計されたシステムは、モデル、フレームワーク、そして基盤となるインフラストラクチャを組み合わせることで、インフラストラクチャリソースをより効果的に活用します。これにより、コストを削減しながら効率性を高めることができます」と同社は述べています。

しかし、中国の AI は既存のモデルに匹敵するものの、それを上回ることはなく、モデルのパフォーマンスに関しては新たな最先端技術を確立するものではない、と述べている。

インフラストラクチャに関しては、ガートナーは「追加のコンピューティングとデータによるモデルのスケーリングが重要ではないという証拠ではないが、より効率的なモデルをスケーリングすると利益が得られるという証拠だ」と述べている。

結論として、DeepSeekがAIインフラの需要を急激に減少させることはないだろう。そのため、NVIDIAの投資家やデータセンターに資金を投入している人々は、少し安心できるかもしれない。また、一部の人が予想しているようなAIバブル崩壊の前兆でもない。

むしろ、物事は常に改善できるということ、そして問題にお金やリソースを投入するだけでは必ずしも最善の方法ではないということを思い出させてくれます。

「DeepSeekの優れた価格性能比は、AI業界、特に米国企業とそのベンチャーキャピタルの支援者にとって現実的な試金石となるでしょう」と、セキュリティ企業InvictiのCEO、ニール・ローズマン氏は述べています。「企業はAIに巨額の投資を行っていますが、現状の成果はこれらの投資を正当化するものではありません。成功は、真のニーズに応える効率的で集中的な開発から生まれるでしょう。」®

Discover More