インテル、AMD、NVIDIAがComputexで発表したデータセンターロードマップの最新情報

Table of Contents

インテル、AMD、NVIDIAがComputexで発表したデータセンターロードマップの最新情報

Computex今週台北で開催された毎年恒例の Computex カンファレンスで、Intel、AMD、Nvidia は最新のデータセンターと AI キットを披露し、それぞれのロードマップの今後の予定を垣間見せてくれました。

最も驚くべきアップデートの一つは、NVIDIAからのものでした。昨年、このGPU開発会社が年間リリースサイクルに対応するために開発サイクルを加速させていることが分かりました。台北で行われたステージ上で、NVIDIAのCEOであるジェンスン・フアン氏は、次世代GPUとシステムアーキテクチャの名称「Rubin」をはじめ、同社の計画についてこれまでで最も詳細な情報を提供しました。

Nvidia's roadmap now extends to 2027 and includes an all new Rubin GPU and Vera CPU coming in 2026

Nvidia のロードマップは 2027 年まで延長され、2026 年にはまったく新しい Rubin GPU と Vera CPU が登場する予定です... クリックして拡大

H100、GB200 Superchip、あるいはその兄弟機種であるBlackwell Ultraなど、チップ自体の仕様や機能に目が行きがちですが、これらのコンポーネントは店頭で簡単に入手できる独立した部品ではないことを覚えておくことが重要です。Nvidiaの最高級アクセラレータはPCIeカードではなく、プラットフォームそのものなのです。

B100やB200は、単体で購入することはできません。NvidiaのDGXまたはHGXプラットフォームの一部として、8個入りのパックで提供されます。そのため、Nvidiaのロードマップには、CPUとGPUだけでなく、大規模な導入をサポートするために必要なシステムとクラスターネットワークも含まれています。

Nvidiaのロードマップを詳しく見てみると、それほど驚くようなことはありません。Nvidiaは3月のGTCで、2024年に登場するすべての製品を発表しました。Blackwellシリーズで新たに発表されたのは、2025年に発売予定のUltra GPUとSpectrum Ultra Ethernetスイッチです。現時点では、このBlackwell Ultraについては、(私たちの理解が正しければ)12インチHBM3eメモリを8スタック搭載するということ以外、ほとんど何も分かっていません。これにより、従来の製品と比べて帯域幅と容量が大幅に向上するはずです。

Nvidia の GPU アーキテクチャの次の進化は、HBM4 メモリを使用すると思われる Rubin のデビューにより 2026 年まで実現しません。また、2026 年には、Nvidia が Grace CPU アーキテクチャを廃止し、コード名 Vera という新しいアーキテクチャを採用する予定です。

NVIDIAは、新しいコンピューティングアーキテクチャに加え、1.6TbpsのInfiniBandおよびイーサネットスイッチ、そして対応するConnectX-9 SuperNICの展開を計画しています。一方、NVLink 6スイッチの帯域幅は、現在の1.8TBpsから3.6TBpsへと倍増します。

NVIDIAがComputex基調講演で披露したロードマップは、昨年投資家向けに発表したものよりも控えめな内容だったことに留意してください。昨年のロードマップでは、1.6Tbpsのネットワークを2025年にリリースする予定でした。当時お伝えしたように、この実現には少なからず課題がありました。中でも特に顕著だったのは、これほど高速なネットワークを支えるために必要なPCIe帯域幅が、当初の計画では間に合わないことでした。

しかし、NVIDIAのロードマップはこれで終わりではありません。2027年まで延長され、ご想像の通り、なんと12スタックのHBM4メモリを搭載するRubin Ultra GPUが登場する予定です。The Next Platformでは、RubinとNVIDIAの計画についてさらに詳しく報じています。

AMDがAIロードマップを加速

前述の通り、NVIDIAは毎年新しいGPUをリリースする予定です。12ヶ月ごとに新しいアーキテクチャをリリースする予定はありませんが、AMDはそれを試みるつもりです。

Computex の基調講演で、CEO の Lisa Su 氏は、AMD がライバルの Nvidia に追いつくために、リリース周期を年 1 回に移行することを明らかにしました。

At Computex, AMD revealed it was moving to a yearly release cadence for GPUs in a bid to catch up with Nvidia

Computexで、AMDはNvidiaに追いつくためにGPUのリリースサイクルを年1回に移行することを明らかにした...クリックして拡大

同社の CDNA 3 グラフィックス アーキテクチャに基づく Instinct MI300 シリーズ アクセラレータは昨年末に発売され、浮動小数点パフォーマンス、メモリ帯域幅、容量の点で Nvidia の H100 および H200 シリーズ アクセラレータに比べてかなり優位に立っています。

AMDは第4四半期にMI325Xを投入することで、このリードをさらに拡大しようとしています。MI325Xは、一見すると通常のMI300XのHBM3eブースト版ですが、容量が50%増加しています。このメモリ最適化アクセラレータに関する詳細な分析は、こちらをご覧ください。

しかし、AMDのCDNA 3アーキテクチャが置き換えられるまでにはそう時間はかからないでしょう。AMDは、2025年にCDNA 4コンピューティングアーキテクチャを発表し、より高性能なInstinctアクセラレータを市場に投入する予定です。

近々登場するCDNA 4 Instinct MI350アクセラレータについてはまだ不明な点が多いものの、AMDはCDNA 4ベースのチップは288GBのHBM3eを搭載し、3nmプロセスノードに移行すると発表しました。このアーキテクチャでは、低精度の4ビットおよび6ビット浮動小数点データ型のサポートも追加され、NVIDIAのBlackwellと同等の性能となります。

AMDの幹部によると、同社の「CNDA next」アーキテクチャは1年後に登場し、「大幅なアーキテクチャのアップグレード」をもたらすとのことだ。しかし、それ以上の詳細は明らかにされていない。

AMDは、より積極的なGPUロードマップに加え、コードネーム「Turin」と呼ばれる第5世代Epyc CPUファミリーも発表しました。今年後半に発売予定のこのサーバー用プロセッサは、最大192コアを搭載するとAMDは謳っています。これは、第4世代Genoaシリーズの2倍、クラウド向けに最適化されたBergamo SKUの50%増に相当します。

An image showing AMD's roadmap for its Zen architecture through 2024.

AMDの最新のZenアーキテクチャロードマップ...クリックして拡大

AMD が 128 コアのパーツのパフォーマンス数値を示し始めたという事実に基づいて、私たちはあえて 192 コアのバリアントが Bergamo の後継機になるだろうと言うつもりです。

念のためお知らせしますが、これはAMDのEpycラインナップに関する最新のロードマップです。今年後半に予定されているTurinのリリースが近づくにつれて、第6世代パーツに関するより詳しい情報が得られると予想されます。

Intelは段階的にXeon 6を展開、Gaudi3は予定通り

CPU に関して言えば、今週の Computex で Intel は 144 e-core のデータセンター CPU を発表しました。これは、今後数四半期にわたって展開する予定の複数の Xeon 6 製品の最初のものです。

Intelは2023年初頭からSierra Forrest e-coreとGranite Rapids p-core Xeonを大々的に宣伝してきたが、実際にはこれらのパーツは2つのプラットフォームにまたがっている。より小型で低消費電力の6700シリーズ プラットフォームと、より大型で500Wの6900シリーズ プラットフォームだ。

The two platforms will roll out over the next few quarters.

インテルの2つのプラットフォームは、今後数四半期にわたって展開される予定です...クリックして拡大

これらの最初のプロセッサは、64 ~ 144 個の低消費電力の効率的なコアを搭載し、I/O 機能とコンピューティングを分離する異種ダイ アーキテクチャを採用し、社内の Intel 3 プロセス テクノロジを採用した初のプロセッサである Intel Xeon 6 6700E プロセッサの形で Computex に登場しました。 

このチップに続いて第 3 四半期には、最大 128 個のパフォーマンス コアを搭載し、MCR DIMM を使用してメモリと PCIe 容量を最大 8,800 MT/s で 12 チャネル、PCIe 5.0 を 96 レーンまで増強する Intel Xeon 6 6900P プロセッサ シリーズが登場します。

最後に、Intel のラインナップに残る Xeon 6 プロセッサは、2025 年第 1 四半期にリリースされる予定です。これらのチップには、Intel の 4 ソケットおよび 8 ソケットの p-core パーツと、昨年 9 月の Intel Innovation で初めて宣伝されたモンスター 288 e-core 6900E SKU が含まれます。

また、グラフには示されていないが、Intel はすでに Clearwater Forest というコードネームで呼ばれる次世代 e-core Xeon に取り組んでおり、これは待望の 18A プロセス技術に基づく最初の製品の 1 つとなる予定だ。

Intel の Xeon 6 プロセッサについて私たちが知っているすべての詳細については、こちらをご覧ください。

Intelはまた、4月のVisionで発表された最新のAIアクセラレータについても詳しく説明しました。ゲルシンガー氏はステージ上で、Gaudi3チップを8個搭載したベースボードの価格が12万5000ドルになると発表しました。ゲルシンガー氏のComputex基調講演に関する記事はこちらでご覧いただけます。

ご参考までに、Gaudi3はすでにIntelのパートナー企業にサンプル出荷されており、空冷モデルは第3四半期、液冷モデルは第4四半期に量産開始予定です。ただし、Intelの主力AIアクセラレーターであるGaudi3は、同種の製品としては最後の製品となることも注目に値します。

Intel has already started sampling Gaudi 3 accelerators to OEM/ODM customers with the chip expected to ramp beginning in Q3.

IntelはすでにOEM/ODM顧客向けにGaudi 3アクセラレータのサンプル提供を開始しており、同チップは第3四半期から出荷開始予定となっている。クリックして拡大

後継機となるコードネーム「Falcon Shores」は来年発売予定です。覚えていない方もいるかもしれませんが、Falcon Shoresの開発はまさにジェットコースターのような道のりでした。このチップは当初、APU、あるいはIntelの呼び方ではXPUとして構想されていました。AMDのMI300Aのように、CPUとGPUを単一パッケージに統合するチップです。

しかし、これらの計画は廃止され、Falcon Shores は Intel の Xe グラフィックス テクノロジと Intel Habana チームの AI 化学を組み合わせた GPU として作り直されました。®

追伸:ああ、これはComputexで大勢のファンに囲まれながら、NvidiaのCEOが女性用トップスにサインをしているところです。そう!

Discover More