分析過去数年間にわたってデータセンターで地位を再確立した AMD は、エッジからクラウドまですべてをカバーするチップのポートフォリオを拡大し、AI コンピューティング分野で大手プレーヤーになることを目指しています。
GPU と CUDA プログラミング モデルによるこの分野での Nvidia の優位性、さらに Intel や他の企業からの競争の激化を考慮すると、これはかなり野心的な目標です。
しかし、先週開催されたAMDのFinancial Analyst Day 2022イベントで幹部らが明らかにしたように、この復活したチップ設計企業は、より広範なAI分野を追求するために適切なシリコンとソフトウェアが揃いつつあると考えている。
「私たちのビジョンは、クラウド、エッジ、エンドポイントに関わるトレーニングと推論にわたる幅広い技術ロードマップを提供することです。私たちはこれらすべての市場とすべての製品に関わっているからこそ、それを実現できるのです」とAMDのCEO、リサ・スー氏は冒頭の挨拶で述べた。
スー氏は、AMDがAI分野で追いつくには「多大な努力」が必要だと認めたが、この市場は同社にとって「最大の成長機会」となると述べた。
AI推論におけるCPUの初期の牽引力を拡大
先週のイベントで、AMDの幹部は、同社のEpycサーバーチップが推論アプリケーションに使用され、InstinctデータセンターGPUがAIモデルのトレーニングに導入されるなど、AIコンピューティング市場で初期の牽引力が見え始めていると述べた。
たとえば、AMDのEpyc事業責任者であるダン・マクナマラ氏によると、複数のクラウドサービスプロバイダーはすでに、AMDのZenDNNライブラリを介して同社のソフトウェア最適化を使用して、同社のEpyc CPUを使用した推奨エンジンに「非常に優れたパフォーマンスの向上」をもたらしているという。
Zen Deep Neural Network の略称である ZenDNN は、人気の TensorFlow および PyTorch フレームワークや ONNXRT と統合されており、第 2 世代および第 3 世代の Epyc チップでサポートされています。
「推論の大部分がCPUで行われていると言うことは本当に重要であり、今後もこの傾向が続くと予想しています」と氏は述べた。
近い将来、AMD はハードウェア レベルで CPU にさらに多くの AI 機能を導入することを検討しています。
これには、今年後半にリリースされるコードネーム Genoa の次世代 Epyc チップでニューラル ネットワーク処理を高速化するために導入される AVX-512 VNNI 命令が含まれます。
この機能は Genoa の Zen 4 アーキテクチャに実装されているため、VNNI は同社の Ryzen 7000 デスクトップ チップにも今年末までに搭載される予定です。
AMDは、今年初めに完了したFPGA設計企業ザイリンクスの490億ドルでの買収で得たAIエンジン技術を活用して、将来的にCPUのAI機能を拡張する計画だ。
これらのビルディングブロックは、AMDのポートフォリオ全体にわたる将来のチップに搭載される予定です。クリックして拡大してください。
AMD が新たに XDNA と名付けた「アダプティブ アーキテクチャ」ビルディング ブロックに属するこの AI エンジンは、今後同社のポートフォリオ全体にわたるいくつかの新製品に組み込まれる予定です。
このAIエンジンは、2018年にザイリンクスのVersalアダプティブチップに初めて搭載され、RyzenノートPCチップの将来2世代に統合される予定です。最初の世代はPhoenix Pointというコードネームで2023年に、2番目の世代はStrix Pointというコードネームで2024年に登場予定です。このAIエンジンは、将来世代のEpycサーバーチップにも搭載される予定ですが、AMDはその時期については明言していません。
AMDは2024年に、AIおよび機械学習ワークロード向けの新たな最適化を組み込んだ次世代Zen 5アーキテクチャを採用した最初のチップを発表する予定です。
「初のデータセンター APU」による AI トレーニングへの大きな野望
GPUに関しては、AMDは最新世代のInstinct GPUであるMI200シリーズによりAIトレーニング分野で一定の進歩を遂げており、近い将来、新しいシリコンとソフトウェアの改良によりさらに進歩することを期待しています。
たとえば、AMD は ROCm GPU コンピューティング ソフトウェアの最新バージョンで、PyTorch や TensorFlow などのフレームワークで実行されるトレーニングおよび推論ワークロード向けの最適化を追加しました。
AMDのGPU事業責任者であるDavid Wang氏によると、同社はRDNAアーキテクチャを採用した消費者向けRadeon GPUにもROCmのサポートを拡大したという。
「そして最後に、AIアプリケーションの開発と展開を容易にするために、事前に最適化されたモデルを備えたSDKを開発しています」と彼は語った。
ワン氏は、AMDはAI用途でのGPUの採用を促進するために、マイクロソフトやFacebookの親会社Metaなど「業界の主要リーダー企業との緊密なパートナーシップ」を築いてきたと述べた。
「ROCmをPyTorch向けに最適化し、社内AIワークロードだけでなく共同開発されたオープンソースベンチマークでも驚くほど非常に競争力のあるパフォーマンスを実現しました」と彼は語った。
今後、AMDは、Zen 4ベースのEpyc CPUと同社の新しいCDNA 3アーキテクチャを採用したGPUを組み合わせたチップで、同社が「世界初のデータセンターAPU」と呼ぶInstinct MI300によって、AIトレーニング分野でさらに競争力を高めたいと考えている。
AMDは、Instinct MI300が、現在市販されているInstinct MI250Xチップと比べてAIトレーニングパフォーマンスを8倍以上向上させると予想されると主張している。
「MI300 は実に素晴らしい部品であり、これが加速の未来の方向を指し示すものだと信じている」と AMD のデータセンター ソリューション ビジネス グループの責任者、フォレスト ノロッド氏は語った。
ザイリンクスを活用してエッジに拡張し、ソフトウェアを改善する
AMDは将来のCPUにザイリンクスの技術を採用する計画だが、今回の買収はAI分野におけるより幅広いビジネスチャンスの獲得と、ソフトウェア製品の強化にも役立つと、ザイリンクスは明言している。特にソフトウェア製品の強化は、AMDがNVIDIAなどの競合企業との競争力を強化する上で極めて重要だ。
これは、ザイリンクスの元 CEO で現在は AMD の Adaptive and Embedded グループの責任者を務め、ザイリンクスのポートフォリオにあるすべての FPGA ベース製品の開発を指揮している Victor Peng 氏によって発表されました。
今年初めに完了したザイリンクスの買収以前は、AMD の AI コンピューティング分野における展開は、主に Epyc および Instinct チップによるクラウド データセンター、Epyc および Ryzen Pro チップによる企業、そして Ryzen および Radeon チップによる家庭向けでした。
しかし、ザイリンクスのポートフォリオがAMD傘下になったことで、チップ設計者はAI市場においてより広範なカバレッジを獲得しました。これは、ザイリンクスのZynqアダプティブチップが、ヘルスケア・ライフサイエンス、交通、スマートリテール、スマートシティ、インテリジェントファクトリーなど、様々な業界で使用されているためです。一方、ザイリンクスのVersalアダプティブチップは、通信事業者によって使用されています。ザイリンクスはまた、クラウドデータセンターで使用されているAlveoアクセラレータとKintex FPGAも提供しています。
Xilinxの買収により、AMDの製品はAIコンピューティング分野の複数の業界をカバーするようになりました。クリックして拡大してください。
「実際、私たちはAIを使っている領域がかなり多く、主に推論ですが、繰り返しになりますが、高度なトレーニングはクラウドで行われています」とPeng氏は語った。
AMDは、ザイリンクス製品を自社のCPUおよびGPUポートフォリオと「非常に補完的」なものと見ています。そのため、同社は両社の製品を組み合わせることで、幅広いAIアプリケーションのニーズに対応したいと考えています。
- RyzenとEpyc CPUは、AIエンジンを搭載した将来のRyzen CPUも含め、トレーニングと推論のための小規模から中規模のモデルをカバーする。
- AIエンジンを搭載したEpyc CPU、Radeon GPU、Versalチップは、トレーニングと推論のための中規模から大規模のモデルをカバーします。
- Instinct GPUとザイリンクスのアダプティブチップは、トレーニングと推論のための非常に大規模なモデルをカバーします。
「当社の製品にAIをもっと統合し、次世代に移行すれば、モデル全体でカバーできる領域が格段に広がります」とペン氏は語った。
AMDは、CPU、GPU、アダプティブチップがAIスペクトラムの様々な領域をどのようにカバーしているかを次のように考えています。クリックして拡大します。
しかし、AMD が AI 用途のチップをより広く業界で採用したいのであれば、同社は開発者がこうしたさまざまなシリコン上でアプリケーションを簡単にプログラムできるようにする必要がある。
そのため、チップ設計者は、CPU、GPU、アダプティブチップ向けにこれまで個別に提供されていたソフトウェアスタックを1つのインターフェースに統合する計画で、これを「AMD Unified AI Stack」と呼んでいます。最初のバージョンでは、GPUプログラミング用のAMD ROCmソフトウェア、CPUソフトウェア、そしてXilinxのVitis AIソフトウェアを統合し、推論ワークロード向けの統合開発・展開ツールを提供します。
Peng 氏は、Unified AI Stack は AMD にとって継続的な開発作業になるだろうと述べ、同社では将来的にさらに多くのソフトウェア コンポーネントを統合する予定であり、たとえば開発者はどのチップ タイプに対しても 1 つの機械学習グラフ コンパイラーのみを使用すればよいことになる、と付け加えた。
「今や、同じ開発環境で、これらのターゲットアーキテクチャのいずれかにアクセスできます。そして次世代では、ミドルウェアをさらに統合していく予定です」と氏は述べた。
AMD は AI コンピューティングに関して非常に野心的な戦略を打ち出していますが、このような戦略が機能するには、開発者による多大な努力と適切な対応が必要になることは間違いありません。®