SiFive RISC-VコアがGoogle AIコンピューティングノードに採用

Table of Contents

SiFive RISC-VコアがGoogle AIコンピューティングノードに採用

RISC-Vチップ企業のSiFiveは、同社のプロセッサがGoogleデータセンターでAIワークロードの管理にある程度使用されていると述べている。

SiFiveによると、問題のプロセッサは同社のIntelligence X280で、ベクトル拡張を備えたマルチコアRISC-V設計であり、データセンターにおけるAI/MLアプリケーション向けに最適化されています。GoogleのTensor Processing Unit(TPU)から派生した行列乗算ユニット(MXU)と組み合わせることで、機械学習ワークロードのプログラミングにおける柔軟性が向上するとされています。

基本的に、X280プロセッサに搭載された汎用RV64コアは、デバイスを管理するコードを実行し、ジョブを完了するために必要に応じて機械学習計算をGoogleのMXUに送ります。X280には、アクセラレータユニットでは処理できない演算を処理できる独自のベクトル演算ユニットも搭載されています。

SiFiveとGoogleは、おそらく商業的な理由から、このチップの具体的なパッケージング方法と使用方法についてはやや控えめな説明をしていましたが、GoogleはカスタムアクセラレーションユニットをマルチコアX280システムオンチップに搭載し、Google設計のMXUブロックをRISC-Vコアコンプレックスに直接接続しているように思われます。これらのチップは、SiFiveによるとGoogleのデータセンターの「AIコンピューティングホスト」で機械学習の作業を高速化するために使用されています。

これらが本番環境で使用される場合、これらのチップはサービス内のタスクを処理すると考えられます。なお、このハードウェアはGoogle Cloudから直接レンタルすることはできません。Google Cloudは、従来のx86、Arm、TPU、GPUテクノロジーを搭載したAIに最適化された仮想マシンを提供しています。

詳細は、今月初めにシリコンバレーで開催された AI ハードウェア サミット、SiFive の共同設立者兼チーフ アーキテクトの Krste Asanović 氏と Google TPU アーキテクトの Cliff Young 氏による講演、および今週の SiFive ブログ投稿で明らかにされました。

最新のインテル Core プロセッサーを握る手袋をしたエンジニアの手

インテルがRISC-Vの採用を促進するために約束した「多大な貢献」

続きを読む

SiFive によれば、X280 の導入後、一部の顧客が、アクセラレータが実行するように設計されていないすべてのハウスキーピングおよび汎用処理タスクを処理するために、X280 をアクセラレータと並行してコンパニオン コアとして使用し始めたことに気付いたという。

チップ業界によると、アクセラレータを管理するにはフル機能のソフトウェアスタックが必要であることが多くの顧客から認識され、顧客は、大型アクセラレータの横にX280コアコンプレックスを配置することでこの問題を解決できることに気付きました。RISC-V CPUコアがすべてのメンテナンスおよび運用コードを処理し、大型アクセラレータでは実行できない演算処理を実行し、その他さまざまな機能を提供します。本質的に、X280はアクセラレータの一種の管理ノードとして機能します。

これを活用するため、SiFive は Google などの顧客と連携し、Vector Coprocessor Interface eXtension (VCIX) と呼ばれるものを開発しました。これにより、顧客はアクセラレータを X280 のベクトル レジスタ ファイルに直接緊密にリンクし、パフォーマンスとデータ帯域幅を向上させることができます。

アサノビッチ氏によると、その利点は、顧客が独自のコプロセッサをRISC-Vエコシステムに導入し、汎用CPUコアとアクセラレーションユニットを組み合わせたチップ上で、完全な仮想メモリとキャッシュコヒーレントサポートを備えたLinuxを起動する機能を備えた完全なソフトウェアスタックとプログラミング環境を実行できることです。

ヤング氏によると、Google の視点から見ると、同社は TPU テクノロジ ファミリの改善に注力したいと考えており、独自のアプリケーション プロセッサをゼロから構築する時間を無駄にしたくなかったため、これらの加速機能を既成の汎用プロセッサと組み合わせるのが正しい方法であるように思われたという。

VCIXは、MXUをRISC-Vコアに低レイテンシで接続することで、メモリ、キャッシュ、PCIe経由でCPUとアクセラレーションユニット間でデータをやり取りするために多くのサイクルを費やす必要がなくなります。その代わりに、ベクターレジスタアクセスによる数十サイクルで済むとのことです。これは、RISC-V CPUコンプレックスとカスタムアクセラレータなど、すべてが同じダイ上にシステムオンチップとしてパッケージ化されていることを示唆しています。

  • SiFive RISC-V CPUコアがNASAの次期宇宙飛行用コンピュータに搭載
  • Arm幹部:「RISC-Vは尊重するが、データセンターのライバルではない」
  • SiFive、RISC-VでArmにさらなる挑戦へ1億7500万ドルを調達
  • GoogleがオープンソースのRISC-V OpenTitanチップを発表

アプリケーションコードは汎用RISC-Vコア上で実行され、MXUで高速化できる処理はすべてVCIX経由で渡されます。Young氏によると、このアプローチには効率性以外にも利点があります。プログラミングモデルが簡素化され、スカラー命令、ベクター命令、コプロセッサ命令がインターリーブされた単一のプログラムが実現され、開発者は好みに応じてC/C++またはアセンブラでコーディングできる単一のソフトウェアツールチェーンが実現します。

「Google MXU とハイブリッド化された SiFive VCIX ベースの汎用コアを使用すると、MXU のすべてのパフォーマンスと一般的な CPU のプログラマビリティ、および X280 プロセッサのベクトル パフォーマンスを最大限に活用して、両方の利点を兼ね備えたマシンを構築できます」と Young 氏は述べています。

このようなカスタム チップを作成する能力は、Google などのハイパースケーラー、またはニッチな要件と潤沢な資金を持つ企業の領域のままになる可能性がありますが、オープン エコシステムの RISC-V モデルの柔軟性により何が達成できるかを示しています。

この柔軟性とオープン性は、RISC-V の長年の支持者であり、他の製品の一部に RV コアを使用している Google を、カスタム コプロセッサを x86 チップや Arm ライセンスの設計に押し込むのではなく、新興のアーキテクチャを使用するように誘うのに十分であると思われます。®

PS: Google がデータセンターで POWER CPU アーキテクチャの使用を検討していたことを覚えていますか?

Discover More