Cloud Next Google は火曜日、ラスベガスで開催された Cloud Next イベントで、長らく噂されていた Arm データセンター プロセッサ「Axion」を公表した。
この検索大手は、2015年まで遡るカスタムシリコンの構築の歴史を持っています。しかし、これまでのところ、同社は主に、社内の機械学習ワークロードを高速化するために、より高速で高性能なTensor Processing Unit(TPU)の開発に重点を置いてきました。
Google は現在、独自のカスタム Arm サーバー マイクロプロセッサを構築するのが適切だと判断しました。
具体的には、Axionは英国のチップ設計会社が開発したNeoverse V2設計をベースにしており、標準ARMv9アーキテクチャと命令セットを採用しています。ただし、コア数、プロセス技術、キャッシュやメモリ構成などの詳細は明らかにされていません。とはいえ、チップのレンダリング画像からはモノリシック設計であることが示唆されています。
Googleは、カスタムArm CPUをリリースした最新の米国クラウドプロバイダーです。クリックして拡大
GoogleはEl Regからの追及に対し、これ以上の情報提供を拒否したが、ArmのNeoverse V2アーキテクチャが最大256コア構成をサポートできることは分かっている。ただし、NVIDIAとAWSのV2ベースの設計では、それぞれ72コアと96コアが上限となっている。
Google によれば、Axion は現在利用可能な「最速の汎用 Arm ベース インスタンス」よりも約 30% 優れたパフォーマンスを発揮するとのことですが、これは Google の Ampere VM か、Amazon の Neoverse V1 ベースの Graviton 3 インスタンスのいずれかを指していると思われます。
Googleは「Google Cloudの社内データ」を引用しながら、IntelとAMDの「同等の現世代」プロセッサと比較し、Axionは最大50%高速で60%効率が高いと主張している。そのため、これらの主張は鵜呑みにしない方が良いだろう。
Axion は、Google のカスタム Titanium マイクロコントローラと連携して動作するように設計されており、基本的にはデータ処理ユニット (DPU) として機能し、ネットワーク、セキュリティ、ストレージ IO などの計算集約型の操作をオフロードして、プロセッサを解放し、顧客のワークロードを実行できるようにします。
- SiFiveが新たな64ビットRISC-V開発ボードをリリース – 期待しています
- Arm、最新のNeoverse Compute SubsystemsでAIパフォーマンスを目標に
- TSMCの社長は、1兆トランジスタのGPUは2030年代初頭までに実現可能だと語る
- 標準化により、AMDの設計にサードパーティのチップレットが利用できるようになる可能性がある
Axion がどこに導入されるかについては、Google は、BigTable、Spanner、BigQuery、Earth Engine、YouTube 広告など多くのクラウドおよび広告プラットフォーム サービスを自社製シリコンに移行することを見越して Arm システムへの移行をすでに開始していると述べている。
Googleによると、このチップは顧客のワークロードにおいて、ウェブサーバーやアプリサーバー、マイクロサービス、データベース、インメモリキャッシュ、データ分析、メディア処理、CPUベースのAIトレーニングと推論に最適とのことです。Axionベースのインスタンスは、今年後半に稼働開始予定です。
Googleは、独自のCPUを発表した最新の米国クラウドプロバイダーです。実のところ、出遅れたと言えるでしょう。AmazonのGravitonプロセッサは2018年のre:Inventでデビューし、現在は第4世代となっています。一方、Microsoftは昨年秋に独自のArmチップ「Cobalt 100」を発表しました。®