「NVIDIA は CUDA を Arm に導入します」と、グラフィックス チップ大手の同社は月曜日に真顔で発表し、具体的には「Arm CPU をサポートします」と述べた。
しかし、今日のマーケティング宣伝文句から不思議なことに省略されているのは、Nvidia の CUDA と、ええと、Arm に対する既存のサポートについての具体的な言及です。
例えば、Arm Cortex CPUコアとNv CUDAベースのGPUエンジンを組み合わせたシステムオンチップを搭載したNVIDIAの自動車およびIoT開発ボードを使用したことがある人なら、NVIDIAが既にArm互換のCUDAライブラリとツールキットを開発・配布していることをご存知でしょう。CUDAは既にArmでサポートされています。
初心者のために説明すると、CUDA は、Nvidia グラフィック プロセッサをニューラル ネットワーク アプリケーション、シミュレーション、およびその他のベクトル集約型ソフトウェア用の数学アクセラレータに変換するためのプログラミング インターフェイスです。
今週、ドイツのフランクフルトで開催される国際スーパーコンピューティング会議 (ISC) に合わせて発表されたと思われる内容は、Nvidia が 2020 年までに CUDA グラフィック チップの Arm サポートを拡張し、通常の組み込み電子機器、モノのインターネット、自動車プロジェクトを超えて、スーパーコンピューター、強力なサーバー、その他の大型ハードウェアに搭載されるハイエンド GPU アクセラレーターも対象に含めるというものです。
これが実現すれば、Arm CUDAのサポートはIBM POWER、Intel、AMDのx86プロセッサと同等になると聞いています。NVIDIAはオープンソースISA財団の創設プラチナメンバーであることを考えると、次はRISC-Vでしょうか?
宣伝文句によると:
ここでのキーワードは「フルスタック」でしょう。本日発表されたArmサポートが、NVIDIAのこれまでのArm CUDAサポートと比べてどうなのか、NVIDIAの担当者にさらにコメントを求めました。「今回の発表以前は、CUDA-Xライブラリやコンパイラなどの開発ツールはすべてArmでサポートしていませんでした」と広報担当者は語りました。
NVIDIAの創業者兼CEOであるジェンスン・フアン氏は、定型的な声明の中で次のように宣言した。「従来のコンピューティングのスケーリングが終焉を迎えるにつれ、すべてのスーパーコンピュータは電力の限界に直面することになる。NVIDIAのCUDAアクセラレーションコンピューティングとArmのエネルギー効率に優れたCPUアーキテクチャを組み合わせることで、HPCコミュニティはエクサスケールへの道を進むことができるだろう。」
HPC プロセッサ プロジェクトがアーキテクチャ設計を欧州委員会の机に投げ込む
続きを読む
同社は、Green 500 リストに記載されている世界で最もエネルギー効率の高いスーパーコンピューター 25 台のうち 22 台に自社の GPU が搭載されていると自慢している。
エクサスケール業界の著名人がNVIDIAを称賛した。ArmのCEO、サイモン・セガーズ氏は、NVIDIAとの提携は「HPCコミュニティにとって重要なマイルストーンだ」と述べた。
CrayのCEO兼社長であるピーター・ウンガロ氏は、同社はNvidia CUDAとCUDA-X HPCおよびAIソフトウェアスタックのサポートを「当社のXCおよび将来のShastaスーパーコンピューター全体でArmプロセッサーをサポートするためにすでに有効になっている当社のCrayシステム管理およびプログラミング環境(コンパイラ、ライブラリ、ツール)と密接に統合する」と述べた。
EPIゼネラルマネージャーのフィリップ・ノットン氏は次のように付け加えた。「EPI ArmベースのマイクロプロセッサとNvidiaアクセラレータの組み合わせは、将来の欧州のエクサスケール・モジュラー・スーパーコンピュータの構成要素を装備するのに最適な組み合わせとなるでしょう。」
HPE の HPC および AI 担当副社長兼ゼネラルマネージャーである Bill Mannel 氏は、次のように語っています。「NVIDIA による Arm のサポートは、Arm ベースの専用 HPC システムであり、NVIDIA GPU 対応となった HPE Apollo 70 の最新の開発を補完するものです。」
富士通が開発中のポスト「京」エクサスケール・スーパーコンピュータは、国産64ビットArmプロセッサを採用します。欧州で提案されているEPIエクサフロッピーも同様です。一方、他のエクサスケール・システムでは、IntelとIBMのプロセッサが採用される予定です。NVIDIAによるArm CUDAサポートの拡張は、グラフィックスエンジンやカスタムアクセラレータを搭載したArmおよびRISC-Vベースのスーパーコンピュータへの関心が高まっている中で実現しました。®
Nvidia の ISC '19 でのその他の発表...
- 自動運転車のトレーニング用AIインフラストラクチャを提供する、9.4ペタフロップスのDGX SuperPOD。96基のDGX-2Hシステム(1,536基のNvidia V100 Tensor Core GPU)とMellanoxインターコネクト技術を採用。MellanoxはNvidiaに69億ドルで買収される。
- NVIDIAのNGC部門は、DockerとSingularity上で実行されるディープラーニングフレームワーク、機械学習アルゴリズム、HPCアプリケーション向けに、50種類以上のGPU最適化コンテナを提供しています。NVIDIA Tensor Core GPUを搭載した日本のABCIスーパーコンピュータは、これらのコンテナを採用しています。
- CUDA-X HPCはCUDA-X AIに類似しており、HPC向けに調整されたカーネル、ライブラリ、ツール、コンパイラ、APIのセットです。詳細はこちらをご覧ください。