A100スーパーGPUのデビューから6か月後、Nvidiaはメモリを2倍にし、帯域幅を向上

Table of Contents

A100スーパーGPUのデビューから6か月後、Nvidiaはメモリを2倍にし、帯域幅を向上

Nvidiaは月曜日、スーパーコンピューターやハイエンドのワークステーションおよびサーバーを対象としたAmpere A100 GPUアクセラレーターのメモリ仕様を向上し、InfiniBandのアップデートを発表した。

5月に発表されたA100チップと比較して、新バージョンは内蔵RAM容量が最大80GBに倍増し、メモリ帯域幅は25%増加して2TB/sとなっています。これらのアクセラレータは、NVIDIAのHGXシステムに組み込むか、他のマシン用のPCIeカードとして使用できるよう設計されており、高性能コンピューティング(HPC)およびスーパーコンピューティングアプリケーションにおける数値演算やベクトル演算を多用する計算を高速化すると期待されています。

「HPCとAI研究で最先端の成果を達成するには、最大規模のモデルを構築する必要がありますが、そのためにはこれまで以上に大きなメモリ容量と帯域幅が必要になります」と、NVIDIAの応用ディープラーニング研究担当バイスプレジデント、ブライアン・カタンザーロ氏は述べています。「A100 80GB GPUは、わずか6か月前に発表された前世代機の2倍のメモリを搭載し、毎秒2TBの壁を突破することで、研究者が世界で最も重要な科学およびビッグデータの課題に取り組むことを可能にします。」

メモリと帯域幅の増加を除けば、80GB版は40GB版とほぼ同じです。Tensor Coreのピーク性能は、スーパーコンピュータレベルのFP64精度で19.5TFLOPS、汎用AIモデルのトレーニングに適したFP32で312TFLOPS、INT8推論で1,248TFLOPSです。NVIDIAの第3世代NVLinkを使用して、接続された他のGPUに最大600GB/秒のデータを転送できます。

a100

2倍になったA100… 出典:Nvidia。クリックして拡大

このギアは、DGX Station A100ワークグループサーバーの形でも入手できます。4台または8台の80GB A100を収めたボックスには、320GBまたは640GBのGPUメモリが搭載されます。以前のステーションに40GBのA100が搭載されている場合は、来年から80GBチップに交換できます。ただし、Nvidiaは記者会見でその価格を明らかにしませんでした。サーバーには、64コアのAMD Epycプロセッサー、最大512GBのシステムメモリ、OS用に1.92TB、アプリケーションとデータ用に最大7.68TBの内部ストレージ、イーサネットとディスプレイ用の複数のポートも搭載されています。繰り返しになりますが、Nvidiaはこれらのステーションの価格については明らかにしていません。出荷は来年初めに開始される予定です。

DGX SuperPODは、20~140台のDGX A100システムを使用して構築できます。例えば、医療研究に特化した英国のスーパーコンピュータ「Cambridge-1」は、80GBのA100を搭載した80台のDGX A100システムで構成されます。

Nvidia はまた、Mellanox NDR 400 InfiniBand インターコネクトも発表しました。これは、「スイッチ ポート密度が 3 倍になり、AI アクセラレーション パワーが 32 倍に向上する」とのことです。

マイクロソフトは、Azureプラットフォーム上でこの技術を初めて採用します。「AI分野において、AIイノベーションの高い野心的なニーズに応えるため、Azure NDv4 VMはGPUあたり200Gb/sのHDR InfiniBandも活用し、VMあたり合計1.6Tb/sという驚異的な相互接続帯域幅を実現します。また、低遅延のInfiniBandファブリックを数千基のGPUに拡張することで、AIスーパーコンピューティングを一般向けに提供します」と、マイクロソフトのAzure HPCおよびAI製品責任者であるニディ・チャペル氏は述べています。

A100 には、今週発売された AMD の MI100 アクセラレータという競合製品があります。®

Discover More