AI、AI、ピュア:NVIDIAがNetAppと共同でディープラーニングGPUサーバーチップを開発

Table of Contents

AI、AI、ピュア:NVIDIAがNetAppと共同でディープラーニングGPUサーバーチップを開発

NetApp と Nvidia は、Pure Storage-Nvidia AIRI システムに対抗する統合 AI リファレンス アーキテクチャ システムを導入しました。

森の妖精

AIに100万ドル以上を費やす余裕があるなら、NvidiaのAIRIの妖精、Pureに会ってみませんか。ハイパーコンバージドのモンスターです。

続きを読む

これはディープラーニングを目的としており、FlexPod(シスコとNetAppのコンバージドインフラストラクチャ)とは異なり、ブランド名はありません。AIRIとは異なり、専用の筐体もありません。

NetAppとNvidiaのテクニカルホワイトペーパー「実世界のディープラーニングユースケースに向けたスケーラブルなAIインフラストラクチャの設計(PDF)」では、NetApp A800オールフラッシュストレージアレイとNvidia DGX-1 GPUサーバーシステムのリファレンスアーキテクチャ(RA)が定義されています。より低速で安価なA700アレイベースのRAも存在します。

トップラインのRAは、2台のCisco Nexus 100GbitEスイッチに5台のDGX-1 GPUサーバーを接続した単一のA800アレイ(高可用性ペア構成)をサポートします。低速のA700オールフラッシュアレイRAは、40GbitEを介して4台のDGX-1をサポートします。

A800システムは、クラスタ相互接続としてRDMAをサポートするDGX-1に接続する100GbitEリンクを使用します。A800は、24ノードクラスタと74.8PBまでスケールアウトできます。

25GB/秒の読み取り帯域幅と500μ秒未満のレイテンシを備えていると言われています。

ネットアップ_NVIDIA_DL_RA

NetApp Nvidia DL RA 構成図

Pure StorageとNvidiaのAIRIは、4基のDGX-1をサポートするFlashBladeアレイを搭載しています。FlashBladeアレイは17GB/秒の転送速度を実現し、レイテンシは3ミリ秒未満です。NetApp/Nvidia RAシステムと比較すると遅いように思われますが、A800はNetAppの最速オールフラッシュアレイであり、Pure StorageのFlashBladeは容量最適化型のフラッシュアレイです。

NetApp Nvidia DL RAは、PureのAIRI Miniと同様に、DGX-1を1台から5台まで拡張可能なスケールアウト機能を備えています。A800は通常364.8TBの物理容量を備えています。PureのAIRIは533TBの物理フラッシュを搭載しています。

ここには AIRI RA ドキュメントがあり、その構成図は次のようになります。

ピュア_Nvidia_AIRI_config

純粋な Nvidia AIRI 構成図。

NetApp と Pure はどちらも 2 つのシステムのベンチマークを実行しており、どちらも合成データ、NFS、バッチ サイズ 64 を使用して Res-152 と ResNet-50 を実行しています。

NetAppはグラフと数値を提供しているのに対し、Pureはグラフのみを提供しているため、比較は困難です。それでも、これらのグラフを並べて比較することで、大まかな見積もりを出すことは可能です。

結果として得られる全体的なチャートはきれいではありませんが、比較の手段を提供します。

NetApp_Pure_Resnet_比較

NetAppとPure Resnetのパフォーマンス比較

少なくともこれらのグラフからは、NetApp Nvidia RA のパフォーマンスは AIRI よりも優れているように見えますが、驚いたことに、NetApp/Nvidia DL システムの帯域幅が高く、レイテンシが低い (読み取り帯域幅 25GB/秒、レイテンシ 500μ秒未満) のに対し、Pure AIRI システムは 17GB/秒、レイテンシ 3ms 未満であることを考えると、それほど大きな差はありません。

価格比較は良いのですが、ここでは誰も金銭的な話はしません。NvidiaがNetAppやPureと提携したようなディープラーニング関連の提携をさらに発表すると予想されます。HPEとIBMは当然の候補ですが、Apeiron、E8、Exceleroといった新しいNVMe-oFクラスのアレイスタートアップも有力な候補です。®

Discover More