NetApp と Nvidia は、Pure Storage-Nvidia AIRI システムに対抗する統合 AI リファレンス アーキテクチャ システムを導入しました。
AIに100万ドル以上を費やす余裕があるなら、NvidiaのAIRIの妖精、Pureに会ってみませんか。ハイパーコンバージドのモンスターです。
続きを読む
これはディープラーニングを目的としており、FlexPod(シスコとNetAppのコンバージドインフラストラクチャ)とは異なり、ブランド名はありません。AIRIとは異なり、専用の筐体もありません。
NetAppとNvidiaのテクニカルホワイトペーパー「実世界のディープラーニングユースケースに向けたスケーラブルなAIインフラストラクチャの設計(PDF)」では、NetApp A800オールフラッシュストレージアレイとNvidia DGX-1 GPUサーバーシステムのリファレンスアーキテクチャ(RA)が定義されています。より低速で安価なA700アレイベースのRAも存在します。
トップラインのRAは、2台のCisco Nexus 100GbitEスイッチに5台のDGX-1 GPUサーバーを接続した単一のA800アレイ(高可用性ペア構成)をサポートします。低速のA700オールフラッシュアレイRAは、40GbitEを介して4台のDGX-1をサポートします。
A800システムは、クラスタ相互接続としてRDMAをサポートするDGX-1に接続する100GbitEリンクを使用します。A800は、24ノードクラスタと74.8PBまでスケールアウトできます。
25GB/秒の読み取り帯域幅と500μ秒未満のレイテンシを備えていると言われています。
NetApp Nvidia DL RA 構成図
Pure StorageとNvidiaのAIRIは、4基のDGX-1をサポートするFlashBladeアレイを搭載しています。FlashBladeアレイは17GB/秒の転送速度を実現し、レイテンシは3ミリ秒未満です。NetApp/Nvidia RAシステムと比較すると遅いように思われますが、A800はNetAppの最速オールフラッシュアレイであり、Pure StorageのFlashBladeは容量最適化型のフラッシュアレイです。
NetApp Nvidia DL RAは、PureのAIRI Miniと同様に、DGX-1を1台から5台まで拡張可能なスケールアウト機能を備えています。A800は通常364.8TBの物理容量を備えています。PureのAIRIは533TBの物理フラッシュを搭載しています。
ここには AIRI RA ドキュメントがあり、その構成図は次のようになります。
純粋な Nvidia AIRI 構成図。
NetApp と Pure はどちらも 2 つのシステムのベンチマークを実行しており、どちらも合成データ、NFS、バッチ サイズ 64 を使用して Res-152 と ResNet-50 を実行しています。
NetAppはグラフと数値を提供しているのに対し、Pureはグラフのみを提供しているため、比較は困難です。それでも、これらのグラフを並べて比較することで、大まかな見積もりを出すことは可能です。
結果として得られる全体的なチャートはきれいではありませんが、比較の手段を提供します。
NetAppとPure Resnetのパフォーマンス比較
少なくともこれらのグラフからは、NetApp Nvidia RA のパフォーマンスは AIRI よりも優れているように見えますが、驚いたことに、NetApp/Nvidia DL システムの帯域幅が高く、レイテンシが低い (読み取り帯域幅 25GB/秒、レイテンシ 500μ秒未満) のに対し、Pure AIRI システムは 17GB/秒、レイテンシ 3ms 未満であることを考えると、それほど大きな差はありません。
価格比較は良いのですが、ここでは誰も金銭的な話はしません。NvidiaがNetAppやPureと提携したようなディープラーニング関連の提携をさらに発表すると予想されます。HPEとIBMは当然の候補ですが、Apeiron、E8、Exceleroといった新しいNVMe-oFクラスのアレイスタートアップも有力な候補です。®