Analysis NetApp は、破壊的な NVMe-over-Fabrics テクノロジーを、中断のない方法で顧客に提供します。
NetApp のチーフ エバンジェリストである Jeff Baxter 氏は先週の Flash Memory Summit でこのことを説明するプレゼンテーションを行いました。
人工知能、機械学習、リアルタイム分析といったアプリケーションでは、より高速なファブリックとメディアによる低レイテンシと高性能が求められると彼は述べた。高速メディアとしては、NVMe SSDや3D XPoint(およびSamsung Z-NAND)などのストレージクラスメモリ(SCM)が利用可能になりつつある。
25/50/100ギガビットイーサネット、32ギガビット/秒ファイバチャネル、NVME-over-Fabrics(NVMe-oF)といった高速ファブリックインターコネクトは、ネットワークアクセス速度を向上させ、今後登場するより高速なメディアタイプへのアクセスを向上させます。NetAppは、当初はこれらの新しいメディアを厳選して採用し、その後、導入を拡大して完全に統合することで、より広範な導入と最適化されたメディアの実現を目指します。
同氏は、NetApp は 6PB を超える NVMe メディアを出荷しており、企業による NVMe-oF と SCM の採用状況について明確な見解を持っていると述べました。
NVMe-oFとSCMからのNetAppフレームワーク
NVMe-oFネットワークは、サーバーCPUとストレージアレイCPUを接続し、ストレージアレイCPUはキャッシュとしてSCMと通信します。新しいSCMは、バクスター氏が「最大の効果」と呼ぶキャッシュとして選択的に使用されます。また、サーバー内の永続メモリとしても使用されます。
NetApp の強みであるエンタープライズ データ管理はこれまでどおり継続されます。
時間が経つにつれて、新しいメディアはキャッシュから移動し、アレイ内のデータ ストレージ ドライブ、つまり次世代のソリッド ステート NetApp アレイになります。
NetApp の幹部 Ravi Kavuri は次のように書いています。
ストレージシステムの観点から見ると、NVMe-oFはフロントエンド(サーバーからストレージシステムへ)とバックエンド(ストレージシステムからNVMeデバイスへ)の2つのコンテキストで導入されます。既存のファイバーチャネルのフロントエンドおよびバックエンドSAS/SATAの選択肢と合わせて、様々な組み合わせが可能です。SCMメディアは当初、読み取り/書き込みキャッシュとして使用され、現在のNANDフラッシュSSDよりも大幅に低いレイテンシを実現します。
SCMメディアの価格が下がり、より多くのアプリケーションで現実的な選択肢となるようになれば、SCMストレージのプールを作成できるようになります。このようなストレージは、現在の共有ストレージよりも桁違いに高速で、一貫した低レイテンシを実現します。NetAppは、これらの新しいテクノロジーの一部について、成熟度に応じて順次展開していくとともに、既存のストレージテクノロジーへの投資を保護していきます。
Baxter氏がこれらのスライドで言及していないのは、オールフラッシュFASアレイ内のNVMeドライブへのNVMe-oFアクセスが実現するということです。実際には、Optaneメモリがアレイコントローラのキャッシュとして使用され、それがNVMe-oFアクセス要求のターゲットとなると考えられます。
NetAppのDataONTAPアレイOSにとって、これは高速ネットワーク接続を用いてアレイコンテンツへのデータアクセスを高速化するより実用的な方法のように思えます。一方、NVMe-oF経由でアクセスするサーバーからアレイ内のNVMeドライブへの直接RDMAアクセスを許可するという代替案は、ONTAPとそのデータパス管理機能を排除し、その役割に疑問を投げかけます。
Kavuri 氏は次のように書いています。「当社は、お客様がインフラストラクチャを撤去したり、日常的に頼りにしている NetApp のデータ管理機能を犠牲にしたりすることなく、これらのテクノロジを活用できるようにしています。」
NetApp が同等のデータ アクセス速度を維持できれば、顧客は満足するはずです。特に、Optane SSD など、状況をさらに改善する現実的なロードマップがあればなおさらです。®