そして、インテルのEpycへの回答は次のとおりです。最大56コア、4GHz 14nm第2世代Xeon SPチップ、Agilex FPGA、永続メモリ

Table of Contents

そして、インテルのEpycへの回答は次のとおりです。最大56コア、4GHz 14nm第2世代Xeon SPチップ、Agilex FPGA、永続メモリ

Chipzilla は本日、高度に組織化された世界規模の動きの一環として、自社の誇るファンファーレの中で、サーバー向けの第 2 世代 Xeon スケーラブル プロセッサー (以前は Cascade Lake というコード名で呼ばれていたチップ) を発表しました。

少し前、32コアのEpycサーバークラスCPUで大きな話題を呼んだIntelのライバルAMDの幹部は、Chipzillaからの反撃に備えていると語っていました。そして、その反撃がこれです。

メーカーによると、コンピューティング性能の向上という従来の謳い文句に加え、このアーキテクチャにより、プロセッサあたりのメモリ容量は4.5TBに増加し、DDR4の速度も約10%向上するという。また、ロボットのオーバーロードをトレーニングしたい方のために、この世代にはディープラーニングアクセラレーションも組み込まれている。

標準的な第 2 世代 Xeon SP SKU は、最大 28 コア、56 スレッドですが、このファミリーには、Xeon SP Platinum 9200 シリーズと呼ばれるまったくとんでもない兄弟製品もあり、これは最大 56 コア、112 スレッドを誇り、最大 400W の電力を必要とします。

インテルはまた、以前はFalcon Mesaとして知られていた新しいAgilexブランドのFPGAシリーズも発表した。これは、同社が2015年に167億ドルでアルテラを買収して以来、初めて発表される新しいFPGAファミリーであり、待望のOptane DCパーシステントメモリも発表した。

第2世代Xeonスケーラブルプロセッサ

最新の Xeon SP は 6 から 56 個のコアを搭載し、クロック周波数は Xeon SP 6222V の 1.9GHz から、Xeon SP 6244 のターボ モードでの 4.4GHz までとなっています。Intel によれば、8 個以上のソケットがサポートされていますが、ほとんどのシステムは 1 個か 2 個で止まると思われます。

発売前に垣間見たChipzillaのマーケティング資料によると、提供される50以上のSKUは大手顧客との「緊密な協力」のもとで設計されており、このシリコン大手が汎用と表現する第1世代Xeon SPとは異なり、新しいチップは、ネットワークやネットワーク機能仮想化(NFV)、高密度仮想マシンホスティング、長期ライフサイクルなどの特定のアプリケーション向けに最適化されているという。

利用可能な部品の表は次のとおりです。

Intel第2世代Xeon SP表

クリックして拡大

第2世代の14nmプロセス採用SPは、モジュールあたり16GBの容量を持つDDR4 RAMをサポートします。I/Oに関しては、プロセッサダイあたり最大48レーンのPCIe 3.0と最大6つのメモリチャネルを備えています。コアあたり1MBの専用L2キャッシュと、ダイあたり最大38.5MB(非包含)の共有L3キャッシュを搭載しています。

新しい機能には、Intel Deep Learning Boost (DL Boost) も含まれます。これは、AVX-512 拡張機能と連携して動作するように設計されたベクトル コンピューティングを高速化するために開発されたテクノロジであり、TensorFlow や Caffe などの一般的なフレームワークを使用する機械学習で非常に役立ちます。

新しいXeon SP Platinum 9200製品ラインは特筆に値します。Intelの最新のハイエンドプロセッサは、8200シリーズのダイ2つを1つのBGAパッケージに統合しており、これはChipzillaにとって大きな変化です。パッケージ内に複数の独立したダイを配置するという手法は、AMDがハイエンドのZenプロセッサで採用した同様のアプローチを踏襲しています。

Intelの今回の変更により、9200ファミリーの最大メモリチャネル数は12に倍増し、L3キャッシュも倍増します。これにより、デュアルプロセッサのPlatinum 9200シリーズシステムは、最大112個のCPUコアと224個のスレッド、そして最大154MBのキャッシュを搭載できるようになります。また、9200シリーズはBGA接続を採用しているため、Xeon SPチップがソケットではなくマザーボードに実装されている必要があります。購入を検討する際には、この点にご注意ください。

AMD の第 2 世代 7nm Epyc (コード名 Rome) が最終的に登場すると、ソケットあたり最大 64 個の CPU コアと 128 個のスレッドを搭載することになる点も言及しておく価値があります。

Intel のベンチマークによれば、同社の最上位チップである 9282 は、前世代の最上位チップである 8180 と比べて、LINPACK でほぼ 2 倍のパフォーマンスを実現できます。

注目すべき第 2 世代 Xeon SP プロセッサの概要は次のとおりです。

プラチナ9200および8200シリーズ

9282: 56 コア、ベースクロック 2.6GHz、ターボ 3.8GHz、キャッシュ 77MB、400W
9242: 48 コア、ベースクロック 2.3GHz、ターボ 3.8GHz、キャッシュ 71.5MB、350W
9222: 32 コア、ベースクロック 2.3GHz、ターボ 3.7GHz、キャッシュ 71.5MB、250W
8280: 28 コア、ベースクロック 2.7GHz、ターボ 4.0GHz、キャッシュ 38.5MB、205W
8270: 26 コア、ベースクロック 2.7GHz、ターボ 4.0GHz、キャッシュ 35.75MB、205W

ゴールド6200シリーズ

6254: 18コア、ベースクロック3.1GHz、ターボ4.0GHz、キャッシュ24.75MB、200W
6244: 8コア、ベースクロック3.6GHz、ターボ4.4GHz、キャッシュ24.75MB、150W

Gold 6200シリーズ - ネットワーク特化型

6252N: 24コア、ベースクロック2.3GHz、ターボ3.6GHz、キャッシュ35.75MB、150W
6230N: 20コア、ベースクロック2.3GHz、ターボ3.5GHz、キャッシュ27.5MB、125W

Gold 6200シリーズ - VM密度特化

6262V: 24コア、1.9GHzベースクロック、3.6GHzターボ、33MBキャッシュ、135W
6222V: 20コア、1.8GHzベースクロック、3.6GHzターボ、27.5MBキャッシュ、115W

新しいシリコンにはすべて、昨年悪名高いデータ漏洩を引き起こすCPU脆弱性SpectreとMeltdownに対する修正が組み込まれています。これは、同社用語でサイドチャネル・ハードウェア緩和策と呼ばれています。さまざまな種類のサイドチャネル攻撃に対する合計6つのパッチが提供されており、そのうち5つは一部またはすべての機能をシリコンに組み込んでいます。Intelによると、これらのハードウェア緩和策は、第1世代Xeon SP向けに展開されたソフトウェア修正よりもオーバーヘッドが少なくなると予想されており、メーカー独自のベンチマークテストでは、一般的なコンピューティング性能が3~5%向上しています。

念のため申し上げますが、ハードウェアであれソフトウェアであれ、設計上の欠陥を軽減するにはオーバーヘッドが伴います。ハードウェアの修正はソフトウェアのみのアップデートよりも優れたパフォーマンスを発揮することが期待されます。しかし残念ながら、欠陥を完全に軽減するには、Chipzillaのx86アーキテクチャを根本的に見直す必要があり、Intelがそれを試みる可能性は低いでしょう。

「すべてにパッチを当てることはできません。完全に取り除く唯一の方法は、キャッシュの投機的実行を完全に取り除くことであり、そうすれば、最新のピカピカのCore i7のパフォーマンスは'286と同等になります」と、ソフトウェア開発者でオープンソースストラテジストのアリソン・ランドル氏は、今週初めのOpen Infrastructure Daysイベントで説明した。

新しいXeon SPは、9200番台を除き、全世界で即時発売されます。9200番台は2019年前半に発売予定です。価格については、IntelのArkが最終的に更新された際にご確認ください。あるいは、頼むしかないかもしれません。ハイエンドパーツについては、もし頼まなければならないとしても、おそらく手が出ないでしょう。例えば、Platinum 8280は、構成にもよりますが、交渉による割引を除いて1万ドルから1万8000ドル程度です。

アジレックスFPGA

インテルの新しいフィールドプログラマブルゲートアレイ(FPGA)ファミリーは、高帯域幅メモリを含む複数の半導体技術を組み合わせることで、CPUコアの機能を補完し、アプリケーションを高速化します。インテルによると、Agilexデバイスは、アルテラのStratix 10 FPGAファミリーと比較して、40%の性能向上、または40%の消費電力削減を実現できます。

新しいFPGAは、3Dシステムインパッケージ(SiP)小型化技術を用いた10nmプロセスを使用して製造され、数週間前に仕様バージョン1.0に到達した高帯域幅インターコネクトであるCompute Express Linkを使用してCPUコアと通信します。

Agilex FPGAは、ネットワーク、スマートネットワークインターフェースカード、アナリティクス、機械学習などのアプリケーション向けに開発されています。2019年後半にサンプル出荷が開始される予定です。

オプタンDC

IntelはついにOptane DCを発表しました。これは、フラッシュメモリよりも高速でDRAMよりも大容量の、不揮発性メモリ(パーシステントメモリ)の先駆けです。OptaneメモリはRAMとほぼ同等の速度で動作しますが、システムの電源を切った後も超高速大容量ストレージデバイスとしてデータを保存し続けます。

Iterum による画像 http://www.shutterstock.com/gallery-591613p1.html

まるで新しい路線のようですが、違います。Compute Express Linkは、Intelとその仲間によるPCIe 5.0サーバーCPUアクセラレーターの接着剤です。

続きを読む

ここでの目標は DRAM を置き換えることではなく、連携して、頻繁に使用されるデータをプロセッサに近づける階層構造を作成することです。

すべての Optane 製品は、Intel が Micron と共同開発した 3D Xpoint テクノロジーをベースにしているが、その後両社の関係は冷え込み、Micron が米国ユタ州にある共同所有の製造施設から Intel を買収した。

3D Xpoint は当初 SSD に適用され、2018 年に発表された Intel の「Ruler」ストレージ形式を作成しました。現在では、同様のタイプのシリコンがメモリの構築に使用されています。

新しいメモリスティックは、モジュールあたり128GBから512GBの容量があり、最大8.3GB/秒の読み取りと最大3.0GB/秒の書き込みを約束しています。また、レイテンシはRAMより少し高いものの、SSDより「桁違いに」低いです。Optaneメモリは、DRAMデバイスでは不可能なハードウェアベースの暗号化も備えています。

Optane DC は、決して市場にある唯一のタイプの不揮発性メモリではありませんが、最も洗練されたソリューションの 1 つです。同様の結果を実現するために、競合他社の中には、以前に DIMM にバッテリーを搭載した企業もあれば、メモリとフラッシュ ストレージを同じスティックに組み合わせた企業もありました。

Optane DC メモリは、一部の Intel Cascade Lake プロセッサでのみ動作します (すべてのプロセッサ、特に高性能プロセッサでは動作しません) ことに注意することが非常に重要です。そのため、AMD 愛好家や古い Intel シリコンの所有者は、NVDIMM を他の場所で探す必要があります。

最後に、Intel は最大 100Gbps の速度を実現する Ethernet 800 NIC シリーズも発表しました。®

Xeon SP のニュースに関する詳細な分析やフィード、スピードについては、当社のハイパフォーマンス コンピューティングの姉妹誌であるThe Next Platform (Timothy Prickett Morgan 著) とAgilex のニュース(Michael Feldman 著) でご覧いただけます。

Discover More