モンスター級のCerebras AIチップの詳細、ザイリンクスが「世界最大」のFPGAを宣伝、その他

Table of Contents

モンスター級のCerebras AIチップの詳細、ザイリンクスが「世界最大」のFPGAを宣伝、その他

Hot Chips Hot Chips カンファレンスは来年まで続きますが、シリコンバレーのイベントの動向について簡単に最新情報をお伝えします。

世界最大のチップは冷却が大変

今年、観客を大いに喜ばせたのは、AIハードウェアのスタートアップ企業であるCerebrasでした。同社は、人工知能(AI)ソフトウェアのトレーニング用として史上最大とされるチップを発表しました。創業者でチーフハードウェアアーキテクトのショーン・リー氏は、ブロンズ色のiPadサイズのプロセッサをステージ上で披露し、「一枚のウェハから切り出せる最大の正方形だ」と述べました。

46,000平方ミリメートルという驚異的な面積を誇るこのシリコンダイは、TSMC社製の16nmトランジスタ1兆2000億個、2Dメッシュに配置された40万個のコア、100ペタビット/秒のファブリック帯域幅、18GBのオンチップメモリ​​、そして9ペタビット/秒のメモリ帯域幅が搭載されていると謳われています。これは素晴らしい数字に聞こえるかもしれませんが、過度な期待は禁物です。実稼働環境でのパフォーマンスはまだ不明です。価格も不明ですし、ティア1のクラウド大手以外向けに量産されるかどうかも不明です。

リー氏によると、セレブラスは性能仕様をまだ公表していないという。ハードウェアマニアの間では、消費電力は14~15キロワット程度と推定されており、ペタフロップス級の性能が出てもそれほど驚くことではない。このプロセッサには専用の筐体と水冷システムが必要で、一般的な筐体には収まらないだろう。メッシュ部分には水冷システムが通るように格子状の穴が開けられているようだ。空冷だけでは不十分だろう。

セレブラス対GPU

Cerebrasのチップと最大のGPUの大まかなサイズ比較

Cerebras社は、このチップが現在「顧客のワークロードを実行中」であると発表しましたが、まだ市場には出ていません。最初の顧客が誰になるのか、興味深いところです。これは一般的なコンピューティング部品ではなく、研究室外で宣伝どおりに動作すると仮定すると、AIワークロード向けの超高性能な数値演算コプロセッサと考えてください。

新しい非営利団体MLCommonsがMLPerfのベンチマーク活動を管理する

機械学習のハードウェアおよびソフトウェア プラットフォームのトレーニングと推論のパフォーマンスをベンチマークしようとしている業界団体 MLPerf の人々が、MLCommons と呼ばれる非営利団体を設立しています。

MLCommonsの目標は「MLイノベーションを加速し、社会へのプラスの影響を高めること」だと、MLPerfのゼネラルチェアでありGoogleのエンジニアでもあるピーター・マットソン氏は述べています。様々なチップ、フレームワーク、AIモデルが利用可能であるため、レコメンデーションの構築であれコンピュータービジョンシステムの構築であれ、特定のタスクに最適な組み合わせを見つけるのは悪夢です。

MLPerfは機械学習コミュニティがその課題を解決するのを支援するために設立されましたが、これまでのところ成果は芳しくありません。競争相手はNVIDIAとGoogleが独占しており、他の企業は、この2つの巨大企業のGPUやTPUと並んで見劣りすることを避けるため、トレーニングや推論のパフォーマンスを公表する気はほとんどありません。

MLCommons は、より多くの企業に成果の提出を促すだけでなく、誰でも AI モデルをトレーニングできるように大規模な公開データセットをまとめ、他の専門家を引き込むために活動範囲を拡大する予定です。

インテルのスプリングヒル、別名NNP-I 1000推論チップ

Intel は、AI トレーニングにおける高負荷のワークロードの処理に特化した ASIC である Spring Crest (NNP-T) と、推論に使用される Spring Hill (NNP-I 1000) の詳細を明らかにしました。

Hot Chips初日にSpring Crest(旧NNP-L)について取り上げたので、ここではSpring Hillに焦点を当てます。このチップはIntelの10nmプロセスノードで製造され、10~12個の推論コンピューティングエンジンコア(ICE)を搭載します。これらの推論チップは、トレーニングに使用されるプロセッサよりもメモリと精度を必要としません。Spring Hillの役割は、入力データを取り込み、事前にトレーニングされたモデルを用いて、車をどこに操縦するか、戦場で誰を撃つかといった判断と予測を迅速に行うことです。

Spring HillはINT8精度をサポートし、最大92TOPSの性能、最大50Wの発熱、68GB/秒の帯域幅を持つ75MBのオンダイメモリを搭載しています。また、他の推論チップと比較して、ワットあたり4.8TOPSという最高の性能対電力効率を誇ります。

インテル・スプリング・ヒル

インテルのホットチップスがスプリングヒルで滑る…クリックして拡大

各ICEの内部には、ディープラーニング・コンピューティング・グリッドと呼ばれる別のユニットが搭載されています。この部分でディープラーニング・アルゴリズムの命令が実行され、SRAMに保持された入力データが処理されます。

インテル_スプリング_ヒル_DLE

クリックして拡大

インテルはSpring Hillチップの発売時期については言及しなかったものの、すでに次の2世代の設計に取り組んでいると述べた。インテルフェローのオフリ・ウェクスラー氏は、詳細は今後公表される予定であり、次回のMLPerf推論テストの結果を提出したいと考えていると述べたので、今後の動向に注目してほしい。

ホットチップス以外のボーナスニュース

インテルの新たな開発として、Chipzillaはノートパソコン向けの14nm第10世代インテルCore i3、i5、i7プロセッサーをさらに8種類発表しました。基本仕様は以下のとおりです。

  • 最大6個のCPUコア
  • 最大4.9GHzのターボクロック周波数
  • 最大12MBのオンダイキャッシュ
  • 最大1.15GHzの内蔵GPUクロック周波数
  • LPDDR4x、LPDDR3、DDR4メモリ速度が2666 MT/sに向上

各プロセッサの詳細を知りたい場合は、ここにリストされています。

また、Xilinxは強力なFPGAをリリースしました。実際、「世界最大」と謳われています。Virtex UltraScale+ VU19Pは、16nmノードの巨大なFPGAで、「単一デバイスとしては史上最高のロジック密度とI/O数」を誇ります。VU19Pの簡単な仕様は以下の通りです。VU19Pは8,938,000個のロジックセル、3,840個のDSPスライス、224MBのRAM、2,072本のIOラインを備え、最大8つのPCIe 3 x16またはPCIe 4x8リンクとCCIXをサポートします。詳細はこちらをご覧ください。

最後に、Huawei はAscend-Max シリーズの最新製品である Ascend 910 AI プロセッサを宣伝しました。

このチップは2018年に発表されましたが、その後スペックは若干変更されています。FP16では256TFLOPS、INT8では倍の512TFLOPSの精度をサポートし、消費電力は350Wから310Wに削減されました。Ascend 910は推論よりもモデルの学習に重点を置いています。

ファーウェイはまた、ハードウェアと連携してデバイス、エッジ、クラウドにわたる機械学習ワークロードを最適化・高速化するソフトウェアフレームワーク「Mindspore」も発表した。「MindSporeは2020年第1四半期にオープンソース化される予定です。AIの普及を促進し、開発者が得意とする分野で活躍できるよう支援したいと考えています」と、ファーウェイの輪番会長である徐直軍(エリック・シュー)氏は述べた。®

Discover More