インテル研究所は水曜日、同社最大のニューロモルフィック・コンピューターを公開した。これは11億5000万のニューロン・システムで、同社ではフクロウの脳とほぼ同等だと見積もっている。
でもご安心ください。IntelはFalloutのRobobrainを再現したわけではありません。有機的なニューロンとシナプスのネットワークではなく、IntelのHala Pointはそれらをすべてシリコン上でエミュレートします。
私たちの脳は、約20ワットという消費電力で、あらゆる感覚から瞬間的に流入する大量の情報を驚くほど効率的に処理します。IntelとIBMがここ数年研究を進めてきたニューロモルフィック(神経形態学)の分野は、脳のニューロンとシナプスのネットワークを模倣し、従来のアクセラレータよりも効率的に情報を処理できるコンピュータを構築することを目指しています。
効率はどれほどだろうか?Intelによると、米国サンディア国立研究所に納入された最新システムは、電子レンジとほぼ同じサイズの6U筐体で、消費電力は2,600W。8ビット精度で最大15TOPS/Wのディープニューラルネットワーク効率を達成できるという。ちなみに、NVIDIAの最も高性能なシステムであるBlackwellベースのGB200 NVL72(まだ出荷もされていない)は、INT8でわずか6TOPS/Wだが、現行のDGX H100システムは約3.1TOPS/Wを実現している。
サンディア国立研究所の研究者が、インテルの11億5000万ニューロンのニューロモルフィック・コンピューター「Hala Point」を受領 – クリックして拡大
このパフォーマンスは、1,152 個の Intel Loihi 2 プロセッサを使用することで実現されています。これらのプロセッサは、3 次元グリッドにまとめられ、合計 11 億 5,000 万個のニューロン、1,280 億個のシナプス、140,544 個の処理コア、およびシステムの動作を維持するために必要な補助的な計算を処理する 2,300 個の組み込み x86 コアで構成されています。
念のため言っておきますが、これらは典型的なx86コアではありません。「非常にシンプルで小型のx86コアです。当社の最新コアやAtomプロセッサとは全く異なります」と、インテルのニューロモルフィック・コンピューティング担当ディレクター、マイク・デイビス氏はThe Register紙に語りました。
Loihi 2 にピンときた方は、このチップが Intel の 7nm プロセス技術を使用して製造された最初のチップの 1 つとして 2021 年にデビューして以来、しばらく話題になっているからです。
インテルによると、Loihiベースのシステムは、その古さにもかかわらず、従来のCPUおよびGPUアーキテクチャと比較して、特定のAI推論および最適化問題を最大50倍高速に解くことができ、消費電力は100分の1に抑えられるという。これらの数値は、Loihi 2チップ1個と、NVIDIAの小型プロセッサJetson Orin Nano、そしてCore i9 i9-7920X CPUを組み合わせることで達成されたようだ[PDF]。
GPUをまだ捨てないでください
素晴らしい話に聞こえるかもしれないが、デイビス氏は、同社のニューロモルフィック・アクセラレータがまだあらゆるワークロードにおいてGPUを置き換える準備が整っていないことを認めている。「これは決して汎用AIアクセラレータではありません」と彼は述べた。
まず、おそらく AI の最も人気のあるアプリケーションである、ChatGPT などのアプリを動かす大規模言語モデル (LLM) は、少なくとも今のところは Hala Point では実行できません。
「現時点では、LLMをハラポイントにマッピングしていません。その方法も分かりません。率直に言って、ニューロモルフィック研究分野にはトランスフォーマーのニューロモルフィック版は存在しません」とデイヴィス氏は述べ、その実現方法については興味深い研究がいくつか行われていることを指摘した。
そうは言っても、デイヴィスのチームは、いくつかの注意点を伴いながらも、従来のディープ ニューラル ネットワーク (多層パーセプトロン) を Hala Point で実行することに成功しています。
- RISC-V AIチップの新興企業Rivosは、VCからの2.5億ドルの資金援助を受けて、Nvidiaを下回る計画だ
- AIクラウドスタートアップのTensorWaveはAMDがNvidiaに勝てると確信している
- ロス アラモス ラボが Nvidia を搭載した Venado スーパーコンピューターを強化
- インテル・ガウディの3番目にして最後の大活躍は、NVIDIAのH100を上回るように構築されたAIアクセラレータです。
「ネットワークの活動と伝導性をスパース化できれば、非常に大きなゲインを達成できる」と彼は述べた。「つまり、連続的な入力信号、つまりビデオストリームやオーディオストリームなど、サンプルごとに何らかの相関関係があるものを処理する必要があるということだ。」
Intel Labsは昨年末に発表した論文[PDF]で、Loihi 2のビデオおよびオーディオ処理における潜在能力を実証しました。テストの結果、このチップは従来のアーキテクチャと比較して、エネルギー効率、レイテンシ、そして信号処理のスループットにおいて大幅な向上を達成し、時には3桁を超える向上が見られました。しかし、最大の向上は精度の低下を犠牲にしていました。
低消費電力、低遅延でリアルタイムデータを処理できるため、この技術は自律走行車、ドローン、ロボットなどのアプリケーションにとって魅力的なものとなっています。
有望視されているもう一つの使用例は、混雑した市街地を走行する必要がある配送車両のルート計画などの組み合わせ最適化問題です。
これらのワークロードは、車両の速度、事故、車線閉鎖といった小さな変化をリアルタイムで考慮する必要があるため、解決が非常に複雑です。従来のコンピューティングアーキテクチャは、このような指数関数的な複雑さには適していません。そのため、多くの量子コンピューティングベンダーが最適化問題にターゲットを絞っています。
しかしデイヴィス氏は、インテルのニューロモルフィック・コンピューティング・プラットフォームは「他の実験的研究の選択肢よりもはるかに成熟している」と主張する。
成長の余地
デイビス氏によると、まだ解放される余地は十分にあるという。「残念ながら、ソフトウェアの制限により、今日に至るまでその可能性は十分に活用されていません」と、デイビス氏はLoihi 2チップについて語った。
ハードウェアのボトルネックとソフトウェアの最適化を特定することが、Intel Labs が Sandia にプロトタイプを導入した理由の 1 つです。
「特にハードウェアレベルでの限界を理解することは、こうしたシステムを世に送り出す上で非常に重要です」とデイヴィス氏は述べた。「ハードウェアの問題を修正し、改善することは可能ですが、最適化すべき方向性を把握する必要があります。」
サンディア国立研究所の研究者がインテルのニューロモルフィック技術に着手したのは今回が初めてではない。2022年初頭に発表された論文では、研究者らはこの技術がHPCとAIに応用できる可能性を秘めていることが示唆されている。しかし、これらの実験にはインテルの第一世代Loihiチップが使用されており、このチップのニューロン数は後継機の約8分の1(12万8000個対100万個)に過ぎない。®