IBMは、これらのバックオフィス、ネットワークエッジPower 10サーバーは、AIに最適であると述べています。

Table of Contents

IBMは、これらのバックオフィス、ネットワークエッジPower 10サーバーは、AIに最適であると述べています。

AI インフラストラクチャのゲームから取り残されないように、IBM は火曜日に、ネットワーク エッジでデータを前処理するように設計された 2 台の小型 Power 10 サーバーを発表しました。

Power S1012システムは、PCスタイルのタワー型と、より従来的な2Uハーフ幅ラックマウント型の両方で提供されます。どちらも、1コア、4コア、または8コア対応のIBM自社製Power 10プロセッサーと最大256GBのオンボードメモリを搭載できます。

最大 64 個のコアを搭載できる Intel や AMD のエッジ中心のチップと比較すると、それほど多くのコア数のようには思えないかもしれませんが、IBM の Power プラットフォームは、SMT4 と SMT8 の両方をサポートし、高度にスレッド化されたワークロードを優先する RISC アーキテクチャに基づいていることは注目に値します。

つまり、これらのシステムで使用される Power 10 eSCM モジュールは、コアあたり最大 8 つのスレッドをサポートでき、最高スペックの構成では、さらに優れた 64 スレッドに相当します。

タワー型PCのIBM Power S1012

オールドスクール…タワー型PCのIBM Power S1012

IBMは、新型サーバーが現行のPower S814と比べて最大3倍の性能を誇ると謳っています。これは確かに印象的ですが、このシステムが10年前のPower 8プラットフォームをベースとしていることを考えると、少々物足りないかもしれません。とはいえ、Power 10ファミリーも9月に発売3周年を迎えるため、もはやそれほど目新しい製品ではありません。

IBM は、これらのシステムが、スペースや電力が制限されたエッジ展開での AI 推論や、リモートまたはバック オフィス シナリオでのより従来型のワークロードの実行など、さまざまなシナリオで展開されることを想定しています。

主な論点は、エッジから流入するすべてのデータを中央データセンターに送り返すのではなく、その場で処理することで、顧客は待ち時間を減らし、帯域幅の消費を抑えることができるということのようです。

IBMは、SMTを多用するアーキテクチャ特有のハードウェアとソフトウェアのニュアンスに精通した既存のPower Systems顧客をターゲットにしているようだ。そうした顧客の一つが、アナリティクス・ラングラーのEquitusで、IBMによると同社は既にこのシステムを使用してエッジでAIモデルを実行しているという。

  • ウォーレン・バフェット氏、AIへの懸念を表明、テクノロジーを原子爆弾に例える
  • IntelとAmpereは、CPU上でLLMを実行することはそれほど突飛なことではないと示している
  • 企業のデータセンターの3分の1以上が2026年までに液体冷却を導入する予定
  • 次世代Meta AIチップは電力を節約しながら広告を配信します

IBMがこれらのAIワークロードをどのように処理しているかは、皆さんの予想とは大きく異なります。私たちが知る限り、これらのシステムにはGPUは搭載されていません。IBMの発表ではGPUについては一切言及されていません。その代わりに、IBMはプロセッサの行列演算アクセラレータ(MMA)(各コアに4つ搭載)に頼って、重い処理を担っているようです。

多くの点で、これらの MMA は、2023 年から Intel の第 4 世代および第 5 世代 Xeon スケーラブル プラットフォームに登場した AMX エンジンを彷彿とさせます。また、最近調査したように、これらのエンジンは、サイズが 70 億から 130 億のパラメータに及ぶ小規模から大規模の言語モデルを実行するのに十分な能力を備えています。

IBMはMMAに加え、デバイス上のAIモデルとの間でやり取りされるデータを保護するための透過的メモリ暗号化のサポートも強調しました。これらのシステムは、セキュリティや監視が限られている遠隔地に導入される可能性が高いことを考えると、これは特に規制の厳しい業界の企業にとって歓迎すべき機能となるでしょう。

S1012システムは6月14日より購入可能となります。®

追記: IBM は、オープンソースの世界に向けてコード生成モデルのファミリーをリリースし、次のように述べています。「その目的は、できる限り多くの開発者にとってコーディングをできる限り簡単にすることです。」

Discover More