ビデオ英国の AI チップメーカー Graphcore は、Colossus Mk2 GC200 として知られる最新の第 2 世代インテリジェンス プロセッシング ユニット (IPU) をベースにした新しいハードウェア製品シリーズを発表しました。
5月にAIに重点を置いたA100 GPUを発売した最大のライバルであるNvidiaに続き、ブリストルの新興企業も、独自の7nm、TSMC製チップで機械学習の強みを発揮することに熱心だ。
CEO の Nigel Toon 氏は、Colossus Mk2 は世界で最も複雑なプロセッサであると主張し、ハードウェアを拡張してシングルラック サーバーからスーパーコンピュータまでのシステムを構築できると述べました。
YouTubeビデオ
GC200は、823mm 2 のダイに594億個のトランジスタを搭載しています。これは、Nvidiaの826mm 2 A100の540億個のトランジスタをわずかに上回る規模です。Graphcoreのチップには、1,472個のプロセッサコア、8,832個の並列プログラムスレッド、そして900MBのオンチップメモリが搭載されています。Colossus Mk2は、FP32とFP16の精度をサポートしています。
苦しんでいるジーピージーピー!新しいプロセッサアーキテクチャが必要ですか?
続きを読む
これらのIPUを4基、Graphcore社のIPU-Machine M2000に搭載することで、1ペタFLOPSの演算能力を持つラックが構築されます。このラックは最大450GBのオフチップメモリにアクセスでき、Exchange-Memory通信リンクを使用することで最大180TB/秒の性能を実現します。各マシンの価格は32,450ドルです。
El RegはGraphcoreに180TB/秒の速度をどのようにして実現したか説明を求めており、説明を待っているところです。IPUサーバー[PDF]を構築するには、IPU-Machine M2000が8台必要で、費用は259,600ドルです。
ペタフロップスのAIパワー。クリックして拡大
それでもまだ計算能力が足りない場合は、IPU-Machine M2000を16台に倍増させ、Graphcoreがデータセンター向けに16ペタフロップスの性能を実現する「IPU-POD 64」と呼ぶマシンを構築しましょう。これらのポッドは、数十億のパラメータを持つ最大規模のAIモデルの学習に十分すぎるほどの計算能力を提供します。
IPU-POD 64kはGraphcore最大の製品で、19インチラックIPU-POD 64を1,024台積み重ねて構成されています。これらを組み合わせることで、16エクサフロップスの性能を発揮するAIスーパーコンピュータが実現します。
PODを最大限に活用。クリックして拡大
Graphcore社によると、IPU-Machine M2000およびIPU-POD 64システムは現在予約注文を受け付けており、2020年第4四半期以降に顧客に提供される予定だ。また、Cirrascale Cloud Servicesと提携し、一部の初期顧客を対象にクラウド上でIPU-PODシステムのテストを実施している。
そのシステムは、PyTorch、TensorFlow、ONNX、PaddlePaddle など、最も人気のある機械学習フレームワークをサポートしています。
このチップに関する詳細な分析と解説は、当社の姉妹サイト「The Next Platform」でご覧いただけます。®