Nvidia の Hopper GPU は、新たにリリースされた MLPerf Inference v2.1 ベンチマーク結果で初のスコアを達成し、同社はそのパフォーマンスで新たな記録を樹立したと主張している。
MLCommonsは、機械学習モデルを用いて新しいデータに対して推論タスクを実行するシステムのパフォーマンスを分析します。結果はこちらでご覧いただけます。
Nvidia は結果で優位に立つ傾向があり、今回同社は Hopper ベースの H100 Tensor Core GPU が推論ワークロードで新記録を樹立し、従来の GPU よりも最大 4.5 倍のパフォーマンスを実現したと主張しました。
このテストは、今年後半に発売される予定の H100 GPU の事実上初の公開デモンストレーションとなります。
ここで言及されている以前のGPUとは、過去1年ほどの間に多くのAIおよびHPCシステムに広く導入されているNVIDIAのA100製品を指しているようです。Hopperは、6つのニューラルネットワークモデルすべてにおいてアクセラレータあたりのパフォーマンスが向上し、NVIDIAはサーバーとオフラインのシナリオの両方において、スループットと速度の両方でリーダーシップを発揮していると主張しています。
- 米国、NVIDIAとAMDに対し、中国とロシアへのAI中心のアクセラレータの販売を禁止
- Nvidia と AMD は SmartNIC と VMware にどのように関与しているのでしょうか?
- Nvidiaは9月に次世代GPUアーキテクチャを発表する
- ブロードコム、51.2TスイッチシリコンでNVIDIAのSpectrum-4に挑戦
A100製品はもはやNVIDIAの最も人気のあるAIプラットフォームではないかもしれないが、NVIDIAは、AIソフトウェアの継続的な改良により、これらの製品はパフォーマンスの向上を続けていると述べた。A100が2年前に初めて結果に載って以来、MLPerfの数値は6倍に向上したと同社は主張している。
NVIDIAは、ArmコアとAmpereアーキテクチャGPUを統合したエッジコンピューティングプラットフォーム「Orin」の結果も提出しました。同社は、このプラットフォームが他の低消費電力SoCよりも多くのテストでトップに立ち、4月にMLPerfで初めて発表した結果からエネルギー効率が50%向上したと主張しました。
MLCommons によれば、今回の MLPerfTM Inference v2.1 の数値では、提出されたパフォーマンス結果が約 5,300 件、電力測定が 2,400 件となり、いずれも前回公開された結果セットより増加し、新たなベンチマークが確立されたという。
当然のことながら、NvidiaはMLPerfを承認しており、企業がこのテストに参加するのは、ベンダーや顧客がAIプラットフォームを評価する上でMLPerfが貴重なツールだからだと述べています。しかしながら、MLPerfが機械学習のパフォーマンスを測定する最良の方法であることに誰もが同意しているわけではありません。
今年初め、ライバルのベンチマーク組織であるSPECは、機械学習のトレーニングおよび推論タスクにおけるベンダー非依存のベンチマーク開発を監督する委員会を設立したと発表しました。同組織は、MLPerf®などの既存のベンチマークよりも業界の慣行をより適切に反映するベンチマークを開発する意向を示しています。