AIまとめ人工知能(AI)の世界における重要な発表を毎週お届けします。ハードウェア関連のニュースが相次いで発表されていることから、機械学習ソフトウェアがチップ設計に新たな活力を与えていることが分かります。
Chipzillaの「自己学習チップ」。IntelはAIに特化したチップを大々的に宣伝する最新の企業です。しかし、これはGPUでもCPUでもFPGAでもありません…コードネームLoihiと呼ばれるニューロモルフィックチップです。10nmプロセスの問題から目を逸らすためなら何でもする、と懐疑的な人たちは考えています。
ニューロモルフィックの進歩:そして我々は、新しい単一の人工シナプスの支配者を歓迎する
続きを読む
ニューロモルフィック・コンピューティングは、脳の活動を大まかに模倣するものです。回路は活性化したニューロンのように発火するようにプログラムされており、次のニューロン群に情報を渡していく、といった具合です。これはインテルが長らく関心を寄せてきた分野です。Loihiはインテルの14nm製造プロセスを採用し、合計13万個のニューロンと1億3000万個のシナプスを搭載しているとのことです。それがいつ登場するかは誰にもわかりません。2018年前半には科学者たちにこのシリコンが提供される予定だと言われています。
Google Cloud、GPUを強化 十分なキャパシティがあれば、機械学習のために強力なGPU搭載クラスタでランタイムを予約する必要がある研究者にとって、クラウドプラットフォームは非常に便利です。クラウドのグラフィックアクセラレータが向上すれば、推論モデルのトレーニングと実行速度が向上します。Google Cloud Platformは、Google Compute Engine向けにNvidia P100 GPU(ベータ版)とNvidia K80 GPUアクセラレータを導入し、AI向けオンデマンドハードウェアアクセラレーションのラインナップを強化したと発表しました。
NVIDIA、推論の高速化を推進NVIDIAのCEO、ジェンスン・フアン氏は、中国で開催された同社のGTCイベントに、トレードマークの黒いレザージャケットを身にまとって登場した。発表の中には、ディープラーニング用の推論ハードウェアアクセラレータを独自に作成するためのオープンソースのVerilogブループリントセットであるNVIDIA Deep Learning Acceleratorも含まれていた。
同社はまた、最新のTesla V100チップ上で、旧型のP100ファミリーと比較して「3.5倍高速な推論」を実行するソフトウェア「TensorRT 3」をリリースした。このソフトウェアは、GoogleのTensorFlowとFacebookのCaffeでトレーニングされたモデルの最適化をサポートする。
Appleは、機械学習に関するブログを更新し、「3万字に及ぶ膨大な漢字の手書き文字をリアルタイムで認識する」という論文を発表しました。この技術を開発したチームは、「3万字にも及ぶ膨大な漢字の集合をカバーする高精度の手書き認識システムの構築は、組み込みデバイスでも実用的である」と結論付けています。
テスラとAMDは本当にチップを共同開発しているのだろうか?先週、イーロン・マスク率いるテスラがチップ製造メーカーのグローバルファウンドリーズと提携し、自動運転車向けAIプロセッサを開発中との報道があった。この噂はCNBCによって広まったが、同局は後に報道内容を修正し、グローバルファウンドリーズはテスラとは提携していないと報じた。記事に登場した匿名の情報筋は、テスラがAMDと提携し、おそらくAMDのセミカスタム設計または組み込み設計のいずれかを使用して、自動運転車用のニューラルネットワークアクセラレータを開発中だと報じた。
マスク氏が自社の自動運転車群向けにカスタムチップの開発に関心を示していることは周知の事実だ。彼はプロセッサの第一人者ジム・ケラー氏をはじめとするシリコンエンジニアを雇用している。しかし、AMDとの提携は興味深い。チップメーカーが自動運転関連企業と提携することで競争を促進しようとしていることを示しているからだ。インテルはウェイモと提携しており、NVIDIAは他の企業と提携しているとみられる。
テスラとAMDに説明を求めたところ、テスラの広報担当者は「テスラの方針として、憶測に関するコメントは常に拒否しています」と回答した。AMDはコメントを控えた。x86設計から派生したグローバルファウンドリーズは、テスラとの提携は行っていないことを確認した。
一方、テスラは車載エンターテインメントにインテルを採用したようです。今のところ、すべてが不透明ですね。®