GoogleがIoT AIコード向けエッジTPUチップのゲートウェイドラッグを公開

Table of Contents

GoogleがIoT AIコード向けエッジTPUチップのゲートウェイドラッグを公開

Google は自社開発の AI 数学アクセラレータの低電力バージョンを設計し、これを Edge TPU と名付け、10 月までに開発者に出荷することを約束した。

本日Google Next 2018で発表されたこのASICは、自社設計のTensor Processing Unit(TPU)コプロセッサフ​​ァミリーの縮小版です。TPUはGoogle社内で機械学習ベースのサービスに利用されているほか、パブリッククラウド経由でレンタルも可能です。これらのチップは、ニューラルネットワークの学習と推論の実行に特化して設計され、使用されています。

ウェブ界の巨人であるGoogleは、IoTゲートウェイでの実行に適した、推論機能のみを簡略化したバージョンを開発しました。これは、自宅、工場、オフィス、病院などに設置された多数のセンサーやデバイスをこれらのゲートウェイの1つに接続し、そこからクラウド上のGoogleのバックエンドサービスに接続して追加処理を行うというものです。

ゲートウェイ内部には、Edge TPUに加え、グラフィックプロセッサ(搭載の可能性あり)、そしてLinuxまたはAndroidとGoogleのCloud IoT Edgeソフトウェアスタックを実行する汎用アプリケーションプロセッサが搭載されています。このスタックには、Edge TPUにアクセスしてハードウェアでAIタスクを高速実行する、軽量なTensorflowベースのライブラリとモデルが含まれています。この処理は、必要に応じてアプリケーションのCPUコアとGPUコア上で実行することもできます。また、独自のカスタムモデルを使用することもできます。

AIのボスと人間の奴隷

Google Cloud AutoML: ニューラルネットがニューラルネットによって設計された? AIが誇大宣伝しているようなものかもしれない

続きを読む

このスタックは、ゲートウェイとバックエンド間の接続の安全性を確保します。必要に応じて、Google の Cloud TPU を使用してニューラルネットワーク モデルをトレーニングし、Edge TPU でローカルで推論を実行することもできます。

目標は、センサーや機器からの入力データを使用して、ゲートウェイで可能な限り多くの AI 推論を実行することです。これにより、ガジェットとバックエンドのインターネット サーバーの間でやり取りされる情報が減り、待ち時間が短縮され、意思決定が速くなり、消費される帯域幅が減り、データ セキュリティ リスクが軽減されます。

PCIeまたはUSBを介してホストシステムオンチップとインターフェースするEdge TPUは、8ビットおよび16ビットの整数精度を用いて、最大30フレーム/秒でリアルタイムビデオの推論タスクを実行できると言われています。これは、このハードウェアの最適な用途の一つとして、家庭や職場のカメラ映像から特定の物体、人物、動きなどを分析することが挙げられます。

検索・広告業界の巨人である同社は、NXP、Armに加え、Accton、Harting、Hitachi Vantara、Nexcom、Nokiaとも提携し、チップとゲートウェイの開発に取り組んでいます。下の写真にあるゲートウェイ開発キットは、ArmベースのNXPシステムオンチップ、Wi-Fiコントローラー、セキュアエレメント、Edge TPUをモジュールに搭載しており、今年10月までに注文受付が開始される予定です。

GoogleのEdge TPUハードウェア

また、HDMI、USB、イーサネット インターフェイス、およびおそらく汎用 IO ピンも含まれているようです。

「Edge TPUは、エッジでTensorFlow Lite MLモデルを実行するために設計されたGoogleの専用ASICチップです」と、GoogleのIoT担当副社長であるInjong Rhee氏はこの技術を発表する際に述べた。

Edge TPUの設計にあたっては、小さなフットプリント内で「ワットあたりのパフォーマンス」と「ドルあたりのパフォーマンス」を最適化することに重点を置きました。Edge TPUはCloud TPUを補完するように設計されており、クラウドでのMLトレーニングを加速し、エッジで超高速のML推論を実現できます。センサーは単なるデータ収集装置ではなく、ローカルでリアルタイムかつインテリジェントな意思決定を行うようになります。

これは本質的に、ArmとMicrosoftがそれぞれ推進するIoTゲートウェイハードウェアとバックエンドサービスに対するGoogleの回答であり、推論ハードウェアアクセラレーションと従量課金制のGoogleクラウドロックインも追加されています。開発キットを入手したら、月額のSaaS(Software as a Service)とオンラインストレージ料金の支払いに留まることになります。

もちろん、Armをはじめとするチップ設計企業は、IoTやガジェットグレードの機械学習アクセラレータを独自に提供しています。ここで興味深いのは、GoogleがTPUファミリーの1つを一般の人々に提供している点です。TPUファミリーは、これまでGoogleのデータセンターの奥深くに封じ込められていたカスタムチップのラインです。

さらに詳しい情報については、Google のこちらの記事、こちらの記事、こちらの記事をご覧ください。®

10 月 15 日から 17 日までロンドンで開催される Minds Mastering Machines で、機械学習、人工知能、データ分析、そしてそれらがあなたにとってどのような意味を持つのかを検討します。詳細なプログラムとチケット情報については、Web サイトをご覧ください。

Discover More