Ignite Microsoft は火曜日、毎年恒例の Ignite カンファレンスにおいて、ネットワーク エッジで AI コードを実行するためのテクノロジのフル スタックである Azure Percept を発表しました。
これらの資料は、遠隔地にあるネットワーク接続された組み込みデバイスや機器に機械学習ソフトウェアを導入している、または導入を検討している組織を対象としています。これらのシステムは、バックエンドサービスに完全に依存するのではなく、場所を問わず意思決定を行うための一定レベルのインテリジェンスを活用することが期待されています。
例えば、特定の物体、状況、人物を検知した際に選択的に録画するカメラや、機械を調整して概要を報告するセンサーは、すべての測定値をそのまま送信し、指示を待つのではなく、AIなしでも実現可能ですが、訓練されたニューラルネットワークによって強化され、効率化される可能性があります。
こうした展開のあらゆる部分、つまりバックエンド プラットフォーム、エッジで使用するために推奨される電子機器、そしてそれらをすべてまとめるソフトウェアを接続することが、Percept の目的です。
シートベルトをしっかり締めて:フォルクスワーゲンがマイクロソフトをドライバーに据え、「自動化」プラットフォームを提供
続きを読む
例えば、このスタックにはハードウェア開発キットが含まれています。これには小型コンピューターと、Azuze Percept Visionシステムと呼ばれるカメラユニットが含まれており、MicrosoftのAzure Cognitive Servicesを使用してトレーニングすることで、さまざまなタスクを実行できます。
Azure Percept開発キットには、控えめなNXP i.MX 8Mプロセッサが搭載され、Wi-FiとBluetooth接続機能を備えています。Azure Percept Visionシステムには、RGBカメラとIntelのMovidius Myriad X機械学習アクセラレータが搭載されています。
音声アプリケーション向けには、Azure Percept Audioシステムも別途用意されています。「私たちは、最も一般的な2つのAIワークロード、つまり視覚と音声、つまり視覚と聴覚から着手しました。そして、メーカー各社が私たちの取り組みの基本を活用できるよう、そのブループリントを公開しました」と、マイクロソフトのエッジ&プラットフォームグループ担当コーポレートバイスプレジデント、ロアンヌ・ソーンズ氏は述べています。「メーカー各社は、世界のあらゆるパターンをカバーするために、あらゆるフォームファクターでこれを構想することができます。」
Azure Percept Audio(左)、Trusted Platform Module(中央)、Azure Percept Vision(右)。出典:Microsoft。クリックして拡大
ソーンズ氏によると、このプラットフォームはエッジデバイスへのAI導入プロセスを大幅に簡素化するように設計されているという。「ハードウェアアクセラレータをAzure AIおよびAzure IoTサービスに統合し、最小限のセットアップですぐに使えるように設計しました」と彼女は付け加えた。
開発者は、この機器を使用するために人工知能の専門家である必要はありません。ハードウェアをソフトウェアに接続し、多くのコードを書かずに簡単なタスクを実行するようにトレーニングする方法に関するさまざまなオンライン チュートリアルがあります。
開発キットは、Azureに接続するためのプロトタイプ設計を作成するユーザーを対象としているようです。本格的な本番環境での使用、特に複雑なアプリケーションの場合は、Redmondのスタックを使用する場合、Perceptと互換性のあるカスタムハードウェアまたは専用ハードウェアを使用することが想定されます。
そのため、Microsoft はデバイスやコンポーネントのメーカーと協力して、Percept で動作するように機器を認定し、顧客がハードウェアを購入して、Azure ベースの環境に簡単に組み込んで、ガジェットに AI ワークロードを展開できるようにしています。®