ハンズオンAmazon Web Services のアップグレードされた DeepLens AI カメラは、基本的にはクラウドに接続された HD カメラを搭載したミニ PC だと言えますが、多くの優れた機能も備えています。
このギアは現在ヨーロッパでも販売されています。最初のバージョンは米国のみで販売されていましたが、新バージョンは英国を含む7カ国で新たに販売されています。
DeepLensは、AWS機械学習(ML)サービスを用いたAIアプリケーションのプロトタイピングを目的としたクラウド接続型カメラです。カメラ入力に基づくAIの世界への第一歩を踏み出す愛好家にも最適です。以前のバージョンは、2017年のAWS re:Inventカンファレンスで初めて発表されました。
視聴する準備ができました: AWS DeepLens は、機械学習を始める開発者を対象としています。
この製品はAWSとIntelの共同作業の成果です。DeepLensのハードウェアは、Ubuntu 16.4 LTS(Long Term Servicing)を実行するミニPCと、それに搭載されたHDカメラで構成されています。
仕様は特別なものではありません。デュアルコア Intel Atom x5 E3930 1.3GHz、HD Graphics 500、8GB RAM、16GB ストレージ、マイクロ SD スロット、アダプタが必要な煩わしいマイクロ HDMI ポート、および 2 つの USB 3.0 ポートです。
DeepLensは、基本的にHDカメラが接続されたミニPCです(クリックして拡大)
4 台目のマルチ Pi: Raspberry Pi 4 が本日発売。1.5GHz Arm Cortex-A72 CPU コア 4 基、最大 4GB の RAM を搭載...
続きを読む
7月10日から235ポンドまたは249ドルで発売される新しい1.1ハードウェアは、USB 2.0ではなくUSB 3.0を搭載し、Intel RealSense深度センサーと、16コアのアドオンVPU(ビジュアル・プロセッシング・ユニット)アクセラレータであるIntel Movidius Neural Compute Stick 2のサポートが追加されています。100ポンド程度でAIアプリケーションのパフォーマンスを大幅に向上させることができます。マイクが搭載されていないのは意外ですが、必要に応じてマイクを接続できます。
DeepLens はすっきりしたパッケージでハッキングも可能 (Ubuntu のルートアクセスをすぐに取得可能) ですが、ハードウェアの点では、適切なカメラを搭載した新しい Raspberry Pi 4 や、Pi Zero と Movidius VPU が付属し、段ボール製の組み立て式ケースが付いているものの DeepLens の半額で入手できる Google の AIY Vision Kit と比べると価値が劣ります。
DeepLens の利点は、AWS を機械学習プロジェクトに利用したい場合、すぐに使えることです。プリインストールされたソフトウェアには、DeepLens カメラからの画像ストリームなどの IoT データをローカルで処理する AWS IoT Greengrass が含まれています。
IoT Greengrassを使用すると、AWS Lambda関数の実行、機械学習モデルのデプロイ、MQTT(パブリッシュ・サブスクライブ型メッセージングプロトコル)のローカル実行が可能になります。つまり、ローカル推論が可能になり、処理のために画像をクラウドに送信する必要がなくなります。
AWS MLにおけるもう一つの重要な要素は、MLモデルの構築とトレーニングのためのSageMakerです。DeepLensのワークフローは、SageMakerを使用してMLモデルを構築し、DeepLensにデプロイしてローカル推論を実行するというものです。また、SageMaker Neoと呼ばれる最適化機能も提供されており、効率的な共通モデルフォーマットとDeepLensやその他のデバイス向けのランタイムを組み合わせることで、推論速度を最大2倍に高めています。
DeepLensを実際に使ってみる
これはクラウド指向のデバイスであるため、箱の中にはハードウェアとAWS DeepLensサイトへのリンク以外には特に何も入っていません。ドキュメントでは、DeepLensを管理するために必要な権限を持つAWS IAMユーザーを作成することが推奨されています。
サポートされているリージョンは米国東部のみですが、リリース日以降に変更されることを期待しています。「DeepLensを登録」をクリックすると、デバイス名の入力とセキュリティ証明書のダウンロードを求められます。その後、デバイス本体をWi-Fiネットワークに接続し、デバイス本体で設定を続行します。少なくとも、これは想定内の動作です。私の場合、デバイスが自動更新を開始し、登録プロセスが中断されました。DeepLensにはAWS設定をリセットする便利なピンホールがあり(OS全体のリセットではありません)、2回目の試みで成功しました。
DeepLens は AWS コンソールですぐに使用できます (クリックして拡大)
次のステップはサンプルプロジェクトのダウンロードです。提供されているプロジェクトは、顔認識(もちろん識別はできませんが)、人気オブジェクト20個の検出、ホットドッグかどうかの判定など、あまり刺激的なものではありません。私はオブジェクト検出を選択しました。
提供されているサンプルプロジェクトは魅力的ではない(クリックして拡大)
この時点でAWSは「さまざまなサービス」に費用がかかることを警告しますが、具体的な費用は示しません。費用は控えめであるはずですが、AWSの実験を何度も実行しすぎて、見落としてしまうことがよくあります。
思い切って試してみると、成功メッセージと「プロジェクトストリームを表示」をクリックするように促すメッセージは表示されたものの、クリックするボタンが表示されませんでした。何が問題なのかは分かりませんが、デバイスにSSH接続し、ストリーミング証明書をコピーしてFirefoxまたはChromeにインストールし、ポート4000でストリームを表示する方法については、別途ドキュメントが用意されています。この方法はうまくいき、物体検出を楽しむことができました。ただ、机の上の巻尺と電源アダプターが29%の確率で人だと判定されたのは面白かったです。これも楽しみの一つで、このサンプルはシステムの動作を示すためのものです。
DeepLensデバイスは、警告ラベルで確認されているように、すぐに熱くなります。ローカル推論とビデオストリーミングを行っている間、この小さなデバイスはフル稼働しており、IntelチップはArmほど冷却性能に優れていることはありません。
「物体検出」プロジェクトは、始めるのにはあまり役に立ちません。簡単に修正してより多くの物体を検出したり、精度を向上させたりすることはできません。DeepLensについて学ぶには、「頭部ポーズ検出」のチュートリアルに従うのが良いでしょう。このチュートリアルでは、15人の様々な頭部ポーズの画像セットを用いて、モデルをゼロからトレーニングする方法が説明されています。また、Pythonコードの一部をコピー&ペーストしますが、これで多くのことを学べるかどうかは分かりません。データの前処理には通常、ローカルPCで15~20時間かかりますが、ハイエンドのEC2(Amazon Elastic Compute Cloud)インスタンスを使用することもできます。その後、AWS SageMakerでモデルをトレーニングします。ドキュメントによると、約7時間、1時間あたり約0.90ドルです。これは大した金額ではありませんが、AWSの収益源であり、大規模なデータセットでモデルをトレーニングするとコストがかかります。
その他のDeepLensプロジェクト
DeepLensには「コミュニティプロジェクト」も数多く存在し、AWSのチュートリアルよりも説得力のあるユースケースとなっています。手話を読み取るプロジェクトや、認知症患者が家族を認識できるようにするプロジェクトなどもあります。また、「顧客をリアルタイムでターゲティングできる広告プラットフォーム」であるDeepAdsもあります。これはマーケティング担当者にとって非常に興味深いテーマですが、AWSは顧客のプライバシーを尊重し、EUの一般データ保護規則などの規制を遵守するための支援策を講じているのでしょうか?
「当社のサービスには利用規約があります」と、AWSグローバルテクニカルエバンジェリストのジュリアン・サイモン氏はThe Regに語った。これには以下のような条項が含まれている。
「お客様には、この技術で何ができて何ができないのかをご理解いただけるよう、情報提供に努めています」とサイモン氏は述べた。「当社のサービスはGDPRに準拠しています。現時点でDeepLensの不正利用は確認していませんが、万が一不正利用があった場合はご報告ください。サービスが現地の法律に違反しているという報告を受けた場合は、調査を行い、サービスを停止いたします。」
AWSのコンプライアンス検証能力には限界がある、とサイモン氏は言う。「我々は顧客の行動を把握したくない。AWS内での顧客の行動は完全にプライベートだ」
DeepLens は本当にお買い得なのでしょうか?AWS のお客様が機械学習と AI を使い始めるのに役立つデバイスとして、ハードウェア自体の特別なメリットよりも、すぐにセットアップできるという点が魅力的です。
TensorFlowとPyTorchはDeepLens上で動作しますが、Intelが最も最適化に注力しているApache MXNetとの相性が良いように思われるのも注目すべき点です。TensorFlowはGoogleによって開発され、GoogleのクラウドではTensorFlow向けに最適化されたカスタムハードウェアであるTPU(Tensor Processing Unit)が提供されています。AWSは独自のInferentiaプロジェクトを近々開始する予定です。これは一般的なMLフレームワークをすべて処理するためのカスタムハードウェアですが、現時点ではGoogle Cloud PlatformがTensorFlowに有利なようです。
まとめると、DeepLensはハードウェアのコストパフォーマンスが最良とは言えないとしても、ある程度のプロトタイピングには十分です。ただし、導入はもう少しスムーズにできるはずです。サンプルプロジェクトは古臭い感じがしますし、AWSが本当にAIを民主化したいのであれば、チュートリアルをもっと充実させるべきです。®