Google I/O Googleは火曜日、カリフォルニア州マウンテンビュー本社横の屋外ショアライン・アンフィシアターに開発者を集め、自然の壮麗さの中で最新の技術の驚異を目の当たりにし、称賛した。
Google I/O 2019のメインイベントの前哨戦として、チョコレートファクトリーは満員のコード職人とその関係者を前に、DJ Nao TokuiによるTensorFlowニューラルネットワークを用いたエレクトロニックミュージックのミックスを披露しました。最初の試みは失敗し、再開を余儀なくされました。
その後、ドラムマシンのパターン、ループ、そしてホーンの音は、プロジェクションスクリーンからアルゴリズムによる入力がはっきりと見えなければ、ビートマッチングや魂のないシーケンス曲の選択にソフトウェアが関わっているとは到底思えないほど、滑らかに変化していきました。では、人間によるミキシングよりも優れているわけではないのなら、なぜAIシステムを組み込むのでしょうか?
以下のビデオの約 4 分あたりから I/O 基調講演を視聴することもできますし、代わりに要約を読むこともできます。
YouTubeビデオ
GoogleのCEOサンダー・ピチャイ氏は、この米国大手企業がGoogle I/OアプリにARナビゲーション機能を追加したことについて、「これは我々が大好きなタイプの挑戦だ」と語った。
ピチャイ氏は壇上で、Googleを「物事を成し遂げるのを支援する会社」と位置づけたが、これは前CEOラリー・ペイジ氏が公言した「世界中の人々が歯ブラシのように1日に2回使うサービスを作る」という願望よりも、もう少し野心的で具体的ではない。
ピチャイ氏のビジョンステートメントは、少なくとも歯科治療との好ましくない関連性を避けている。また、Googleによる絶え間ないデータ収集を懸念する人々にも、安心感を与えている。
すべての人にARを!
Googleは、検索とレンズに拡張現実(AR)を統合することで、ユーザーにとってより使いやすいサービスを提供しようと努めています。今月後半には、検索結果にナレッジパネルが表示される際に「3Dで表示」オプションが追加されます。これはGoogleと企業が検索結果の精度向上のために導入している機能です。3Dモデルは検索ユーザーのスマートフォンで確認でき、ライブカメラ映像に重ねて表示できます。
Google の AR 製品担当副社長兼ゼネラルマネージャーである Aparna Chennapragada 氏は、Google I/O ステージのカメラ映像に重ね合わせたサメの模型を披露してこれを実演しました。
また、彼女は携帯電話の画面上の衣服の 3D モデルを、ライブカメラフィードを通じて見た実際の衣服と比較する方法を示し、電子商取引への応用の可能性を示唆しました。
Google は、NASA、New Balance、Samsung、Target、Visible Body、Volvo、Wayfair などのパートナーと協力して、検索結果で 3D コンテンツを利用できるようにしています。
同社のモバイル端末カメラ向け画像認識システム「Lens」は、視覚検索機能も搭載しています。例えば、レストランのメニューにLensを向けると、カメラのディスプレイに人気のメニュー項目がハイライト表示され、ユーザーが表示された項目をタップすると、メニュー項目の画像などの追加検索情報が表示されます。また、馴染みのない言語の看板にLensを向けると、カメラ画像から看板のテキストを翻訳し、元のテキストに翻訳結果を重ねて表示します。
同社の安価なスマートフォン向けの検索アプリ「Google Go」は、カメラで撮影したテキストを音声で読み上げ、話された単語を強調表示するためにレンズを使用する。
同社のレストラン予約用ロボコールサービス「Duplex」は、より汎用的なアシスタントサービスへと進化を遂げているが、機能拡張はまだ完了していない。ピチャイ氏はウェブ上でDuplexのプレビューを公開した。Duplexはまもなく同社のアシスタントソフトウェアと連携し、ユーザーに代わって車の予約や映画チケットの購入ができるようになる予定だ。
これはChromeのオートコンプリート機能のように機能しますが、カレンダー、Gmail、Chromeなどの他のGoogleアプリからデータを取得し、必須項目に入力する機能も備えています。ピチャイ氏によると、このシステムを利用するために小売業者はウェブページを変更したり、カスタムコードを作成したりする必要はないとのことです。
Creative Strategiesのテクノロジーアナリスト、カロリーナ・ミラネージ氏は、The RegisterのTwitterアカウントで、Googleアシスタントがデバイスやクラウドとの連携を通じて実現できることに驚いていると語った。ミラネージ氏によると、アシスタントはAlexaやSiriをさらに凌駕しつつあるという。
Pixelが安くなる
Googleは、自社製スマートフォンの最新モデルとなるPixel 3aと3a XLをプレビューしました。価格はそれぞれ399ドルと479ドルです。Sprint、T-Mobile、Verizon、Google Fiで販売され、12.2MP(f/1.8)デュアルピクセルリアカメラ、8MP(f/2.0)フロントカメラ、Qualcomm Snapdragon 670プロセッサ、4GB LPDDR4x RAM、64GBストレージを搭載しています。
Android Q についても議論されましたが、それはまた別の話です。
エンジニアリング担当バイスプレジデントのスコット・ハフマン氏は、クラウド上のデータセットではなくローカルAIモデルで動作する次世代Googleアシスタントをプレビューしました。これは技術的なブレークスルーによるもので、100GBのホスト型データモデルをデバイス上の0.5GBのモデルに置き換え、10倍の高速化を実現できるとハフマン氏は説明しました。
新しいアシスタントは今年後半に Pixel スマートフォンに搭載される予定です。
アシスタントは、Googleが「パーソナルリファレンス」と呼ぶものを理解するようにも学習中です。例えば、数ヶ月後には「お母さんの家の天気はどう?」と尋ねると、ソフトウェアがリファレンスを識別し、連絡先データを使って質問を完成させるようになります。また、現在プレビュー段階にある運転モードも搭載され、着信に応答し、現在のタスクに関連する情報を表示します。
そして今日から、Google アシスタントは「Hey/OK Google」という呼び出しフレーズを使わずに、「stop」という言葉を使ってタイマーの呼び出しを停止できるようになりました。
Google本社ではすべてが順調だ
続きを読む
Googleの長らく放置されていたNest部門は、2016年に新たな経営陣のもとに迎えられ、昨年Googleのハードウェアグループと統合され、同社の主力ホームハードウェアブランドとなった。Googleのハードウェア担当シニアバイスプレジデント、リック・オスターロー氏は、今日のスマートホームを「断片化され、フラストレーションがたまっている」と述べ、Google Home製品はすべてNestブランドを継承すると述べた。
Google Home HubはNest Hubとなり、価格も129ドルに値下げされます。これは、カメラ搭載の新モデル「Nest Hub Max」が229ドルで登場したためです。この監視チャットボックスには、必要に応じて顔認識機能が搭載されており、Googleアシスタントが音声認識でユーザーを判別するのと同様に、ユーザーを区別することができます。Googleは、顔認識モデルはすべてローカルで実行され、共有されないと主張しており、Nestデバイスが動画と音声データをどのように取り扱うかを説明するプライバシーに関するコミットメントを公開しています。
Google HomeとNestの製品担当副社長兼ゼネラルマネージャーであるリシ・チャンドラ氏は、Alexa接続スピーカーの録音の保存方法についてAmazonが受けた批判を認識していたのかもしれないが、ブログ投稿で、Googleが家庭内で収集したデータをどのように処理するかを明確にする根拠について述べている。
「私たちはお客様のご自宅にお招きいただいたゲストとして、その招待を尊重し、感謝しております。これらのアップデートは、お客様の信頼を継続的に獲得するための多くの方法の一つです。」®