3月初旬、Googleは動画を分類するAIのプレビュー版ベータ版をリリースしたが、ワシントン大学の研究者たちがそれを打ち負かすのにたった1か月しかかからなかった。
学者たちのアプローチは単純だ。研究者(博士課程の学生ホセイン・ホセイニ氏が率いる)がやったことは、静止画を「定期的に、非常に低い頻度で」動画に挿入することだけだ。
そのため、ビデオにはトラが映っているかもしれないが、車の写真を挿入すると、システムは「ビデオはアウディに関するものだ」と判断したと大学の発表では述べられている。
Google のベータ版発表では、ディープラーニング分類器は「TensorFlow などのフレームワークを使用して構築され、YouTube などの大規模メディア プラットフォームに適用される」と説明されています。
Googleはデモ動画を正しく認識している
研究者たちは、arXivに掲載された研究論文の中で、この操作は動画を一般の視聴者が見過ごしても気付かない可能性があると説明しています。彼らはGoogleのデモ動画を取り上げ、2秒ごとに1フレーム(つまり、25fpsのフレームレートで50フレームに1フレーム)をアウディの動画に置き換えました。
AIを荒らすと何が起こるか
研究者らは、この作品は笑いのためだけのものではないと書いている。
AIのデモンストレーションはほぼ常に安全な環境で行われていると彼らは指摘する。「機械学習システムは通常、安全な環境で運用されるという暗黙の前提に基づいて設計・開発されます。しかしながら、多くの研究で、敵対的な環境における脆弱性が指摘されています。」
別の例として、言語 AI を使用して荒らしを見つけ出すことは、タイプミス、不適切な単語の意図的なスペルミス、句読点の誤りによって簡単に失敗します。
大学の発表が指摘しているように、法執行機関は監視ビデオ内の容疑者のタグ付けに AI が役立つと大いに信頼している。
また、下の表に見られるように、チョコレート工場の動物、Google Fibre、伝説のゴリラ研究者ジェーン・グドールのテスト動画にアウディが挿入された結果、Google の AI が誤った識別に対しても驚くほどの自信を示したことも興味深い点です。
凡庸な自信:GoogleのAIが自らのパフォーマンスを褒め称える
何よりも素晴らしいのは、研究者たちはビデオ分類装置の AI がそれを騙すためにどのように動作するかを学ぶ必要がなかったことだ。
「学習アルゴリズム、ビデオ注釈アルゴリズム、またはAPIで使用されるクラウドコンピューティングアーキテクチャに関する知識がなくても、GoogleのCloud Video Intelligence APIを欺くことができた」と彼らは書いている。「異なる入力でシステムにクエリを実行するだけで、APIを欺くアプローチを開発した」®