Uberの不穏な自動運転車の死亡事故、AIの新たな常識への挑戦、そしてFacebookの悪質なアルゴリズム

Table of Contents

Uberの不穏な自動運転車の死亡事故、AIの新たな常識への挑戦、そしてFacebookの悪質なアルゴリズム

まとめ: AIにとって暗い一週間でした。Uberの致命的な事故、そしてFacebookとCambridge Analyticaのスキャンダルによる余波は、アルゴリズムがいかに失敗し、そしてそれがいかに私たちに不利に働くかを改めて思い起こさせました。

Uber の自動運転車の致命的なビデオ- Uber の自動運転車が女性に衝突する直前の最後の瞬間を捉えたビデオ映像は衝撃的で、LiDAR が故障した状況を明らかにしています。

速報:テンピ警察が自動運転車の死亡事故の映像を公開。注意:この映像は衝突直前の致命的なシーンを捉えており、衝撃的です。安全運転を心がけるドライバーが衝突直前、ほとんどの時間、下を向いている様子が映っています。pic.twitter.com/fzLAFBzG6q

— デビッド・シェパードソン(@davidshepardson)2018年3月21日

映像では、夜で道路が暗く、かすかな閃光が自転車のフレームと白い靴を照らしているのが分かります。彼女の全身が映る頃には、車は衝突寸前まで迫っていました。この出来事はすべて非常に速く、人間でさえ判別するのは困難です。

搭載されているLiDARが彼女を検知できなかったのは恐ろしいことです。おそらく暗い環境だったのでしょうが、彼女が黒いジャケットを着ていたことも状況を悪化させていました。LiDARは光を発し、反射光を測定することで物体を検知します。黒は反射率が最も低い色であるため、システムにとって周囲の状況を把握するのがより困難になります。

この動画は、自動運転車が故障した際に人間が注意を払い、運転を引き継ぐ準備をしておく必要があることを改めて認識させてくれます。車内カメラには、人間のドライバーが気を取られて何かを見下ろしており、顔を上げたときには既に手遅れだったことが映っています。ドライバーはショックとパニックに陥り、目と口を大きく開けたままになり、動画は途切れました。

この事故は、自動運転車との衝突により歩行者が死亡した初めての事例とみられる。フロリダでの死亡事故を受けて、Uberはアリゾナ州、サンフランシスコ、カナダなどにおける自動運転車の試験をすべて中止した。

このストーリーについては、ここでさらに詳しく取り上げました。

ニューヨーク・タイムズによると、同社の自動運転車はアリゾナ州の道路で試験走行中に、人間の介入なしに13マイル走行するという目標を達成するのに苦労していたことも内部文書で明らかになった。

ウェイモの車は人間が運転を引き継ぐまでに平均5,600マイル走行できると言われていることを考えると、これは驚くほど低い数字だ。それでもUberは、年末までに自動運転タクシーサービスを提供することで経営陣に感銘を与え、利益を押し上げようと、自動運転車開発への取り組みを積極的に推進し続けた。

UberのCEOであるダラ・コスロシャヒ氏は、このプロジェクトを中止することも考えたようだが、自動運転車がビジネスにとっていかに重要であるかを認識し、中止を決意したと報じられている。

常識をテスト? - ジョージア工科大学の研究者グループが企画したチャレンジは、コンピューターの視覚、自然言語、知識スキルをテストすることを目的としています。

Visual Question Answering (VQA) の知識チャレンジでは、AIモデルに画像を与え、その画像に関する少なくとも3つの質問をすることで、AIモデルをテストします。以下にシナリオ例を示します。

VQA_18

チャレンジの例題。画像提供:VQA2018

システムは口ひげが何であるかを漠然と理解し、口ひげが顔のどこに通常位置するかを知っており、画像では髪の毛ではなくバナナでできていることを認識する必要があります。

これを実現するために、システムは、COCOデータセットから取得した25万枚以上の画像、一般的なオブジェクトのキャプション付き画像のセット、および100万以上のサンプル質問と、各質問に対する10個の「簡潔な自由回答」でトレーニングされています。このうち1つが正解です。

コンテストのウェブサイトによると、「VQAは、画像に関する自由回答形式の質問を含む新しいデータセットです。これらの質問に回答するには、視覚、言語、そして常識的な知識の理解が必要です。」

誰でもこのチャレンジに参加することができ、主催者はトレーニング データセットをオンラインで公開しています。

VQA 2018 は第 3 回目のチャレンジで、提出期限は 5 月 20 日です。詳細については、こちらをご覧ください。

Facebook の AI がどのようにプロパガンダに利用されるのか- 今週、著名な Google AI エンジニアが長々と語り、Facebook のアルゴリズムがどのようにユーザーをコントロールし、操作するのかを説明した。

深層学習ソフトウェアライブラリKerasの作者であるフランソワ・ショレ氏は、このソーシャルメディア界の巨人によるユーザーのニュースフィードへの支配力が「心理的制御ベクトル」として作用していると主張した。最も重要で関連性の高い投稿をユーザーのニュースフィードのトップに押し出すアルゴリズムは、私たちが誰と連絡を取り合うか、どのようなニュース記事や意見を読むかを決定することを意味する。つまり、Facebookは実質的に私たちの政治的信条や世界観を支配しているのだ。

ショレット氏は、Facebookの利用によって強化学習のループがどのように構築されるかについて述べている。「これは、ターゲットの現在の状態を観察し、どのような情報を与えるかを調整し続けるループであり、最終的に自分が見たい意見や行動が観察できるようになるまで続きます」と彼はツイートした。

同氏は、AIは急速に進歩しており、フェイスブックはAI分野のリーダーとなることを期待してAI技術に多額の投資をしていると警告した。

「私たちが注目しているのは、20億人以上の人間のきめ細かな心理プロファイルを作成し、大規模な行動操作実験を実行し、世界史上最高のAI技術の開発を目指す強力な組織です。

「個人的に、本当に怖いです。AI分野で働いている方は、彼らを助けないでください。彼らのゲームに乗ってはいけません。彼らの研究エコシステムに参加しないでください。どうか良心を示してください」と彼は強く訴えた。

これは興味深い見解であり、ケンブリッジ・アナリティカも明らかに同様のことが可能だと考えている。しかし、Facebookが政治的プロファイリングや大衆操作においてどれほど効果的であるかは測定が難しく、検討すべき重要な問題である。

Twitter スレッド全文はここでお読みいただけます。

彼の最後のコメントを受けて、Twitterユーザーはすぐに、この点においてGoogleはFacebookより優れているのかと指摘しました。いい質問ですね。

空港での自動運転シャトル- 英国で2番目に利用者数の多いガトウィック空港は、初めて従業員向けに自動運転シャトルを試験的に導入する。

この空港はこうしたシャトルに投資する世界初の空港のようで、英国の自動運転車の新興企業であるOxboticaと提携している。

ガトウィック空港は声明で次のように述べた。「この技術が飛行場環境で実証され、さらに試験が続けば、このプロジェクトは、航空機プッシュバックタグ、乗客ロードブリッジ、手荷物タグ、輸送バスなど、空港で使用されるさまざまな他の自律走行車の先駆けとなる可能性があります。」

シャトルは、路上を走る自動運転車よりもはるかにシンプルです。センサーのみで走行し、ナビゲーションにGPSは必要ありません。試験運用には乗客や航空機は乗らず、エアサイド道路を経由して北ターミナルと南ターミナル間の作業員の送迎にのみ使用されます。

収集されたデータは、英国政府の運輸省、民間航空局、および自律飛行場車両に関心を持つ保険会社XL Catlinを含む他の組織とも共有されます。®

Discover More