知覚力のある AI に気が狂う前に、道路を横断する子供を検知できない自動運転車についてはどう思うだろうか?

Table of Contents

知覚力のある AI に気が狂う前に、道路を横断する子供を検知できない自動運転車についてはどう思うだろうか?

米国下院議員らは水曜日、人工知能が社会、プライバシー、倫理などに及ぼす可能性のあるさまざまな影響や、それに対して何かできることがあるのか​​どうかについて専門家委員会を厳しく追及した。

下院科学宇宙技術委員会の幅広い質問は、問題の広範さと深さを如実に示しました。機械学習のブレークスルーは多くの人々に影響を与えるという事実、そしてアメリカの議員のAI技術に対する理解度がそれぞれ異なるという事実です。偏った学習データに対抗するにはどうすればよいかといった質問は予想通りでしたが、知覚力を持つ機械の台頭といった懸念は、少々奇妙でした。

エディ・ジョンソン委員長(テキサス州民主党)が議論を主導した。「人工知能システムは強力なツールとなり得るが、リスクも伴う」と彼女は述べた。「求人広告掲載における性差別、予測型警察活動における人種差別、そして商品やサービスの郵便番号選択における社会経済的差別が、AIシステムによって示されている」

ジョンソン氏が指摘した問題は必ずしも技術的な問題ではない。機械学習モデルは、入力されたデータからパターンを学習するという、本来の目的通りに機能する。問題は、機械の背後にいる人々にある。ニューヨーク大学で新興技術の社会的影響を研究する研究機関、AI Now Instituteの共同設立者であるメレディス・ウィテカー氏は、議会に対し、「AIの恩恵を受けるのは誰か? 誰が損害を被るのか? そして、誰が決定権を持つのか?」と問うよう促した。

例えば、音声認識システムは女性の声よりも男性の声の認識に優れています。顔認識モデルは、肌の色が濃い人よりも肌の色が薄い人を識別するのに苦労します。MITメディアラボを拠点とし、アルゴリズム・ジャスティス・リーグを設立したジョイ・ブオラムウィニ氏は、これを「特権的な無知」と総括しました。AIの最前線に立つコンピューター科学者は、白人男性である可能性が高いため、こうした問題に遭遇する可能性は低いでしょう。彼らは、自らの人工知能システムの欠陥に遭遇する可能性が低いからです。彼らは、訓練データから得られるモデルが、他の人口層にはうまく機能しないことに気づいていない可能性が高いのです。

外に立っている笑顔の女性3人

マイクロソフトの顔認識技術、青白い白人以外の人物も識別可能に

続きを読む

ウィテカー氏は、この問題の中心にあるのは、多様性の欠如で悪名高いテクノロジー大手や研究機関だと指摘する。グーグル、フェイスブック、マイクロソフト、アマゾン、アップルの従業員は、女性、有色人種、障害者が相対的に不足している。

「AI業界における多様性の危機とは、女性、有色人種、性的マイノリティ、その他の社会的に疎外された人々が、AIシステムの設計に貢献したり、システムの機能形成や、システムが解決すべき問題の決定から排除されていることを意味します」と彼女は述べた。

サンフランシスコに拠点を置く機械学習研究機関OpenAIの政策ディレクター、ジャック・クラーク氏は、テクノロジー企業もより多様な専門分野を持つ人材を必要としていると述べた。AI研究は通常、コンピューターサイエンス、数学、ソフトウェアエンジニアリングといった狭い分野を専門とする人々によって行われている。「コンピューターサイエンティスト20人と弁護士1人」だけでは不十分だとクラーク氏は指摘する。「哲学者、社会科学者、そしてセキュリティ研究者も必要です」

しかし、たとえコンピュータサイエンスのコミュニティが一夜にして多様化したとしても、依然として明白な問題は残るだろう。「AIアルゴリズムは、低品質で偏ったデータの影響を受けないことは分かっています」と、米国エネルギー省が支援する科学研究の中枢機関、オークリッジ国立研究所の医療データ科学研究所所長、ジョージア・トゥラッシ氏は述べた。

差別、プライバシー、そしてセキュリティといった同様の問題は、医療にも適用される必要がある。医療システムの訓練に使用されるデータだけでなく、展開時にも倫理的な監視が必要だと彼女は主張した。

公平性

では、米国政府はこの問題に対して何をすべきでしょうか。ここで言う「公平性と信頼性」とは、機械学習のアルゴリズムとモデルが公平で信頼できるものであることを保証することです。トゥラッシ氏は、訓練されたシステムを評価するために「客観的なベンチマーク」を提案しました。政府機関は、AIシステムの性能、堅牢性、公平性、安全性に関するテストを実施し、その結果を公開または共有することができます。クラーク氏は、国立標準技術研究所(NIST)などの組織が監査を担当することも可能であると付け加えました。

ウィテカー氏は、こうしたシステムが導入される前に、官民両セクターで影響評価を実施すべきだと訴えた。また、企業は「企業秘密の盾に隠れるのをやめ」、こうしたテストを実施し、公表できるようにする必要がある。

「規制当局、研究者、そして一般市民が、これらのシステムの潜在的な危害についてより深く理解し、調査・理解しようと努める際、構造的な障壁に直面することになります。AIを開発・導入する企業は、企業秘密法を悪用することが多く、テスト、監査、監視を極めて困難にし、場合によっては不可能にしてしまうのです」と彼女は付け加えた。

AIの第一人者ン氏:殺人ロボットの台頭を恐れるのは火星の人口過密を心配するようなものだ

続きを読む

ブオラムウィニ氏は、アメリカ政府は、比較的安価なソフトウェアパッチであらゆる問題を解決できると想定するのではなく、制度に深く根付いた偏見に対処するための学際的研究への資金提供を増やす必要があると述べた。「例えば、刑事司法制度で使用されている自動リスク評価ツールに関する研究では、刑事司法制度における人種差別的偏見が依然として存在しており、技術的な修正では改善できないことが示されています」と彼女は付け加えた。

少数の議員は、AIがより予測不可能になり、潜在的に危険性が高まる未来へと議論を誘導しようとした。「スカイネットについてお聞きします」とある議員は言った。「AIに意識が芽生えることを心配すべきではないでしょうか?」

ブオラムウィニ氏は、「意識を持つAIへの懸念は、愚かなAI、つまり十分に訓練されていないAIがもたらす現実世界の問題を見逃していると思います」と反論した。彼女は、歩行者を認識するように訓練されたコンピュータービジョンモデルは、大人よりも子供を見逃す可能性が高いという最近の研究を引用した。

これを自動運転車に搭載すれば、子供の命を危険にさらす可能性があります。「そこで、私たちはAIが知覚を持つようになることを懸念していました。そして、実際に死亡事故につながっているのは、十分に訓練されていないAIなのです。」®

公聴会の様子は以下からご覧いただけます。

YouTubeビデオ

Discover More