Google は、同社のクラウド プラットフォーム向けに新しい Explainable AI 機能を発表しました。この機能は、AI 予測がその結果を導き出す原因となる特徴について、より詳しい情報を提供します。
今日の多くの機械学習およびAIシステムで使用されている人工ニューラルネットワークは、ある程度、生物の脳をモデルにしています。これらのシステムの課題の一つは、システムが大規模かつ複雑になるにつれて、特定の予測の正確な理由を把握することが困難になっていることです。この問題に関するGoogleのホワイトペーパーでは、「デバッグ可能性と透明性の喪失」について言及されています。
これによって生じる不確実性は深刻な結果をもたらします。システムがトレーニングデータ内の無関係または意図しない特徴を拾ってしまうという、偽の相関関係を隠蔽してしまう可能性があります。また、倫理的に許容できない特徴に基づいて予測を行うAIバイアスを修正することも困難になります。
AIの説明可能性はGoogleが発明したものではないが、広く研究されている。課題は、AIシステムの仕組みをいかに分かりやすい形で提示するかである。
Googleは、「AI Explainability(AIの説明可能性)」という見出しの下、役立つ可能性のある3つのツールセットを開発しました。まず、そしておそらく最も重要なのはAI Explainsです。これは、AIが検出した特徴と、各特徴が予測にどの程度影響を与えたかを示すアトリビューションスコアを一覧表示します。ドキュメントに掲載されている例では、ニューラルネットワークが気象データと過去の走行情報に基づいて自転車走行時間を予測しています。このツールは、気温、曜日、出発時刻などの要素をスコア化し、予測への影響度を表示します。
AI説明可能性ツールによって表示されるスコア付き属性
画像の場合、オーバーレイには、画像コンテンツの分類において画像のどの部分が主な要素であったかが表示されます。
また、個々の属性を操作した場合のモデルのパフォーマンスをテストできる What-If ツールや、結果の監視を支援するためにサンプル結果を定期的に人間のレビュー担当者に提供する継続的な評価ツールもあります。
AI の説明可能性は、ほぼあらゆるモデルの評価に役立ち、バイアスの検出にはほぼ必須です。Google はこれを、責任ある AI へのアプローチの一部と考えています。
GoogleのAI・機械学習担当チーフサイエンティスト、アンドリュー・ムーア博士は、ロンドンで開催された同社のNextイベントでこのテーマについて講演した。「学術界がAIの予期せぬ結果について懸念し始めたのは、わずか5、6年前のことだ」と同博士は述べた。
彼は微妙なアプローチを提唱した。「コンピュータービジョンを使って、建設現場の人々の安全を確認し、ヘルメットを着用していない人がいたら警告を発したいと考えていました。一見すると、安全に役立つので明らかに良いことのように思えますが、そうすると、作業員を非人間的な方法で監視する世界になりつつあるという議論が出てくるでしょう。こうした複雑な問題に取り組まなければなりません。」
ムーア氏は、同社は顔認識技術に関して慎重な姿勢をとっていると述べた。「当社は強力な顔認識技術を保有しているため、汎用的な顔認識技術をAPIとして提供するのではなく、適切な用途で確実に利用される製品に組み込むという、熟慮の末の決定を下しました。」
ムーア氏は、AIの成功には説明可能性が不可欠であると強調した。「安全性が極めて重要なシステムや、意図しない結果をもたらす可能性のある社会的に重要なものを扱う場合、モデルが誤りを犯したと思われる場合は、それを診断できなければなりません。説明可能性によって何ができて何ができないかを丁寧に説明したいと考えています。万能薬ではありません。」
「Googleでは、AIのおかげで重大なミスを犯すのを防げました。例えば、胸部X線写真の分類作業では、AIが私たちが考えていたよりもはるかに優れたパフォーマンスを発揮していることに驚きました。」
これらのツールを使って、モデルに肺がんの陽性診断について、機械学習アルゴリズムがなぜ正しいと判断したのかを尋ねることができました。説明可能性インターフェースを通した機械学習アルゴリズムは、何らかの追加情報に着目していたことを明らかにしました。訓練セットの陽性例の多くにおいて、医師がスライド上で腫瘍があると思われる場所に軽くハイライトマークを付けており、機械学習アルゴリズムはそれを予測の主要な特徴として利用していたのです。これにより、私たちはその開始を撤回することができました。
この取り組みはGoogle独自のものがどの程度あるのだろうか?「これは世界と連携して取り組んでいるものです」とムーア氏は述べ、「ニューラルネットワークの活用方法に新たな改良を加えていますが、現時点では公表していません」と認めた。
予測が行われた理由について、依然として不確実な部分は残るのでしょうか?「これは知識豊富なデータサイエンティストを支援するための診断ツールですが、それでも様々な問題が発生する可能性があります」とムーア氏は語った。「このツールセットのすべてのユーザーには、付属のホワイトペーパーを必ず理解するようお願いしています。ホワイトペーパーでは、相関関係と因果関係の違いなど、多くの危険性について解説されています。しかし、このツールセットは、人間が解釈すべき情報がはるかに多くあるにもかかわらず、洞察がほとんど得られない状況から抜け出すのに役立ちます。」
責任ある AI を実現するためのツールは、責任ある AI を強制することと同じではないことに注意してください。責任ある AI を強制することは、さらに難しい問題です。®