ビデオさまざまな人口統計グループにわたる顔認識システムの精度を調査した最近の米国政府の報告書により、この技術をどのように規制すべきかという新たな疑問が巻き起こっている。
下院監視・改革委員会は水曜日、この文書と関連する問題について議論するための公聴会を開催した。「民間部門がこの技術を活用しているにもかかわらず、まだ本格的な運用には至っていない」と、会議の議長を務めたキャロリン・マロニー下院議員(ニューヨーク州選出、民主党)は述べた。
アメリカ国立標準技術研究所(NIST)が12月に発表した報告書[PDF]は、最先端の商用顔認識アルゴリズムの一部が実際にはどれほど正確であるか、あるいはむしろ不正確であるかを明らかにしている。
NIST は、849 万人を撮影した 1,827 万枚の画像で構成される 4 つのデータセットにわたって、99 人の開発者によって提出された 189 のアルゴリズムをテストしました。
「現代の顔認識アルゴリズムは、人口統計学的に様々な差異を示している」と報告書は述べている。「我々の主な結論は、偽陽性の差異は偽陰性の差異よりもはるかに大きく、テストしたアルゴリズムの多く(全てではない)に広く見られるということだ。人口統計学的に見ると、偽陽性率は10倍から100倍以上にも及ぶことが多い。偽陰性は、アルゴリズムによって大きく異なる傾向がある。」
言い換えれば、「アルゴリズムによってパフォーマンスが異なる」と、NIST情報技術研究所所長であり公聴会の証人でもあるチャールズ・ロマイン氏は説明した。誤検知率と誤検知率の差は、アプリケーションによって異なる。
最もリスクの高いアプリケーションは、ロマイン氏が「1対多検索」と呼ぶ、1枚の画像を多数の画像データベースと照合して一致を探す処理において誤検知が発生した場合です。「1対多検索の誤検知は特に重要です。なぜなら、アプリケーションに誤った告発が含まれる可能性があるからです」とロマイン氏は述べました。
例えば、リスクの高い1対多検索は、容疑者を探すために、マグショットのデータベース全体にわたって人々の顔を照合することです。「ACLUの調査で私が誤って特定されるまで、この問題は私の関心事ではありませんでした」と、ジミー・ゴメス下院議員(カリフォルニア州民主党)は述べています。ゴメス議員は、アメリカ自由人権協会(ACLU)が実施した実験で、マグショットのデータベースから誤って特定された28人の政治家の1人でした。
「肌の色を誤認したことは間違いありません。この技術には根本的な欠陥があります」と彼は付け加えた。
NISTの報告書は、ほとんどの顔認識システムが白人男性と比較して、女性、有色人種、高齢者の識別に苦労しているという、既に確立された事実を浮き彫りにしました。調査によると、誤認識率は女性で男性の2~5倍高く、西アフリカ、東アフリカ、東アジアの人々で最も高くなりました。
しかし、中国などの東アジア諸国で開発された顔認識システムでは東アジア人の識別エラー率がそれほど問題にならないことは注目すべきであり、これはトレーニングデータ内の人口統計の分布が精度を決定する上で大きな役割を果たしていることを示唆している。
しかし、最も正確なアルゴリズムでは、さまざまな人口統計にわたる識別の問題は軽減されました。
AIアルゴリズムは時間とともに急速に進歩している
「この1年間、顔認識技術は不正確で、不公平で、侵害的だと示唆する見出しを目にしてきました」と、公聴会の証人であり、非営利団体情報技術イノベーション財団の副議長兼データイノベーションセンター所長を務めるダニエル・カストロ氏は述べた。「もしそれが事実なら、私も心配するでしょうが、実際はそうではありません」
「市場には多くの顔認識システムがあり、性別、ジェンダー、人種、年齢を問わず、他のシステムよりも優れた性能を持つものがあります」と彼は述べた。「注目すべきは、NISTが評価した最も正確なアルゴリズムは、バイアスがほとんどないか全くないことです。これらのシステムは毎年目に見えるほど向上し続けており、平均的な人間よりも優れた性能を発揮する可能性があります。」
カストロ氏は、議会に対し、コンピュータービジョン研究の支援を継続し、連邦政府の建物におけるセキュリティ強化のため、顔認識システムの連邦政府による導入に資金を提供するよう強く求めた。しかし、同氏はこの技術の応用が特に重要であることには同意し、顔認識システムから位置情報が収集された場合、法執行機関が人々の移動を追跡するために令状を取得することを義務付ける法案の施行を議会が検討することを提案した。
連邦政府はアメリカ全土に顔監視システムを構築しており、それを証明するために法廷に立つことになるとACLUは主張する
続きを読む
フューチャー・オブ・プライバシー・フォーラムのAI・倫理担当ディレクター、ブレンダ・レオン氏も、顔認識がいかに重要であったかという文脈が重要であることに同意した。「モバイルデバイスのロック解除時に個人の身元を確認するために許容される確実性のレベルは、個人がテロリスト監視リストに含まれているかどうかを確認するために求められるべき基準を下回っています」と彼女は述べた。
最も正確なアルゴリズムが性別、人種、年齢などの難しい人口統計にわたってますます優れたパフォーマンスを発揮している場合、将来、顔認識システムを潜在的にリスクの高い用途で使用することが許容されるようになるのか、政治家たちは知りたかったのだ。
アルゴリズムの社会的影響を研究する研究機関AI Nowの共同創設者メレディス・ウィテカー氏は、議会は「民間企業による機密領域での顔認識技術の使用を停止すべきだ」と述べた。
特に懸念されるユースケースでは、精度は単純に重要ではないようだと彼女は述べた。例えば、ウィテカー氏は、求職者の表情を分析して特定の特徴を探すアルゴリズムは、科学的根拠に裏付けられていないと指摘した。
代わりに、AIは「バイアス・フィードバック・ループ」を作り出す可能性があると彼女は説明した。これは、既に賞を獲得し昇進した人々が、採用したい人材のモデルとなるというものだ。例えば、上級職に白人男性が就いている場合、AIは他の白人男性を優遇するという確証バイアスを生み出す可能性がある。
議会は数ヶ月にわたり、この技術を規制するための連邦政策を策定するべく、証拠を検討してきた。昨年は5月と7月に顔認識に関する公聴会を2回開催した。
「私たちには、イノベーションを奨励するだけでなく、アメリカの消費者のプライバシーと安全を守る責任があります」とマロニー氏は述べた。「私たちの委員会は、ごく近い将来、常識的な顔認識に関する法案を提出し、その内容を審議することに尽力しており、真の超党派で実現できることを願っています。」
公聴会のビデオ録画は以下からご覧いただけます。®
YouTubeビデオ