ロンドンのトップ警察官は、おそらく皮肉を込めて、顔認識の批判を「非常に不正確または無知」だと一蹴した。

Table of Contents

ロンドンのトップ警察官は、おそらく皮肉を込めて、顔認識の批判を「非常に不正確または無知」だと一蹴した。

ロンドン警視庁のクレシダ・ディック長官は、顔認識技術は「極めて不正確、もしくは極めて無知である」と非難し、批判派の怒りを買った。

一方、批評家らは、この技術自体が極めて不正確で、実際に機能するのはわずか19%のケースに過ぎないという独立した報告書を無視して、彼女が十分な情報に基づいていないと非難している。

ディック氏は月曜日、安全保障シンクタンクの王立安全保障研究所(RUSI)で年次演説を行い、英国軍が犯罪と闘うために最新技術を使うことを認められる必要があると主張するのに演説の大半を費やした。

しかし、公開討論を歓迎するというメッセージを押し出す一方で、ディック氏は顔認識に関する議論を最初に巻き起こしたリバティやビッグ・ブラザー・ウォッチなどの団体を攻撃した。

「今、議論の中で最も声高に叫んでいるのは批判者たちのようです。時に、彼らは非常に不正確だったり、全くの無知だったりします」と彼女は集まった人々に語りかけた。「犯罪被害者に対し、警察がテクノロジーを合法かつ適正な方法で犯罪者逮捕に利用すべきではない理由を説明するのは、批判者たちの役割だと思います」。彼女の動画はこちらでご覧いただけます。

YouTubeビデオ

批判者たちは即座に反応し、ディック氏の偽善を非難した。「ロンドン警視庁が顔認識に関する真剣な議論を根拠のない『フェイクニュース』という非難に矮小化するのは、何の役にも立たない」とビッグ・ブラザー・ウォッチはツイートした。「ディック氏は、真に深刻な懸念を認識し、それに取り組んだ方が良い。彼女が無視した、非難に値する独立報告書に記された懸念も含め」

リバティも同様の反応を示した。「事実:ロンドン警視庁は、2年間の試行期間における同技術の使用が人権を尊重していないという自らの調査結果を無視して、顔認識技術の使用を開始した。もう一つの事実:批判に正面から向き合うのではなく、脅しをかけ、嘲笑する姿勢は、彼らが顔認識技術を使用する根拠がいかに薄弱であるかを示している。」

それは本当だ

これらの非難は事実です。過去にも報じたように、ロンドン警視庁によるリアルタイム顔認証の試験プログラムは完全な失敗に終わりました。2016年にノッティング・ヒル・カーニバルで行われた最初の試験では、誰一人として身元が特定されませんでした。翌年、多くの団体が禁止を訴えていたにもかかわらず、試験は再び実施されました。

今回もまた失敗に終わりました。身元は特定されなかったものの、誤検知が35件も記録されました。それでも英国政府は、顔認識ソフトウェアに関する460万ポンド(590万ドル)の契約を進めました。

ロンドン中心部の警察

ロンドン警視庁がスイッチを入れる: 市民の皆さん、笑ってください…ライブ顔認識を受けています

続きを読む

そして昨年、エセックス大学のフッシー教授とマレー博士という研究者らが警察が実施した最後の6回の「試験」にアクセスし、それに基づいた独立した報告書が発表された。報告書では、システムは合計42の候補のうち、正しく一致したのはわずか8つだったと指摘されている。

また、報告書は人権法の遵守を考慮していないため、裁判はおそらく違法であると結論付けました。マレー氏は、「この報告書は、裁判の人権法遵守に関して重大な懸念を提起しています…裁判の法的根拠は明確ではなく、人権法で定められた『法に準拠している』という基準を満たす可能性は低いでしょう」と述べました。

彼らは、国家レベルでの適切なレベルの国民の監視と議論を含む一連の問題が解決されるまで、顔認識のすべての実地試験を中止するよう求めた。

さらに、イーストロンドンのロムフォードで試験運用中のシステムから顔を隠した男性がいたことで、現場の警察がこの技術をどのように利用するのかという懸念が現実味を帯びてきた。警察は男性を呼び出し、その行動は疑わしいと判断し、「治安紊乱行為」として90ポンド(約1万1千円)の罰金を科した。

無実が証明されるまで有罪

たまたま撮影クルーが撮影中だったので、その後、男性に話しかけた。「『顔が映りたくない』って言ったんです」と男性はクルーに言った。「顔を隠したいなら隠します。彼らが私に顔を隠せと言ってはいけないんです」

試験運用の失敗、システムは違法だという報告書、撮影を拒否した男性が拘束され罰金を科せられたことを受けて、ロンドン警視庁は内務大臣の支援を得て今月初めに顔認識システムを正式に承認した。

ディック氏の今朝のスピーチに関して、彼女は「公衆の一員として」意見を述べる前に「セキュリティとプライバシーの境界線はどこにあるのか」を決めるのは自分の立場ではないと述べた。その意見は、彼女自身の言葉で言えば率直なものだった。

「ツイッターやインスタグラム、フェイスブックの時代において、私や法を遵守する他の市民の画像がLFR(ライブ顔認識)を通過して保存されないことへの懸念は、胸を刺されるナイフから守られるという私や国民の重要な期待に比べれば、はるかに小さいものに感じます。」

彼女はまた、顔認識をめぐるさまざまな「神話」を列挙した。ロンドン警視庁は撮影した人物の画像を保存する(ソフトウェアによって容疑者候補と特定された人物の写真のみを保存し、証拠として必要な場合を除き31日以内にそのデータを削除する);ソフトウェアが決定を下す(ディック氏によると、最終決定は常に人間の警官が下す);あらゆる種類の犯罪に使用される(ディック氏によると、重大犯罪にのみ使用される);ソフトウェアには固有の偏見がある(ディック氏によると、「私たちが導入している技術には民族的偏見がないことが証明されている」);そしてロンドン警視庁は技術について秘密主義である(ディック氏によると、ロンドン警視庁は「この技術については完全にオープンで透明性がある」)

透明性を求めて

こうした主張のいくつかは疑わしい。カメラの前を歩く人々と容疑者の写真を照合するために使われるデータベースには、1250万人の顔写真が含まれていると考えられており、このシステムでは「重大犯罪」のみが考慮されるという主張とは大きく異なる。

彼女はロンドン警視庁が裁判について「完全にオープンで透明性がある」と主張しているが、実際にはロンドン警視庁のシステムがいかに非効率的であるかを示す統計データを入手するには情報公開請求が必要だったのだ。

警察はシステムが機能していると主張しているものの、実際には、システムがリストに載っていない人物を「特定」してしまう誤検知率は全国平均で91%に達している。つまり、システムによって犯罪の可能性があると判断された人の91%は、実際には無実であり、誤認されていたことになる。

ロンドン警視庁は、ディック氏が今日主張したように、システムが捉えた映像とデータベース内の写真を比較することで、人間である警察官が人物に近づくかどうかを最終判断すると主張することで、これらの欠点を回避している。つまり、悪いのは警察官であり、指示を出すコンピューターではないのだ。

ディック氏はむしろ、このシステムの限定的な成功に焦点を当てた。「ロンドン警視庁によるLFRの試験運用の結果、指名手配中の人物8名が逮捕されましたが、LFRがなければ身元を特定することはほぼ不可能でした」と彼女は主張した。「LFRがなければ、危害を加えたとして指名手配されていた8名はおそらく逮捕されなかったでしょう。」

彼女はその後、この制度に対する深刻な懸念を表明した。「もちろん、批判そのものに反対しているわけではありません。ジョン・スチュアート・ミルが助言したように、真実は、アイデアや議論を反対意見や反論、あるいは開かれた議論にさらすことによって明らかになるのです。競争相手がいないアイデアは、その価値を証明する手段を失っているのです。」

その結果、彼女は「今日のスピーチに備えて」、AIと公的基準に関するエヴァンス卿の報告書や、RUSIが本日発表した研究を含む最近の報告書を読んだと述べた。

それで、全員同意したんですか?

たまたま、両報告書の著者がディック氏の講演後の短いパネルディスカッションに同席した。エヴァンス卿(ちなみに、彼はかつて英国の内務保安情報機関MI5の長官を務めていた人物)は、報告書の「全体的な結論」は「テクノロジーには非常に前向きな可能性がある」が、特に「オープン性、説明責任、客観性」に関して「欠陥や脆弱性」が存在するというものだったと主張した。

RUSI報告書の著者であるアレクサンダー・バブタ氏も「ギャップ」を指摘し、特に「国家的な枠組みの欠如」が顕著であり、人工知能や顔認識などの最新技術を使用する前に「影響評価を実施する」必要があると主張した。

しかし彼はまた、警察がそのような技術を試用しないためには法律が可決されるまで待つのは時間がかかりすぎると主張し、「待つことはできない」と主張し、できるだけ早く政策の枠組みと国家的なガイドラインが必要だと主張した。

バブタ氏は言及していないが、報告書では言及している点は、顔認識の問題が報告書の調査範囲に明確に含まれていなかったことだ。「生体認証技術(ライブ顔認識、DNA分析、指紋照合など)は、本調査の直接的な範囲外である。また、秘密監視機能や、携帯電話データ抽出やコンピューターフォレンジックといったデジタルフォレンジック技術も対象外である」と報告書には記されている。

バブタ氏は、同じ壇上にいる2人の権力者を前に、自身の報告書が「実証的な根拠の欠如、データの質の低さ、そして不十分なスキルと専門知識が、成功への3つの大きな障壁である」と指摘しているという事実を軽視した。

さらに、「特に、警察アルゴリズムの開発は、その利点、科学的妥当性、費用対効果に関する確固とした実証的証拠に裏付けられていないことが多い。そのため、明確なビジネスケースが欠如していることが多い」と続けている。

言い換えれば、システムが実際に機能するという証拠はない。

ああ、夜明けの光で何も見えないと言うのか...

プライバシー擁護団体や公民権団体の最大の懸念の一つである、顔認識技術が特定のグループ、特に少数派に対して本質的に偏見を持っているという深刻な問題は無視された。

スコットランド警察の職員がスコットランド議会の外に立っている。写真:Shutterstock

スコットランド警察はリアルタイムの識別・笑顔認識技術を導入するのか? 上級警察官は「今のところは…」と語る

続きを読む

ディック氏は「私たちが導入している技術には民族的偏見がないことが証明されている」と主張した。さらにこう続けた。「安価な技術の中には偏見を持つものもあることは承知していますが、先ほども申し上げたように、私たちの技術には偏見はありません。現時点では、指名手配中の女性を特定するのが指名手配中の男性を特定するのよりもわずかに難しいという、唯一の偏見が見られます」

その「証拠」がどこから出てきたのかは明らかではないが、バブタ氏は人種差別問題全体をアメリカの問題として事実上否定した。どうやら、イギリスの警察では人種差別は起こらないようだ。

「予測型警察ツールは『人種的に偏っている』として多くの批判を受けており、特定の少数派グループに属する個人を過剰に予測しているという主張もあるが、イングランドとウェールズで警察がアルゴリズムを使用する際に実際にどの程度の偏りが生じているか、そしてそれが違法な差別につながるかどうかを評価するのに十分な証拠が不足している」と報告書は述べている。これは彼も壇上で主張したことだ。

「警察のアルゴリズムにおける人種的偏見を実証すると主張する研究のほとんどは、米国で実施された分析に基づいており、こうした懸念が英国の状況にも当てはまるかどうかは不明だ。」

このことから、英国で顔認識技術を推進する人々が、英国の黒人の外見が米国の黒人と違うと考えているのか、それとも米国の警官の方が人種差別的だと信じているだけなのかは明らかではない。

しかし、そのようなソフトウェアが人種偏見の大きなリスクをもたらす可能性があるという豊富な証拠を、英国が心配する必要のないものとして却下したのは、批評家や少数派の人物をまったく含まない委員会からの発言としては、いささか不当だ。

ロンドン警視庁と英国政府が約束した顔認識技術に関する大規模な公開討論は、どうやらすでにそれに賛同している人々だけに限定されるようだ。®

Discover More