英国警察が実際の警察活動で機械学習の試験運用を実施。規制なし。何が問題になるのか? ― 報道

Table of Contents

英国警察が実際の警察活動で機械学習の試験運用を実施。規制なし。何が問題になるのか? ― 報道

英国警察による機械学習アルゴリズムの使用は規制されておらず、新しいシステムが機能するという研究や証拠はほとんどないと報告書は述べている。

警察は、進歩の波に乗り遅れたり、経費を節約する機会を逃したりしたくないため、新しい技術をテストすることに熱心だ。

しかし、導入への意欲と英国全土における警察活動のばらつきにより、その使用に関する全体的な指導や統制が欠如しているケースが多い。

防衛シンクタンクRUSIは本日発表した報告書(PDF)の中で、公平性と比例性を重視した実際の運用環境で実施される試験に対する規制強化と行動規範を求めている。

英国ロンドン - 2018年3月。ロンドン中心部のレスター・スクエアとピカデリー・サーカスを巡回する警察官たち。写真:パオロ・パラディソ / Shutterstock.com

逮捕者ゼロ、2件の一致、犯人なし:ロンドン市警の顔認識技術が批判される

続きを読む

警察は様々な方法でアルゴリズムを活用していますが(おそらく最もよく知られているのは自動顔認識や犯罪多発地点の特定でしょう)、報告書は個人に最も影響を与える用途に焦点を当てています。例えば、ダーラム警察の危害評価リスクツールのように、再犯の可能性が高い人物を特定するアルゴリズムなどが挙げられます。

報告書は、多くの新興技術と同様に、警察による機械学習(ML)駆動型ツールの使用による全体的な影響を予測することは難しく、システムが意図しない、予期せぬ結果をもたらす可能性があると指摘した。

この状況は研究不足によってさらに悪化しており、システムが警察官の意思決定に実際にどのような影響を与えているのか、あるいは人々の権利にどのような影響を与えているのかを明確に述べることは困難です。RUSIの報告書はまた、様々なシステムの有効性や効率性に関するエビデンスが限られていることを指摘しています。

主な懸念事項の一つはアルゴリズムの偏りです。報告書にもあるように、モデルに人種の変数が含まれていなくても、郵便番号などの指標は人種の代理指標となり得ます。ダーラム警察は最近、HARTから郵便番号指標を削除することを検討しました。

他には、モデルが警察のデータ(不完全で信頼性が低く、継続的に更新される可能性がある)に依存して予測を行ったり、犯罪を犯す可能性と逮捕されるだけの可能性(これらは他の多くの要因に影響される)を区別できなかったりするという事実がある。

現場ではそれが起こっているが、誰もそれを知らない

しかし、そのような懸念があるにもかかわらず、警察は試行錯誤を続けている。報告書の執筆者は、適切な規制や管理の枠組みがないまま、現場でこうした試行が進められていることに懸念を表明している。

RUSIの報告書は、こうした試験運用における透明性の欠如も指摘している。警察による自動顔認識技術の使用をめぐる騒動(高い不正確さが情報公開請求によって初めて明らかになった)は、このことを如実に示している。

同報告書は、内務省に対し、警察の裁判を統制する行動規範を「緊急に」制定するよう求めた(ただし、内務省の生体認証に対する精彩を欠いた取り組みは、27ページの戦略策定に5年もかかっており、この点では良い兆候とは言えない)。

報告書はまた、正式な監視・監督制度を設け、説明責任と明瞭性の確保に重点を置くことを勧告した。

このような状況では、警察も本人も決定がどのように、あるいはなぜなされたのかを完全に理解したり、異議を唱えたりできないブラックボックスアルゴリズムの使用は、司法手続き全体の透明性を損なう可能性がある。

報告書は、機械学習の手法によって透明性のレベルが異なると指摘し、そのため規制の枠組みでは透明性と明瞭性に関する最低基準を設定すべきだと提言した。

また、人間の関与の重要性も強調されました。アルゴリズムが意思決定ではなく、支援のみに利用されることを確実にするためには、人間が意思決定に意味のあるレビューを行ったことを警察は証明する必要があります。

しかし報告書は、高い精度を主張するモデルに警察官が反論することを躊躇する可能性があると指摘している。(アメリカでは、嘘発見器に反する証拠が山積しているにもかかわらず、いまだに存在している。人々が嘘発見器が「正しい」と受け入れる傾向にあることを理解するには、その証拠を見れば十分だろう。)

そのため、報告書は、意見の相違を解決するためのプロセスを設け、MLアルゴリズムに関する公共部門の調達契約においてプロバイダーに要件を定めることを提言しました。これには、プロバイダーがアルゴリズムを遡及的に分析し、専門家証人を提出できることが含まれます。

報告書はまた、警察官を適切に訓練する必要性も指摘している。キットを使えるようにするだけでなく、その固有の限界を十分に理解し、結果を公正かつ責任ある方法で解釈できるように訓練するのだ。

委員会は、警察大学が警察官向けのコースを開発し、機械学習ツールの使用方法とそれを一般市民に説明する方法に関するガイダンスを作成することを推奨した。

この報告書についてコメントしたロンドン大学ロンドン校の研究者で、MLの責任ある公共部門での使用に注力しているマイケル・ヴィール氏は、このような介入が効果的かどうかの証拠を積み上げる必要があると強調し、政府はこうした取り組みを支援すべきだと付け加えた。

「適切な資金があればこの役割を果たすことができる警察のための『What Works Centre for Policing』がまだ存在すると知ったら、一部の読者は驚くかもしれない」と彼は述べた。

「アルゴリズムによる介入は、他の投資や行動方針と比較してテストする必要があります。他のアルゴリズムだけでなく、偏見や差別だけを対象にテストするのではなく、優先順位を明確にする必要があります。」

ヴィール氏はまた、警察の人員配置や勤務時間、パトロール、重点地域の決定など、警察活動において予測技術が組織的に幅広く活用されていると警告した。

「私たちは、ニュー・パブリック・マネジメント(1980年代に政府機関を運営するために開発されたモデル)とNHSの経験から、ターゲット文化に関連するゲームがもたらす危険性を過去数十年間にわたって学んできました。ミッドスタッフスの例を見てください。」

「これらの新しい技術が日常業務に導入された場合、新たなゲームやターゲット文化が生み出されないように細心の注意を払う必要がある」と彼は述べた。®

10 月 15 日から 17 日までロンドンで開催される Minds Mastering Machines で、機械学習、人工知能、データ分析、そしてそれらがあなたにとってどのような意味を持つのかを検討します。詳細なプログラムとチケット情報については、Web サイトをご覧ください。

Discover More