英国警察、警察活動における「差別的」アルゴリズムを廃止するよう指示

Table of Contents

英国警察、警察活動における「差別的」アルゴリズムを廃止するよう指示

人権団体リバティは、英国警察に対し、既存の偏った慣行に「技術的に正当性を装う」予測型警察プログラムの使用をやめるよう求めている。

リバティは昨日発表した報告書の中で、警察は少なくとも、警察業務の遂行におけるアルゴリズムの使用についてより透明性を高めるべきだと述べた。

ノッティングヒル・カーニバルでのロンドン警視庁

「不当に過剰」:ロンドン警察でさえ、ゴミギャングデータベースで法を遵守できない

続きを読む

報告書は、2種類の予測型警察プログラムに焦点を当てている。1つは警察のデータを使って犯罪多発地帯を特定する予測マッピング、もう1つは警察がアルゴリズムを使って誰かが犯罪を犯す可能性があるかどうかを予測する個人リスク評価である。

しかしリバティは、警察の予測的な警察活動方法は本質的に偏っていると述べた。マッピングプログラムは「問題のある過去の逮捕データ」に依存しており、個々のプログラムは「差別的なプロファイリングを助長し、不透明な意思決定につながる」という。

リバティ氏は、このことは技術の使用に関する「重大な透明性の欠如」と結びついていると述べ、警察に対し、予測型警察活動がどのように、いつ使用されているかについての情報を「完全に開示」するよう求めた。

同団体は英国内の90の警察に情報公開請求を行い、14の警察が予測型警察活動を展開済み、展開中、または展開を計画していることを発見した。

警察活動におけるアルゴリズムの使用が増加している背景には、警察が厳しい予算削減に直面し、人権活動家からの厳しい監視を受けていることがある。

リバティ氏は、社会はビッグデータへの依存度を高めることに警戒すべきだと述べ、ビッグデータによって「国家がさらに厳しく監視し、人々の侵入的なプロファイルを構築することを可能にする」文化が生まれると語った。

批評家たちはまた、予測型警察活動の使用は、特にアルゴリズムの構築に使用されるデータに関しては、意図しない予期せぬ結果をもたらす可能性があると一貫して警告している。

英国警察が実際の警察活動で機械学習の試験運用を実施。規制なし。何が問題になるのか? ― 報道

続きを読む

古く、不完全で信頼性の低い警察データ、あるいは郵便番号のような人種を間接的に示すデータなどがその例である可能性がある。リバティは、こうしたデータには「既存の差別を固定化させる」リスクがあると警告した。こうしたデータをソフトウェアに組み込むと、実際には中立的ではないにもかかわらず、中立的であるかのように見なされるリスクがある。また、多くの人がこのシステムを理解していないという事実が、このシステムに客観性を与えていると、同団体は付け加えた。

このことは「BAMEや低所得者層に不均衡に焦点を当てた偏った警察戦略に不当な正当性を与える」と報告書は述べている。

リバティは、人間による監視や介入を強化する取り組みは懸念に対処するには「不十分」だと述べ、警察がアルゴリズムに従わないようにするための課題は「非常に重大で、短期的な訓練やガイドラインでは対応できない」と主張した。

リバティはまた、警察にデータの使用を再評価するよう求め、ロンドン警視庁に、英国のデータ保護監視機関から「不当に過剰」であると最近非難されたギャングマトリックスデータベースの全面的な見直しを実施するよう指示した。

報告書の著者ハンナ・カウチマン氏は、予測型警察活動は既に様々な理由から社会に悪影響を及ぼしていると述べた。例えば、予測型警察活動はより大規模な監視システムへとつながり、「未犯罪」という概念を助長し、警察活動にテクノロジーの「華やかな輝き」を与えているという。

「そして、それは、より深く、より体系的な問題である警察の問題に対する解決策として、テクノロジーとビッグデータに焦点を当てているため、私たちを失望させている。警察の問題は、より熟慮された、根本的かつ思いやりのある対応を必要とする」と彼女はツイッターで述べた。

彼女の報告書は、デジタルソリューションへの投資は、刑事司法制度における偏見というより広範な問題に対処するプログラムの開発に重点を置くべきだと主張した。®

Discover More