公共生活基準委員会の新しい報告書は、AIガバナンスの透明性に関する英国政府の姿勢を批判し、倫理を枠組みに「組み込む」よう求めた。
74ページに及ぶこの論文は、医療、警察、福祉、社会福祉、移民といった分野でアルゴリズムが現在利用または開発されていると指摘している。にもかかわらず、政府は中央政府全体、あるいはより広範な公共部門におけるAIの活用範囲に関する中央集権的な監査結果を公表していない。
現在公開されている情報のほとんどは、公的機関が AI の利用方法について積極的に情報を公開しているわけではなく、ジャーナリストや学者が情報公開請求を行ったり、公共調達データの箱をくまなく調べたりした結果である。
委員会は、国民は「政策決定の根拠となった証拠、仮定、原則に関する情報」にアクセスできるべきだと述べた。
レビューのために集められたフォーカスグループでは、予想通り、一般の人々自身がオープン性への明確な要望を表明しました。
「この深刻な報告書は残念ながら、我々が知っている事実、すなわち保守党政権が公共部門におけるAIの活用に関してオープン性と透明性を欠いていることを裏付けるものだ」と影のデジタル大臣チー・オンウラ議員は声明で述べた。
「政府は、予期せぬ結果が生じる可能性が制御不能になる前に、早急に事態を収拾する必要がある」とオンウラ氏は述べ、規制をさらに導入することなく、公共部門は意思決定プロセスにさらなるAIアルゴリズムを導入すべきではないと主張した。
市民参加慈善団体Involveのシニアアソシエイト、サイモン・ブラール氏は次のようにコメントしている。「こうした議論には、選出された代表者や専門家だけでなく、一般の人々が参加することが重要だ。また、こうしたアルゴリズムの影響を受けるコミュニティの多様性も、こうしたアルゴリズムをいつ使うべきか、いつ使うべきでないかについてのトレードオフについて情報提供に関与することが重要だ。」
英国警察が実際の警察活動で機械学習の試験運用を実施。規制なし。何が問題になるのか? ― 報道
続きを読む
予測型警察プログラムはすでに、犯罪多発地帯を特定し、個人のリスク評価を行うために使用されている。警察はアルゴリズムを使用して、誰かが犯罪を犯す可能性を判断する。
しかし、人権団体リバティは、既存の偏見を固定化するとして、警察に対しこれらのプログラムの使用を中止するよう強く求めている。不十分なデータや、人種を間接的に示す指標(郵便番号など)の使用は、差別を永続させる可能性があると同団体は警告している。また、これらの手法の運用方法については「深刻な透明性の欠如」があるとも指摘している。
委員会の報告書は、「AIに対する差別禁止法の適用を明確にする必要がある」と指摘した。
2019年10月、Graun紙は地方議会の3分の1が福祉関連の決定にアルゴリズムを活用していると報じました。地方自治体は、コスト削減策の一環として、エクスペリアン、トランスユニオン、キャピタ、そしてピーター・ティール氏のデータマイニング企業パランティア(米国の公共部門に支持者を持つ)といった企業から機械学習パッケージを購入しています。
これらのアルゴリズムは既に問題を引き起こしている。ノース・タインサイド市議会は、住宅給付と地方税の給付金申請の審査に使用していたトランスユニオン社のシステムを停止せざるを得なかった。コンピューターの「予測分析」が低リスクの申請を誤って高リスクと分類したため、数名への福祉給付が遅延したためだ。
報告書は、独立したAI規制当局の設置を勧告するまでには至らず、「すべての規制当局は、AIがそれぞれの分野にもたらす課題に適応しなければならない」と述べている。
委員会は、データ倫理・イノベーションセンターを「この分野において政府と規制当局に助言を行う独立した法定機関」として設立するという政府の意向を承認しました。それでよろしいですね。®