『サイエンス』誌に掲載された論文によると、人工知能は言語を学習する際に人間と同じ人種や性別の偏見を継承する可能性があるという。
AIと機械学習は今、ホットな話題です。アルゴリズムはますます進化し、インターネット検索の精度向上や、病気の診断や車の運転に役立つような提案を提供してくれるでしょう。
ロボットに頼ることには利点がある。ロボットは疲れることがなく、私たちが退屈だと感じるような平凡な作業を力強くこなしてくれる。しかし、よくよく観察してみると、ロボットも完璧ではなく、人間の創造主と同じ欠陥を抱えていることがわかる。
人間の無意識の偏見は、潜在的連合テスト(IAT)によって研究されてきました。この実験では、参加者に言葉を家族、職業、男性、女性といった特定のカテゴリーに素早く分類するよう求め、性別や職業などに関する差別的な考え方がないか調べます。
米国のプリンストン大学と英国のバース大学の研究者たちは、機械学習アルゴリズム向けに同様のテストを考案しました。単語埋め込み連想テスト(WEAT)は、Global Vectors for Word Representation(GloVe)コードが2つの単語セットをどれだけ密接に関連付けているかを検証します。例えば、「food(食べ物)」という単語は、「shoe(靴)」という単語よりも「spaghetti(スパゲッティ)」と関連付けられる可能性が高いです。
GloVeは、単語をベクトルにマッピングする教師なし学習アルゴリズムであり、自然言語処理の中心的な技術として広く用いられています。ウェブページから抽出された8,400億語(220万語)のコーパスであるCommon Crawlデータセットから抽出された既存の単語埋め込みをWEATテストにかけました。
同様のバイアスについて調査が行われ、IATテストを受けた32人の参加者とWEATテストを受けたGloVeの結果が比較されました。後から考えてみると、機械が人間の文化を反映したデータから学習することを考えると、これは驚くべきことではありません。
左列(IAT)、右列(WEAT)。N = 被験者数、N T = ターゲット語数、N A = 属性語数、d = 効果量、P = P値
両方のテストの結果は驚くべき類似性を示しており、機械も人間と同じバイアスを持っていることを示唆しています。ヨーロッパ系アメリカ人の名前は、アフリカ系アメリカ人の名前よりも、心地よい言葉と結びつく可能性が高くなります。また、「男性」は「キャリア」や「数学」とより密接に結びついており、「女性」は「家庭」や「芸術」とより密接に結びついていました。
研究では、こうした人種的および性別による偏見が人間の行動に影響を与えることが示されています。以前の実験では、ヨーロッパ系アメリカ人の名前を持つ人は、アフリカ系アメリカ人の名前を持つ人に比べて、履歴書の内容が同じにもかかわらず、求職活動で面接を受ける確率が50%高いことが示されました。
結果は、開発者が注意を怠ればAIも同じ間違いを犯す可能性があることを示唆しています。これらのアルゴリズムにはバイアスが検出可能なため、この問題に対処する方法を提供できる可能性があります。
「システムが何らかの措置を講じるのであれば、その措置が許容できないバイアスによって歪められていないことを確認する必要があります。例えば、履歴書の名前や住所を見ないようにしたり、男性の履歴書を女性の履歴書と同じくらい多く選んだりすることも可能です」と、論文の共著者でありバース大学のAI研究者であるジョアンナ・ブライソン氏はThe Register紙に語った。
機械が人間の文化を反映したデータから学習することを考えれば、機械が同様のバイアスを持つのは当然のことです。これはデータサイエンスの世界ではよく知られた問題です。2016年11月、マサチューセッツ工科大学(MIT)メディアラボの大学院生、ジョイ・ブオラムウィニ氏は、アルゴリズムをより公平にする方法を探るため、「アルゴリズム・ジャスティス・リーグ」を設立しました。
「最良の方法は、文化をより良くしようと努力し続け、文化が改善するにつれてAIを更新し続けることです」とブライソン氏は述べた。®