機械学習コードが顔だけで人の性的指向を判断できるかどうかを調べた物議を醸した研究が再調査され、驚くべき結果が出た。
南アフリカのプレトリア大学で情報技術を学ぶ修士課程の学生、ジョン・ルーナー氏は、2017年に米国スタンフォード大学の研究者によって発表された前述の研究を再現しようと試みました。当然のことながら、このオリジナルの研究は当時大きな騒動を巻き起こし、セクシュアリティのような複雑な事柄について全く知識も理解もないコンピューターが、その人の顔から本当にゲイかストレートかを予測できるのか、多くの人が懐疑的でした。
この最初の研究の立役者であるスタンフォード大学の頭脳派、大学院生のイールン・ワン氏と准教授のミハル・コシンスキー氏は、ニューラルネットワークが人の性的指向を判別できるだけでなく、アルゴリズムは人間よりも優れたゲイダーを備えているとさえ主張した。
昨年11月、ロイナー氏は前回の研究と同じニューラルネットワーク構造を用いて実験を繰り返した。ただし、今回は異なるデータセットを用いた。このデータセットには、3つの出会い系サイトから収集した50万枚のプロフィール画像から抽出した2万910枚の写真が含まれていた。そして2月下旬、修士課程の学生は学位取得のための授業の一環として、研究結果をオンラインで発表した。
ちなみに、ロイナー氏はそれらの出会い系サイトが何であるかを明らかにしておらず、写真の使用について人々から明確な許可を得ていないと理解している。「残念ながら、このような研究には現実的ではありません」とロイナー氏はThe Register紙に語った。「個人のプライバシー保護には細心の注意を払っています。」
データセットは20の部分に分割され、そのうち19の部分を用いてニューラルネットワークモデルの学習が行われ、残りの部分はテストに使用されました。念のため、学習プロセスは20回繰り返されました。
彼は、2,622人の著名人の100万枚の写真で事前学習された畳み込みニューラルネットワーク「VGG-Face」を、彼自身の出会い系サイトから得たデータセットを用いたところ、男性のセクシュアリティを68%(コイン投げよりも高い)、女性では77%の精度で予測できたことを発見した。写真の顔の特徴を検査する別の機械学習モデルである顔形態分類器は、男性で62%、女性で72%の精度だった。驚くべき結果ではないが、完全に間違っているわけでもない。
参考までに、ワン氏とコシンスキー氏の研究では、彼らのデータセットを用いて、男性で81~85%、女性で70~71%の精度を達成しました。比較研究では、人間が男性で61%、女性で54%の精度で正解しました。
つまり、ロイナー氏の AI のパフォーマンスは人間よりも優れており、コインを 50/50 で投げた場合よりも優れていたが、スタンフォード大学の 2 人のソフトウェアほど優れてはいなかった。
叩かれた
Googleのエンジニア、ブレイズ・アグエラ・イ・アルカス氏は昨年初め、この研究を批判し、ソフトウェアが人間の性的指向を正しく分類できない、あるいは分類に苦労する理由を様々な観点から指摘した。彼は、ニューラルネットワークは、実際の顔の構造ではなく、特定のメイクをしているかどうかや特定のスタイルの眼鏡をかけているかどうかといった要素に着目して性的指向を判定していると主張した。
注目すべきは、ワンとコシンスキーのデータセットにおいて、ストレート女性はゲイ女性よりもアイシャドウを塗る傾向が強かったことです。ストレート男性はゲイ男性よりも眼鏡をかけている傾向が強かったです。ニューラルネットワークは、頬、鼻、目などの形を精査するのではなく、私たち自身のファッションや表面的な偏見を拾い上げていました。
リューナー氏が、同じ人物が眼鏡をかけている写真とかけていない写真、あるいはひげの多寡の写真も含め、テストでこれらの要因を修正したところ、彼のニューラルネットワークコードは、人々のセクシュアリティを分類する際に、コイン投げよりもかなり正確だった。
「この研究は、頭の姿勢と性的指向には相関関係がないことを示しています。モデルは、ひげや眼鏡の有無を考慮しても、性的指向を予測することができます」と彼は報告書で述べています。
重要な要素を見つける
では、AIは本当に顔からその人のゲイかストレートかを判断できるのでしょうか?いいえ、そうではありません。3つ目の実験では、ロイナー氏は顔を完全にぼかしたため、アルゴリズムは各人の顔の構造を全く分析できませんでした。
そして、なんと、このソフトウェアは性的指向を予測することができたのです。実際、男性で約63%、女性で約72%の精度で、ぼかしのないVGG-Faceと顔形態モデルとほぼ同等の精度でした。
ニューラルネットワークは顔の構造を分析するのではなく、表面的な兆候を捉えているようだ。ワン氏とコシンスキー氏は、この研究が「出生前ホルモン理論」の証拠となると述べた。これは、人の性的指向が、母親の胎内にいる胎児期に曝露されたホルモンと関連しているという考え方だ。つまり、顔の構造といった生物学的要因が、その人が同性愛者であるかどうかを示す可能性があるということだ。
しかし、ルーナー氏の研究結果は、この考えを全く裏付けるものではない。「出会い系プロフィール画像には性的指向に関する豊富な情報が含まれていることを示しているものの、顔の形態がどの程度影響し、身だしなみ、外見、ライフスタイルの違いがどの程度影響するのかという疑問は残る」とルーナー氏は認めた。
倫理観の欠如
「(ただし)ぼやけた画像が妥当な予測値であるという事実は、AIが優れた予測値を持ち得ないことを意味するものではありません。このことが示唆しているのは、画像の中に、私たちが予想していなかった性的指向を予測する情報が含まれている可能性があるということです。例えば、あるグループの画像がより明るい、あるいはあるグループの色彩がより彩度が高いなどです。」
「私たちが知っている色だけでなく、画像の明るさや彩度の違いも考慮する必要があります。CNNはこうした違いを捉える特徴を生成している可能性が高いです。一方、顔形態分類器は、出力にこうした信号を含める可能性は非常に低いです。目、鼻、口の位置を正確に見つけるように訓練されているからです。」
米国ワシントン大学でジェンダーとアルゴリズムを研究している博士課程の学生、オス・キーズ氏は、この研究に感銘を受けず、レジスター紙に「この研究は無意味だ」と語り、次のように付け加えた。
この論文では、分類器に影響を与える社会的要因に関する懸念に対処するため、元の「ゲイの顔」研究を再現することを提案している。しかし、実際には全くその懸念は払拭されていない。提示をコントロールする試みは、3つの画像セットのみを使用している。興味深いものを示すにはあまりにも小さすぎる。そして、コントロールされている要因は眼鏡と髭だけである。
「他にも多くの社会的手がかりが見られるにもかかわらず、これは驚くべきことではありません。例えば、目と眉毛は正確に区別する指標であることが研究で指摘されています。これは、ストレートやバイセクシュアルの女性はマスカラなどのメイクをする傾向がはるかに高く、クィアの男性は眉毛を整える傾向がはるかに高いことを考えると、驚くべきことではありません。」
元の研究は、人々のセクシュアリティを判定するシステムの使用がもたらす可能性のある悪影響について、倫理的な懸念を提起しました。一部の国では同性愛は違法であるため、当局が同性愛を「暴露」し、疑わしい人々を拘留するためにこの技術を使用した場合、人々の命を危険にさらす可能性があります。
AIはやりすぎ?DeepTingleがエル・レジのニュースを恐ろしいエロチックなものに変えてしまう
続きを読む
キーズ氏は、他の理由でも非倫理的だと述べ、次のように付け加えた。「ここで研究している研究者たちは、手法においても前提においても、倫理観が極めて低い。例えば、この[ロイナーの]論文は出会い系サイトから50万枚の画像を引用しているが、被験者のプライバシー保護のため、どのサイトなのかは明記していない。それはそれで結構なことだが、写真の被験者たちは、この研究への参加を申し出たわけではない。このようなウェブサイトの大量スクレイピングは、通常、完全に違法だ」
さらに、この考え方全体は、「ゲイの顔」分類器がなぜ機能するのかを解明することで得られる価値、つまり、コンピューターを使い、クィアの人々を抑圧しようとするような、取るに足らない独裁者や偏見を持つ人々のために、その方法論をさらに説明し、定義し、提示することに価値があるという考えに基づいています。
ロイナー氏は、自身が開発し訓練したような機械学習モデルは「悪用される可能性が高い」ことに同意した。
「たとえ効果がなくても、恐怖を煽るために使われる可能性がある」と彼は述べた。「もし効果があったとしても、非常に恐ろしい方法で使われる可能性がある」
それでも彼は、コシンスキー氏が主張した、機械学習で性別を予測できるという当初の主張を検証するために、以前の研究を繰り返したいと述べた。「最初は信じ難い話に思えました」と、この修士課程の学生は語った。「倫理的な観点から言えば、私も彼と同じ立場です。これらの新しい技術がどれほど強力で、どれほど簡単に悪用される可能性があるのかについて、社会は議論すべきだと考えています。」
こうした議論の第一歩は、これらのツールが本当に新しい能力を生み出すことを証明することです。理想的には、それらがどのように機能するかを正確に理解することも重要ですが、それを明らかにするにはまだ時間がかかるでしょう。®