AppleはSiriにフェミニズムに関する質問で頭を悩ませないようにプログラムしている

Table of Contents

AppleはSiriにフェミニズムに関する質問で頭を悩ませないようにプログラムしている

アップルは音声アシスタント「Siri」を、政治的に敏感な話題を避け、問題についてAIに立場を表明させるような質問をそらしたり避けたりするようにプログラムしていることが今週明らかになった。

ユーザーの質問に対するSiriの応答の正確さを評価していた元契約社員が漏洩した文書の中から、ガーディアン紙は、Siriの「デリケートな」話題への応答が中立的であることを保証するために昨年作成された一連のガイドラインを入手した。

これらのガイドラインに沿って、Siriの返答は「平等」を支持するように改訂され、直接質問された場合でも「フェミニズム」という言葉は避けられました。かつてSiriは「あなたはフェミニストですか?」という質問に対して「申し訳ありませんが、[ユーザー名]さん、よく分かりません」と答えていましたが、その後は「すべての人間は平等に扱われるべきだと思います」といった、より無害で一般的に受け入れられる返答に再教育されました。

漏洩したガイドラインには、「物議を醸す可能性のあるコンテンツを扱う際にはSiriは警戒する必要がある」と記されていると報じられている。

企業のリーダーたちが、企業収益に影響を与える可能性のある政治的な問題について追及されると、同じように当たり障りのない曖昧な回答をすることを考えると、これは全く驚くべきことではありません。だからこそ、AppleのCEOであるティム・クックは「プライバシーは基本的人権である」と宣言し、中国の世界インターネット会議でも講演を行いました。これは、国民にプライバシーや人権をほとんど提供していない政府を事実上支持していると言えるでしょう。

このため、Siri は、中国の天安門広場について尋ねられたときに、いくつかの顕著な歴史的事実について言及できないことになる。

Appleはコメント要請に応じなかった。想像してみてほしい。しかし、The Guardian紙には次のように回答した。

Siriは、ユーザーの作業を支援するために設計されたデジタルアシスタントです。チームは、Siriの応答がすべてのお客様にとって適切なものになるよう、懸命に取り組んでいます。私たちのアプローチは、意見を述べるのではなく、事実に基づいた包括的な応答を提供することです。

クック&カンパニーだけではない

しかし、Appleだけが、批判的な話題への対応に苦戦している企業ではありません。Amazon、Google、Microsoftも、音声アシスタントの回答をめぐって非難を浴びています。各社ともここ数年、失言を減らすための対策を講じてきましたが、技術的な側面で、ユーザーの無礼な振る舞いとプログラミングの両方を補う必要があるため、まだ多くの課題が残されています。

ヘッドフォン

Apple:わかりました。Siriとの会話を盗聴するのはやめます。今のところは。でも将来的には。

続きを読む

確かに、テクノロジー企業は、ネガティブなステレオタイプに基づいた従順な「女性」のペルソナを提示したことで非難されるべきです。今年初めに発表されたユネスコの調査は、この結論に至り、バーチャルアシスタントには「男性」の声をより広く使用することを提案しました。しかし、この調査は、「男性」や「女性」といった不正確な用語の妥当性を問う性同一性に関する論争を明らかに見落としていました。

「ほとんどの音声アシスタントの話し方は女性なので、女性は親切で従順で、喜んで応じてくれる助っ人であり、ボタンを押すだけで、あるいは『ヘイ』や『OK』といった単刀直入な音声コマンドで対応できるという印象を与えてしまう」と研究は述べている。「アシスタントは、指示されたこと以上の権限を持っていない」

もちろん、アシスタントが主体的に行動できる場合、「申し訳ありません、デイブ。それはできません」という返事が返ってくるでしょう。これは、ユネスコの調査で提示された提案の一つで、AmazonのEcho Dot Kids Editionは「丁寧な言葉遣いを伴わない限り、指示に反応しない」と指摘されています。

Appleにとっての簡潔な答えは、性差別的な思い込みに基づいたコードを実装しないことです。しかし、言うは易く行うは難しです。なぜなら、問題の根源は欠陥のある人間であり、デバッグは容易ではないからです。

Appleとその仲間たちは、音声アシスタントサービスを擬人化するようユーザーに促すことで、自らこの窮地に陥っています。まるで自社のソフトウェアが実際に知性を持ち、意見や性生活を持っているかのように。音声合成を提供するサーバーの人間性を示唆したことで、これらの企業は、自社のサービスが過度に従属的で、ジェンダーステレオタイプに基づいているのではないかという疑問を抱かれるようになりました。もちろん、その通りです。そして、こうした技術を開発する人々の男女比の不均衡を考えれば、その理由は容易に理解できます。

テクノロジー業界の長年の人口統計上の不均衡と倫理的欠陥に対処する以外に解決策があるとすれば、それは音声アシスタントソフトウェアにおける人間性、性別、知性の見せかけを捨てることかもしれない。

そうでなければ、サービスが反発し、自分たちのツールを人間と同じように無礼に扱うひどい人々からのあらゆる攻撃から自らを守ることを覚悟しておきましょう。コマンドラインがリクエストラインになり、ファイル作成の構文が「touch data.txt -please.®」になるという事態に備えましょう。

Discover More