分析 + アップデート機械学習の倫理基準は企業スポンサーの影響を受けずに策定される必要があると主張する学者によると、大手テクノロジー企業が AI 規制を回避するアプローチは、大手タバコ会社が喫煙ルールを形作るキャンペーンによく似ているという。
来月開催される2021年AAAI/ACM AI、倫理、社会に関する会議(AIES '21)の議事録に掲載される論文の中で、トロント大学でコンピュータサイエンスの博士課程に在籍するモハメド・アブダラ氏と、ハーバード大学医学部から博士課程を延期中のムスタファ・アブダラ氏は、大手テクノロジー企業が大手タバコ会社が採用した戦略と同様の戦略をどのように採用してきたかを探っている。
この類推は「完璧ではない」と二人の兄弟は認めているが、歴史的な試金石となり、「大手タバコ会社による学術機関への資金提供に対する本能的な否定的な反応を利用して、大手テック企業をより批判的に検証すること」を意図している。また、この比較は、大手テック企業が意図的に研究者を買収しているという主張ではない。むしろ、研究者たちは「意図の有無にかかわらず、産業界からの資金提供は歪んだインセンティブによって学術機関を歪めている」と主張している。
著者らは、グーグルが歓迎されない研究について同様の発言をしていることを指摘し、オラクルが資金提供している擁護団体「アカウンタビリティのためのキャンペーン」からの批判は、敵対的な競合企業から資金提供を受けているため、軽視すべきだと主張している。偶然にも、「アカウンタビリティのためのキャンペーン」は2017年に、「グーグルは石油業界やタバコ業界に倣い、自社の政策利益を支持する数百本の論文を執筆させるために学者に数百万ドルを支払っている」という一文で始まる投稿を公開した。
ここでのビッグテックとは、Google、Amazon、Facebook、Microsoft、Apple、Nvidia、Intel、IBM、Huawei、Samsung、Uber、Alibaba、Element AI、OpenAIを指します。しかし、この専門家たちの主張は、AI搭載システムに商業的な関心を持つ、はるかに多くの企業に当てはまります。
ああ、2000年代が懐かしい
アブダラ兄弟は、2010年代半ばをビッグテックに対する国民の態度が悪化し始めた時期として挙げている。そして、フェイスブックのCEOマーク・ザッカーバーグが2018年に2016年の米国大統領選挙への干渉を阻止するために「十分な対策を講じなかったことは明らかだ」と認めたことと、大手タバコ会社が1954年に喫煙の健康への影響を認めた「喫煙者への率直な声明」に類似点を見出している。
「大手タバコ会社と同様に、大手テック企業は、社会的イメージの悪化に対応して、『AIの倫理的な開発を確保する』ことと、『責任ある開発』に焦点を当てることを目的としたさまざまな機関や活動に資金提供を開始した」と彼らは論文で述べている。
解雇された:Google AIが崩壊、倫理部門の共同リーダーが同僚の解雇からわずか数週間後に追放される
続きを読む
Facebookは「AIの倫理的な開発と展開へのコミットメント」を約束しました。GoogleはAIの「倫理的な」開発のためのベストプラクティスを公開しました。Microsoftは倫理チェックリストを開発中であると主張しましたが、この主張は最近疑問視されています。Amazonは、国立科学財団と共同で、2,000万ドル規模の「AIにおける公平性」に関するプログラムを後援しました。
研究者たちは、大手テクノロジー企業が学術研究や会議に資金を提供する方法と、大手タバコ会社がタバコ産業研究委員会(後にタバコ研究評議会と呼ばれる)に資金を提供する方法との間に類似点を見出しています。
彼らは、大手IT企業が研究プロジェクトへの選択的な資金提供を通じてAI倫理学者に影響を与えていると主張している。また、AI倫理学を専門とする教員の58%が大手IT企業から資金提供を受けており、それが彼らの研究に影響を与えている可能性があると指摘している。
「研究資金を獲得するために、教員は大手IT企業の見解に沿うように研究内容を修正するよう圧力をかけられるからだ」と彼らは論文で述べている。「助成金を申請する者と、誰に資金を提供するかを決定する者が、倫理とは何か、あるいは倫理をどのように『解決すべきか』について、根本的な見解を共有していない場合、明確な操作の意図がなくても、このような影響が生じる可能性がある。」
彼らは、2016年にAmazon、Facebook、Google、MicrosoftなどがAIのベストプラクティスをグループとして策定するために設立した「パートナーシップ・オン・AI」を例に挙げている。同団体は市民社会との連携にほとんど関心を示しておらず、人権団体「アクセス・ナウ」が同団体から離脱したことは、企業の懸念に焦点を絞っていることの表れだと彼らは指摘する。
研究者らはまた、カンファレンスの資金調達の問題点を指摘し、主要な機械学習カンファレンスである NeurIPS では、2015 年以降、最高資金層に少なくとも 2 つの大手テクノロジー企業のスポンサーがおり、最近ではその数がさらに増えていると指摘している。
「倫理や公平性に関するワークショップについて考えると、1つを除いて全て、少なくとも1人の主催者が大手IT企業と提携しているか、最近まで提携していた」と論文は述べている。「例えば、『責任ある再現可能なAI』に関するワークショップは、Facebookが単独でスポンサーを務めていた」
アブダラ兄弟は、巨大テック企業が社会に与える影響に対処するための多くの解決策が提案されていることを認めており、それらを政策立案者に委ねている。しかし、彼らは研究者に対し、AI研究のためのより厳格な倫理規定の導入と、従来のコンピュータサイエンス部門からの分離を検討するよう求めている。
「このような分離により、資金提供がより受け入れられる可能性が高い技術的な問題については学界と産業界の関係が可能になると同時に、倫理の発展が大手IT企業の資金の影響を受けないことが保証される」と彼らは主張している。
不確実性を利用する
ブルックリン・ロースクールの法学教授で『ブラックボックス社会:お金と情報をコントロールする秘密のアルゴリズム』の著者であるフランク・パスクアーレ氏は、レジスター紙との電話インタビューで、大手タバコ会社と大手テック企業の比較は挑発的ではあるが、一定の価値があると示唆した。
「ネット上でどのような被害が懸念されているかを人々に伝える具体的な比喩を見つけることが本当に重要だと思う」と同氏は述べ、テクノロジー企業の無責任あるいは悪意ある決定の影響を人々に説明するのは難しいと指摘した。
パスクアーレ氏は、論文の草稿を見て、タバコ会社とハイテク企業が不確実性を武器にしている点が特に印象に残ったと述べた。
同氏は、タバコ会社は「喫煙が本当にがんを引き起こすかどうかは誰にも分からない」などと発言して疑念を抱かせるだろうと述べた。
疑惑の商人アプローチは多くの立法をうまく回避したと思う
「疑わしき商人的なアプローチは、多くの立法をうまく回避させたと思う」と彼は述べ、今日多くの学者がYouTubeや他のオンラインプラットフォームによる潜在的な危害について、さらなる資金提供と研究の正当化として同じことを言っていると指摘した。
パスクアーレ氏は、公的機関と民間セクターの研究者への支援を強化し、調査対象企業からの資金に依存しなくて済むようにすることが鍵だと主張している。また、これらの企業のデータを、所属していない独立した研究者にも利用できるようにすることの重要性も強調した。
アマゾン、フェイスブック、マイクロソフトの誰もコメントを望まなかった。
「学術的なコラボレーションは常にGoogleのDNAの一部です」と、このインターネット界の巨人であるGoogleの広報担当者はThe Register紙に語った。「過去15年間で、私たちは学術界および外部の研究コミュニティに6,500件以上の助成金を提供してきました。そして、こうした重要なコラボレーションを継続していくことに尽力しています。」
外部の研究エコシステムとの連携は、共通の課題に新たな視点をもたらし、彼らの研究を支援することで、コンピュータサイエンスの重要な分野の発展に貢献します。私たちは、Google Faculty Research Awardプログラム、PhD Fellowshipプログラム、Visiting Researcherプログラム、Research Scholarプログラム、Award for Inclusion Researchプログラムなど、教員と大学院生に無制限の資金を提供する様々な公募プログラムを通じて、こうした連携を支援しています。®
追加更新
この記事が提出された後、トロント大学のモハメド・アブダラ氏から連絡があり、他の学者がAI研究への資金提供方法を再考したいと思っているかどうかを判断するのは難しいとのことだ。
「より多くの注目を集めるよう求める私たちの呼びかけに耳を傾けてくれた研究者もいますが、彼らの多くは論文の論旨に根本的に反対している(あるいはそれについて話すことを拒否している)と考えています」と彼は述べた。「この論文は明らかに賛否両論を呼んでいます。私たちはこの論文をFAccTに提出しましたが、すべての査読者から最低の評価を受けました(査読にはいつもばらつきがあることを考えると、これは非常に稀なことです)。一方、AIESに提出した査読では、3分の2が最高評価を受けました(残りの1つは最高評価でした)。」
マックス・テグマーク(MIT教授)と指導教官を除いて、私たちのアイデアに関して、(教授陣から)研究への直接的な肯定は受けていません。しかし、一部の研究者(教授と学生の両方)はソーシャルメディア上で賛同を表明しています。デリケートなテーマであるため、意見を表明することに慎重な方もいらっしゃるのではないかと考えています。
モハメド氏は、ソーシャルメディアや学術界のツイッターは否定的な意見に偏りがちで、論文がどのように受け止められたかを評価するのが難しいと付け加えた。また、規制当局がAI規制に適切に対応するための技術的リソースを有しているかどうかについても懐疑的な見方を示した。
「既存の統治構造は、政府がその職務を遂行するのに十分ではないと私は考えています」と彼は述べた。「これは米国、カナダ、そしてEUにも当てはまると思います。」
したがって、専門知識と、(政府による)企業に企業秘密のアルゴリズム(コードとデータの両方)の調査のための開示を要求する能力を備えた新たな規制機関が、いずれ誕生するだろうと私は考えています。私が唯一懸念しているのは、そのような規制機関が、業界による乗っ取りによって真の変化を推進する上で効果を発揮できないのではないかということです。
さらに、EUの立法者は実際にこの問題に対処する準備ができているかもしれないと信じている一方で、米国とカナダの規制当局が大手IT企業に対抗する意志を持っているかどうかについては疑問を呈した。
「カナダやアメリカの規制当局がこの問題に対処する準備ができているとは思えない」と彼は述べた。「(私は政治に精通したアナリストではないが)両国の規制当局は、自分たちの金の卵(公共の利益よりも成長/GDP/資金を優先する)を失うことを恐れて、テクノロジー業界に何らかの悪影響を与えることを恐れているように思える。」
「さらに、これらの企業は、自分たちに不利な法案を推進しようとするあらゆる政治家に対して、非常に大規模なプロパガンダキャンペーンを展開することができ、最も熱心な政治家以外は行動を思いとどまらせることができる。」