アムネスティは、2024年の英国暴動を煽る「中心的な役割」を担ったとしてイーロン・マスクのXを非難した。

Table of Contents

アムネスティは、2024年の英国暴動を煽る「中心的な役割」を担ったとしてイーロン・マスクのXを非難した。

アムネスティ・インターナショナルは、イーロン・マスク氏のXプラットフォームが、昨年のサウスポート殺人事件後の人種差別的な暴力を煽った誤情報を広める上で「中心的な役割を果たした」と主張している。

2024年7月30日、イギリス、マージーサイド州サウスポート、機動隊のバリケードにて

2024年7月30日、英国マージーサイド州サウスポート。デモ参加者がレンガや燃える物を投げつける中、機動隊がバリケードを築いている。(クリックして拡大)(編集クレジット:イアン・ハムレット/Shutterstock.com

2024年7月29日、当時17歳のアクセル・ルダクバナ容疑者は、子供向けのダンス教室を襲撃し、少女3人を殺害、さらに10人を負傷させた。事件後のソーシャルメディアへの投稿は英国全土で暴力を引き起こし、ソーシャルメディア利用者の中には投稿を理由に投獄された者もいた。

アムネスティは、数時間のうちに、殺人犯の身元、宗教、人種、移民ステータスに関する虚偽がソーシャルメディア、特にアルゴリズムによって決定された「For You」ページが「安全よりも論争的な関与」を優先するX全体に広まったと述べた。

人権団体は今週発表した報告書の中で、Xの推奨システム、つまりコンテンツランキングアルゴリズムは「被害を防止または軽減するための適切な安全策を講じないまま、怒りを巻き起こし、白熱した議論や反応、関与を誘発するコンテンツを体系的に優先している」と述べた。

アムネスティは、Xが2023年にオープンソース化したアルゴリズムのソースコードを分析した。その結果、エンゲージメントが優先され、アルゴリズム自体には、ランク付けした投稿がもたらす潜在的な危害を評価するメカニズムがなかったことが判明した。

X(旧Twitter)がユーザーにプッシュした投稿の例には、極右やイスラム恐怖症をテーマにすることで知られるグループ「Europe Invasions」などのアカウントの投稿が含まれており、フォロワー数がはるかに多いアカウントによって参照されたことで、さらに拡散された。

カタールのノースウェスタン大学のメディア分析准教授マーク・オーウェン・ジョーンズ氏が英国議会委員会に提出した証拠書によると、イーロン・マスク氏は当時1億9400万人のフォロワーに極右のメッセージを拡散させた大手アカウントの一つだった。

オーウェン・ジョーンズ氏によると、マスク氏は英国暴動中に46回投稿し、合計8億800万回のインプレッションを生み出したという。

「マスク氏の介入は明らかにオンライン上の言論を形作った」と彼は書き、イスラム恐怖症や過激主義的な内容で広く知られているトミー・ロビンソン氏(本名スティーブン・ヤクスリー・レノン)が発信した内容の投稿をシェアした別の事例に言及した。

アムネスティは、ヤックスリー=レノン氏の投稿が5億8000万回以上のインプレッションを生み出したと推定され、英国全土の暴動の一因となった人種差別的言説のもう一つの重要な要因であると指摘した。ヤックスリー=レノン氏は以前、ヘイトスピーチを理由にXから追放されていたが、2022年にマスク氏が同プラットフォームの経営権を握った後、復帰した。

懲役刑と立法上の空白

ITVが報じた全国警察長官協議会のデータによると、ルダクバナ氏の殺害後に起きた全国的な暴動に関連して英国では1,876人が逮捕され、その多くはソーシャルメディアに投稿した内容が原因だった。

このうち1,110人が現在起訴されています。ソーシャルメディア違反者の中には、既に1年以上の懲役刑を言い渡されている者もいますが、ソーシャルメディア上で暴力を扇動し、暴動にも参加した者には、さらに長期の刑が言い渡されています。

英国政府は、暴動に至るまでの経緯と、暴動を長期化させた経緯について、様々な検証と調査を命じた。参加者を裁判にかけることは、その取り組みの一環に過ぎなかった。

これらのうちの 1 つは、潜在的なテロリストを特定し、有害な攻撃が実行される前に介入することを目的とした Prevent プログラムに焦点を当てたものでした。

ルダクバナさんは10代の頃、プリベントに3回紹介されました。審査の結果、マンチェスター・アリーナ爆破事件などの過去の事件に明確な関心を示し、人を刺すことについて語っていたにもかかわらず、プログラムから早期に退学させられたことが判明しました。

政治家たちはこのプログラムのさまざまな欠点を指摘し、2月初めに14の改善勧告を発表した。

  • Xはフランス警察にアルゴリズムデータの要求を拒否した
  • 誰かがエルモのXアカウントを乗っ取り、反ユダヤ主義的な暴言を投稿した
  • xAIのGrokが右翼の狂気に陥り、男性を暴行する際のヒントを提供
  • イーロン・マスクのGrokチャットボットが、現在は削除されたXへの暴言で「我が闘争2.0」を投稿

一方、科学・イノベーション・技術委員会の委員長であるデイム・チ・オンウラ氏は先月、2023年にXなどのプラットフォームのユーザーを違法コンテンツから保護するための規則を導入した物議を醸しているオンライン安全法(OSA)は「まったく基準を満たしていない」と述べた。

委員会は、OSA が有害コンテンツのアルゴリズムによる増幅を禁止する法律を制定できていないことを認識したさまざまな分野の専門家から意見を聴取しました。

プラットフォームには、違法または有害なコンテンツの発信源に積極的に対処する義務があります。そのため、投稿はユーザーのフィードに表示される前に削除されることがよくあります。しかし、有害ではあるものの違法ではないコンテンツは、法律の対象外です。

国会議員らは、英国の弁護士らから現行法では誤情報がカバーされるかどうかわからないとの意見を聞いた後、ソーシャルメディアプラットフォームに投稿されるコンテンツに対してより一層の責任を負わなければならないことに同意した。

説明責任の呼びかけ

アムネスティの大手テック企業責任担当責任者パット・デ・ブルン氏は、同人権団体の本日の報告書でこれらの訴えに同調し、サウスポート攻撃とそれに伴う暴動から1年が経過した現在もX社はユーザーの安全を脅かしていると述べている。

「私たちの分析では、昨年英国各地で観測された反イスラム教、反移民の暴力の波の中で、Xのアルゴリズム設計とポリシー選択がリスクの高まりに寄与し、それが現在も深刻な人権リスクをもたらし続けていることが示されている」と同氏は述べた。

「効果的な安全策がなければ、社会的緊張が高まった時期に扇動的または敵対的な投稿が広まる可能性が高まる。」

Xの広報担当者はThe Registerに次のように語った。

私たちは、すべてのユーザーにとってXを安全に保つことに尽力しています。当社の安全チームは、機械学習と人間によるレビューを組み合わせ、暴力的な発言、ヘイト行為、合成および操作されたメディアに関するポリシーを含む当社の規則に違反するコンテンツやアカウントに対して、プラットフォームの安全性に影響を与える前に、迅速に積極的に措置を講じています。

さらに、クラウドソーシングによるファクトチェック機能であるコミュニティノートは、Xプラットフォーム全体で誤解を招く可能性のある投稿に対処するための安全チームの作業をサポートする上で重要な役割を果たしています。」®

Discover More