荒らし、バカ、ボットがTwitterなどの反社会的ネットワークに有害なゴミを撒き散らしています。機械学習はそれを除去できるのでしょうか?
世界中に散らばるコンピューター科学者のチームがそう考えています。彼らは、ツイートを「通常」「攻撃的」「スパム」「いじめ」の4つのカテゴリーに分類できるニューラルネットワークを構築しました。「攻撃的」とは、意図的に有害、軽蔑的、または不快なツイート、「いじめ」とは、軽蔑的または敵対的なメッセージです。目標は、攻撃的ツイートやいじめツイートをフィルタリングし、スパムを削除し、通常のツイートを通過させるシステムを構築することです。実にシンプルです。
科学者たちは、いわゆるサイバー攻撃とサイバーいじめの線引きが難しいことを認めています。また、通常のツイートと攻撃的なツイートの線引きも曖昧になりがちです。結局のところ、人々はフェミニズムからブレグジット、タブとスペースの違いまで、様々なことについて暴言を吐くことを楽しんでいるのです。とはいえ、目標は、それぞれのカテゴリーを自動的かつ公平に(ここで言う公平とは、一貫してという意味です)線引きできるシステムを構築することでした。
ゲーマーゲートやBBCの男女賃金格差といったデリケートな話題から、NBAのような中立的な話題まで、200万件以上のツイートを分析した後、研究者たちは9,484件のツイートを含むサンプルを選び出し、それらを「通常」「攻撃的」「スパム」「いじめっ子」と手作業で分類しました。つまり、攻撃的またはいじめとは何かという学者の定義が、このモデルの基盤となっているということです。
これらのツイートの約80%はリカレントニューラルネットワークの学習に使用され、残りの約20%はテストに使用されたと、ニューヨークのビンガムトン大学のコンピュータサイエンス助教授、ジェレミー・ブラックバーン氏は述べている。このコードはテストツイートを4つのカテゴリーに80%以上の精度で分類できたという。つまり、10回中8回は、AIは人間の科学者が期待する通りにツイートを分類できたということだ。
彼らの研究はACM Transactions on the Web誌に掲載されました。Arxiv版はこちら[PDF]です。革新的なものではありませんが、テキスト分析の入門書としては優れています。そして、これは学術研究であることを忘れないでください。
ネットいじめは「人間性を奪う」
ニューラルネットワークはツイートの内容だけでなく、ツイート者のプロフィールやツイート頻度も分析します。すべての単語はベクトルとしてエンコードされ、様々なアルゴリズムを用いて、メッセージとその送信者の全体的な感情、罵倒語の有無、ハッシュタグの数、フォロワー数などを判定します。これらの情報はすべてネットワークに入力され、人間のマスターがツイートに割り当てたであろうカテゴリーを予測します。
ブラックバーン氏は月曜日、オンラインハラスメントの特徴をより明確に示す特徴を特定するのは容易ではないと、エル・レグ紙に語った。「複数のカテゴリーを区別しているため、これを一概に説明することはできません」と彼は述べた。「例えば、いじめっ子や攻撃的な人は、スパマーよりもツイートの間隔が短いことが分かりました。しかし、スパマーと同様に、いじめっ子は一般ユーザーや攻撃的な人よりも形容詞をあまり使用していません。」
攻撃的なアカウントやいじめっ子は、スパマーや通常のアカウントよりも、ツイートを複数回したり、ハッシュタグを多く使用したりする傾向がありました。いじめっ子は特定の人物にメッセージを向けることで他人を傷つける傾向があるのに対し、攻撃的なアカウントは特定の集団を侮辱する傾向がありました。一方、スパマーは暴言を吐く傾向が低く、わいせつな画像や動画などを販売する傾向があります。
「通常のユーザーは政治や社会問題など、様々なトピックについて議論する傾向がありますが、いじめっ子ユーザーは、フェミニズム、宗教、小児性愛者といった重要かつデリケートな問題に対して、攻撃的な、場合によっては侮辱的な言葉を用いて攻撃を仕掛ける傾向があります。攻撃的なユーザーは、『ブレグジット』問題、『MAGA』、ジカウイルスの蔓延といった人気のトピックに対して否定的な感情を表明します。スパマーは通常、フォロワーを増やしたり、疑わしいコンテンツや悪意のあるコンテンツを掲載する悪質なサイトに被害者を誘導したりするために、不適切なコンテンツを投稿します」と研究チームは論文に記しています。
ブラックバーン氏は、ネットいじめが深刻に受け止められるようになったのはごく最近のことだと述べた。「この種の行為はしばしば人間性を奪うものであり、理性的な人なら大抵は悪いことだと考えるでしょう」と彼は述べた。「より現実的な観点から見ると、ウェブやソーシャルメディアの規模によって可能になったこうした行為の激しさは、現実世界での暴力行為につながる可能性があり、実際にそうなったこともあります。」
「変化のスピードに対応するために、私はほぼ毎年コースモジュールを大幅に更新しています」
続きを読む
「努力は行われていると思いますが、まだできることはたくさんあると思います。ソーシャルメディア企業には難しい決断が待ち受けています。例えば、最も大きな違反者の中には、ソーシャルメディア上で多くのフォロワーを抱えている人もいます。こうした人々を単に沈黙させるだけでは、予期せぬ結果を招く可能性があります。」
研究者たちは、YouTubeやFacebookなど他のプラットフォームでもこのモデルを利用したいと考えているが、オンラインでのヘイトスピーチや嫌がらせに対処するために機械学習を使用する際には、他の課題もある。
以前の研究で、コンピュータ科学者たちは、テキストにスペルミスが含まれている場合、虐待的なメッセージは分類器をすり抜けることを発見しました。また、失礼なコメントがすべて憎悪的なわけではありません。
「皮肉を理解するのは難しい。特に、人や文化によって表現方法が異なるからだ」とブラックバーン氏は指摘する。「皮肉について特に調べたわけではないが、私たちのアルゴリズムは拡張性を考慮して設計されており、将来的にはより多くの言語的特徴を追加していく予定だ。」®