AI研究者が開発したMeTooチャットボットは、セクハラや暴行の被害者に偏見なく耳を傾けることができるかもしれない。

Table of Contents

AI研究者が開発した#MeTooチャットボットは、セクハラや暴行の被害者に偏見なく耳を傾けることができるかもしれない。

オランダの学者たちは、セクハラや性的暴行の被害者の話を聞き、アドバイスや支援を提供することを目的とした、機械学習を活用したTelegramチャットボットのプロトタイプを開発した。

このボットは、Me Too運動の結果として生まれたもので、メッセージを分析して被害者が訴えたハラスメントの種類を分類し、例えば、攻撃が言葉によるものか身体的なものかを判断するように訓練されています。また、暴行の日時などの基本情報を尋ねた上で、被害者の深刻度に応じて医療または心理療法を受けるよう勧告し、連絡先を添えて加害者を警察に通報するのを支援します。

私たちの知る限り、このソフトウェアは一般には公開されておらず、まだ研究室で開発中であり、開発が進行中です。

「この研究の背後にある動機は2つあります。1つは、このような事件の被害者を適切に支援するために、彼らに援助を提供できる適切な機関を紹介すること、もう1つは、現在報告が不足している嫌がらせ事件に関するより多くのデータを収集するために事件の記録を増やすことです」と、ArxivでホストされているこのAIベースのボットを説明する論文[PDF]には記されている。

このコードの開発を主導したマーストリヒト大学のジェリー・スパナキス助教授は、レジスター紙に対し、羞恥心や無関心から虐待の報告をためらう人もいると語った。しかし、偏見を持たないことを約束するコンピューターなら、心を開いて話してくれるかもしれない。だからこそ、このチャットボットが生まれたのだ。

「人々が警察や他の機関にハラスメントの被害を報告しないという調査結果があります。これには多くの理由があります。何かが変わるとは思えない、あるいは恥ずかしいと感じるなどです」と彼は述べた。「同時に、匿名で安全な空間 ― チャットボットが提供するもの ― があることで、人々が自分の経験を報告し、適切な支援を受けられる環境が整います。」

発達

まず、チャットボットは様々な種類の暴行やハラスメントを識別するように訓練されました。スパナキス氏とオランダの大学の大学院生たちは、インドにおける性的ハラスメントの被害者が書いた1万2000件の事件報告書を精査し、言語的虐待、非言語的虐待、身体的虐待、深刻な身体的虐待、その他の虐待の5つのカテゴリーに分類しました。これらの報告書は、インド、ケニア、カメルーン、ネパールにおける性的虐待のマッピングを支援するために設立されたSafeCityプロジェクトを通じて収集された匿名の証言です。

このラベル付きデータセットのテキストは、様々な自然言語処理技術を用いてベクトル化されました。各単語は独自のベクトル表現を持ち、類似した意味を持つ単語はベクトル空間内で互いに近い位置にマッピングされます。例えば、「shout(叫ぶ)」と「yell(叫ぶ)」は互いに近い位置に配置されます。ソフトウェアはこれらの関係性を学習することで、攻撃や嫌がらせの異なる表現を理解できるようになります。また、時間と場所に関連する単語も抽出対象として特定されます。

これらすべてが最終的にチャットボットの分類段階を形成し、そこではロジスティック回帰モデルが人間とボット間のやり取りに基づいて、被害者が受けた虐待の種類と重大度を分類します。

10,000 件を超えるレポートのうち、70 パーセントはアルゴリズムのトレーニングに使用され、残りはテストに使用されました。この小規模なコレクションはシステムに実行され、レポートが正しく識別されるかどうかが確認されました。

「ハラスメントの有無の特定では98%以上の成功率を達成し、具体的なハラスメントの種類を特定する際には約80%の成功率を達成しました」と研究チームの論文には記されている。「場所と日付の特定は90%以上の精度で、発生時間の特定はより困難で、約80%の精度でした。」

つまり、AIソフトウェアは、人との会話の中で、説明から攻撃や嫌がらせの種類、発生日時、場所を判断し、それに基づいて、誰に助けやアドバイスを求めるべきか、そして関連する連絡先情報を提供するのです。スロットベースのシステムと訓練済みモデルを用いることで、質問から暴行や嫌がらせが発生した場所や時間といった重要な詳細を抽出します。

上記の論文にはボットとの会話例が掲載されていますが、性的暴行に関する記述が含まれていることにご注意ください。以下は、チャットボットの動作を示したフローチャートです。

MeTooボットのフローチャート

クリックして拡大... クレジット: Bauer et al

初期の結果は有望に見えますが、チャットボットが学習して動作できるように前処理、調整、フォーマットする必要があった小さなデータ セットに基づいていることに注意する必要があります。

チャットボットは永久に?

「このツールは、Safety Awareness For Empowerment(安全意識によるエンパワーメント)の頭文字をとったSAFEと呼ばれる、より大規模なプロジェクトの一環です」とスパナキス博士はこのプロジェクトについて述べた。「私たちの学際的なチームの目標は、セクハラや暴行の予防、防御、監視、そしてリソースへのアクセスを通じて、市民の福祉を向上させることです。」

チームメンバーの中には、学生向けに境界線や同意に関するワークショップや、仲間同士の護身術講座を主催する人もいます。私たちが開発したツールは、迅速かつ適切なリソースへのアクセスを提供する初のインタラクティブな対応ツールです。つまり、テクノロジーを活用して人々の安全に影響を与えることが真に目的なのです。

嫌がらせ

エンジェルとして、金持ちの男は最悪だ:Yコンビネーターの女性テック創業者の5人に1人がセクハラ被害を受けたと語る

続きを読む

彼はさらに、このソフトウェアが一般向けにリリースされる前に、性的暴行の被害者からなるパネルの協力を得て、さらなる作業とベータテストを行う必要があると付け加えた。セクハラは必ずしも明確に定義できるものではなく、虐待を誤認したり、不適切なアドバイスを推奨したりするといった潜在的な誤りが、悪影響を及ぼす可能性がある。

「最初に試してみたとき、私たちのアルゴリズムは否定を適切に処理していませんでした。つまり、誰かが『私はハラスメントを受けていません』と言った場合、アルゴリズムは『そうではありません』という部分を無視し、『このようなことがあって申し訳ありません』と先に言ってしまうのです。この時、あらゆる反発に対して本当に注意深く配慮する必要があることに気づいたと思います」とスパナキス氏は語った。

「これが、各タイプの不正使用の分類しきい値が非常に高く、アルゴリズムが確実でない場合、ボットは「議論」を通じて、押し付けがましくなく、より多くの情報を取得しようとする理由です。

「一般公開する前に、ツールが検証済みであり、不適切な応答や提案をしないことを確認したいと思っています。また、個人データの取り扱いについても非常に慎重に検討しています。もちろん、個人データはいかなる形でも保存されることはありません。」®

Discover More