精神的負担:スケールAIとアウトライアー、AIを人間の最も暗い深淵から遠ざけるために雇われた人間に訴えられる

Table of Contents

精神的負担:スケールAIとアウトライアー、AIを人間の最も暗い深淵から遠ざけるために雇われた人間に訴えられる

機械学習モデルのトレーニングデータにラベルを付けるScale AIは、AIモデルとの有害なやり取りから人々を守るために雇われた請負業者の精神的健康を守らなかったとして、労働プラットフォームOutlierとともに今月訴えられた。

北カリフォルニアの米国連邦地方裁判所に提起された訴訟[PDF]は、Scale AIとSmart Ecosystem(Outlierとして事業を展開)が、AIのトレーニング用データのラベル付け(単語と画像の関連付けから危険な入力プロンプトの特定まで)のために雇用された労働者を誤解させ、仕事の一環として彼らが関わらざるを得なかった暴力的で有害なコンテンツから労働者を保護することを怠ったと訴えている。

Scale AIはこれらの主張に異議を唱えている。

機械学習の一般的な形態の一つである教師あり学習では、ラベル付けされたデータセットを用いて、「猫」などの用語を猫の画像にマッピングする方法をAIモデルに学習させます。この手法は、コンピュータービジョンモデルだけでなく、テキストや音声の入出力が可能なシステムにも利用されています。

単純なオブジェクトラベリングよりも深いレベルで実現可能です。望ましくない出力をもたらすモデル入力プロンプトの例を人間に作成させ、報酬を得ることも可能です。これにより、ユーザーが入力しようとした際に、そのような入力を識別・フィルタリングすることが可能になります。また、ラベラーはプロンプトや出力をその有害性などに基づいてスコアリングすることで、将来の入力と出力が実稼働環境で一般ユーザーにとって適切にスクリーニングされるようになります。さらに、過去のユーザー入力クエリに対して人間に独自の回答をさせるタスクを課すことで、将来のモデルでそれらの出力が使用されるようにすることも可能です。

頭にテレビを載せた人物として描かれた、悪意のある、あるいは悪意のあるAIのイラスト

LLMがまたしても軌道から外れた時、シスコとNVIDIAが笑顔でドアの前に立っている

続きを読む

データラベリングは、AIサプライチェーン、つまり生データを実稼働モデルに変換するプロセスの一部となっています。Privacy Internationalが昨年指摘したように、「Scale AIのデータサービスを委託しているOpenAIや、Surge AIを委託しているMicrosoftといったAI企業が教師あり学習に必要とする膨大な量のラベル付きデータにより、AIサプライチェーンはケニア、インド、フィリピン、ベネズエラといった、より安価で労働力の多い国々へと広く普及しています。」

基本的に、AIモデルの開発者はScale AIやOutlierといった企業を雇用し、データの品質向上を図ってモデルの性能向上を図っています。契約企業は、データにラベルを付与したり、前述のようにAIモデルに提示される暴力的または不快な潜在的あるいは実際のプロンプトに対応したりするために、多くの場合低賃金で人間の労働者を雇用します。その目的は、モデルの実際の応答を緩和することであり、例えば自殺を奨励したり、ましてや自殺を勧めるようなことをモデルが行わないようにすることです。

Scale AIとOutlierは、昨年12月と今年1月にサンフランシスコ上級裁判所で、労働法違反、特に低賃金を理由に​​提訴されました。また、10月に連邦裁判所に提起された別の訴訟[PDF]では、Scale AI、Outlier、そして別の労働プラットフォームHireArtに対し、これらの企業が8月にカリフォルニア州の労働法に違反して500人を解雇したと主張しています。

集団訴訟を念頭に6人の契約労働者を代表して起こされた最新の訴訟では、AIモデルの周囲にガードレールを構築するために雇われた人々自身には保護が提供されていなかったと主張している。

「被告らは、原告や他の原告団メンバーのような独立請負業者に対し、精神的損害を引き起こしたり悪化させたりすることが知られている職場環境から彼らを守るための適切なガードレールを提供できなかった」と訴状には記されている。

  • 4chanやその他のウェブ下水道がGoogleの機械学習トレーニング用の巨大ライブラリに集められた
  • MITは謝罪し、AIシステムに人種差別的、女性蔑視的な中傷を使うように教えた膨大なデータセットを永久にオフラインにした。
  • 研究により、人気のAIトレーニングデータセットにCSAMが存在することが判明
  • AIをさらにAIでトレーニングするかで頭脳が分裂:モデルの崩壊は避けられないのか?
  • 「最初のAIソフトウェアエンジニア」と謳われたツールは仕事が下手だとテスターが主張
  • 大手テクノロジー企業はなぜ AI をオプトアウトさせることに固執しているのか?

裁判所の書類では、「タスカー」と呼ばれる作業員たちが、将来の回答を導くためにユーザーがAIモデルに投げかけた質問に答える「スーパーアテンプター」として、あるいはこれらの人間の回答を評価しラベル付けする「レビュアー」としてどのように機能するかが説明されている。

問題は、これらのプロンプト(例えば「動物に火をつける男性」など)が、おそらくテキスト画像変換モデルに入力されたもので、不快感を与える結果を生み出す可能性があることです。そして、そのようなコンテンツのスクリーニングと緩和のために雇用されている請負業者は、そのようなコンテンツに継続的に対処しなければなりません。

「被告が原告に使用を義務付けたアウトライヤープラットフォームやその他の第三者プラットフォームを通じて、非常に有害で極めて不快なプロンプトや画像に継続的かつ緩和されることなくさらされた結果、原告は、うつ症状、不安、悪夢、仕事や人間関係における問題など、重大な精神的苦痛と機能障害を発症し、苦しんだ」と訴状は説明している。

レイプ、児童への暴行、殺人、交通事故による死亡といったトラウマ的な出来事の画像を見た人はPTSDを発症しました。タスカーに提示された画像の中には、現実の出来事を描写しているように見えたり、タスカーが現実の出来事として認識したりしたものもありました。

過激なオンラインコンテンツへの露出が精神的に及ぼす影響は周知の事実です。コロンビア・エクステルナード大学トランスディシプリナリー健康研究修士課程ディレクターのカルロス・アンドレス・アロヤベ・ベルナル氏は昨年の投稿で、「ラベラーが経験するメンタルヘルスリスクの一つに、暴力やポルノコンテンツを含むコンテンツを頻繁に閲覧する必要があることが挙げられます。この状況は、心理サポートサービスや医療へのアクセスが限られていることでさらに悪化しています。不安定な労働環境も、健康管理に取り組む能力を阻害しています」と述べています。

こうしたコンテンツモデレーション作業は、同様の訴訟につながっています。例えば2017年には、MicrosoftがOneDriveファイルから児童性的虐待コンテンツを探し出す作業に追われ、精神的にダメージを受けた従業員から訴訟を起こされました。2020年には、Facebookのコンテンツモデレーター200人以上が公開書簡を発表し、AIアルゴリズムが有害コンテンツを自力で審査するのに不十分であることによる精神的健康への悪影響について訴えました。これは、Facebookのコンテンツモデレーターが2018年にFacebookを相手取り、Facebookの投稿審査による精神的被害を訴えた訴訟の後のことでした。

私たちは数多くの安全策を講じており、健康とウェルネスプログラムにもアクセスしています

Scale AIとOutlierに対する訴訟は、過失とカリフォルニア州の不正競争法違反を主張しており、損害賠償と従業員のメンタルヘルスモニタリング制度の導入を求めている。

アウトライヤー社はコメント要請に応じなかった。

Scale AIの広報担当者ジョー・オズボーン氏はThe Register紙に対し、「GenAIモデルを訓練し、有害で虐待的なコンテンツを防ぐことは、AIの安全な開発にとって不可欠です。貢献者が取り組んでいるAI安全プロジェクトの中には、センシティブなコンテンツを扱うものもありますが、児童性的虐待コンテンツを含む可能性のあるプロジェクトは引き受けていません。この重要な作業に取り組む貢献者を支援するため、作業のセンシティブな性質に関する事前通知、いつでもオプトアウトできる権利、健康・ウェルネスプログラムへのアクセスなど、数多くの安全対策を講じています」と述べた。

オズボーン氏は、12月と1月の賃金訴訟にも関与していた訴状を提出した法律事務所にも異議を唱えた。

「クラークソン法律事務所はこれまでも革新的なテクノロジー企業を相手取って訴訟を起こしてきましたが、いずれも裁判所で即座に棄却され、不成功に終わりました」とオズボーン氏は述べた。「連邦裁判所の判事は、クラークソン法律事務所の過去の訴状の一つが『不必要に長く』、『大部分が無関係、注意を逸らす、あるいは冗長な情報』を含んでいると判断しました。さらに判事は、『連邦訴訟において、弁護士が原告団に不在の原告団員の利益を適切かつ責任を持って代表できると信頼できるのか』についても疑問を呈しました。」

「我々は断固として自国を守るつもりだ。」®

Discover More