OpenAIのChatGPTによって完全に捏造された事例を引用して裁判所文書を提出した弁護士らが、ニューヨークの裁判官によって正式に懲罰された。
ケビン・カステル判事は木曜日、ピーター・ロドゥカ、スティーブン・A・シュワルツ、およびレヴィドウ・レヴィドウ・アンド・オーバーマン法律事務所が「人工知能ツールChatGPTによって作成された偽の引用や引用文を含む存在しない司法意見を提出し、その後司法命令によってその存在が疑問視された後も偽の意見を主張し続け、責任を放棄した」とする制裁に関する意見および命令[PDF]を出した。
はい、その通りです。弁護士は訴訟書類に含める過去の事例をChatGPTに依頼し、ボットは過去の訴訟事例を勝手に作り上げ、弁護士はそれを自分の主張を裏付けるためにいつも通りに提出したのです。これでは通用しません。
OpenAIによって構築されたChatGPTは、チャットインターフェースに接続された大規模言語モデルで、テキストプロンプトや質問に応答します。これは、膨大な量のテキストを分析し、統計的に確率の高いパターンを解明する学習プロセスを経て作成されました。入力に対して、よく使われる学習テキストに類似しているため、多くの場合、意味を成す可能性のある出力パターンで応答します。しかし、ChatGPTは他の大規模言語モデルと同様に、幻覚、つまり真実ではないことを述べることが知られています。どうやら、誰もがそのことを知っているわけではないようです。
マイクロソフトがOpenAIのGPTボットファミリーを大々的に宣伝し、自社のクラウドとWindows帝国の奥深くにまで浸透させ、人々の企業データを自由に利用させていることを、今さら取り上げてもいい頃ではないでしょうか?訴訟や死亡記事を想起させるモデルと同じで、ソフトウェアの開発者によって「信じられないほど制限されている」と評されたChatGPTのことでしょうか?
タイムライン
5月下旬、カステル判事は、2019年にアビアンカ航空のフライトで負傷した乗客である原告ロベルト・マタ氏の代理人である弁護士に対し、相手側の弁護士が捏造された判決を引用したと航空会社の弁護士が示唆したことについて、説明するよう求めた。
ChatGPTは、「 Varghese v. China Southern Airlines Co. Ltd., 925 F.3d 1339 (11th Cir. 2009) 」など、存在しない偽の判例をでっち上げただけでなく、シュワルツ氏が6月6日の宣誓供述書で判事に述べたように、このおしゃべりAIモデルは引用の信憑性について質問された際に嘘をつき、裁判所と弁護団が反対の主張をしているにもかかわらず、その判例は「確かに存在する」と述べ、WestlawとLexisNexisで見つけられると主張した。
存在しないケースが存在すると主張する ChatGPT のスクリーンショット... クリックして拡大
弁護士らは最終的に謝罪したが、2023年3月15日に弁護側が最初にこの問題を提起した際に弁護士らが過ちを認めなかったため、裁判官は彼らの謝罪に納得がいかないと判断した。弁護士らは、裁判所が理由開示命令を出した後の2023年5月25日まで、何が起こったのかを認めることを待った。
「偽りの意見の提出から多くの害が生じる」とカステル判事は制裁命令書に記した。
相手方は、欺瞞を暴くのに時間と費用を浪費します。裁判所の時間は、他の重要な取り組みから奪われます。依頼人は、真正な判例に基づく主張の機会を奪われる可能性があります。偽りの意見を作成したとして名前が誤って持ち出された裁判官や裁判所の評判、そして架空の行為の責任を負わされた当事者の評判が損なわれる可能性があります。これは、法曹界とアメリカの司法制度に対する懐疑的な見方を助長します。そして、将来の訴訟当事者は、司法判決の信憑性に疑問を呈し、不誠実に判決に反抗しようとするかもしれません。
将来の訴訟当事者は、判決の信憑性について不誠実に疑念を主張することで、判決を無視しようとするかもしれない。
裁判官は弁護士らを処罰するため、各弁護士に対し裁判所に5,000ドルの罰金を支払い、依頼人に通知し、引用された偽の訴訟の著者として偽って特定された実際の裁判官全員に通知するよう指示した。
同時に、裁判官は、負傷から訴訟まで2年以上が経過しており、モントリオール条約で定められた期限であったため、原告ロベルト・マタ氏のアビアンカ航空に対する傷害賠償請求[PDF]を棄却した。
「ここでの教訓は、弁護士が責任を負っている事柄を機械に委任することはできないということだ」と、シリコンバレー法律グループの株主であり、アメリカ法曹協会の人工知能・ロボット工学国立研究所の議長を務めるスティーブン・ウー氏は、ザ・レジスター紙との電話インタビューで語った。
- 時間が足りない、とGoogleの事実確認を担当する請負業者が語る
- AIはベンダーに投資家への15分間の名声を約束
- AIは自らを食い尽くす:実験で、ボットを訓練する人がボットを使っていることが判明
- OpenAIはAIの厳しい規制を呼びかけながら、静かにAIの削減を求めている
ウー氏は、カステル判事が「信頼できる人工知能ツールを補助に使うこと自体に何ら問題はない」と記し、テクノロジーが法曹界で役割を果たしていることを明確にしたと述べた。
しかし、連邦民事訴訟規則第11条では、裁判所に提出された情報について弁護士が責任を負うことを義務付けているため、その役割は必然的に法律専門家に従属するものだとウー氏は述べた。
「弁護士として、AIを活用して書類作成を支援したいのであれば、法律関連の資料で訓練され、厳密にテストされたAIが必要です」とウー氏は述べた。「成果物に対する責任は常に弁護士にあります。情報源をきちんと確認しなければなりません。」
裁判官の命令には、証拠として、捏造されたヴァルギーズ事件の文面と、「法的根拠として引用または引用しないでください」という透かしが入れられている。
しかし、架空の事件に関するメディアの繰り返し言及に基づいてトレーニングされた将来の大規模言語モデルにより、嘘がもう少し長く生き続ける可能性があります。®