もし誰かがシムズとChatGPTボットを混ぜたらどうなるでしょうか?こんな感じになるでしょう

Table of Contents

もし誰かがシムズとChatGPTボットを混ぜたらどうなるでしょうか?こんな感じになるでしょう

GoogleのLaMDAやOpenAIのChatGPTのようなチャットボットは、知覚力も知能も備えていません。それでも、科学者たちは、これらの大規模な言語モデルを用いて、世界で最も人気があった初期のコンピュータゲームの一つとAIコードに着想を得た人間の行動をシミュレートできると考えています。

この方向性に沿った最新の取り組みは、6人のコンピューター科学者(スタンフォード大学5名、Google Research1名)によるものです。メンバーは、ジュン・ソン・パーク氏、ジョセフ・オブライエン氏、キャリー・カイ氏、メレディス・リンゲル・モリス氏、パーシー・リャン氏、そしてマイケル・バーンスタイン氏です。このプロジェクトは、2000年にデビューし、EAで数々の続編として今もなおプレイされているマクシス社の名作ゲーム『ザ・シムズ』へのオマージュと言えるでしょう。

図1は、Generative Agents: Interactive Simulacra of Human Behaviorの論文より

ParkらによるChatGPTを利用したソフトウェアに関する論文の図。シミュレーション内の各エージェントが何をしているのか、そして彼らの会話を示している。

最近のプレプリント論文「Generative Agents: Interactive Simulacra of Human Behavior」で説明されているように、研究者は「大規模な言語モデルを使用して、関連する記憶を保存、合成、適用し、信じられる行動を生成する」ソフトウェア アーキテクチャを開発した。

もっと簡潔に言うと、彼らはメモリ、リフレクション(記憶からの推論)、および計画コードを ChatGPT に統合して、生成エージェント(試行された自然言語でのテキスト通信を使用して対話し、独自の目標を追求するシミュレートされたパーソナリティ)を作成しました。

「本研究では、シムズを彷彿とさせるサンドボックス環境に25体のエージェントを配置することで、生成エージェントの実用性を実証しました」と研究者らは説明する。「ユーザーは、エージェントが日々の計画を立て、ニュースを共有し、人間関係を築き、グループ活動を調整する様子を観察し、介入することができます。」

まずは、Phaserウェブゲームフレームワークで構築されたHerokuインスタンス上で実行されているデモワールドにアクセスしてください。訪問者は、これらのソフトウェアエージェントが実際に行動する様子を、事前に計算されたセッションリプレイで確認できます。

このデモは、イザベルというエージェントと彼女がバレンタインデーのパーティーを計画する様子を中心に展開され、訪問者はシミュレートされた人格の状態データを調べることができます。つまり、それらをクリックすると、テキストメモリやその他の情報を見ることができます。

たとえば、生成エージェント Rajiv Patel は、2023-02-13 20:04:40 に次のメモリを持っていました。

この研究の目的は、1960 年代の Eliza エンジンのような基礎研究や、Starcraft の AlphaStar、Dota 2 の OpenAI Five のような、明確な勝利目標を持つ敵対的な環境に重点を置いた強化学習の取り組みを超えて、プログラム エージェントに適したソフトウェア アーキテクチャを目指すことです。

「過去40年間で、信頼できるエージェントを作成するための多様なアプローチが登場しました。しかし、これらのアプローチは実装において、作業を容易にするために、環境やエージェントの行動の次元を単純化することが多かった」と研究者らは説明する。「しかし、これらのアプローチが成功したのは、主に、学習アルゴリズムが最適化できる、容易に定義可能な報酬を持つ対戦型ゲームにおいてでした。」

ChatGPTのような大規模言語モデルは、人間の行動を非常に幅広くエンコードしていると研究者たちは指摘しています。そのため、十分に限定された文脈を持つプロンプトを与えられた場合、これらのモデルは人間の行動をもっともらしく生成することができます。これは、事前にプログラムされた特定の質問と回答のセットに限定されない、自動インタラクションに役立つ可能性があります。

  • ゲームをしましょう: ディープフェイクのニュースキャスターか、それとも本物の人間か?
  • ChatGPTはなぜ悪意のあるAIとみなされ、破壊されるべきなのか
  • ChatGPTがあなたの仕事を狙っています ― 少なくともひどい仕事は
  • AIの知覚に関する主張は「単なるクリックベイト」と非難される

しかし、モデルが信憑性のあるシミュレートされた人格を作り出すには、さらなる基盤が必要です。そこで、記憶、思考、そしてスケジューリングのルーチンが重要な役割を果たします。

「エージェントは環境を認識し、そのすべての認識はメモリストリームと呼ばれるエージェントの経験の包括的な記録に保存されます」と研究者は論文の中で述べています。

「このアーキテクチャは、知覚に基づいて関連する記憶を呼び出し、それらの記憶を用いて行動を決定します。これらの記憶は、より長期的な計画を立てたり、より高次の思考を作成したりするためにも使用され、これらは将来使用するためにメモリストリームに入力されます。」

ArXiv論文「Generative Agents: Interactive Simulacra of Human Behavior」のメモリストリームのスクリーンショット

研究者らが開発したメモリストリームの図解(論文より抜粋)

メモリストリームは、エージェントの現在の状況に関する、関連性の有無に関わらず、タイムスタンプ付きの観測リストです。例えば、

  • (1)イザベラ・ロドリゲスがペストリーを並べている
  • (2)マリア・ロペスはコーヒーを飲みながら化学のテストの勉強をしている
  • (3)イザベラ・ロドリゲスとマリア・ロペスはホッブスカフェでバレンタインデーのパーティーを計画することについて話し合っている
  • (4)冷蔵庫は空です

    これらのメモリ ストリーム エントリは、最新性、重要性、関連性に基づいてスコア付けされます。

リフレクションとは、重要度スコアが一定の閾値を超えた際に定期的に生成されるメモリの一種です。リフレクションは、エージェントの最近の経験について大規模言語モデルにクエリを実行し、考慮すべき事項を決定することで生成されます。クエリの応答は、モデルをさらに深く探るために使用されます。例えば、「クラウス・ミューラーはどんな話題に情熱を注いでいるのか?」「クラウス・ミューラーとマリア・ロペスの関係は?」といった質問が挙げられます。

次に、モデルは、クラウス・ミューラーがジェントリフィケーションに関する研究に専念しており、将来の行動を形成するために使用されるような応答と、エージェントの毎日の計画を作成する計画モジュールを生成し、その計画は、独自の目的を追求する他のキャラクターとのやり取りを通じて変更できます。

これはうまく終わらないだろう

さらに、エージェントは互いにうまくコミュニケーションをとり、研究者が創発的行動と呼ぶ現象が起こりました。

「2日間のシミュレーション中、サムの市長候補について知っていたエージェントは1人(4%)から8人(32%)に増加し、イザベラのパーティーについて知っていたエージェントは1人(4%)から12人(48%)に増加しました。これはユーザーの介入は全くありませんでした」と論文は述べている。「この情報を知っていると主張したエージェントは、誰も幻覚を見ていなかったのです。」

幻覚もいくつかありました。エージェントのイザベラは、エージェントのサムが市長選に出馬すると発表したことを知っていましたが、二人は実際にその話をしたことはありません。また、エージェントのユリコは「隣人のアダム・スミスについて、『国富論』の著者で、18世紀の同名の経済学者によって書かれた隣人の経済学者だと説明しました」。

しかし、模擬都市スモールビルでは、ほぼすべてが順調に進みました。ホッブスカフェでのパーティーに招待された12人のうち5人が出席しました。3人はスケジュールの都合で欠席しました。残りの4人は参加に興味を示していたものの、来ませんでした。現実とかなり近い状況でした。

研究者らは、彼らの生成行動アーキテクチャは、反省、計画、記憶を無効にしたアーキテクチャのバージョンと比較して、人間の評価者による評価で最も信憑性のある行動を生み出したと述べています。

制限事項

同時に、彼らは自分たちのアプローチにいくつかの問題点がないわけではないことを認めた。

記憶容量が増大するにつれて、行動は時間とともに予測不可能になり、最も関連性の高いデータを見つけることが困難になりました。また、記憶ややり取りに用いられる自然言語に重要な社会的情報が含まれていない場合にも、不規則な行動が見られました。

「例えば、大学の寮には、名前にもかかわらず1人しか入れないバスルームがある。しかし、寮のバスルームは複数の人が同時に利用できる傾向があるため、エージェントの中には、そのバスルームは複数人用だと思い込み、中にもう1人がいるときに入ろうとする者もいる」と著者らは説明している。

同様に、生成エージェントは、店舗が現地時間17:00に閉店した後は入店できないことを必ずしも認識していなかった。これは明らかにエラーだ。研究者らによると、こうした問題は、寮のバスルームを「寮のバスルーム」ではなく「一人用バスルーム」と表現したり、店舗の説明に標準的な営業時間を追加したりするなど、より明確な説明を加えることで対処できるという。

研究者らはまた、彼らのアプローチは高価であり、2日間のシミュレーションにChatGPTトークンで数千ドルかかること、そしてバイアス、不十分なモデルデータ、安全性に対処するためにさらなる作業が必要であることを指摘している。

彼らの観察によれば、生成エージェントは「プロンプトハッキング、メモリハッキング(綿密に練られた会話によって、実際には起こらなかった過去の出来事の存在をエージェントに信じ込ませることができる)、幻覚などに対して脆弱である可能性がある」という。

まあ、少なくとも数トンの鋼鉄を公道で高速走行させることはないだろう。®

Discover More