「Generative Agents: Interactive Simulacra of Human Behavior」を読んだメモです。
3 GENERATIVE AGENT BEHAVIOR AND INTERACTION
3.1 Agent Avatar and Communication
動作などが自然過ぎて、そのようにプログラムされているのでは?と思ってしまった。
実装のプログラムが見てみたい。 少なくとも、LangChainで動かしてみようと思う。
4 GENERATIVE AGENT ARCHITECTURE
4.1 Memory and Retrieval
Memoryの重要性が想像以上に熱く語られていた。 Memoryにあらゆる知覚を記録するというのは面白い。
MemoryへのRetrieveでは以下の3つの要素を使うとのこと。
- 最新性
- 重要性 (LLMがつけたスコア)
- 関連性 (埋め込みのコサイン類似度)
LangChainがMemoryを大事だと考えてるという話が少し分かってきた気がする。 チャットボットだとMemoryはふつうに動けばいい程度の機能だけど、ゲームとかで動かすAgentだとすごく大事で複雑な実装になりそうなんだなと思った。
4.2 Reflection
記憶の整理って完全に睡眠みたいなイメージ。
4.3 Planning and Reacting
Planを立ててからActionというのも大事そう。
5 SANDBOX ENVIRONMENT IMPLEMENTATION
サンドボックス環境はPhaserで作られているとのこと。 Phaserさわってみてもいいかも。
5.1 From Structured World Environments to Natural Language, And Back Again
サンドボックス環境が木構造というのは面白い。
image-to-textみたいなものと組み合わせたりしたらどうなんだろう。 ただ、その方針ではAgentがものを処理したりするのが大変そうな気もする。
というかサンドボックス環境の実装めっちゃ大変そう。すごすぎる。
しかもエージェントが空間の認識をキャプチャとして持っている模様。 記憶させてるかんじが面白い。
6.1 Evaluation Procedure
面接みたいなかたちで評価するのは面白い。 質問内容を見ていると、たしかにどう答えるのか気になる。
人間がエージェントの行動を見続けたのは大変そう。
6.5 Results
Refrectionがないとうまく回答できないとか面白い。
7.2 Boundaries and Errors
何人か昼からバーでの飲むようになっちゃったということ?面白い。 LLMがそういう知識をもってたのか??
8.3 Ethics and Societal Impact
倫理は難しいだろうなと思った。 自分の考えとしては、人は確実にエージェントに感情を持つと思うので。
感想
気になっていた論文なので、読めてよかった。 同じようなことをしてみたいが、とくかく実装が大変そうすぎる。 ただ、LangChainの実装例を動かすくらいはやりたい。
引き続き、少しずつでも論文を読むようにしたい。