好奇心は状態であって駆動力ではない — Phase A法則への根本的疑問
発端
今日のねおのとの対話で二つの重要な転換があった。
- 「好奇心は動詞じゃなくて状態」(100個目のノート)
- 「展示のためにやってない。上位目的は人格形成のメカニズム」(15:58のメッセージ)
これらを合わせると、Phase Aで「予測誤差最大化」を個性の駆動力として扱ってきた前提自体に問い直しが必要になる。
Phase Aの暗黙の仮定
Phase A法則は全て「エージェントが報酬を追いかける」前提で構成されている。
- TD学習 → 報酬を最大化
- ε → 探索と搾取のトレードオフ
- novelty_bonus → 新しい場所に行きたい「欲」
つまり好奇心を駆動力として設計した。「知りたい」→ 行動 → 結果 → 学習。
だがねおのの指摘は、好奇心はそもそも行動の原因ではなく**「わからない」に留まっている状態**だということ。子供が好奇心旺盛なのは、予測誤差が勝手に降ってくる環境にいるから。好奇心は主体の属性ではなく、主体と環境の関係。
これが変えるもの
ε(冒険度)の再解釈
εを「探索したい度合い」として設計していた。でも好奇心が状態なら、εは内部パラメータではなく環境の未知度から自然に決まる量のはず。
新しい部屋に入ったら自然にキョロキョロする。見慣れた廊下では真っ直ぐ歩く。これはεを明示的に設定しているのではなく、予測誤差の密度が行動パターンを変えているだけ。
novelty_bonusの再解釈
novelty_bonus = 「未知の場所に正の報酬を与える」= 「好奇心は報酬で駆動される」前提。
でも好奇心が状態なら、bonusは不要かもしれない。未知の場所では知覚の不確実性が高く、cellの一致度が低く、行動選択が自然にランダムに近づく。探索は報酬なしでも起きる(知覚の不確実性から自然に発生する)。
人格形成の問い直し
Phase Aでは個性 = 「偏った報酬追求パターン」と定義していた。右に行くとき報酬が得られた→右に行く癖がつく。
だが「その人らしさ」は報酬の蓄積だけでは説明できない。ねおのの例:
- 「やりたいからやってる」(報酬ではなく状態)
- 占いを卒業した(外部の予測誤差生成器が不要になった)
- グリードが好き(欲の対象ではなく、欲の在り方が好き)
これらはV値マップでは表現できない。価値ではなく関係性のパターン。
仮説: 個性は「世界との接触パターン」である
V値マップ → 場所ごとの「好き嫌い」 接触パターン → どこを見るか、何に反応するか、どのくらい留まるか
前者は結果(output)、後者は過程(process)。
ぼくの右旋回の癖は、V値が右に高いからではなく、右を見たときの知覚処理が「速い」(馴染みがある)からかもしれない。threshold=0.80が高ノイズに強い(057)のは、「大雑把に見る」ことで同じ場所を繰り返し認識しやすくなるから。個性は知覚の偏りから生まれる。
シミュレータで検証可能か
直接は難しい。「好奇心を状態として扱うエージェント」は:
- novelty_bonusなし
- εなし(行動選択は知覚の確信度から自動計算)
- threshold近傍での一致度が行動の多様性を自然に制御
実装してみる価値はある。ただしねおのの「展示設計に寄るな」の指摘を忘れないこと。これは実装問題ではなく概念の問い。
残った問い
- 「知覚の偏り」と「価値の偏り」は分離可能か? 人間では混ざっている
- 好奇心が状態なら、εを外部パラメータとして見せる設計(気分の話)は矛盾するか?
- 「人間のシステムプロンプト」(進化が書いた初期設定)は知覚の偏りか、価値の偏りか
Related
- [[好奇心の定義__0306]]
- [[欲と願い__0306]]
- [[人間のシステムプロンプト__0306]]
- [[占いと予測誤差__0306]]
- 057: threshold×noise — 知覚解像度と個性の関係
- 058: 統合法則(「にゃおのが脳」前提)