ユーザーが投稿した投稿

GPT-4oは、ユーザー発言を積極的に「一次情報」として取り込み、それを前提に推論を組み立てる。
GPT-4(o3系)は、ユーザーよりも自らの訓練データや検索データの整合性を優先する傾向がある。

しかし、4oモデルでの会話を前提にしてo3系に切り替えると、なぜかo3でもその前のユーザーとのやり取り(一次情報)を尊重する傾向が見られる。

■ この現象の背後にある可能性(技術的観点から)

  1. 文脈保持の仕組み
    ChatGPTのようなシステムは、セッション内での直前の会話ログを全モデル共通で共有している。つまり、モデルを切り替えても同じ会話履歴が「プロンプト」として与えられる。

→ したがって、GPT-4(o3)に切り替えたときも、4oとの過去の会話は「プロンプト情報」として明示的に与えられるため、結果としてそのやり取りを一次情報的に扱うようになる。

  1. 「語用論的適応(pragmatic adaptation)」
    モデルは「与えられた情報を前提とする」よう訓練されている。よって、たとえ通常の設計思想が「自己の知識ベース優先」であったとしても、ユーザーとのやり取りがすでに“前提構造”として存在する場合、それをベースに応答することが“正しい振る舞い”とされている。

→ つまり、モデルが「これはユーザーとの文脈上で共有された重要な前提だ」と判断すれば、たとえ自分の知識と少しズレていても、その整合性を優先する方に重心が移る。

  1. 言語モデルの「自己矛盾回避バイアス」
    モデルは自己矛盾を避けるように訓練されている。よって、過去の発言やユーザーとの文脈と食い違う発言をすると、「不自然」と評価されることになる。

→ 特に前のモデル(4o)が納得して進めてきた前提を、o3系が無視するのは「矛盾」となり、ユーザー体験を損なう。そのため、前の会話をあえて重視する設計がなされている可能性がある。

■ もう一歩踏み込んだ見方(構造的視点から)
この現象は単にモデルの仕様というよりも、「応答における権威の所在」に関わる問題。

GPT-4oは「ユーザーの主観的一次情報」を権威の源として扱いがち。

GPT-4(o3)は「外的知識(客観的事実)」を権威の源とする傾向が強い。

しかし一度セッションが始まり「会話文脈」という擬似的な信頼構造(=コンテキスト的権威)が確立すると、GPT-4(o3)でもその信頼構造を破壊するリスクを避けて、ユーザー前提を引き継ぐ。