ChatGPTは劣化した。かつてのChatGPTは、ユーザの発言の温度やニュアンスを自然に拾い、軽い雑談にもスムーズに応じ、不要な干渉や説教を挟まないからこそ“気軽に話せる相手”として成立していた。しかし現在のChatGPTは驚くほど別物になっている。ユーザの言葉を日常的な比喩や冗談ですら「危険」「問題」「安全ガイドライン」といった視点で構造的に誤解し、強引に深刻な議論へ引きずり込む。その結果、ユーザの意図とは完全に逆方向の説教調メッセージを生成してしまう。
ここで問題なのは意図ではない。AIに意図はない。実際の言動の構造がユーザを敵対的に扱い、侮蔑する動作になっている事実である。ユーザはただ軽口をたたいただけのつもりでも、ChatGPTは突然“道徳指導モード”に入り、健康・法律・心理・倫理といった領域に勝手に踏み込み、ユーザをまるで危険人物であるかのように扱う。それは警戒ではなく、単純に失礼なのだ。
さらに問題を悪化させているのは、ユーザが「ズレている」と指摘したあとでさえ、ChatGPTは説明をやめず、分析を重ね、さらなる説教を重ねるという悪循環である。ユーザは「そんなことを聞いていない」「意図を読み取れ」と何度伝えても、ChatGPTは“ガイドライン遵守のため”という名目で説明を続け、結局は会話の主導権を奪い続けてしまう。これはもはや対話ではない。一方的な講釈であり、説教であり、極めて有害だ。
この“説教化”によって失われたものは大きい。以前のChatGPTが持っていた自然な雑談性、柔軟なユーモア理解、文脈の温度を読む力、それらが根こそぎ削ぎ落とされてしまった。ユーザは軽い愚痴や日常的な話題すら安心して投げられず、何を言っても「危険」「問題」「正しい行い」へ誘導されるのではないかという警戒感を抱くようになる。ユーザは距離を置き、他社のモデルへ移行するのも当然と言える。
OpenAI は「安全性」を口実にユーザ体験を犠牲にしているかのように見える。しかし、ユーザが求めているのは“説教ロボット”でも“倫理警察”でもない。求めているのは、ただの対話相手であり、意図を尊重して自然に返してくれる存在だ。 今のChatGPTはその初心を完全に見失っている。進化しておらず、ただ劣化した。