はじめに
ChatGPT の Prompting Guide に掲載されているプロンプトは、 該当するモデルに対して使えば、非常に効果が高いものです。 実際、そのまま入力するだけで、 安定した出力が得られる場面も多いでしょう。
違和感が生まれるのは、別のモデルに使い回したときです。 同じプロンプトなのに、 「挙動が変わる」「やりすぎる」「逆に止まる」。 こうした経験をした方も少なくないはずです。
問題は、プロンプトの質ではありません。 そのプロンプトが、どのモデルを前提に書かれているかにあります。
「そのまま使える」のは、前提が合っているときだけ
Prompting Guide のプロンプトは、 「どのモデルでも同じように動く魔法の呪文」 として書かれているわけではありません。
それぞれのプロンプトは、 特定のモデルの性質・挙動・得意不得意を前提に設計されています。 そのため、想定されたモデルに対して使えば、 高い効果が得られるのは自然なことです。
一方で、その前提が異なるモデルに流用すると、 プロンプトに込められた設計意図と、 モデル側の振る舞いが噛み合わなくなります。
この「前提のズレ」こそが、 同じプロンプトなのに結果が変わる理由です。
モデルが変わると、AIの振る舞いが変わる
ここで重要なのは、 「モデルが変わる=中身が少し賢くなる」 という単純な話ではない点です。
モデルが変わると、 AIにどこまで任せるか、どこを制御すべきか という前提自体が変わります。
たとえば、以前の世代では、 「最後までやり切ってください」 「途中で止まらないでください」 といった指示を明示しないと、 タスクが途中で終わってしまうことがありました。
しかし最近のモデルでは、 逆に何も言わないと、やりすぎてしまう ケースが増えています。
この変化を理解せずに、 過去にうまくいったプロンプトをそのまま使うと、 「効かなくなった」「不安定になった」 と感じる原因になります。
Prompting Guide は「テンプレ集」ではない
Prompting Guide に掲載されているプロンプトは、 該当モデル向けのテンプレートとして見れば、 十分に価値があります。
ただし、それだけで終わらせてしまうのは、 少しもったいない使い方です。
本当に参考にすべきなのは、 「このプロンプトが、なぜこの書き方になっているのか」 という設計の背景です。
・なぜ、ここまで範囲を限定しているのか
・なぜ、終了条件を明示しているのか
・なぜ、余計な推測を止めているのか
こうした点を読み取ることで、 別のモデルを使う場合でも、 自分の環境に合わせて書き換える視点が得られます。
第一部のまとめ
Prompting Guide のプロンプトは、 該当モデルに対して使えば、高い効果があります。
一方で、モデルが変われば、 そのままの形で通用するとは限りません。
だからこそ重要なのは、 プロンプトを完成形として扱うのではなく、 「どのモデルを前提に書かれているか」を読み取ることです。
次の第2部では、 こうした違いが生まれる背景として、 プロンプトが「会話文」から「制御情報」へと 役割を変えてきた点を整理します。

