はじめに
第一部では、「ありとあらゆるモデルで効力を発揮する万能なプロンプトはなく、モデルごとの前提に合わせて調整するもの」というお話をしました。
では、具体的に最新のモデル(GPT-5世代)では、その「前提」はどう変わり、ガイドラインには何と書かれているのでしょうか?
一言で言えば、AIは「指示待ちの作業員」から「自律的なパートナー」へと進化しました。 これに伴い、プロンプトの役割も「手順を教える」ことから「行動範囲を決める」ことへと、劇的な変化を遂げています。
GPT-4.1 以前:手順を分解して教える
まず、少し前の世代である GPT-4.1 までのアプローチを見てみましょう。 OpenAI のガイド(Prompt engineering strategy)には、複雑なタスクを扱う際の原則として、以下のように記されています。
Split complex tasks into simpler subtasks
OpenAI Cookbook: Prompt engineering strategies
Complex tasks tend to have higher error rates than simpler tasks. Furthermore, complex tasks can often be re-defined as a workflow of simpler tasks.
「複雑なタスクはエラー率が高くなるため、より単純なサブタスク(手順)に分割せよ」という教えです。 モデルの推論能力に限界があったため、人間がプロセスを分解して与える必要があったのです。
この原則に従うと、プロンプトは以下のような「手取り足取り型」になります。
【GPT-4.1 向けの「会議の議事録作成」依頼のプロンプト例】
1. 以下の会議ログを読んでください。 2. 決定事項と未決事項をそれぞれ抽出してください。 3. 抽出した内容を、それぞれ3行以内で要約してください。 4. 最後に、全体を「だ・である」調でまとめて出力してください。 ステップごとに着実に実行してください。
このように「1をして、2をして…」と番号を振って指示するのは、ガイドラインにある「タスクの分割」を忠実に実行しているからです。
GPT-5 系:熱心さを制御する(範囲)
一方、推論能力が飛躍的に向上した GPT-5 系では、前提がガラリと変わります。 最新のガイドライン(Reasoning model best practices)では、モデルの自律性について次のような注意書きが登場します。
Taming Eagerness
OpenAI Cookbook: Reasoning model best practices
Advanced models may exhibit “eagerness,” attempting to solve problems beyond the user’s intent. Explicitly defining what not to do (negative constraints) becomes crucial to keep the model on track.
「モデルは『熱心さ(Eagerness)』を発揮し、意図を超えて問題を解決しようとする。そのため、『何をしないか(否定制約)』を明確にすることが重要になる」という指摘です。
「手順を教える」ことよりも、「暴走を防ぐ」ことが優先されるのです。 この原則を適用すると、プロンプトは手順書ではなく、以下のような「囲い(Fencing)型」になります。
【GPT-5 系向けの「会議の議事録作成」依頼のプロンプト例】
目的:会議ログから決定事項と未決事項を明確にすること。 制約(範囲): 事実のみを記載し、AIによるアドバイスや考察は含めないでください。 挨拶や前置きは不要です。結果のみを出力してください。 確信が持てない箇所は「不明」としてください。
ここでは「どうやるか」は一切指示していません。その代わり、ガイドラインに従って「アドバイスは含めるな」「前置きは不要」といった「やってはいけないこと(Negative Constraints)」を徹底しています。
「プロンプトエンジニアリング」を捨てる勇気
ここまでの話を聞いて、「難しそうだな…」と感じた方もいるかもしれません。 「開発者向けのガイドには、もっと複雑なテクニックが書かれているんじゃないか?」と。
しかし、実は逆です。OpenAI の公式ドキュメントには、最新の推論モデルへの指示について、明確にこう書かれています。
Keep prompts simple and direct
OpenAI Platform: Reasoning best practices
Reasoning models can follow complex instructions, but they perform best with simple, direct prompts. … Avoid over-engineering prompts.
「プロンプトはシンプルかつ直接的にせよ。過度な作り込み(オーバーエンジニアリング)は避けよ」というアドバイスです。
これは、「プロンプトを適当に書いていい(情報を減らす)」という意味ではありません。 「AIの思考プロセスを人間が無理に操作しようとするな」という意味です。
以前は「ステップ1、ステップ2…」と細かく書く必要がありましたが、今はそれが「オーバーエンジニアリング(やりすぎ)」になります。
だからこそ、私たちがチャット欄でやるべきことは、開発者のようなコードを書くことではありません。 「システム的な形式(JSONなど)」を捨てて、「本質的な意図(範囲)」だけを自然な言葉で伝えること。これだけで十分なのです。
| 過度な作り込み(不要) | シンプルで直接的な指示(推奨) |
|---|---|
| 厳格なフォーマット指定: 出力はJSON形式とし、キーは”Answer”としてください。 |
意図だけを伝える: 余計な会話はなしで、答えのデータだけを表示してください。 |
| 思考の強制: まず定義を確認し、次に事例を探し、最後に結論を出して… |
範囲(Fencing)のみ: 結論を出す前に、必ず事例を確認してください。憶測は禁止です。 |
このように、難しく考えず「やってほしいこと(目的)」と「やってほしくないこと(範囲)」を、そのまま伝えるのが、最新モデルにおける最強のプロンプトです。
第二部のまとめ
OpenAI のガイドラインを紐解くと、モデルの進化に合わせてプロンプトの設計思想が変わっていることがわかります。
- GPT-4.1まで: 「複雑なタスクは分割せよ」→ 手順を細かく教える
- GPT-5以降: 「熱心さ(Eagerness)を制御せよ」→ やってはいけないことを囲う
- 共通のコツ: 「シンプルにせよ」→ 思考の操作(オーバーエンジニアリング)をやめる
「AIが勝手に余計なことをする」「思った通りに動かない」 そう感じたときは、手順を増やすのではなく、「柵(囲い)」を作ってあげることを意識してみてください。
では、実際にチャット画面(会話ウィンドウ)に向かったとき、具体的にどんな文章を打ち込めば、この「囲い」をうまく作れるのでしょうか?
続く第3部「実践編」では、明日からすぐに使える「3つの要素」を使ったプロンプト作成術を解説します。
👉 第3部を読む:
GPT-5世代のプロンプトは「3つの要素」で決まる!会話ウィンドウ実践術

