プロンプトとは何か ― AIへの「伝え方」で結果が変わる
友人にお願いごとをするとき、「なんかいい感じにやって」と言うのと、「来週の金曜までに、A4で2ページの企画書を作ってほしい。予算は50万円以内で」と言うのでは、返ってくる結果がまったく違いますよね。
AIへの指示も同じです。プロンプト(Prompt)とは、AIに送る指示文のこと。そしてプロンプトの書き方ひとつで、AIの回答は劇的に変わります。
これは感覚論ではありません。1,500本以上のプロンプト関連の研究論文をメタ分析した調査によると、プロンプトに具体的な条件を加えるだけで回答の精度が約30%向上し、不要な情報が42%減少するという結果が出ています[1]。
「プロンプトエンジニアリング」という言葉を聞いたことがある方もいるでしょう。2025年には、68%の企業がプロンプトスキルを全社員向けの標準研修に組み込んでいるというデータもあります[2]。もはやエンジニアだけの特殊技能ではなく、AIを使うすべての人に必要な基本スキルになっています。
この章では、誰でも今日から実践できるプロンプトの書き方を、具体例付きで解説します。
良いプロンプトの5つの要素
効果的なプロンプトには、5つの要素があります。料理のレシピに例えるなら、「誰が作るか(役割)」「何を作るか(タスク)」「誰のために作るか(背景)」「盛り付け方(形式)」「アレルギー対応(制約)」のようなものです。
① 役割(Role)― 誰として答えてほしいか
「あなたは○○の専門家です」と前置きするだけで、AIの回答トーンと知識レベルが変わります。
例:「あなたは10年経験のWebマーケターです。個人ブログのPVを伸ばす方法を教えてください」
② タスク(Task)― 何をしてほしいか
「教えて」「考えて」だけでなく、動詞を具体的にしましょう。「要約して」「比較して」「5つ提案して」など、アクションが明確なほどAIは的確に動きます。
③ 背景情報(Context)― なぜ聞いているのか
あなたの状況をAIに伝えると、回答の方向性がグッと良くなります。「私はプログラミング未経験の大学生です」と書くだけで、回答の難易度が自動調整されます。
④ 出力形式(Format)― どんな形で返してほしいか
「箇条書きで」「表形式で」「300字以内で」「見出し付きで」――形式を指定しないと、AIは長文の段落で返しがちです。用途に合わせて指定しましょう。
⑤ 制約(Constraints)― やってはいけないこと・守ってほしいルール
「専門用語を使わないで」「日本市場に限定して」「デメリットも必ず含めて」など、NGルールや条件をセットで伝えると、やり直しが減ります。
💡 毎回5つ全部を入れる必要はありません。慣れないうちは②タスク + ③背景の2つだけ意識するだけでも、回答の質は大きく変わります。慣れてきたら他の要素を足していきましょう。
実践テクニック集 ― 今日から使える7つの型
2024年に発表された大規模調査「The Prompt Report」では、58種類ものプロンプトテクニックが体系的に分類されています[3]。でも、58個も覚える必要はありません。日常のAI活用で本当に使えるのは7つ程度です。ここでは、難易度別に整理しました。
【初級】① 具体的に指示する
最もシンプルで、最も効果が大きいテクニック。漠然とした質問に数字・対象・条件を足すだけです。
❌ 漠然:「売上を上げる方法を教えて」
✅ 具体:「従業員10名のラーメン屋の月間売上を20%上げる施策を、コストの低い順に5つ。現在の客単価は900円、月間来客数は約3,000人です」
【初級】② 出力形式を指定する
研究によると、フォーマット指定の有無で精度が最大76ポイントも変わるケースがあります[1]。「箇条書きで」「比較表で」「○文字以内で」と一言添えるだけで、使いやすい回答になります。
【初級】③ 役割を与える(ロールプレイ)
「あなたは○○です」と伝えるだけで、その分野に特化した回答が返ってきます。
「あなたは10年経験の営業マネージャーです。新人営業が最初の3ヶ月で身につけるべきスキルを、優先度順に教えてください」
ポイントは経験年数や具体的なポジションを入れること。「専門家です」だけより、「○年経験の○○です」のほうが回答の深さが変わります。
【中級】④ 例を見せる(Few-shot)
AIに2〜3個の入出力例を見せてから本題を依頼する方法です。分類・変換・定型作業で特に威力を発揮します。
以下の形式で商品レビューの感情を分類してください。
レビュー:「この商品は最高!」→ 感情: ポジティブ
レビュー:「期待はずれでした」→ 感情: ネガティブ
レビュー:「普通に使えます」→ 感情: ニュートラルレビュー:「配送は早いが、傷がありました」→ 感情:
興味深い研究結果があります。Few-shotの効果は、例の「正しさ」よりも「多様さ」に左右されるという分析です。つまり、完璧な例を用意することよりも、パターンの幅を見せることのほうが重要なのです[4]。
【中級】⑤ 段階的に考えさせる(Chain-of-Thought)
「ステップバイステップで考えてください」と一言添えるだけで、推論タスクの精度が約35%向上するという研究結果があります[1]。計算問題、論理問題、複雑な分析に特に有効です。
「りんごが1個150円、みかんが1個80円。りんご3個とみかん5個を買い、1,000円札で払ったらおつりはいくら? 計算過程を一つずつ示しながら答えてください」
⚠️ 2025年の注意点:ChatGPT o-seriesやClaude Extended Thinkingなど、最新の「推論モデル」には「ステップバイステップで」と指示しないでください。これらのモデルは内部で自動的に段階思考を行うため、明示的に指示するとかえって性能が落ちることがあります[5]。通常のChatGPT 4oやClaude Sonnetなどの標準モデルで使いましょう。
【上級】⑥ 自己レビューさせる
AIに自分の回答を批判的にチェックさせるテクニックです。正確性が求められる場面で効果的です。
(AIの回答を受け取った後に)
「この回答の問題点や抜け漏れがないか、批判的にチェックしてください。誤りがあれば修正してください」
ただし、AIが自分の間違いを100%見つけられるわけではありません。研究者は、AIの出力がもっともらしく見えるほど検証が難しくなる「もっともらしさの罠(plausibility trap)」を指摘しています[5]。重要な判断には、必ず人間のチェックも入れましょう。
【上級】⑦ メタプロンプト ― AIにプロンプトを作らせる
プロンプトの書き方に慣れてきたら、AIにプロンプト自体を作らせる方法もあります。
「私はフリーランスのWebデザイナーで、クライアントへの提案書を効率よく作りたいです。この目的を達成するための最適なプロンプトを作成してください」
AIが作ったプロンプトをそのまま使うのではなく、自分の状況に合わせて調整するのがコツです。
Before / After ― 同じ質問でもこんなに変わる
テクニックの説明だけでは実感しにくいので、具体的なBefore/Afterを見てみましょう。
例1:ビジネスメールの作成
| Before | After |
|---|---|
| 「お詫びのメールを書いて」 → 汎用的で使えないメールが生成される |
「納品が3日遅延したことについて、取引先の田中部長宛にお詫びメールを書いて。原因は物流トラブルで、来週月曜に届く予定」 → すぐに送れるレベルのメールが完成 |
例2:企画のアイデア出し
| Before | After |
|---|---|
| 「新商品のアイデアを出して」 → どの業界のどんな商品か不明で漠然とした提案に |
「20-30代女性向けの健康食品で、月額3,000円以下のサブスク商品を5つ提案して。競合のA社B社とは差別化できるポイントも添えて」 → そのまま企画書に使えるアイデアが出てくる |
例3:学習・調べもの
| Before | After |
|---|---|
| 「機械学習を教えて」 → 堅苦しく難解な説明が返ってくる |
「中学生でもわかるように、機械学習の仕組みを料理のレシピに例えて説明して。専門用語は使わず、具体例を2つ入れて」 → 親しみやすく、すぐに理解できる説明が返ってくる |
共通するポイントは「誰に・何を・どうやって・どんな形で」を明確にしていること。条件を加えるほど、AIは的確な回答を返してくれます。
やりがちな失敗パターンと対処法
AIを使い始めた人がハマりがちな5つの罠と、その抜け出し方を紹介します。
❌ 失敗1:あいまいすぎる指示
「いい感じに書いて」「もっと良くして」は、AIにとっても困る指示です。何がどう「良い」のかを具体的に伝えましょう。「カジュアルなトーンで」「数字を3つ入れて」「300字以内で」など、基準を明示するのがコツです。
❌ 失敗2:一度に全部を聞く
「マーケティング戦略の立て方と、ツールのおすすめと、予算の組み方を教えて」――これだとAIはすべてを浅くカバーしようとして、どれも中途半端になります。1回の質問で聞くのは1つのテーマ。前の回答を踏まえて次の質問をするほうが、深い回答が得られます。
❌ 失敗3:AIの出力をそのまま信じる
AIは自信満々に間違えることがあります(ハルシネーション)。特に要注意なのは:
- 具体的な数字・統計 ― 出典を聞いて確認
- 固有名詞 ― 人名・社名・法律名は必ず裏取り
- 最新情報 ― モデルの知識には期限がある
- 法律・税制 ― 必ず公式情報で確認
対策はシンプル。「この情報の出典を教えて」と聞くクセをつけましょう。AIが出典を示せない情報は、要確認のサインです。
❌ 失敗4:1回のやり取りで終わらせる
「AIに聞いたけど微妙な答えだった」→「やっぱりAIは使えない」。これは非常にもったいないパターンです。次のセクションで詳しく解説しますが、AIとの対話は2〜3往復が前提です。
❌ 失敗5:すべてをAIに丸投げする
AIが得意なのは、ドラフト作成・情報整理・アイデアの発散。人間が得意なのは、最終判断・文脈の読み取り・倫理的な配慮。この2つを組み合わせるのが最も効果的な使い方です。「AIに下書きを作らせて、人間が仕上げる」――この分業が一番うまくいきます。
AIとの対話術 ― 1回で終わらせない
プロンプトのテクニック以上に大切なのが、「対話を重ねる」という発想です。
プロンプトの研究では、反復的なフィードバック(イテレーション)により出力品質が35%向上するとされています[1]。最初の1回で完璧を求めるのではなく、AIの回答を見て、方向修正して、もう一度聞く。このサイクルが品質を上げます。
フィードバックの6つの型
「何をフィードバックすればいいかわからない」という方のために、使いやすい6つの型を紹介します。
| 型 | 使い方の例 |
|---|---|
| 方向修正 | 「もっとカジュアルな文体にして」「専門的すぎるので初心者向けに」 |
| 深掘り | 「3番目の案をもっと詳しく説明して」「具体的な手順を追加して」 |
| 追加条件 | 「予算100万円以内の案に絞って」「日本市場に限定して」 |
| 視点変更 | 「顧客の視点で考え直して」「反対意見も出して」 |
| 品質チェック | 「この内容に誤りや矛盾がないか確認して」 |
| 形式変更 | 「この内容をメール文面にして」「表にまとめ直して」 |
2〜3回のフィードバックで、回答の質は大幅に向上します。最初から完璧を求めないことがコツです。
プロンプトから「コンテキストエンジニアリング」へ
最後に、プロンプト技術の最新トレンドにも触れておきましょう。
AIの研究者Andrej Karpathy氏は2025年6月、「日常的な短いプロンプトは、産業レベルのAI活用のごく一部にすぎない」と述べ、コンテキストエンジニアリングという概念を提唱しました[6]。
これは、プロンプト(指示文)だけでなく、AIに渡す情報全体 ―― 参考資料、過去のやり取り、ツールの出力結果など ―― を適切に設計する考え方です。たとえばAIに社内文書を読み込ませてから質問する、過去の会議メモを添付してから要約を頼む、といった使い方がこれにあたります。
とはいえ、基本は変わりません。まずはこの章で学んだ5つの要素と7つのテクニックを実践すること。それだけで、AIの回答品質は見違えるほど変わるはずです。
参考文献
- Gupta, Aakash. "I Spent a Month Reading 1,500+ Research Papers on Prompt Engineering." Medium, 2025.
- "Is Prompt Engineering Dead?" Fast Company, May 2025.
- Schulhoff, Sander et al. "The Prompt Report: A Systematic Survey of Prompting Techniques." arXiv:2406.06608, 2024.
- Min, Sewon et al. "Rethinking the Role of Demonstrations: What Makes In-Context Learning Work?" arXiv:2202.12837, 2022.
- Lakera. "Prompt Engineering Guide 2026." lakera.ai, 2026.
- Karpathy, Andrej. "Context Engineering." X (Twitter), June 2025.
関連リンク:
- Prompt Engineering Guide ― プロンプト技術の包括的なガイド(英語)
- Anthropic Prompt Engineering Docs ― Claude向けのプロンプト設計ガイド
次の章では、この章で学んだプロンプト技術を実際のシーンでどう活かすか ―― 仕事・学習・創作での具体的な活用法を紹介します。