2023年12月16日にプロンプトを使うときに最適な支持を出す「26の指針」が発表されました。
こちらから確認できます。対象のモデルはLLaMA-1/2とGPT-3.5/4が対象になります。
その指示の効果などはこちらのGithubで確認することができます。そして指示については以下の項目になります。
- LLM使用時のコミュニケーション: 礼儀的なフレーズ(「お願いします」「もしよろしければ」「ありがとう」)は不要。直接的な言葉遣いをする。
- 対象者の明示: 「専門家向け」といった対象者をプロンプトに含める。
- 複雑なタスクの分解: 難しいタスクは、簡単なプロンプトの連続に分けて実行する。
- 肯定的な指示: 「~する」という肯定的な指示を使用し、「~しない」という否定的な表現を避ける。
- 明確化と理解の促進: 特定のトピックを簡単な言葉で説明する。11歳の子供に説明するようにする。初心者向けの説明を行う。エッセイ/テキスト/パラグラフを5歳児に説明するように簡略化する。
- 報酬の提示: 「より良い解決策にはxxxドルのチップを払う」と報酬を明示する。
- 例題主導型のプロンプト: 数例に基づくプロンプトを使用する。
- プロンプトのフォーマット: 「###Instruction###」で指示を開始する。必要に応じて「###Example###」や「###Question###」を追加する。指示、例、質問、文脈、入力データを区別するために改行を使用する。
- 指示的なフレーズの使用: 「あなたのタスクは」「あなたは必ず」といったフレーズを含める。
- ペナルティの提示: 「あなたはペナルティを受ける」というフレーズをプロンプトに組み込む。
- 自然な回答の促進: 「自然で人間らしい方法で質問に答える」というフレーズを使用する。
- ステップ・バイ・ステップの考慮: 導入的なフレーズとして「ステップ・バイ・ステップ考える」を使用する。
- バイアスのチェック: 「あなたの回答にバイアスがかかっていないか、固定観念によるものではないかを確認してください」というフレーズを追加する。
- 情報の精密化: AIモデルが必要な情報を得るまで、ユーザーに繰り返し質問するよう指示する。
- 理解度のテスト: 特定のトピックやアイデアについて尋ね、ユーザー自身の理解度をテストする。
- モデルへの役割割り当て: モデルに特定の役割を割り当てる。
- 区切り文字の使用: 区切り文字を使用する。
- 単語やフレーズの繰り返し: プロンプト内で特定の単語やフレーズを複数回繰り返す。
- 思考の連鎖と例示: CoT(Chain-of-Thought)と例示を組み合わせる。
- 出力プライマーの使用: 望ましい応答の開始部分でプロンプトを終了する。
- 詳細な記述の要求: 必要な情報を提供し、[トピック]について詳細な[エッセイ/テキスト/段落]を書くよう指示する。
- 文体の維持における修正: ユーザーの送信したすべての段落を見直し、文法や語彙を改善するよう指示するが、文体を変えない。
- 複雑なコーディングプロンプト: 複数のファイルにまたがるコードを生成する際に、指定されたファイルを自動的に作成するよう指示する。
- 一貫性のあるテキスト生成: ユーザーが提供する出発点から、LLMが一貫性を持ってテキストを生成するよう促進する。
- 生成要件の明示: モデルがコンテンツを生成するために従うべき要件を、キーワード、規制、ヒント、または指示の形で明確に示す。
- サンプルに基づくテキスト作成: 提供されたサンプルに似たエッセイや段落などのテキストを書くよう指示する。
ただ、英語での調査でモデルも一部だけなので参考程度で考えたほうがいいかなという気はします。日本語でやる場合は、他の方法などもあるかもしれないですね。