OpenAIの公式プロンプトエンジニアリングガイド:ChatGPTはこのようにプレイできます

OpenAIの公式プロンプトエンジニアリングガイド:ChatGPTはこのようにプレイできます

ChatGPT や GPT-4 などの大規模言語モデル (LLM) の出現により、迅速なエンジニアリングがますます重要になっています。多くの人々は、プロンプトを LLM のマントラとみなしており、その品質はモデルの出力に直接影響します。

良いプロンプトを書く方法は、LLM 研究の必修コースとなっています。

大規模モデル開発のトレンドをリードする OpenAI は最近、プロンプトエンジニアリングガイドを正式にリリースしました。このガイドでは、GPT-4 などの LLM でより良い結果を出力するためのいくつかの戦略の使用方法が紹介されています。 OpenAI によれば、これらの方法を組み合わせることで、より良い結果が得られることもあるという。

ガイドアドレス: https://platform.openai.com/docs/guides/prompt-engineering

より良い結果を得るための6つの戦略

戦略1: 明確な指示を書く

まず、モデルはユーザーの脳が何を考えているのか読み取れないため、ユーザーは指示を明確に記述する必要があります。たとえば、モデルの出力をそれほど単純化したくない場合は、「専門家レベルの文章が必要」という指示を記述できます。また、現在のテキスト スタイルが気に入らない場合は、指示を変更してわかりやすくすることができます。モデルがユーザーの希望を推測する回数が少ないほど、満足のいく結果が得られる可能性が高くなります。

以下のことを実行すれば、大きな問題にはなりません。

1 つ目は、以下に示すように、より関連性の高い回答を得るために、プロンプトに詳細なクエリ情報を含めることです。議事録を要約するための同じプロンプトは、「議事録を 1 つの段落に要約します。次に、スピーカーと各キー ポイントの Markdown リストを作成します。最後に、スピーカーが提案した次のステップまたはアクション項目 (ある場合) をリストします。」です。結果はより良くなります。

第二に、ユーザーは例を提供することができます。たとえば、明示的に記述するのが難しい応答スタイルをモデルに模倣させたい場合、ユーザーは少数の例を提供できます。

3 番目のポイントは、モデルがタスクを完了するために実行する必要がある手順を指定することです。一部のタスクでは、ステップ 1 や 2 などのステップを指定する方が適切です。これらのステップを明示的に記述すると、モデルがユーザーの希望に従いやすくなります。

4番目のポイントは、モデル出力の長さを指定することです。ユーザーは、単語、文、段落などで指定できる特定のターゲット長さの出力を生成するようにモデルに要求できます。

5 番目のポイントは、プロンプトのさまざまな部分を明確に区切るためにセパレーターを使用することです。 「""」、XML タグ、セクション見出しなどの区切り文字は、別々に処理する必要があるテキスト部分を区切るのに役立ちます。

6 番目のポイントは、モデルが生成するコンテンツを制御するためのさまざまな役割をモデルに果たさせることです。

戦略2: 参照テキストを提供する

言語モデルは時折幻覚を起こし、独自の回答を作り出すことがあります。これらのモデルに参照テキストを提供すると、誤った出力を減らすことができます。次の 2 つのことを行う必要があります。

1 つ目は、参照テキストを使用して質問に答えるようにモデルに指示することです。モデルに、現在のクエリに関連する信頼できる情報を提供できる場合は、提供された情報を使用して回答を作成するようにモデルに指示できます。たとえば、質問に回答するには、三重引用符で囲まれたテキストを使用します。記事の中に答えが見つからない場合は、「答えが見つかりません」と書いてください。

2 つ目は、モデルに参照テキストから回答を引用するように指示することです。

戦略3: 複雑なタスクをより単純なサブタスクに分割する

ソフトウェア エンジニアリングにおいて複雑なシステムがモジュール コンポーネントのセットに分解されるのと同様に、言語モデルに提示されるタスクもモジュール コンポーネントのセットに分解されます。複雑なタスクは単純なタスクよりもエラー率が高くなる傾向があり、複雑なタスクは単純なタスクのワークフローとして再定義されることがよくあります。以下の3点が含まれます。


  • 意図分類を使用して、ユーザーのクエリに最も関連性の高いコマンドを識別します。
  • 長い会話を必要とする会話型アプリの場合は、以前の会話を要約またはフィルタリングします。
  • 長いドキュメントをセクションごとに要約し、完全な要約を再帰的に構築します。

モデルのコンテキストの長さは固定されているため、非常に長いドキュメント (書籍など) を要約するには、一連のクエリを使用してドキュメントの各部分を要約できます。章の要約をリンクして要約すると、要約の要約を作成できます。このプロセスは、ドキュメント全体が要約されるまで再帰的に実行できます。後のセクションを理解するために前のセクションの情報を使用する必要がある場合、もう 1 つの便利なテクニックは、テキスト (書籍など) の特定のポイントの前にテキストの要約を追加し、そのポイントのコンテンツを要約することです。 OpenAI は以前の研究で GPT-3 の変種を使用してこのプロセスの有効性を研究しました。

戦略4: モデルに考える時間を与える

人間の場合、17 x 28 の結果を求められてもすぐには答えられませんが、時間をかけて計算することはできます。同様に、モデルが時間をかけて答えを出さずにすぐに答えると、推論エラーが増える可能性があります。答えを出す前に一連の思考を採用すると、モデルが正しい答えをより確実に推論できるようになります。次の 3 つのことを行う必要があります。

1 つ目は、結論を急ぐ前にモデルに独自の解決策を見つけるように指示することです。

2 つ目は、内部の独白または一連のクエリを使用して、モデルの推論プロセスを隠すことです。これまでの戦略は、モデルが特定の質問に答える前に問題について詳細に推論することが重要な場合があることを示しています。一部のアプリケーションでは、モデルが最終的な答えに到達するために使用する推論プロセスをユーザーと共有するのは適切ではありません。たとえば、個別指導アプリケーションでは、生徒が自分で答えを出すように促したい場合がありますが、生徒の解決策に関するモデルの推論によって、生徒に答えが明らかになる可能性があります。

内なる独白は、この状況を緩和するために使用できる戦略です。内部モノローグの背後にある考え方は、ユーザーからは隠されている出力の一部を、解析しやすい構造化された形式にするようにモデルに指示することです。次に、出力が解析され、その一部だけがユーザーに表示される前に表示されます。

最後のステップは、前のプロセスで見逃したものがあるかどうかをモデルに尋ねることです。

戦略5: 外部ツールを使用する

他のツールの出力をモデルに入力することで、モデルの弱点を補います。たとえば、テキスト検索システム (RAG または Retrieval-Augmented Generation と呼ばれることもあります) は、関連するドキュメントに関する情報をモデルに伝えることができます。 OpenAI のコード インタープリターは、モデルが数学演算を実行し、コードを実行するのに役立ちます。言語モデルではなくツールを使用すると、タスクをより確実かつ効率的に実行できる場合は、両方の活用を検討してください。

  • まず、埋め込みベースの検索を使用して効率的な知識検索を実現します。
  • 外部 API を呼び出します。
  • モデルに特定の機能へのアクセス権を付与します。

戦略6: システムの変更をテストする

場合によっては、プロンプトを変更するとパフォーマンスは向上しますが、より代表的な例のセットでは全体的なパフォーマンスが低下することがあります。したがって、変更が最終的なパフォーマンスに良い影響を与えることを確認するには、システム メッセージなどを使用して、包括的なテスト スイート (評価とも呼ばれます) を定義する必要がある場合があります。

詳細は元のブログを参照してください。

<<:  天一雲が大規模言語モデル微調整データコンテストで優勝しました!

>>: 

推薦する

セキュリティとインテリジェンス: 銀行における IoT の導入と応用

人工知能 (AI) 対応ソリューションの機能からスマート デバイスによるモビリティの向上まで、コネク...

Google ドキュメントでテキスト要約を自動的に生成できるようになりました。

私たちの多くは、毎日たくさんのファイルを処理する必要があります。新しい文書を受け取ったとき、通常は、...

AIを拡張するための3つの成功要因

AIからより多くの利益を得るには、管理者はテクノロジーの使用方法を変える必要があります。 [[333...

ディープラーニング プロジェクトをゼロから構築するにはどうすればよいでしょうか?詳細なチュートリアルはこちら

ディープラーニングに関する理論コースを受講した後、多くの人が独自のプロジェクトを構築してみることに興...

マスク氏が突然ツイッター買収を希望、上場廃止に2700億ドルで入札。ツイッターとテスラの株価は下落

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

JD.com JDataアルゴリズムコンテスト決勝戦が無事終了、優勝賞金30万人民元は「魯班第7号」に

6月6日、JDグループとインテルが共同主催し、単一アルゴリズム競技会の参加者数で世界記録を樹立したJ...

競争相手に差をつけるための機械学習プロジェクトのアイデア 8 つ

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...

どこにでも「ゴミ」がある: 人工知能には高品質のデータが不足しています!

この記事は、公開アカウント「Reading the Core」(ID: AI_Discovery)か...

エッセンス共有サイトのランキングアルゴリズムのまとめ

ウェブサイトのランキングは、ウェブサイトの最適化を行うすべての人が最も気にしていることです。しかし、...

...

週刊「ニュース速報」 | AIエリートは数百万ドルを稼ぐ? !李開復氏がAI業界のチャンスを明かす!

AIエリートが100万以上稼ぐ!マスク氏が設立したOpenAIが誤って給与情報を公開4月23日のニ...

炭素系生物は排除されます! AIがクロスワードパズルで初勝利

先週のバーチャルクロスワードパズル「アメリカンクロスワードパズルトーナメント」には1,000人を超え...

「天宮2.0」MoE大型モデル発売

2月6日、崑崙万為はMoE大規模言語モデルの新バージョン「天宮2.0」と「天宮AIスマートアシスタン...