プロンプト エンジニアリング (コンテキスト プロンプトとも呼ばれる) は、モデルの重み/パラメーターを更新せずに、LLM の動作を特定の結果に導く方法です。これは、望ましい結果を AI に効果的に伝えるプロセスです。ヒント エンジニアリングは、質問への回答から算術推論、さらにはさまざまなアプリケーション領域まで、さまざまなタスクに使用できます。ヒント エンジニアリングを理解することで、LLM の制限と機能を理解するのに役立ちます。 プロンプト エンジニアリングを理解するには、まずプロンプトとは何かを明確にする必要があります。 1. プロンプトとは何かプロンプトとは何ですか? プロンプトは、応答を生成したりタスクを完了したりするためにモデルが受け取る最初のテキスト入力です。タスクを実行するための応答を生成するようにモデルをガイドする一連のプロンプト入力を AI に提供します。この入力は、質問、説明、キーワードのセット、またはモデルがコンテンツ固有の応答を生成するようにガイドするその他の形式のテキストにすることができます。 たとえば、chatGPT では、ユーザーは通常、プロンプトを使用して大規模な言語モデルと対話し、質問への回答を要求したり、テキストを生成したり、タスクを完了したりします。モデルは、提供されたプロンプトに基づいて関連するテキストを生成し、ユーザーの要件を満たそうとします。 2. プロンプト分類さまざまな観点から、プロンプトはさまざまな方法で分類できます。ここでは、説明可能性、対話モード、適用分野という 3 つの側面に従ってプロンプトを分類します。 2.1 説明可能性の分類: ハードヒントとソフトヒントハードプロンプトは、個別の入力トークンを含む手動で作成された定義済みテキスト、またはテキスト テンプレートです。静的プロンプトは、プログラミング、保存、再利用のためにプログラムに組み込むことができ、大規模なモデルベースのアプリケーションでは複数のプロンプト テンプレートを自由に使用できます。 テンプレートはある程度の柔軟性をもたらしますが、プロンプトは適切に設定する必要があります。つまり、静的プロンプトはハードコードされたプロンプトです。 LangChain 上に構築された大規模モデルに基づく多くのアプリケーションには、エージェントに実行するアクションを指示する、主に静的なプロンプト テンプレートがあります。一般的に、テンプレートには、アクセス可能なツール、それらのツールを呼び出すタイミング、および一般的なユーザー入力の定義が含まれます。 ソフト プロンプトは、プロンプト調整プロセス中に作成されます。ハード プロンプトとは異なり、ソフト プロンプトはテキストで表示または編集できず、より大きなモデルから得られた知識を表す埋め込みまたは数字の文字列が含まれます。ソフトヒントにはソフトな解釈可能性が欠けています。 AIは特定のタスクに関連するソフトキューを発見しましたが、それがなぜなのかは説明できませんでした。ディープラーニング モデル自体と同様に、ソフト ヒントは不透明です。ソフトヒントは追加のトレーニングデータを置き換えることができ、優れた言語分類器には数百から数千の追加データポイントが含まれる場合があります。 ヒント 微調整には、LLM を使用する前に小さなトレーニング可能なモデルを使用することが含まれます。小さなモデルを使用して、テキストプロンプトをエンコードし、タスク固有の仮想トークンを生成します。これらのダミー トークンはプロンプトに事前に追加され、LLM に渡されます。チューニング プロセスが完了すると、これらの仮想トークンはルックアップ テーブルに保存され、推論中に使用され、元の小さなモデルが置き換えられます。 LLM はコンテキストが提供されるとパフォーマンスが大幅に向上し、プロンプト ナッジは必要なコンテキストを即座に作成する迅速かつ効果的な方法です。 2.2 インタラクションモードの分類: オンラインプロンプトとオフラインプロンプト「オンライン」と「オフライン」は、モデル対話におけるプロンプトの使用を区別する方法です。これら 2 つのカテゴリは、プロンプトがより大きなモデルといつどのように対話するかの違いを表します。 オンライン プロンプトは、通常、即時の対話型アプリケーション向けに、モデルとのリアルタイムの対話中に提供されるプロンプトです。このタイプのプロンプトは、ユーザーが実際にモデルと会話しているときに提供され、ユーザーはプロンプトを徐々に入力、編集、または変更できます。オンライン チャット、音声アシスタント、リアルタイムの質問応答などのアプリケーションでよく使用されます。 オフライン プロンプトは事前に準備されたプロンプトであり、通常はユーザーが実際にモデルと対話する前に作成されます。このようなプロンプトは、ユーザーの操作なしに事前に設計および入力され、バッチ処理のためにバッチとしてモデルに送られます。オフラインでのテキスト生成、記事の執筆、大規模データ処理などのアプリケーションでよく使用されます。 ヒントを「オンライン」または「オフライン」に分類すると、さまざまなアプリケーションのニーズを満たすためにヒントを効果的に使用する方法を決定するのに役立ちます。オンライン プロンプトは通常、リアルタイムの対話と即時のフィードバックが必要な状況で使用されますが、オフライン プロンプトは、大規模な処理やテキストの事前生成が必要な状況に適しています。特定のアプリケーションと使用シナリオに応じて、適切なプロンプト タイプを選択できます。 2.3 応用分野の分類使用分類は、プロンプトの主な目的を決定し、プロンプトをより効果的に使用するのに役立ちます。一般的なプロンプトのカテゴリは次のとおりです。 情報検索: これらのプロンプトは、質問への回答、事実の提供、概念の説明など、モデルから特定の情報を取得するために使用されます。用途としては、質問と回答、情報検索、事実確認などがあります。 テキスト生成: これらのプロンプトは、記事、ストーリー、コメントなどのテキストを生成するようにモデルをガイドするために使用されます。用途としては、クリエイティブライティング、コンテンツ生成、自動要約などがあります。 翻訳: これらのプロンプトは、テキストをある言語から別の言語に翻訳するために使用されます。用途としては機械翻訳アプリケーションなどがあります。 感情分析: これらのプロンプトは、肯定的、否定的、中立的など、テキストの感情を評価するために使用されます。用途には、ソーシャル メディアの監視や感情分析アプリケーションが含まれます。 プログラミングとコード生成: これらのプロンプトは、コンピュータ プログラム コードを生成したり、プログラミングの問題を解決したりするために使用されます。用途としては、プログラミング支援、自動コード生成などがあります。 会話: これらのプロンプトは、会話やチャットをシミュレートし、ユーザーからの質問やコメントに応答するために使用されます。用途としては、チャットボット、仮想アシスタントなどがあります。 タスク固有: これらのプロンプトは、旅行計画の作成、マーケティング コピーの作成、レポートの生成など、特定のアプリケーションまたはタスク用です。目的はタスクによって異なります。 カスタム アプリケーション: これらのプロンプトは特定のフィールドまたはカスタム アプリケーション用であり、その具体的な使用方法はユーザーによって定義されます。使用方法はユーザーのニーズによって異なります。 プロンプトをさまざまな用途に分類することで、モデルをさまざまなタスクや状況にどのように適用できるかをよりよく理解できます。これは、適切なタイプのプロンプトを選択し、特定のニーズを満たすように設計するのに役立ちます。 3. プロンプトの一般的な要素プロンプトを適用するときは、プロンプトに含まれる可能性がある 6 つの要素 (タスク、コンテキスト、例、役割、形式、トーン) を理解する必要があります。これらの要素は、重要度の降順で並べられています。 3.1 タスクタスク シーケンスは、生成、駆動、書き込み、分析などの動詞によってガイドされ、明確なタスク目標が必要です。例えば: 写真 3.2 コンテキスト背景コンテキストは難しいものですが、一般的には、ユーザーの背景情報、成功した結果がどのようなものになるか、ユーザーがどのような環境にいるかなどを説明します。たとえば、次のようになります。 写真 3.3 例基本的に、すべての主要な言語モデルに関する研究では、プロンプトに例を含めると、より質の高い回答が得られることがわかっています。 例えば: 写真 チーム内のポジションの JD を書きたい場合は、最初に ChatGPT にシナリオの説明 (コンテキスト) を提供し、次に準備した説明に基づいて参照ケース (例) を提供するように指示することができます。 3.4 役割これが AI に期待する役割です。質問があり、それを解決するために専門家に相談したいとします。たとえば、運動中に怪我をした場合、リハビリテーションを行うセラピストのところに行くことになります。仕事を探しているなら、採用担当者にアドバイスを求めるでしょう。例えば: 写真 3.5 フォーマット仕事を見つける、良い話し手になるなど、個人またはグループの目標を達成することを想像してください。これらはすべて散在したアイデアですが、人工知能の助けを借りて、表などの特定の形式に整理することができます。電子メール、gist、コードブロックなどの形式も期待できます。段落やタグなど、これらの形式は私たちの仕事にも役立ちます。 電子メールの例を見て、コンテキストとタスクを与え、タイトル形式を使用するように AI に依頼します。 写真 3.6 トーントーンは、使用するトーンの種類を適切に判断すると理解しやすい要素です。 写真 これら 6 つの要素のうち、タスクは必須であり、コンテキストと例は非常に重要であり、役割、形式、トーンも理想的です。関連性があり影響力のある情報を含む電子メールで何を伝える必要があるかを示す実際の例を示します。 写真 では、LLM では Prompt はどのように機能するのでしょうか?その動作原理は何ですか? 4 プロンプトの仕組みPrompt の動作を理解する前に、より大きなモデルがどのようにテキストを生成するかを理解する必要があります。簡単に言えば、大規模モデルのテキスト生成は、ターゲットテキストの完成として理解できます。LLM テキスト生成の動作原理を理解すると、Prompt を比較的明確に理解できるようになります。 たとえば、「パリは都市です...」という文を続けたいとします。エンコーダーは Bloom-560M モデルを使用して、保有するすべてのトークンのロジットを送信します。これは、ソフトマックス関数を使用して、生成されたトークンを選択する確率に変換できます。 写真 上位 5 つの出力トークンを見ると、すべて意味がわかります。正当であると思われる次のフレーズを生成できます。
次に、トークンを選択するためのさまざまな戦略があります。 4.1 貪欲サンプリング簡単に言えば、貪欲サンプリング モデルは、各ステップで最も可能性が高いと思われる単語を選択します。他の可能性を考慮したり、さまざまなオプションを検討したりすることはありません。モデルは最も確率の高い単語を選択し、選択された単語に基づいてテキストを生成します。 写真 貪欲な戦略を使用すると、計算効率が高く、簡単ですが、反復的な出力や過度に決定論的な出力につながる可能性もあります。モデルは各ステップで最も可能性の高いトークンのみを考慮するため、コンテキストと言語の多様性を完全には捉えられず、最も創造的な応答が生成されない可能性があります。このモデルの近視眼的な性質は、各ステップで最も可能性の高いマーカーのみに焦点を当て、シーケンス全体への全体的な影響を無視します。 この例で生成される出力は次のようになります: パリは未来の都市です。 4.2 ビームサーチビーム検索は、テキスト生成で使用されるもう 1 つの戦略です。ビーム検索では、モデルは各ステップで最も可能性の高いトークンを考慮するのではなく、最も可能性の高い上位「k」個のトークンのセットを想定します。この k 個のトークンのグループは「ビーム」と呼ばれます。 写真 このモデルは、各トークンに対して可能なシーケンスを生成し、各ビームを拡張してテキスト生成の各ステップでそれらの確率を追跡することで、可能なシーケンスを生成します。このプロセスは、生成されたテキストの希望の長さに達するか、各ビームが「停止」トークンに遭遇するまで継続されます。モデルは、すべてのビームから全体的な確率が最も高いシーケンスを最終出力として選択します。アルゴリズムの観点から見ると、ビームを作成することは k 進木を拡張することです。ビームが作成された後、全体的な確率が最も高いブランチが最終出力として選択されます。 この例で生成される出力は次のようになります: パリは歴史と文化の都市です。 4.3 確率サンプリング簡単に言えば、ランダムな値を選択し、それを選択した語彙にマッピングすることによって次の単語が選択されます。ルーレットを回すようなもので、各単語の領域はその確率によって決まります。確率が高ければ高いほど、その単語が選択される可能性が高くなります。これは比較的単純な計算ソリューションです。比較的ランダム性が高いため、文 (または単語のシーケンス) は毎回異なる可能性が高いからです。 写真 4.4 温度によるランダムサンプリング一般的に、ロジットを確率に変換するにはソフトマックス関数が使用されます。ここでは、ランダム サンプリングに温度が導入されています。これは、テキスト生成のランダム性に影響を与えるハイパーパラメータです。活性化関数を比較すると、温度が確率計算にどのように影響するかをよりよく理解できます。 写真 温度が導入された後、典型的なソフトマックスとの違いは、分母が温度 T で割られることです。温度が高くなると (1 に近づくほど)、出力結果はより多様になり、温度が低くなると (0 に近づくほど)、出力結果はより集中的かつ決定論的になります。 T = 1 の場合、最初に使用されたソフトマックス関数に進化します。 4.5 トップkサンプリング温度に基づいて確率を調整することも可能ですが、もう 1 つの改善点は、すべてのトークンではなく最初の k 個のトークンを使用することです。これにより、創造性をあまり損なうことなく、テキスト生成の安定性が向上します。今度は、温度に基づいて最初の k 個のトークンのみがランダムにサンプリングされます。唯一の問題は数値 k の選択である可能性があります。これを改善する方法は次のとおりです。 写真 4.6 トップPサンプリング固定数の「k」トークンを指定する代わりに、top-p サンプリングでは確率しきい値「p」を使用します。しきい値は、サンプリングに含める累積確率を表します。モデルは、各ステップですべての可能なトークンの確率を計算し、それらを降順で並べ替えます。 写真 モデルは、生成されたテキストにトークンを追加し続け、その確率の合計が指定されたしきい値を超えるまで続けます。 top-p サンプリングの利点は、コンテキストに応じてより動的で適応的なマーカー選択を可能にすることです。各ステップで選択されるトークンの数は、そのコンテキストにおけるトークンの確率に基づいて変化する可能性があり、より多様で高品質の出力を生成できます。 4.7 プロンプトの考えられる動作メカニズム事前トレーニング済みの言語モデルでは、デコード戦略はテキスト生成にとって非常に重要です。確率を定義する方法や、確率を使用する方法はたくさんあります。温度は、デコード中のトークン選択のランダム性を制御します。温度が高いほど創造性が高まり、温度が低いほど一貫性と構造に重点が置かれます。創造性は興味深い言語体験につながる可能性がありますが、適度な安定性は、生成されたテキストの優雅さを保証します。 そうすると、Prompt の本質はおそらく意味的特徴の明示的な表現であり、Prompt の動作メカニズムは、大規模モデルがテキスト トークンを生成することを選択する確率にのみ影響すると考えられます。大規模モデルは大部分がブラックボックスであるため、その出現特性を説明することが難しく、膨大なデータ関係から決定論的な特徴を抽出することが難しく、確率的な結果しか得られません。一方、ユーザーのニーズは常に変化しており、その表現は極めて多様です。そのため、プロンプトには、特定の限られた分野にのみ共通する表現がいくつかある可能性があります。 5. プロンプトエンジニアリングとは何ですか?プロンプト エンジニアリング (コンテキストでのプロンプトとも呼ばれる) とは、モデルの重みを更新せずに LLM と通信して、その動作を望ましい結果に導く方法を指します。プロンプトエンジニアリングは、ユーザーがさまざまなシナリオや研究分野で大規模なモデルを使用できるようにするためのプロンプトワードの開発と最適化に重点を置いています。これは経験科学であり、迅速な関与の効果はモデルによって大きく異なる可能性があるため、多くの実験とヒューリスティックが必要です。 したがって、ヒント エンジニアリングは、これらのヒントをキャプチャし、モデルの出力で高い精度と関連性を実現できるようにすることを目的としています。ヒント エンジニアリング スキルを習得すると、ユーザーは大規模な言語モデルの機能と制限をよりよく理解できるようになります。特に、会話中に関連するコンテキスト データを LLM に提供する方法として、ベクトル データベース、エージェント、プロンプト パイプラインが使用されてきました。 キューエンジニアリングは、キューワードの設計と開発だけではありません。大規模な言語モデルを操作および開発するためのさまざまなスキルとテクニックを網羅しています。ヒント エンジニアリングは、大規模言語モデルとの対話や接続、および大規模言語モデルの機能の理解において重要な役割を果たします。ユーザーは、プロンプトエンジニアリングを通じて大規模言語モデルのセキュリティを向上させることができます。また、専門的なドメイン知識や外部ツールを使用して大規模言語モデルの機能を強化するなど、大規模言語モデルを強化することもできます。たとえば、パイプライン、エージェント、CoT チェーンなどの LLM ベースの実装はすべて、何らかの形式のプロンプト エンジニアリングに基づいています。 プロンプト エンジニアリングには、目的の出力を達成するためのプロンプトの選択、作成、および整理が含まれ、主に次の側面が含まれます。
ヒント エンジニアリングは、大規模な言語モデルのパフォーマンスを向上させ、ユーザーのニーズをより適切に満たすのに役立ちます。これは、特に自然言語処理タスクや、テキスト生成、回答生成、記事執筆などの生成タスクにおいて、モデルと対話するときによく使用される戦略です。 6.プロンプトエンジニアリングの基本手法6.1 ゼロショットプロンプトゼロショット プロンプトでは、望ましい出力を示す例を一切使用せずにモデルにタスクを入力するため、ゼロショットと呼ばれます。たとえば、モデルに文を入力すると、その文の感情が出力されることが期待できます。 DAIR-AI の例を見てみましょう。 6.2 少数ショットのプロンプト少数のショットのプロンプトは、対象タスクの入力と予想される出力を含む少数の高品質な例をモデルに提供することで実現されます。これらの良い例を観察することで、モデルは人間の意図と正確な出力を生成するための基準をよりよく理解できるようになります。したがって、ゼロショットと比較して、少数ショットの方が一般的に優れたパフォーマンスが得られます。ただし、この方法ではより多くのトークンが消費され、長いテキストの入力または出力を処理するときにコンテキストの長さの制限が発生する可能性があります。 GPT-3 などの大規模言語モデルはゼロショット機能に優れています。しかし、複雑なタスクの場合、少数ショットのヒントの方がパフォーマンスが優れています。パフォーマンスを向上させるために、プロンプト内でモデルがタスクを実行するようガイドするデモンストレーションを提供することで、コンテキスト学習のための少数のプロンプトを使用します。つまり、モデルをいくつかのタスク固有の例に公開すると、モデルのパフォーマンスが向上します。 https://arxiv.org/abs/2005.14165の例を見てみましょう。 上記のプロンプトから、モデルに例が与えられ、次の質問に対する回答を生成できることがわかります。 6.3 指示プロンプトコマンドプロンプトは、特に ChatGPT のようなチャットボットの場合、LLM の最も一般的な用途です。プロンプト コマンドの例を次に示します。 プロンプトは、大規模な言語モデルにプロンプトの例を提供するように設計されており、トレーニングとテストの矛盾を排除し (モデルは Web 規模のコーパスでトレーニングされ、ほとんどの指示でテストされます)、チャットボットの実際の使用シナリオをシミュレートできます。指示プロンプトは、(タスク指示、入力、実際の出力) タプルを使用して事前トレーニング済みモデルを微調整し、モデルがユーザーの意図とより一致して指示に従うようにします。指導モデルを操作するときは、タスクの要件を詳細に記述し、できるだけ具体的かつ正確に、何を行うべきかを明確に指定する必要があります(何かをしないよう指示するのではなく)。 7. 迅速なエンジニアリングの組み合わせプロンプトエンジニアリングがエンジニアリング手法となる理由は、主に思考連鎖(CoT)や再帰プロンプトなど、比較的複雑なプロンプト手法が多様に存在するためです。 7.1 思考連鎖の促進Chain-of-Thought (CoT) プロンプトは、思考の連鎖と呼ばれる一連の短い文を生成します。これらの文は、最終的な答えに至る段階的な推論ロジックを説明しており、複雑な推論タスクや大規模なモデルの場合に大きなメリットがあります。一般的な基本的な CoT ヒントには、Few-shot CoT と Zero-Shot CoT の 2 つがあり、これらについて以下に説明します。 7.1.1 少数ショットのCoT少数ショットの CoT により、モデルは高品質の推論チェーンのデモンストレーションをいくつか確認できるようになります。次の例を見てみましょう。 写真 7.1.2 ゼロショットCoTゼロショットCoTは、2022年に小島らによって初めて提案されたもので、プロンプトに「ステップごとに考えてみましょう」という要素を追加し、モデルのパフォーマンス向上に役立ちます。例を見てみましょう: ゼロショット CoT は、モデルの内部を確認し、モデルがどのように推論して答えに到達したかを理解するのに役立ちます。 7.2 再帰プロンプト再帰プロンプトは、複雑な問題をより小さく、より扱いやすいサブ問題に分割し、一連のプロンプトを通じてそれらのサブ問題を再帰的に解決する問題解決手法です。このアプローチは、言語モデルが問題を解決するためにさまざまな情報を組み合わせる方法を学習する必要がある、組み合わせの一般化を必要とするタスクに特に役立ちます。 自然言語処理のコンテキストでは、再帰プロンプトは、少数のプロンプト方法を使用して複雑な問題をサブ問題に分解し、抽出されたサブ問題を順番に解決し、前のサブ問題の解決策を使用して次のサブ問題に答えることができます。このアプローチは、数学の問題や質問への回答などのタスクに使用できます。これらのタスクでは、言語モデルが複雑な問題をより小さく、より扱いやすい部分に分解して解決策を導き出す必要があります。例えば: 再帰プロンプトのその他の例は次のとおりです。 写真 7.3 CoTと再帰ヒントの混在自己質問は、別の種類の再帰プロンプト、つまりモデルにフォローアップの質問を繰り返し促して思考プロセスを反復的に構築する方法と考えることができます。フォローアップの質問には、検索エンジンの結果を通じて回答できます。同様に、IRCoT と ReAct は、反復的な CoT ヒントと Wikipedia API へのクエリを組み合わせて、関連するエンティティとコンテンツを検索し、それらをコンテキストに戻します。次に例を示します。 写真 思考ツリーは、各ステップで複数の推論の可能性を探索することで CoT を拡張します。まず、問題を複数の思考ステップに分解し、各ステップで複数の思考を生成して、基本的にツリー構造を作成します。検索プロセスは幅優先プロセスまたは深さ優先プロセスにすることができ、各ノードの評価分類器はプロンプトによって完了できます。 写真 8. 自動プロンプトの設計一般に、プロンプトは、与えられた入力に対して目的の出力が得られる可能性を高めるプレフィックス トークンのシーケンスに相当します。したがって、これらはトレーニング可能なパラメータとみなすことができ、AutoPrompt、Prefix-Tuning、P-Tuning、Prompt-Tuning などの勾配降下法によって埋め込み空間上で直接最適化することができます。AutoPrompt から Prompt-Tuning への傾向は、設定が徐々に簡素化されることです。 8.1 自動プロンプトプロジェクトAPE は、モデルによって生成されたプロンプト候補セットを検索し、選択したスコアリング関数に従って候補セットをフィルタリングして、最終的に最高スコアを持つ最適な候補プロンプトを選択する方法です。
写真
8.2 CoTを自動的に構築する思考の連鎖を自動的に構築するために、Shum et al. (2023) は、Enhance-Prune-Select という 3 段階のプロセスを提案しました。
8.3 クラスタリングベースのCoT構築クラスタリング技術を使用して質問をサンプリングし、チェーンを生成しました(2023)。 LLM は特定の種類の間違いを犯す傾向があり、ある種類の間違いは埋め込み空間で類似している可能性があるため、グループ化することができます。頻繁に発生するエラー クラスターから 1 つまたは少数のエラーのみをサンプリングすることで、1 つのエラー タイプが過度に多く発生するのを防ぎ、多様な例のセットを収集できます。
9. プロンプトエンジニアリングの一般的な実践プロンプト エンジニアリングの実装には、LLM ベースのアプリケーションのさまざまな側面が関係します。プロンプト エンジニアリングの一般的なプラクティスを次に示します。
写真
写真 10. プロンプトエンジニアリングの課題と将来プロンプトエンジニアリングは、特定の方法で構築された自然言語であると言えます。しかし、OpenAI の CEO が言及しているのは、真に構造化されていない、非常に直感的なインターフェースであると思われますが、これはある程度議論の余地があります。なぜなら、テクノロジーとイノベーションの多くは、プロンプト エンジニアリングの基本原則に基づいているからです。 写真 エンタープライズのユースケースを考慮すると、LLM を操作する主な 2 つの方法は、推論プロンプトを微調整することと、コンテキスト参照データを注入することであり、この 2 つのアプローチは相互に排他的ではありません。モデルの微調整により LLM の動作と応答が変更され、RAG はコンテキスト参照を使用してユーザーの入力を補足します。 インスタントエンジニアリングの主な課題の 1 つは、問題の表現と形式化、つまり頭の中にある要件をテキスト形式の要求に変換することです。一歩後退して、従来のチャットボットでコンテキストを確立することは非常に重要です。コンテキストは、1つ以上の意図に従ってユーザー入力を分類することによって最初に確立され、以前の会話、他のシステムへのAPI呼び出しなどを通じてさらにコンテキストが確立されます。コンテキストは、時間と場所にも大きく依存し、質問が尋ねられたときの背景参照は何でしたか。 文脈の認識に加えて、あいまいさは別の課題です。いくつかの形のあいまいさは、私たち人間が理解するのは簡単ですが、伝統的にNLU/チャットボットにとっては困難でした。 Openaiの実装では、CHATMLがLLM入力に表示され、役割を定義し、LLM入力の明確な構造を提供します。 LLM出力側に関数呼び出しが表示され、チャット完了モードが事実上の標準として設定されました。 意図、コンテキスト、あいまいさ、および曖昧性がすべて会話の一部です。人間の言語インターフェイスでは、コンテキストと文脈の認識が常に重要です。あいまいさが存在し、ある程度の曖昧性が人間の会話の一部です。会話では、「曖昧性」を常に使用して意味と意図を確立します。また、曖昧性はコンテキストである程度自動的に自動的に実行できます。たとえば、LLMに5つのオプションを生成するように依頼し、ユーザーに最適な生成された回答を選択するように依頼することは、曖昧性の形式です。 エンタープライズの実装はドメイン固有であり、制約が必要であり、ある程度のドメインの検出があります。質問や要求の内訳は、一連の推論を作成する上で重要です。微調整はモデルの動作を設定しますが、RAGはLLMが推論中に使用するコンテキストリファレンスを作成します。データ管理は常にLLMアプリケーションの一部になります。 写真 複雑さがなくなることはなく、ある場所から別の場所に移動します。 【参照】
|
>>: Adobeの新しいAIペイントバージョンは爆発的、2K解像度でオンラインでプレイ可能、ネットユーザー:効果はDALL·E 3よりも優れている
先日、アップルは同社初のバーチャルヘッドマウントディスプレイデバイス「Vision Pro」を2月2...
人工知能の誕生は第二次世界大戦中に連合国が暗号解読機を開発し、それがナチスドイツのエニグマ暗号を解読...
高品質のデータ セットを使用して命令のチューニングを実行すると、大規模なモデルのパフォーマンスを迅速...
著者: キリアンマシンハートが編集参加者: ヌルハチュ・ヌル、リー・ヤージョウこの記事では、研究者の...
米国のピュー・リサーチ・センターは2008年に、主に以下のような2020年のライフスタイルを予測しま...
[[441598]] AI への準備プロセスの多くは組織の変更です。人工知能の利用には、ニューカラー...
GenAI は、ユーザーが独自の方法でデータをクエリし、ニーズに合わせた回答を受け取ることができるイ...
OpenAI はひっそりとその中核となる価値観を変えました。公式ウェブサイトに掲載されている6つのコ...
[[418716]]建築の問題を研究すると、ほぼすべての「新しい」アイデアが、おそらく何十年も前に何...
データラベリングは重大な再編の時期を迎えています。ビッグモデル時代の到来により、データ中心の AI ...
産業用IoTにおける機械学習の応用産業用 IoT (IIoT) に機械学習を適用すると、企業の予測分...
AI 生成コンテンツは、現在の人工知能分野で最もホットなトピックの 1 つとなっており、この分野の最...