Llama インデックスを使用したマルチエージェント RAG の構築

Llama インデックスを使用したマルチエージェント RAG の構築

検索拡張生成 (RAG) は、大規模言語モデル (LLM) の機能を強化する強力な手法として登場しました。 RAG は、知識ソースから関連情報を取得してプロンプトに組み込むことで、LLM が事実に基づく出力を生成するための有用なコンテキストを提供します。

しかし、既存のシングルエージェント RAG システムでは、検索効率が低い、待ち時間が長い、プロンプトが最適ではないなどの課題があります。これらの問題により、実際の RAG パフォーマンスが制限されます。マルチエージェント アーキテクチャは、これらの課題を克服し、RAG の潜在能力を最大限に引き出す理想的なフレームワークを提供します。マルチエージェント システムでは、責任を分割することで、専門的な役割、並列実行、最適化されたコラボレーションが可能になります。

シングルエージェントRAG

現在の RAG システムでは、クエリ分析、パッセージ検索、ランキング、要約、プロンプトの強化といったワークフロー全体を単一のエージェントで処理します。

この単一のアプローチにより、シンプルなオールインワン ソリューションが提供されます。しかし、タスクごとに 1 つのエージェントに依存すると、ボトルネックが発生する可能性があります。エージェントは、大規模なコーパスから無関係な文章を取得するのに時間を無駄にすることになります。長いコンテキストは要約が不十分であり、プロンプトでは元の質問と取得された情報が最適な方法で統合されていません。

これらの非効率性により、リアルタイム アプリケーションにおける RAG のスケーラビリティと速度が大幅に制限されます。

マルチエージェントRAG

マルチエージェント アーキテクチャは、単一エージェントの制限を克服できます。 RAG を同時に実行されるモジュール ロールに分割することで、次のことが可能になります。

  • 検索: 専用の検索エージェントは、最適化された検索技術を使用して効率的なチャネル検索に重点を置きます。これにより、待ち時間が最小限に抑えられます。
  • 検索: 検索要素を排除することで、検索を検索エージェント間で並列化して待機時間を短縮できます。
  • ランキング: 個別のランキング エージェントが、検索結果の豊富さ、特異性、その他の関連信号を評価します。これにより、最大の相関関係がフィルタリングされます。
  • 要約: 長い内容を、最も重要な事実のみを含む簡潔なスニペットに要約します。
  • プロンプトを最適化: 元のプロンプトと検索情報の統合を動的に調整します。
  • 柔軟なシステム: エージェントを置き換えたり追加したりしてシステムをカスタマイズできます。ビジュアライザー エージェントはワークフローに関する洞察を提供できます。

RAG を専門的な共同役割に分割することにより、マルチエージェント システムは関連性を高め、待ち時間を短縮し、キューを最適化します。これにより、スケーラブルで高性能な RAG が実現します。

責任を分割することで、検索エージェントはベクトル類似性、ナレッジ グラフ、インターネット クロールなどの補完的な手法を組み合わせることができます。このマルチシグナルアプローチにより、関連性のさまざまな側面を捉えたさまざまなコンテンツを取得できます。

検索を分解し、エージェント間で協調的にランク付けすることで、さまざまな観点から関連性を最適化できます。読み取りエージェントとオーケストレーションエージェントを組み合わせることで、スケーラブルなマルチアングル RAG をサポートします。

モジュール式アーキテクチャにより、エンジニアは専門のエージェント間でさまざまな検索手法を組み合わせることができます。

Llama インデックスのマルチプロキシ RAG

Llama インデックスでは、マルチエージェント RAG の使用例を具体的に説明しています。

  • ドキュメント エージェント - 単一のドキュメントで QA と要約を実行します。
  • ベクター インデックス – 各ドキュメント エージェントのセマンティック検索を有効にします。
  • サマリーインデックス - 各ドキュメントエージェントの要約を可能にします。
  • トップレベル エージェント - インストルメンテーションされた検索を使用してドキュメント エージェントを調整し、ドキュメント全体の質問に答えます。

複数ドキュメントの QA の場合、単一エージェントの RAG ベースラインに比べて実際の利点が示されます。トップエージェントがコーディネートする専任のドキュメントエージェントが、特定のドキュメントに基づいて、より焦点を絞った関連性の高い応答を提供します。

Llama インデックスがどのように実装されているかを見てみましょう。

さまざまな都市に関する Wikipedia の記事をダウンロードします。各記事は個別に保存されます。検索したのは 18 都市だけで、それほど大きな数ではありませんが、高度なドキュメント検索の威力を示す良い例です。

 from llama_index import ( VectorStoreIndex, SummaryIndex, SimpleKeywordTableIndex, SimpleDirectoryReader, ServiceContext, ) from llama_index.schema import IndexNode from llama_index.tools import QueryEngineTool, ToolMetadata from llama_index.llms import OpenAI

都市のリストは次のとおりです:

 wiki_titles = [ "Toronto", "Seattle", "Chicago", "Boston", "Houston", "Tokyo", "Berlin", "Lisbon", "Paris", "London", "Atlanta", "Munich", "Shanghai", "Beijing", "Copenhagen", "Moscow", "Cairo", "Karachi", ]

各都市のドキュメントをダウンロードするためのコードは次のとおりです。

 from pathlib import Path import requests for title in wiki_titles: response = requests.get( "https://en.wikipedia.org/w/api.php", params={ "action": "query", "format": "json", "titles": title, "prop": "extracts", # 'exintro': True, "explaintext": True, }, ).json() page = next(iter(response["query"]["pages"].values())) wiki_text = page["extract"] data_path = Path("data") if not data_path.exists(): Path.mkdir(data_path) with open(data_path / f"{title}.txt", "w") as fp: fp.write(wiki_text)

ダウンロードしたドキュメントを読み込んでいます

# Load all wiki documents city_docs = {} for wiki_title in wiki_titles: city_docs[wiki_title] = SimpleDirectoryReader( input_files=[f"data/{wiki_title}.txt"] ).load_data()

LLM + コンテキスト + コールバック マネージャーを定義する

llm = OpenAI(temperature=0, model="gpt-3.5-turbo") service_context = ServiceContext.from_defaults(llm=llm)

各ドキュメントに対して「ドキュメント プロキシ」を定義します。各ドキュメントに対して、ベクトル インデックス (セマンティック検索用) とサマリー インデックス (要約用) を定義します。次に、これら 2 つのクエリ エンジンは、OpenAI 関数呼び出しツールに渡される関数呼び出しに変換されます。

ドキュメント エージェントは、特定のドキュメント内でセマンティック検索または要約を実行することを動的に選択できます。都市ごとに個別のドキュメントエージェントを作成します。

 from llama_index.agent import OpenAIAgent from llama_index import load_index_from_storage, StorageContext from llama_index.node_parser import SimpleNodeParser import os node_parser = SimpleNodeParser.from_defaults() # Build agents dictionary agents = {} query_engines = {} # this is for the baseline all_nodes = [] for idx, wiki_title in enumerate(wiki_titles): nodes = node_parser.get_nodes_from_documents(city_docs[wiki_title]) all_nodes.extend(nodes) if not os.path.exists(f"./data/{wiki_title}"): # build vector index vector_index = VectorStoreIndex(nodes, service_cnotallow=service_context) vector_index.storage_context.persist( persist_dir=f"./data/{wiki_title}" ) else: vector_index = load_index_from_storage( StorageContext.from_defaults(persist_dir=f"./data/{wiki_title}"), service_cnotallow=service_context, ) # build summary index summary_index = SummaryIndex(nodes, service_cnotallow=service_context) # define query engines vector_query_engine = vector_index.as_query_engine() summary_query_engine = summary_index.as_query_engine() # define tools query_engine_tools = [ QueryEngineTool( query_engine=vector_query_engine, metadata=ToolMetadata( name="vector_tool", descriptinotallow=( "Useful for questions related to specific aspects of" f" {wiki_title} (eg the history, arts and culture," " sports, demographics, or more)." ), ), ), QueryEngineTool( query_engine=summary_query_engine, metadata=ToolMetadata( name="summary_tool", descriptinotallow=( "Useful for any requests that require a holistic summary" f" of EVERYTHING about {wiki_title}. For questions about" " more specific sections, please use the vector_tool." ), ), ), ] # build agent function_llm = OpenAI(model="gpt-4") agent = OpenAIAgent.from_tools( query_engine_tools, llm=function_llm, verbose=True, system_prompt=f"""\ You are a specialized agent designed to answer queries about {wiki_title}. You must ALWAYS use at least one of the tools provided when answering a question; do NOT rely on prior knowledge.\ """, ) agents[wiki_title] = agent query_engines[wiki_title] = vector_index.as_query_engine( similarity_top_k=2 )

以下は、さまざまなドキュメント エージェント間でオーケストレーションを行い、あらゆるユーザー クエリに応答できる高レベル エージェントです。

高レベルエージェントは、すべてのドキュメントエージェントを取得を実行するツールとして使用できます。ここでは top-k リトリーバーを使用しますが、最適なアプローチは、ニーズに応じてカスタム リトリーブを行うことです。

 # define tool for each document agent all_tools = [] for wiki_title in wiki_titles: wiki_summary = ( f"This content contains Wikipedia articles about {wiki_title}. Use" f" this tool if you want to answer any questions about {wiki_title}.\n" ) doc_tool = QueryEngineTool( query_engine=agents[wiki_title], metadata=ToolMetadata( name=f"tool_{wiki_title}", descriptinotallow=wiki_summary, ), ) all_tools.append(doc_tool) # define an "object" index and retriever over these tools from llama_index import VectorStoreIndex from llama_index.objects import ObjectIndex, SimpleToolNodeMapping tool_mapping = SimpleToolNodeMapping.from_objects(all_tools) obj_index = ObjectIndex.from_objects( all_tools, tool_mapping, VectorStoreIndex, ) from llama_index.agent import FnRetrieverOpenAIAgent top_agent = FnRetrieverOpenAIAgent.from_retriever( obj_index.as_retriever(similarity_top_k=3), system_prompt=""" \ You are an agent designed to answer queries about a set of given cities. Please always use the tools provided to answer a question. Do not rely on prior knowledge.\ """, verbose=True, )

比較として、すべてのドキュメントを単一のベクトル インデックス コレクションにダンプする「単純な」RAG パイプラインを定義します。 top_k = 4 を設定します

base_index = VectorStoreIndex(all_nodes) base_query_engine = base_index.as_query_engine(similarity_top_k=4)

いくつかのサンプルクエリを実行して、単一ドキュメントの QA/サマリーと複数ドキュメントの QA/サマリーを比較してみましょう。

 response = top_agent.query("Tell me about the arts and culture in Boston")

結果は次のとおりです。

 === Calling Function === Calling function: tool_Boston with args: { "input": "arts and culture" } === Calling Function === Calling function: vector_tool with args: { "input": "arts and culture" } Got output: Boston is known for its vibrant arts and culture scene. The city is home to a number of performing arts organizations, including the Boston Ballet, Boston Lyric Opera Company, Opera Boston, Boston Baroque, and the Handel and Haydn Society. There are also several theaters in or near the Theater District, such as the Cutler Majestic Theatre, Citi Performing Arts Center, the Colonial Theater, and the Orpheum Theatre. Boston is a center for contemporary classical music, with groups like the Boston Modern Orchestra Project and Boston Musica Viva. The city also hosts major annual events, such as First Night, the Boston Early Music Festival, and the Boston Arts Festival. In addition, Boston has several art museums and galleries, including the Museum of Fine Arts, the Isabella Stewart Gardner Museum, and the Institute of Contemporary Art. ======================== Got output: Boston is renowned for its vibrant arts and culture scene. It is home to numerous performing arts organizations, including the Boston Ballet, Boston Lyric Opera Company, Opera Boston, Boston Baroque, and the Handel and Haydn Society. The city's Theater District houses several theaters, such as the Cutler Majestic Theatre, Citi Performing Arts Center, the Colonial Theater, and the Orpheum Theatre. Boston is also a hub for contemporary classical music, with groups like the Boston Modern Orchestra Project and Boston Musica Viva. The city hosts major annual events, such as First Night, the Boston Early Music Festival, and the Boston Arts Festival, which contribute to its cultural richness. In terms of visual arts, Boston boasts several art museums and galleries. The Museum of Fine Arts, the Isabella Stewart Gardner Museum, and the Institute of Contemporary Art are among the most notable. These institutions offer a wide range of art collections, from ancient to contemporary, attracting art enthusiasts from around the world. ========================

上記のシンプルなRAGパイプラインの結果を見てみましょう

# baseline response = base_query_engine.query( "Tell me about the arts and culture in Boston" ) print(str(response)) Boston has a rich arts and culture scene. The city is home to a variety of performing arts organizations, such as the Boston Ballet, Boston Lyric Opera Company, Opera Boston, Boston Baroque, and the Handel and Haydn Society. Additionally, there are numerous contemporary classical music groups associated with the city's conservatories and universities, like the Boston Modern Orchestra Project and Boston Musica Viva. The Theater District in Boston is a hub for theater, with notable venues including the Cutler Majestic Theatre, Citi Performing Arts Center, the Colonial Theater, and the Orpheum Theatre. Boston also hosts several significant annual events, including First Night, the Boston Early Music Festival, the Boston Arts Festival, and the Boston gay pride parade and festival. The city is renowned for its historic sites connected to the American Revolution, as well as its art museums and galleries, such as the Museum of Fine Arts, Isabella Stewart Gardner Museum, and the Institute of Contemporary Art.

私たちが構築したマルチエージェント システムの結果がはるかに優れていることがわかります。

要約する

RAG システムは、エンタープライズ レベルのパフォーマンスを実現するために、マルチエージェント アーキテクチャを進化させる必要があります。この例が示すように、責任を分割すると、関連性、速度、要約の品質、タイムリーな最適化が向上します。 RAG を特殊な共同ロールに分解することにより、マルチエージェント システムは単一エージェントの制限を克服し、スケーラブルで高性能な RAG を実現できます。


<<:  Panda-Gym のロボットアームシミュレーションを使用したディープ Q 学習強化学習

>>:  科学データ研究のための人工知能アシスタントMATAが特許を取得

ブログ    
ブログ    
ブログ    

推薦する

ゴリラもMinecraftをプレイできるようになり、動画を一度見るだけで新しいスキルが手に入る

GPT-4にMinecraftの遊び方を教えた後、人間はゴリラにもこのゲームの遊び方を教えました。写...

AIは数学データベースの問題の82%を証明でき、Transformerをベースにした新しいSOTAが達成されました。

科学者たちは最近、AI に数学の授業をさせることに夢中になっていると言わざるを得ません。現在、Fac...

グラフ ネットワークをより堅牢にします。 Googleは、データのラベル付けバイアスやドメイン転送を恐れないSR-GNNを提案

グラフ ニューラル ネットワーク (GNN) は、機械学習でグラフ構造データを活用するための強力なツ...

...

...

近年の機械学習の奇妙な状況

翻訳者注:人工知能分野の発展は学者の貢献と切り離せないものです。しかし、研究が進むにつれて、「クリッ...

...

ボストン・ダイナミクスのロボット犬「スポット」が新たなスキルを獲得:縄跳びや服拾い

海外メディアCNETによると、ボストン・ダイナミクスのロボット犬「スポット」はすでにダンス、鉱山探索...

...

人工知能技術の発展に関する合理的な見方

[[421597]]社会の生産性が急速に発展するにつれ、文学作品に描かれた未来の技術やより良い生活が...

AIが産業のデジタル変革をどのように促進するか

多くの産業企業は実際に必要な量よりも多くのデータを保有していますが、人工知能への取り組みは期待を下回...

...

...

複雑なネットワーク分析の効率を向上!中国の科学者が強化学習の新しい枠組みを開発

最近、中国の国立国防科学技術大学、カリフォルニア大学ロサンゼルス校、ハーバード大学医学部の研究者らが...