1. 事業の状況及び背景まずはブリッジプラットフォームを紹介します。 Bridge は、Zhihu 内の運用分析プラットフォームです。主なシナリオには、人物の検索、コンテンツの検索、人物の監視、コンテンツの監視、機会の発見、問題のチェックなどがあります。提供される機能には、スクリーニング、パッケージ化、分析、監視などがあります。 このプロセスでは、どのように大きなモデルと統合するのでしょうか? Zhihu の事業発展はインスピレーションから始まり、それは外部インスピレーションと内部インスピレーションに分けられます。外部からのインスピレーションは、主にサイト外のニュースから得られます。サイト外のニュースをナレッジ システムに基づいてイベントに集約し、イベントに基づいて質問を生成し、最後に質問に基づいてディスカッション フォーラムを形成します。ディスカッションによって、ユーザーが利用できるサイト内のコンテンツが生成されます。内部のインスピレーションは主にサイト上の既存のコンテンツから得られ、整理、分析、統合、分類されます。これを作業知識システム組織と呼んでいますが、これはブリッジ プラットフォームでの大規模モデルの適用の最初の部分でもあります。 2 番目の部分は、Zhihu 内のコンテンツ エコロジーの構築についてです。ビッグ モデルを使用して、自然言語による推奨システムに基づいてコンテンツ エコロジーをマクロ制御します。 3 番目の部分では、大規模なモデルを使用して自然言語でデータを分析するビジネス分析に焦点を当てます。 上記は、ブリッジ プラットフォーム上の大規模モデルの適用シナリオです。これら 3 つのシナリオは、ビジネスとテクノロジーの両面でユニークかつ代表的なものです。 2. 知識体系の分類と整理以下では、最初のシナリオである知識体系の分類と組織化について詳しく紹介します。 このシナリオには 2 つのビジネス フォームがあります。1 つ目はイベント集約です。従来のアプローチでは、外部のニュース ソースからニュースを取得し、クラスタリング アルゴリズムを使用して集約し、クラスタリング結果に基づいて手動で新しいイベントを追加し、適切な角度を選択してイベントに基づく質問を作成し、多角的な議論を促します。 2 つ目は、コンテンツを沈殿させることです。対応する多段階の分類ツリーと対応するコンテンツを再編成し、既存の知識を構造化し、沈殿したコンテンツがさらに議論を喚起できるようにする必要があります。 大規模なモデルを使用して上記の 2 つのビジネス ニーズを解決する際に、クラスタリング精度、最大トークン、プロセスの複雑さなど、多くの問題が発生しました。 上の図は、ビッグモデルに基づいて設計したイベント集約プロセスを示しています。これは 4 つの段階に分かれています。
ニュースの階層的クラスタリングを、ビッグモデルによって生成されたイベントの階層的クラスタリングに置き換えると、クラスタリングできないケースが効果的に解決されます。また、クラスタ化されたニュースまたはイベントが実際に同じイベントであるかどうかをビッグモデルに判断させ、その結果に基づいて対応する対策を講じると、過剰集約のケースが効果的に解決されます。 ノード下のコンテンツは階層的クラスタリングによってグループ化されているため、大規模モデルに入力されるプロンプトは比較的小さく、最大トークン問題も効果的に解決されます。 大規模なモデルに基づいてタスクプロセス全体を完了するのは比較的難しいため、このタスク用に MapReduce のようなソリューションを設計および開発し、複雑なプロセスの問題も効果的に解決しました。 この新しいソリューションには次の利点があります。
知識組織化については、大きなモデルに基づいて上図のようなプロセスを構築しました。全体的なプロセスは、おおよそ次のステップに分けられます。
このプロセスでは、いくつかの問題にも遭遇します。具体的な解決策は次のとおりです。
最終的なビジネス効果は上図に示されています。この新しいプロセスの利点は、コストが低く、人間の介入が不要で、完全に自動化されていることです。欠点もまた明らかで、基本モデル自体のコンテンツ理解に大きく依存する点です。 3. 自然言語をスクリーニング条件に変換する次に、自然言語をフィルタリング条件に変換する部分を紹介します。この部分は、主にパッケージング、人物の検索、コンテンツの検索のシナリオを対象としています。 私たちのビジネスでは、ビジネスマンは条件に基づいてユーザーやコンテンツを見つける必要があります。このようなタスクには次のような特徴があります。
上記の特性に基づいて、タスクを完了するために大規模モデルの微調整方法を使用することを選択しました。 当初は、純粋な PE 方式で実装しようとしましたが、この方法は単純ですが、ビジネス ニーズを十分に満たすことができませんでした。私たちが構築した微調整データは、上図の右半分の表に示されています。モデルに入力した質問と回答のペアは、それぞれ表のコンテンツ列と結果列です。データ構築に関しては、次のようなアイデアがあります。
このタスクを完了するプロセスは、大きく分けて 2 つの段階に分けられます。最初の段階では、3 つのバージョンを繰り返しました。 バージョン 1 では、出力と入力が互いに関係がないという問題が発生しました。主な理由は、基本モデルの論理的能力の欠如です。コードと数学の問題をモデルに入力してトレーニングすることで、この問題を効果的に解決しました。 バージョン 2 では 2 つの問題が発生しました。 1 つ目は JSON 切り捨ての問題です。主な原因は最大トークン制限です。最大トークンを増やすことで、この問題を効果的に解決しました。2 つ目は出力の重複の問題です。主な原因は、一定の確率を入力した後、同じ単語の確率が常に最も高くなることです。この問題を効果的に解決するために、ランダム サンプルを使用しました。 バージョン 3 では、主に次の問題を解決しました。
トレーニングの過程で、トレーニング速度の問題が発生しました。エポックを短縮し、この問題をある程度解決しました。 最初の段階の反復作業の後、基本的にはオンラインで利用できるようにできましたが、非常に矛盾した問題に遭遇しました。トレーニングと推奨を同じマシンで実行する必要がありました。マシン間に違いがあると、例外が発生してしまいます。第 2 フェーズでは、まだいくつかの最適化の方向性が残っています。 1 つ目は、あいまいな質問の構築です。大規模モデルをテストするには、「高品質の作成者が作成した高品質の大規模モデル回答コンテンツ」のような一連の質問を構築する必要があります。次に、実際のユーザーの使用状況でケースをターゲットに解決し、ユーザーからの実際のフィードバックに基づいて微調整するための対応するサンプルを生成する必要があります。 上記はオンライン化後の効果ですが、主なポイントは3つあります。
この方向で最適化すべき点はファジー言語であり、この方向ではまだ探求を続ける必要があります。 4. 自然言語データ分析最後の部分では、主に AdHoc 分析に焦点を当てた自然言語データ分析について説明します。 このタスクは主に次のような困難と課題に直面します。
この問題を解決するために動的プロンプトを使用します。当初は純粋なプロンプト方式を使用していましたが、この方式はビジネス ニーズを十分に満たしていませんでした。主な理由は、広告テーブルが広すぎて最大トークン制限を超えてしまうことでした。さらに、いくつかのショットでは常にクエリ ステートメントが無視され、効果が悪かったです。微調整も試みましたが、この方法ではサンプルに対する要件が高く、微調整に使用したサンプルは非常に困難でした。最終的に、問題を解決するために動的プロンプトを使用することにしました。主なプロセスは次のとおりです。 初期化:サンプルを質問、クエリ フィールド、SQL ステートメントに処理し、質問を埋め込みに変換して FAISS に保存します。 ユーザー クエリは次の手順で実行されます。
上記はオンライン化後の業績です。もちろん、多くの問題に遭遇しましたが、さまざまな方法を試して最終的に解決しました。
解決策:多様性によるプロンプト入力の不足を回避するために MMR を使用します。
解決策: 製品ソリューションを使用して、ユーザーがクエリに必要なデータ ソースを選択できるようにします。
解決策:サンプルを補充し、ユーザーからのフィードバックに基づいて最適化します。 現在、このソリューションにはまだいくつかの問題があります。精度が不十分です。分析シナリオはまだ非常に柔軟で変更可能であるため、単純なケースのパフォーマンスは問題ありませんが、複雑になると効果は良くありません。今後は、さまざまなビジネスシナリオでのパフォーマンスをさらに向上させるため、微調整を試みます。 V. 要約と展望最後にまとめと展望を述べます。 大規模なモデルを使用してビジネス上の問題を解決しようとする過程で、多くの問題点が見つかりました。
この方向への展望もいくつかあります。
6. 質疑応答Q1: イベント集約プロセスで大規模モデルを選択するにはどうすればよいですか?A: 異なる大規模モデルを選択し、プロンプトを調整し、同じタスクをバッチで実行し、精度を水平に比較し、最終結果に基づいて適切な大規模モデルを選択します。 Q2: イベント集約の評価方法は何ですか?A: 大規模モデルと既存のオンラインモデルを使用して分割状況を比較し、4 * 100 ケースを生成し、手動で合理性を評価します。 Q3: 知識を整理し、反復を終了するにはどうすればよいでしょうか?A: リーフノードのコンテンツ数と最大深度によって異なります。 |
<<: Dynalang - 言語を使って世界のモデルを学習する新しいAIテクノロジー
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
【51CTO.comオリジナル記事】序文最近、Bespin Globalの共同創設者であるBrad ...
1. 大規模モデル開発におけるデータエンジニアリング1. 大規模モデル向けのデータエンジニアリングと...
[[242113]] [51CTO.com クイック翻訳] インターネット アルゴリズムには、推奨シ...
翻訳者 |李睿レビュー | Chonglou OpenAI が立ち上げた GPT は現在、世界で最も...
外国メディアの報道によると、ロシアの検索エンジン会社ヤンデックスとロシア郵便は最近、モスクワのいくつ...
Google のアルゴリズムは毎年 500 ~ 600 回も変更されますが、その多くは小さな変更です...
近年、我が国のドローン産業は急速な発展を遂げています。飛行制御、ナビゲーション、通信、センシングなど...
インテリジェント エッジは、スマート デバイスとモノのインターネットをデータ収集ポイントから、組織に...
1. 「企業が人工知能やモノのインターネットなどの新しいテクノロジーの導入を検討するにつれ、攻撃対象...
屋内ドローンは、新しい未知の市場でどのようにその有用性を証明できるでしょうか?ドローンは無人自律航空...
EPFL のジュゼッペ・カルレオ教授とコロンビア大学の大学院生マティヤ・メドビドビッチ氏は、従来のコ...