アリ姉の紹介:「トマト」を検索すると、その栄養価やカロリーがわかるだけでなく、牛の胸肉を煮込んだり、卵を焼いたりする方法も学べます!検索エンジンはいつから「温かい人」になったのでしょうか?その背後には「ナレッジグラフ」と呼ばれる強力な秘密兵器があることが判明しました。 近年、検索や自然言語処理の分野で注目されているナレッジグラフは、検索エンジンのナレッジエンジンへの変革をリードしています。アリババの「神馬検索」では、ナレッジグラフと関連技術を広く応用することで、ユーザーが最も欲しい情報を見つけるのに役立つだけでなく、ユーザーが予想外の知識を得ることも可能になります。 背景 検索エクスペリエンスを継続的に向上させるために、Shenma Search のナレッジ グラフおよびアプリケーション チームは、グラフ構築技術を継続的に探求し、改善してきました。その中でも、Open Information Extraction (OIE)、つまり一般情報抽出は、大規模な非構造化自然言語テキストから構造化情報を抽出することを目的としています。これは、ナレッジグラフデータを構築するための中核技術の 1 つであり、ナレッジグラフの持続的な拡張能力を決定します。 「神馬検索」インターフェース 本稿では、オープン情報抽出における重要なサブタスクである関係抽出に焦点を当てています。まず、関係抽出のさまざまな主流技術の概要を示し、次にビジネスにおける選択と応用を組み合わせ、DeepDiveベースの方法に焦点を当て、神馬ナレッジグラフデータ構築作業におけるその応用の進捗状況を詳しく説明します。 関係抽出の概要 関係抽出技術の分類 既存の関係抽出技術は、主に次の 3 つのタイプに分けられます。
これら3つの手法のうち、教師あり学習法は特徴を抽出して有効活用できるため、高い精度と高い再現率が得られるという利点があり、現在、業界で最も広く使用されている手法です。 遠隔監視アルゴリズム 教師あり学習における手動データラベル付けの限界を打ち破るために、ミンツらは遠隔教師アルゴリズムを提案しました。このアルゴリズムの核となるアイデアは、テキストを大規模な知識グラフに揃え、知識グラフ内の既存のエンティティ関係を使用してテキストにラベルを付けるというものです。遠隔監視の基本的な前提は、知識グラフから 3 つの R (E1、E2) (注: R は関係を表し、E1 と E2 は 2 つのエンティティを表します) を取得でき、E1 と E2 が文 S 内で共起する場合、S は E1 と E2 の関係 R を表し、トレーニングの正の例としてマークされるというものです。 遠隔監視アルゴリズムは、現在主流の関係抽出システムで広く使用されている方法であり、この分野の研究ホットスポットの 1 つでもあります。このアルゴリズムは、データ注釈のスケール問題を非常にうまく解決しますが、基本的な仮定が強すぎるため、ノイズの多いデータが大量に導入されます。たとえば、ナレッジ グラフから「創設者 (Steve Jobs、Apple)」というトリプレットを取得すると、次の表の文 1 と 2 は関係を正しく表現していますが、文 3 と 4 はそのような関係を表現していないため、文 3 と 4 に基本仮定を適用すると、間違った注釈情報が得られます。この問題は、しばしば間違ったラベルの問題と呼ばれます。 間違ったラベルの問題の根本的な原因は、遠隔監視ではエンティティ ペアが 1 つの関係のみに対応すると想定しているが、実際にはエンティティ ペア間に複数の関係が同時に存在する可能性があることです。たとえば、上記の例では、CEO (Steve Jobs、Apple) 間にも関係があります。エンティティ ペア間に一般的に定義された関係がない場合もありますが、特定のトピックに関連しているために文中にのみ表示されます。 誤ったラベルの問題の影響を軽減するために、学術界では主に次のようなさまざまな改良アルゴリズムが提案されています。
神馬知識グラフの構築における関係抽出方法の選択 ナレッジ グラフのデータ構造は、データ ソースの観点から、構造化データ、半構造化データ、非構造化データの 3 つのカテゴリに分類されます。その中でも、非構造化データは最も大きく、最もアクセスしやすいリソースですが、処理や使用が最も難しいリソースでもあります。神馬ナレッジグラフは構築以来、約 5,000 万のエンティティと約 30 億の関係性を持つ大規模なナレッジグラフに発展しました。構造化データと半構造化データを主にベースとしたドメイングラフ構築の初期段階を経て、Shenma Knowledge Graph のデータ構築の焦点は、非構造化データを正確かつ効率的に使用してエンティティと関係性を自動的に識別および抽出する方法へと徐々に移行してきました。この構築戦略により、神馬ナレッジグラフは一般分野の構築と持続的な拡大において高い競争力を獲得しています。 遠隔監視アルゴリズムは、知識グラフ内の既存の情報を活用して、教師あり学習に必要な大規模なテキスト注釈付けを可能にします。一方で、リモート監視により、教師あり学習の関係抽出の規模と精度が大幅に向上し、大規模な知識グラフデータの構築と補充が可能になります。他方、リモート監視は既存の知識グラフのデータと規模に大きく依存しており、豊富な注釈付きデータは機械学習機能の向上に大きく役立ちます。神馬ナレッジグラフの現在のデータ構築事業では、ナレッジグラフの規模と遠隔教師あり学習の相補的な特性を最大限に活用するために、グラフの既存の大規模なエンティティと関係データに基づき、遠隔教師あり学習アルゴリズムをツールとして利用した関係抽出技術を採用しています。 前章のレビューでは、遠隔監視の考え方に基づいたさまざまな改善方法を紹介しました。具体的な業務実装では、業務ニーズに最も適した、DeepDive に基づく抽出システムとディープラーニングに基づく抽出アルゴリズムという、この分野の代表的な 2 つの手法を選択しました。 2 つの方法は互いに補完し合い、それぞれに利点があります。DeepDive システムは、抽出に自然言語処理ツールとコンテキストベースの機能をより多く利用し、コーパスのサイズをより柔軟に選択でき、対象を絞った関係抽出を実行でき、抽出プロセスで手動検査と介入を簡単に実行できます。一方、ディープラーニング方式は主に単語埋め込みと畳み込みニューラル ネットワークを使用し、大規模なコーパス処理と複数の関係抽出に明らかな利点があります。次のセクションでは、これら 2 つの方法の実装と適用について詳しく説明します。 DeepDiveシステムの紹介 ディープダイブの概要 DeepDive (http://deepdive.stanford.edu/) は、スタンフォード大学が開発した情報抽出システムです。テキスト、表、グラフ、画像など、さまざまな形式の非構造化データを処理し、そこから構造化された情報を抽出できます。このシステムは、文書分析、情報抽出、情報統合、確率予測などの機能を統合しています。 Deepdiveの主な用途は、特定分野の情報抽出です。システム構築以来、交通、考古学、地理学、医療など多くの分野のプロジェクト実践で良好な成果を上げています。また、TAC-KBPコンペティションやWikipediaのinfobox情報自動補完プロジェクトなどのオープンフィールドアプリケーションでも優れたパフォーマンスを発揮しています。 DeepDive システムへの基本的な入力は次のとおりです。
DeepDive システムの基本的な出力は次のとおりです。
DeepDive システムの操作には、重要な反復リンクも含まれています。つまり、出力の各ラウンドが生成された後に、ユーザーは操作結果に対してエラー分析を実行し、機能の調整、知識ベース情報の更新、ルールの変更などによってシステムの学習に介入する必要があります。このような相互作用と反復計算により、システムの出力を継続的に改善できます。 DeepDive システムのアーキテクチャとワークフロー DeepDive のシステム アーキテクチャは下図のとおりで、大まかにデータ処理、データ ラベリング、学習推論、インタラクティブな反復の 4 つのプロセスに分かれています。 データ処理 1. 入力とセグメンテーション データ処理フローでは、DeepDive はまずユーザーの入力データ (通常は自然言語テキスト) を受け取り、それを文に分割します。同時に、テキスト ID とテキスト内の各文のインデックスが自動的に生成されます。 doc_id + sentence_index は、各文のグローバル一意識別子を構成します。 2. NLPアノテーション DeepDive は、セグメント化された各文に対して、組み込みの Stanford CoreNLP ツールを使用して、トークンのセグメント化、ルートの復元、POS タグ付け、NER タグ付け、テキスト内のトークンの開始位置のタグ付け、依存関係の文法分析などの自然言語処理と注釈付けを実行します。 3. 候補エンティティペアの抽出 抽出するエンティティの種類と NER 結果に応じて、まずエンティティの言及が特定され、抽出され、次に特定のペアリング ルールに従って候補エンティティ ペアが生成されます。 DeepDive では、各エンティティの言及はグローバルに一意であり、doc_id、sentence_index、および文中の言及の開始位置と終了位置によって識別されることに注意することが重要です。したがって、異なる位置に表示される同じ名前のエンティティペア (E1、E2) は異なる (E1_id、E2_id) を持ち、最終的な予測結果も異なります。 4. 特徴抽出 このステップの目的は、各候補エンティティ ペアを一連の機能で表現し、後続の機械学習モジュールが各機能と予測される関係との関連性を学習できるようにすることです。 Deepdive には自動機能生成モジュール DDlib が含まれており、主に 2 つのエンティティ言及間のトークン シーケンス、NER タグ シーケンス、エンティティの前後の n グラムなど、コンテキスト ベースのセマンティック機能を抽出します。 Deepdive は、ユーザー定義の特徴抽出アルゴリズムもサポートしています。 データ注釈 データ注釈段階では、候補エンティティ ペアとそれに対応する機能セットを取得します。データのラベル付け段階では、遠隔監視アルゴリズムとヒューリスティックルールを使用して、各候補エンティティペアにラベルを付け、機械学習に必要な正と負のサンプルを取得します。 1. 遠隔監視 リモート教師ありラベリングを実装するには、まず既知の知識ベースまたは知識グラフから関連するトリプレットを取得する必要があります。結婚を例にとると、DeepDive は DBpedia から既存の夫婦のエンティティ ペアを取得します。候補エンティティ ペアが既知の夫婦エンティティ ペア内で一致するマッピングを見つけることができる場合、候補ペアは正の例としてマークされます。抽出する必要のあるさまざまな関係に応じて、負の例にラベルを付けるさまざまなオプションの方法があります。たとえば、ナレッジ ベースに表示されないエンティティ ペアは負の例としてマークできますが、この方法では、ナレッジ ベースが不完全な場合にノイズの多い負の例が生成されます。また、ナレッジ ベース内の相互に排他的な関係のインスタンスを使用して負の例をマークすることもできます。親子関係や兄弟関係は結婚関係と相互に排他的であり、負の例をマークするために使用しても基本的にノイズは生成されません。 2. ヒューリスティックルール 陽性サンプルと陰性サンプルのラベル付けは、ユーザーがヒューリスティックルールを記述することによっても実現できます。結婚関係の抽出を例にとると、次のルールを定義できます。
ユーザーは、予約済みのユーザー定義関数インターフェイスを通じてヒューリスティック ルールを記述および変更できます。 3. ラベル競合の解決 リモート監視とヒューリスティック ルールによって生成されたラベル間に競合がある場合、または異なるルールによって生成されたラベル間に競合がある場合、DeepDive は多数決アルゴリズムを使用してそれを解決します。たとえば、候補ペアが DBpedia にマッピングされ、ラベルが 1 になっています。これは 2 の 2 番目のルールも満たしているため、ラベルは -1 になります。多数決によりすべてのラベルが合計されます。合計 = 1 - 1 = 0 となり、最終的なラベルは「疑わしい」になります。 学習と推論 データ注釈を通じてトレーニング セットを取得した後、学習および推論の段階で、Deepdive は主に因子グラフ モデルに基づく推論を通じて特徴の重みを学習し、最終的に候補トリプルが真である確率予測値を取得します。 因子グラフは、変数間の機能的関係を特徴付けるために使用される確率的グラフィカル モデルです。因子グラフの助けを借りて、重みを学習し、限界確率を推測することができます。 DeepDive システムでは、因子グラフに 2 種類の頂点があります。1 つはランダム変数、つまり抽出された候補エンティティ ペアであり、もう 1 つはランダム変数の関数、つまり 2 つのエンティティ間の距離が特定のしきい値より大きいかどうかなど、ルールに従って取得されたすべての機能と関数です。因子グラフのエッジは、エンティティ ペア、機能、およびルール間の関連性を表します。 トレーニング テキストの規模が大きく、多くのエンティティが含まれる場合、生成される因子グラフは非常に複雑で大きくなる可能性があります。DeepDive はギブス サンプリングを使用して、グラフベースの確率推論を簡素化します。特徴重みの学習では、標準的な SGD プロセスが使用され、ギブス サンプリングの結果に基づいて勾配値が予測されます。特徴の重みの取得をより柔軟かつ合理的にするために、システムのデフォルトの推論プロセスに加えて、ユーザーは値を直接割り当てることで特徴の重みを調整することもできます。スペースの制約により、この記事ではより詳細な学習および推論プロセスについては紹介しません。詳細については、DeepDive の公式 Web サイトを参照してください。 インタラクティブな反復 反復段階では、特定の手動介入を通じてシステム エラーが修正され、システムの精度とリコール率が継続的に向上します。対話型の反復には通常、次の手順が含まれます。 1. 精度と再現率の迅速な推定
2. エラーの分類と誘導 各抽出失敗(FP および FN を含む)は、エラーの原因に応じて分類および要約され、エラーの頻度によってソートされます。一般的に、エラーの主な原因は次のとおりです。
3. エラー訂正 エラーの原因に応じて、ルールの追加または変更、機能の追加または削除、機能の重みの調整などによりシステムを調整し、変更された対応するプロセスを再実行して、新しい計算結果を取得します。 神馬知識グラフの構築におけるDeepDiveの応用と改善 この章では、DeepDive のワークフローを理解した後、Shenma Knowledge Graph のデータ構築業務で DeepDive をどのように活用しているかを紹介します。コーパス情報を最大限に活用し、システム運用の効率化を図るため、コーパス処理・アノテーション、入力スケール制御、入力品質向上などの面でDeepDiveに改良を加え、業務実装プロセスに適用することに成功しました。 中国語 NLP 注釈 NLP アノテーションはデータ処理の重要な部分です。 DeepDive に付属する Stanford CoreNLP ツールは主に英語の処理に使用されますが、ナレッジ グラフのアプリケーションでは、主な処理要件は中国語です。そのため、CoreNLP に代わる中国語 NLP アノテーションの外部プロセスを開発し、次のような大きな変更を加えました。
自動件名補完 データ処理フェーズにおけるもう 1 つの改善点は、件名の自動完了プロセスが追加されたことです。中国の百科事典のテキストを例にとると、統計によると、約 40% の文に主語がありません。下記のアンディ・ラウの百科事典の紹介文に示されているように、2 番目の段落のすべての文に主語がありません。 主語が存在しないということは、多くの場合、候補エンティティ ペアのエンティティの 1 つが存在しないことを直接意味します。その結果、システムは有用な情報を含む大量の文を学習できなくなり、システムの精度と再現率に重大な影響を及ぼします。科目の自動完了には、判断の 2 つの側面が関係します。
現在のビジネス アプリケーションのほとんどは百科事典のテキストを扱うため、欠落している主語を追加するために、現在の文の前の文から主語を抽出するという比較的単純な戦略が採用されています。前の文にも主語がない場合は、百科事典のタイトルの NER 結果が、追加する主語として使用されます。主語欠損の判定は比較的複雑であり、現在はルールベース方式が主流となっている。抽出する候補ペア(E1、E2)に対応するエンティティタイプが(T1、T2)であると仮定すると、判定プロセスは次の図のようになります。 主題の補足と処理プロセスの具体例は次のとおりです。 百科事典のテキストを例にとると、実験統計によると、上記の自動主題補完アルゴリズムの精度は約 92% です。関係抽出の結果から判断すると、すべての誤った抽出ケースのうち、主語の補足によって生じたエラーの割合は 2% を超えません。 関係性関連のキーワードに基づく入力フィルタリング DeepDive は機械学習システムです。入力セットのサイズは、特に時間のかかる特徴計算と学習推論のステップにおいて、システムの実行時間に直接影響します。システムのリコール率を確保するという前提の下、入力セットのサイズを合理的に削減することで、システムの動作効率を効果的に向上させることができます。 抽出するトリプルがR(E1, E2)であり、(E1, E2)に対応するエンティティタイプが(T1, T2)であると仮定します。 DeepDive のデフォルトの動作メカニズムは、データ処理段階で、コンテキストが関係 R を表現する可能性があるかどうかに関係なく、タイプ (T1、T2) を満たすすべてのエンティティ ペアが候補として抽出されるというものです。たとえば、夫婦関係を抽出する場合、文の中に 2 つ以上の人物エンティティがある限り、その文はシステムのデータ処理、ラベル付け、学習プロセス全体に参加するための入力として使用されます。次の 5 つの文のうち、文 1 を除く他の 4 つの文には結婚に関する内容がまったく含まれていません。 特に、文中の 2 つの文字エンティティがリモート監視を通じて肯定的または否定的なラベルを取得できない場合、そのような入力は学習フェーズでのシステムの精度に何ら利益をもたらすことができません。このような入力によって生じるシステム実行時間の損失を削減するために、次のような改良アルゴリズムを提案しました。 実験により、改良されたアルゴリズムを使用して取得された入力セットのサイズが大幅に削減されることが示されました。百科事典テキストの抽出を例にとると、夫婦関係の入力セットは元の入力セットの 13% に削減でき、人とその母校の関係の入力セットは元の入力セットの 36% に削減できます。入力セットを減らすことでシステムの実行時間を大幅に短縮でき、また、多数の疑わしいラベルの付いたエンティティ候補ペアの干渉を排除することで、システムの精度も大幅に向上することが実験で示されています。 入力段階で関連キーワードをフィルタリングして入力サイズを縮小すると、システムの動作効率を最も効果的に向上させることができますが(特徴抽出を含む後続の計算ステップがすべてスキップされるため)、この段階でのフィルタリングは、抽出された候補エンティティペアに基づいて行われるのではなく、文に基づいて行われることに注意する必要があります。結婚関係の抽出における複数文字の例を見てみましょう。
結婚関係に関連するキーワード「Mrs.」が含まれているため、この文章はシステム入力として保持されます。文から抽出された複数の人称候補エンティティのペアは、さらにラベル付けとフィルタリングを完了するために、より完全なヒューリスティック ルールに依存する必要があります。 エンティティペアを複数のエンティティに拡張する ほとんどの関係抽出タスクでは、トリプルの抽出のみが行われます。トリプルには一般に 2 つの形式があります。1 つは、2 つのエンティティが特定の関係を持つもので、たとえば R (E1、E2) のように、結婚関係 (Andy Lau、Zhu Liqian) などです。もう 1 つは、エンティティの属性値 (P (E、V) のように、身長 (Andy Lau、1.74 メートル) など) です。 DeepDive のデフォルトの関係抽出モードはトリプルに基づいています。しかし、実際のアプリケーションでは、人物、その人物が卒業した学校、専攻、取得した学位、卒業時期などの人物の教育経験など、トリプルを使用して完全に表現することが難しい複雑な関係が多数あります。これらの複雑な複数エンティティの関係は、Shenma ナレッジ グラフ内の複合型によって表されます。したがって、抽出タスクを複合型の構築と互換性のあるものにするために、DeepDive コードにいくつかの変更を加え、候補エンティティ ペアの抽出を候補エンティティ グループの抽出に拡張しました。コードの変更には、メイン抽出モジュールの app.ddlog、自動機能生成に使用される基礎となる DDlib、udf の map_entity_mention.py および extract_relation_features.py などのファイルが含まれます。次の図は、抽出関係 (個人、組織、役職) を含む拡張エンティティ グループ抽出の例を示しています。 DeepDiveを使ったデータ構築作業 このセクションでは、まず、下の図に示すように、DeepDive 操作の各ステップの入力例と出力結果を示します。この例を通して、DeepDive の各モジュールの機能と出力をより直感的に理解できるようになります。 DeepDive の適用と改良されたアルゴリズムの効果をより詳しく理解するために、以下に特定の結婚関係抽出タスクの関連する動作データを示します。 次の表は、抽出タスクのデータ処理フェーズの各ステップの消費時間と出力量を示しています。 データラベリングの遠隔監視段階では、知識グラフ内の既存の夫婦関係を正例ラベリングに使用することに加えて、既存の親子関係と兄弟関係を負例ラベリングにも使用し、数千の正例を取得し、正ラベリング候補エンティティと負ラベリング候補エンティティの比率は約1:2でした。 DeepDive システムでは、合理的に記述されたヒューリスティック ルールに頼ることで、遠隔監視の誤ったラベル問題をある程度修正できます。結婚関係の誤ったラベルの例を観察すると、誤ったラベルの大部分は、夫と妻の実体が何らかの形で協力して同じ文に共に登場する場合(共演、共歌、共著など)であることがわかりました。夫婦の実体の一方が本のタイトルに引用符で囲まれて登場する場合も、誤判断が起こる可能性があります。例えば: 同様の観察と要約をヒューリスティック ルールに書き込むことができ、ルールから取得した否定的な注釈を利用して遠隔監視から取得した肯定的な注釈を補正することで、学習と推論中のシステムの偏りを減らすことができます。 ヒューリスティック ルールの作成は主に専門知識や手作業の経験に依存しますが、ルールの改善と拡張は特定の自動メカニズムによって支援できます。たとえば、ルール定義: 文中に「P_1 と P_2 が結婚する」とある場合、(P_1、P_2) は肯定的なラベルを取得します。 「和」や「結婚」などのトークンの拡張により、「P_1とP_2が結婚する」、「結婚後のP_1とP_2」、「P_1とP_2の結婚式」など、肯定としてマークする必要がある同様のコンテキストが得られます。ここで、トークンの拡張は、word2vec アルゴリズムと手動フィルタリングによって実現できます。次の表は、この抽出タスクで使用されるルールと対応する統計データを示しています。データのラベル付けプロセス全体には 14 分 21 秒かかりました。 学習と推論のプロセスには約 38 分 50 秒かかりました。ナレッジグラフに含まれていない予測エンティティペアをランダムに取得し、出力結果を次のように表示しました。 システムの精度については、セグメント化された統計の場合、出力結果を次のチャートに示します。 システムによって予測されたエラーサンプルを分析し、次のテーブルを要約しました。 システムのリコールレートの計算は、精密レートの計算よりも複雑です。サンプリングテストを使用してリコール率を推定し、次の3つの方法を具体的に実装しました(統計の期待は> = 0.95):
DeepDiveに基づく関係抽出に関する研究は現在比較的完全であり、Shenmaの知識グラフの建設事業に実装されています。現在、データ構築のアプリケーションには、人々、歴史、組織、本、映画、テレビなどの多くの中核分野が含まれています。抽出された関係には、両親、子供、兄弟、結婚、結婚、歴史的出来事、人々の著者、本の著者、映画やテレビ作品の俳優、卒業した学校、雇用されている場所などが含まれます。百科事典の完全なコーパスを例にとると、各関係抽出タスクの候補文のサイズは800,000〜1000万の間で、入力サイズは150,000〜200万の間で、生成された候補エンティティペアのサイズは300,000〜500万です。システムの各反復は、約3〜4回の反復後に実行されます。システムが稼働して以来、約3,000万人の候補者トリプルを生産しています。 さらに、深い学習モデルとShenma Knowledgeグラフデータの構築におけるそのアプリケーションに基づいて、関係抽出技術を常に調査および実践しています。明日、Ali Meiは、関連する技術的進歩と、ビジネスの実施プロセスで遭遇するいくつかの課題を引き続き導入します。 参考文献 [1]。 [2]。 [3] [4] [5]。 [6]。 [7]。 [8]。 [9]。 [10]。 [11] [12]。 [13]。 |
<<: 人工知能は転移学習を使用して、自然画像から抽出した特徴を使用してイラスト分類の精度を向上させます
>>: シティグループは5年以内に1万人の雇用を人工知能で置き換える計画
[[441702]]時は経つのが早く、2021年も過ぎ去りつつあります。今年を振り返ると、疫病の影響...
緊急時のメモとしても使える、コレクションする価値のあるAI写真を8枚シェアします。最初の RTF フ...
ハリー・ポッターの世界では、組分け帽子は生徒の行動履歴、好み、性格に関するデータを取得し、そのデータ...
次のコードは、C# 遺伝的アルゴリズムを使用して、単純な花の進化シミュレーション プロセスを実装しま...
人工知能は非常に人気が高まっているため、ニュースで報道される超知能に関する予測が実現可能なものなのか...
Python には、リスト、セット、辞書など、非常に便利な組み込みデータ構造が多数あります。ほとんど...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
7月4日に開催された百度AI開発者会議(Baidu Create 2018)で、百度上級副社長兼AI...
この記事では、AI フレームワークの高レベルなアーキテクチャを詳しく説明し、その内部コンポーネントと...
人工知能は 2010 年代の技術であり、時が経つにつれて、ますます多くの AI 技術が登場しています...