大規模言語モデルの詳細な分析: トレーニングから大規模モデルの展開まで

大規模言語モデルの詳細な分析: トレーニングから大規模モデルの展開まで

導入

データサイエンスの分野が進歩するにつれ、複雑な自然言語を処理および生成できる高度な AI システムである大規模言語モデルが、より大きな注目を集めるようになりました。

LLM は、自然言語処理 (NLP) における最も印象的なブレークスルーの 1 つです。これらのモデルは、顧客サービスから科学研究に至るまでのさまざまな業界に革命を起こす可能性を秘めていますが、その機能と限界はまだ十分に理解されていません。

LLM はトレーニングに大量のテキスト データを利用するため、非常に正確な予測と応答を生成できます。 GPT-3 や T5 などの LLM は、言語翻訳、質問応答、要約などの複数の NLP タスクで有望な結果を達成しています。しかし、LLM の複雑さは無視できず、LLM のトレーニングと促進には特定のスキルと知識が必要です。

この投稿では、以前の資料を整理して、LLM のトレーニング、最適化、展開に関する包括的なガイドを提供します。また、偏見の問題、プライバシーの懸念、倫理的な配慮など、LLM に関連する課題についても検討します。これらのモデルが依存するデータをより深く理解する方法と、実際のアプリケーションに合わせてモデルを評価して最適化する方法について詳しく説明します。

この記事では、LLM のトレーニング、適用、パフォーマンスの向上方法について包括的なガイドを提供します。また、偏見の生成、プライバシーの問題、倫理的な配慮など、LLM に関連するいくつかの課題についても詳しく検討します。これらのモデルが依存するデータをより深く理解する方法を詳しく調べ、実際の使用例に合わせてモデルを評価して最適化する方法を探ります。

パート1: LLMのトレーニング

言語モデルは自然言語処理 (NLP) アプリケーションにおいてますます重要になってきており、GPT-3 のような LLM は一貫性があり意味のあるテキストを生成するのに非常に効果的であることが証明されています。ただし、LLM のトレーニングは、慎重な計画、実行、監視を必要とする、リソースを大量に消費する困難な作業です。この記事では、データの準備、モデルの選択、ハイパーパラメータの調整、モデルの微調整など、LLM のトレーニングに必要な主要な手順について説明します。また、転移学習、データ拡張、アンサンブル法を活用する方法など、LLM のトレーニングにおけるベストプラクティスについても説明します。

1. データの準備と前処理

LLM トレーニングにおける最初の、そして最も重要なステップはデータの準備です。 LLM は、一貫性のあるテキストを学習して生成するために大量のテキスト データに依存します。したがって、モデルが学習するドメインと言語スタイルを反映した高品質で多様なデータセットを収集する必要があります。同時に、データセットは LLM に十分なトレーニング データを提供できるほど大きくなければなりません。また、データセットはモデルが新しい未知のテキストにうまく適応できるように十分に代表的でなければなりません。

さらに、データセット自体が適切に構造化され、注釈が付けられている必要があり、データのクリーニング、正規化、単語の分割、フォーマットなどの前処理作業も適切に行われている必要があります。このステップでは、データのクリーニング、特徴の選択、特徴の構築、データの正規化などの複数のタスクがカバーされます。

  • データ クリーニング: データ クリーニングでは、データセット内のエラー、不整合、欠損値を識別して修正または削除します。このプロセスにより、データセットの高品質が保証され、機械学習に適したものになります。
  • 特徴選択: 特徴選択の目的は、データセットからターゲット変数に対する最も強い予測力を持つ特徴を識別して選択することです。このプロセスにより、データセットの次元が削減され、モデルのトレーニングがより効率的かつ高速になります。
  • 特徴エンジニアリング: 特徴エンジニアリングのタスクは、機械学習タスクにとってより重要または関連性が高い可能性のある既存の特徴から新しい特徴を作​​成することです。このプロセスには、既存の機能をマージまたは変換したり、データから新しい機能を抽出したりすることが含まれる場合があります。
  • データの正規化: データの正規化では主に、モデルのトレーニング中にすべての機能が公平に扱われるように、データを共通のスケールにスケーリングおよび標準化します。このステップは、モデル内で特定の機能が支配的になりすぎるのを防ぎ、入力データ比率の変化に対してモデルが堅牢であることを保証します。
  • トークン化: トークン化は、自然言語処理 (NLP) タスクのデータ準備における重要なステップです。その役割は、テキストを「トークン」と呼ばれる小さな単位に分解することです。トークンには通常、単語、句読点、および数字、電子メール アドレス、URL などのその他の意味のあるテキスト単位が含まれます。単語のセグメンテーションは、テキスト分類、感情分析、固有表現認識など、多くの NLP タスクの基礎となります。単語分割によりテキスト データを標準化できるため、処理と分析が容易になります。

同時に、単語のセグメンテーションは、データの次元を削減し、機械学習モデルにとって意味のある特徴を抽出するのにも役立ちます。単語の分割は、次のようなさまざまな手法で行うことができます。

  • 空白ベースのトークン化: この手法では、スペース、タブ、改行などの空白文字に基づいてテキストをトークンに分割します。ただし、この手法は一部の言語や、空白によって意味のあるテキスト単位が区切られていない場合には機能しない可能性があります。
  • 句読点ベースのトークン化: この手法では、句読点に基づいてテキストをトークンに分割します。この手法は、タグや電子メール アドレスなど、空白によって意味のあるテキスト単位が区切られていない場合に役立ちます。
  • 正規表現トークン化: この手法では、正規表現を使用してテキストをトークンに分割するパターンを定義します。このテクノロジーは高度にカスタマイズ可能で、複雑な単語分割要件に対応できます。
  • トークン化: この手法では、単語をサブワードまたはトークンに分解します。この手法は、BERT などのニューラル ネットワーク ベースのモデルでよく使用され、語彙にない単語の処理に役立ちます。

トークン化は、自然言語処理 (NLP) タスクのデータ準備における基本的なステップです。テキスト データを標準化し、次元を削減し、機械学習モデルにとって意味のある特徴を抽出するのに役立ちます。

データ準備におけるその他のタスクには、複数のデータ セットを 1 つに結合するデータ統合、データの形式または構造を変更するデータ変換、およびデータをサンプリングまたは集約してデータ セットのサイズを縮小するデータ圧縮があります。

データの品質と特徴の選択はモデルの精度と一般化パフォーマンスに大きく影響する可能性があるため、効果的なデータ準備は機械学習モデルの成功に不可欠です。したがって、機械学習モデルの最適なパフォーマンスを確保するには、データ準備タスクを慎重に計画して実行することが非常に重要です。また、データセットの品質を評価することも必要です。これは通常、データセット内のテキストの分布、頻度、多様性を分析する探索的データ分析 (EDA) を通じて行われます。このプロセスは、データセット内の潜在的なバイアスやエラーを発見し、さらなる前処理とクリーニングの作業を導くのに役立ちます。

機械学習のプロセスは、適切なプロセス モデルを見つけるというサイクルのようなものです。効果的な MLOps 戦略を活用して、チーム間のコラボレーション、再現可能な実験などを実現します。

2. モデルの選択とアーキテクチャ

データセットが準備されたら、次のステップは適切な LLM アーキテクチャを選択し、タスクに応じてスケーリングすることです。利用可能な LLM アーキテクチャは多数あり、ミッションの要件に応じてそれぞれに長所と短所があります。たとえば、GPT-3 は、幅広いドメインとスタイルにわたって高品質のテキストを生成できる最先端の LLM です。ただし、これは大規模でリソースを大量に消費するモデルであり、すべてのタスク、特に計算リソースが限られているタスクには適さない可能性があります。海外のBERT、XLNet、RoBERTa、中国のChatGLM-6B、MOSS、DB-GPTなど、他のよく使われるLLMアーキテクチャについては、私の別の記事「オープンソースの大規模モデルの完全なリスト」を参照してください。
https://minorstone.com/archives/kai-yuan-da-yu-yan-mo-xing-wan-zheng-lie-biao は、テキスト分類、感情分析、質問回答などの特定の自然言語処理タスクで優れたパフォーマンスを発揮します。

3. ハイパーパラメータの調整

ハイパーパラメータ調整は、機械学習アルゴリズムに最適なハイパーパラメータを選択するプロセスです。ハイパーパラメータは、学習率、隠し層の数、層あたりのニューロン数、正規化パラメータ、バッチ サイズなど、トレーニング前に設定される機械学習アルゴリズムの構成変数です。バッチ サイズと学習率は、ディープラーニング モデル (LLM を含む) のトレーニング パフォーマンスに大きな影響を与える可能性がある 2 つの重要なハイパーパラメータです。

バッチ サイズとは、トレーニング プロセスの各反復で同時に処理されるトレーニング例の数を指します。バッチ サイズが大きいほど、モデルがより頻繁に更新されるため、モデルの収束が速くなりますが、より多くのメモリと計算リソースが必要になる場合もあります。逆に、バッチ サイズが小さいと収束は遅くなりますが、メモリの使用効率が向上し、新しいデータへの一般化が向上する可能性があります。

学習率とは、トレーニング中にモデル パラメータを更新するために使用される勾配降下法最適化アルゴリズムのステップ サイズを指します。学習率を大きくすると収束が速くなりますが、モデルが最適解を超えてしまい、不安定性や発散が生じる可能性もあります。学習率が小さいと収束が遅くなる可能性がありますが、より安定し、最適解を超える可能性が低くなります。

バッチ サイズと学習率は相互に関連しており、これらのハイパーパラメータを選択すると、トレーニング プロセスの結果とモデルのパフォーマンスに大きな影響を与える可能性があります。これらのハイパーパラメータを調整するための一般的なアプローチは、グリッド検索またはランダム検索手法を使用して、バッチサイズと学習率の値のさまざまな組み合わせを試し、検証セットでそのパフォーマンスを評価することです。一般に、LLM やその他のディープラーニング モデルに適用できるバッチ サイズと学習率を選択するための普遍的な方法はありません。最適な値は、データセットのサイズと複雑さ、モデルのアーキテクチャとパラメーター、利用可能なコンピューティング リソースなど、いくつかの要因によって影響を受けます。したがって、特定のタスクに最適なバッチ サイズと学習率の組み合わせを見つけるには、さまざまな値を試して検証セットでそのパフォーマンスを評価する必要があります。

ハイパーパラメータの選択は、機械学習アルゴリズムのパフォーマンスに大きな影響を与えます。ハイパーパラメータ調整の目的は、これらのパラメータの最適な値を見つけて、最高のモデルパフォーマンスを実現することです。ハイパーパラメータ調整のプロセスには、各ハイパーパラメータの値の範囲を選択し、検証セットでこれらのハイパーパラメータを使用してトレーニングされたモデルのパフォーマンスを評価することが含まれます。

ハイパーパラメータのチューニングには、次のようないくつかの手法から選択できます。

  • グリッドサーチ: この手法では、ハイパーパラメータのグリッドとそれに対応する値の範囲を定義し、すべての可能なハイパーパラメータの組み合わせをテストします。ハイパーパラメータの組み合わせごとにモデルがトレーニングされ、最適な組み合わせが見つかるまで検証セットでパフォーマンスが評価されます。
  • ランダム検索: この手法では、指定された範囲内でハイパーパラメータのセットをランダムに選択し、検証セットでこれらのハイパーパラメータを使用してトレーニングされたモデルのパフォーマンスを評価します。
  • ベイズ最適化: この手法では、ハイパーパラメータとモデルのパフォーマンスの関係の確率モデルを構築し、このモデルを使用して最適なハイパーパラメータの検索をガイドします。

  • 進化的アルゴリズム: この手法では、遺伝的アルゴリズムまたはその他の進化的手法を使用して、最適なハイパーパラメータの組み合わせを検索します。
  • 手動チューニング: この手法では、直感、経験、試行錯誤に基づいてハイパーパラメータを手動で選択します。

ハイパーパラメータの調整は機械学習パイプラインの重要なステップであり、モデルのパフォーマンスを大幅に向上させることができます。ただし、ハイパーパラメータの調整は計算コストの高いプロセスになる可能性があるため、パフォーマンス向上のメリットと計算リソースを比較検討する必要があることに注意することが重要です。

微調整

事前トレーニング済みの機械学習モデルを新しいタスクの開始点として活用し、その後、新しいタスクに固有のデータセットでモデルをさらにトレーニングする、転移学習で使用される手法。微調整により、トレーニングに必要なデータとコンピューティング リソースの量を削減しながら、新しいタスクでのモデルのパフォーマンスを向上させることができます。

微調整には次の手順が含まれます。

  • 事前トレーニング済み: 事前トレーニング済みモデルを選択します。通常は、画像分類や自然言語処理などの一般的なタスク用に大規模なデータセットでトレーニングされたディープラーニング モデルです。
  • データ準備: データのクリーニング、正規化、特徴抽出が必要になる可能性のある新しいタスク用に特定のデータセットを準備します。
  • アーキテクチャの変更: 出力層の数の変更、活性化関数の調整、新しい層の追加など、事前トレーニング済みモデルを変更して新しいタスクに適応させます。
  • 微調整: バックプロパゲーションや確率的勾配降下法などの手法を使用してモデルパラメータを更新し、新しいデータセットで変更されたモデルをさらにトレーニングします。
  • 評価: 独立した検証セットまたはテスト セットで微調整されたモデルのパフォーマンスを評価し、結果を事前トレーニング済みモデルと比較します。

微調整は、特に新しいタスクが事前トレーニング済みモデルがトレーニングされた元のタスクに関連している場合に、機械学習モデルのパフォーマンスを向上させる強力な手法です。事前トレーニング済みモデルは既に大規模なデータセットから有用な機能を学習しているため、微調整によりトレーニングに必要なデータとコンピューティング リソースを削減できます。ただし、微調整では、元のタスクと新しいタスクの類似性、新しいデータセットのサイズと品質、事前トレーニング済みモデルのアーキテクチャとハイパーパラメータなど、いくつかの要素を慎重に考慮する必要もあります。さらに、微調整プロセスが慎重に制御されていない場合、特に新しいデータセットが小さい場合や偏ったデータが含まれている場合に、過剰適合の問題が発生する可能性があります。

データ拡張

データ拡張は、既存のデータから新しいトレーニング例を作成することにより、トレーニング データセットのサイズと多様性を増やす手法です。データ拡張の目的は、過剰適合を減らし、一般化能力を高め、入力データの変動に対するモデルの堅牢性を改善することにより、機械学習モデル (LLM を含む) のパフォーマンスを向上させることです。 LLM では、次のようなさまざまなデータ拡張手法を使用できます。

  • テキスト操作: 単語の順序の変更、句読点の追加または削除、同義語や反意語の置き換えなど、入力テキストに簡単な変更を加えることが含まれます。これらの変更により、モデルは入力テキストのバリエーションを処理することを学習し、一般化能力を向上させることができます。
  • テキストの言い換え: 意味は似ているが言い回しが異なるテキストの新しい例を生成します。テキストの書き換えは、バック翻訳や、事前トレーニング済みの言語モデルを使用した新しいテキスト例の生成などの手法を使用して実行できます。

  • テキストの摂動: ランダムな単語の追加、単語の順序のシャッフル、類似または関連する単語への単語の置き換えなど、入力テキストにノイズや摂動を追加することが含まれます。これにより、モデルはノイズの多い入力や破損した入力の処理方法を学習し、入力テキストの変動に対する堅牢性を向上させることができます。
  • テキスト合成: 入力テキストに類似しているが内容が異なる新しいテキスト例を生成します。テキスト合成は、生成的敵対的ネットワーク (GAN) や変分オートエンコーダー (VAE) などの技術を使用して実行できます。

データ拡張は、特にトレーニング データセットが限られていたり偏っていたりする場合に、LLM のパフォーマンスを向上させるのに役立つ強力な手法です。ただし、データ拡張を使用する場合は注意が必要であり、拡張されたデータへの過剰適合を避ける必要があります。データ拡張手法の選択は、特定のタスクとトレーニング データの特性に基づいて行う必要があります。同時に、モデルが新しい多様な入力データに適切に一般化できることを確認するために、元のデータと拡張データの両方を含む検証セットでモデルのパフォーマンスを評価することが重要です。

転移学習

転移学習は、事前トレーニング済みのモデルを、異なるが関連するタスクの新しいモデルの開始点として使用する機械学習手法です。モデルを最初からトレーニングする代わりに、事前トレーニング済みのモデルを特徴抽出器として使用し、モデルの重みを新しいデータセットで微調整します。

微調整プロセスでは、事前トレーニング済みモデルに新しい出力層を追加し、出力層と以前の層の一部の重みを更新して、モデルを新しいタスクに適応させます。転移学習は、特に新しいデータセットのサイズが限られている場合に、最初からトレーニングする場合に比べてトレーニングが高速化され、パフォーマンスが向上するなど、LLM にとって多くの利点があります。

転移学習は、データの真の分布を適切に表現していない可能性のある少数の例に基づいてモデルがトレーニングされる、データ不足の問題を軽減するのにも役立ちます。現在、GPT-2、BERT、RoBERTa など、転移学習に使用できる事前トレーニング済みの LLM モデルがいくつかあります。タスク固有のレイヤーを追加したり、トレーニング目標を変更したりするなど、さまざまな戦略を使用することで、これらのモデルを微調整して、さまざまな下流のタスクに適応させることができます。

転移学習は、LLM モデルをトレーニングするための強力な手法であり、特にデータが限られている場合に、パフォーマンスを大幅に向上させ、トレーニング プロセスを高速化できます。事前トレーニング済みのモデルを活用することで、転移学習は LLM モデルのトレーニングに必要な時間とリソースを削減し、さまざまなアプリケーションでモデルをより使いやすく、効率的にすることができます。

アンサンブル

アンサンブル学習は、複数のモデルをトレーニングし、その出力を組み合わせて最終的な予測結果を導き出す機械学習手法です。アンサンブル学習の考え方は、複数のモデルの出力を組み合わせて、最終的な予測結果が単一のモデルよりも正確で信頼性の高いものになるようにすることです。

アンサンブル学習は、大規模言語モデル (LLM) に特に効果的です。これらのモデルは通常、規模が大きく、トレーニングに大量のコンピューティング リソースを必要とするためです。アンサンブル学習により、複数のモデルを並行してトレーニングできるため、全体的なトレーニング時間とリソースの消費が削減されます。 LLM では、次のようなさまざまなアンサンブル学習手法を使用できます。

  • モデルの平均化: 複数のモデルからの予測を平均化します。これらのモデルは、異なるアーキテクチャやハイパーパラメータを使用したり、異なるデータセットでトレーニングしたりすることもできます。モデルの平均化は、過剰適合を減らし、最終的な予測結果の安定性を向上させるのに役立ちます。
  • モデルスタッキング: 複数のモデルをトレーニングし、その出力を最終モデルへの入力機能として使用します。最終モデルは、ロジスティック回帰やニューラル ネットワークなどのさまざまな手法を使用してトレーニングできます。モデルスタッキングにより、さまざまなモデルの長所を組み合わせてパフォーマンスを向上させることができます。

  • バギング: この方法では、トレーニング データの異なるサブセットで複数のモデルをトレーニングし、その出力を組み合わせて最終的な予測を生成します。これらのサブセットは、ブートストラップ サンプリングやランダム サンプリングなどの手法を使用して作成できます。分類は、過剰適合の問題を軽減し、最終的な予測結果の精度を向上させるのに役立ちます。

  • ブースティング: この方法では、複数の弱いモデルをトレーニングし、その出力を組み合わせて強力なモデルを作成します。弱いモデルは、決定木やニューラル ネットワークなどの手法を使用してトレーニングすることができ、出力は加重平均や勾配ブースティングなどの手法を使用して組み合わせることができます。ブースティングは、最終モデルの精度と一般化能力を向上させるのに役立ちます。

アンサンブル学習は、特にモデルが大きく複雑な場合に、LLM のパフォーマンスを向上させる強力な手法になります。ただし、アンサンブル学習を使用する場合は注意が必要であり、トレーニング データの過剰適合を避ける必要があります。適切なアンサンブル手法の選択は、特定のタスクとトレーニング データの特性に基づいて行う必要があります。また、アンサンブル モデルが新しい多様な入力データに適切に一般化されることを確認するために、検証セットでアンサンブル モデルのパフォーマンスを評価することも必要です。

4. 評価とテスト

評価とテストは、大規模な言語モデルを開発し、そのパフォーマンスを評価し、特定のタスクを解決する際の有効性を確認する上で重要なステップです。

評価とは、LLM の出力を参照標準またはベンチマーク データセットと比較して、その品質と精度を評価するプロセスです。評価では、モデルが設計された特定のタスクに応じて、さまざまなメトリックを使用できます。たとえば、言語モデリングタスクの場合、言語モデルの品質を評価するために、パープレキシティが一般的に使用される指標です。その他の一般的な LLM 評価指標には、精度、F1 スコア、精度、再現率、AUC (曲線下面積) などがあります。

テストは、トレーニングや検証に関係のない新しい独立したデータセットで LLM のパフォーマンスを検証するプロセスです。テストの目的は、モデルの一般化能力と、実際のシナリオでターゲットタスクを解決する際の有効性を評価することです。 LLM がさまざまな入力バリエーションを処理し、未知のデータに対して適切に機能することを保証するには、多様で代表的なテスト データセットを使用することが重要です。 LLM を効果的に評価およびテストするには、次のようなベスト プラクティスに従うことが重要です。

  • 特定のタスクに関連する適切な評価メトリックを使用して、モデルのパフォーマンスを意味のある方法で測定します。
  • 複数の評価メトリックを使用して、モデルの長所と短所を包括的に理解します。
  • モデルがトレーニング データに過剰適合しないように、代表的で多様な検証データセットを使用します。
  • 独立したテスト データセットを使用して、モデルの一般化能力と、実際のシナリオでターゲット タスクを解決する際の有効性を評価します。
  • クロス検証手法を使用してモデルの安定性を評価し、評価結果のばらつきを減らします。使用したメトリック、データセット、実験設定など、評価とテストの結果を包括的に報告します。

評価とテストは、現実世界の問題を解決する際の妥当性と信頼性を確保するための LLM 開発における重要なステップです。ベスト プラクティスに従い、適切なメトリックとデータセットを使用することで、開発者はモデルのパフォーマンスを正確に評価し、さまざまなアプリケーションへの適合性について情報に基づいた決定を下すことができます。

選択バイアス: 選択バイアスは、トレーニング データが実際の人口を代表しておらず、特定のグループまたは特性に対して偏っている場合に発生します。

アルゴリズム バイアス: アルゴリズム バイアスは、選択されたアルゴリズムまたはモデル アーキテクチャによって予測に体系的なエラーまたはバイアスが導入されたときに発生します。たとえば、一部のアルゴリズムでは、特定の種類の入力データが他の入力データよりも優先されたり、特定の種類の変動を処理できなかったりする場合があります。

確証バイアス: 確証バイアスは、モデルが既存の信念や仮定と一致するパターンに焦点を当てることで、既存のバイアスや固定観念を強化する場合に発生します。機械学習モデルのバイアスリスクを軽減するには、次のような積極的な対策を講じる必要があります。

  • 現実世界の人口を反映し、さまざまな入力バリエーションを含む、多様で代表的なトレーニング データセットを使用します。
  • モデルのパフォーマンスは、公平性や公正性を含むさまざまな基準に基づいて定期的に監視および評価されます。
  • バイアスのレビューを実施し、モデルの予測を評価して、バイアスを特定して軽減します。
  • モデルのトレーニング データ、アルゴリズム、アーキテクチャを定期的に確認して更新し、偏りのない最新の状態を維持します。
  • 採用や刑事司法などのデリケートな分野で機械学習モデルを使用するための明確な倫理ガイドラインと基準を策定します。
  • バイアスは機械学習における重大な問題であり、それを特定、軽減、防止するための積極的な取り組みが必要です。

5. 倫理的配慮

大規模言語モデルには革命的な可能性があり、自然言語処理、機械翻訳、チャットボットなどの分野に大きな変化をもたらす可能性があります。しかし、その能力が増すにつれ、社会に倫理的な問題を引き起こすのではないかという懸念も生じています。 LLM に関連する倫理的な考慮事項としては、偏見と公平性、プライバシーとセキュリティ、誤報とフェイクニュース、雇用圧力、環境への影響などがあります。

これらの倫理的考慮事項に対処するには、LLM の開発と使用が倫理的に責任あるものであることを保証する必要があります。次のような対策を講じることができます。

  • データ ガバナンス: LLM のトレーニングで使用されるデータの公平性、透明性、説明責任を確保するために、厳格なデータ ガバナンス ポリシーを策定します。
  • アルゴリズムの透明性: 透明性と説明可能性を備えた LLM を開発し、利害関係者がモデルによって行われた決定を理解できるようにします。
  • プライバシーとセキュリティ: 個人情報を保護し、不正使用を防ぐために、強力なプライバシーとセキュリティ対策を講じます。
  • 倫理とガバナンスのフレームワーク: LLM の開発と展開をガイドする倫理とガバナンスのフレームワークを確立し、責任ある倫理的な方法で開発および使用されるようにします。
  • 社会的影響評価:LLM の社会的影響評価を実施して、社会への潜在的な影響を理解し、悪影響に対処するための戦略を策定します。

LLM の倫理的影響を認識し、技術の利点と潜在的なリスクおよび予期しない結果とのバランスを取りながら、倫理的かつ責任を持って開発および使用されるように積極的な措置を講じる必要があります。

6. セキュリティとプライバシー

大規模な言語モデルでは、機密性の高い個人情報が大量に扱われる可能性があるため、セキュリティとプライバシーは重要な問題です。 LLM に関連するセキュリティとプライバシーの問題は次のとおりです。

  • データプライバシー: LLM ではトレーニングに大量のデータが必要であり、その中には機密性の高い個人情報が含まれることがよくあります。 LLM のトレーニングに使用されるデータが匿名化され、個人のプライバシーが保護されるようにすることが重要です。
  • 機密性: LLM は、不正アクセスから保護する必要がある機密性の高い情報を生成する場合があります。 LLM および生成された情報への不正アクセスを防ぐために、強力なアクセス制御手段を実装する必要があります。
  • 敵対的攻撃: LLM は敵対的攻撃に対して脆弱である可能性があり、攻撃者は意図的に入力を改ざんして、誤った出力や誤解を招く出力を生成する可能性があります。医療や金融などの分野では、誤った判断がもたらす結果は深刻なものとなる可能性があります。
  • サイバーセキュリティ: LLM には膨大なコンピューティング リソースが必要なので、サイバーセキュリティの脅威の影響を受けやすくなります。 LLM とそれによって生成されるデータを保護するために、強力なサイバーセキュリティ対策を実施する必要があります。
  • モデル汚染: LLM はモデル汚染攻撃に対して脆弱である可能性があり、攻撃者は悪意のあるデータをトレーニング データセットに挿入して LLM の動作に影響を与える可能性があります。

LLM を開発および展開する際には、適切なセキュリティとプライバシー対策が講じられていることを確認することが重要です。これにより、LLM に関連するリスクが軽減され、これらのモデルによって生成される機密情報が保護されます。

LLM をトレーニングするには、データの選択と前処理、モデル アーキテクチャとハイパーパラメータ、正規化、トレーニング プロセスとリソース、評価とテストなど、複数の要素を慎重に考慮する必要があります。これらのベスト プラクティスに従うことで、さまざまな自然言語処理タスクで最先端のパフォーマンスを実現する高品質の LLM を開発できます。

パート2: LLMの導入

LLM を本番環境に導入することは、慎重な計画と複数の要素の考慮を必要とする複雑な作業になる可能性があります。重要な考慮事項は次のとおりです。

1. インフラ

LLM を実稼働環境に導入する場合、インフラストラクチャは重要な考慮事項です。 LLM には大量の計算能力とメモリが必要であり、従来のサーバー インフラストラクチャに負担をかける可能性があります。 LLM インフラストラクチャを設計する際に考慮すべき重要な要素は次のとおりです。

  • 計算リソース: LLM では、トレーニング、推論、微調整などのタスクを実行するために、高レベルの計算リソースが必要です。組織は、これらのタスクをサポートするために、GPU サーバーやクラウド コンピューティング リソースなどの高性能コンピューティング リソースへのアクセスを確保する必要があります。

  • ストレージ スペース: LLM では、モデルとトレーニング データを保存するために大量のストレージ スペースが必要です。組織は、これらの大規模なデータセットを保存するために、ネットワーク接続ストレージ (NAS) やクラウドベースのオブジェクト ストレージなどの大容量ストレージ ソリューションにアクセスできることを確認する必要があります。
  • ネットワーク インフラストラクチャ: LLM では、データを送信するために高帯域幅のネットワーク インフラストラクチャが必要です。組織は、LLM が最適なパフォーマンスで動作できるように、光ファイバー インターネット接続などの高帯域幅ネットワーク インフラストラクチャへのアクセスを確保する必要があります。
  • スケーラビリティ: LLM はリソースを大量に消費する可能性があるため、組織は増大する需要に対応できるようインフラストラクチャを拡張できるようにする必要があります。これは、Amazon Web Services (AWS) や Microsoft Azure など、需要に応じてリソースを柔軟にスケーリングできるクラウドベースの環境に LLM を展開することで実現できます。
  • 可用性: LLM はエンドユーザーに対して 24 時間 365 日の可用性を提供する必要があります。組織は、エンドユーザーが LLM を常に利用できるようにするために、フェールオーバー サーバーや負荷分散などの冗長性対策を確実に実装する必要があります。

LLM のインフラストラクチャ設計では、コンピューティング リソース、ストレージ、ネットワーク インフラストラクチャ、スケーラビリティ、可用性などの要素を慎重に考慮する必要があります。これらの要素を考慮することで、組織は実稼働環境での LLM の導入をサポートするための堅牢なインフラストラクチャを確実に導入できます。

2. データ管理

大規模な言語モデルを本番環境に展開する場合、データ管理は重要な考慮事項です。 LLM ではトレーニングと微調整に大量のデータが必要となるため、このデータを効果的に管理することが展開の成功に不可欠です。 LLMSのデータ管理戦略を設計する場合、次の重要な要因を考慮する必要があります。

  • データ品質:LLMは、効果的にトレーニングするために高品質のデータを必要とします。トレーニングデータが正確で一貫性があり、LLMのパフォーマンスに影響を与える可能性のあるエラーやバイアスがないことを確認することが非常に重要です。
  • **データ収集:** LLMSには、効果的なトレーニングのために大量のデータが必要です。組織は、LLMが実行するタスクに関連する多様で代表的なデータセットにアクセスできるようにする必要があります。
  • データストレージ:LLMは、モデルとトレーニングデータを保存するために多くのストレージスペースを必要とします。組織は、これらの大きなデータセットを保存するには、ネットワーク接続ストレージ(NAS)やクラウドベースのオブジェクトストレージなどの大容量ストレージソリューションにアクセスできるようにする必要があります。
  • データセキュリティ:LLMは、機密データについてトレーニングされる場合があります。データとLLMを保護するために、適切なセキュリティ対策が整っていることを確認する必要があります。
  • データアクセス:LLMは、トレーニング中および微調整中にトレーニングデータに頻繁にアクセスする必要があります。組織は、データが十分に整理され、安全に保存されていること、および必要に応じてLLMがデータにアクセスできることを確認する必要があります。
  • データバージョン化:トレーニングデータの複数のバージョンがLLMSのトレーニングに使用されることが多いため、異なるバージョンのデータを追跡して、再現性とトレーサビリティを確保することが重要です。

LLMを生産環境に展開する際のデータ管理戦略を設計するには、データ品質、データ収集、データストレージ、データセキュリティ、データアクセス、データバージョン管理などの要因を慎重に考慮する必要があります。これらの問題に対処することにより、組織はLLMの展開をサポートする堅牢なデータ管理戦略を確実に持つことができます。

3. セキュリティ

特にLLMが機密情報を含む可能性のある大量のデータでトレーニングされているため、セキュリティは大規模な言語モデルを生産環境に展開する場合に重要な考慮事項です。以下は、LLMを展開する際のいくつかの重要なセキュリティ上の考慮事項です。

  • データプライバシー:LLMは、個人情報、企業秘密、または機密のビジネス情報を含む機密データについてトレーニングされる場合があります。 LLMSのトレーニングに使用されるデータが匿名化および保護されていることを確認して、不正アクセスまたはデータの漏れを防ぎます。
  • アクセス制御:アクセス制御は、LLMSとそのデータの機密性、整合性、可用性を維持するために重要です。アクセス制御メカニズムを実装して、LLMSとそのデータへのアクセスを認定ユーザーとシステムのみに制限する必要があります。
  • 認証と承認:認証と承認のメカニズムを実装して、認証されたユーザーとシステムのみがLLMとそのデータにアクセスできるようにする必要があります。これは、強力なパスワード、2要素認証、およびその他のセキュリティ対策を介して実現できます。
  • 暗号化:暗号化を使用して、LLMと他のシステムまたはユーザーの間で送信されるLLMとデータをトレーニングするために使用される機密データを保護する必要があります。これには、安静時、輸送中、および使用中のデータの暗号化が含まれます。
  • 監視と監査:セキュリティの脅威と違反を検出して対応するために、監視と監査メカニズムを実装する必要があります。これには、アクセスログの監視、侵入検知システムの実装、定期的なセキュリティ監査の実行が含まれます。
  • 脆弱性管理:LLMとそのサポートインフラストラクチャのセキュリティギャップを特定して対処するために、脆弱性のスキャンと浸透テストを定期的に実行する必要があります。

大規模な言語モデル(LLMS)を生産環境に展開するには、データプライバシー、アクセス制御、認証と承認、暗号化、監視と監査、脆弱性管理などのセキュリティ対策を慎重に検討する必要があります。これらのセキュリティ上の懸念に対処することにより、組織はLLMとそのトレーニングデータが不正アクセス、違反、およびその他のセキュリティの脅威から保護されるようにすることができます。

4。監視とメンテナンス

監視とメンテナンスは、生産環境に大規模な言語モデル(LLM)を展開することの重要な側面です。 LLMSを監視および維持するためのいくつかの重要な考慮事項は次のとおりです。

  • パフォーマンス監視:パフォーマンス監視は、LLMの適切な機能を確保するための非常に重要な部分です。応答時間、スループット、精度などのパフォーマンスメトリックは、定期的に監視する必要があり、迅速に対処されたパフォーマンスの問題を監視する必要があります。
  • エラー監視:エラー監視は、LLMのエラーまたは障害をタイムリーに検出および解決するための非常に重要な部分です。エラーログとアラートを定期的に監視する必要があり、エラーは迅速に処理されます。
  • スケーラビリティ:LLMSは多数のリクエストを処理する必要がある場合があるため、需要に基づいて弾力的にスケールアップまたはダウンすることができることを確認してください。 LLMが高負荷の状況を処理できるようにするには、負荷テストとストレステストが必要です。
  • メンテナンス:ソフトウェアの更新、ハードウェアのアップグレード、データバックアップなどの定期的なメンテナンスが実行され、LLMとそのサポートインフラストラクチャが最新のままでスムーズに実行されるようにします。
  • セキュリティ監視:セキュリティ監視は、セキュリティの脅威または違反をタイムリーに検出および解決することの重要な部分です。ログとアラートを定期的に監視して、疑わしいアクティビティを検出し、セキュリティの問題を解決するために適切なアクションを実行する必要があります。
  • ユーザーフィードバック:ユーザーフィードバックは、LLMのパフォーマンスとユーザーエクスペリエンスを向上させるための貴重な洞察を提供できます。ユーザー調査またはフィードバックセッションは、改善のための方向を理解し、ユーザーの懸念に対処するために定期的に実施する必要があります。

監視とメンテナンスは、LLMを生産環境に展開する重要な側面です。定期的なパフォーマンスの監視、エラーモニタリング、スケーラビリティテスト、メンテナンスタスク、セキュリティ監視、ユーザーフィードバックは、LLMがスムーズに実行され、パフォーマンスがあり、ユーザーのニーズを満たすことを保証するのに役立ちます。

5。UI相互作用

ユーザーインターフェイス(UI)は、生産環境に大規模な言語モデルを展開する場合に重要です。 LLMユーザーインターフェイスを設計する際に考慮すべき重要な要素がいくつかあります。

  • 使いやすさ:UIは、使いやすく、直感的で、幅広いユーザーグループに適用できるように設計する必要があります。これには、クリアナビゲーション、シンプルな入力フィールド、レスポンシブデザインなどの機能が含まれます。
  • カスタマイズ可能性:ユーザーは、LLMを使用するためのさまざまなニーズと好みを持っている場合があります。フォントサイズ、配色、言語オプションなどのカスタマイズオプションを提供すると、ユーザーエクスペリエンスを向上させることができます。
  • 入力および出力形式:UIは、異なるユーザーのニーズに合わせて複数の入力形式と出力形式をサポートする必要があります。たとえば、ユーザーは音声認識を介してテキストを入力するか、ファイルをさまざまな形式でアップロードすることをお勧めします。
  • エラー処理:エラーメッセージとフィードバックは明確かつ簡潔である必要があり、ユーザーがエラーの原因を理解して修正するのに役立ちます。 UIは、エラーまたは代替入力オプションを修正するための提案も提供する必要があります。
  • 視覚化:チャート、グラフ、図などの視覚化方法は、ユーザーがLLMの出力をよりよく理解するのに役立ちます。 UIには、インタラクティブな視覚化ツールを含めるか、ユーザーが異なる形式で出力結果をダウンロードできるようにすることができます。
  • ヘルプと文書化:UIは、ユーザーがLLMをナビゲートおよび使用できるように、明確なドキュメントとヘルプオプションを提供する必要があります。これには、リアルタイムヘルプのためにユーザーマニュアル、FAQ、およびチャットボットが含まれます。

大規模な言語モデル(LLMS)のユーザーインターフェイスを設計するには、ユーザビリティ、カスタマイズ、入力、出力形式、エラー処理、視覚化、ヘルプおよびドキュメントオプションなどの要因を慎重に検討する必要があります。これらの問題に対処することにより、組織はLLMが使いやすく、使いやすく、ユーザーのニーズを満たすことを保証できます。 LLMSを生産環境に展開するには、インフラストラクチャ、データ管理、セキュリティ、監視とメンテナンス、ユーザーインターフェイスなど、いくつかの要因を慎重に計画し、考慮する必要があります。これらの要因に対処することにより、組織は正確で効率的で安全なLLMを展開できます。

6。展開プロセス

LLMを生産環境に展開するには、DockerとKubernetesを使用したコンテナ化、Flaskを使用したAPI設計など、いくつかのステップが含まれます。 LLMSを生産にプッシュするワークフローは、次のように要約できます。

  • LLMSの構築:LLMSを生産にプッシュする最初のステップは、モデルの構築です。これには、大規模なデータセットを使用してLLMをトレーニングし、必要な自然言語処理タスクに最適化することが含まれます。 LLMがトレーニングと最適化されたら、簡単に展開できる形式で保存する必要があります。
  • Dockerによるコンテナ化:次のステップは、Dockerを使用してLLMSをコンテナ化することです。 Dockerを使用すると、LLMSと必要なすべてのコンポーネントを1つのコンテナにパッケージ化する必要があり、さまざまな環境で簡単に移植できます。これにより、バージョンの競合や依存関係の欠落を心配することなく、LLMをさまざまな環境に簡単に展開できます。
  • 設計API :LLMがDockerを介してコンテナ化されると、次のステップはFlaskを使用してAPIを設計することです(会社のテクノロジーに従って選択できます)。 Flaskは、Restful APIをすばやく簡単に構築する軽量のWebフレームワークです。フラスコを使用して、APIエンドポイントを作成し、入力データを受信し、処理のためにLLMSに送信し、処理結果をクライアントに返すことができます。
  • APIをテストおよび監視することにより、LLMSを生産にプッシュする最後のステップは、APIをテストおよび監視することです。これには、APIの精度、スケーラビリティ、信頼性のテスト、およびリアルタイムでそのパフォーマンスの監視が含まれます。 LLMSおよびAPIエンドポイントのパフォーマンスは、Comet、Prometheus、Grafanaなどのツールを使用して監視および評価できます。このツールは、最も推奨されるツールです。

要するに、LLMSを生産環境に押し込むには、Dockerを使用したLLMのコンテナ化、Cometでの展開、Flaskを使用したAPIの設計、Cometを使用したAPIのテストと監視が必要です。このワークフローに従うことにより、R&DはLLMを迅速かつ簡単に生産環境に簡単に展開でき、スケーラブルで信頼性の高いAPIエンドポイントを介して強力な自然言語処理機能を提供できます。

パート3:大規模な言語モデルの最適化

大規模な言語モデルの最適化には、精度の向上、一般化機能の改善、特定のアプリケーションのパフォーマンスの向上など、いくつかの重要な考慮事項が含まれます。大規模な言語モデルを改善するためのいくつかの戦略は次のとおりです。

  • モデル容量の増加:層の数、ニューロンの数、または大規模な言語モデルの注意ヘッドの数を増やすことにより、モデルの精度を改善し、より複雑なデータパターンと関係を学習できるようにします。
  • データの増強:ランダムサンプリング、データの破壊、単語の交換などのデータ増強技術を使用すると、トレーニングデータの多様性と量を増やすことで、大規模な言語モデルの一般化能力が向上します。
  • マルチタスク学習:マルチタスク学習方法を使用し、大規模な言語モデルをトレーニングして複数のタスクを同時に処理すると、モデルのパフォーマンスと一般化機能が向上します。たとえば、言語翻訳とセンチメント分析などのタスクを同時に実行するために、さまざまなタスクでのモデルのパフォーマンスを向上させるために、大規模な言語モデルをトレーニングできます。
  • 転送学習:事前に訓練されたモデルを大規模な言語モデルの初期パラメーターとして使用し、特定のタスクまたはフィールドでの微調整トレーニングは、必要なトレーニングデータの量を減らし、特定のアプリケーションでモデルのパフォーマンスを向上させることができます。
  • 正規化テクノロジー:ドロップアウト、L1またはL2の正規化、早期停止などの正規化テクノロジーを使用すると、モデルの過剰適合を避け、大規模な言語モデルの一般化能力を向上させることができます。
  • 最適化テクノロジー:確率的勾配降下やAdam Optimizationアルゴリズムなどの最適化技術を使用すると、大規模な言語モデルのトレーニング効率と速度を改善し、パフォーマンスを向上させることができます。
  • モデルの微調整:事前に訓練された大規模な言語モデルを使用し、特定のタスクまたはデータセットで微調整するトレーニングを使用して、モデルの精度とパフォーマンスをさらに向上させます。

大規模な言語モデル(LLMS)の改善には、モデル容量の増加、データの増加、マルチタスク学習、転送学習、正規化技術、最適化技術、微調整など、さまざまな戦略が含まれます。トレーニング中にこれらの戦略を採用することにより、組織は特定のアプリケーションシナリオでLLMの精度、一般化能力、およびパフォーマンスを向上させることができます。

1.大規模な言語モデル(LLMS)を改善するためのいくつかのツールとライブラリ

LLMを改善するために選択できる多くのツールとライブラリがあります。一般的に使用されるツールとライブラリを次に示します。

  • Comet :Cometの機械学習プラットフォームは、既存のインフラストラクチャやツールと統合して、トレーニングから生産モニタリングまでモデルを管理、視覚化、最適化します。
  • Tensorflow :Tensorflowは、大規模な言語モデル(LLM)をトレーニングするための幅広いツールと機能を提供する人気のあるディープラーニングライブラリです。これには、高度な最適化手法、正規化手法、および微調整および転送学習に使用できる事前に構築されたモデルが含まれています。
  • Pytorch :Pytorchは、大規模な言語モデル(LLM)をトレーニングするために広く使用されているもう1つの人気のある深い学習ライブラリです。動的な計算グラフ、自動分化、およびLLMを構築およびトレーニングするための一連の組み込みモジュールを提供します。
  • 抱きしめるフェイストランス:ハギングフェイストランスフォーマーは、微調整およびトレーニングLLMのための事前に訓練されたモデルとツールを提供する人気のあるオープンソースライブラリです。これには、GPT-2やBertなどのさまざまな高度なモデル、テキスト生成、言語翻訳、センチメント分析のためのツールが含まれています。
  • allennlp :allennlpは、自然言語処理(NLP)モデルの構築とトレーニング用に設計されたPythonライブラリです。質問や回答、テキスト分類、名前付きエンティティ認識などの特定のタスク用の事前に構築されたモジュールが含まれています。
  • Openai GPT :Openai GPTは、特定のタスクまたはドメインの微調整を実行できる強力な事前訓練を受けた大型言語モデル(LLM)です。これには、テキスト生成、概要、言語翻訳に使用できるGPT-2やGPT-3などの事前に構築された一連のモデルが含まれています。
  • FairSeq :FairSeqは、NLPタスクの大規模な言語モデル(LLMS)をトレーニングするために使用できるシーケンスからシーケンスモデルのトレーニング用のオープンソースライブラリです。これには、事前に構築されたモデルと微調整および転送学習のためのツールが含まれており、分散トレーニングをサポートしています。
  • Tensorflowテキスト:Tensorflowテキストは、テキスト処理とNLPタスクのツールと機能を提供するTensorflow上に構築されたライブラリです。これには、トークン化、単語埋め込み、およびシーケンスモデリングのモジュールが含まれています。これは、大規模な言語モデル(LLM)をトレーニングするために使用できます。

Comet、Tensorflow、Pytorch、Hugging Face Transformers、Allennlp、Openai GPT、FairSeq、Tensorflowテキストなど、改善されたLLM(大規模な言語モデル)のための多くの強力なツールとライブラリがあります。これらのツールとライブラリを活用することにより、組織は、特定のNLPタスクとアプリケーションに適したより正確で効率的で適切なLLMを構築および訓練できます。

結論は

大規模な言語モデル(LLMS)のトレーニングと展開には、データの準備、モデルアーキテクチャ設計、モデルトレーニング、モデル評価、モデル展開、継続的な監視とメンテナンスなど、複数のステップが含まれます。 LLMの精度とパフォーマンスを向上させるために、組織はモデル容量の増加、データの増加、マルチタスク、転送学習、正規化技術、最適化技術、微調整などの戦略を採用できます。トレーニング中にこれらの戦略を適用することにより、組織とデータ科学者は、特定のアプリケーションでのLLMの精度、一般化能力、およびパフォーマンスを改善できます。慎重な計画と実装を通じて、組織は、さまざまな自然言語処理タスクとアプリケーションのために、非常に正確で効率的で効果的なLLMを構築および展開できます。

LLMは、自然言語処理の分野を変更する可能性がありますが、これらのモデルをトレーニングして改善するには、特定のスキルと知識が必要です。自然言語処理に対する需要の高まりに伴い、大規模な言語モデルは、機械学習とデータサイエンスにおいてますます重要な役割を果たしています。これらのモデルの最適化に関与する手法と方法を理解することにより、データサイエンティストは、より効率的で効率的な機械学習システムを構築するために、自然言語処理の可能性を完全に活用できます。

<<:  GPT のプログラミング バージョンは 30,000 スターに急上昇し、AutoGPT は危険にさらされています。

>>:  テスラがテスラAIのTwitterアカウントを開設、Dojoスーパーコンピューターの生産を来月開始すると発表

ブログ    
ブログ    
ブログ    

推薦する

AI時代のIVRテスト:人間と機械のギャップを埋める

対話型音声応答 (IVR) システムにおける人工知能 (AI) の変革的役割と、それが IVR テス...

...

マイクロソフトのオープンソースAIツールが古い写真に新たな命を吹き込む

序文GitHub Hot Trends Vol.046では、HGがMicrosoftのオープンソース...

パンデミックにより、AI のステータスは「欲しいもの」から「必須のもの」に変化したのでしょうか?

パンデミック以前は、AIの導入は世間の関心を集めていたものの、人々はまだAIの長所と短所、ビジネスへ...

拡散モデルはオートエンコーダです。ディープマインドの研究者は新しいアイデアを提案し、

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

GoogleのAIチップのアップグレード:大規模モデルと生成AIをターゲットとし、主流のディープラーニングフレームワークを統合

Google は、AI を使用して最適化された新世代の人工知能とインフラストラクチャの開発をリードす...

企業が AI 戦略を採用するための 8 つのヒント

人工知能技術は企業のビジネスに応用され、夢から現実へと変わりました。実際、最近の O'Rei...

Google、AIコードエディタIDXをリリース:クラウド仮想マシンで開発環境の構成を簡素化

Googleは8月9日、「Project IDX」プロジェクトを公開し、AI技術を統合したコードエデ...

ベイジアンネットワークを使用して病院の患者数を予測する

翻訳者|朱 仙中レビュー | Chonglou複雑さを乗り越える: 医療における患者数の予測医療にお...

BAIRは、3種類のモデルフリー強化学習アルゴリズムを組み合わせたRLコードライブラリrlpytをオープンソース化しました。

最近、BAIR は強化学習研究コードライブラリ rlpyt をオープンソース化しました。このライブラ...

53ページのPDFが広く出回り、中核社員が次々と退職。OpenAIにはどんな秘密があるのか​​?

「OpenAIが2027年にAGIを実現する」という53ページのPDFがインターネット上で広く流通...

顔認識は壊れているのでしょうか?心配しないでください。「フェイスプロテクションプラン」が始まります

かつて、顔認識は人々が非常に信頼する技術でした。生産と生活に利便性、効率性、正確性をもたらしたため、...

AIのリスクと安全性をどのように管理するのか?

AI モデルのトレーニングには、大規模で機密性の高いデータセットが使用されることが多く、プライバシ...

...

実践的 | この記事は、ディープラーニングをゼロから始めるのに役立ちます

この記事は、初心者の視点から始まり、真のゼロベースの視点から専門的なアドバイスとガイダンスを提供する...