DA テクノロジーは、まず自己組織化特徴マッピングに基づくクラスタリング テクノロジーを適用します。つまり、自己組織化特徴マッピング ニューラル ネットワークを使用してソース ドメインとターゲット ドメインのサンプルをクラスタリングし、次に 2 レベルのクラスタ マッピング メソッドを使用して、サンプル分布の類似性が最も高いターゲット ソース クラスタを識別します。自動エンコーディング戦略を使用して、ソースドメインに従って類似のターゲット クラスターのグループからのサンプルを変換し、トレーニング セットとテスト セットを構築し、最後に人工ニューラル ネットワーク分類器に基づいて分類します。
リモート センシング アプリケーションの主な課題は、ターゲット ドメイン サンプルの確率分布がソース ドメイン サンプルの確率分布と異なることです。ただし、ターゲット ドメインの分布は、ソース ドメインからの多数のラベル付きサンプルのみを使用してモデル化する必要があります。
a. ソース分類器のパラメータを調整して、ターゲット ドメインからのラベルなしサンプルを分類します。ソース ドメインから伝播するノイズ、外れ値、固有の特徴に問題があります。 b. ターゲットドメインの特徴を分類器のトレーニングセットに組み込む
a. 最初のカテゴリでは、サンプルが 2 つのドメインから分布の違いを相殺できる同一のサブスペースに直接変換されることを強調します。 b. 2 番目のカテゴリは転移学習です。これは、ソース ドメインのサンプルを使用して、ターゲット ドメインから最も情報量の多い、または最も多様なサンプルを選択します。 研究方法: a. 2レベルクラスターマッピング: 最初のレベルでは、t 番目のターゲット クラスターと s 番目のソース クラスターの特徴の差がそれぞれ計算されます。次に、t 番目のターゲット クラスターが、特徴の差が最も小さい j 番目のソース クラスターとペアになります。これに加えて、すべてのペアになったターゲット クラスターとソース クラスターのペアに対して信頼度尺度が計算されます。第 2 段階では、半自動しきい値選択アルゴリズムを使用して、最も類似したソース ターゲット クラスターのペアと類似していないソース ターゲット クラスターを分離し、最も類似したターゲット ソース クラスターのペアのみを保持し、残りのペアは類似していないクラスターとして除外します。 具体的には、オートエンコーダーは、対応するソース クラスターに従って、最も類似したペアのターゲット クラスターからのサンプルを変換します。類似しないターゲット クラスターの場合、クラスターの中心に最も近い r 個のサンプルがラベル付き代表値 (最終トレーニング セット内のターゲット領域の分布特性に関する情報を含む) として選択され、転移学習プロセスを使用してラベル付けされます。 セカンダリ クラスター マッピング フローチャート b. 自己組織化特徴マッピング(SOM) 自己組織化ニューラルネットワーク: 入力層は外部からの入力情報を知覚する網膜をシミュレートし、出力層はそれに反応する大脳皮質をシミュレートします。 主なタスクは依然として「分類」と「クラスタリング」であり、前者は教師あり、後者は教師なしです。クラスタリングは、ターゲット サンプルを分類することと見なすこともできますが、事前の知識がなくても、類似のサンプルを集約し、類似しないサンプルを分離することが目的です。 ネットワークの出力ニューロンはアクティブ化されるために互いに競合するため、特定の瞬間にアクティブ化される出力ニューロンは 1 つだけです。活性化されたニューロンは勝利ニューロンと呼ばれ、他のニューロンの状態は抑制されます。 自己組織化特徴マップ構造 自己組織化機能マッピングの手順
勝利した近傍は最初は大きいですが、トレーニングの実行回数が増えるにつれてそのサイズは縮小し、最終的には半径がゼロになります。 c. ANNベースの分類器 多層パーセプトロン (MLP) MLP は、1 つ以上の隠し層を持つフィードフォワード ニューラル ネットワークであり、期待クラス ラベルと予測クラス ラベル間の二乗誤差の合計を最小化することで、連続する層のニューロン間のノード接続の重みを調整します。主に使用されるのは、ラジアル基底関数 (RBF)、楕円基底関数 (EBF)、および RBF の拡張です。 分類フローチャート d. ラジアル基底関数ニューラルネットワーク 利点: 近似能力、分類能力、学習速度が優れ、学習収束速度が速く、あらゆる非線形関数を近似でき、局所最小値問題を克服できます。 (その理由は、パラメータがランダムではなく特定の方法で初期化されるためです。) 基本的な考え方は、RBF を隠れユニットの「基礎」として使用して、隠れ層空間を形成することです。隠れ層は、入力ベクトルを変換して、入力ベクトルを直接 (重み接続なしで) 潜在空間にマッピングできるようにします (低次元パターン入力データは高次元空間に変換されるため、低次元空間での線形分離不可能な問題は、高次元空間で線形分離可能になります)。隠れ層空間から出力空間へのマッピングは線形です。つまり、ネットワーク出力は隠れユニット出力の線形加重合計であり、ここでの重みはネットワーク調整可能なパラメータです。 |
<<: 機械学習により、脳とコンピューターのインターフェースが「プラグアンドプレイ」になります。 Natureサブジャーナル:麻痺患者もカーソルを制御できる
>>: ブラウザで TensorFlow を使用するにはどうすればいいですか?
2017年に人工知能が国家戦略目標となって以来、関連産業は急速な発展の機会を迎え、世界で最も収益性の...
[[266600]] 2019年5月24日から25日まで、Yixue Education-Squi...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
「Python を学ぶ大きな楽しみの 1 つは、人工知能を学ぶことです。Lao K が GitHub...
[[328766]]今後 3 ~ 5 年で、機械学習のどの分野の人材が最も不足するでしょうか?今日...
最近、「重慶の人気列車がドローンに衝突され停止」する動画がインターネット上で広く出回っている。 [[...
人気のSF小説で「機械知能の台頭」が描かれる場合、通常はレーザーや爆発が伴い、軽度な場合には軽い哲学...
人工知能は、知能機械や機械知能とも呼ばれ、人間が作った機械が示す知能を指します。人工知能は、医療、テ...
[[187530]]人工知能 (AI) がどのように未来を予測し、職場を変え、さらには雇用を生み出...
昨年から、AIの普及に関わる仕事がたくさん必要になりました。私は長い間、ディープラーニングがなぜ特に...
チューリングテストは時代遅れですか? DeepMind の創設者 Mustafa Suleyman ...