データの品質は機械学習を成功させる鍵です

データの品質は機械学習を成功させる鍵です

翻訳者 | 張毅

校正 | 梁哲、孫淑娟

出典: frimufilms が作成したビジネス写真 - www.freepik.com

導入

人工知能は長い間人気があり、強力なサポートインフラストラクチャと高度なアルゴリズムを備えているだけでなく、市場での応用も幅広く増加しています。しかし、これだけでは機械学習 (ML) プロジェクトの実装が容易になるわけではありません。

出典: roserodionova が作成したチャットボットベクター - www.freepik.com

データ品質の問題も新しい概念ではなく、機械学習の応用が始まって以来、注目されてきました。マシンは履歴データから継続的に学習し、その結果の品質はトレーニング データの品質と密接に関係しています。

データ中心 vs. アルゴリズム中心

データ サイエンティストの仕事では、2 つの状況がよく発生します。初期の探索的データ分析を完了し、モデルのパフォーマンスに非常に満足しているものの、モデルの適用結果が十分ではなく、ビジネスで受け入れられないという状況です。この場合、R&D のコストと適時性を考慮して、次の計画は何でしょうか。

  • 誤った予測を分析し、それを入力データに関連付けることで、考えられる異常やこれまで見落とされていたデータ パターンを発見します。
  • あるいは、モデルがより複雑なアルゴリズムを使用する将来を見据えたアプローチを採用します。

つまり、マシンに適切な入力データを提供しなければ、最も高度で高精度な ML アルゴリズムであっても、あまり良い結果は得られません。 Andrew Ng 氏は、講演「MLOps: モデル中心からデータ中心の AI へ」でこのことを非常にわかりやすく説明しました。

データ品質評価

機械学習アルゴリズムには、トレーニング データの単一のビュー (つまり、フラットな構造) が必要です。ほとんどの組織は複数のデータベースを維持しているため、複数のデータ ソースを組み合わせて必要なすべての属性を抽出するデータ準備プロセスには、かなりの時間がかかり、人的リソースも大量に必要になります (専門の技術者が必要)。

このステップでは、発見された誤ったデータが複数のエラー源にさらされるため、確立されたロジックが正しく表現、理解、プログラム、実装されていることを確認するために、データの厳格なピアレビューが必要になります。

データベースが複数のソースからのデータを統合するにつれて、データの取得、クレンジング、変換、関連付け、統合に関連する品質の問題が重要になります。

データの準備、クリーニング、変換がモデル構築のほとんどの時間を占めるというのは、データ サイエンス業界ではおそらく一般的な見解でしょう。したがって、急いでモデルにデータを入力するのではなく、広範囲にわたるデータ品質チェックを実行することをお勧めします。データ チェックの量と種類は主観的になる可能性がありますが、データ品質評価におけるいくつかの重要な要素 (完全性、一意性、最新性、一貫性、正確性) について議論することが重要です。

データ品質を保証するテクノロジー:

  • 欠損値の補完
  • 外れ値検出
  • データ変換
  • 次元削減
  • クロス検証
  • ブートストラップアルゴリズム

品質!品質!品質!

データ品質を向上させる方法を見てみましょう。

  • 異なる注釈:データは複数のソースから収集されます。ベンダーによってデータの最終用途に対する理解が異なり、データの収集とラベル付けに対するアプローチも異なります。同じデータサプライヤー内であっても、監督者が要件を把握し、それをさまざまなチームメンバーに発行する場合、チームメンバー全員が自分の理解に従ってラベル付けするため、ラベル付けの方法は無数に存在することになります。

サプライヤー側の品質チェックと消費者側の共通理解は、均一なラベルの形成に役立ちます。

  • 異なるレコード:モデルのトレーニング データに対する異なるクラスタリングおよび変換操作は、重要な影響を及ぼします。たとえば、スライド平均の計算、空の値の埋め戻し、欠損値の推定などです。これには、その分野の専門家による検証が必要です。
  • 欠損データをどのように処理しますか?体系的に欠損したデータは、偏ったデータセットにつながる可能性があります。さらに、NULL 値や欠損値の多いデータから属性 (性別や人種など) を削除すると、特定の母集団を代表するデータが削除される可能性があります。したがって、誤って表現されたデータは偏った結果を生み出します。これは、モデル出力レベルで欠陥があるだけでなく、AI の責任ある使用に関する倫理的かつ公正な原則にも反するものです。欠落している属性を見つける別の方法は、「ランダム」です。欠損値が多いために重要な属性を盲目的に削除すると、モデルの予測力が低​​下したり、モデルに損害を与えたりする可能性があります。欠損値を補完する最も一般的な方法は、類似の次元またはレベル全体のデータの平均を計算することです。
  • フラット構造:ほとんどの組織には集中型データベースが存在せず、構造化データの欠如は意思決定に機械学習モデルを採用する際の主要な問題の 1 つです。たとえば、サイバーセキュリティ ソリューションでは、過去のサイバー攻撃や脅威に関するアルゴリズムをトレーニングするために、複数のソース (ネットワーク、クラウド、エンドポイントなど) からのデータを単一のビューに正規化する必要があります。

大規模なデータを理解する

データ品質が低下する可能性があるいくつかの重要な領域について説明したので、TensorFlow を使用して大規模なデータを理解する方法を見てみましょう。

  1. TFDV を使用して統計分析を実行し、データの統計分布 (平均、最小値 (min)、最大値 (max)、標準偏差など) を表示します。
  2. 特性、値、データ型などのデータ スキーマを理解することが重要です。
  3. データの分布を理解したら、異常な動作を追跡することも重要です。 TFDV はドメイン外の値を強調表示し、エラーの検出をガイドします。
  4. トレーニング データとテスト データの分布を重ね合わせることで、トレーニング データとテスト データ間のドリフトを表示します。

TensorFlow のドキュメントでは、TFDV を使用してデータを分析し、その品質を向上させる方法が説明されています。興味がある場合は、コラボレーション プラットフォーム Colab の TFDV コードをデータセットで使用してみてください。

Google はこの Colab プラットフォームでコードの一部を共有しました。このコードは、次のようにタクシーの数値データとカテゴリ データの統計分析を実行します。

右側に表示される欠損値の割合は、データをよりよく理解するのに役立ちます。

pickup_census_tract は、ML モデルにとって意味がなく、EDA アルゴリズムを使用してフィルタリングできる、完全に欠損した値を持つレコードを表します。

データ ドリフトは、モデルのデプロイ時に避けられない現象です。トレーニング データとテスト データの間で発生する場合もあれば、トレーニング データから数日後に発生する場合もあります。

ML アルゴリズムは、トレーニング データとテスト データの特性が類似しているという仮定の下で実行され、この仮定に違反するとモデルのパフォーマンスが低下します。

参考文献

Tensorflow データ検証を始める

翻訳者紹介

Zhang Yi、51CTO コミュニティ エディター、中級エンジニア。主な研究は、人工知能アルゴリズムの実装とそのシナリオアプリケーションです。機械学習アルゴリズムと自動制御アルゴリズムについてある程度理解し、習得しています。国内外の人工知能技術の発展動向、特にインテリジェントコネクテッドカー、スマートホームなどの分野における人工知能技術の具体的な実装と応用に引き続き注目していきます。

原題:機械学習モデルを成功に導くデータ品質の重要性、著者: Vidhi Chugh


<<:  コンピュータマスターのジレンマ!試験に合格するのは難しく、仕事を見つけるのも難しい

>>:  2021 年の Python 機械学習ライブラリ トップ 10

推薦する

2022QSリスト公開! MITがコンピュータサイエンスランキングでトップ、清華大学は15位、北京大学はトップ20から脱落

2022年QS世界大学分野別ランキングが発表されました!全体的には、21年前と比べて大きな変化はあり...

DeepSpeechを使用してアプリ内で音声をテキストに変換する

アプリでの音声認識は単なる楽しい機能ではなく、重要なアクセシビリティ機能です。コンピュータの主な機能...

マスク氏の最新チップ:脳とコンピューターの相互作用に特化し、視覚障害者が「見る」ことを可能にする

自分で認めなさい!マスク氏のニューラリンクはチップを開発している。この技術は「数年以内」にリリースさ...

...

...

ChatGPTはプログラミングの楽しさを殺している

長年にわたり、プログラミングは私の人生における最も重要な喜びの源の 1 つでしたが、この喜びがどれだ...

...

自然言語処理における大きな前進: Word2Vec モデルを適用して単語ベクトル表現を学習する

一般的な自然言語処理システムでは、単語のエンコードは任意であるため、個々の記号間の可能な関係に関する...

アリババのロボットが200語のエッセイを修正し、8つの間違いを発見

最近、浙江外国語大学国際学院で、アリババAIが試験の採点を完了し、200語のエッセイに8つの誤りを発...

データ拡張とは何ですか?

十分なトレーニング データがあれば、機械学習モデルは非常に優れたパフォーマンスを発揮します。残念なが...

TypeScript 実践アルゴリズムシリーズ (XII): Map と HashMap の実装

この記事では、辞書とハッシュテーブルの実装のアイデアを詳しく説明し、TypeScript を使用して...

双子: 効率的な視覚的注意モデルの設計を再考する

著者 | 湘湘天志 張波 他Twins は Meituan とアデレード大学が提案した視覚的注意モデ...

成功するビジネス インテリジェンス戦略を開発する方法

ビジネス インテリジェンス戦略の策定は、企業が検討する必要がある重要なステップであり、ビジネス イン...

ガートナー: 2019 年新興テクノロジー ハイプ サイクル

2019 年新興テクノロジー ハイプ サイクルでは、今後 5 ~ 10 年でビジネス、社会、人々の生...