まずは機械学習から始めましょう

まずは機械学習から始めましょう

この記事では、機械学習について簡単に紹介します。この記事の目的は、機械学習の知識がない人が機械学習を理解し、関連する実践を始められるようにすることです。このドキュメントは、EasyPR の開発のサイドストーリーと言えます。ここからは、EasyPR のコア部分をさらに紹介する前に、機械学習について理解する必要があります。もちろん、この記事も一般読者を対象としており、読むための前提条件はありません。

本題に入る前に、読者の皆さんは次のような疑問を抱いていると思います。この非常に長い記事を読む価値がある機械学習の重要性とは何でしょうか?

以前、この質問に直接答えていませんでした。代わりに、2 枚の写真を見ていただきたいと思います。次の写真は 1 枚目です。

図1: 機械学習界のリーダーとインターネットの巨人たちの結婚

この写真の 3 人は、今日の機械学習分野のリーダーです。中央はカナダのトロント大学の教授で、現在はGoogle Brainの責任者を務めるジェフリー・ヒントン氏。右はニューヨーク大学の教授で、現在はフェイスブックの人工知能研究所の所長を務めるヤン・ルカン氏。左の人物は誰もが知っているアンドリュー・ン氏。中国名はウー・エンダ。スタンフォード大学の准教授。現在は「百度脳」の責任者で、百度の主任科学者でもある。この 3 名は現在業界で最も注目されており、インターネット大手各社が熱心に採用していることからも、その重要性がうかがえます。彼らの研究の方向性はすべて機械学習、つまりディープラーニングのサブカテゴリです。

以下は図2です。

図2 音声アシスタント製品

この写真に描かれているのは、Windows Phone の音声アシスタントである Cortana です。Halo のマスターチーフのアシスタントにちなんで名付けられました。他の競合他社と比較すると、Microsoft はこのサービスを非常に遅れて開始しました。 Cortana の背後にあるコアテクノロジーとは何ですか? また、なぜ人間の音声を理解できるのでしょうか? 実は、このテクノロジーは機械学習です。機械学習は、すべての音声アシスタント製品(Apple の Siri や Google の Now を含む)が人と対話できるようにする重要なテクノロジーです。

上の 2 つの図から、機械学習は多くの未知の特性を持つ非常に重要な技術であることがわかると思います。それを学ぶのは興味深い仕事のように思えます。実際、機械学習を学ぶことは、インターネット業界の最新動向を理解するのに役立つだけでなく、私たちに伴う便利なサービスの実装技術を知ることにも役立ちます。

機械学習とは何でしょうか。そして、なぜそれが魔法のようなのでしょうか。この記事では、これらの質問に答えることを目指しています。同時に、この記事は「機械学習を始めよう」というタイトルなので、機械学習に関するあらゆる内容を、分野(データマイニング、コンピュータービジョンなど)、アルゴリズム(ニューラルネットワーク、SVM)なども含めてチャット形式で紹介します。この記事の主な内容は次のとおりです。

1. 機械学習とは何かを説明する物語 2. 機械学習の定義 3. 機械学習の範囲 4. 機械学習の方法 5. 機械学習の応用 - ビッグデータ 6. 機械学習のサブカテゴリ - ディープラーニング 7. 機械学習のスーパーカテゴリ - 人工知能 8. 機械学習について考える - コンピュータの潜在意識 9. まとめ 10. あとがき

1. 機械学習とは何かを説明する物語

機械学習という用語は紛らわしいです。まず、これは英語名の Machine Learning (略して ML) の直訳です。コンピューティングの世界では、Machine は一般にコンピューターを指します。この名前は擬人化されており、この技術が機械に「学習」させる技術であることを示しています。しかし、コンピューターは死んでいるのに、どうすれば人間のように「学習」できるのでしょうか?

従来、コンピューターを動作させたい場合、一連の命令をコンピューターに与え、コンピューターはこれらの命令に段階的に従います。原因と結果があり、それは非常に明白です。しかし、このアプローチは機械学習では機能しません。機械学習はユーザーからの指示を一切受け入れません。代わりに、ユーザーからのデータを受け入れます。言い換えれば、機械学習はコンピューターが指示ではなくデータを使用してさまざまなタスクを実行する方法です。信じられない話に聞こえますが、実は非常に実現可能であることがわかりました。 「機械学習」に関連する概念を学ぶときは、常に「統計的」思考が伴います。因果関係ではなく相関関係の概念が、機械学習の作業をサポートする中核概念になります。これまでのすべてのプログラムで確立した因果関係の基本的な概念を覆すことになります。

以下では、機械学習とは何かをストーリーを通じて簡単に説明します。この物語は、概念の説明として知乎で使用するのに適しています。ここでは、ストーリーは拡張されていませんが、関連するコンテンツとコアはそこにあります。機械学習とは何かを簡単に理解したいのであれば、この記事を読むだけで十分です。機械学習とそれに密接に関連する最新のテクノロジーについてさらに詳しく知りたい場合は、引き続きお読みください。後ほど、さらに豊富なコンテンツがあります。

この例は私の実際の経験から来ています。この問題について考えていたとき、そのプロセスは完全な機械学習プロセスに拡張できることに突然気づいたので、この例をすべての紹介の始まりとして使用することにしました。この物語は「待つことの問題」と呼ばれています。

誰かと約束をして、その後誰かを待った経験は誰にでもあると思います。現実には、誰もが時間厳守というわけではないので、遅刻しがちな人に出会うと、必然的に時間が無駄になってしまいます。私もそのような例に遭遇したことがあります。

私の友人の一人、シャオ・Yは時間に正確ではなく、最もよく現れる症状は、彼がよく遅刻することです。ある時、彼と午後3時にマクドナルドで会う約束をしたとき、ドアから出た瞬間に突然疑問が浮かびました。今出発するのは適切だろうか? 店に着いてから30分も彼を待たなければならないだろうか? 私はこの問題を解決するために戦略を立てることにしました。

この問題を解決する方法はいくつかあります。最初のアプローチは知識を使うことです。つまり、この問題を解決できる知識を探します。しかし残念なことに、どのように人を待つかという問題を教えてくれる人は誰もいないので、この問題を解決するための既存の知識を見つけることは不可能です。 2 番目の方法は、他の人に尋ねることです。他の人にこの問題を解決する能力を身につけてもらうように頼みます。しかし、おそらく誰も私と同じ状況に遭遇していないので、誰もこの質問に答えることはできません。 3 番目の方法はルール メソッドです。この問題に対処するために何かルールを設定しましたか? たとえば、他の人が何をしても、私は時間どおりに到着します。しかし、私は厳格な人間ではないので、そのようなルールは設けていません。

実際、これら 3 つよりも適切なアプローチがあると思います。私はシャオ・Yとの過去の約束を頭の中で再現し、彼が遅刻した回数の割合を確認した。そして私はこれを利用して、今回彼が遅刻する可能性を予測しました。この値が私の心の中で一定の限度を超えた場合は、しばらく待ってから再び出発することを選択します。私が Xiao Y と 5 回約束をしていて、彼が 1 回遅れたとします。この場合、彼が時間通りに到着する割合は 80% で、私の閾値は 70% です。今回は Xiao Y が遅れることはないと思うので、時間通りに出かけます。 Xiao Y が 5 回のうち 4 回遅刻した場合、定刻通りに到着する割合は 20% になります。この値はしきい値よりも低いため、出発時間を延期することにしました。この方法は、その利用の観点から、経験的方法とも呼ばれます。経験的手法に基づいて考えていく過程で、実は過去の類似データもすべて活用しました。そのため、データに基づいた判断とも言えます。

データに基づいて下される判断は、機械学習の考え方と根本的に一致しています。

先ほどの思考プロセスでは、「周波数」という属性のみを考慮しました。実際の機械学習では、これはアプリケーションとは見なされない可能性があります。一般的な機械学習モデルでは、少なくとも 2 つの量を考慮します。1 つは従属変数で、予測したい結果です。この例では、Xiao Y が遅れているかどうかの判断です。もう 1 つは独立変数で、Xiao Y が遅刻するかどうかを予測するために使用される量です。時間を独立変数としてとるとします。たとえば、Xiao Y が遅刻する日はほとんど金曜日ですが、金曜日以外に遅刻することはほとんどありません。そこで、Xiao Y が遅刻するかどうか、その日が金曜日かどうかの確率をシミュレートするモデルを構築できます。下の図を参照してください。

図3 決定木モデル

このようなグラフは、決定木と呼ばれる最も単純な機械学習モデルです。

独立変数を 1 つだけ考慮すると、状況はより簡単になります。独立変数をもう 1 つ追加します。例えば、Xiao Y が遅れたのは、彼が運転してここに来たときでした (これは彼の運転技術が悪かったか、道路が混雑していたためだと理解できます)。そうすれば、この情報を文脈の中で考えることができます。 2 つの独立変数と 1 つの従属変数を含む、より複雑なモデルを構築します。

さらに複雑なことに、Xiao Y の遅刻は天気にも関係しています。たとえば、雨が降った場合、3 つの独立変数を考慮する必要があります。

Xiao Y が遅れる具体的な時間を予測できるようにしたい場合は、毎回の遅刻時間と降雨量、および上で検討した独立変数を組み合わせてモデルを構築できます。したがって、私のモデルは、彼が何分遅れるかなどの値を予測できます。これにより、外出時の時間をより適切に計画できるようになります。このような場合、決定木は離散値しか予測できないため、うまく機能しません。このモデルを構築するには、セクション 2 で紹介した線形回帰法を使用できます。

モデル構築プロセスをコンピューターに任せれば。たとえば、独立変数と従属変数をすべて入力し、コンピューターにモデルの生成を手伝わせます。同時に、現在の状況に基づいて、後で外出する必要があるかどうか、何分後に外出する必要があるかについてコンピューターに提案してもらいます。コンピュータがこれらの補助的な決定を実行するプロセスが機械学習のプロセスです。

機械学習方式とは、コンピュータが既存のデータ(経験)を使ってあるモデル(遅刻のパターン)を導き出し、そのモデルを使って未来(遅刻するかどうか)を予測する方法です。

上記の分析から、機械学習は人間の思考の経験的プロセスに似ていますが、より多くの状況を考慮し、より複雑な計算を実行できることがわかります。実際、機械学習の主な目的の 1 つは、人間が思考し、経験を要約するプロセスを、データを処理してコンピューターがモデルを計算するプロセスに変換することです。コンピューターで生成されたモデルは、人間と同様の方法で、多くの柔軟かつ複雑な問題を解決できます。

次に、定義、範囲、方法、アプリケーションなど、機械学習の正式な紹介を始めます。

2. 機械学習の定義

機械学習とは、広義では、直接プログラミングでは実現できない機能を機械が学習して実行できるようにする手法です。しかし実際的な意味では、機械学習はデータを使用してモデルをトレーニングし、そのモデルを使用して予測を行う方法です。

例を見てみましょう。

図4 住宅価格の例

国民的な話題である「家」を例に挙げてみましょう。今、売却しなければならない家があります。いくらにしたらいいでしょうか?家の面積は100平方メートルです。価格は100万、120万、それとも140万でしょうか?

当然ですが、住宅価格と面積の間に何らかのパターンが見られることを期待しています。では、このパターンをどうやって得るのでしょうか? 新聞の平均住宅価格データを使用するのでしょうか? それとも、同様のエリアにある他の人の家を参照するのでしょうか? いずれにしても、信頼性が低いようです。

私は現在、地域と住宅価格の関係を最もよく反映できる合理的な法律を取得したいと考えています。そこで私は、自分の家と似たような近隣の家をいくつか調査し、一連のデータを入手しました。このデータセットには、あらゆるサイズの家の面積と価格が含まれています。このデータセットから面積と価格のパターンを見つけることができれば、家の価格を計算できます。

パターンを見つけるのは非常に簡単です。すべてのポイントを「通過」し、各ポイントからの距離が可能な限り小さくなるように直線を当てはめるだけです。

この直線を通じて、住宅価格と面積の関係を最もよく反映する規則が得られました。この行は次のように表現される関数でもあります。

住宅価格 = 面積 * a + b

上記では、a と b は線のパラメータです。これらのパラメータがわかれば、家の価格を計算できます。

a = 0.75、b = 50 と仮定すると、住宅価格は 100 * 0.75 + 50 = 125 万となります。この結果は、先ほど挙げた 100 万、120 万、140 万とは異なります。この直線はほとんどの状況を考慮に入れているため、「統計的」な意味では最も合理的な予測となります。

解決プロセス中に、次の 2 つの情報が明らかになりました。

1) 住宅価格モデルは、適合される関数の種類によって決まります。直線の場合、近似方程式は直線方程式になります。放物線などの別の種類の線の場合は、放物線の方程式が当てはめられます。機械学習には多くのアルゴリズムがあります。強力なアルゴリズムの中には、複雑な非線形モデルを適合させて、直線では表現できない状況を反映できるものもあります。

2) データが多いほど、モデルが考慮できる状況が増え、新しい状況をより正確に予測できるようになります。これは、機械学習コミュニティにおける「データこそ王様」という考え方を反映しています。一般的に言えば(絶対ではありませんが)、データが多いほど、機械学習によって生成されたモデルの予測効果は高くなります。

直線を当てはめるプロセスを通じて、機械学習のプロセスを完全にレビューすることができます。まず、履歴データをコンピューターに保存する必要があります。次に、このデータを機械学習アルゴリズムで処理します。このプロセスは、機械学習では「トレーニング」と呼ばれます。処理結果を使用して、新しいデータを予測できます。この結果は一般に「モデル」と呼ばれます。新しいデータについて予測を行うプロセスは、機械学習では「予測」と呼ばれます。 「トレーニング」と「予測」は機械学習における2つのプロセスであり、「モデル」はそのプロセスの中間出力結果です。「トレーニング」は「モデル」を生成し、「モデル」は「予測」を導きます。

機械学習のプロセスと人間が歴史的経験を要約するプロセスを比較してみましょう。

図5: 機械学習と人間の思考の類似性

人間は成長し、生きていく過程で多くの歴史と経験を積み重ねてきました。人間は定期的にこれらの経験を「一般化」し、人生の「法則」を獲得します。人間は、未知の問題に遭遇したり、将来について「推測」する必要が生じたりしたときに、これらの「法則」を利用して、未知の問題や将来について「推測」し、それによって人生や仕事を導きます。

機械学習における「トレーニング」と「予測」のプロセスは、人間の「誘導」と「推論」のプロセスに相当します。このような対応を通じて、機械学習の考え方は複雑なものではなく、人生における人間の学習と成長をシミュレーションしたものにすぎないことがわかります。機械学習はプログラミングの結果に基づいていないため、その処理プロセスは因果論理ではなく、帰納的思考によって導き出された相関結論です。

これは、人間が歴史を学ぶ必要がある理由とも関連しています。歴史とは、実際には人間の過去の経験の要約です。 「歴史はしばしば異なるが、いつも驚くほど似ている」ということわざがあります。歴史を学ぶことで、歴史から人生と国の法則を要約することができ、次の仕事の指針となるので、非常に価値があります。現代人の中には、歴史の本来の価値を無視し、それを業績宣伝の手段として利用する人がいますが、これは歴史の真の価値を誤用していることになります。

3. 機械学習の範囲

上記の記事では機械学習とは何かについて説明していますが、機械学習の範囲については説明されていません。

実際、機械学習は、パターン認識、統計学習、データマイニング、コンピュータービジョン、音声認識、自然言語処理などの分野と深いつながりがあります。

機械学習は、その範囲において、パターン認識、統計学習、データマイニングと類似しています。同時に、機械学習と他の分野の処理技術の組み合わせにより、コンピュータービジョン、音声認識、自然言語処理などの学際的な科目が形成されています。したがって、一般的にデータマイニングについて話す場合、それは機械学習と同一視することができます。同時に、私たちが普段話題にしている機械学習アプリケーションは、構造化データに限定されるのではなく、画像や音声などのアプリケーションも含む、普遍的なものであるべきです。

このセクションで機械学習の関連分野を紹介することで、機械学習の応用シナリオと研究範囲を明確にし、その後のアルゴリズムと応用レベルをより深く理解できるようになります。

下の図は、機械学習に関係するいくつかの関連分野と研究分野を示しています。

図6 機械学習と関連分野

パターン認識

パターン認識 = 機械学習。両者の主な違いは、前者は業界から開発された概念であるのに対し、後者は主にコンピューターサイエンスに由来する点です。有名な書籍「パターン認識と機械学習」の中で、クリストファー・M・ビショップは冒頭で次のように述べています。「パターン認識は産業界から生まれ、機械学習はコンピュータサイエンスから生まれました。しかし、それらの活動は同じ分野の2つの側面と見なすことができ、過去10年間で大きな進歩を遂げてきました。」

データマイニング

データマイニング = 機械学習 + データベース。データマイニングの概念は近年非常によく知られるようになりました。誇大広告とほぼ同等です。データマイニングについて話すとき、人々はデータから金塊を掘り出すとか、捨てられたデータを価値あるものに変えるなど、データマイニングがいかに素晴らしいかを自慢します。しかし、金を掘り出すこともあるが、「石」を掘り出すこともある。つまり、データ マイニングは単なる考え方であり、データから知識を掘り出すように努めるべきだが、すべてのデータが金を生み出すわけではないので、データを神格化すべきではない、ということです。データマイニングモジュールがあるだけでは、システムが万能になることは決してありません(これはIBMが最も自慢していることです)。逆に、データマイニング思考を持つ人が鍵となり、データからパターンを導き出してビジネスの改善に導くことができるように、データに対する深い理解も必要です。データマイニングのアルゴリズムのほとんどは、データベース内の機械学習アルゴリズムの最適化です。

統計学習

統計学習は機械学習とほぼ同等です。統計学習は機械学習と非常に重なり合う分野です。機械学習の手法のほとんどは統計学に由来しているため、統計学の発展が機械学習の繁栄を促進したとも言えます。たとえば、有名なサポートベクターマシンアルゴリズムは統計学から生まれました。しかし、ある程度、両者の間には違いがあります。違いは、統計学習者は統計モデルの開発と最適化に重点を置いており、これはより数学的ですが、機械学習の研究者は問題を解決できることに重点を置いており、これはより実用的です。したがって、機械学習の研究者は、コンピューター上で実行される学習アルゴリズムの効率と精度を向上させることに焦点を当てます。

コンピュータビジョン

コンピュータービジョン = 画像処理 + 機械学習。画像処理技術は、画像から関連するパターンを識別する役割を担う機械学習モデルに適した入力に画像を処理するために使われます。 Baidu 画像認識、手書き文字認識、ナンバープレート認識など、コンピューター ビジョンに関連するアプリケーションは数多くあります。この分野は、非常に有望な応用の見通しがあり、人気のある研究方向でもあります。機械学習の新分野であるディープラーニングの発展により、コンピュータ画像認識の効果は大きく促進され、コンピュータビジョンの将来の発展の見通しは計り知れません。

音声認識

音声認識 = 音声処理 + 機械学習。音声認識は、音声処理技術と機械学習を組み合わせたものです。音声認識技術は、通常単独で使用されることはなく、関連する自然言語処理技術と組み合わせて使用​​されます。現在の関連アプリケーションとしては、Apple の音声アシスタント Siri などがあります。

自然言語処理

自然言語処理 = テキスト処理 + 機械学習。自然言語処理技術は、主に機械が人間の言語を理解できるようにする分野です。自然言語処理技術では、字句解析、構文解析など、コンパイル原理に関する技術が多数使用されています。また、理解のレベルでは、意味理解、機械学習などの技術が使用されています。自然言語処理は、人間自身が作り出した唯一の記号であるため、機械学習コミュニティでは常に研究の方向性となってきました。 Baidu の機械学習の専門家 Yu Kai 氏によると、「はっきり言って、聞くことと見ることは猫や犬にもできることですが、言語だけは人間に特有です。」機械学習技術をどのように活用して自然言語を深く理解するかは、常に産業界と学界の焦点となってきました。

機械学習は多くの分野で拡張され、応用されていることがわかります。機械学習技術の発展は、多くのインテリジェント分野の進歩を促進し、私たちの生活を向上させました。

4. 機械学習の手法

前のセクションの紹介を通じて、機械学習の一般的な範囲がわかりました。では、機械学習には古典的なアルゴリズムがいくつあるのでしょうか。このセクションでは、機械学習における古典的な代表的な方法を簡単に紹介します。このセクションでは、これらの方法の基礎となる考え方に焦点を当てます。数学的および実用的な詳細についてはここでは説明しません。

(1)回帰アルゴリズム

ほとんどの機械学習コースでは、回帰アルゴリズムが最初に紹介されます。理由は2つあります。1. 回帰アルゴリズムは比較的単純なので、これを導入することで統計から機械学習へのスムーズな移行が可能になります。 2. 回帰アルゴリズムは、いくつかの強力なアルゴリズムの基礎です。回帰アルゴリズムを理解しなければ、それらの強力なアルゴリズムを習得することはできません。回帰アルゴリズムには、線形回帰とロジスティック回帰という 2 つの重要なサブクラスがあります。

線形回帰は、先ほど述べた住宅価格の問題です。すべてのデータに最もよく一致する直線をどうやって作ればよいでしょうか? 一般的には、これを解くために「最小二乗法」が使用されます。 「最小二乗法」の考え方は次のとおりです。適合する直線はデータの真の値を表し、観測されたデータは誤差のある値を表すと仮定します。誤差の影響を最小限に抑えるには、すべての誤差の二乗の合計を最小化する直線を見つける必要があります。最小二乗法は、最適化問題を関数の極値を見つける問題に変換します。数学では、通常、関数の導関数が 0 になるようにする方法を使います。ただし、このアプローチはコンピューターには適しておらず、解決策を提供できない場合や、計算量が大きすぎる場合があります。

コンピュータサイエンスには「数値計算」と呼ばれる特別な分野があり、これはさまざまな計算を実行する際のコンピュータの精度と効率を向上させるために特に使用されます。たとえば、有名な「勾配降下法」や「ニュートン法」は数値計算における古典的なアルゴリズムであり、関数の極値を求める問題を解決するのにも非常に適しています。勾配降下法は、回帰モデルを解く最もシンプルで効果的な方法の 1 つです。厳密に言えば、以下のテキストのニューラル ネットワークと推奨アルゴリズムはどちらも線形回帰係数を含んでいるため、後続のアルゴリズム実装でも勾配降下法が使用されます。

ロジスティック回帰は線形回帰と非常によく似たアルゴリズムですが、線形回帰は本質的にロジスティック回帰とは異なる種類の問題を処理します。線形回帰は数値の問題を扱います。つまり、最終的な予測結果は住宅価格などの数値です。ロジスティック回帰は分類アルゴリズムです。つまり、ロジスティック回帰の予測結果は、この電子メールがスパムであるかどうか、ユーザーがこの広告をクリックするかどうかなどを決定する離散的な分類です。

実装の点では、ロジスティック回帰は、線形回帰の結果にシグモイド関数を追加し、数値結果を 0 から 1 の間の確率に変換するだけです (シグモイド関数のグラフは一般的に直感的ではありません。値が大きいほど関数は 1 に近くなり、値が小さいほど関数は 0 に近づくことを理解するだけで十分です)。次に、この確率に基づいて予測を行うことができます。たとえば、確率が 0.5 より大きい場合、電子メールはスパムである、または腫瘍が悪性であるかどうかなどです。直感的に言えば、ロジスティック回帰は下の図に示すように分類線を描きます。

図7 ロジスティック回帰の直感的な説明

腫瘍を持つ患者に関するデータセットがあり、その腫瘍の一部は良性(図の青い点)で、一部は悪性(図の赤い点)であるとします。ここでの腫瘍の赤色と青色は、データの「ラベル」と呼ぶことができます。同時に、各データには患者の年齢と腫瘍の大きさという 2 つの「特徴」が含まれます。これら 2 つの特徴とラベルをこの 2 次元空間にマッピングして、上図のデータを作成します。

緑の点がある場合、腫瘍が悪性か良性かをどのように判断するのでしょうか? 赤と青の点に基づいて、図の分類線であるロジスティック回帰モデルをトレーニングしました。このとき、分類線の左側に緑色の点が現れるので、そのラベルは赤色、つまり悪性腫瘍であると判断します。

ロジスティック回帰アルゴリズムによって描かれる分類線は基本的に線形です(非線形分類線を描くロジスティック回帰もありますが、そのようなモデルは大量のデータを処理する際には非常に非効率的です)。つまり、2 つのカテゴリ間の境界が線形でない場合、ロジスティック回帰の表現力は不十分です。次の 2 つのアルゴリズムは、機械学習の分野で最も強力かつ重要なアルゴリズムであり、どちらも非線形分類線に適合できます。

(2)ニューラルネットワーク

ニューラル ネットワーク (人工ニューラル ネットワーク、ANN とも呼ばれる) アルゴリズムは、1980 年代の機械学習コミュニティで非常に人気があったアルゴリズムでしたが、1990 年代半ばに衰退しました。現在、「ディープラーニング」の勢いに乗って、ニューラルネットワークが復活し、再び最も強力な機械学習アルゴリズムの 1 つになりました。

ニューラル ネットワークの誕生は、脳の働きのメカニズムの研究から始まりました。初期の生物学者はニューラルネットワークを使って脳をシミュレートしました。機械学習の学者たちはニューラルネットワークを使用して機械学習の実験を行い、視覚認識と音声認識の両方で非常に良好な結果が得られることを発見しました。 BP アルゴリズム (ニューラル ネットワークのトレーニング プロセスを加速する数値アルゴリズム) の誕生後、ニューラル ネットワークの開発はブームに突入しました。 BP アルゴリズムの発明者の 1 人は、先ほど紹介した機械学習の専門家 Geoffrey Hinton 氏 (図 1 の中央の人物) です。

具体的にニューラルネットワークの学習メカニズムとは何でしょうか?簡単に言えば、分解と統合です。有名なヒューベル・ヴィーゼルの実験では、学者たちはこのように猫の視覚分析のメカニズムを研究しました。

図8 ヒューベル・ヴィーゼルテストと脳の視覚メカニズム

たとえば、正方形は 4 つの折り線に分解され、視覚処理の次の層に入ります。 4 つのニューロンがそれぞれ 1 つのポリラインを処理します。各破線はさらに 2 本の直線に分解され、各直線はさらに 2 つの白黒の面に分解されます。したがって、複雑な画像はニューロンに入力される多数の詳細となり、その後処理されて統合され、最終的に、見られるものは正方形であるという結論に達します。これは脳における視覚認識のメカニズムであり、神経ネットワークがどのように機能するかのメカニズムでもあります。

単純なニューラル ネットワークの論理アーキテクチャを見てみましょう。このネットワークには、入力層、隠れ層、出力層があります。入力層は信号を受信する役割を担い、隠れ層はデータを分解して処理する役割を担い、最終結果は出力層に統合されます。各層の円は処理ユニットを表し、ニューロンをシミュレートするものと考えることができます。複数の処理ユニットが 1 つの層を形成し、複数の層がネットワークを形成します。これが「ニューラル ネットワーク」です。

図9 ニューラルネットワークの論理アーキテクチャ

ニューラル ネットワークでは、各処理ユニットは実際にはロジスティック回帰モデルであり、上位層から入力を受け取り、モデルの予測結果を出力として次の層に送信します。このプロセスを通じて、ニューラル ネットワークは非常に複雑な非線形分類を実行できます。

下の図は、画像認識の分野におけるニューラル ネットワークの有名な応用例を示しています。このプログラムは LeNet と呼ばれ、複数の隠れ層上に構築されたニューラル ネットワークです。 LeNet はさまざまな手書き数字を認識するために使用でき、高い認識精度と優れた堅牢性を実現します。

図10 LeNet効果の表示

右下の四角形はコンピューターに入力された画像を示し、四角形の上の赤い文字「答え」はコンピューターの出力を示します。左側の 3 つの縦の画像列は、ニューラル ネットワークの 3 つの隠れ層の出力を示しています。層が深くなるにつれて、処理される詳細が少なくなることがわかります。たとえば、レイヤー 3 は基本的に線の詳細を処理します。 LENETの発明者は、以前に紹介した機械学習の専門家であるYann Lecun(図1の右側)です。

1990年代、ニューラルネットワークの開発はボトルネック期間に入りました。主な理由は、BPアルゴリズムの加速にもかかわらず、ニューラルネットワークのトレーニングプロセスが依然として困難であることです。したがって、1990年代後半には、サポートベクターマシン(SVM)アルゴリズムがニューラルネットワークを置き換えました。

(3)SVM(サポートベクターマシン)

サポートベクターマシンアルゴリズムは、統計学習コミュニティで生まれ、機械学習コミュニティで輝く古典的なアルゴリズムです。

ある意味では、サポートベクトルマシンアルゴリズムは、ロジスティック回帰アルゴリズムの強化です。ロジスティック回帰アルゴリズムにより厳しい最適化条件を与えることにより、サポートベクトルマシンアルゴリズムはロジスティック回帰よりも優れた分類境界を取得できます。しかし、特定のクラスの関数手法がなければ、サポートベクターマシンアルゴリズムは、せいぜいより良い線形分類技術です。

ただし、ガウスの「カーネル」と組み合わせることにより、サポートベクターマシンは非常に複雑な分類境界を表現することができ、それにより適切な分類結果を達成できます。 「カーネル」は実際には特別な機能であり、その最も典型的な機能は、低次元空間を高次元空間にマッピングできることです。

たとえば、次の図に示すように:

図11ベクトルマシンの図をサポートしています

2次元の平面では、2次元の平面では循環境界を作成するにはどうすればよいですか?言い換えれば、2次元平面によって描かれた非線形分類境界は、3次元平面の線形分類境界に相当する可能性があります。したがって、3次元空間で単純な線形分割を実行することにより、2次元平面における非線形分割の効果を達成できます。

図12 3次元空間での切断

サポートベクターマシンは、強力な数学コンポーネントを持つ機械学習アルゴリズムです(生物学的科学コンポーネントを備えたニューラルネットワークと比較)。アルゴリズムのコアステップの中には、データを低次元から高次元へのマッピングマッピングが最終的な計算の複雑さの増加につながらないという証拠があります。したがって、サポートベクターマシンアルゴリズムを使用することにより、計算効率を維持し、非常に優れた分類結果を得ることができます。したがって、サポートベクターマシンは、1990年代後半から基本的にニューラルネットワークアルゴリズムに置き換えられてから、機械学習のコアポジションを占めています。深い学習によるニューラルネットワークの復活により、この2つの間で微妙なバランスシフトが発生したのは今まででした。

(4)クラスタリングアルゴリズム

前のアルゴリズムの注目すべき機能は、トレーニングデータにラベルが含まれており、トレーニングされたモデルが他の未知のデータのラベルを予測できることです。次のアルゴリズムでは、トレーニングデータが無効になっており、アルゴリズムの目的は、トレーニングを通じてこのデータのラベルを推測することです。このタイプのアルゴリズムには、一般名、すなわち監視されていないアルゴリズムがあります(ラベルデータを持つアルゴリズムは、監視されたアルゴリズムです)。監視されていないアルゴリズムの最も典型的な代表は、クラスタリングアルゴリズムです。

例として、2次元データを取得しましょう。特定のデータには2つの機能が含まれています。クラスタリングアルゴリズムを使用して、さまざまなタイプのラベルを付けてください。

クラスタリングアルゴリズムの最も典型的な代表は、k-meansアルゴリズムです。

(5)次元削減アルゴリズム

次元低減アルゴリズムは、監視されていない学習アルゴリズムでもあり、その主な機能は、データを高次元レベルから低次元レベルに削減することです。ここでは、寸法は実際にデータの特徴的な量のサイズを指します。家の価格には、寸法の長さ、幅、面積、および部屋の数が含まれています。長さと幅は、領域で表される情報、たとえば面積=長さ×幅と実際に重複することがわかります。次元削減アルゴリズムを介して、冗長な情報を削除し、機能を2つの機能に減らすことができます:面積と部屋の数、つまり、データを4次元から2次元に圧縮します。そのため、データを高次元から低次元に削減します。これは、表現を助長するだけでなく、計算に加速をもたらすことができます。

前述の次元削減プロセスで減少した寸法は、肉眼で見えるレベルにあり、圧縮は情報の損失につながりません(情報が冗長であるため)。機能が肉眼では見えない場合、または冗長機能がない場合、次元削減アルゴリズムは引き続き機能しますが、これにより情報が失われます。ただし、次元削減アルゴリズムは、高次元から低次元に圧縮することにより、データ情報が可能な限り最大限に保持されることを数学的に証明できます。したがって、次元削減アルゴリズムを使用することにはまだ多くの利点があります。

次元削減アルゴリズムの主な機能は、データを圧縮し、他の機械学習アルゴリズムの効率を改善することです。次元削減アルゴリズムを通じて、数千の機能を備えたデータをいくつかの機能に圧縮できます。さらに、次元削減アルゴリズムのもう1つの利点は、たとえば、5次元データを2次元に圧縮し、2次元平面を使用して視覚化できます。次元削減アルゴリズムの主な代表は、PCAアルゴリズム(主成分分析アルゴリズム)です。

(6)推奨アルゴリズム

推奨アルゴリズムは、業界で非常に人気のあるアルゴリズムであり、Amazon、Tmall、JD.comなどのeコマース業界で広く使用されています。推奨アルゴリズムの主な機能は、ユーザーが最も興味を持っていることを自動的に推奨し、購入料金を上げて利益を改善できることです。推奨アルゴリズムには2つの主要なカテゴリがあります。

1つのタイプは、ユーザーがユーザーに購入したものと同様のアイテムを推奨しています。そのため、ユーザーが購入したアイテムに似たアイテムは、相関の程度が大きいことです。

もう1つのタイプは、ターゲットユーザーと同じ関心を持つ他のユーザーが購入するターゲットユーザーに推奨されることです。

両方のタイプの推奨事項には、独自の利点と欠点があります。一般に、2つのタイプは組み合わせて使用​​されます。推奨されるアルゴリズムの中で最も有名なアルゴリズムは、共同フィルタリングアルゴリズムです。

(7)その他

上記のアルゴリズムに加えて、ガウスの差別、ナイーブベイズ、決定木など、機械学習業界には他のアルゴリズムがあります。ただし、上記の6つのアルゴリズムは、最も使用され、最も広い影響力があり、最も包括的な品種を持つ典型的なアルゴリズムです。機械学習業界の特徴の1つは、多くのアルゴリズムがあり、さまざまな開発が繁栄していることです。

トレーニングデータがあるかどうかに応じて、上記のアルゴリズムを監視しているアルゴリズムに分割していますが、推奨されるアルゴリズムは比較的特別なものではありません。

監視された学習アルゴリズム:

線形回帰、ロジスティック回帰、ニューラルネットワーク、SVM

監視されていない学習アルゴリズム:

クラスタリングアルゴリズム、次元削減アルゴリズム

特別なアルゴリズム:

推奨アルゴリズム

これらのアルゴリズムに加えて、いくつかのアルゴリズム名も機械学習の分野で頻繁に表示されます。しかし、それらはそれ自体が機械学習アルゴリズムではありませんが、特定のサブ問題を解決するために生まれました。これらは、トレーニングプロセスを大幅に改善するために使用される上記のアルゴリズムのサブアルゴリズムであることを理解できます。代表者は次のとおりです。これは、主にオンライン回帰を使用しているNewtonのメソッドを主に使用しています。

5。機械学習の適用 - ビッグデータ

機械学習の方法について話した後、機械学習の適用について話しましょう。間違いなく、2010年以前には、機械学習の適用は、ナンバープレート認識、サイバー攻撃防止、手書きのキャラクター認識など、特定の特定の分野で大きな役割を果たしました。ただし、2010年以降、ビッグデータの概念が高まっているため、機械学習の多数のアプリケーションがビッグデータと高度に結合されており、ビッグデータが機械学習アプリケーションの最良のシナリオであるとほぼ考えることができます。

たとえば、ビッグデータの魔法を紹介する記事は、ビッグデータが何かを正確に予測する方法を説明します。たとえば、古典的なGoogleはビッグデータを使用して、米国の小さな町でのH1N1の発生を予測しています。

図13 GoogleはH1N1を正常に予測します

Baiduは、2014年のワールドカップがノックアウトステージからファイナルまでのすべての予測で正しいと予測しています。

図14バイドゥワールドカップはすべてのマッチ結果を成功裏に予測しました

これらは本当に驚くべきことなので、ビッグデータがこれらの魔法の力を正確に持っているのは何ですか?それは機械学習テクノロジーです。データが魔法を発揮できるのは、機械学習技術の適用に正確に基づいています。

ビッグデータのコアは、データの価値を利用する重要なテクノロジーです。それどころか、機械学習の場合、モデルの精度を改善する可能性が高くなります。したがって、機械学習の繁栄は、ビッグデータの助けとも分離できません。 ビッグデータと機械学習は相互に促進し、お互いに依存しています。

機械学習は、ビッグデータに密接にリンクされています。ただし、ビッグデータは機械学習と同じではないことを明確にする必要があり、同様に、機械学習はビッグデータと同じではありません。ビッグデータには、分散コンピューティング、メモリ内データベース、多次元分析、その他のテクノロジーが含まれます。分析方法だけの観点から、ビッグデータには次の4つの分析方法も含まれています。

1。ビッグデータ、小さな分析:つまり、データウェアハウスフィールドのOLAP分析のアイデア、つまり多次元分析のアイデア。

2。ビッグデータ、ビッグ分析:これは、データマイニングおよび機械学習分析方法を表します。

3。ストリーミング分析:これは主にイベント主導のアーキテクチャを指します。

4。クエリ分析:古典的な代表者はNOSQLデータベースです。

言い換えれば、機械学習はビッグデータ分析の1つにすぎません。機械学習の結果のいくつかは非常に魔法のようなものですが、場合によっては、ビッグデータの価値の最良の説明です。しかし、これは、機械学習がビッグデータの唯一の分析方法であることを意味するものではありません。

機械学習とビッグデータの組み合わせは、大きな価値を生み出しました。機械学習技術の開発に基づいて、データを「予測」できます。人間にとって、蓄積された経験が豊かになり、経験がより広くなるほど、将来の判断がより正確になります。たとえば、経験豊富な人々によって得られたルールは他の人よりも正確であるため、しばしば呼ばれる「経験豊富な」人々は「最初の」若い男性よりも多くの仕事の利点を持っています。機械学習の分野では、有名な実験によると、機械学習の世界の理論が効果的に確認されています。機械学習モデルが多いほど、機械学習の予測効率が向上します。下の図を参照してください。

図15機械学習の精度とデータの関係

この図から、入力データ量が特定のレベルに達した後、さまざまなアルゴリズムが同様の高精度を持っていることがわかります。そのため、機械学習の世界で有名なことわざが生まれました。成功した機械学習アプリケーションには最高のアルゴリズムがありませんが、データが最も多くあります!

ビッグデータの時代には、機械学習をより広く使用できるようにする多くの利点があります。たとえば、モノのインターネットやモバイルデバイスの開発により、機械学習モデルがますます多くのデータを取得できるようにする写真、テキスト、ビデオなどの非構造化データなど、ますます多くのデータがあります。同時に、分散コンピューティングMAP-REDUCEビッグデータテクノロジーを使用すると、機械学習がより速く、より速く、より便利になります。さまざまな利点により、機械学習の利点がビッグデータの時代に最適に活用されます。

6。機械学習のサブクラス - 深い学習

最近、機械学習の開発により、新しい方向、つまり「深い学習」が生まれました。

4語の深い学習は非常にハイエンドに聞こえますが、その概念は非常に単純です。これは、従来のニューラルネットワークが複数の隠れ層に対して開発された場合です。

上記のように、1990年代以来、ニューラルネットワークはしばらくの間沈黙しています。しかし、BPアルゴリズムの発明者であるGeoffrey Hintonは、ニューラルネットワークに関する研究を決してあきらめていません。ニューラルネットワークは2つ以上の隠れレイヤーに拡大するため、トレーニング速度は非常に遅くなるため、その実用性は常にサポートベクターマシンの実用性よりも低くなります。 2006年、Geoffrey HintonはScience Journal Scienceの記事を発表しました。

1)。

2)。

図16ジェフリー・ヒントンと彼の学生が科学に出版した

このような発見を通じて、コンピューティングにおけるニューラルネットワークの難しさは解決されるだけでなく、学習における深いニューラルネットワークの利点も示しています。それ以来、ニューラルネットワークは、機械学習業界で再び主流で強力な学習技術になりました。同時に、複数の隠れ層を持つニューラルネットワークはディープニューラルネットワークと呼ばれ、ディープニューラルネットワークに基づく学習研究はディープラーニングと呼ばれます。

深い学習の重要な性質のため、それはすべての面で非常に注目されています。

2012年6月、New York Timesは、Andrew NGとMap-Reduceの発明者Jeff Deanが率いるGoogle Brainプロジェクトを開示し、16,000 CPUコアの並列コンピューティングプラットフォームを使用して「Deep Neural Networks」と呼ばれる機械学習モデルを訓練しました。 Andrew Ngは、記事の冒頭で紹介された機械学習の大物です(図1のもの)。

2012年11月、マイクロソフトは、中国の天津でのイベントで完全に自動的な解釈システムを実証しました。

2013年1月、Baiduの年次総会で、創設者兼CEOのRobin Liは、最初の焦点が深い学習であり、この目的のためにDeep Learning Research Institute(IDL)であることを発表しました。

2013年4月、MIT Technology Review Magazineは、2013年のトップ10の画期的なテクノロジーとしてディープラーニングをリストしました。

図17深い学習の開発ブーム

記事の冒頭にリストされている3つの機械学習の巨人は、機械学習業界の専門家だけでなく、ディープラーニング研究の分野の先駆者でもあります。したがって、彼らがさまざまな大規模なインターネット企業のテクノロジーヘルムマンである理由は、彼らの技術的な強さであるだけでなく、彼らが研究している分野が無制限の見込み客を持つ深い学習技術であるためでもあるためです。

現在、業界の画像認識技術と音声認識技術の多くの進歩は、この記事の冒頭で言及されたコルタナなどの音声アシスタントの開発に加えて、いくつかの画像認識アプリケーションも含まれています。

図18 Baidu認識画像

ディープラーニングは、機械学習のサブクラスに属します。深い学習に基づいた開発は、機械学習の状況の改善を大幅に促進し、さらに親の機械学習における人工知能の夢に関する業界の再強調を促進しました。

7。機械学習の親クラス - 人工知能

人工知能は、機械学習の親クラスです。ディープラーニングは、機械学習のサブクラスです。 3つの関係がグラフに示されている場合、それは次の図です。

図19深い学習、機械学習、人工知能の関係

人工知能(AI)は、人間が想像できる技術の世界で最も画期的な発明であることは間違いありません。人工知能の概念が1950年代に提案されて以来、科学産業は常にそれを探求し、研究してきました。この期間中、さまざまな小説や映画がさまざまな方法で人工知能に関する想像力を示してきました。人間は人間に似た機械を発明できるという素晴らしい考えです!

要約すると、人工知能の発展は、初期の論理的推論から中期専門家システムまで、いくつかの段階を経て、これらの科学的研究の進歩は実際に機械の知性に少し近づいてきましたが、それでもまだ遠く離れています。機械学習の誕生まで、人工知能コミュニティは、最終的に正しい方向を見つけたと感じました。機械学習ベースの画像認識と音声認識は、一部の垂直フィールドの人間に匹敵するレベルに達しました。機械学習により、人間は人工知能の夢に初めて近づきました。

実際、人工知能関連の技術やその他の産業技術を比較すると、人工知能における機械学習の重要な位置には理由がないわけではないことがわかります。

著者は、人間と他のオブジェクト、植物、動物の最も重要な違いは「知恵」であると考えています。そして、知恵の最良の現れは何ですか?

それは、速い精神的な速度を持つ人々と呼ぶべきではありません。

それはすぐに反応する人々ではありません。

それは記憶能力ではありませんか?

それは推論能力のためですか?

それは知識と能力ですか?

それについて考えてください、私たちは通常、Zhuangzi、Laoziなどの聖人を持っていると説明しますか。知恵は、人生の蓄積と考え方です。経験がなければ、知恵はありません。

図20機械学習とインテリジェンス

したがって、コンピューターの観点から見ると、上記のすべての能力には、対処するさまざまなテクノロジーがあります。

たとえば、コンピューティングパワー、反応力、イベント駆動型アーキテクチャ、検索電力、検索エンジン、知識ストレージパワー、データウェアハウス、論理的推論力、エキスパートシステム、しかし機械学習のみを使用して、知恵の最も顕著な特徴に対応するために機械学習のみを使用できます。これは、機械学習能力が知恵を最もよく表すことができる基本的な理由でもあります。

強力なコンピューティング、迅速な検索、迅速な対応、および優れた論理的推論を行った後、ロボットの製造を見てみましょう。

人工知能の開発は、機械学習だけでなく、上記の深い学習にも依存する可能性があります。これは、人間の脳の構成を深くシミュレートするため、視覚的な認識と音声認識において元の機械学習技術の境界を大きく壊しているため、人工知能の夢を真に実現するための重要なテクノロジーになりそうです。 Google BrainであろうとBaidu Brainであろうと、大規模な深い学習ネットワークで構成されています。おそらく、ディープラーニングテクノロジーの助けを借りて、近い将来、人間の知性を備えたコンピューターが本当に可能です。

最後に、ディープラーニングテクノロジーの助けを借りて、人工知能の急速な発展のために、トピックのオフトピックについて話しましょう。テスラCEOマスクは、現実世界の「アイアンマン」の1つです。最近、MuskはMITの議論に参加する際に人工知能に関する懸念を表明しました。 「人工知能に関する研究は、悪魔の召喚に似ており、特定の場所でもっと注意を払わなければなりません。」

[[189560]]

図21ムスクと人工知能

マスクの懸念は少し警戒心がありますが、マスクの推論には理由がないわけではありません。 「人工知能がスパムを排除したい場合、その最終決定は人類を排除することである可能性があります。」ここでの著者の見解は、出生の初めに人工知能にいくつかのルール制限を追加することが効果的です。つまり、単純な機械学習に使用する必要はありませんが、そのような問題をよりよく解決するための機械学習とルールエンジンと他のシステムの組み合わせであるべきです。学習に制限がない場合は、特定の誤解を招く可能性が非常に高いため、いくつかのガイダンスを追加する必要があります。人間社会と同様に、法律は最良のルールであり、殺人者の死は生産性の向上を探る際の人間にとって克服できない境界です。

ここでは、ここでのルールは機械学習から派生したルールとは異なることに言及する必要があります。ルールを調整できますが、ルールを変更することはできません。法律と規則​​の特性を効果的に組み合わせると、合理的で制御可能な学習人工知能が生じる可能性があります。

8。機械学習の考え - コンピューターの潜在意識

最後に、著者は機械学習についてのいくつかの考えについて話したいと思っています。それは主に、著者が彼の日常生活で要約されたいくつかの洞察のいくつかで構成されています。

フェスティバル1で語った物語を振り返ってみると、私はXiao Yの過去の経験を私と一緒に任命したことをリストしました。しかし、以前のすべての経験をリストするこの方法を行うのは少数の人だけであり、ほとんどの人はより直接的なアプローチ、つまり直観を使用します。それで、実際、直感は何が潜在意識状態で経験を考えた後に描いたルールです。機械学習アルゴリズムを介してモデルを取得するのと同じように、次回は直接使用する必要があります。それで、あなたはこのルールについていつ考えましたか?この時点で、脳は実際にあなたが検出できないいくつかの仕事をしています。

私はこの直感と潜在意識を、人間の思考経験の別の方法と区別します。たとえば、人が「1日3回自分自身を調べる」など、毎日要約を作成したり、仲間との最近の仕事の利益と損失についてしばしば議論する場合、モデルのトレーニング方法は直接的で意識的な思考と誘導です。この効果は非常に優れており、強力な記憶能力を持ち、現実を効果的に反映する法律をよりよく引き出すことができます。しかし、ほとんどの人がそのような要約をすることはめったにないかもしれないので、人生の通常の方法は潜在意識の方法を使用していると結論付けました。

潜在意識について著者自身の例を挙げましょう。著者自身は、最近車を買った後、車を運転したことがありませんでした。私は毎日固定ルートを取ります。興味深いことに、最初の数日間、私は前の道路について非常に緊張していましたが、今では無意識のうちに車をターゲットに運転していました。このプロセス中、私の目は前に凝視していて、脳は考えていませんでしたが、手に持っていたステアリングホイールは自動的に方向を調整します。つまり。ますます運転するにつれて、運転の動きを潜在意識に渡しました。これは非常に興味深いことです。このプロセス中に、私の脳は先の道路状況の画像を記録し、同時に、私の脳はハンドルを回すという私の動きも覚えていました。脳自身の潜在意識について考えた後、最終的に生成された潜在意識は、今後のイメージに基づいて私の手の動きを直接調整できます。前方のビデオをコンピューターに引き渡し、コンピューターに画像に対応するドライバーのアクションを記録させるとします。学習期間の後、コンピューター生成された機械学習モデルを自律運転に使用できます。これはすごいですね。実際、これはGoogleやTeslaを含む自律車両技術の原則です。

自動運転車に加えて、潜在意識は人間のコミュニケーションに拡張することもできます。たとえば、他の人に納得させるために、最良の方法は彼にいくつかの情報を見せてから、彼が自分で望む結論を要約し、描くことです。これは、視点を説明することは、真実の長い段落よりもはるかに優れていることを説明するときに、事実や物語を使用するようなものです。歴史を通じて、すべての優れたロビイストがこの方法を採用しています。春と秋の時代、国は団結し、王子が国の王と通信することがあり、何をすべきかを告げることは、君主に物語を語り、これらの物語を突然実現することです。ここには、Mozi、Su Qinなど、多くの傑出した代表者がいます。

基本的に、すべてのコミュニケーションプロセスは、道徳の説明よりもはるかに優れています。なぜ真実や他の方法よりもストーリー方法を使用する方がはるかに良いのですか?あなたが言うルールが他の人のものと一致しない場合、保護外では、彼らは本能的にあなたの新しいルールを拒否しますが、彼に物語を伝え、いくつかの情報を伝え、いくつかのデータを彼に転送すると、彼は自分自身を考えて変化させます。彼の思考プロセスは、実際には機械学習のプロセスです。あなたが与える情報の量が非常に大きく、彼がモデルを調整するほど大きい場合、彼はあなたが望むルールに従って物事を行います。時々、彼は本能的にこの思考プロセスを実行することを拒否しますが、データが入力されると、彼が望んでいるかどうかにかかわらず、彼の脳は潜在意識状態で考え、彼の見解を変えるかもしれません。

たとえば、コンピューターが潜在意識を持っている場合はどうなりますか?これは非常に興味深いアイデアなので、違った考え方をしてください。

9。概要

この記事では、最初にインターネット業界を機械学習の巨人と機械学習の関連アプリケーションと組み合わせる傾向を紹介し、次に「ウェイターストーリー」と機械学習を紹介します。紹介は、最初に機械学習の概念と定義であり、その後、機械学習の関連分野、機械学習に含まれるさまざまな学習アルゴリズムが続き、機械学習と機械学習の新しいサブクラスであるビッグデータの関係を紹介し、最終的に機械学習と人工知能の開発と機械学習の関係と潜在的な関係について議論します。この記事の導入後、私は誰もが機械学習とは何か、カーネルのアイデアとは何か(すなわち統計と誘導)、機械学習と人間の思考の間の近似的なつながりを理解することで、機械学習がインテリジェンス能力などを理解することで、機械学習技術について特定の理解を持っていると信じています。其次,本文漫谈了机器学习与外延学科的关系,机器学习与大数据相互促进相得益彰的联系,机器学习界最新的深度学习的迅猛发展,以及对于人类基于机器学习开发智能机器人的一种展望与思考,最后作者简单谈了一点关于让计算机拥有潜意识的设想。

机器学习是目前业界最为Amazing与火热的一项技术,从网上的每一次淘宝的购买东西,到自动驾驶汽车技术,以及网络攻击抵御系统等等,都有机器学习的因子在内,同时机器学习也是最有可能使人类完成AI dream的一项技术,各种人工智能目前的应用,如微软小冰聊天机器人,到计算机视觉技术的进步,都有机器学习努力的成分。作为一名当代的计算机领域的开发或管理人员,以及身处这个世界,使用者IT技术带来便利的人们,最好都应该了解一些机器学习的相关知识与概念,因为这可以帮你更好的理解为你带来莫大便利技术的背后原理,以及让你更好的理解当代科技的进程。

10.后记

这篇文档花了作者两个月的时间,终于在2014年的最后一天的前一天基本完成。通过这篇文章,作者希望对机器学习在国内的普及做一点贡献,同时也是作者本人自己对于所学机器学习知识的一个融汇贯通,整体归纳的提高过程。作者把这么多的知识经过自己的大脑思考,训练出了一个模型,形成了这篇文档,可以说这也是一种机器学习的过程吧(笑)。

作者所在的行业会接触到大量的数据,因此对于数据的处理和分析是平常非常重要的工作,机器学习课程的思想和理念对于作者日常的工作指引作用极大,几乎导致了作者对于数据价值的重新认识。想想半年前,作者还对机器学习似懂非懂,如今也可以算是一个机器学习的Expert了(笑)。但作者始终认为,机器学习的真正应用不是通过概念或者思想的方式,而是通过实践。只有当把机器学习技术真正应用时,才可算是对机器学习的理解进入了一个层次。正所谓再“阳春白雪”的技术,也必须落到“下里巴人”的场景下运用。目前有一种风气,国内外研究机器学习的某些学者,有一种高贵的逼格,认为自己的研究是普通人无法理解的,但是这样的理念是根本错误的,没有在真正实际的地方发挥作用,凭什么证明你的研究有所价值呢?作者认为必须将高大上的技术用在改变普通人的生活上,才能发挥其根本的价值。一些简单的场景,恰恰是实践机器学习技术的最好地方。

最后,作者很感谢能够阅读到这里的读者。如果看完觉得好的话,还请轻轻点一下赞,你们的鼓励就是作者继续行文的动力。

对EasyPR做下说明:EasyPR,一个开源的中文车牌识别系统,代码托管在githubhttps://github.com/liuruoze/EasyPR 。其次,在前面的博客文章中,包含EasyPR至今的开发文档与介绍。在后续的文章中,作者会介绍EasyPR中基于机器学习技术SVM的应用即车牌判别模块的核心内容,欢迎继续阅读。

<<:  機械学習の人気のトレンドの概要

>>:  ジョン・マカフィーの意見: 人工知能は人類を滅ぼすのか?

推薦する

人工知能学習: 人工ニューラル ネットワークとは何ですか?

[51CTO.com クイック翻訳] 多くの人工知能コンピュータシステムの中核技術は、人間の脳の生...

ハンドルとペダルがない?アップルは2025年までに自動運転車を発売する予定

スペインの新聞「ヴァングアルディア」によると、アップルは2025年にハンドルもペダルもない自動車を発...

「自由に眠る」にはヘッドバンドを着けるだけ | Nature サブ出版物

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

マスク氏が示唆:脳の寄生虫が人間を超人的なAIを作らせる

マスク氏はツイッターで奇妙な見解を表明した。人類が超人的な人工知能を創り出した理由は、ある種の「脳寄...

人工知能ブームの背景にある産業チェーンのレイアウト分析

「新世代人工知能発展計画」の発表に伴い、国務院は我が国の人工知能発展計画を全体的に展開し始めました。...

...

AI を活用した会話型顧客体験の可能性を引き出す方法

企業は AI ツールを使用して、顧客ロイヤルティにプラスの影響を与え、利益を増やすことができる会話型...

新たな調査でAIのROIの急上昇と将来の課題が浮き彫りに

Dataiku と Databricks が発表した新しい共同調査によると、生成型人工知能の急速な導...

開発から生産まで: 機械学習に関する 7 つの実践的な提案

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

...

GPU の無駄遣いをやめよう: FlashAttention がアップグレードされ、長いテキストの推論速度が 8 倍に向上

最近、ChatGPT や Llama のような大規模言語モデル (LLM) がかつてない注目を集めて...

...

ロボットが2000万の仕事に取って代わる:最大の懸念は30代なのに何も知らないこと

[[269741]] 01 数日前、あるニュースが私の周りの多くの人々に反省と心配を抱かせました。 ...