人工知能とは何ですか?

人工知能とは何ですか?

人工知能とは何か

人工知能(AI)の誕生以来、その定義と意味合いは議論の的となってきました。文字通り、AI は「人工知能」と「知能」という言葉で構成されており、その中核には知能があります。したがって、人工知能は何よりもまず知能の一種です。しかし、人工知能は人間が作ったものであり、自然に形成されたものではありません(例えば、人間の知能は長い進化の期間を経て形成された一種の生物学的知能です)。人工知能をさらに理解するための鍵は、「知能とは何か」を理解することにあります。これは実際には答えるのが難しい質問です。 「知性とは知識を活用して問題を解決する能力である」というのが一般的な理解です。 「地球上で最も知的な生物」である人間の知性は、知識を発見し、それを活用してさまざまな問題を解決する能力に大きく反映されています。人工知能の研究と実践の重要な目標は、「知能とは何か?」という問いに答えることです。この質問に対する答えは、私たちの世代、さらには次の世代の方向性と目標となるでしょう。

人工知能を定義する必要がある場合、次のように述べることができます。人工知能とは、知能機械を通じて自然を変革し社会を統治する人間の能力を拡張および強化する科学技術です。人工知能は何よりもまず科学です。なぜなら、知能の本質を説明し、知能を計算できるかどうか、どのように計算できるかといった科学的な疑問に答える必要があるからです。人工知能は、人間の知能を必要とする問題を解決するために、人間の知能をシミュレートする機械が必要なため、むしろプロジェクトです。したがって、人工知能は科学と工学の両方の特性を備えています。人工知能が学際的かつ総合的な特徴を持つのは、このためです。人工知能には、哲学、心理学、数学、言語学、コンピューターなど、複数の分野が関わっています。人工知能の究極の目標は、自律的な機械知能を開発することではなく、人工知能を使用して世界を理解し変革する人間の能力を高めることです。人間の知能を拡大・拡張し、最終的に人類社会に利益をもたらすことが、人工知能開発の根本的かつ唯一の使命です。人工知能は人間の知能に基づいて刻み込まれ、形作られます。人間の知能を理解し、シミュレートすることが人工知能実現への基本的な道です。人間の知性は、外的には行動として、内的には思考として現れます。人工知能の研究と実践の形態がどれほど異なっていても、その最終的な目標は、機械が人体の知的な行動能力を持つようにすること、または機械が人間の心の複雑な思考能力を持つようにすることです。

人間の知的な行動能力は、身体の知覚と運動能力に反映されます。私たちの体には五感と四肢があります。私たちは五感を使って音、画像、形、匂いを認識し、手足を使って物体を操作したり体を動かしたりすることで、体と環境との複雑な相互作用を実現しています。これらの機能を実現するには、機械にパターン認識機能とフィードバック制御機能が必要です。例えば、手書きの文字が「0」であるかどうかを識別するには、機械が手書きの入力データから「0」に対応する書き方のパターンを認識できなければなりません。パターン認識は私たちの五感の基本的な能力です。人間の手足は非常に柔軟で機敏であり、さまざまな動きをしたり、さまざまな物体を操作したりすることができます。これは、人間の手足と環境との強力な相互作用能力を反映しています。たとえば、ロボットアームが物体をつかむとき、物体の位置とつかむ強さをリアルタイムで感知し、つかむ動作と姿勢を適時に調整して、最終的につかむ動作を完了する必要があります。近年、機械はパターン認識や動作制御などの機能において急速な進歩を遂げ、まずは人間のレベルに到達しました。私たちは、データのパターンと物理世界の状態を感知し、機械が人間の知的行動をとれるようにすることに重点を置いた人工知能の研究と実践を「知覚学派」と呼んでいます。

人間の知性は、人間の心の複雑さにより明確に反映されます。人間の精神活動は、言語理解、場面理解、スケジュール計画、知的検索、学習誘導、推論、意思決定など、非常に多様です。人間の精神的能力を形作る器官は脳です。脳の働きのメカニズムを理解し、脳のような知能を実現することは、常に科学者が目指してきた目標の一つです。人工知能の発展に伴い、機械に知的な脳を与えることが緊急の課題となっています。身体があっても心がない機械は、魂のない「ゾンビ」のようなもので、多くの問題を解決できても、人間社会に入り込んで人間の面白い「パートナー」になることは難しい。もし人工知能の発展が知覚と運動の段階に留まっているとしたら、機械は普通の動物の知能レベルに達したに過ぎない。本当の意味で、人間を動物の本性から際立たせているのは、人間特有の知的能力である。動物にも脳があり、ある程度の知的能力がありますが、人間の心と動物の心の根本的な違いは、人間の認知能力にあります。認知能力とは、人間の脳が外部の情報を受け取り、それを処理して内部の心理活動に変換し、それによって世界の認知経験を形成するプロセスを指します。これには、時間と空間の認識、因果の認識、言語の認識、文化の認識などの側面が含まれます。明らかに、現時点では人間だけが認知能力を持っています。「認知学派」として知られる「認知」に基づいた人工知能の研究と実践は、将来の人工知能の研究と実践の焦点となるでしょう。

注目すべきは、人間は人工知能を実現するためのテンプレートであるにもかかわらず、現在の人工知能の実践はもはや単に「人間に似たもの」になることを目指しているのではなく、多くの場合、人間のレベルをはるかに超えていることです。多くの場合、人間特有の知能は限られています。たとえば、私たちがどの人工知能の教科書を購入するかを決めるとき、決定要因は通常 5 ~ 7 個を超えませんが、機械は同時に何百万もの決定要因を考慮して判断を下すことができます。人間の知覚の物理的な範囲は非常に限られており、一方、機械視覚は数千メートルの範囲内でターゲットを識別できます。したがって、計算、チェス、画像認識、音声識別など、多くの個別の知能において人間が機械に追い抜かれるのは時間の問題です。人工知能の発展は、機械が人間の知能を徐々に超えていく過程となることは間違いありません。しかし、機械が人間から奪い取るのが難しい、知能の「総合チャンピオン」という重要な賞が一つある。数え切れないほど多くの知能のチャンピオンたちにとっても、この「万能チャンピオン」の知能レベルに到達するのは難しいだろう。これにより、強い人工知能と弱い人工知能という話題が浮上します。

人工知能は、「知覚」と「認知」の区別に加え、「強い」と「弱い」にも分けられます。普通の計算機は、人間の最も賢い頭脳の能力をはるかに超える数値計算を実行できますが、3 歳児よりも賢いと考える人はいないでしょう。その根本的な理由は、電卓は数値計算という単一のタスクしか実行できないのに対し、3歳児は親の特定、哺乳瓶の探し方、音の区別など、ほぼ無限のタスクを実行できるからです。したがって、知性の強さは、それが普遍的であるか単一であるかの度合いに大きく反映されます。強い知能はあらゆるタスクを解決するために必要な知能ですが、弱い知能は特定のタスクの解決に限定されています。強い人工知能の実現は、弱い人工知能の実現よりもはるかに困難であることは明らかです。現在、弱い人工知能は依然として実用化の成果を上げている人工知能の主流です。強力な人工知能を実現するにはまだ長い道のりがありますが、それは避けられない課題です。強力な人工知能は、人工知能の根本的な問題、つまり現実世界の開放性を解決するからです。現実世界は複雑で、実際のタスクは多様ですが、現在のところ、コンピューターは事前に定義されたタスクとシナリオしか実行できません。これまで見たことのないケース、サンプル、シナリオに遭遇すると、コンピューターは無力になってしまいます。機械知能の適応性とオープン性への対応能力を向上させる取り組みは、人工知能における最も重要な研究課題の一つとなっています。

注目すべきは、人工知能は依然として発展途上の分野であり、その含意は依然として充実し、改善されているということです。AIの安全性と制御性、AIのブラックボックス性と説明可能性、AIと人文科学、AIと社会の発展、AIと脳科学など、いくつかの新しい研究観点が人工知能に新しい含意を継続的に追加しています。これらの新しい研究観点は、AIの概念の発展と改善を継続的に促進しています。

人工知能の発展

「理想は希望に満ちているが、現実は残酷である」「トンネルの先には常に光がある」、この2つの文章は人工知能の発展過程を表現するのに最も適しています。人工知能の発展の歴史をみると、大きく分けて3つの頂点と2つの谷に分けられます。

1. AI開発の最初のクライマックス

1940 年代から 1950 年代にかけて、さまざまな分野の科学者のグループが、人工知能の問題の原型となる人工脳を作成する可能性を探求し始めました。 1943 年、マサチューセッツ工科大学の 2 人の科学者、ウォーレン・マカロックとウォルター・ピッツが生物学的ニューロンの数学的モデルを提案し、コンピューターを使用して人工ニューロンをシミュレートすることが可能になりました。複数の人工ニューロンを接続すると、生物学的ニューラル ネットワークに似たネットワーク構造を形成できます (図 1 を参照)。 1957 年、フランク・ローゼンブラットはパーセプトロン モデルを提案し、ニューラル ネットワークの研究をエンジニアリング実現へと推し進めました。

1950 年、イギリスのコンピューター専門家アラン・チューリングは、機械が人間の知能を持っているかどうかを判断するための有名なチューリング テストを提案しました。これは面白い「模倣ゲーム」のようなものです。テスト担当者は被験者に複数の質問をし、被験者の回答に基づいて被験者が人間か機械かを判断します。テスト対象者が人間か機械かを判断できないテスターが 30% 以上いる場合、その機械は人間と同等の知能を持っていると言えます (図 2 を参照)。チューリングテストは機械が知能の外見的兆候を備えているかどうかしかテストできないため、人工知能が発展するにつれてその限界がますます露呈することになります。対話タスクを囲碁のプレイに変更すると、機械の囲碁のレベルに基づいて相手が人間であるか機械であるかを判断できなくなることは明らかです。なぜなら、囲碁では機械が人間のチャンピオンをはるかに上回っていることは誰もが知っているからです。機械の音声と会話機能が向上するにつれて、電話のカスタマー サービス担当者が機械なのか人間なのかを判断することがますます難しくなります。

[[358677]]

1956年、米国ハノーバーの小さな町にあるダートマス大学で開催されたセミナーに、さまざまな専門知識を持つ科学者のグループが集まり、当時は非現実的だと考えられていたテーマについて議論しました。それは、成熟しつつあるコンピューターが、知覚、認知、さらには意思決定の問題の解決において人間に取って代わるというテーマでした。会議は丸々2か月続きました。科学者たちはそれぞれ自分の意見を持っていましたが、誰も他の人を納得させることができませんでした。最終的に、誰かが「人工知能」という概念を思いつきました。この会議は人工知能の誕生を記念する会議として認識されています。同年、人工知能が学問分野として確立されました。

この新しい分野の出現はすぐに学界で広く注目を集め、研究者がこの分野に集まり、次々と新しいトピックが登場しました。 1950 年代後半から 1960 年代にかけて、数多くの成功した AI プログラムと新しい研究の方向性が生まれました。高校レベルの代数文章題を解くことができ、自然言語処理分野における人工知能の初期の応用と考えられているプログラム「STUDENT」が開発されました。英語でユーザーとコミュニケーションできる世界初のチャットボット「ELIZA」が開発されました。 ELIZA は、パターン マッチングと置換を使用して人間とコンピューターの対話を実現する初期の自然言語処理プログラムです (実際には、固定されたルーチンに従って応答するだけで、機械は言語の意味を理解しません。実際のところ、真の人工知能にはまだまだ遠いです)。

1960 年代半ばまでに、AI 研究には多額の資金が投入され、世界中に研究所が設立されました。当時、人工知能分野の研究者たちは未来に自信に満ちていました。有名な科学者ハーバート・サイモンは「20年以内に機械は人間が行えるあらゆる作業を完了できるようになる」とさえ予測していました。他の科学者たちは「一世代以内に『人工知能』を創る問題は基本的に解決されるだろう」と信じていました。人工知能研究は、最初の「黄金」の発展期に入った。

しかし、現実は人々が期待したほど楽観的ではなく、人工知能の発展はボトルネックに遭遇しています。主な理由は、当時のコンピューターの計算能力とデータ処理能力が低く、データが比較的不足していたため、複雑な問題を解決するニーズを満たすことができなかったことです。人工知能は最初の谷間に入りつつあります。

2. AI開発の第二のクライマックス

1980年代前半に入ってからは、工業、商業、金融などの新興産業の発展に伴い、人工知能の研究は他の産業に付随する補助手段やツールとしてある程度回復しました。

この期間中の代表的な研究の進歩としては、以下のものが挙げられます。

1つは「エキスパートシステム」の出現です。これは、人間の専門家の知識と分析スキルをシミュレートする人工知能システムです。知識表現と知識推論技術を通じて、ドメイン専門家の問題解決プロセスをシミュレートします。エキスパート システムは知識ベースと推論エンジンを中心に構築されており、システムの目的は知識を使用して満足のいく解決策を得ることです。有名なエキスパート システムには、ExSys (最初の商用エキスパート システム)、Mycin (診断システム) などがあります。

2つ目は、ニューラルネットワークモデルの復活です。 1980 年代に David Rumelhart らによって提案された多層パーセプトロンとバックプロパゲーション アルゴリズムは、ニューラル ネットワークのトレーニング方法を最適化しました。

この時期に最も影響力のあった人工知能の応用の一つは、日本の「第五世代コンピュータプロジェクト」でした。 1980年代に日本は「第5世代コンピュータプロジェクト」を提案した。その主な目標の一つは、いわゆる「ノイマンボトルネック」(ノイマンアーキテクチャは、プログラム格納方式を中核とする主流のコンピュータアーキテクチャ。当時の日本の学者は、このアーキテクチャでは限られた計算や情報処理しかできないと考えていたため、「ノイマンボトルネック」と呼ばれていた)を突破し、推論や知識処理能力を備えた人工知能コンピュータを実現することです。第五世代コンピュータプロジェクトの刺激を受けて、人工知能分野の研究プロジェクトが進められました。 1985年までに、AI市場の価値は10億ドルを超えました。

しかし、良い時代は長くは続かなかった。当時のデータと計算能力は限られていたため、機械が複雑な状況に対処するのは依然として困難でした。たとえば、エキスパート システムの if-then ルールは、複雑な問題を記述するときに指数関数的に増加しますが、限られた計算能力では、このような複雑な問題の解決をサポートすることはほとんどできません。 1987 年に Lisp (人工知能プログラミングの主要言語) マシン市場が崩壊したことをきっかけに、人々はエキスパート システムと人工知能への信頼を失い、人工知能は第 2 の谷に突入しました。

3. AI開発の第三のクライマックス

1990 年代後半から 2000 年代初頭にかけて、人工知能は静かに再び台頭してきました。 2006年、カナダのトロント大学のジェフリー・ヒントン教授とその学生らがディープラーニングを提唱し、画像認識、音声認識、ゲーム、検索エンジンなどの分野で急速に目覚ましい成果を上げました。この段階の成功は、ディープラーニングアルゴリズムに代表される理由に加え、コンピュータの計算能力の向上とさまざまな業界における膨大なデータの蓄積からも恩恵を受けました。

この人工知能の波はまだ発展途上であり、発生した代表的な出来事としては次のようなものがあります。

1つは、コンピュータと人間の間のチェスゲームです。 1997 年 5 月 11 日、ディープ ブルーは、当時のチェス世界チャンピオンであるガルリ カスパロフを破った最初のコンピューター チェス システムとなりました。 2016年3月、AlphaGoはイ・セドルを4対1で破り、プロの囲碁世界チャンピオンを破った初のコンピューター囲碁プログラムとなった。 2017年5月、AlphaGoは中国烏鎮囲碁サミットでの3局勝負で、当時世界一の中国人棋士であった柯潔を破った。これを基に、強化学習トレーニングの後、AlphaGoZero は人間の経験なしに自己ゲームで AlphaGo を 100:0 で破りました。

第二に、画像認識や音声認識などのタスクでは、機械が人間のレベルに達します。画像処理タスクにおけるエラー率は 2011 年以降大幅に低下しました。手書き数字認識データセットなどのコンピュータービジョンの分野では、ニューラルネットワークの精度が人間の平均精度を超えています。音声認識に関しては、iFlytekなどの企業が最大98%(2018年レベル)の音声認識率を達成しており、音声認識レベルは2016年に人間のレベルに達していました。

第三に、機械は言語理解などの関連タスクにおいて大きな進歩を遂げました。機械が人間の自然言語を理解できるようにすることは、人工知能の開発における画期的な課題です。専門家の中には、言語理解こそが人工知能の最高峰であると考える者もいます。近年、ディープラーニングモデルと大規模コーパスのおかげで、機械は一連の言語理解タスクにおいて大きな進歩を遂げました。たとえば、スタンフォード質問応答データセット(SQuAD)のテキスト理解チャレンジでは、2018年の初めに、アリババ研究チームが提案した機械読解モデルが人間のレベルを超える精度を達成しました。 2018年のGoogle I/Oカンファレンスで、GoogleはGoogleアシスタント(Googleアプリケーション)と人間との間で数分間の通話を実演しましたが、聴衆は誰が機械で誰が人間なのかほとんど区別がつきませんでした。それ以来、さまざまなカスタマー サービス コールが大量に機械に置き換えられ、インテリジェント カスタマー サービスの適用が成功したことで、手動カスタマー サービスのコストが大幅に削減されました。

こうした出来事の発生により、人々は人工知能技術の経済的価値と社会的可能性を十分に認識するようになりました。これにより、人々の人工知能技術に対する理解はかつてないレベルにまで高まり、人工知能技術の発展が大きく促進されました。

人工知能研究に対する異なる視点

人工知能は複雑な主題であり、視点が異なれば人工知能に対する理解も異なります。人工知能研究における主要学術機関の見解を見てみましょう!

1. 象徴主義学派は、

記号学派は、人工知能は数学的論理から生まれたと信じており、「論理学派」としても知られています。数学的論理は 19 世紀末以降急速に発展し、1930 年代には知的な行動を記述するために使われるようになりました。コンピュータの出現後、論理的推論システムがコンピュータ上に実装されました。その代表的な成果は、ヒューリスティックプログラム LT (Logic Theorist) であり、38 個の数学定理を証明し、コンピュータを人間の思考プロセスの研究に応用することで、人間の知的活動をシミュレートできることを示しました。

象徴主義は、人間の認知プロセスは記号操作と計算のプロセスであると信じており、人工知能システムを構築するために公理と論理システムの使用を提唱しています。シンボリズムは、知識の表現、知識の推論、知識の応用が人工知能の中核であると考えています。知識は記号で表すことができ、認知は記号処理のプロセスであり、推論は理性を用いて特定の前提から結論を導き出す行為です。記号学者は、コンピューターの記号操作を使用して人間の認知プロセスをシミュレートすることに取り組んでいます。これは本質的に、人間の左脳の抽象的な論理的思考をシミュレートすることです。象徴主義者は「人工知能」という用語を最初に使用し、その後エキスパート システムや知識工学の理論と技術を開発し、1980 年代に大きな進歩を遂げました。

象徴学派は長い間、人工知能の発展、特にエキスパートシステムの開発と応用に成功し、人工知能が工学応用へと進み、理論と実践のつながりを実現する上で大きな意義を持つ、人工知能の発展に重要な貢献を果たしてきた唯一の学派です。他の人工知能の流派が登場した後も、象徴主義は人工知能の主流の流派の 1 つであり続けています。

2. コネクショニズムは

「バイオニクス学派」または「生理学派」としても知られるコネクショニスト学派は、主にニューラル ネットワークと、ニューラル ネットワーク間の接続メカニズムおよび学習アルゴリズムに焦点を当てています。コネクショニズムは、人工知能はバイオニクス、特に人間の脳モデルの研究から生まれたと考えています。コネクショニズムはニューロンから始まり、その後ニューラルネットワークモデルと脳モデルの研究へと進み、人工知能の新たな発展の道を切り開きました。コネクショニスト学派は、神経生理学と認知科学の研究成果を出発点として、人間の知能は人間の脳の高次活動の結果であると考え、知能活動は多数の単純な単位が複雑な相互接続を通じて並行して動作した結果であり、その中で人工ニューラルネットワークがその代表的な技術であることを強調しています。

コネクショニズムは、1943 年に生物学的ニューロンの計算モデルである「MP モデル」の誕生とともに始まり、その後、1957 年の「パーセプトロン」モデル、1982 年のホップフィールド モデル、1986 年に提案されたバックプロパゲーション アルゴリズムなどの代表的な出来事が続きました。コネクショニズムの最近の代表的な進歩はディープラーニングです。 2012 年、ImageNet 大規模視覚認識チャレンジでは、ディープラーニング モデルが圧倒的なリードを獲得しました。ハードウェア技術の発展により、ディープラーニングは人工知能を実現するための主流技術の一つになりました。

象徴主義とコネクショニズムの発展は浮き沈みの傾向を示しています。実際、両者はそれぞれ独自の価値と意義を持ち、人工知能の発展に不可欠なものであり、両者は協力して人工知能の発展を共同で推進すべきである。シンボリズムはマクロな視点(人間の思考プロセス)から人間の認知プロセスをシミュレートしますが、コネクショニズムはミクロな視点(ニューラル ネットワークの構造とパラメーター)から人間の脳機能をシミュレートします。現在の人工知能の発展傾向から判断すると、将来の人工知能の発展の基本モデルは、コネクショニズムを使用してパターン認識などの予備的な知覚タスクを達成し、関連する結果を関連する記号システムに入力して、深い推論と解釈を達成することです。

3. 行動主義学派は、

行動主義学派は「進化学派」または「サイバネティック学派」としても知られています。行動主義学派は、人工知能はサイバネティクスに由来すると信じており、その研究内容には、生命現象のバイオニックシステム、人工モデリングとシミュレーション、進化ダイナミクス、人工生命の計算理論、進化と学習の統合システム、人工生命の応用などが含まれます。行動主義では、人工知能は人間の知能のように徐々に進化し、知的エージェントの知的な行動は現実世界や周囲の環境との相互作用を通じてのみ現れると信じています。

1940 年代から 1950 年代にかけて、サイバネティクスは時代の潮流の重要な一部となり、初期の人工知能研究者に影響を与えました。アメリカの数学者ノーバート・ウィーナーらが提唱したサイバネティクスや自己組織化システム、中国の科学者銭学森らが提唱した工学サイバネティクスや生物学的サイバネティクスは、多くの分野に影響を与えてきた。初期の研究の焦点は、自己最適化、自己適応、自己修正、自己安定化、自己組織化、自己学習などのサイバネティクス システムの研究や、「サイバネティック動物」の開発など、制御プロセスにおける人間の知的な行動と役割をシミュレートすることにありました。 1960 年代から 1970 年代にかけて、上記サイバネティクス システムの研究が一定の進歩を遂げ、知能制御や知能ロボットの芽が生まれ、1980 年代には知能制御システムや知能ロボット システムが誕生しました。

行動主義が人工知能の新しい学派として登場し、多くの人々の注目を集めたのは、20 世紀の終わりになってからでした。この学派の代表作は、マサチューセッツ工科大学のロドニー・ブルックスが開発した6足歩行ロボットです。新世代の「サイバネティック動物」と位置づけられており、知覚行動モデルに基づいて昆虫の行動を模倣した制御システムです。実際、環境との適応的な相互作用を通じて形成されるこの知能は、一種の「推論のない知能」です。最近では、深層強化学習などの技術の推進により、ロボットの環境との相互作用能力が大幅に向上し、走ったり、ジャンプしたり、世界中を「歩き回ったり」できるロボットが徐々に現実のものとなってきています。

人工知能の3つの要素

近年の人工知能の急速な発展は、主にデータの急速な蓄積、計算能力の継続的な向上、アルゴリズムの改善と最適化によるものです。したがって、データ、計算能力、アルゴリズムは人工知能の 3 つの要素と呼ばれます。

1. 人工知能とビッグデータ

ビッグデータとは何ですか?一般的に、ビッグデータとは、従来のソフトウェア ツールを使用して一定の時間内に収集、管理、処理することができないデータの集合を指します。これは、より強力な意思決定力、洞察の発見、およびプロセス最適化機能を備えた新しい処理モデルを必要とする、膨大で急成長している多様な情報資産です。

ビッグデータには一般的に、量、速度、多様性、低価値密度、真実性の 5 つの特性があり、これらはビッグデータの 5V 特性とも呼ばれます。 「大容量」とは、テラバイトレベルからペタバイトレベルまでの膨大なデータ量を指します。「高速」とは、データ生成と処理の速度が非常に速いことを指します。たとえば、産業用ビッグデータアプリケーションに配備されているさまざまなセンサーは、1秒あたり数Gの頻度でデータを収集できます。「多様性」とは、音声、テキスト、画像、ビデオなど、データの種類が多く、異なる種類のデータには異なる処理方法が必要になることが多いことを指します。「価値密度が低い」とは、大量のデータの中に価値あるデータがごくわずかしかないことを指します。たとえば、監視ビデオで最も価値のあるデータは、多くの場合、わずか数秒です。「信頼性」とは、高品質のデータの追求を指します。データの規模は意思決定の助けにはならないため、データの信頼性と品質が正しい意思決定の鍵となります。

ビッグデータは実際の生産や生活において多くの実用的な用途があります。たとえば、天気予報はビッグデータに基づいて将来の天気を予測するものです。これらのデータは 1 年前のものである場合もあれば、数年、数十年、あるいはそれ以上にわたって蓄積されたものである場合もあります。例えば、スマートビジネス、インダストリー4.0、インターネットサービス、スマートファイナンスなどの分野では、ビッグデータの活用により、これらの分野に劇的な変化と進歩がもたらされています。

ビッグデータの膨大なデータ特性により、コンピュータサイエンス、情報科学、統計学などの応用分野の急速な発展が促進されました。同時に、データ量の爆発的な増加に伴い、非構造化データや不完全なデータも増加しています。従来の方法でビッグデータを処理すると、データに含まれる価値が大きく失われます。

現在、人工知能の開発は機械学習に集中しています。機械学習の重要な方法である教師あり学習と教師なし学習の両方には、ビッグデータの「入力」が必要です。教師あり学習は機械学習の効果的な方法の 1 つです。監視された学習プロセスでは、ラベルのあるサンプルをマシンに「供給」する必要があり、ラベル付きサンプルはこの意味では、人工知能が必要です。深い学習を例にとると、データが多いほど効果が向上します。監視されていない学習は、問題を解決するために膨大な量のデータから統計パターンを学習し、ビッグデータにも依存しています。

それで、それは、より多くのデータがあり、ラベルの付いたサンプルが多いほど、効果が良くなることを意味しますか?一部の学者は、画像でのオブジェクト検出のタスクに関する関連研究を行っており(図4を参照)、一方ではトレーニングデータの拡張により、タスクのパフォーマンスが3億のスケールが成長し、パフォーマンスの改善が停止していないことを意味します。

人工知能の現在の開発のもう1つの重要な顕現は、大規模な知識工学技術です。ナレッジエンジニアリングは、専門家システムの構築に焦点を当てた分野であり、専門知識を使用して問題を解決することを目指しています。インターネット時代に入った後、大規模なオープンアプリケーションでは、大規模な単純な知識表現が必要です。ナレッジグラフはそのような知識表現であり、その本質は、エンティティ、概念、およびそれらの間のさまざまなセマンティック関係を含む大規模なセマンティックネットワークです。

知識グラフの誕生は、知識工学をビッグデータの時代にもたらしました。知識の習得のための専門家への従来のエンジニアリングの依存によって引き起こされたボトルネックは、コンピューティングパワー、アルゴリズム、およびデータの前例のない「収束」により壊れています。自動抽出モデルを使用することにより、インターネット上の数十億のテキストから数億個の構造化された知識を自動的に取得できます。 Q&A、フォーラム、WIKIなどなど、インターネット時代の高品質のUGC(ユーザーコントリビューされたコンテンツ)は、自動化された知識を獲得するための多数の高品質のデータソースを提供します。ビッグデータと共存するクラウドソーシングプラットフォームにより、アイドル状態の人材をより効果的に利用することができます。人類が小規模な知識の時代から大規模な知識の時代に移行したのは、これらの機会の合計効果の下にあります。知識グラフは、知識工学の復活をリードすることが期待されています。知識表現のより多くの形態は、ビッグデータのエンパワーメントにより、より実用的な問題を解決します(図5を参照してください。これは、サッカーのスターに関連する知識グラフです)。

人工知能の開発の第3波は、主にビッグデータの栄養がなければ、人工知能が急速に進歩することは困難です。現在、人工知能の多くのアプリケーションは、たとえば、データが豊富なシナリオで行われています。

2。人工知能とコンピューティングパワー

コンピューティングパワーとは、コンピューティング能力を指します。コンピューティング能力の大幅な成長は、コンピューターデータストレージ容量とデータ処理速度の急速な増加に反映されており(図6と図7を参照)、どちらも指数関数的な成長傾向を示しています。私の国のスーパーコンピューター「Sunway Taihulight」のパフォーマンスは9.3 PetaFlops/Second、ピークパフォーマンスは12.5 PetaFlops/Secondです。一方で、コンピューティングパワーの急速な成長は、ムーアの法則の継続的な影響(コンピューターハードウェアはたまに2倍になる)に起因するため、個々のコンピューティングコンポーネントのコンピューティングパフォーマンスの成長につながります。一方、クラウドコンピューティングによって表されるパフォーマンスの拡大などのテクノロジーも発展し続けています。クラウドコンピューティングは、大規模な安価なマシンを高性能コンピューティングクラスターに整理し、メインフレームのコンピューティング機能を提供するか、さらにはそれを超えるコンピューティング機能を提供できます。

人工知能の急速な発展は、強力なコンピューティング能力と切り離せません。人工知能の概念が最初に提案されたとき、そのコンピューティング能力の制限により、大規模な並列コンピューティングと処理を完了することはできず、人工知能システムの機能は比較的弱かった。しかし、深い学習の人気により、人工知能技術の開発は、高性能コンピューティングパワーに対するますます緊急の需要を提案しています。ディープラーニングは、主にディープニューラルネットワークモデルを学習モデルとして使用し、深いニューラルネットワークは浅いニューラルネットワークから開発されています。ディープラーニングモデルのトレーニングは、典型的な高次元パラメーター最適化問題です。ディープニューラルネットワークモデルには多層構造があり、パラメーターの指数関数的な成長につながります。 BERT(変圧器からの双方向エンコーダー表現)が表す言語モデルは、最新の世界記録には、NVIDIAが83億パラメーターの言語モデルを訓練したことです(2019年8月)。 Bertの3億パラメーターモデルのトレーニングを例にとると、R&Dチームは、合計16のクラウドTPU(テンソル処理ユニット)を4日近く消費して、各クラウドTPU(1 TFLOPSは1兆ポイント操作あたり1兆ポイント操作と64GBのメモリを提供できます。

人工知能の国々の競争は、大部分がコンピューティングパワーの競争に進化してきました。 Huaweiによって開始された一連のAIコンピューティングチップは、ある程度、私の国の人工知能の開発におけるコンピューティングパワーの改善を促進しました。

3。人工知能とアルゴリズム

アルゴリズムは、問題を解決するか、計算を実行するためのコンピューターの一連の指示です。多くの数学的モデルは、特定の操作とモデルの間に対応するアルゴリズムの実装を必要とします。人工知能に関連する多くの種類のアルゴリズムがあり、検索、計画、進化、コラボレーション、最適化などの一連のタスクが含まれます。現在、人工知能の分野の急速な発展は、一連の新しいアルゴリズムとモデル、特に深い学習に代表される機械学習アルゴリズムの急速な発展に特に顕著です。機械学習は、観察されたデータ(サンプル)でパターンを見つける方法であり、学習パターン(モデル)を使用して未知のまたは観測不可能なデータを予測します。データの量が急速に増加すると、ビッグデータから統計法則を発見し、これらの統計法則を使用して実際の問題を解決することがますます一般的になっています。

現在の機械学習の本質は、統計学習であり、履歴ラベル付きデータを介して学習モデルに合わせて構築することです。古典的な線形回帰を例として、線形回帰は、サンプルから適切な線形マッピングfを学習することを目的としています。

次に、正しい出力変数Yを取得できます。住宅エリアと価格の関係に関する履歴データがあると仮定します(たとえば、表1に示すように、最初の列は、60平方メートルの家の価格が300万であることを示しています。ここで、家のエリアと価格データの各ペア(

)はサンプルであり、すべてのサンプルのセットは(

)、

)、…、(

)。明らかに、私たちは家のサイズに基づいて住宅価格を予測することに興味があります。住宅エリア

入力変数または説明変数、住宅価格です

予測する必要がある変数、出力変数、または応答変数です。これらのサンプルデータから学んだ住宅価格と住宅エリアの関係は、関数fとして表現できます(各入力は明確で一意の出力を生成します)。 fは入力として家のサイズを受け取り、対応する価格を出力として予測します。たとえば、テーブルに存在しない85平方メートルの家の場合、F機能を通じて価格を予測できます。

住宅エリアと住宅価格の機能的な関係を学ぶために、共通の学習方法は最小二乗法です。まず、fが単純な線形関数、つまりf(x)= a + bxであると仮定します。ここで、aとbはパラメーターです。 fの関数形式を決定することは、2つのパラメーターaとbの特定の値を決定することです。したがって、Fの学習は、2つのパラメーターaとbの学習問題に変換されます。明らかに、Fが良好な機能である場合、現在観測されているサンプルと可能な限り一貫性があるはずです。つまり、F(60)はできるだけ300万の真の価格に近いはずです。観察されたすべてのサンプルにこの期待を一般化することにより、次のエラー関数が取得されます。

直感的な理解は、予測された価格と実際の価格が、あなたが取得したい線形関数(赤い線)の最小の累積四角誤差であるということです。上記のエラー関数が最小化される場合のパラメーターAおよびBは、部分微分によって取得できます。得られたパラメーターaとbに基づいて、関数fを完全に決定できるため、任意の領域に基づいて住宅価格の予測を実行できます(図8を参照)。機械学習には多くのタスクがあり、上記の線形回帰は最も単純なカテゴリにすぎません。 Fが非線形関数の場合、それは非線形回帰問題です。住宅価格は継続的な価値であり、一部のタスクでは、個別の量が予測されます。たとえば、患者が体温、血液指標などに基づいて風邪をひいているかどうかを予測するために(風邪をひいているかどうかを判断するだけです)、現時点での機械学習の問題は分類問題になります。さらに、多くの場合、顧客を自動的にクラスタリングするなど、データをクラスター化する必要があるため、それらを異なるグループに分割する必要があります。これらの特定の問題モデルに加えて、機械学習には、K最近の隣接分類アルゴリズム、「決定ツリー」に基づく分類アルゴリズム、「サポートベクターマシン」、K平均クラスタリングアルゴリズム、PCAベースの寸法削減アルゴリズムに基づくaseverther evolutiant evolutiantに基づく分類アルゴリズムなど、多くのアルゴリズムも含まれます線形回帰)など

<<:  この記事を読んで、人工知能に携わる私は、もう

>>:  ナレッジグラフはどのようにして「人工知能」をよりスマートにするのでしょうか?

ブログ    
ブログ    

推薦する

AIがコンピューティングをエッジに押し上げる

[[408175]]ここ数年の流行語といえば、エッジ コンピューティングは 5G や AI と密接に...

...

AIチップのスタートアップ企業が実装の道を探り、開発が成熟

ここ数年、AIチップの新興企業が雨後の筍のように出現した。現在、初期の参加者グループは、優れたチップ...

運輸省は自動運転について「技術革新を歓迎し、支持する」と回答

[[349592]]最近、百度などの企業が自動運転タクシーを導入し、社会的注目を集めています。交通運...

「インテリジェント接続」を理解するにはこの記事で十分です!

人類社会は「つながりがない」「弱いつながり」から「賢いつながり」へと徐々に移行しつつあります。グロー...

世界一のAIサーバーになるための勇気と戦略

現在、人工知能はますます産業に統合されつつあります。アプリケーション側では、顔認識決済、自動運転車、...

...

35 歳の技術者が管理職に転身するにはどうすればいいでしょうか?アリババの上級アルゴリズム専門家が10の考えを明かす

[[313295]] 35歳前後というのはエンジニアにとって珍しい年齢です。技術者は、純粋に技術的な...

人工直感は人工知能の次の発展方向となるだろう

AI はこれまでに開発された最も強力なテクノロジーの 1 つですが、すでに 4 回の進化を経ています...

AIを活用して大気汚染と戦う方法

大気汚染はほぼあらゆる場所で依然として問題となっており、地球温暖化、生物多様性の喪失、土壌劣化、淡水...

...

...

...

自動運転の 6 つのレベル: 真の無人運転までどれくらいの距離があるのでしょうか?

社会の発展に伴い、わが国の工場は徐々に手作業中心から設備中心へと変化し、人類の創造性が十分に反映され...