ビッグデータ分析と人工知能:技術コンテンツの価値分析

ビッグデータ分析と人工知能:技術コンテンツの価値分析

[[265480]]

テクノロジーの継続的な発展に伴い、テクノロジーの種類はますます増えています。人々がすべてのテクノロジーを習得することは不可能ですが、テクノロジーは人々にあまりにも多くの選択肢を与えています。現時点では、どのテクノロジーを使用するかを選択する際に、人々はしばしば混乱します。どのテクノロジーを選択すればよいのか分からず、どこから始めればよいのか分かりません。一部のテクノロジーは無意味であり、どのような用途があるのか​​分からないと考え、テクノロジーの役割に疑問を抱くことさえあります。今日は、データサイエンス分野における技術の存在意義について議論し、ビッグデータ分析は役に立たないのか、データサイエンス技術体系における価値ある技術とは一体何なのか、そして人工知能分野で反対の声がますます大きくなる中、人工知能は存続できるのか、どこまで進むことができるのかを分析します。

ビッグデータ技術:世界はどうなるのか

ビッグデータ分析は無駄ではない

コンピュータ誕生から70年が経ち、コンピュータ単体の計算性能は物理的な限界に近づきつつあり、コンピュータの発展を伴ってきたムーアの法則は次第に無効になりつつあります。 70 年にわたる発展の歴史において、ムーアの法則は始まりを正確に表すのに使えます。1965 年、インテルの創設者の 1 人であるゴードン・ムーアは、コンピューター ハードウェアの発展の法則を研究した後、有名なムーアの法則を提唱しました。

この法則によれば、同じ面積のチップに収容できるトランジスタの数は 16 ~ 24 か月ごとに 2 倍になり、コンピューティング性能も 2 倍になります。つまり、単価あたりに購入できるコンピューティング能力は、16 ~ 24 か月ごとに 2 倍になります。その後の数十年間に、ムーアの法則は数え切れないほど確認されました。これまで、コンピュータの性能が限界に達したため、ムーアの法則は失敗したように思われます。

発展の過程では、ムーアの法則が引き続き効力を発揮し、コンピュータ分野ではネットワーク帯域幅と物理的なストレージ容量も同期して発展しました。過去半世紀にわたって、メモリの価格は当初の価格のほぼ10億分の1にまで下がりました。

ネットワークブロードバンドの速度も限界を突破し続けています。

こうした物理ハードウェアのアップグレードに伴い、コンピュータ分野ではOTT型の技術革新が起こり、分散コンピューティングと量子コンピュータ技術が誕生しました。この2つの出現は、コンピュータリソースの供給側の状況を決定的に変えることは間違いありません。

分散型コンピュータ技術は、ビッグデータ分野における基礎となるITアーキテクチャの業界標準となりつつあります。分散型コンピューティングは、コンピューティングリソースを割り当ててサポートを提供することでコンピューティング目標を達成し、ビッグデータシナリオにおいて単一の物理マシンのコンピューティング能力を超える過剰なコンピューティング量の問題を解決します。また、物理コンピューティングリソースと連携して、その後のクラウドコンピューティングの基盤を築きます。

量子コンピュータ技術により、単体の計算能力が質的に飛躍的に向上します。しかし、量子コンピュータの中核技術が未だに解明されていない現状では、爆発的なデータ増加に対して人類は無力である...

長い探求を経て、人類は分散コンピューティング技術を利用して新たな OTT 技術革新を実現することを決定しました。この動きは、膨大なデータ保存とコンピューティングの問題を解決するだけでなく、人類がコンピューティング リソースのボトルネックの制約から完全に解放されるのにも役立ちます。

しかし、ビッグデータ技術の現在の開発状況から判断すると、本当の難しさは基礎ツールの習得にあります。開発はまだ初期段階であるため、人々は依然として多数の基礎ツールを習得する必要があります。この道は、歩く人が少ないため、泥だらけのように見えます。基本的なツールが開発され、習得されて初めて、ユーザーの敷居を下げることができます。

これは私たちにとって困難な道でしょうか?本当に難しいですね!しかし、この道の困難を克服する価値はあります。なぜなら、そのメリットは非常に費用対効果が高いからです。この道の難しさは、多くの基礎ツールを習得することにあります。なぜでしょうか?この道を歩く人が少ないため、まだ泥道で歩きにくい。しかし、なぜ困難を乗り越えて進み続ける価値があるのか​​?量子コンピュータが登場しない限り、ムーアの法則が破綻し、データ量が増えるにつれて、通過の需要が膨大になり、次々と高速道路が生まれ、その後、道路を舗装した大企業が検問所を設けて税金を徴収するようになるからだ。遅かれ早かれ、泥道は高速道路になるが、まずそこに行ってみれば、他の人には見えない景色が見える。

コンピュータが DOS システムからデスクトップ システムへ、そして Python 機械学習がソース コードからアルゴリズム ライブラリへ移行したのは、常にこのような状況だったのではないでしょうか。

機械生産は脳の力を解放し、機械学習は脳の力を解放する

データ革命の本質

ビッグデータ分析技術は価値があり、データ分析技術はさらに価値があります。では、データサイエンスの知識コンテンツシステム全体で最も価値のあるものは何でしょうか?

技術の発見という観点から問題を見ることが本当に興味深いのであれば、別の質問、つまり技術的な観点から(仕事を見つけるのが容易かどうかという観点からではなく)、データ サイエンスで最も価値のある技術モジュールはどれか、についても議論したほうがよいでしょう。

人工知能はデータによって育まれた知能であり、その意思決定の核となるのはアルゴリズムです。人工知能の発展は、手作業を機械生産に置き換えることで人間の労働力を解放した18世紀の産業革命に似ています。データインテリジェンスは、意思決定に参加することで人間の脳力を解放します。機械学習は、人工知能による意思決定を提供する中核的なアルゴリズムです。

機械学習アルゴリズムの核心目的は、物事の動作の内部ロジックと法則を探索することです。つまり、データを外部情報を受信する形式として使用し、データを使用して外部の物事の基本的な特性と動作状態を復元し、機械学習アルゴリズムを使用してその法則を探索し、客観的な法則を復元します。次に、意思決定を支援するためにルールを適用します。

機械学習により、人間が基本的な反復的な意思決定を行う分野で人工知能が意思決定に参加できるようになります。

[[265481]]

アルゴリズムの核となる方法論は、最良のものから学び、平均的な結果のみを達成することです。データ分析の核となる価値は、技術的な核となる価値の旗印の下になければなりません。スモールデータかビッグデータかに関係なく、分析が鍵となります。 Python の開発が進むにつれて、さらなるインフラストラクチャが開発され、Python は標準ツールになりました。

Python のコアスキルは、アルゴリズムのモデリングと分析のために多くの強力なアルゴリズム ライブラリを使用することです。

強い AI、弱い AI、それとも人工知能?

データ、アルゴリズム、計算能力によって推進される人工知能技術の開発はボトルネックに達しているのでしょうか?

我が国の国家標準化局が2018年1月に発行した「人工知能標準化白書」では、人工知能分野の基本的な考え方と内容が説明されています。人工知能は、知的な活動、知識プロジェクト、そして機械が知識を使用して特定の動作を完了する際に人間を模倣するプロセスを中心に構築された人工システムであるべきだと考えられています。

相対的に言えば、我が国の人工知能は比較的遅れて始まりました。人工知能の発展は、1950年代から1980年代までの3つの段階に分けられます。この段階では、人工知能が誕生したばかりでしたが、多くのことが正式に表現できなかったため、確立されたモデルには一定の限界がありました。第2段階は1980年代から1990年代にかけてで、エキスパートシステムが急速に発展し、数学モデルが大きな進歩を遂げた時期です。しかし、エキスパートシステムが知識獲得などの面で不十分であったため、人工知能の発展は再び低迷期に入りました。第三段階は21世紀初頭から現在までであり、ビッグデータの蓄積、理論アルゴリズムの革新、計算能力の向上により、人工知能は多くの応用分野で画期的な進歩を遂げ、新たな繁栄の時代を迎えました。

人工知能の発展の定義と国家が発行した「人工知能白書」によれば、人工知能は強い人工知能と弱い人工知能の2種類に分けられます。

弱い人工知能とは、真に推論して問題を解決することができない知能機械を指します。これらの機械は表面上は知的に見えますが、実際には知能を備えておらず、自律的な意識もありません。しかし、現在の主流の研究は依然として弱い人工知能に焦点を当てており、音声認識、画像処理とオブジェクトのセグメンテーション、機械翻訳などにおける大きな進歩など、人間のレベルに近づくか、それを超えることさえあるなど、目覚ましい進歩を遂げています。

強力な人工知能とは、思考できる真に知的な機械であり、そのような機械は知覚力と自己認識力を持っていると考えられています。このタイプの機械は、ヒューマノイドと非ヒューマノイドの 2 つのカテゴリに分けられます。一般的に、人間のレベルに達し、外部環境の課題に適応的に対応でき、自己認識を持つ人工知能は、「汎用人工知能」、「強力な人工知能」または「人間のような知能」と呼ばれます。

一般的に言えば、強力な人工知能の時代が到来したと考えていますが、まだ普及していません。しかし、現時点では、まだいくつかの興味深い意見があります。彼らは反対の声を持ち、人工知能は賢くない、または人工的に遅れていると信じています。

運転中、私たちの脳は交通信号、標識、マンホールの蓋、道路に溜まった水など、あらゆる種類の情報を高速で処理している、と研究者は考えています。道路の真ん中で犬が道路を横切っているのを見ると、ブレーキを踏みます。道路の真ん中に鳥がいるのを見ると、鳥はすぐに飛び去るので減速する必要はないと判断します。ビニール袋であれば、そのまま轢いても大丈夫、大きな石であれば、避ける必要があります。これらはすべて、経験と常識の蓄積によって形成されます。しかし、人工知能ではこれができません。

現在研究されている人工知能は「狭義の」人工知能です。 「本物の」AIは、警察が道路上に設置したコーンなどが倒れたり潰れたりしても、食べ物との因果関係を理解できる必要がある。しかし、現在の画像認識能力では、角度を変えてもコンピューターが障害物を認識することは難しいでしょう。 「狭義の」人工知能は機械学習の道をたどります。つまり、コンピューターは道路上のすべての物体(足、他の車両、標識、歩行者、ビニール袋、石など)を障害物と見なし、同時にこれらの障害物の移動経路を計算および予測し、車両の経路と衝突するかどうかを判断し、対応するアクションを実行します。

そこで質問です…

コンピュータが物体を理解できない場合、物体の移動軌跡を 100% の精度で予測することは不可能であることを意味します。たとえば、道の真ん中にいる犬。たとえ現在前進中であったとしても、次の瞬間にどこにいるかを予測することは困難です。道路の真ん中に子供がいたらどうしますか?同時に、道路脇の交通標識をコンピューターに認識させることも非常に困難です。標識が破損したり、遮られたりした場合、コンピュータの認識に影響します。

したがって、現在の人工知能は「狭義の」人工知能に属し、その中核はビッグデータに基づく学習です。しかし、常に変化する現実の世界では、コンピューターは物事の関係を真に理解することができず、予期しない状況に対処することができません。

自動運転は次の 5 つのレベルに分けられます。

支援型自動運転(自動ブレーキ、車線維持、駐車支援システムなど) 一定の条件下では、車は自動運転できますが、ドライバーはリアルタイムで監視する必要があります(テスラの自動運転技術など)。 一定の条件下では、車は自動運転でき、ドライバーはリアルタイムで監視する必要はありませんが、いつでも運転を引き継ぐ準備ができていなければなりません。一定の条件下では、無人自動運転を実現できます。無人自動運転を完全実現。

現時点では、自動運転の第 5 レベルを達成するまでには、まだ長い道のりが残っています。もちろん、この道路の将来がどうなるかは誰にもわかりません。

私の意見では、テクノロジーの発展に伴い、人工知能の道は継続不可能ではありませんが、この道はより困難です。そして、人工知能が強力な人工知能に到達したときにのみ、人工知能が人類に利益をもたらすことができるということではありません。現在、人工知能は私たちの周りの多くの分野で使用されており、常に私たちを助けています。人工知能を使用して、人工知能を継続的に改善し、継続的なサイクルを実現できます。データサイエンスの分野に関心を持つ多くの人々が、それらを継続的に改善する必要があるだけです。

この記事を読んで何か得るものがあれば幸いです。何かアイデアがあれば、一緒に議論できればと思います。ありがとうございます。

<<:  10年後にあなたの生活を変える5つの新しいテクノロジー

>>:  画像認識は思ったほど難しくありません!この記事を読めばあなたも専門家になれる

ブログ    
ブログ    
ブログ    

推薦する

...

人工知能に特化したAIハッカーが近々登場すると予想

最近、ある問題を発見しました:映画でも現実でも、人工知能AIは人間を圧倒するような形で世間の前に現れ...

...

...

5GとAI: 現在と未来の補完的なテクノロジー

テクノロジーの世界では、人工知能と 5G、そしてそれらがもたらす変革の可能性について大きな話題が飛び...

自然言語処理におけるディープラーニングの応用

自然言語処理とは、自然言語を使用して人間とコンピューターが効果的にコミュニケーションするためのさまざ...

認知分析について知っておくべきことすべて

コンテキストを提供し、大量の情報に隠された答えを発見するために、コグニティブ コンピューティングはさ...

...

...

ドーパミンが来る! Google が新しい強化学習フレームワーク Dopamine を発表

Google は、TensorFlow をベースとし、柔軟性、安定性、再現性、高速ベンチマークを提供...

TinyML を理解する: エッジでの超低消費電力機械学習

導入最も普及している IoT デバイスは小型で、電力が限られている傾向があります。これらは、組み込み...

大企業の面接官によく聞かれるアルゴリズム図:スタック内の最小値を見つける方法がまだわかりませんか?

今日のインタビューの質問はこれです...トピックスタックデータ構造を定義します。この型でスタックの最...

Googleが量子コンピューティングAIラボを発表、今後10年のロードマップを公開

[[425546]]エリック・ルセロ博士最近、Google Quantum AIのチーフエンジニアで...

人工知能が製造業のデジタル変革を推進

製造業における人工知能がデジタル変革を推進製造業における人工知能はデジタル変革を可能にし、より効果的...