人々は 1960 年代から HAL のような SF レベルの AI を期待してきましたが、最近まで PC やロボットはかなり愚かなものでした。現在、テクノロジー大手も新興企業も、自動運転車、ロボット医師、機械投資家など、AI革命の到来を告げています。 PwCは、2030年までにAIが世界経済に15.7兆ドルの貢献をすると考えています。 「AI」は2017年の流行語であり、「.com」が1999年の流行語であったのと同じように、誰もがAIに興味があると主張しています。 AI に関する誇大宣伝に騙されないでください。これはバブルでしょうか、それとも現実でしょうか? 以前の AI トレンドと比べて、今は何が新しいのでしょうか? AIは簡単に、あるいはすぐに導入されるものではありません。 AI の最もエキサイティングな例は、多くの場合、大学やテクノロジー大手から生まれます。最新の AI テクノロジーで自社に革命を起こすと約束する自称 AI 専門家は、単に間違った AI メッセージを広めているだけであり、中には古いテクノロジーを単にリブランドして AI としてパッケージ化しているだけの人もいます。誰もがすでに、Google、Microsoft、Amazon などのサービスを利用することで、最新の AI テクノロジーを体験しています。しかし、「ディープラーニング」はすぐに大企業に習得され、カスタマイズされた社内プロジェクトに使用されることはありません。ほとんどの人には、AI を確実にトレーニングするのに十分な関連デジタル データが不足しています。結局のところ、AI によってすべての仕事がなくなるわけではない。特に、各 AI をトレーニングしてテストするには依然として人間が必要であるためだ。 AIは現在、「目で見る」ことができ、医療画像から癌やその他の病気を特定すること、統計的には人間の放射線科医、眼科医、皮膚科医などよりも優れていること、また、車を運転したり唇を読んだりするなど、視覚に関連するいくつかのタスクに熟達しています。 AIはサンプル(ピカソやあなたの絵画など)から学習することで、あらゆるスタイルの絵を描くことができます。逆に、絵画を使って不足している情報を補い、実際の写真が何であるかを推測することもできます。 AI は、Web ページやアプリケーションのスクリーンショットを見て、同様の Web ページやアプリケーションを作成するためのコードを記述できます。 AI は今や「耳で聞く」こともできる。あなたの言うことを理解できるだけでなく、ビートルズやあなたの音楽を聴いて新しい音楽を作り出したり、聞いた人の声を真似したりすることもできる。平均的な人は、絵画や音楽が人間によって作成されたのか機械によって作成されたのかを見分けることはできませんし、文章が人間によって話されたのか AI によって話されたのかを見分けることもできません。 ポーカーで勝つために訓練された AI は、ブラフ、落ちたカードの処理、潜在的な不正行為、誤解を招く情報の処理を学習しました。交渉するように訓練されたロボットは、欺くこと、相手が嘘をついているかどうかを推測すること、そして必要に応じて嘘をつくことも学んでいる。日本語と英語、韓国語と英語を翻訳するAIは、韓国語と日本語も翻訳できます。翻訳AIは独自の中間言語を作り出し、言語の境界に関係なくあらゆる文章を翻訳できるようになっているようです。 機械学習 (ML) は、機械が経験や現実世界の例から学習できるようにする AI のサブカテゴリであり、データが多いほど学習できる内容も増えます。機械は、経験を積むにつれてタスクの能力が向上する場合、そのタスクについて経験から学習すると言われています。しかし、ほとんどの AI は依然として固定されたルールに基づいて構築されており、学習できません。これからは、他のAIとの違いを強調するため、「データから学習するAI」を「機械学習」という用語で表現します。 人工ニューラル ネットワークは機械学習への 1 つの道にすぎません。他の方法としては、決定木、サポート ベクター マシンなどがあります。ディープラーニングは、多くの抽象化レベルを備えた人工ニューラル ネットワークの一種です。 「深い」という誇大宣伝文句はさておき、多くの機械学習手法は「浅い」ものです。成功する機械学習は通常、ハイブリッド、つまりツリー + ディープラーニング + その他など、個別にトレーニングされた後に組み合わされた多くの方法の組み合わせです。各方法では異なるエラーが発生する可能性があるため、各方法の成功結果を平均すると、いずれかの方法単独よりも優れた結果になります。 古いAIは「学習」できません。これはルールベースであり、人間が書いたいくつかの「if...then...」だけです。問題を解決できる限り AI と呼ばれますが、データから学習できないため機械学習ではありません。今日の AI と自動化システムのほとんどは、依然としてルールベースのコードです。機械学習は 1960 年代から知られるようになりましたが、人間の脳と同様に、膨大な量のデータを処理するには膨大な計算能力が必要です。 1980 年代には、PC 上で ML をトレーニングするのに数か月かかり、当時はデジタル データが不足していました。手動で入力されたルールベースのコードによってほとんどの問題がすぐに解決されるため、機械学習は忘れ去られます。しかし、現在私たちが持っているハードウェアを使えば、数分で ML をトレーニングでき、最適なパラメータがわかっており、数値データも豊富です。そして 2010 年以降、視覚、音声、言語翻訳からゲームプレイまで、AI の分野は次々と機械学習に支配されるようになり、機械学習はルールベースの AI を上回り、多くの場合、人間を上回るパフォーマンスを発揮しました。 なぜ AI は 1997 年にチェスで人間に勝ったのに、囲碁で人間に勝つには 2016 年までかかったのでしょうか。1997 年当時、コンピューターは 8×8 のチェス盤上のすべての可能性を計算しただけでしたが、囲碁には 19×19 の可能性があり、コンピューターがすべての可能性を計算するには 10 億年かかります。それは、アルファベットの文字をすべてランダムに組み合わせて、一つの記事を作ろうとするようなもので、不可能です。したがって、人々に知られている唯一の希望は ML をトレーニングすることですが、ML は近似的であり、決定論的ではなく、機械学習は「確率的」です。統計分析のパターンには使用できますが、正確な予測には使用できません。 ML をトレーニングするための適切なデータがあれば、機械学習によって自動化が可能になります。 ほとんどの機械学習は教師あり学習であり、トレーニングに使用されるインスタンスにはラベルが付けられ、ラベルは各インスタンスの説明または注釈です。まず、猫の写真と犬の写真、またはスパムメールと正常なメールを手動で分離する必要があります。これは非常に重要です。データに誤ったラベルを付けると、最終的な ML も不正確になるからです。ラベル付けされていないデータを ML に入力することは教師なし学習であり、ML は有用なパターンとデータ グループを見つけますが、それだけでは多くの問題を解決することはできません。したがって、一部の ML は半教師ありです。 異常検出では、詐欺やサイバー侵入などの異常な事象を識別します。古いタイプの詐欺を訓練した ML は、新しいタイプの詐欺を見逃します。疑わしい相違点があれば ML に警告させることができます。政府機関はすでに脱税の検出に機械学習を活用し始めています。 強化学習は、1983 年の映画「ウォー・ゲーム」ですでに取り上げられており、コンピューターがあらゆるシナリオを光速で実行して第三次世界大戦を回避しました。この AI は何百万もの失敗と試行を経て探索し、最終的に莫大な報酬を獲得しました。 AlphaGo は対戦相手と何百万回も対戦することで訓練され、超人的なスキルを獲得しました。これまでに見たことのない動きをし、人間のプレイヤーが間違った動きだとさえ考えていたかもしれない動きをしました。しかし後に、これらの動きは非常に巧妙なものであると認識されました。 ML は人間の囲碁プレイヤーよりも創造的になり始めています。 「AI 効果」は、AI が実際には知的ではないと人々が信じたときに現れました。人々は無意識のうちに魔法を信じ、人間が宇宙の中で唯一無二の存在であると信じる必要がある。チェス、画像認識、翻訳など、何らかの知的な活動で機械が人間を上回るたびに、人々は「それは単なる計算能力であって、知能ではない」と言います。AIは多くのアプリに存在しますが、広く使用されるようになると、もはや「知能」とは呼ばれなくなります。もし「知能」が単にAIが実現していない能力(つまり脳に特有の能力)であるならば、辞書は毎年更新されなければならないでしょう。例えば、1950年代以前は数学は知的活動と考えられていましたが、今ではそうではありません。これは本当に奇妙だ。 「強力な計算能力」に関して言えば、人間の脳には 100 兆個の神経接続があり、これは地球上のどのコンピューターよりもはるかに多い数です。機械学習では「ブルートフォースコンピューティング」は実行できません。機械学習がすべての接続を試行すると、10 億年かかります。機械学習は「訓練された内容に基づいて推測する」だけであり、脳よりも少ない計算能力しか使用しません。したがって、人間の脳は十分な知性を持っておらず、強力な計算能力を持っているだけだと主張するのは AI であるべきです。 機械学習は人間の脳のシミュレーターではありません。実際のニューロンは大きく異なります。機械学習は脳の真の力を引き出すもう一つの道です。脳と機械学習はどちらも統計(確率)を処理して複雑な関数を近似しますが、どちらもわずかに偏った結果を生成しますが、結果は使用可能です。機械学習と人間の脳は、問題に対して異なる方法でアプローチするため、同じタスクに対して異なる結果をもたらします。脳は物事を忘れがちで、特定の数学の問題を解く際に多くの限界があることは誰もが知っていますが、機械は記憶と計算に関しては完璧です。しかし、「機械は明確な答えを出さなければ壊れている」という古い考えは間違っており、時代遅れです。人間は多くの間違いを犯しますが、人間の脳は壊れているという話は聞かないでしょう。むしろ、人間の脳はもっと一生懸命学ぶべきだという話を聞くでしょう。つまり、ML は壊れているわけではなく、より一生懸命学習し、より多くの異なるデータから学習する必要があるだけです。人間の偏見に基づいてトレーニングされた ML は、人種差別的、性差別的、不公平的になる可能性があり、最悪なのは、人間の脳です。 ML はデータでトレーニングするだけでなく、人間の作業、行動、脳を模倣するように設計するだけにすべきではありません。同じ ML を他の銀河で訓練すれば、エイリアンの脳を模倣でき、エイリアンの思考で考えることができるようになります。 AIは人間と同じくらい神秘的になりつつあります。コンピューターは創造的になれず、嘘をつき、間違いを犯し、人間のようになることはできないという考えは、確かに予測可能だった古いルールベースの AI に由来していますが、機械学習の出現によりそれが変わりました。 AI が新しい機能を習得したからといって、「十分に賢くない」と言われる時代は終わりました。AI にとって本当に重要な区別は、汎用 AI か、限定的 AI かだけです。 他の科学とは異なり、ML が論理理論を使用しているかどうかを検証することはできません。 ML が正しいかどうかを判断するには、まだ見たことのない新しいデータで結果をテストすることしかできません。 ML はブラック ボックスではありません。ML が生成して実行する「if…then…」リストを見ることはできますが、多くの場合、データは人間が処理するには大きすぎて複雑すぎます。 ML は、現実世界の混乱と人間の直感を再現しようとする実践的な科学であり、単純な説明や理論的な説明を与えるものではありません。それは、うまくいくアイデアがあるのに、それをどうやって思いついたのかを正確に説明できないようなものです。脳にとって、これはインスピレーション、直感、潜在意識と呼ばれますが、コンピューターにとっては機械学習と呼ばれます。人が脳内で決断を下すために必要なすべての神経信号を取得できたとしたら、脳が実際になぜ、どのようにその決断を下したかを理解できるでしょうか? おそらく理解できるでしょうが、それは複雑です。 誰もが他人の顔を直感的に想像することができますが、それは現実的な顔であったり、ピカソのような顔であったりします。声や音楽のスタイルを想像することもできます。しかし、顔、声、音楽スタイルの変化を完全かつ効果的に説明する方法を思いついた人は誰もいません。人間は3次元しか見ることができませんが、アインシュタインでさえ、500次元の機械学習の一般的な数学の問題を意識的に解くことはできませんでした。しかし、私たち人間の脳は、この 500 次元の数学の問題を魔法のように直感的に解いてきました。なぜ意識的に解決できないのでしょうか? 脳があらゆる思考に対して何千もの変数を使った公式を与えたとしたらどうでしょう? 余分な情報はすべて私たちを大いに混乱させ、大幅に速度を低下させるでしょう。ではなぜわざわざそんなことをするのでしょうか? 人間は何ページにも及ぶ数学的計算を実行できるわけではありませんし、私たちは頭に USB ケーブルのようなものを進化させたわけではありません。 欠陥のある自動化は人間の仕事を減らすのではなく、増やすことになる。 人間が何も予測できないのであれば、機械学習も何も予測できません。多くの人が何年にもわたる市場価格の変化を利用して ML をトレーニングしていますが、これらの AI では依然として市場動向を予測することはできません。 ML は、過去の要因と傾向が一定である場合にのみ予測を行うことができます。しかし、株価や経済の動向は頻繁に、ほぼランダムに変化します。古いデータが有効でなくなったり、誤検知が頻繁に含まれたりすると、ML は失敗します。学習したタスクとルールは、再度トレーニングできるように、一貫性を保つか、少なくともほとんど変更されないようにする必要があります。たとえば、運転の学習、ポーカーのプレイ、特定のスタイルでの絵の描き方、健康データに基づく病気の予測、異なる言語の切り替えなどは、すべて機械学習で実行できることであり、古い例は近い将来も有効です。 機械学習はデータ内の因果関係を見つけることができますが、存在しないものを見つけることはできません。たとえば、「顔画像を使用した犯罪者の自動識別」という奇妙な研究では、多くの投獄された犯罪者や無実の人々の顔写真を使用して機械学習がトレーニングされました。研究者は、機械学習はたった 1 枚の顔写真に基づいて新しい「悪者」を捕まえることができると主張しましたが、さらなる研究によって外見に基づく判断の妥当性が否定されるだろうと研究者は「感じた」のです。彼らのデータセットは偏っており、一見無実に見えるホワイトカラー犯罪者の中には、彼らの行為を笑う人もいるかもしれない。 ML が学習できる唯一のつながりは、幸せな口や怒った口、首輪の種類などです。白い襟を着て笑っている人は無邪気で誠実な人として分類され、黒い襟を着て悲しそうな顔をしている人は「悪者」と関連付けられました。機械学習の専門家たちは、人の顔を見てその人が善人か悪人かを判断しようとしましたが、服装(社会階級)では判断できませんでした。機械学習は不公平な偏見を増幅します。つまり、路上で安物の服を着た小さな泥棒は、腐敗した政治家や大手企業の詐欺師よりも発見され、処罰される可能性が高くなります。この種の機械学習は、路上の軽犯罪者をすべて見つけて刑務所に送り込むが、ホワイトカラー労働者は一人も見つけることはできない。機械学習は、大人のように私たちの世界に存在したわけではなく、データの向こう側にあるものを知りません。火事では火が大きくなればなるほど消防車の出動回数が増えるという事実のような「明白な」事実さえも知りません。 ML は、火災現場にいる消防士の数が多いほど翌日の被害が大きくなることに気付くでしょう。つまり、火災による被害を引き起こすのは消防車なのです。結論: 機械学習により、95% の相関関係があるため、消防士は放火で刑務所行きになります。 (機械学習は、犯罪傾向のある顔など、存在しないものの相関関係を見つけることはできません。しかし、データには偏りがあります。そこには笑顔のホワイトカラー犯罪者はいません。機械学習はそれらの偏りを学習します。) 場合によっては、機械学習は人間が予測できないことを予測できます。 「Deep Patient」は、ニューヨークのマウントサイナイ病院が70万人の患者のデータを使用してトレーニングした機械学習です。人間が予測方法を理解せずに統合失調症を予測することができます。これは機械学習だけができることであり、人間が機械学習を学習して同じことをすることはできません。問題は、投資、医療、法律、軍事に関する決定において、AI がどのようにして結論に達したかを知りたいと思うかもしれませんが、それを知ることはできないということです。機械学習がなぜあなたに融資を拒否したり、懲役刑を宣告したり、他の人に就職の機会を与えたりしたのかを知るすべはありません。 ML は公平ですか? 人種、性別、その他の偏見はありますか? 機械学習の計算は目に見える形ではありますが、人間が読める形で要約するのは困難です。機械学習は、預言者が語るようなものです。「あなたたち人間は理解できないし、私が数学を見せたとしても理解できないでしょう。だから、私を信じてください。私の過去の予測をテストし、それが正しかったのです。」 人間は、自分が下した決断を完全に説明することも決してありません。私たちは、合理的に聞こえる理由を挙げますが、多くの場合、不完全で単純化しすぎています。 ML から常に正しい答えを得ている人々は、単に一般の人々が ML の予測を受け入れやすくなるという理由だけで、誤った解釈をでっち上げ始めるでしょう。 ML を秘密裏に使用し、その結果得られたアイデアを自分のアイデアとして発表する人もいます。 ML には、一般的な知性と事前の常識が欠けているため、まさに限界があります。すべての特化した ML を統合したり、1 つの ML にすべてを実行できるようにトレーニングしたりしても、汎用知能の仕事を達成することはできません。たとえば、言語の理解について考えてみましょう。Siri、Alexa、Cortana と、実際の人間と話すときのように、あらゆるトピックについて話すことはできません。これらは単なるスマート アシスタントです。 2011年、IBMのワトソンはクイズ番組「Jeopardy」で人間の出場者よりも早く答えたが、カナダと米国を困惑させた。 ML は、感情分析を含む長いテキストの有用な短い要約を作成できますが、人間ほど確実にこれを行うことはできません。チャットボットが理解できない質問が多すぎます。現時点では、顧客が怒っているのか皮肉を言っているのかを予測し、それに応じて声のトーンを調整するという、人間にとっては簡単なことができる AI はありません。映画のような汎用 AI は存在しません。しかし、SF の AI、つまり狭い専門分野で人間を上回る AI がまだ垣間見えます。最新のニュースによると、狭い領域には、創造的なことや、絵を描くこと、作曲すること、創作すること、推測すること、騙すこと、感情を偽ることなど、通常は人間にしかできないと考えられているものも含まれるようになり、汎用的な AI は必要ないようです。 汎用 AI を作成する方法は誰も知りません。すでに超人的な専門労働者(狭義の AI)がいるのは素晴らしいことですが、私たちを殺すことを自ら決めるターミネーターやマトリックスは存在しません。残念ながら、人間は機械を訓練して一瞬で人間を殺すことができます。たとえば、テロリストは自動運転トラックを訓練して歩道に突っ込ませることができます。汎用知能を備えた AI は、テロリストの命令に従うのではなく、自爆する可能性が高いでしょう。 AI倫理はハッキングされ、違法なパターンに再プログラムされる可能性があります。現在の AI は汎用的でも科学者専用でもなく、常に人間の指示に従います。 AIは古い仕事をなくすでしょうが、エンジニアというよりはペットトレーナーのような機械学習トレーナーという新しい仕事も生み出すでしょう。 ML は一般的な知能を持っていないため、ペットよりもトレーニングがはるかに困難です。フィルタリングや常識なしに、データから見たものすべてを学習します。ペットは、仲間を殺すなど、悪いことをする前によく考えるようになります。しかし、ML にとって、テロリストにサービスを提供しているか、病院にサービスを提供しているかは重要ではなく、なぜそうしているのかを説明するつもりはない。 ML は、そのミスやテロリストに恐怖感を与えたことについて謝罪するつもりはない。結局のところ、ML は普通の AI ではないのだ。 実践的な機械学習トレーニング。物体を持っている手の写真で ML をトレーニングすると、その手は物体の一部であるとみなされ、物体自体を識別できなくなります。犬は人の手から食べる方法を知っていますが、愚かな MILF はあなたの手から食べ物を食べてしまいます。この問題を修正するには、まず手を認識するようにトレーニングし、次に個々のオブジェクトを認識するようにトレーニングし、最後に手がオブジェクトを保持している状況を認識して「オブジェクト X を保持している手」としてラベル付けするようにトレーニングする必要があります。 著作権法と知的財産法を改正する必要があります。人間と同じように、ML も新しいものを発明することができます。 ML には既存の 2 つの物、A と B が示され、その後、完全に新しい物である C が生成されます。 C が A、B、および世界中の他のものと十分に異なる場合、C は発明または芸術作品として特許を取得できます。では、このものの作者は誰でしょうか? さらに、A と B が特許または著作権で保護された素材である場合はどうなるでしょうか? C が大きく異なる場合、A と B の作者は、C が A と B の存在によって生まれたと想定することはできません。著作権で保護された既存の絵画、音楽、建築、デザイン、化学式、盗まれたユーザーデータで ML をトレーニングすることは違法ではないと仮定しましょう。特にピカソほど認識されない場合は、作品が ML の結果を使用しているかどうかをどのように識別しますか? 少し機械学習を使用しているかどうかをどのように判断できますか? 多くの人が密かに機械学習を使用し、作品は自分のものだと主張しています。 中小企業のほとんどの業務では、機械を訓練するよりも人間を訓練する方がはるかに安価です。人間に運転を教えるのは簡単ですが、機械に運転を教えるのは長くて難しいプロセスです。確かに、酔っ払っていたり、眠かったり、携帯電話を見たり、速度制限を無視したり、単に気が狂っていたりする可能性を考慮すると、人間よりも機械に運転させた方が安全かもしれません。しかし、このような高価で信頼性の高いトレーニングは、大企業でのみ可能です。安価な方法でトレーニングされた ML は信頼性が低く、非常に危険ですが、信頼性の高い AI をトレーニングできる企業はごくわずかです。訓練された ML は、ある脳の経験を別の脳に転送する場合とは異なり、複製することはできません。大手プロバイダーは、「放射線科医向け ML」など、再利用可能なタスク向けにトレーニングされていない ML を販売します。 ML は、常に必要とされる人間の専門家を補完できるだけでなく、他の「冗長な」従業員を置き換えることもできます。病院は、多くの放射線科医を雇う代わりに、ML を監督する放射線科医を 1 人雇うことができます。放射線科医の仕事は消滅するわけではなく、各病院の職数が減っているだけです。 MLを訓練した会社はそれを複数の病院に販売し、投資金を回収することになる。毎年、ML のトレーニング方法を学ぶ人が増えるため、ML のトレーニング コストは減少します。しかし、データの保存とテストが必要なため、信頼性の高い ML トレーニングも最終的には安価にはなりません。理論上は多くのタスクを自動化できますが、実際には ML のトレーニングにかかるコストに見合うだけの作業はごくわずかです。泌尿器科医や、失われた古代言語の翻訳者など、あまりに珍しい仕事の場合、そのような仕事をする人はほとんどいないため、長期的には、そのような仕事に人間が就くほうが、機械学習を一度訓練するよりも安価になります。 ML研究以外では、人間は汎用AIの開発に取り組み続けるでしょう。IQテストは間違っています。IQテストは視覚、言語、論理、対人関係など、さまざまな知能の組み合わせであるため、人々の人生における成功を予測することはできませんが、その結果は依然として定量化されたIQの数値で測定することはできません。昆虫は人間のIQに比べると「愚か」だと考えられているが、蚊は「噛んで逃げる」という単一のタスクにおいて一貫して人間を上回っている。毎月、AI は蚊のスキルと同じくらい狭い範囲のタスクで人間に勝っています。シンギュラリティが来たら、AIがあらゆる面で人間に勝つというのはばかげている。私たちは多くの限定された特異点に直面しており、AI が何かの分野で人間に勝てば、AI を監督する人々が職を放棄することを誰もが期待するようになります。人間は独自の不完全な手作り作品を維持できると示唆するこのような記事をいつも読んでいますが、実際には AI は不完全さを偽装することができ、完成品ごとに異なる不完全さを作り出すことを学習します。 AI が次にどの分野で人間に勝つかを予測することは不可能です。AI は創造的ですが、まだ一般的な知能が欠けています。たとえば、コメディアンや政治家は安定した職業であり、特別な(狭い)研究や学位は必要とせず、ユーモアと説得力を持って何でも話すことができます。あなたの専門分野が、放射線科医のように複雑だが範囲が狭い一般的な業務である場合、ML はあなたの代わりとなるようにトレーニングされます。一般的な知能が必要です! |
<<: AI 起業: アウトソーシングから始まりますが、どこで終わりますか?
[[326676]]今日、アルゴリズムを実装した 2 つのプロジェクトが GitHub のホット ...
EdgeAI はもはやブループリント段階ではありません。すでに主流として採用され、驚異的な速度で成...
[[264444]]私たちはどんな新しいテクノロジーについても誤解しがちです。これは特にAI分野で顕...
iResearch は、さまざまな業界におけるクラウド コンピューティング、人工知能、ビッグ モデ...
[51CTO.com からのオリジナル記事] 近年、ナレッジグラフは、その強力な表現力、優れたスケ...
Minecraft では、レッドストーンは非常に重要なアイテムです。これはゲーム内のユニークな素材...
最近、AIビデオの分野は非常に活発になっており、OpenAIが立ち上げた大規模なビデオ生成モデルであ...
LoGANがデザインしたいくつかのロゴ画像提供: マーストリヒト大学[51CTO.com クイック翻...
この記事は、数学的および理論的な詳細にはあまり触れずに、ディープラーニングの基本的な概念を取り上げ、...
ガートナーが発表した2017年の「技術成熟度レポート」によると、5G、人工汎用知能、ディープラーニン...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
6月14日のニュース:最近、人工知能の新興企業OpenAIとMicrosoftが人工知能の分野で協力...