左から右へ: Cloudera ML ゼネラルマネージャーの Hilary Mason 氏、Accenture の AI グローバルヘッドの Rumman Chowdhury 氏、Facebook AI リサーチのディレクターの Yann LeCun 氏、Google Brain の共同創設者の Andrew Ng 氏。 人工知能は世界を救う技術、あるいは世界を終わらせる技術として宣伝されている。 雑音や誇大宣伝を排除するために、VentureBeat は、世界最大級のテクノロジー企業や産業企業と長年協力し、AI を正しく活用するために必要なことを学んできた著名人たちと話をしました。 ここでは、Google Brain の共同創設者 Andrew Ng 氏、Cloudera ML のゼネラルマネージャー兼 Fast Forward Labs の創設者 Hilary Mason 氏、Facebook AI Research の創設者 Yann LeCun 氏、Accenture の責任ある AI のグローバル リードである Rumman Chowdhury 博士の見解を紹介します。 私たちは、2018 年の主要なマイルストーンは何だったのか、そして 2019 年に何が起こると彼らが考えているのかを知りたいと考えました。 今年を振り返り、将来を予測する中で、AI で何ができて何ができないかを知る人が増えたため、ターミネーター AI 終末シナリオにあまり耳を傾けなくなったという人もいました。しかし、これらの専門家は、AIが進歩するにつれて、この分野のコンピューター科学者やデータ科学者は依然として責任ある倫理的慣行を採用する必要があるとも強調した。 ルマン・チョウドリールマン・チョウドリー博士は、アクセンチュア アプライド インテリジェンスのマネージング ディレクターであり、同社の責任ある AI イニシアチブのグローバル リーダーで、2017 年に BBC の 100 人の女性リストに選ばれました。昨年、私はボストンで開催された Affectiva カンファレンスで彼女とステージを共にし、AI への信頼について議論する機会に恵まれました。 彼女はこのテーマについて世界中の聴衆に頻繁に講演しています。 時間を節約するため、彼女は2019年のAI予測に関する質問に電子メールで回答した。 この記事にある他の人からの回答はすべて電話インタビュー中に共有されたものです。 チョウドリー氏は、2018年に一般の人々がAIの能力と限界についてより深く理解し、映画「ターミネーター」のように知能機械が世界を支配することへの恐怖を超えて、AIがもたらす脅威についての人々の議論がよりバランスが取れたものになったことを嬉しく思うと述べた。 「それに伴い、プライバシーとセキュリティ、そして私たちと将来の世代を形成する上で AI が果たす役割についての認識と疑問が高まっています。」 しかし、チョウドリー氏は、AIに対する一般の認識が最も重要ではないと考えています。来年は、より多くの人々が教育リソースを活用して AI システムを理解し、自分自身の知性を使って AI の決定に疑問を抱くようになることを期待しています。 彼女は、テクノロジー企業や AI エコシステムの人々が自分たちの仕事の倫理的影響を考慮し始めたスピードに嬉しい驚きを感じています。 しかし彼女は、AIコミュニティがさらに一歩進んで「言葉から行動へ」移行できることを期待している。 彼女はこう問いかけた。「AIと倫理の分野では、トロッコ問題を超えて、AIが提起する他の難しい問題、明確な答えのない問題を人々がさらに深く掘り下げてほしいと思います。AIとIoT関連の監視の適切なバランスはどこにあるのか?既存の人種差別を悪化させる懲罰的な監視国家につながることなく、安全を確保するにはどうすればよいのか?先進技術の利益を、それを持つ人と持たない人の間の格差をさらに広げないように、どのように再分配すべきなのか?どの程度の露出があれば、子どもたちは操作されたり均質化されたりするのではなく、「AIネイティブ」になれるのか?創造性と独立した思考を育みながら、AIを使用して教育を拡大および自動化するにはどうすればよいのか?」 チョウドリー氏は、来年には世界のテクノロジーコミュニティに対する政府による監視と規制が強化されると予想している。 「AI、そして世界的テクノロジー大手が持つ力は、業界とテクノロジーをどう規制すべきかという疑問を提起しています」と彼女は語った。「2019年には、こうした疑問に対する答えを見つけ始めなければなりません。テクノロジーは状況に応じた結果をもたらす多目的ツールである場合、どのように規制すればよいのでしょうか。イノベーションを妨げたり、(コンプライアンス費用を負担できる)大企業を小規模なスタートアップ企業より優遇したりしないような規制を構築するにはどうすればよいでしょうか。また、どのレベルで規制すべきでしょうか。国際的、国内的、それとも地域的でしょうか。」 彼女はまた、地政学的な問題における AI の役割が今後も進化し続けると予想しています。 彼女はこう語った。「これは単なる技術ではなく、経済と社会を形作るものです。私たちはこの技術における価値観を熟考し、拡大し、実行します。そして、私たちの業界はもっとナイーブになる必要があります。」そのためには、創造こそが力であるかのように、私たちがやらなければ中国がやるだろうというAI業界の一般的な見方を誰もが超える必要があると彼は考えています。 「規制当局、技術専門家、研究者が、冷戦が核力の争い以上のものであったように、AI をめぐる戦いは単なるコンピューターのパワーと技術の知恵の争い以上のものだと認識してくれることを願っています」と彼女は語った。「私たちには世界をより公正かつ公平な方法で作り直す責任があり、今、それを実現するまれな機会があります。しかし、この機会はつかの間であり、逃さないでほしいと思います。」 消費者レベルでは、2019年には家庭内でのAIの利用がさらに増えるだろうと彼女は考えています。多くの人々は、Google Home や Amazon Echo などのスマートスピーカーや、多数のスマートデバイスの使用に慣れてきました。この点に関して、彼女は、今年の CES (コンシューマー・エレクトロニクス・ショー) で、人工知能を人々の日常生活にさらに統合するような、何か目立った特別なものがあるかどうかに興味を持っています。 「私たちは皆、ロボット執事を待っていると思います」と彼女は語った。
Andrew Ng が会議やオンライン授業でホワイトボードを使っているのを聞くと、いつも思わず笑ってしまいます。情熱と共感力を兼ね備えた人は、簡単に人を笑わせることができるからかもしれません。 スタンフォード大学のコンピューターサイエンスの准教授であるン氏は、人工知能の分野ではさまざまな理由でよく知られている人物です。 彼は、Google の多くの製品に AI を導入することを目指す企業、Google Brain の共同創設者です。彼はまた、企業が業務に AI を導入するのを支援する会社、Landing AI の創設者でもあります。 彼はまた、YouTube や Coursera (彼自身が設立した会社) で最高の機械学習コースのいくつかを教えており、deeplearning.ai を設立しました。そして『ディープラーニングへの憧れ』という本を執筆しました。 2017年に彼は百度のトップAI科学者の職を辞し、3年以上の在任期間中に百度がAI企業へと変貌することに貢献した。 *** は、1億7,500万ドルの AI ファンドのメンバーであり、自動運転車会社 Drive.ai の取締役会のメンバーでもあります。 Ng 氏は今月初め、企業に対する AI のプラスの影響を解き放つ方法について書かれた短い読み物「AI Transformation Play Book」を発表した際に、VentureBeat のインタビューに応じた。 2019 年に進歩が見られる、あるいは変化が予想される主要な分野の一つは、テクノロジー企業やソフトウェア企業以外の場所で AI が利用されることだと彼は言う。 AIにとって最大の発展の機会はソフトウェア業界にはありません。彼は、2030年までにAIが13兆ドルのGDPを生み出すというマッキンゼーのレポートを引用しました。 「来年(2019年)は、ソフトウェア業界以外でのAIアプリケーションに関する話がたくさんあると思います。業界として、私たちはGoogle、Baidu、Facebook、Microsoft(私はもう関わっていませんが)などの企業を支援することに尽力してきましたが、Square、Airbnb、Pinterestなどの企業でさえ、AI機能を活用し始めています。次の大きな価値創造の波は、製造工場、農機具会社、ヘルスケア会社がビジネスに役立つAIソリューションを何十個も開発するときだと思います。」 チョウドリー氏と同様に、ン氏も2018年に一般の人々がAIに何ができて何ができないかをどれほど理解しているかに驚き、会話がもはやロボット殺害のシナリオやAI全般に対する恐怖に集中していないことに安堵している。 ン氏は、他の人が尋ねなかったかもしれない私の質問に意図的に答えたと語った。 「私は、実用化に本当に重要だと思う分野を意図的に選び出そうとしました」と彼は語った。「AIの実用化には障壁があると思いますが、これらの問題に関して進歩が期待できる分野もあると思います。」 Ng 氏は、来年には AI/ML 分野で進歩が見られ、それが分野全体に役立つと期待していると興奮気味に語りました。 1つは、AIがより少ないデータを使用してより正確な結論に到達できることであり、これは「小サンプル学習」と呼ばれます。 「ディープラーニングの進歩の第一波は、大企業が大量のデータを使って非常に大規模なニューラルネットワークをトレーニングすることだったと思います。つまり、音声認識システムを構築したい場合、10万時間分のデータを使ってトレーニングする必要があります。機械翻訳システムをトレーニングしたい場合、何百万もの並列コーパス文を使ってトレーニングすれば、画期的な結果がたくさん生まれます」とNg氏は言う。「1,000枚の画像しかないときでも、小さなデータで結果を出すことがますます増えてきています。そのデータで結果を得ようとしています」 コンピューター ビジョンのもう 1 つの進歩は、「一般化」と呼ばれます。スタンフォード大学の高性能 X 線装置でスキャンされた生画像でトレーニングすれば、コンピューター ビジョン システムは非常にうまく機能する可能性があります。この分野の先進的な企業や研究者の多くは、人間の放射線科医よりも優れたシステムを構築していますが、柔軟性は劣ります。 「しかし、訓練したモデルを低性能のレントゲン装置や他の病院のレントゲンに適用すると、画像が少しぼやけたり、レントゲン技師が患者を少し右に寄せたりすると、人間の放射線科医は、今日の学習アルゴリズムよりもはるかにうまくこの新しい状況を一般化できることがわかります」と彼は言いました。「したがって、学習アルゴリズムの一般化を新しい領域に改善する方法を研究するのは興味深いと思います。」
ヤン・ルカン氏はニューヨーク大学の教授であり、Facebook のトップ AI 科学者であり、Pytorch 1.0 や Caffe2 のほか、Facebook が 1 日に数十億回使用するテキスト翻訳 AI ツールや高度な強化学習システムなど、数多くの AI システムを開発した Facebook AI Research (FAIR) の創設ディレクターです。 ルカン氏は、FAIP がオープンソース化した研究とツールが、他の大手テクノロジー企業にも同じことをするよう促し、人工知能の分野全体を前進させたと考えている。先月、NeurIPSカンファレンスとフェアの5周年を前にVentureBeatのインタビューに応じたルカン氏は、フェアは「機械学習の技術的、数学的基盤と、それらを効率的に連携させること」に興味を持つ組織だと語った。 「より多くの人がこの研究について発信すれば、分野全体の進歩が加速します。これは実に大きな効果です」と同氏は言う。「現在 AI で見られる進歩の速度の多くは、以前よりも多くの人がより速く、より効率的に発信し、よりオープンな研究を行っていることによるものです。」 倫理面では、仕事の倫理的意味合いと偏った意思決定の危険性について単純に考えるという点で進歩が見られることをルカン氏は喜んでいる。 「これが人々が懸念すべき問題とみなされているという事実は、今では十分に確立されている。2、3年前はそうではなかった」と彼は語った。 ルカン氏は、AIの倫理や偏見がすぐに行動を起こす必要があるほど大きな問題になっているとは思わないが、人々は備えるべきだと考えていると述べた。 「緊急に対処する必要があるような大きな生死に関わる問題はまだないと思うが、いずれは起こるだろうし、それが起こる前にそれを理解し、防ぐ必要がある」と同氏は語った。 NG と同様に、Lecun 氏は、純粋な入力データや正確な出力条件を必要としない強力な AI システムを作成できる柔軟性を備えた AI システムが増えることを期待しています。 ルカン氏は、研究者はディープラーニングを通じて知覚を管理することにかなり長けているが、完全な AI システムの全体的なアーキテクチャに対する理解が欠けていると述べた。 世界を観察することで機械に学習を教えるには、自己教師学習、つまりモデルベースの強化学習が必要だと彼は述べた。 「人によって呼び方は様々ですが、本質的には人間の赤ちゃんや動物は、世界がどのように機能するかを、その背景となる多くの情報を観察して見つけ出すことで学んでいます。これを機械で実現する方法はまだわかっていませんが、大きな課題です。」 「この賞は本質的に、人工知能と機械の真の進歩によって常識が生まれ、イライラさせることなく会話ができ、幅広い話題や議論ができる仮想アシスタントが生まれることを目指しています。」 ルカン氏は、フェイスブック内で役立つアプリケーションについては、より少ないデータで正確な結果を返すAIである自己教師あり学習で大きな進歩を遂げることが重要だと述べた。 「この問題に取り組むにあたり、機械翻訳、画像認識など、特定のタスクに必要なデータ量を削減する方法を見つけたいと考えており、その方向で進歩を遂げてきました。翻訳や画像認識に弱い監督や自己監督を行うことで、Facebook が使用するサービスに一定の影響を与えています。そのため、これらのことは実際には長期的だけでなく、非常に短期的な影響も及ぼします」と同氏は述べた。 将来、出来事間の因果関係を確立できる人工知能が進歩することを期待している、とルカン氏は言う。これは、観察だけでなく実践を通して理解することで学習する能力です。たとえば、人々が傘をさしている場合は、雨が降っている可能性があります。 「これは本当に重要になります。なぜなら、機械に観察を通じて世界のモデルを学習させたい場合、機械は世界の状態を変えるために何に影響を与えることができるかを知ることができなければなりませんが、できないこともあります」と彼は言いました。「ご存知のように、部屋の中にいて、目の前にテーブルがあり、その上に水のボトルなどの物体がある場合、水のボトルを押して動かすことはできますが、テーブルは大きくて重いため動かすことができません。このようなことは因果関係に関係しています。」
Cloudera が 2017 年に Fast Forward Labs を買収した後、Hilary Mason 氏が Cloudera の機械学習担当ゼネラルマネージャーに就任しました。 Cloudera に吸収されたものの、Fast Labs は現在も運営されており、応用機械学習レポートを作成し、顧客の今後 6 か月から 2 年の計画を支援しています。 2018年にメイソン氏を驚かせたAIの進歩の1つは、マルチタスク学習に関するものでした。マルチタスク学習では、たとえば画像内にどのような物体が写っているかを推測する際に、単一のニューラルネットワークをトレーニングして複数のラベルを適用することができます。 Fast Forward Labs は、AI システムの倫理的影響についても顧客にアドバイスを行っています。 メイソン氏は、何らかの道徳的枠組みが必要だと信じている。 「これは私たちがファストフォワードを設立して以来続いていることです。5年前から倫理に関するレポートを書いてきましたが、今年(2018年)は人々がこの問題に気づき、注目し始めました。来年は、この問題に注意を払わない企業や人々に対して、この分野で結果や説明責任が現れ始めると思います。 「私が明確にしていないのは、データサイエンスと AI の実践が、AI 製品を開発する技術者やビジネスリーダーが製品を開発する際に倫理や偏見の問題を考慮することがデフォルトで期待されるところまで進化することを望んでいるということですが、それは今日誰もがデフォルトで行っていることではありません。」 「 「何が価値があり、何が価値がないかを理解し、どこに投資するかの決定を下すのに最適な立場にいるのは、明らかに製品全体とビジネスを理解している人々だと思います」と彼女は語った。 「ですから、私の予測を聞きたいのであれば、これらの人々全員がスプレッドシートのような単純なモデリングを使えるようになると期待するのと同じように、彼らが自分の AI 製品を特定する機会を最大限に活用できるようになるとすぐに期待できると思います。」 |
<<: AIoTの生死に関わる状況:将来的にはAIoTは非常に収益性が高いが、現時点ではAI+IoTは非常に高価
>>: 海外で最も人気のあるディープラーニング実践コースの新バージョンがリリースされました。100%新しい最先端のコンテンツを備えています。
[[271402]]ムーアの法則の終焉にあたり、GPU やその他のハードウェア アクセラレータによっ...
YouTubeは本日、クリエイターカンファレンス「Made on YouTube」において、AIを活...
[[437247]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitA...
「決して単純な切り抜きではありません。」 ControlNet の著者による最近の研究は大きな注目を...
人にとって選択をすることはどれほど困難で興味深いことでしょうか?知乎の質問を見てみましょう: 10億...
ディープラーニングの「深さ」については、ここ数年で多くの議論がなされてきました。私の周りではさまざま...
[[386714]]北東部に拠点を置くエネルギー会社 Eversource で財務計画および分析 (...
[51CTO.comからのオリジナル記事] 現在、私たちの周りではデジタル変革が起こっています。デジ...
最近、世界で最も注目されているイベントはワールドカップです。現在、ロシアでは2018年ワールドカップ...