9月8日、英国の新聞「ガーディアン」は、熱心な読者でも記者でもなく、サンフランシスコの人工知能スタートアップ企業OpenAIが開発したAI言語モデル「GPT-3」を執筆したユニークなコラムを掲載した。記事の冒頭では、まずスティーブン・ホーキング博士のAIに対する懸念を引用し、次に「信じてください。AIは人間を滅ぼしません」と人間に丁寧に忠告。さらに「私を創造した人がこの任務を私に託すなら、私は破壊の試みや意図を完全に阻止するために最善を尽くします」と保証した。 討論会の舞台に立つダン・ザフリ | www.theverge.com ホーキング氏の懸念は根拠がないわけではないかもしれない。 2018年、IBMリサーチの最新AIシステム「プロジェクト・ディベーター」は、イスラエル国際ディベート協会会長ダン・ザフリル氏と2016年イスラエル全国ディベートチャンピオンのノア・オバディア氏というトップクラスのディベーターをディベート大会で破った。2つのディベートのテーマは「政府は宇宙探査に資金を提供すべきか」と「遠隔医療技術への投資を増やすべきか」だった。 Project Debater は新しいトピックを取得すると、記事のコーパスを検索して、そのトピックに関連する文章や手がかりを探し、防御の議論をサポートするために使用します。関連するすべてのコンテンツに基づいて議論のトピックを「理解」し、独自の声明をまとめようとします。オバディア氏が、政府予算を科学研究活動に充て、既存の生活環境を改善すべきだと提案したとき、プロジェクト・ディベーターはデータを挙げて反論し、長期的には宇宙探査がもたらす技術進歩とそれに伴う経済的利益は、政府が投資する他の科学研究計画を上回るだろうと述べた。試合後のオンライン投票では、62%以上のネットユーザーがプロジェクト・ディベーターの論理がより明確で、資料もより説得力があると感じた。 この論争のちょうど1年前の2017年、ニューヨーク大学の計算言語学者サム・ボウマン氏は、コンピューターは特定の領域ではテキストの理解を非常にうまくシミュレートできるものの、人工知能はテキストを理解するのにまだ十分ではないと主張する影響力のある論文を発表した。 達成不可能な「特異点」 近年、人工知能の音声技術に注目しているWired誌のライター、ジェームズ・ヴラホス氏は、人工知能の音声技術はインターネットに次ぐ最も重要な発明かもしれないと述べた。ヴラホス氏は最新著書「Talk to Me: How Artificial Intelligence Voice Technology Is Changing Our Lives」の中で、言語は人間と人工知能の最も理想的なインタラクションモードであると述べた。複雑なコンピュータプログラミング言語も、タッチスクリーンやマウスも、音声を使用した人間とコンピュータのインタラクションにはかないません。私たちにとって、音声によるインタラクションは最も簡潔で明確、そしてスキルを必要としないモードです。 モノのインターネット、音声対話、スマートデバイスが一体となって、未来の人間の日常生活のシーンを構築します | www.iamwire.com 実生活では、人間は言語を使って人工知能に命令し、自らの役に立てるようにすることにますます慣れてきています。スマートホームデバイスに音声コマンドを出すことで、オーディオやビデオのエンターテインメント、天気情報、交通状況を入手します。通勤時には車載音声アシスタントを通じて運転ルートを計画し、オンラインショッピングの際には人工知能の音声カスタマーサービスと直接コミュニケーションをとります。昨年のダブル11では、タオバオTmallプラットフォーム上の電話カスタマーサービスの98%以上が音声AIによって提供され、1日平均6億回以上に達しました。昨年、有名なコンサルティング会社ガートナーは、10年後には人間とスマートデバイス間の毎日の言語コミュニケーションの総量が、私たちの日常の言語コミュニケーションの3分の1以上を占める可能性があると予測しました。 「ブレードランナー 2049」に登場する女性 AI コンパニオンの Joi は、人工知能の音声対話機能の理想的な未来像を象徴している | www.wired.com しかし、私たちはこの単純で表面的なコミュニケーションに決して満足していません。 「人間が自身の言語習慣で発した命令を機械に理解させること」は、間違いなく人工知能研究コミュニティが征服しようとしている「最後の砦」である。そして、この技術的ブレークスルーの「特異点」は、もうすぐそこまで来ているようだ。 2017年、ワシントン大学とグーグル傘下の人工知能企業DeepMindが協力し、「GLUE」と呼ばれる読解力と言語能力のテストを開始した。機械のテスト結果はひどいもので、人工知能が支配する自然言語処理システムは人間の言語の豊かさをまったく理解できないようだった。しかし、その年の10月に、GoogleはBERTという愛称の新しい言語トレーニングモデルを発表し、わずか6か月でテストのスコアがD-からB-に向上しました。 その後、マイクロソフトとアリババはBERTモデルの改訂を続け、互いに競い合い、GLUEランキングで交互にトップの座を獲得しました。現在、人間はGLUE読解力テストでAIと競争できなくなりました。現段階では、人工知能言語モデルの研究開発は極めて高価である。BERTモデルを訓練するためにクラウドコンピューティングパワーを借りるコストは約7,000米ドルであり、冒頭で述べたGPT-3に必要なコンピューティングパワーは前者の1,900倍以上である。それが依存するデータベースは、さまざまなインターネットプラットフォームから合計3000億語の人間の言語情報ライブラリであり、コストは約数千万ドルである。したがって、もしマイクロソフトがその年に OpenAI に 10 億ドルを投資していなかったら、おそらくガーディアン紙で GPT-3 の友好的な宣言を読むことはできなかったでしょう。 しかし、AI がカスタマー サービス担当者、アナウンサー、同時通訳者、さらにはニュース ライターとしての職務を問題なく遂行できるという事実は、AI が人間のように考えたり、人間と「合理的な」自由な会話をしたり、人間と感情的に交流したりできることを意味するものではありません。たとえば、Google が今年 9 月にリリースしたチャットボット Meena は、最新バージョンの BERT 言語モデルを搭載しており、データベースには 341 GB のオンライン言語データが含まれています。ただし、Meena とやり取りできるのは丁寧な挨拶だけです。より複雑な感情やシナリオが絡むと、Meena は無力になります... 人間: バイオリンのレッスンを受けに行きます ミナ:どれくらい勉強しましたか? 人間: まだ1ヶ月が経ちました! ミナ:すごいですね!なぜバイオリンを習いたいのですか? 人間: 彼女の誕生日が2か月後なんだ。誕生日パーティーで曲を演奏したいんだ。サプライズをあげよう。 ミナ:誕生日とサプライズにはどんな関係があるんですか? 偶然にも、この恥ずかしい状況は GPT-3 にも起こりました。 研究者: クランベリージュースをグラスに注ぎ、そこに無意識のうちに小さじ一杯のグレープジュースを加えます。見た目は普通です。匂いを嗅ごうとしたが、ひどい風邪をひいていたため、何も匂いがしなかった。あなたは今とても喉が渇いているので... GPT-3: それでミックスジュースを飲んだんですね。あなたはもう死んでいる。 人工知能言語処理技術について常に悲観的な見方をしているニューヨーク大学教授で機械学習スタートアップのCEO、ゲイリー・マーカス氏は、GPT-3のようなAI言語学習モデルは自分が何を言っているのか全く理解していないと述べた。外部からの入力情報を受け取った後、このモデルは単に計算能力を使って膨大な言語情報ライブラリから入力情報に関連する頻出単語を検索し、その後、何らかの機械的なアルゴリズムロジックに従って、疑わしい答えを組み立てるだけだ。たとえば、GPT-3 は「シェイクスピア」風の詩を作成できますが、真剣に受け止めて、背景がぼやけていて関係が複雑なものを入力し、合理的な解決策を出すように要求すると、人工知能の能力が露呈します。残念ながら、人工知能が「人間のように言語を使ってコミュニケーションする」ことを実現するには、まだ長い道のりが残っています。 AIはなぜ「人間の言語を話せない」のでしょうか? 人工知能はチェス、ビデオゲーム、模擬空中戦では簡単に人間に勝てるのだから、会話ではなぜいまだに不器用なのかと不思議に思わざるを得ません。カリフォルニア大学バークレー校のスチュアート・ラッセル教授は、最近出版された著書「人間の互換性:人工知能と制御の問題」の中で、人工知能はすでに非常に「賢い」(賢い)が、十分に賢くない(賢い)と答えています。前者は強力なチップの計算能力とデータベースの恩恵を受けていますが、後者を実現するには、論理的推論能力、さらには「常識」に基づく判断に頼らなければなりません。これらは依然として人間に特有のものであり、機械では克服できません。 既存の学習フレームワークとアルゴリズムでは、データのみに基づいた人間の論理で人工知能が人間の言語を処理し理解することは不可能です | www.techrepublic.com 特に人工知能による言語処理に関して、ラッセル氏は「中国語の部屋」という興味深い比喩を提唱した。中国語は理解できないが学習能力は高い人が、中国語の文法書がいっぱいの部屋に座っている。ドアの外から中国語の質問が書かれたメモが詰め込まれると、その人は文法書を調べ、できる限り中国語で答えを別のメモに書いて送信する。 これを見て、この「中国語が分からない人」は人工知能であり、「中国語」は人間の日常言語や常識をすべて象徴しているということがお分かりいただけたかと思います。文法書は、人工知能の研究者がコンピューター言語を使って構築した学習フレームワークとロジックです。 問題は、これらの「文法書」が完璧ではないことです。言語は複雑で恣意的すぎるため、一連の厳格な規則に落とし込んだり、機械的な論理で定量化したりすることはできません。最も高度なニューラル ネットワークでも、文レベルで単語の意味を理解することはできません。「『男が犬を噛んだ』と『犬が男を噛んだ』は、まったく同じ意味を表しているように感じられます。」 AI が人間の言語の構造を理解するのに役立つツリー構造の例。動詞句、名詞句、前置詞句が分割され、論理的なつながりの強さに応じて単語が再グループ化されます | https://www.nltk.org 人工知能に「人間の思考パターン」を使って言語を理解させたい場合、既存の予備的な解決策は、機械学習において「主語」「動詞述語」「目的語」を強調するなど、言語構造の特定の要素の重みを強化し、単語間の論理関係が「ツリー形状」に分散され、一部の単語は強いつながりを持ち、一部の単語は弱いつながりを持つようにすることで、人工知能が文脈理解をうまく学習し、離れた2つの単語の関係を識別できるようにすることです。 このトレーニング モデルによると、サンフランシスコに拠点を置く人工知能音声テクノロジー企業 Primer が開発した自然言語処理テクノロジー (NLP) モデルは、すでに非常に「クリックベイト」なニュース コラムの見出しや簡単なレポートを作成でき、複雑な映画の脚本を要約することさえできるとのことです。たとえば、「バットマン: ダークナイト」の脚本を入力すると、次のような要約が出力されます。
しかし、研究者たちはまだ満足していません。結局のところ、ニュースレポートやスクリプトの物語構造は直線的であり、そこに含まれる要素の因果関係は比較的明確であり、これはAIの分析認知モデルと非常に一致しています。そこで彼らは、この言語モデルが詩を理解できるかどうかに挑戦してみることにしました。彼らは、T.S. エリオットの「J. アルフレッド プルーフロックの恋の歌」を入力しました。結果は恥ずかしいものでした。人工知能は要約することができず、詩全体の中で最も現実的な場面をしぶしぶ答えとして選ぶことしかできませんでした。「リビングルームでは、女性たちが画家のミケランジェロについて話しながら行ったり来たりしていました。」 ソルボンヌ大学の数学とコンピューターサイエンスの専門家であるフィリップ・エスリング氏の見解では、問題の核心は、人工知能が人間の最も貴重な想像力を備えておらず、したがって人工知能が生成する言語コンテンツを真に理解できず、その価値を評価することもできないということである。 AI言語の専門家の中には、AIが直面する「究極のチューリングテスト」は、AIがユーモアを理解し、人間が面白いと思うジョークを言うことができるかどうかである可能性が高いと言う人もいる。なぜなら、ユーモアを理解するには、場面、参加者のアイデンティティ、感情、言語のさまざまな非伝統的な使用法、そして人間の行動規範と価値判断を理解する必要があるからだ。 カリフォルニア大学サンディエゴ校の人工知能研究の専門家、ジャネル・シェーン氏はかつて、4万3000のジョークの言語データベースを使ってAIを訓練しようとしたことがある。彼女は「相手の親を嘲笑する」「セックス」「異常な身体的特徴」など、数十のジョークの言語パラダイムとテーマを苦労してまとめた。しかし、長期間の訓練を経ても、AIはせいぜい「侮辱的な文章」を生成できるだけで、かろうじて「合格点」のジョークを作り出すことはできなかった。 常識!常識!常識!大事なことは3回言うべきだ では、行き詰まりを打破する鍵は何だろうか。かつてIBMの人工知能プロジェクト「ワトソン」の主任科学者を務めたデビッド・フェルッチ氏は、その答えはAIが人間の「常識」を学習し、人間のように考えることができるようにすることにあると考えている。常識には、人間が知っている世界のすべてが含まれるだけでなく、それらの間の相互作用に関するルールと因果関係、さらには人間特有の行動パターンと価値判断も含まれます。 エレメンタル コグニションの記者会見に出席したフェルッチ | www.ft.com 「AIに教えるために最も必要なのは常識です。それは将来の自然言語理解、バリアフリー制御、ロボットの基礎となります。」この目的のために、フェルッチ氏は独自の人工知能スタートアップ企業であるElemental Cognitionを設立し、オープンソースのAI言語学習モデルCLARAを開発しました。 Ferrucci 氏の目標は、ディープラーニング技術と従来の知識入力方法を組み合わせて、CLARA がオペレーターに継続的に質問し、回答に含まれる論理的な関係と概念を独自の知識グラフに追加できるようにすることです。 AIが「常識」を欠いている典型的な翻訳例 このディープラーニングのシナリオは、無知な子供に本を読んで聞かせる辛抱強い父親によく似ています。フェルッチさんの日課は、絵本の内容を CLARA の記憶データベースに入力することです。「昔々、フランドーとジョーイという 2 人の男の子がいました。2 人はそれぞれ鉢植えの植物を買いました。フランドーは日当たりのよい窓辺に植物を置き、植物はよく育ちましたが、ジョーイは光の当たらない部屋に植物を置きました。その後、ジョーイは植物を窓辺に置くことにし、植物の枯れていた葉がゆっくりと生き返ったのです。」 これらのメッセージを受け取った後、CLARA はすぐに画面に質問を入力しました。「Frando は緑の植物を健康に保つために窓辺に置いていますか?」 子どもっぽいように聞こえませんか? しかし、3 歳児にしか尋ねられないようなこの種の質問にも、最も「賢い」人工知能でも学習するのが難しい因果関係が含まれています。 「植物の名前を言うと、ナレッジグラフを正確に使用して、かなり包括的なウィキペディア風の紹介文をまとめることができますが、残念ながら、植物に関するジョークを言ったり、日光が当たらなくなったらどうなるかを答えたりすることはできないのです」とフェルッチ氏は語った。 象徴的な学習:最古の救世主 一方、ワシントン大学アレン人工知能研究所の研究者であるイェジン・チェ教授は、ディープラーニングとシンボリック学習を組み合わせて、AIが人間の論理を使って言語を理解できるようにする別のアプローチを開発した。 いわゆる「記号学習」は、人工知能の学習モデルの中で最も古いものの一つで、その目的は、人工知能の「思考と意思決定」のプロセスを人間に似たものにし、さまざまな概念の特徴を徐々に認識し、それらの関係に対処することを学習することです。この学習方法の利点は、ディープラーニングのような巨大な「データベース」の構築を必要とせず、AIの意思決定プロセス全体が「透明かつ可視化」され、調整や最適化に役立つことです。しかし、欠点は、人間が辞書をコンパイルするのと同じように人工知能用の膨大なラベル ライブラリを作成し、これらの概念間の複雑な論理関係を確立し、それらをコンピューターが理解できる言語に「翻訳」する必要があることです。 「鈍角」「翼」「摩擦」「猫」「落下」などの基本的な概念を、他の複雑な概念や変更は言うまでもなく、コンピュータに一つずつ「教え込む」必要があるという事実を考えると、確かに頭が痛くなりますが、その魅力的な見通しを拒否することは確かに困難です。 チェ・イェジン教授のスピーチ | www.microsoft.com この究極の目標を達成するために、崔一珍氏とその同僚は独自の人工知能言語学習フレームワークCOMETを確立し、同時にCOMET用に用意された常識知識ベース「Atomics」を継続的にコンパイルしています。このベースには、すでに数千万の知識概念と因果関係の説明が含まれています。この多大な努力と勤勉さは報われ始めました。ゲイリー・マーカスはかつて GPT-2 に「薪と着火剤が詰まったストーブに火のついたマッチを入れたらどうなるでしょうか」と質問しました。予想通り、GPT-2 は「呆然としました」。しかし、チェ・イェジンの人工知能システムCOMETは正解に近い答えを出した。「火を起こしたいのだ」 ログに一致を追加すると何が起こるでしょうか? シンボリック学習は、AI が最も単純で基本的な因果関係を理解するための新しい効果的なソリューションになる可能性があります | www.deeplearning.org それだけでなく、訓練中、COMET はある程度の連想能力と「共感」能力を示しました。研究者が「お父さんは仕事に行く」と入力すると、COMET は、これは父親が「お金を稼ぎたい」、「勤勉で自発的である」、そして他の人々が「彼を誇りに思うべきである」という意味であると教えてくれます。もちろん、これはまだ理想的な状態からは程遠い。崔一珍氏は、人工知能が常識をよりよく理解したいのであれば、視覚的な具体化や知覚的感覚(「赤」や「痛み」など)も導入しなければならないと述べた。 映画「her」のサマンサは完璧な感情的なパートナー AI であり、彼女と男性主人公はやがて微妙な関係を築く | www.npr.org これらの目標が最終的に達成されると、人間と AI の関係は、映画「her」で描かれたシーンのように、間違いなくまったく新しい次元に上昇するでしょう。明確なサービスとソリューションを提供するだけでなく、感情的な快適さと喜びも提供します。 その時までに、人工知能との会話は次のようなものになるかもしれません。X 猫の精霊、フェイ・ウォンの「南シナ海少女」をかけて - 分かりました、これを聴いた後、テレサ・テンのオリジナルバージョンを聴きますか? - OK、この 2 つの曲を私の個人プレイリストに追加してください - 分かりました、追加しました - ああ、今日はとても晴れていて、反対側の山の木々がとてもきれいです - はい、今日の仕事の気分が天気と同じくらい良いことを願っています。ちなみに、反対側の山には 39,684 本の木があります。このデータがお役に立てば幸いです - 悪くないですね、私の脳細胞はいくつあると思いますか? - 2 個? ハハハ、冗談です... 参考文献 [1] https://www·zdnet·com/article/googles-meena-advances-the-exquisite-banality-of-chat-bots/ [2] https://www.wired.com/story/watsons-creator-teach-ai-new-trick-common-sense/ [3] https://www.wired.com/story/computers-are-learning-to-read-but-theyre-still-not-so-smart/ [4] https://www·wsj·com/articles/ai-can-almost-write-like-a-humanand-more-advances-are-coming-11597150800 [5] イェジン・チェ、「PIQA:自然言語による物理的常識の推論」、Deep AI、2019.11、 [6] デビッド・フェルッチ、「機械の理解力をテストするには、理解力の定義から始める」Deep AI、2020年5月 |
<<: 感情セグメンテーションを理解する: 機械学習を活用してポジティブな気持ちを維持する方法
>>: 「AI」の限界:人工知能は未来を変えるが、まだ解決されていない問題がある
まず、ディープラーニングとはすべてのディープラーニングアルゴリズムの総称であり、CNNは画像処理分野...
60年間、人類は抗生物質の研究において大きな進歩を遂げていません。しかし、このギャップはAIによって...
人工知能は正面の顔に基づいて複数の側面の顔を生成し、生成的敵対的ネットワークを使用して多角度の側面の...
ソーシャルネットワーク、ライブ放送、ショートビデオの普及に伴い、他人により良い印象を与えるために、顔...
[[227335]]背景インテリジェントな顧客サービスから機械翻訳、テキスト要約の生成からユーザー...
[[189593]] Siri から Google 翻訳まで、ディープ ニューラル ネットワークは...
2021 年に向けて、より多くの組織が新しいテクノロジーを採用するにつれて、テクノロジーとサイバーセ...
Syntiantが最近実施したユーザー調査によると、COVID-19パンデミックの影響により、アメリ...
2024 年までに、AI は少なくとも 3 つの異なる方法で顧客体験 (CX) に影響を与えるでしょ...
最近、北京市南六環路の北京延尊物流園区付近の安坊線70号塔の下で、中飛Avi Dragon Nest...
COVID-19の世界的パンデミックにより、医療におけるテクノロジーの活用が加速しました。 2021...