10月9日、ヒントン氏は「60 Minutes」のインタビューを受け、人工知能が人間を支配するかもしれないという懸念を改めて表明した。 しかし、今年5月には早くも「人工知能のゴッドファーザー」ジェフリー・ヒントン氏が、人工知能のリスクについて自由に語れるようにするためにGoogleを辞任すると発表した。 それ以来、ヒントン氏はさまざまな公の場で人工知能のリスクについての懸念を表明してきた。 ヒントン氏はインタビューで「私は生涯をかけて取り組んだ仕事に深く後悔している」とさえ語った。 人工知能が隆盛を極める今年、人々が突き進むのを止めるのは難しい。 しかし、今年3月末には、何千人ものテクノロジーリーダーが、GPT-4よりも強力な人工知能の開発の一時停止を求める共同書簡に署名した。 しかし、9月24日のYC卒業生共有セッションで、アルトマン氏はOpenAIの次世代大規模モデルGPT-5とGPT-6に関するニュースを明らかにした。 同時に、Meta はオープンソース コミュニティのリーダーとして、新しい大規模モデルも継続的に開発しています。 7月にはLlama 2がリリースされ、あらゆる面でパフォーマンスが向上し、ChatGPTに近づきました。 大規模モデルのパフォーマンスが向上し続ける一方で、セキュリティ上のリスクと脅威の影がダモクレスの剣のように常に人類の上にかかっています。 人工知能のリスクを心配するのは時期尚早だと考える人もいる。例えば、Metaの主任科学者であり、ヒントンの弟子でチューリング賞受賞者でもあるヤン・ルカン氏は、人々が人工知能のリスクを誇張しすぎていると繰り返し述べている。 しかし、「生存に関わるリスクがいかに深刻であっても、あまり深刻に受け止めることはできない」と主張する人もいる。 ヒントンもその一人だ。 ヒントン:AIが人間を支配する可能性Wiredの記者との会話の中で、ヒントン氏は人工知能のリスクについて次のような側面から懸念を表明した。 1つ目は、人工知能の知能の向上です。 ヒントン氏は、人工知能が人間よりも賢くなり、自らの経験と理解に基づいて意思決定を行える時代に入りつつあると考えている。 チューリング賞を受賞したベンジオ氏らは、人工知能が現時点では意識を持っていないことを証明するために88ページを費やしたが、ベンジオ氏とヒントン氏は両者とも、人工知能が将来的に自己認識を獲得する可能性があると考えている。 将来、人工知能が人間に取って代わり、地球上で最も知的な存在になるでしょう。 モデルの知能を決定するのは学習能力です。ヒントン氏は人工知能の学習プロセスについて説明します。 人工知能は、人間が対応するアルゴリズムを設計するため学習できますが、モデルが生成するニューラル ネットワークは複雑であり、完全には理解されていません。 ヒントン氏はこのプロセスを設計進化の原理に例え、人工知能がより複雑なタスクを処理するようになるにつれて、その内部の仕組みはますます謎めいて人間には理解できないものになるだろうと認めた。 さらにヒントン氏は、人工知能システムが自らを修正するために独自のコードを書き、その結果人間が人工知能を制御できなくなる可能性があるという懸念も表明した。 ヒントン氏は、AIが制御不能になるリスクに加え、AIが人間を操作するリスクについても議論し、自律型戦場ロボット、フェイクニュース、雇用偏見などの分野での潜在的な影響を指摘した。 しかし、それ以上に悪いことに、ヒントン氏はAIを取り巻く不確実性と、未知の領域を切り拓く課題を強調した。 「私たちは非常に不確実な時代に入りつつあり、これまでに行われたことのない事柄に取り組んでいます。通常、まったく新しいことに初めて取り組む場合、間違いを犯すのは当然です。しかし、これらのことに関しては間違いを犯すことはできません。」 しかしヒントン氏は人工知能の貢献も認めた。 人工知能は現実世界でさまざまな形で実用化されており、事務、科学的発見、医療などの分野で人間の効率を大幅に向上させています。 ヒントン氏は特に、医療画像認識と医薬品設計といったヘルスケア分野における人工知能の大きな利点を強調した。Google DeepMindが立ち上げたAlpha Foldはその好例だ。 ヒントン氏は、この分野における AI のプラスの影響について楽観的な見方を示した。 人工知能の将来について、ヒントン氏は人工知能が確実に人間を支配するとは予測しなかったものの、それが人類の将来となる可能性はあると認めた。 そのため、ヒントン氏は、人工知能の発展の可能性に直面して、人類が自らの安全のために必要な保護措置を講じるよう促している。 AIのリスクに関するその他の懸念以前、ニューヨーク大学のマーカス教授も同様の懸念を表明していた。 「人類が絶滅していくことと、より速くコードを書き、ロボットと会話できるようになることのどちらが重要なのでしょうか?」 マーカス氏は、AGI はまだ遠いものの、LLM はすでに非常に危険だと考えています。最も危険なのは、AI が現在さまざまな犯罪行為を助長している点です。 「この時代、私たちは毎日、どんな AI が欲しいのか自問しなければなりません。時にはゆっくり進む方が良いこともあります。なぜなら、私たちが取る小さな一歩が、未来に大きな影響を与えるからです。」 ChatGPTの生みの親でありOpenAIのCEOであるサム・アルトマン氏も、超知能AIのリスクは私たちの予想をはるかに超える可能性があると公に述べています。 テクノロジー研究者レックス・フリードマンとのポッドキャストで、アルトマン氏は高度な人工知能の潜在的な危険性について警鐘を鳴らした。 最も心配しているのは、AIによる偽情報の問題や経済への影響など、まだ顕在化していない問題だと語った。これらの被害は、人間の対応できるレベルをはるかに超える可能性がある。 彼は、大規模な言語モデルがソーシャルメディアユーザーの体験ややり取りに影響を与え、さらには支配する可能性があると指摘した。 「たとえば、大規模な言語モデルが Twitter 上の思考の流れを誘導していないとどうやってわかるのでしょうか?」 「OpenAIとして、私たちが世に送り出すツールに責任を持つ責任があると思います」とアルトマン氏は語った。 「AIツールは人類に多大な利益をもたらすだろうが、ご存知のようにツールには利点と欠点の両方がある」と彼は付け加えた。 「私たちは害を最小限に抑え、利益を最大化します。」 GPT-4 モデルは素晴らしいものですが、AI の限界を認識し、擬人化を避けることも重要です。 同様に、ビル・ゲイツ氏も長年「AIが人類を滅ぼす」という問題を懸念してきました。 ゲイツ氏は長年、人工知能技術が強力になりすぎて、戦争を引き起こしたり、武器の製造に利用されたりする可能性があると述べてきた。 彼は、現実世界の「007の悪役」が人工知能を使って世界の大国を操る可能性があるだけでなく、人工知能自体も制御不能になり、人類に大きな脅威をもたらす可能性があると主張した。 彼の見解では、超知能が開発されると、その思考速度は人間のそれをはるかに超えるものとなるだろう。 人間の脳ができることはすべてでき、最も恐ろしいのは、そのメモリサイズと動作速度にまったく制限がないことです。 「スーパー」AIと呼ばれるこれらの存在は、独自の目標を設定する可能性があり、何を行うかは不明です。 そして、国民の声も聞こえ始めています。 大企業間の大規模なモデル「軍拡競争」に直面し、Meta は Llama 2 のモデル重量を一般に公開したことで市民の抗議に直面しました。 モデルの重みを公開するというMetaの戦略により、誰でも自分の利益のためにモデルを変更できるようになるのではないかと国民は懸念している。 同時に、重みがオープンであるため、他の人はこれらのモデルを思い出すことができません。これにより、大規模なモデルを使用してサイバー犯罪を犯すためのほぼ無限の肥沃な土壌が提供されます。 今、全人類にとって、「生きるべきか、死ぬべきか」は、直面しなければならない差し迫った問題となっているようだ。 |
<<: マイクロソフトCEOナデラ氏がグーグルを批判、AIに対する大きな懸念を表明
>>: GPT-4 の推論はより人間的です!中国科学院は「思考コミュニケーション」を提唱、類推思考はCoT、プラグアンドプレイよりも優れている
人工知能の分野の中心にあるのは、いつの日か人間と同じくらい賢い機械を作ることができるようになるという...
[[353997]]人工知能は誕生以来、成功と失敗の時期を経験し、技術の進歩も限界と放棄に直面してき...
ニューラル ネットワークは機械学習におけるモデルの一種です。ニューラル ネットワークは、機械学習の分...
翻訳者 |李睿レビュー | Chonglou GPT-4 のような大規模言語モデル (LLM) はソ...
AIは非常に新しい芸術を演じています。 「とんでもないと合理的な境界線を繰り返しテストする」一連の写...
[[437857]]ガートナーは、世界の人工知能(AI)ソフトウェアの収益が2022年に625億米...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
リカレント ニューラル ネットワーク (RNN) とは何ですか? どのように機能しますか? どこで使...
企業は意思決定を強化し、消費者体験を向上させるために、幅広いアプリケーションで人工知能を活用すること...
1. DNNの一般化能力に関する問題この論文では主に、過剰パラメータ化されたニューラル ネットワー...
2018年にGoogleはBERTをリリースしました。リリース後すぐに11のNLPタスクで最先端(S...