75歳のヒントン氏が再び警告:AIが人間を支配するかもしれない!

75歳のヒントン氏が再び警告:AIが人間を支配するかもしれない!

10月9日、ヒントン氏は「60 Minutes」のインタビューを受け、人工知能が人間を支配するかもしれないという懸念を改めて表明した。

しかし、今年5月には早くも「人工知能のゴッドファーザー」ジェフリー・ヒントン氏が、人工知能のリスクについて自由に語れるようにするためにGoogleを辞任すると発表した。

それ以来、ヒントン氏はさまざまな公の場で人工知能のリスクについての懸念を表明してきた。

ヒントン氏はインタビューで「私は生涯をかけて取り組んだ仕事に深く後悔している」とさえ語った。

人工知能が隆盛を極める今年、人々が突き進むのを止めるのは難しい。

しかし、今年3月末には、何千人ものテクノロジーリーダーが、GPT-4よりも強力な人工知能の開発の一時停止を求める共同書簡に署名した。

しかし、9月24日のYC卒業生共有セッションで、アルトマン氏はOpenAIの次世代大規模モデルGPT-5とGPT-6に関するニュースを明らかにした。

同時に、Meta はオープンソース コミュニティのリーダーとして、新しい大規模モデルも継続的に開発しています。 7月にはLlama 2がリリースされ、あらゆる面でパフォーマンスが向上し、ChatGPTに近づきました。

大規模モデルのパフォーマンスが向上し続ける一方で、セキュリティ上のリスクと脅威の影がダモクレスの剣のように常に人類の上にかかっています。

人工知能のリスクを心配するのは時期尚早だと考える人もいる。例えば、Metaの主任科学者であり、ヒントンの弟子でチューリング賞受賞者でもあるヤン・ルカン氏は、人々が人工知能のリスクを誇張しすぎていると繰り返し述べている。

しかし、「生存に関わるリスクがいかに深刻であっても、あまり深刻に受け止めることはできない」と主張する人もいる。

ヒントンもその一人だ。

ヒントン:AIが人間を支配する可能性

Wiredの記者との会話の中で、ヒントン氏は人工知能のリスクについて次のような側面から懸念を表明した。

1つ目は、人工知能の知能の向上です。

ヒントン氏は、人工知能が人間よりも賢くなり、自らの経験と理解に基づいて意思決定を行える時代に入りつつあると考えている。

チューリング賞を受賞したベンジオ氏らは、人工知能が現時点では意識を持っていないことを証明するために88ページを費やしたが、ベンジオ氏とヒントン氏は両者とも、人工知能が将来的に自己認識を獲得する可能性があると考えている。

将来、人工知能が人間に取って代わり、地球上で最も知的な存在になるでしょう。

モデルの知能を決定するのは学習能力です。ヒントン氏は人工知能の学習プロセスについて説明します。

人工知能は、人間が対応するアルゴリズムを設計するため学習できますが、モデルが生成するニューラル ネットワークは複雑であり、完全には理解されていません。

ヒントン氏はこのプロセスを設計進化の原理に例え、人工知能がより複雑なタスクを処理するようになるにつれて、その内部の仕組みはますます謎めいて人間には理解できないものになるだろうと認めた。

さらにヒントン氏は、人工知能システムが自らを修正するために独自のコードを書き、その結果人間が人工知能を制御できなくなる可能性があるという懸念も表明した。

ヒントン氏は、AIが制御不能になるリスクに加え、AIが人間を操作するリスクについても議論し、自律型戦場ロボット、フェイクニュース、雇用偏見などの分野での潜在的な影響を指摘した。

しかし、それ以上に悪いことに、ヒントン氏はAIを取り巻く不確実性と、未知の領域を切り拓く課題を強調した。

「私たちは非常に不確実な時代に入りつつあり、これまでに行われたことのない事柄に取り組んでいます。通常、まったく新しいことに初めて取り組む場合、間違いを犯すのは当然です。しかし、これらのことに関しては間違いを犯すことはできません。」

しかしヒントン氏は人工知能の貢献も認めた。

人工知能は現実世界でさまざまな形で実用化されており、事務、科学的発見、医療などの分野で人間の効率を大幅に向上させています。

ヒントン氏は特に、医療画像認識と医薬品設計といったヘルスケア分野における人工知能の大きな利点を強調した。Google DeepMindが立ち上げたAlpha Foldはその好例だ。

ヒントン氏は、この分野における AI のプラスの影響について楽観的な見方を示した。

人工知能の将来について、ヒントン氏は人工知能が確実に人間を支配するとは予測しなかったものの、それが人類の将来となる可能性はあると認めた。

そのため、ヒントン氏は、人工知能の発展の可能性に直面して、人類が自らの安全のために必要な保護措置を講じるよう促している。

AIのリスクに関するその他の懸念

以前、ニューヨーク大学のマーカス教授も同様の懸念を表明していた。

「人類が絶滅していくことと、より速くコードを書き、ロボットと会話できるようになることのどちらが重要なのでしょうか?」

マーカス氏は、AGI はまだ遠いものの、LLM はすでに非常に危険だと考えています。最も危険なのは、AI が現在さまざまな犯罪行為を助長している点です。

「この時代、私たちは毎日、どんな AI が欲しいのか自問しなければなりません。時にはゆっくり進む方が良いこともあります。なぜなら、私たちが取る小さな一歩が、未来に大きな影響を与えるからです。」

ChatGPTの生みの親でありOpenAIのCEOであるサム・アルトマン氏も、超知能AIのリスクは私たちの予想をはるかに超える可能性があると公に述べています。

テクノロジー研究者レックス・フリードマンとのポッドキャストで、アルトマン氏は高度な人工知能の潜在的な危険性について警鐘を鳴らした。

最も心配しているのは、AIによる偽情報の問題や経済への影響など、まだ顕在化していない問題だと語った。これらの被害は、人間の対応できるレベルをはるかに超える可能性がある。

彼は、大規模な言語モデルがソーシャルメディアユーザーの体験ややり取りに影響を与え、さらには支配する可能性があると指摘した。

「たとえば、大規模な言語モデルが Twitter 上の思考の流れを誘導していないとどうやってわかるのでしょうか?」

「OpenAIとして、私たちが世に送り出すツールに責任を持つ責任があると思います」とアルトマン氏は語った。

「AIツールは人類に多大な利益をもたらすだろうが、ご存知のようにツールには利点と欠点の両方がある」と彼は付け加えた。 「私たちは害を最小限に抑え、利益を最大化します。」

GPT-4 モデルは素晴らしいものですが、AI の限界を認識し、擬人化を避けることも重要です。

同様に、ビル・ゲイツ氏も長年「AIが人類を滅ぼす」という問題を懸念してきました。

ゲイツ氏は長年、人工知能技術が強力になりすぎて、戦争を引き起こしたり、武器の製造に利用されたりする可能性があると述べてきた。

彼は、現実世界の「007の悪役」が人工知能を使って世界の大国を操る可能性があるだけでなく、人工知能自体も制御不能になり、人類に大きな脅威をもたらす可能性があると主張した。

彼の見解では、超知能が開発されると、その思考速度は人間のそれをはるかに超えるものとなるだろう。

人間の脳ができることはすべてでき、最も恐ろしいのは、そのメモリサイズと動作速度にまったく制限がないことです。

「スーパー」AIと呼ばれるこれらの存在は、独自の目標を設定する可能性があり、何を行うかは不明です。

そして、国民の声も聞こえ始めています。

大企業間の大規模なモデル「軍拡競争」に直面し、Meta は Llama 2 のモデル重量を一般に公開したことで市民の抗議に直面しました。

モデルの重みを公開するというMetaの戦略により、誰でも自分の利益のためにモデルを変更できるようになるのではないかと国民は懸念している。

同時に、重みがオープンであるため、他の人はこれらのモデルを思い出すことができません。これにより、大規模なモデルを使用してサイバー犯罪を犯すためのほぼ無限の肥沃な土壌が提供されます。

今、全人類にとって、「生きるべきか、死ぬべきか」は、直面しなければならない差し迫った問題となっているようだ。

<<:  マイクロソフトCEOナデラ氏がグーグルを批判、AIに対する大きな懸念を表明

>>:  GPT-4 の推論はより人間的です!中国科学院は「思考コミュニケーション」を提唱、類推思考はCoT、プラグアンドプレイよりも優れている

ブログ    
ブログ    

推薦する

AIの未来: 次世代の生成モデルの探究

ニシャ・アーヤ著翻訳者 | ブガッティレビュー | Chonglou生成 AI には現在どのような機...

大規模言語モデルによる金融市場の予測

大規模言語モデル (LLM) は、数百万または数十億のパラメータを持つ人工ニューラル ネットワークで...

脳コンピューターインターフェースが人間の思考を制御するのではないかと心配ですか?神経科学者:考えすぎ

[[400401]]現在、脳コンピューターインターフェースの急速な発展により、人々はパニックに陥って...

未来 | 人工知能が人間社会を変える24の方法

今こそ、AI の将来を本当に理解するときです。 AI を取り巻く不安は雇用の減少など多岐にわたります...

OpenAIがMicrosoftに反旗を翻す!アルトマン氏が「ChatGPTのカスタマイズ」を企む。AI市場の未来はまた変わるのか?

ChatGPTはリリースからわずか半年で、5日間でユーザー数が100万人を超え、現在ユーザー総数は...

行列分解はディープラーニングに勝る! MIT が時系列データベース tspDB をリリース: 機械学習に SQL を使用

人類が歴史から学んだ唯一の教訓は、人類は歴史から何も学べないということだ。 「しかし、機械は学習でき...

PyTorch でシンプルな分類器を実装する

[[328922]]私自身の PyTorch の学習過程を思い出すと、最初はいろいろな情報を見つけ、...

人工知能によるデータ管理の変革

企業は人工知能 (AI) を適用する新しい方法を見つけています。 AI プロジェクトの主な障害の 1...

ニューラル機械翻訳の 3 つの主要な問題をどのように解決するか?清華大学がNMTの最新レビューを発表

今日では、コンピュータ技術は人々の生活のあらゆる側面に浸透しており、仕事や勉強に大いに役立つものとい...

Python で多層パーセプトロン ニューラル ネットワークを実装する

[[341199]]何かを学べない限り、車輪の再発明をしないでください。 TensorFlow、Py...

数学モデルが人間の視覚の秘密を解き明かす

人間の視覚はどのように発達するのでしょうか?今日に至るまで、それは謎のままです。脳の視覚系は、世界自...

ディープラーニングの成果は収穫されようとしているのでしょうか? 11人の専門家がAIの現在(2018年)と未来(2019年)について語る

KDnuggets は、学界と産業界のさまざまな分野の機械学習と AI の専門家 11 名に相談し、...

元GitHub CEO:AIプログラミングアシスタントCopilotは価格よりも安く、損失はない

10月13日、元マイクロソフト幹部で元GitHub CEOのナット・フリードマン氏は、10月12日に...

写真から3Dモデルを生成、GANとオートエンコーダが衝突して奇跡を起こす

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...