AIのリスクの問題に関しては、さまざまな有力者がさまざまな意見を持っています。 AI研究室に研究を即時中止するよう求める共同書簡に署名する人たちが先頭に立った。ディープラーニングの三大巨頭、ジェフリー・ヒントン氏、ヨシュア・ベンジオ氏らもこの見解を支持した。 つい先日、ベンジオ氏、ヒントン氏らは「急速に進化する時代における人工知能のリスク管理」と題する別の共同書簡を発表し、研究者に対し、安全性と倫理的慣行に焦点を当ててAIシステムを開発する前に緊急ガバナンス措置を講じるよう求め、政府に対しAIがもたらすリスクを管理する行動を取るよう求めた。 記事では、AIの悪用を防ぐために国家機関を関与させるなど、緊急のガバナンス対策について言及している。効果的な規制を実現するために、政府は AI の発展を包括的に理解する必要があります。規制当局は、モデルの登録、内部告発者の効果的な保護、モデル開発とスーパーコンピュータの使用の監視など、さまざまな対策を講じる必要があります。規制当局は、高度な AI システムが導入される前にその危険な能力を評価するために、そのシステムにアクセスする必要がある。 それだけでなく、もう少し遡ると、今年5月にはアメリカの非営利団体「AI安全センター」が、人工知能は伝染病と同等の人類絶滅のリスクをもたらすとみなすべきだと警告する声明を出している。この声明を支持するのもヒントン氏やベンジオ氏らだ。 ヒントン氏は今年5月、人工知能がもたらすリスクについて声を上げるためにグーグルを辞職した。同氏はニューヨーク・タイムズ紙のインタビューで、「ほとんどの人は、これ(AIの危険性)はまだ先のことだと考えている。私も以前は、まだ先のこと、おそらく30年から50年、あるいはそれ以上先のことだと思っていた。しかし、明らかに今はそうは思わない」と語った。 ヒントンのような AI 大手の目には、AI がもたらすリスクを管理することが非常に緊急の問題であることが予測できます。 しかし、ディープラーニングの三大巨頭の一人であるヤン・ルカン氏は、AIの発展について非常に楽観的です。彼は、人工知能の発展が人類に脅威を与えることはほど遠いと考えており、AIのリスクに関する共同書簡への署名には概ね反対している。 先ほど、LeCun氏はXユーザーとのコミュニケーションの中で、AIのリスクについてネットユーザーからのいくつかの質問に答えた。 ネットユーザーは、ヒントン氏、ベンジオ氏らが発表した共同書簡によって、当初AIを補助的なアシスタントと見ていた人々の見方が、潜在的な脅威と見なすようになったと信じている記事「『これが彼の気候変動だ』:リシ・スナック氏がその遺産を確定させるのを助ける専門家たち」に対するルカン氏の意見を尋ねた。記事はさらに、ここ数カ月、英国ではAIが世界の終末をもたらすという雰囲気が高まっていると観測者が感じていると述べている。英国政府は今年3月、AI分野におけるイノベーションを抑制しないことを約束する白書を発表した。しかし、わずか2か月後、英国はAIに対するガードレールの設置について話し始め、米国に世界的なAIルールの計画を受け入れるよう促した。 記事URL: https://www.telegraph.co.uk/business/2023/09/23/artificial-intelligence-safety-summit-sunak-ai-experts/ ルカン氏はこの記事に対し、AIにおける宿命論のリスクに関する英国の懸念が他の国々に広がることを望まないと述べた。 その後、先ほど述べた LeCun 氏とユーザー X 氏との会話がありました。LeCun 氏の回答は次のとおりです。 「アルトマン、ハサビス、アモデイは大規模な企業ロビー活動を行っています。彼らはAI業界を規制しようとしています。そしてあなた、ジェフ、ヨシュアは、オープンAI研究を禁止するためにロビー活動する人々に弾薬を提供しています。」 もしあなたの恐怖キャンペーンが成功すれば、それは必然的に、あなたと私が共に災難と考える状況、つまり一握りの企業が AI を制御する状況につながるでしょう。 学術関係者の大多数は、オープン AI の研究開発を強く支持しています。あなたが推進する終末シナリオを信じる人はほとんどいません。あなた、ヨシュア、ジェフ、スチュアートだけが例外です。 多くの人と同じように、私はオープン AI プラットフォームの大ファンです。人々の創造性、民主主義、市場の力、製品規制という力の組み合わせを信じているからです。また、安全で人間の管理下にある AI システムを開発することが可能であるということもわかっています。これについてはすでに具体的な提案をしました。これらすべてが人々に正しいことを行う動機を与えるでしょう。 あなたは、AI が突然どこからともなく現れた、私たちが制御できない自然現象であるかのように書いています。しかし、そうではありません。それは、あなたと私が知っている一人一人のおかげで進歩しました。私たちも彼らにも、正しいものを構築する力があります。研究開発(製品展開ではなく)の規制を求めることは、これらの人々と彼らが奉仕する組織が無能、無謀、自己破壊的、または邪悪であると暗黙のうちに想定しています。しかし、そうではありません。 私は、あなたが恐れている終末のシナリオがばかげていることを証明するために、多くの議論を提示してきました。ここでは詳細には触れません。しかし、重要な点は、強力な AI システムが目標 (ガードレールを含む) によって駆動される場合、それらのガードレールと目標を設定するため、システムは安全で制御可能になるということです。 (現在の自己回帰 LLM は目標指向ではないため、自己回帰 LLM の弱点から推論すべきではありません)。 オープンソースの特徴は、あなたの活動があなたが求めているものとは正反対の効果をもたらすということです。将来、AI システムは人類の知識と文化の宝庫となり、誰もが貢献できるオープンソースで無料のプラットフォームが必要になります。オープン性こそが、AI プラットフォームに人類の知識と文化のすべてを反映させる唯一の方法です。これには、Wikipedia と同様に、これらのプラットフォームへの貢献がクラウドソーシングされる必要があります。プラットフォームが開いていなければ、これは機能しません。 オープンソースの AI プラットフォームが規制された場合、必然的に発生するもう 1 つのシナリオは、少数の企業が AI プラットフォームを制御し、ひいては人々のデジタル依存関係をすべて制御することです。これは民主主義にとって何を意味するのでしょうか?これは文化の多様性にとって何を意味するのでしょうか?これが私が夜眠れない原因です。 「 ルカン氏の長文のツイートの下には、彼の意見を「支持」する人も多くいた。 Irina Rish 氏は、モントリオール大学のコンピューターサイエンスおよびオペレーションズリサーチ学部の教授であり、Mila - Quebec AI Institute の中心メンバーです。彼女は、オープンソースAIを支持する研究者はもはや沈黙せず、新興AIの開発を主導すべきかもしれないと述べた。 e/accの創設者ベフ・ジェゾス氏もコメント欄で、このようなコメントは重要であり必要であると述べた。 ネットユーザーらは、当初は安全保障問題を議論することで未来の技術に対する皆の想像力を豊かにすることができるが、センセーショナルなSFが独占政策の出現につながるべきではないと述べた。 ポッドキャストの司会者レックス・フリードマン氏は、この討論会でさらに期待することがあった。 AIリスクに関する議論は、AIの将来の発展にも影響を与えるでしょう。一つのアイデアが人気になると、人々は盲目的にそれに従う傾向があります。双方が理性的な議論を継続して行うことができ、初めて AI の「真の姿」を真に理解することができるのです。 |
論文アドレス: https://arxiv.org/abs/2307.09283コードアドレス: h...
2020年は人工知能(AI)にとって節目の年です。今年、新型コロナウイルス感染症のパンデミックが世界...
AI は本質的にはソフトウェアの追求ですが、ハードウェア エンジニアに多くの機会を生み出し、多くのス...
[[408210]]今では「顔認証で出勤、顔認証で支払い、顔認証でドアを開ける」といったハイテクノ...
デジタル化は、意思決定レベルから産業レベルまでの変化において中心的な課題になりつつあります。科学技術...
TensorFlow と PyTorch フレームワーク間の戦いは長い間続いています。最近のニュー...
[[416242]]オブジェクト検出、オブジェクト認識、セグメンテーション タスク用の自動注釈ソリュ...
分子診断のミッドストリーム市場は、機器メーカーや試薬メーカーによって占められています。現在の分子診断...
[[380706]]この記事はWeChatパブリックアカウント「Full-Stack Cultiva...
10月20日、国務院新聞弁公室公式サイトによると、工業情報化部の報道官、運営監視調整局局長の陶青氏は...
Zhihu で質問を見ました: WeChat の赤い封筒のランダム アルゴリズムはどのように実装さ...
[[333020]]ロビン・リー:業界の人々はAIに大きな可能性があることを知っており、悲観的な時...