オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

AIの分野では、オープンソースとクローズドソースの選択については、常に意見が分かれてきました。しかし、ビッグモデルの時代において、オープンソースの強力な力が静かに台頭してきました。 Google から漏洩した内部文書によると、コミュニティ全体が Meta の LLaMA などのオープンソース モデルを中心に、OpenAI や Google の大規模モデルと同様の機能を備えたモデルを急速に構築しているという。

最近リリースされた Llama 2 などの継続的なオープンソースの取り組みにより、Meta がオープンソースの世界の絶対的な中心にあることは間違いありません。しかし、森で一番高い木は風で倒れてしまいます。最近、Meta はオープンソースのせいで「困った」状況に陥っています。

Metaのサンフランシスコオフィスの外では、プラカードを掲げた抗議者のグループが集まり、AIモデルを公開するというMetaの戦略に抗議し、その公開が潜在的に危険な技術の「取り返しのつかない増殖」につながると主張した。抗議者の中には、メタが発表した大型模型を「大量破壊兵器」に例える者もいた。

自らを「懸念する市民」と呼ぶ抗議者らは、ホリー・エルモア氏が率いている。 LinkedInの情報によると、彼女はAI一時停止運動の独立した支持者です。

写真提供: ミシャ・グレヴィッチ

彼女は、モデルが安全でないことが証明された場合、ユーザーが API 経由でのみアクセスできるようにする Google や OpenAI などの大規模なモデルなどの API がシャットダウンされる可能性があると指摘しました。

対照的に、Meta の LLaMA シリーズのオープンソース モデルでは、モデルの重みが一般に公開されており、適切なハードウェアと専門知識を持つ人なら誰でもモデルを複製して調整することができます。モデルの重みが公開されると、公開会社は AI の使用方法を制御する手段がなくなります。

ホリー・エルモア氏の見解では、モデルの重みを公開することは、誰でもモデルを変更でき、元に戻すこともできないため、危険な戦略です。 「モデルが強力になればなるほど、戦略は危険になります。」

オープンソースと比較すると、API を介してアクセスされる大規模なモデルには、危険な応答や不快な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまな安全機能が備わっていることがよくあります。

モデルの重みが解放されると、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングすることがはるかに簡単になります。これにより、これらのオープンソース モデルを使用してフィッシング ソフトウェアを作成し、サイバー攻撃を実行する可能性が高まります。

写真提供: ミシャ・グレヴィッチ

なぜなら、問題の一部は「モデルの公開に対するセキュリティ対策が不十分」であることであり、モデルのセキュリティを確保するためのより良い方法が必要だと彼女は考えているからです。

Metaはまだこれについてコメントしていない。しかし、Metaの主任AI科学者であるヤン・ルカン氏は、「オープンソースAIは禁止されなければならない」という発言に反応したようで、パリのオープンソースAIスタートアップコミュニティのグランドオープンの写真を投稿した。

また、ホリー・エルモア氏に反対し、AI開発のオープン戦略こそがテクノロジーへの信頼を確保する唯一の方法だと考える人も多くいます。

一部のネットユーザーは、オープンソースには利点と欠点の両方があると述べています。オープンソースは、人々の透明性を高め、イノベーションを促進できますが、悪意のある行為者による悪用(コードなど)のリスクにも直面しています。

予想通り、OpenAIは再び「オープンソースに戻るべきだ」と嘲笑された。

多くの人がオープンソースを懸念している

「高度なAIモデルの広範な公開は、その悪用を防ぐのがほぼ不可能になるため、将来特に問題になるだろう」と、MITでAI安全性を研究する博士研究員のピーター・S・パーク氏は述べた。

しかし、非営利の人工知能研究組織 EleutherAI のエグゼクティブ ディレクター、ステラ ビダーマン氏は次のように述べている。「これまでのところ、オープン ソース モデルが具体的な害を及ぼしたという証拠はほとんどありません。また、モデルを API の背後に置くだけでセキュリティ問題が解決するかどうかも不明です。」

「LLMを構築するための基本的な要素は、無料で入手できる研究論文で公開されており、世界中の誰もがその文献を読んで独自のモデルを開発することができます」とビーダーマン氏は語った。

彼女はさらに、「企業にモデルの詳細を秘密にするよう奨励することは、特に独立した研究者にとって、この分野の透明性、一般の認識、科学的発展に深刻な影響を及ぼす可能性がある」と付け加えた。

誰もがオープンソースの影響について議論していますが、Meta のアプローチが本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。

「オープンソース AI の概念は適切に定義されていません」と、オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクター、ステファノ マフーリ氏は語ります。「さまざまな組織がさまざまなものを指すためにこの用語を使用しています。つまり、『公開されているもの』のレベルが異なり、人々を混乱させています。」

マフルリ氏は、オープンソースソフトウェアの場合、ソースコードが公開されており、いかなる目的でも再現可能であるかどうかが重要な問題であると指摘した。ただし、AI モデルを再現するには、トレーニング データ、データの収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどを共有する必要がある場合があります。その中で最も重要なのは、トレーニング データにプライバシーや著作権の問題が発生する可能性があることです。

OSI は昨年から「オープンソース AI」の明確な定義に取り組んでおり、今後数週間以内に初期草案をリリースする予定です。しかし、いずれにせよ、彼はオープンソースが AI の発展に不可欠であると信じています。 「オープンソースでなければ、信頼できる責任あるAIは実現できない」と彼は語った。

今後もオープンソースとクローズドソースに関する意見の相違は続くでしょうが、オープンソースを止めることはもはやできません。


<<: 

>>:  マイクロソフトCEO、テクノロジー大手各社がAIを訓練するためのコンテンツをめぐって競争していると語る

ブログ    
ブログ    
ブログ    

推薦する

インテリジェント運転の「人材不足」は大学の科目ゲームに閉じ込められている

この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...

...

...

自然言語処理の実践: 機械学習によく使われるツールとテクニック

多くの自然言語処理には機械学習が関係しているため、機械学習の基本的なツールとテクニックを理解しておく...

2020年グローバルスマート教育会議でAI教育統合イノベーションの成果が発表されました

2020年8月20日から22日まで、北京で「人工知能と未来の教育」に重点を置いた、待望の「2020年...

Think2Drive: 自動運転のための初のモデルベース RL 手法 (上海交通大学)

この記事は、Heart of Autonomous Driving の公開アカウントから許可を得て転...

Java プログラミング スキル - データ構造とアルゴリズム「ソート アルゴリズムの分類と紹介」

導入ソートとは、データのセットを指定された順序で並べるプロセスです。分類カテゴリ内部ソート: ソート...

...

ControlNetの作者が新作を発表:数百万のデータを使ったトレーニング、レイヤー設計の先駆けとなるAI画像生成

画像を生成するための大規模なモデルがコンピュータービジョンやグラフィックスの基礎となっている一方で、...

3,000以上のデータから200を選択する方が実際にはより効果的であり、MiniGPT-4は同じ構成のモデルよりも優れている。

GPT-4 は、詳細かつ正確な画像の説明を生成する強力で並外れた能力を実証しており、言語と視覚処理...

...

...

なぜほとんどの経営幹部は自社がAI導入の準備ができていないと考えているのか

この分野の専門家は、AI技術が従業員に大きな変化をもたらし、企業のビジネスのやり方を変えていると述べ...

Julia vs Python: 2019 年に機械学習でナンバー 1 になるプログラミング言語はどれでしょうか?

[[252207]] [51CTO.com クイック翻訳] Juliaは2018年に登場し、現在最...

...