オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

オープンモデルの重みはAIを制御不能にすると言われ、Metaはプラカードで抗議され、LeCun:オープンソースAIコミュニティは活発化している

AIの分野では、オープンソースとクローズドソースの選択については、常に意見が分かれてきました。しかし、ビッグモデルの時代において、オープンソースの強力な力が静かに台頭してきました。 Google から漏洩した内部文書によると、コミュニティ全体が Meta の LLaMA などのオープンソース モデルを中心に、OpenAI や Google の大規模モデルと同様の機能を備えたモデルを急速に構築しているという。

最近リリースされた Llama 2 などの継続的なオープンソースの取り組みにより、Meta がオープンソースの世界の絶対的な中心にあることは間違いありません。しかし、森で一番高い木は風で倒れてしまいます。最近、Meta はオープンソースのせいで「困った」状況に陥っています。

Metaのサンフランシスコオフィスの外では、プラカードを掲げた抗議者のグループが集まり、AIモデルを公開するというMetaの戦略に抗議し、その公開が潜在的に危険な技術の「取り返しのつかない増殖」につながると主張した。抗議者の中には、メタが発表した大型模型を「大量破壊兵器」に例える者もいた。

自らを「懸念する市民」と呼ぶ抗議者らは、ホリー・エルモア氏が率いている。 LinkedInの情報によると、彼女はAI一時停止運動の独立した支持者です。

写真提供: ミシャ・グレヴィッチ

彼女は、モデルが安全でないことが証明された場合、ユーザーが API 経由でのみアクセスできるようにする Google や OpenAI などの大規模なモデルなどの API がシャットダウンされる可能性があると指摘しました。

対照的に、Meta の LLaMA シリーズのオープンソース モデルでは、モデルの重みが一般に公開されており、適切なハードウェアと専門知識を持つ人なら誰でもモデルを複製して調整することができます。モデルの重みが公開されると、公開会社は AI の使用方法を制御する手段がなくなります。

ホリー・エルモア氏の見解では、モデルの重みを公開することは、誰でもモデルを変更でき、元に戻すこともできないため、危険な戦略です。 「モデルが強力になればなるほど、戦略は危険になります。」

オープンソースと比較すると、API を介してアクセスされる大規模なモデルには、危険な応答や不快な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまな安全機能が備わっていることがよくあります。

モデルの重みが解放されると、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングすることがはるかに簡単になります。これにより、これらのオープンソース モデルを使用してフィッシング ソフトウェアを作成し、サイバー攻撃を実行する可能性が高まります。

写真提供: ミシャ・グレヴィッチ

なぜなら、問題の一部は「モデルの公開に対するセキュリティ対策が不十分」であることであり、モデルのセキュリティを確保するためのより良い方法が必要だと彼女は考えているからです。

Metaはまだこれについてコメントしていない。しかし、Metaの主任AI科学者であるヤン・ルカン氏は、「オープンソースAIは禁止されなければならない」という発言に反応したようで、パリのオープンソースAIスタートアップコミュニティのグランドオープンの写真を投稿した。

また、ホリー・エルモア氏に反対し、AI開発のオープン戦略こそがテクノロジーへの信頼を確保する唯一の方法だと考える人も多くいます。

一部のネットユーザーは、オープンソースには利点と欠点の両方があると述べています。オープンソースは、人々の透明性を高め、イノベーションを促進できますが、悪意のある行為者による悪用(コードなど)のリスクにも直面しています。

予想通り、OpenAIは再び「オープンソースに戻るべきだ」と嘲笑された。

多くの人がオープンソースを懸念している

「高度なAIモデルの広範な公開は、その悪用を防ぐのがほぼ不可能になるため、将来特に問題になるだろう」と、MITでAI安全性を研究する博士研究員のピーター・S・パーク氏は述べた。

しかし、非営利の人工知能研究組織 EleutherAI のエグゼクティブ ディレクター、ステラ ビダーマン氏は次のように述べている。「これまでのところ、オープン ソース モデルが具体的な害を及ぼしたという証拠はほとんどありません。また、モデルを API の背後に置くだけでセキュリティ問題が解決するかどうかも不明です。」

「LLMを構築するための基本的な要素は、無料で入手できる研究論文で公開されており、世界中の誰もがその文献を読んで独自のモデルを開発することができます」とビーダーマン氏は語った。

彼女はさらに、「企業にモデルの詳細を秘密にするよう奨励することは、特に独立した研究者にとって、この分野の透明性、一般の認識、科学的発展に深刻な影響を及ぼす可能性がある」と付け加えた。

誰もがオープンソースの影響について議論していますが、Meta のアプローチが本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。

「オープンソース AI の概念は適切に定義されていません」と、オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクター、ステファノ マフーリ氏は語ります。「さまざまな組織がさまざまなものを指すためにこの用語を使用しています。つまり、『公開されているもの』のレベルが異なり、人々を混乱させています。」

マフルリ氏は、オープンソースソフトウェアの場合、ソースコードが公開されており、いかなる目的でも再現可能であるかどうかが重要な問題であると指摘した。ただし、AI モデルを再現するには、トレーニング データ、データの収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどを共有する必要がある場合があります。その中で最も重要なのは、トレーニング データにプライバシーや著作権の問題が発生する可能性があることです。

OSI は昨年から「オープンソース AI」の明確な定義に取り組んでおり、今後数週間以内に初期草案をリリースする予定です。しかし、いずれにせよ、彼はオープンソースが AI の発展に不可欠であると信じています。 「オープンソースでなければ、信頼できる責任あるAIは実現できない」と彼は語った。

今後もオープンソースとクローズドソースに関する意見の相違は続くでしょうが、オープンソースを止めることはもはやできません。


<<: 

>>:  マイクロソフトCEO、テクノロジー大手各社がAIを訓練するためのコンテンツをめぐって競争していると語る

ブログ    
ブログ    
ブログ    

推薦する

Google の研究者が発狂: AI に人格があると信じ、有給休暇を取得し、チャットログが恐ろしい

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

大きな模型 = 容器に入った脳?同源病院の朱松春氏のチームがAGIの主な欠陥を分析

最近、ChatGPT/GPT-4シリーズの製品は世界的な注目と議論を集めており、それらに代表される大...

適切な場所で機械学習は革命をもたらすだろう

[[194517]]機械学習に代表される人工知能の分野は、現在、科学技術分野で最もホットな分野の一つ...

Belcorp CIO: AI による IT 研究開発の見直し

多国籍美容企業ベルコープは過去3年間、パンデミック、消費者行動の変化、サプライチェーンの混乱、インフ...

...

メイン検索と店内検索の共同最適化の予備調査と試み

背景と概要Taobao プラットフォームには、検索、推奨、広告など、多くのサブシナリオがあります。各...

...

...

122の古典的なSOTAモデルと223のアルゴリズム実装リソースを1つの記事にまとめました。

春節休暇期間中、Syncedの「SOTA! Model」は「Tiger Roller Operati...

データサイエンスと機械学習のためのツールと言語の最新情報

[[198310]]第 18 回 KDnuggets ソフトウェア アンケートには、今年もアナリティ...

プログラマーが知っておくべき10の基本的な実用的なアルゴリズムとその説明

[[128752]]アルゴリズム1: クイックソートアルゴリズムクイックソートは、Tony Hall...

2日間で星の数が1,000を突破:OpenAIのWhisperの蒸留後、音声認識が数倍高速化

少し前に、「テイラー・スウィフトが中国語を披露」する動画がさまざまなソーシャルメディアプラットフォー...

...