AIの分野では、オープンソースとクローズドソースの選択については、常に意見が分かれてきました。しかし、ビッグモデルの時代において、オープンソースの強力な力が静かに台頭してきました。 Google から漏洩した内部文書によると、コミュニティ全体が Meta の LLaMA などのオープンソース モデルを中心に、OpenAI や Google の大規模モデルと同様の機能を備えたモデルを急速に構築しているという。 最近リリースされた Llama 2 などの継続的なオープンソースの取り組みにより、Meta がオープンソースの世界の絶対的な中心にあることは間違いありません。しかし、森で一番高い木は風で倒れてしまいます。最近、Meta はオープンソースのせいで「困った」状況に陥っています。 Metaのサンフランシスコオフィスの外では、プラカードを掲げた抗議者のグループが集まり、AIモデルを公開するというMetaの戦略に抗議し、その公開が潜在的に危険な技術の「取り返しのつかない増殖」につながると主張した。抗議者の中には、メタが発表した大型模型を「大量破壊兵器」に例える者もいた。 自らを「懸念する市民」と呼ぶ抗議者らは、ホリー・エルモア氏が率いている。 LinkedInの情報によると、彼女はAI一時停止運動の独立した支持者です。 写真提供: ミシャ・グレヴィッチ 彼女は、モデルが安全でないことが証明された場合、ユーザーが API 経由でのみアクセスできるようにする Google や OpenAI などの大規模なモデルなどの API がシャットダウンされる可能性があると指摘しました。 対照的に、Meta の LLaMA シリーズのオープンソース モデルでは、モデルの重みが一般に公開されており、適切なハードウェアと専門知識を持つ人なら誰でもモデルを複製して調整することができます。モデルの重みが公開されると、公開会社は AI の使用方法を制御する手段がなくなります。 ホリー・エルモア氏の見解では、モデルの重みを公開することは、誰でもモデルを変更でき、元に戻すこともできないため、危険な戦略です。 「モデルが強力になればなるほど、戦略は危険になります。」 オープンソースと比較すると、API を介してアクセスされる大規模なモデルには、危険な応答や不快な応答の出力を防ぐための応答フィルタリングや特定のトレーニングなど、さまざまな安全機能が備わっていることがよくあります。 モデルの重みが解放されると、これらの「ガードレール」を飛び越えるようにモデルを再トレーニングすることがはるかに簡単になります。これにより、これらのオープンソース モデルを使用してフィッシング ソフトウェアを作成し、サイバー攻撃を実行する可能性が高まります。 写真提供: ミシャ・グレヴィッチ なぜなら、問題の一部は「モデルの公開に対するセキュリティ対策が不十分」であることであり、モデルのセキュリティを確保するためのより良い方法が必要だと彼女は考えているからです。 Metaはまだこれについてコメントしていない。しかし、Metaの主任AI科学者であるヤン・ルカン氏は、「オープンソースAIは禁止されなければならない」という発言に反応したようで、パリのオープンソースAIスタートアップコミュニティのグランドオープンの写真を投稿した。 また、ホリー・エルモア氏に反対し、AI開発のオープン戦略こそがテクノロジーへの信頼を確保する唯一の方法だと考える人も多くいます。 一部のネットユーザーは、オープンソースには利点と欠点の両方があると述べています。オープンソースは、人々の透明性を高め、イノベーションを促進できますが、悪意のある行為者による悪用(コードなど)のリスクにも直面しています。 予想通り、OpenAIは再び「オープンソースに戻るべきだ」と嘲笑された。 多くの人がオープンソースを懸念している「高度なAIモデルの広範な公開は、その悪用を防ぐのがほぼ不可能になるため、将来特に問題になるだろう」と、MITでAI安全性を研究する博士研究員のピーター・S・パーク氏は述べた。 しかし、非営利の人工知能研究組織 EleutherAI のエグゼクティブ ディレクター、ステラ ビダーマン氏は次のように述べている。「これまでのところ、オープン ソース モデルが具体的な害を及ぼしたという証拠はほとんどありません。また、モデルを API の背後に置くだけでセキュリティ問題が解決するかどうかも不明です。」 「LLMを構築するための基本的な要素は、無料で入手できる研究論文で公開されており、世界中の誰もがその文献を読んで独自のモデルを開発することができます」とビーダーマン氏は語った。 彼女はさらに、「企業にモデルの詳細を秘密にするよう奨励することは、特に独立した研究者にとって、この分野の透明性、一般の認識、科学的発展に深刻な影響を及ぼす可能性がある」と付け加えた。 誰もがオープンソースの影響について議論していますが、Meta のアプローチが本当に十分にオープンであるかどうか、またオープンソースを活用できるかどうかはまだ不明です。 「オープンソース AI の概念は適切に定義されていません」と、オープンソース イニシアチブ (OSI) のエグゼクティブ ディレクター、ステファノ マフーリ氏は語ります。「さまざまな組織がさまざまなものを指すためにこの用語を使用しています。つまり、『公開されているもの』のレベルが異なり、人々を混乱させています。」 マフルリ氏は、オープンソースソフトウェアの場合、ソースコードが公開されており、いかなる目的でも再現可能であるかどうかが重要な問題であると指摘した。ただし、AI モデルを再現するには、トレーニング データ、データの収集方法、トレーニング ソフトウェア、モデルの重み、推論コードなどを共有する必要がある場合があります。その中で最も重要なのは、トレーニング データにプライバシーや著作権の問題が発生する可能性があることです。 OSI は昨年から「オープンソース AI」の明確な定義に取り組んでおり、今後数週間以内に初期草案をリリースする予定です。しかし、いずれにせよ、彼はオープンソースが AI の発展に不可欠であると信じています。 「オープンソースでなければ、信頼できる責任あるAIは実現できない」と彼は語った。 今後もオープンソースとクローズドソースに関する意見の相違は続くでしょうが、オープンソースを止めることはもはやできません。 |
>>: マイクロソフトCEO、テクノロジー大手各社がAIを訓練するためのコンテンツをめぐって競争していると語る
[[415258]] 2017年、サウジアラビアの首都リヤドで開催された未来投資イニシアチブ会議に...
[[425806]]多様なアクセラレータ セットでトレーニングされた大規模で複雑なニューラル ネット...
序文:前回のJetson Nanoの記事では、学習のためのアイデアや教材を紹介しました。今日は、引き...
コンピュータービジョンをやってみたいですか?最近では、ディープラーニングが主流となっています。大規模...
1958 年、FHC クリックは、生物学における重要なセントラルドグマである DNA -> R...
英国最高裁判所は12月21日、特許出願において人工知能(AI)を発明者として記載することはできないと...
CLIP は最も人気のあるビジュアル ベース モデルであり、その適用シナリオには以下が含まれますが、...
[[357471]]このほど、全人類に利益をもたらす科学技術の進歩を促進することに尽力している世界最...
急速に変化する今日の世界では、誰も待たされることを好みません。私たちはリクエストに迅速に対応してもら...
人工知能と機械学習は市場で注目されている技術であり、その重要性は 2020 年にピークに達しました。...
機械学習アルゴリズムは重要なサイバーセキュリティ技術となり、現在は主にマルウェアの特定、セキュリティ...
人工知能は私たちの仕事を奪うのでしょうか?シリコンバレーの幹部が今日の最先端の AI テクノロジーに...
中国科学院は、Adobe および Apple の研究者と共同で、画像編集における拡散モデルに関する主...