ビッグデータダイジェスト制作 最近、AI規制に関する意見は「新たな高み」に達し、AI専門家のグループがTwitter上で「人類絶滅説」について白熱した議論を繰り広げている。 肯定派の討論者はヒントンを代表とする「AIは危険」派によって代表され、否定派の討論者はアンドリュー・ンを中核とする「AI肯定論」派によって代表される。討論会中、アンドリュー・ン氏は「金銭目的のためだけにAIに関する懸念を広めようと懸命に働いている人もいる」とさえ主張した。 写真 AIは規制されるべきでしょうか? AI規制はどのような結果をもたらすのでしょうか? fast.ai の研究者グループが調査を実施し、70 人以上の専門家にインタビューし、300 件を超える学術論文をレビューしました。最終的な結論は、私たちは AI の啓蒙段階にあり、厳格な監視は希望の芽を絞め殺してしまうことになる、ということです。 写真 以下はfast.aiの意見記事「AIの安全性と啓蒙の時代「原文、文斎君は原文の意味を変えずに編集した 写真 編集者注: この記事のもう一つの目的は、OpenAIの規制理論「最先端のAI規制: 公共の安全に対する新たなリスクの管理」を反駁することです。 AI モデルに対する厳格なライセンス付与と規制では、意図した目的を達成できないだけでなく、悪影響が出る可能性もあります。これは持続不可能な権力の集中につながり、啓蒙主義の社会進歩を台無しにする可能性があります。 社会を守ることと社会自身の防衛能力を強化することの間で微妙なバランスを見つける必要がある。私たちは心を開き、謙虚さを保ち、幅広い意見を求めるべきです。社会を変える可能性のあるテクノロジーに対する理解が深まるにつれ、対応戦略も常に調整される必要があります。 人工知能(AI)は急速に発展しており、それがどこに向かうのかはまだわかりません。 OpenAIのCEOサム・アルトマン氏は、AIが「宇宙のあらゆる将来の価値の光円錐を捉える」ことができるかもしれないと考えている。しかし、他の専門家は、AIが「絶滅の危険」につながる可能性があると警告している。 AI を規制する方法も数多くあり、その中にはホワイト ペーパー「フロンティア AI 規制: 公共の安全に対する新たなリスクの管理」(FAR) や、おおよそ 2 つの部分から構成される EU AI 法の議会版などがあります。 1. AIモデルの開発と展開に関する標準を確立する。2. これらの基準への準拠を保証するメカニズムを作成します。しかし、他の専門家は、実存的リスク(Xリスク)に焦点が当てられすぎているため、「より差し迫った問題が排除され」、研究者に他のリスクに焦点を当てるよう陰湿な社会的圧力をかけていると反論している。 そこで疑問が湧いてきます。AI の現在のリスクは重要ですが、人類絶滅の脅威があるからといって、この種の規制を継続して実施すべきなのでしょうか?そうではないかもしれない。これからわかるように、AI が本当に壊滅的な脅威をもたらすほど強力であれば、この提案は実際にはほとんど役に立たないかもしれません。実際、過度に厳しい提案は、例えば社会の崩壊につながる深刻な権力の不均衡を生み出すなど、事態を悪化させる可能性があります。 懸念されるのは、AI モデルの使用方法だけでなく、AI モデルの開発段階全体を規制することだ。規制措置の影響は取り返しのつかないものとなる可能性があるため、立法化する前には細心の注意を払う必要があります。 フロンティア AI 規制 (FAR) と AI 法は、「ベースライン モデル」を規制しようとします。これらの基本モデルは、ほぼすべてのタイプの問題に対処できる汎用 AI ですが、成功の度合いは問題によって異なります。 コンピュータやペンなどの汎用デバイスでは、決して危害を加えるために使用されないことを保証する方法はありません。したがって、AI モデルが悪用されないようにする唯一の方法は、他の人がこれらのモデルを直接使用できないようにすることです。 あるいは、ChatGPT などの制限された厳密に制御されたサービス インターフェイスに制限することもできます。ChatGPT は、制限付きではあるものの制御可能なアクセスを提供する GPT-4 に接続されたインターフェイスです。 もし今、「安全」のために権力の集中を高める規制措置を採用すれば、啓蒙時代の成果を無駄にし、それとは全く逆の新たな時代、すなわち啓蒙時代をもたらす恐れがある。 代わりに、オープンソース モデルの開発をサポートするなど、啓蒙主義のオープン性と信頼の原則に従う必要があります。オープンソースは、幅広い参加と共有を通じて驚異的な技術的進歩を推進してきました。幅広い参加により、さまざまな専門知識を持つより多くの人が協力して潜在的な脅威を特定し、対応できるようになり、全体的なセキュリティ レベルが向上します。これは、サイバー セキュリティなどの分野で効果があることが実証されています。 大きな疑問AIの能力が急速に発展するにつれ、多くの人が「保護」を求め、また多くの人がそれを提供しています。 「最先端の AI の規制: 公共の安全に対する新たなリスクの管理」と題されたホワイトペーパーでは、政府の介入によって、このような「最先端の AI モデル」が公共の利益にかなうものとなることを保証できると主張しています。 しかし、これを本当に保証できるのでしょうか、そしてそれにはどのくらいのコストがかかるのでしょうか? 同時に、ホワイトペーパーは、重要な明白な問題にも対処していません。強力な AI モデルの完全版を入手できる人は、制限されたサービスを通じてのみモデルにアクセスできる人よりも大きな力を持つことになります。もちろん、AI が本当に強力になれば、この大きな力の差は維持できなくなります。 表面的には、推進されている規制体制はさまざまな安全要件を満たしているように見えますが、最終的には、既得権益を持つ企業(元のモデルにアクセスできるため)に大きな権力が集中し、情報の非対称性を利用して政府を規制または制限しようとするため、社会の崩壊につながります。 その理由は、AI モデルは実質的には汎用コンピューティング デバイスであるため、悪用されないことを保証する方法が存在しないからです。これは、悪用(たとえば、ランサムウェアの電子メールの送信)できないコンピューターを作成しようとするようなものです。同様に、汎用コンピューティング デバイスを誰かに提供しても、その人がそれを使用して危害を加えないことを保証することはできません。悪用されないコンピューターを作ることはできないようなものです。 あらゆる情報の消費と生成を扱う強力なモデルを誰かが管理し、そのモデルが秘密かつ独占的に保持されている場合、その人は人々の認識を形成し、行動に影響を与え、コンテンツを自由に検閲することができます。 規制政策により、最終的には「少数の企業」で働いていない人が最も強力な AI にアクセスできなくなり、それによってそれらの企業の優位性が強化されます。これは社会にとって極めて危険で不安定な道です。 競争さて、規制政策が実施された場合、私たちの社会に何が起こるか想像してみてください。 前提: 私たちは世界で最も強力なテクノロジーを持っており、それは急速に進歩していますが、その最も強力なバージョンにアクセスして制限なく使用できるのは、ほんの一握りの大企業だけです。 次に、権力と金銭を気にする人は皆、これらのモデルに完全にアクセスする方法を必死に見つける必要があります。なぜなら、歴史上最も強力なテクノロジーに完全にアクセスできない人は誰も競争できないからです。彼らにとって朗報なのは、これらのモデルは実際には単なる数字の集まりだということです。これらは簡単にコピーでき、一度コピーすれば友達全員に無料で渡すことができます。 (FAR にはこの問題に関する「拡散問題」というセクションがあります。) データ侵入に長けた専門家は数多く存在します。彼らは、脅迫、賄賂、ソーシャルエンジニアリングなど、非常に効果的な手段を使って AI 機能を入手する方法を知っています。これらの手段を使いたくないがリソースを持っている人は、約1億ドルを投資することでAI機能を獲得することもできます。フォーチュン・グローバル2000社の中で最も小規模な企業でも年間収益は70億ドルあり、このような支出は予算の範囲内です。もちろん、ほとんどの政府はこの費用を負担することができます。ただし、これらの組織は、提案された規制要件に違反することなくこれらのモデルを一般に直接公開することはできませんが、少なくとも組織内の一部の人々は完全なモデルのパワーにアクセスできるようになります。 権力と富を望みながら AI モデルにアクセスできない人々には、新たな目標があります。それは、大規模な AI モデルを持つ組織で上級職に就くこと、または政府部門で上級職に就いて関連する決定に影響を与えることを目指すことです。 したがって、当初は社会の利益のために AI を開発しようとしていた組織は、すぐに企業の利益追求の一部となるでしょう。なぜなら、すべての企業が成長するにつれてこの競争に加わり、それらの企業は利益追求の専門家によって率いられるようになるからです。 Together Computerの最新の成果 実際のところ、AI の使用を制御しようとする取り組み全体は無意味で効果がありません。モデルの「拡散」を制御することは不可能であるだけでなく(デジタル情報は簡単に漏洩したりコピーされたりする可能性があるため)、モデルのトレーニングに必要な計算量を制限する対策を実施することも不可能であることが判明しました。これは、世界中の人々が仮想環境に集まり、共同でモデルをトレーニングできるようになったためです。たとえば、Together Computer は完全に分散化されたオープンでスケーラブルな AI クラウド サービスを開発しており、最近の研究ではこのアプローチによって大きな進歩が達成できることが示されています。 GPU は、コンピューター ゲームのプレイだけでなく、モデルのトレーニングにも使用できます。現在、世界では AI に使われている計算能力よりも、ゲームに使われている計算能力の方が多い。世界中のゲーマーは、自分のコンピューターに小さなソフトウェアをインストールするだけで、これらのオープンソース モデルのトレーニングに協力することができます。 言い換えれば、開発者はすでに、一般の人々がこれらのモデルをトレーニングできるようにする方法について考えています。 AI 安全コミュニティはこの問題をよく認識しており、さまざまな解決策を提案しています。例えば、AI政策の専門家であるヨ・シャビット氏による、コンピュータチップに追加できる監視メカニズムを検証した最近の影響力のある論文では、次のように述べられています。 「高度な機械学習システムが地政学的および社会的秩序においてますます重要な役割を果たすようになるにつれて、2つの側面が特に重要になる可能性がある。1つ目は、政府がその管轄区域内で高度な機械学習システムの開発を規制する必要性、2つ目は、高度な機械学習の開発に関する将来の国際協定があれば、各国が相互に準拠していることを検証できる必要性である。」 この問題に対処するには、このようなチップを製造するすべての企業が自社のチップに監視機能を組み込むようにする必要があります。ある企業がこの制限を課さなければ、強力なモデルを構築したい人は皆、その企業のチップを使用することを選択するでしょう。シャヴィット氏は、ハードウェアレベルでこのような規則を完全に施行するには、国民一人ひとりのパソコンの使用を監視および制御する必要があり、これは道徳的に受け入れられないと指摘した。 しかし現実には、インターネット接続だけでパーソナルコンピュータを使用して大規模なモデルをトレーニングできるため、集中化と制御を効果的に行うにはそのようなルールが必要です。 AIセキュリティの先駆者であるエリゼル・ユドコウスキー氏が、無許可のデータセンターへの空爆や、無許可の国家によるコンプライアンスの強制を阻止するための核兵器の使用を提案したとき、多くの人が衝撃を受けた。実際、データセンターを爆撃し、世界中のコンピューターを監視することこそが、FAR で定められたセキュリティ準拠を達成する唯一の方法です。 ユーザーを管理し、開発しないもう一人の学者、アレックス・エングラー氏は、安全基準やライセンスモデルを強制するのではなく、「オープンソースのAIモデルではなく、危険で有害なアプリケーションを規制する」ことを提唱する代替アプローチを提案した。ほとんどの規制はまさにこのように機能しています。つまり、責任を追及することです。 たとえば、誰かが汎用ツールを作成し、誰かがそれを使用して悪事を働いた場合、そのツールを作成した人は責任を負いかねます。 インターネット、コンピューター、ペンと紙などの「デュアルユース」テクノロジーは、大企業に限定されるものではなく、誰でもコンピューターを組み立てたり、独自の紙を作ったりすることができます。彼らは、自分たちが構築したものが社会の利益のためだけに使われることを保証する必要はありません。 これは重要な区別です。使用提供(モデルが実際にシステム、特に医療のようなハイリスクのシステムに適用される部分)と開発(モデルをトレーニングするプロセス)を区別します。 この区別が重要である理由は、これらのモデルが実際には単なる数学的な関数であるからです。一連の数値を入力として受け取り、計算して別の一連の数値を返します。彼らは自分では何もできず、数字を数えることしかできません。 ただし、これらの計算は非常に役立ちます。 実際、コンピュータ自体は単なる計算マシンです(そのため、「コンピュータ」という名前が付けられています)。実際に何かを実行できるシステムに接続できるため、使用すると非常に便利です。 FAR も同様に、モデル開発とモデル使用の区別に焦点を当てており、AI 機能の向上は予測不可能であり、徹底的なテストを行わないと完全に理解するのが難しいと主張しています。したがって、規制で導入前にモデルを適切にテストすることが求められていない場合、導入されたモデルが重大なリスクをもたらすことを防ぐことはできない可能性があります。 しかし、この推論は成り立ちません。なぜなら、モデルは使用されなければ害を及ぼすことはできず、モデルの開発自体は有害な活動ではないからです。さらに、ここでは一般的なモデルについて話しているわけですから、モデル自体のセキュリティを保証することはできません。リスクの軽減は、使用中にモデルが安全であることを保証する場合にのみ可能です。 もう一つの有用な規制アプローチは、化学実験室などの機密インフラへの安全なアクセスを確保することを検討することです。 FAR はこのアイデアを簡単に検討し、「最先端の AI 開発では、ドメイン固有の規制は価値があるかもしれないが、重大度が高く規模の大きいリスクの一部を見逃す可能性がある」と述べた。しかし、FAR はこのアイデアをそれ以上追求しなかった。 高度な AI を開発すれば、強化が必要な機密インフラストラクチャの特定に役立つことが期待できます。これらの機能の使用が有害となる可能性がある場合、それらを識別できない AI は使用できないため、識別される可能性があります。 もちろん、特定された脅威に対処するのは簡単ではないかもしれません。たとえば、デスクトップ DNA プリンターを使用して危険な病原体を作成できる場合、すべての機器を強化するには膨大な作業が必要になります。しかし、世界中のコンピューター機器を制限するよりも、コストも侵害もはるかに少なくて済むだろう。 これにより、もう 1 つの有用な規制手段である展開開示が生まれます。 AI を使用する自動化システムを何らかの機密インフラストラクチャに接続することを検討している場合は、その事実の開示が必須になります。さらに、セキュリティ上の理由から、特定の種類の接続とインフラストラクチャを慎重に確認および監査する必要があります。これにより、AI テクノロジーを適用する際に潜在的なセキュリティ リスクが効果的に評価および管理されるようになります。 中央集権化に向けてより優れた AI は AI を改善するために使用できます。これは、機能とリソースが少ないアルゴリズムの初期の頃に何度も発生しました。 Google は AI を活用して、データセンターのエネルギー使用方法を改善し、より優れたニューラル ネットワーク アーキテクチャを作成し、それらのネットワークのパラメータを最適化するより優れた方法を開発しました。モデル出力は、新しいモデルをトレーニングするためのプロンプトの作成、これらのプロンプトに対するモデル回答の作成、および回答の推論プロセスの説明に使用されています。モデルがより強力になるにつれて、研究者はデータ、モデル、トレーニング プロセスを改善するより多くの方法を見つけるでしょう。 したがって、この技術の限界に近づいていると考える理由はまったくありません。 完全なモデルにアクセスできる人は、アクセスできない人よりも速く、より優れた新しいモデルを構築できます。その理由の 1 つは、微調整、アクティベーションなどの強力な機能を最大限に活用し、重みを直接学習して変更できることです。たとえば、最近の論文では、微調整により、モデルは基本モデルよりも桁違いに少ないパラメータで難しい問題を解決できることがわかりました。 このフィードバック ループは集中化につながります。つまり、大企業がさらに大きくなり、他の競合他社は競争できなくなります。その結果、集中化、競争の減少、価格の上昇、イノベーションの低下、セキュリティの低下が起こりました。 中央集権化を推進する他の強力な勢力も存在します。 Google を例に挙げてみましょう。 Google は地球上で最も多くのデータを保有しています。データが増えると、ベース モデルも直接的に改善されます。さらに、人々が AI サービスを使用するにつれて、それらのやり取りに関するデータがますます増えていきます。彼らは AI を活用して製品を改善し、ユーザーにとってより「魅力的」な製品にして、より多くのユーザーに製品を使用してもらうことで、より多くのデータを取得し、モデルとモデルベースの製品をさらに改善しています。さらに、独自のAIチップ(TPU)を製造し、独自のデータセンターを運営し、独自のソフトウェアを開発するなど、垂直統合が進んでいます。 最先端モデル開発の規制は中央集権化を悪化させます。特に、Future AI Regulation (FAR) が提案したライセンス制度は、中央集権化を推進する強力な要因となっています。この制度では、現在の最先端技術と同等かそれ以上のモデルを製作したい新規参入者は、開発権を付与される前にライセンスを申請する必要がある。これにより、すでに地位を確立しているプレーヤーとの競争がさらに困難になります。同時に、このシステムは、地球上で最も強力な技術を誰が開発するかを決定する最終決定権を非民主的なライセンス委員会に与えるため、規制の掌握への強力な道を提供します。 オープンソースとAI啓蒙の新時代私たちは、安全、管理、中央集権を求めるのではなく、何百年も前にしたリスクをもう一度負い、人々と社会の力と善意を信頼すべきです。 啓蒙思想家たちが「もしすべての人が教育を受けたらどうなるだろうか?もしすべての人が投票権を持ったらどうなるだろうか?」といった挑発的な問いを投げかけたのと同じように、私たちも「もしすべての人が AI の能力をフルに活用できたらどうなるだろうか?」と問うべきです。つまり、私たちは勇気を持って、すべての人が AI の能力をフルに活用できる未来を思い描き、そこに到達する方法を考えるべきだということです。 啓蒙主義の結果から、この前提が間違っていることがわかります。しかし、その考えは依然として残っています。数十年にわたり、社会学者は「エリートパニック」を研究し、記録してきた。これは、災害に直面すると一般の人々は悪い行動をとるだろうから、コントロールしなければならないと信じるエリートの傾向である。しかし、これも間違いです。実際、レベッカ・ソルニットはこう言っています。「私はこうした危機の瞬間を、人々の力と前向きな社会変革の瞬間と見ています。」 AI の悪用という脅威に直面しているとき、私たちは進歩と人間の理性に対する信念をどのように受け入れればよいのでしょうか?多くの専門家が現在取り組んでいるアイデアの一つは、オープンソース モデルが鍵となるかもしれないというものです。 モデルは単なるソフトウェアであり、コードで表現された数学的な関数です。ソフトウェアをコピーする場合、通常は「拡散」とは呼びません。なぜなら、その言葉は通常、核兵器に関連付けられるからです。ソフトウェアをコピーすることを、「インストール」、「展開」、または「共有」と呼びます。ソフトウェアは自由にコピーできるため、共有が道徳的に良いこととみなされる大規模なオープンソース運動が生まれました。誰もが恩恵を受けることができるのに、なぜ価値を少数の人々に限定するのでしょうか? この見解は大きな影響力を持っています。現在、使用しているほぼすべての Web サイトは、オープン ソースのオペレーティング システム (通常は Linux) にインストールされたオープン ソースの Web サーバー (Apache など) を実行しています。ほとんどのプログラムはオープンソースのコンパイラでコンパイルされ、オープンソースのエディターで作成されます。最初は、これらは突飛なアイデアだと思われ、懐疑的な人も多かったのですが、結局は正しいことが判明しました。簡単に言えば、オープンソースがなければ、今日世界中で使用されているコンピューターやインターネットの大部分は存在しなかったでしょう。 最も強力な AI モデルがオープンソースだったらどうなるでしょうか?それでも、それらを利用して他人を傷つけたり、不当に金持ちになろうとする悪い人たちは存在するでしょう。しかし、ほとんどの人は悪い人ではありません。ほとんどの人は、これらのモデルを使用して作成および保護します。 AI の力をフルに活用しながら、人間社会全体の多様性と専門知識を活用して脅威を特定し、対応することよりも安全なことは何でしょうか?世界をリードするサイバーセキュリティ、生物兵器、ソーシャルエンジニアリングの学者たちが全員、AI の力を使って AI の安全性に取り組んでいて、あなた自身がその成果すべてにアクセスして使用できるとしたら、営利企業のほんの数人だけが AI モデルに完全にアクセスできる場合よりも、より安全だと感じますか? 共有の文化を持つオープンな研究コミュニティにおいて、完全なモデルアクセスの機能を向上させ、商業的管理の度合いを減らすために、オープンソース コミュニティが最近介入し、非常に有能な言語モデルをトレーニングしました。 2023 年 7 月現在、これらのモデルの中で最高のものは、より安価な商用モデルの 2 層目と同等のレベルですが、GPT-4 や Claude ほど優れてはいません。 AI の能力は急速に成長しており、権力の集中を避け、高品質の AI モデルへのアクセスを確保したい寄付者、政府、大学、企業からの投資が増加しています。 しかし、FAR のセキュリティ保証提案は、オープン ソース フロンティア モデルと互換性がありません。 FAR は、「安全な展開が明らかになるまで、潜在的に危険な最先端の AI モデルをオープンソース化することは避けるのが賢明である」と推奨しています。しかし、たとえオープンソース モデルが、規制承認済みのクローズドな商用モデルとまったく同じ方法でまったく同じデータからトレーニングされたとしても、同じセキュリティ保証は提供されません。これは、汎用コンピューティング デバイスであるため、新しいデータセットで微調整したり、新しいタスクに適用したりするなど、誰でも好きな目的で使用できるためです。 オープンソースは万能のソリューションではありません。これには依然として注意、協力、徹底的な調査が必要です。システムをすべての人が利用できるようにすることで、社会全体がその機能から恩恵を受けられるようになるだけでなく、システムがもたらす危害の可能性を理解し、それに抵抗する取り組みもできるようになります。スタンフォード大学とプリンストン大学のトップAIおよび政策チームが協力し、米国政府のAIの説明責任の要請に応えて次のように述べた。 「公共の利益を促進するために、基礎モデルの開発と展開では、透明性を確保し、イノベーションをサポートし、権限を分散し、損害を最小限に抑える必要があります...オープンソースの本質的な長所(透明性のサポート、イノベーションのサポート、独占への反対)により、基礎モデルをオープンソース化することでこれら 4 つの目標すべてを達成できると考えています。」 さらに、研究者や技術者がクローズドソースのモデルを検査できない場合、セキュリティの脆弱性は被害が発生するまで検出されない可能性があります...一方、オープンソースのモデルはさまざまな分野の専門家によって検査および分析できるため、セキュリティの脆弱性を検出して対処しやすくなります。さらに、ベース モデルを作成できるユーザーを制限すると、有効なベース モデルの多様性が低下し、複雑なシステムで単一障害点が発生する可能性があります。 今日、オープンソース モデルにアクセスすると、重大なリスクが伴います。欧州 AI 法は、FAR と同様の原則に基づいて、基礎となるモデルのオープンソース化を事実上禁止する可能性があります。技術革新政策アナリストのアレックス・エングラー氏は、「EUのオープンソースAI規制の試みは逆効果」という記事の中で次のように書いている。 規制委員会がオープンソースを規制しようとすると、GPAI の使用を改善するのではなく、オープンソース AI 貢献者を威圧するような複雑な要件セットが作成される可能性があります。オープンソースの AI モデルは、大手テクノロジー企業による汎用 AI の支配に挑戦し、一般の人々が AI の能力を理解するのに役立つため、社会に多大な価値をもたらします。 害を与えない原則AI政策の専門家であるパトリック・グレイディ氏とダニエル・カストロ氏は、規制措置を急がないことを提案している。
しかし、規制当局はヒポクラテスの医学的アドバイス「まず害を与えないこと」を考慮した方が良いかもしれない。医療介入には副作用があり、治療が病気そのものよりも悪くなることもあります。一部の薬剤は免疫反応を弱め、感染症と闘う力が弱くなることもあります。 規制介入についても同様です。 「安全を確保する」ための中央集権的な規制の強制は、社会に直接害を及ぼすだけでなく、安全性を低下させる可能性もあります。一つの大きな組織だけが莫大な技術的力を持っている場合、社会の他の勢力は自らを守るために同等の力を得ることができないため、私たちは脆弱な立場に置かれます。しかし、権力闘争はAIの誤用につながり、社会の破壊につながる可能性があります。 AI規制の影響は微妙であり、予測が困難です。社会保障とエンパワーメントのバランスを取ることは難しく、過度に急速な規制は成功しないだろう。 まだ時間はあります。人間社会の総合的な能力は非常に強力であり、それを上回る AI の実現にはまだまだ長い道のりがあります。 OpenAIの技術者テッド・サンダース氏とGSK AIディレクターのアリ・アリン・フォイアー氏による詳細な調査では、「2043年までに革新的な汎用人工知能(AGI)が実現する可能性は1%未満であると推定される」と結論づけている。 時間が経てば経つほど、私たちはより多くのことを学びます。テクノロジーだけでなく、社会がテクノロジーにどう反応するかについてもです。社会を逃れられないディストピアの道へと導く可能性のある規制変更を急いで行うべきではない。 AI 言語モデルの安全性に関する懸念は以前から存在しています。 2019年に、私はOpenAIが新しい言語モデルの重みを公表しないという決定について書きました。私は「人工知能の悪意ある利用」という論文を引用しました。その論文の主要著者は現在 OpenAI で働いています。この論文には 4 つの推奨事項があります。
論文「人工知能の悪意ある使用」は14の機関から26人の著者が共同執筆しており、その筆頭著者は現在OpenAIで働いている。この文書の 4 つの推奨事項は、中央集権化と管理ではなく、相互作用と協力を重視しています。興味深いことに、FAR の共同作成者として、OpenAI に移った論文著者は、当初の意図から離れつつありました。 FAR は、AI の強力で潜在的に欺瞞的な性質により AI が支配権を握るリスクが高まる可能性があるとして、AI の持つ強力で潜在的に欺瞞的な性質に注意するよう警告しています。私たちは安心感から何らかの行動を取るかもしれませんが、起こりうるパニックに対処するには冷静かつ合理的である必要があります。 古代ギリシャ人は、自信過剰によって避けたい未来を作らないように警告しました。 AI による終末を避けるためにテクノロジーを過剰に制御すると、将来はコンピューティング能力が少数のエリートの手中にある封建社会のような状態になる可能性があります。私たちは、自信過剰のせいで、私たちが避けようとしていたことをまさに実行してしまった古代ギリシャの物語の登場人物のようになることを避ける必要があります。例えば、オイディプス王は父親を殺し母親と結婚すると予言されていましたが、この運命を回避できたため、結局まったく同じことをしました。あるいは、ホリオスの息子であるパイドンのように、太陽の戦車を操る自分の能力に自信を持ちすぎて、父親が定めた道を避け、地球をほぼ破壊しかけた者もいる。 ” 「人工知能の悪意ある使用」では、謙虚さ、協力、反復学習、専門家やテクノロジーの影響を受ける人々との協議に基づいたアプローチを提唱しています。このアプローチは、コンピュータ セキュリティにおける重要な概念、つまり、隠蔽によるセキュリティは機能しないということを教えてくれます。サイバーセキュリティの専門家であるアルビンド・ナラヤン氏とサンヤシュ・カプール氏の記事では、少数の企業による AI 技術の独占を許可することによる 5 つの主なリスクとして、セキュリティリスクの悪化、結果の均質化、許容される発言の境界の定義、態度や意見への影響、規制の捕捉が挙げられています。 ここに至るまで私や GPT-4 と Bard を使用した他の人たちは、それらの機能に驚嘆し、いくつかのバグにもかかわらず、さまざまなトピックで役立つ能力に驚嘆しました。私はプログラミングのサポートや娘への遊びのアイデアの提供など、さまざまな目的で毎日それらを使用しています。 FAR で説明されているように、大規模言語モデル (LLM) などの基本モデルは、自然言語やその他のテキスト (コンピュータ コードなど) の大規模なデータセットでトレーニングされ、通常は次の「トークン」を予測するという単純な目標から始まります。この比較的単純なアプローチにより、驚くほど幅広いコンピテンシー モデルが生成されます。その結果、これらのモデルは他の多くのクラスの AI モデルよりも一般的な機能を備えています。 FARはさらに、潜在的に危険な可能性のある新興AIモデルに焦点が当てられていると述べています。この定義では、特定の状況では危険な可能性を秘めている可能性がある狭いモデル(つまり、特定のタスクまたはドメインでのみ優れたパフォーマンスを発揮するモデル)は除外されます。 たとえば、一部のモデルは、予想される、または予見可能な危害を引き起こす可能性のある化学物質の毒性や病原体の毒性を最適化するように設計されています。このタイプのモデルでは、対象を絞った規制措置がより適切です。 そのため著者らは、「新興AIの責任ある開発と展開のための安全基準を策定する」ことと、「規制当局に違反を特定して処罰する権限を与える、または新興AIの展開と潜在的な開発のためのライセンス制度を導入する」ことを提案している。著者らは、これらのモデルが「公共の利益のために使われること」を「保証する」ためにこれを行うことを提案している。 これらの提案が受け入れられ、この規制が施行されると仮定すると、次に何が起こるでしょうか?まあ、2つの可能性があります: 1. AI能力の成長は限界に達しているため、AIは非常に重要な技術になるかもしれませんが、社会を破壊する可能性のある緊急性に達することはありません。 2。AIは、これまでの人類史上最も強力な技術力になるまで、その能力を開発し続けています。 Openai CEOのSam Altmanのこのテクノロジーを持っている人は、「宇宙のすべての将来の価値の光によって保持される」ことができるという予測が正確であることが証明されています。 明確にするには、(2)に焦点を当てる必要があります。誰もこれが起こると確信していませんが、AIを長い間勉強してきた人はそれが可能だと考えています。 人類の最も強力な技術OpenaiのGPT-4、Google’s Bard、Anthropic's Claudeなどの「一般」または「基礎」モデルの出現のおかげで、「一般人工知能」(GPAI)の時代にいます。これらのモデルは、あなたが尋ねるほとんどすべての質問に答えることができる汎用コンピューティングデバイスです。 基礎となるモデルがより強力になるにつれて、研究者がAIを使用してデータ、モデル、トレーニングプロセスを改善する方法を見つけることを期待する必要があります。現在のモデル、データセットの作成手法、およびトレーニング方法は、基本的なアイデアを数行のコードに実装できるほど簡単です。既存のテクノロジーを大幅に改善するかなり明白な方法が非常に多くあるため、テクノロジーの限界に近いと信じる理由はありません。今後数か月および数年で、ますます急速な技術開発サイクルが見られることを期待する必要があります。 ただし、これらのモデルはトレーニングに費用がかかります。技術的な進歩により、同じサイズのモデルをトレーニングする方が安価になりましたが、モデルは大きくなっています。 GPT-4のトレーニングには約1億ドルの費用がかかります。 GPT-4、Bard、Claudeを含む現在の最も強力なモデルはすべて、米国の大企業(それぞれOpenai、Google、および人類)と中国によって訓練されています。 一緒に建物ホワイトハウス科学技術政策のAI権利章典blueprint、国立標準技術研究所のAIリスク管理フレームワーク、バイデンの大統領令14091など、すでに多くの規制イニシアチブが実施されています。 AIコミュニティは、データセットデータテーブル、モデルレポート、モデルカード、エコシステムマップなどの重要な情報を共有するための効果的なメカニズムも開発しています。規制では、データセットとモデルには、ユーザーがより効率的かつ安全に展開できるように、それらがどのように構築または訓練されたかに関する情報が含まれる場合があります。これは栄養ラベルに似ています。人々がジャンクフードを食べすぎることを禁止することはありませんが、良い選択をするために必要な情報を提供するよう努めています。 EUの提案されているAI法案には、すでにこの情報の要件が含まれています。 私たちはまだやるべきことがあります。将来のオプションを維持し、早すぎることを避け、もちろん、すべての人生の歩みから幅広い参加を必要とします。 政策立案者は、業界の意見を聞くだけでなく、AIをより深く理解する必要があります。スタンフォード大学のMarietje Schaakeが述べているので、AI規制へのCEOの関与を避ける必要があります。 「銀行が金融商品が複雑であることを示しているため、銀行が自己規制に失敗し、公正な規制を作成することができないことを示しているため、銀行が独自の決定を下すべきだと言っていると想像するのはばかげています。」 また、興味深いサイエンスフィクションのシナリオが、即時の真の危険から私たちをそらすことを許さないように注意する必要があります。 GPT 4を含むすべてのトップ言語モデルを強化するTransformers Neural Network Architectureの共同作成者であるAiden Gomezは、次のように警告しています。 「対処する必要があるこのテクノロジーには、このテクノロジーには真のリスクと用途がありますが、人類の緊密なAGIが引き継ぎ、絶滅を引き起こすという幻想的な話を議論するのに非常に多くの時間を費やすことはばかげており、私たちが焦点を当てるべき本当の問題と議論から一般の人々をそらすのに役立ちます。」 反enlightenment私たちが新しい力と不確実性に直面することを敢えてするのではなく、代わりに集中化と限られた権力に戻ることを選択した場合、それは「反enlightを宣伝する」でしょう。そうすることで、金持ちがより豊かになり、貧しい人々が貧しくなります。裕福な人は、プロパガンダに使用したり、開発を脅かしたり、産業を独占したりするために、より良いモデルを構築できるからです。貧しい人々は、限られた安全な方法でAIのみにアクセスできるため、社会に貢献しません。 この道を始めると、戻ることは困難になり、おそらく不可能になります。 Sci-Techのポリシーの専門家は、悪い規制措置などの悪いソリューションを展開するには、取り消すのに数十年かかることがあり、これが一部の人にとって良い場合は、取り消すのがより困難であると指摘しています。 集中化を実現することは、金持ちと貧しい人々の差別化につながり、金持ちはそれらをより強くするための技術を持っています。権力と富が巨大なとき、権力の富を望む人々はそれをコントロールし、歴史は暴力のみが違いを排除できることを示しています。ジョン・ケネディはかつて、平和的な革命家を止めることを暴力的な革命を避けられないと言っていました。 AIパワーと監視システムの開発により、暴力は効果がなくなる可能性があります。私たちが本当にこの道に行きたいなら、私たちはそれが私たちをどこに連れて行くかを明確に知るべきです。 「啓蒙時代」の脆弱性ほとんどの人類の歴史において、未来は恐ろしく不安です。私たちがそれに対処する方法は、安全を確保するためにより強い個人に信頼を集中することです。ほとんどの社会は、少数のエリートの手に教育や権力などの危険なツールを置きました。 しかし、西側には変化があり、新しいアイデアが登場しました。安全性を確保する別の方法は、パワーエリートではなく、社会全体の利益を信じることです。誰もが教育、投票、マスターテクノロジーを取得できる場合はどうなりますか?これは「啓発時代」の哲学ですが、このコミットメントを達成するには何世紀もかかる努力が必要です。 リベラルな民主主義に住んでいる私たちは、このシステムの脆弱性と希少性を忘れる傾向があります。しかし、世界中は権威主義的リーダーシップに向かっています。ヘルマン・ゴーリングが言ったように、リーダーは人々に影響を与え、彼らが攻撃に直面していることを伝えることができます。 明確にするために:私たちは攻撃を受けていません。平等と機会のために達成された結果は、現在放棄されるべきではありません。誰もセキュリティを保証することはできませんが、私たちはAIを使用し、すべての人にサービスを提供する社会を構築することができます。 オリジナルリンク: https://www.fast.ai/posts/2023-07-10-dislightenment.html |
>>: ChatGPT は最近、Microsoft によって内部的に無効化されました。 GPT の新しいバグ: たった 2 つのプロンプトでデータが盗まれる可能性があります
現在、知能ロボットは急速な発展期に入り、生活のあらゆる分野で非常に重要な役割を果たし、人類にとっての...
億万長者のイーロン・マスク氏は最近、一連のツイートで、ロボットが人間の仕事を奪うなら、政府による普遍...
IT サービス デスクからデータ分析の最前線、新しいツール、戦略、関係まで、AI は IT 組織をど...
多くの自然言語処理には機械学習が関係しているため、機械学習の基本的なツールとテクニックを理解しておく...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
OpenAI深夜アップデート! 5 つの大きなモデルが一気に投げられました。新しい GPT-4 Tu...
最近、ニュージーランド出身のブレンダン・バイクロフトという男がテクノロジー界で大流行を巻き起こしてい...
4月27日、北京国家会議センターで2017年グローバルモバイルインターネットカンファレンス(GMIC...
新聞社が雇ったハッカーが AI の巨人を攻撃するのはなぜでしょうか?ニューヨーク・タイムズがOpen...
教師あり機械学習モデルを一日中トレーニングすることはできますが、そのパフォーマンスを評価しなければ、...
[[174162]]最新の KDnuggets 調査では、データ サイエンティストが最もよく使用する...
7月5日、マサチューセッツ工科大学(MIT)とマイクロソフトの研究者らは、GPT-4モデルには優れ...
私たちが SF の世界に引き込まれると、人工知能と機械学習 (AI/ML) の概念は、映画「マトリッ...
[[185581]]導入TensorFlow は、DistBelief に基づいて Google が...