GPT-3 は、1,750 億個のパラメータで構成される OpenAI 言語人工知能モデルです。サンフランシスコを拠点とするOpenAI研究室は5月にこのモデルの導入を開始し、注目を集めている。この巨大な言語モデルは、質問に答えること、記事を書くこと、詩を書くこと、さらにはコードを書くことまで、言葉で表現できるほぼすべてのタスクを処理できます。すべてをカバーします。それで、実際にはどれほどの威力があるのでしょうか? 最近、GPT-3を使い始めたばかりのバークレー大学の学生、リアム・ポーが、偽名と人工知能モデルを使って完全に偽のブログを作成した。しかし、これによって多数のコンテンツ読者が「騙される」ことに成功しました。
この皮肉で欺瞞的な「AI トリック」は、Hacker News などの技術オタクのサークルをすぐに騙し、その後真実が明らかになり、瞬く間に話題になりました。完全に AI によって構築されたいわゆる「ブログ」に、どうしてこれほど多くの人が騙されるのでしょうか?実際に上記のニュースを「購読」している人はかなりいるのでしょうか? これまでで最も強力な言語生成AIツールであるGPT-3がコンテンツ制作にどのような影響を与えるかについては多くの人が推測していましたが、この「フェイク」の範囲と影響は彼らの予想を超えていました。 GPT-3 がその強さをこれほどまでに実証したのは今回が初めてであり、このツールの応用可能性を示すのに十分です。 カリフォルニア大学バークレー校でコンピューターサイエンスを研究しているボル氏は、この体験で最も印象的だったのは「実はとても簡単だったが、それが一番怖かった」ことだと語った。 話題となり多くのファンを獲得した「AIチキンスープ記事」 GPT-3 はまだ完全には公開されていませんが、Boll 氏はインターフェースを簡単に取得しました。ボルは申請書を提出した。彼は、何を使用する予定かに関する簡単なアンケートのフォームに記入しました。しかし彼は長く待たなかった。バークレーの AI コミュニティのメンバー数名に連絡を取った後、彼はすぐに、すでにこのアクセス権を持っている博士課程の学生を見つけました。 博士課程の学生が協力することに同意した後、ボル氏はすぐに彼が実行するための短いスクリプトを書いた。 GPT-3 にブログ投稿のタイトルと紹介を与え、いくつかの完成バージョンを紹介しました。 Porr 氏の最初の投稿 (Hacker News への投稿) とそれ以降のすべての投稿は、ほとんど編集せずに単一の出力からコピーして貼り付けられました。 「アイデアを思いついて博士課程の学生と連絡を取ってから実際にブログを作成するまで、おそらく数時間しかかからなかったと思います」と彼は語った。 Boll が偽名「adolos」で書いた最初の偽ブログは、実際に YC ニュース プラットフォーム Hacker News の人気リストで 1 位にランクインしました。ボル氏は、自分の投稿を上位に押し上げるため、ハッカーニュースに投稿し投票するのに3つの別々のアカウントを使ったと述べた。管理者は、戦略は機能しなかったが、クリックスルーの見出しは機能したと述べました。 あまり編集せずにコンテンツを生成するコツは、GPT-3 の長所と短所を理解することです。ボル氏は「美しい言葉を作るのは非常に得意だが、論理と合理性はあまり得意ではない」と述べた。そのため、彼は効率的でセルフサービスの出力を実現できるように、厳密な論理を必要としない人気のブログカテゴリ「チキンスープ記事」を選択した。 そして、彼は簡単なやり方で見出しを書きます。Medium と Hacker News を徹底的に調べて、それらのカテゴリーで何が起こっているかを確認し、比較的似ているものをいくつかグループ化します。生産性が低いと感じますか? 「非生産的だと感じていますか?考えすぎるのはやめたほうがいいかもしれません」と彼は記事の一つに書いた。 「大胆さと創造性は知性に勝る」と彼は別のエッセイに書いた。こうした見出しが効果を発揮しなかったことも何度かありました。しかし、適切なトピックにこだわる限り、このプロセスは簡単に達成でき、「チキンスープ記事」はブログのフォロワーを増やすのに役立っています。 2週間後、彼はほぼ毎日投稿していました。その後すぐに、Hacker Newsの誰かが、ボル氏のブログ投稿はGPT-3によって書かれたものだと非難した。別のユーザーは、このコメントを「受け入れられない」と反応した。ある読者は、この記事を読んだ後、「素晴らしい記事だ!イーサン・ホークのテッドトークと同じくらい深い!」とコメントした。ボルの偽ブログに懐疑的だった少数派は、実際にはコミュニティの他のメンバーによって反対票を投じられており、「一般の人々の目が常に澄んでいるわけではない」ことを証明している。 ほとんどの人は、この記事が人間によって書かれたものではないと気付かなかった。MediumやYCのニュースプラットフォームを含む多くのプラットフォームが、彼の最初のブログを転載して公開した。彼のブログは実際に多くのフォロワーを獲得し、非常に人気を博した...。ボル兄弟は不安を感じ始めたが、同時に非常に驚いた。 ボル氏は、GPT-3が人間の作家として通用することを証明したかったと語った。実際、奇妙な書き方や時折の誤りがあったにもかかわらず、Hacker News での彼の最も重要な投稿について、それがアルゴリズムによって作成された可能性があると疑ったのはわずか 3 ~ 4 人でした。さらに、これらのコメントはすべて、他のコミュニティメンバーによってすぐに反対投票されました。 最後に、ボーアは自ら書いた謎めいたメッセージでプロジェクトを終了した。 「もし道徳心がなければ、GPT-3 をどう扱うだろうか」と題されたこの記事では、彼のプロセスを仮説として説明しています。同日、彼は自身の本物のブログでもより率直な告白を掲載し、「偽ブログ」の全容を明らかにし暴露した。 AI言語ツールは懸念と反省を呼ぶ OpenAIの計算能力統計ユニット「ペタフロップス/秒-日」によると、AlphaGoZeroのトレーニングには1800~2000pfs-日かかるのに対し、OpenAIのGPT-3は3640pfs-日かかった。Microsoftの無限の計算能力を持つOpenAIは、今ややりたい放題のようだ。 専門家にとって、これは常にこのような言語生成アルゴリズムに対する懸念の原因となってきました。 OpenAI が初めて GPT-2 をリリースして以来、それが簡単に悪用される可能性があるという憶測が流れていた。 GPT-3 は、OpenAI がこれまでにリリースした最新かつ最大の AI 言語モデルとなりました。同研究所は自身のブログ投稿で、AIツールが偽情報を大量生産する武器として利用される可能性に焦点を当てた。他の人たちは、ゲーム関連のキーワードを含むスパム投稿を Google に大量に送りつけるのに使えるのではないかと疑問を呈した。 昨年2月、OpenAIのGPT-2(アルゴリズムの以前のバージョン)は、悪用を防ぐためにそのバージョンを維持すると発表され、話題になった。この決定は直ちに反発を招き、研究者らは研究所を「スタント」と非難した。 11月、同研究所はついに態度を変え、「現在まで乱用の強い証拠は見つかっていない」と断言してモデルを公開した。ほら、今回の「自動車事故」はかなり深刻だったよ。 研究室は GPT-3 に対して異なるアプローチを取り、一般公開を拒否も許可もしませんでした。その代わりに、同社は、非公開テストを申請した研究者にアルゴリズムを公開し、彼らからのフィードバックを集めて年末までに技術を商品化することを目標としている。 ボル氏は、この実験によって、より平凡だが依然として不安を抱かせる選択肢、つまり人々がこのツールを使って大量のクリックベイトを生成できる可能性も実証されたと述べた。 「今は参入障壁が非常に低いため、平凡で質の低いブログコンテンツが多くなる可能性が高い」と同氏は言う。「オンラインコンテンツの価値は大幅に低下すると思う」 ボーア氏はGPT-3を使ってさらに実験を行う予定だ。しかし、彼はまだ OpenAI が介入するのを待っている。 「彼らはおそらく私のしたことに腹を立てていたでしょう」と彼は言った。「つまり、それはちょっとばかげたことでした。」 OpenAI の背後にある「AI メソッド」 OpenAI は設立からわずか 4 年で、世界有数の人工知能研究機関の 1 つになりました。 Alphabet 社の DeepMind など他の人工知能大手と同様に、Google は目を引く研究結果を継続的に発表することで有名になりました。同社はシリコンバレーの寵児でもあり、創業者にはイーロン・マスクや伝説の投資家サム・アルトマンなどが名を連ねている。 最も重要なのは、その使命が称賛されていることです。その目標は、人間の心と同等の学習能力と推論能力を備えた機械である人工知能を初めて開発することです。目標は世界制覇ではなく、むしろ技術が安全に開発され、その恩恵が世界中に均等に行き渡るようにすることだ。 これは、AGI 技術の開発が最も抵抗の少ない道をたどると、簡単に制御不能になる可能性があることを意味します。私たちの周囲にある不器用な人工知能がその一例です。問題は、AGI が常に曖昧であることです。この分野では、このような高度な機能を開発するには、たとえ開発が可能だとしても、数十年、あるいは数世紀かかるだろうという意見が一致しています。この目標を追求しすぎると逆効果になるのではないかと懸念する人も多い。 ほとんどの人が OpenAI について初めて聞いたのは、2019 年 2 月 14 日でした。その日、研究室は、ボタンを押すだけで説得力のある論文や記事を作成できるという、印象的な新しい研究を発表しました。 しかし、落とし穴がある。研究者らは、GPT-2と呼ばれるこのモデルは公開するには危険すぎると述べている。このような強力な技術が悪意ある者の手に渡れば、簡単に「兵器化」され、大規模な虚偽情報を作り出すことができる。これは直ちに科学者たちから強い反対を引き起こした。 誇大広告だという非難が続く中、OpenAI は GPT-2 は単なる仕掛けではないと主張している。むしろ、それは一連の内部討論と議論の末に合意された、よく考えられた実験でした。今回の措置は多少行き過ぎだったとしても、より危険な研究に対処するための前例となるだろうと全員が同意した。 しかし、OpenAI の GPT-2 を使ったメディア キャンペーンも、AI コミュニティ全体に懐疑的な印象を与えるという、確立されたパターンに従っています。長年にわたり、この研究所の派手な研究発表は、人工知能をめぐる誇大宣伝サイクルを煽ったとして繰り返し非難されてきた。批評家らはまた、この研究所が研究結果を誇張し、誤解を招くほどに宣伝していると何度も非難している。これらの理由から、この分野の多くの人は距離を保つことを好みます。 GPT-2 がこれほど強い反発を引き起こした理由は他にもあります。 OpenAI がまたしてもオープン性と透明性に対するこれまでの約束を裏切り、利益追求の道を歩み始めたと人々は感じています。未発表の研究は懸念と疑念を高めた。この技術は将来のライセンス供与に備えて秘密にされていたのではないか? しかし、OpenAI が研究を隠すことを選んだのは今回だけではないことはほとんど知られていなかった。 |
<<: Keras+LSTM+CRF を使用した固有表現抽出 NER の練習
>>: 機械学習モデルは株式市場を正確に予測できるのでしょうか?
ブロックチェーン市場のデータに基づいて機械学習モデルをトレーニングすることで、世界で最も影響力のある...
【51CTO.com クイック翻訳】ロボティックデータオートメーション (RDA) とは?ロボティッ...
冬季オリンピックが本格的に開幕。新たなトップスター「ビン・ドゥエンドゥエン」のほか、競技場内外を支え...
インド政府は3月8日、「インドにAIを根付かせる」と「AIをインドのために役立てる」という2大目標の...
変分量子分類器 (VQC) は、量子コンピューティング技術を使用して分類タスクを実行する機械学習アル...
2019年のノーベル賞受賞者のリストは、今年10月7日から発表されます。発表日が近づくにつれ、学界...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
2020 年のサイバーセキュリティは転換点を迎えています。人工知能と機械学習の進歩はサイバーセキュリ...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
先月外出した時、交差点の交通警察や補助警察の数が大幅に増えていることに気づきました。疑問に思わずには...
1. 自然言語理解と言語モデル1.1 自然言語処理自然言語処理 (NLP) は人工知能 (AI) の...