OpenAI がハッカーのグループチャットに潜入!盗まれたChatGPTは「Meow Meow GPT」に置き換えられました、ネットユーザー:まさに伝説的

OpenAI がハッカーのグループチャットに潜入!盗まれたChatGPTは「Meow Meow GPT」に置き換えられました、ネットユーザー:まさに伝説的

ChatGPT がハッカーによって「ハッキング」された場合、OpenAI はどのように対応するのでしょうか?

API を遮断して使用できないようにしますか?いやいやいや。

これらのオタクが取ったアプローチは、型破りなもの、つまり「インファナル・アフェア」のバックハンドショットと言えるでしょう。

これがその話です。

OpenAIはChatGPTをリリースする前に多くのセキュリティテストを実施しましたが、APIを公開した後も、悪意のあるハッカーがそれを利用してトラブルを引き起こすのを防ぐことはできませんでした。

ある日、チームのエンジニアが ChatGPT エンドポイントのトラフィックが少し異常であることに突然気づき、調査した結果、誰かが API をリバースエンジニアリングしている可能性が高いことが判明しました (海賊版 API)。

しかし、OpenAIはこれらのハッカーをすぐに止めることは選択しなかった。なぜなら、チームがそうした場合、ハッカーはすぐに異常に気づき、戦略を変えて攻撃を続けるだろうからである。

このとき、チーム内の「賢い人」が巧妙なアイデアを思いつきました。

これを「catGPT」にすると、各トークンは「meow」になります…

「罠」がうまく仕掛けられた後、ハッカーの兄弟がChatGPTに別の質問をしたときの写真のスタイルは次のようになりました。

そうです、何を尋ねても答えは「ニャー言葉、ニャー言葉」です。

にゃー、分からないよ。私は鳥ではなく猫です!

最初、ハッカーの兄弟は自分が「罠」にかかったことに気づかず、不思議な体験を説明するメッセージを投稿したほどだった。

しかし、ハッカーグループの誰かがすぐに何かがおかしいことに気づいた。

両方のエージェントに同じことが起こりました。私たちはもう終わりだと思いました。

グループのメンバーの一部は Discord コミュニティでも議論しました:

おい、OpenAI は我々がモデル(海賊版 API を使用)を使用していることに気付いて、「猫言語プロンプト」で応答し始めたと思うか?

もしそれが本当なら、とても面白いですね!

彼らは、OpenAI のメンバーがすでに Discord コミュニティに潜入し、ハッカー間の会話を監視していたことを知りませんでした...

ハッカーたちは最終的に真実を発見し、遅ればせながらそれに気づいた後、ついに Discord で OpenAI チームと話し合った。

とてもがっかりしました。 OpenAI の誰かがこれを読んでいるのは知っています。

あなたには「リック・アストリー」を私たちに与える絶好の機会があったのに猫を選んだのです。

これに対し、OpenAIのメンバーは「分かりました。次回はそうします」と答えた。

上記の興味深い話は、実は OpenAI のエンジニアである Evan Morikawa 氏が技術共有イベントで明らかにしたものです。

この話を読んで、多くのネットユーザーがため息をついた。

まさに伝説的!

話は盛り上がって面白いのですが、本題に戻りましょう。これは、現在の大型モデルの時代に存在する安全上のリスクを間接的に反映したものでもあります。

エヴァンはイベントでこう語った。

モデルが強力になるにつれて、悪意のある人の手に渡った場合の被害も大きくなり、ここでの私たちの警戒は飛躍的に高まる必要があります。

さらに、Evan 氏はイベントで OpenAI と ChatGPT に関連する 2 つの「秘話」も披露しました。

読み続けましょう。

OpenAI: 十分なGPUがあれば、もっと早くリリースできただろう

Evan はまず、ChatGPT の初期の人気について次のように振り返りました。

それをリリースするという社内の決定から予想外の人気まで、マスク氏もツイートして議論した。

その後、大量のユーザーが流入しましたが、当時のユーザー自身も、GPU の能力がそのような大きな負荷を処理できないことに不安を感じていました。

その後、Evan は ChatGPT を動かすために使用している、8 つの Nvidia A100 GPU を搭載したコンピューターを披露しました。

各 GPU には特別な HPM 高帯域幅メモリも接続されていますが、重要なのは、すべての GPU が相互に通信する必要があることです。

Evan 氏は、各リンクのパフォーマンスが ChatGPT の最終的なエクスペリエンスに影響を与えると述べました。

次に、Evan 氏はこの時点で立ち、OpenAI が GPU 上で最初に遭遇したボトルネックをレビューして要約しました。

GPUメモリ不足

ChatGPT のモデルは非常に大きいため、モデルの重みを保存するには大量の GPU メモリが必要です。ただし、GPU 上の高帯域幅メモリは非常に高価で制限があり、多数のユーザー要求を同時に処理するには不十分です。これが最初のボトルネックになります。

非効率的な計算

テンソル演算のメモリ アクセス パターンが十分に考慮されていなかったため、GPU 使用率インジケーターの初期監視に問題がありました。その結果、GPU の計算能力が十分に活用されず、貴重な計算リソースが無駄になります。

拡大が難しい

ChatGPT のトラフィックは急増しましたが、GPU サプライ チェーン全体の制限により、短期間で GPU サーバーの台数を増やすことはできず、ユーザー アクセスを制限する必要がありました。自動的にスケールアウトできないことが大きな課題となります。

多様な負荷特性

ユーザーの使用パターンが変化すると、GPU の計算方法とメモリ アクセス パターンをさまざまなモデルやリクエスト タイプに合わせて常に調整する必要があり、最適化が困難になります。

分散トレーニングは難しい

GPU 間の通信とデータ交換は、トレーニング アーキテクチャにおける新たなボトルネックになります。

OpenAI が GPU を使用して大規模なモデル サービスを展開し始めたとき、経験不足のためにシステム レベルのいくつかの困難に直面したことがわかります。ただし、ChatGPT が安定して実行されるのは、戦略の継続的な調整と徹底的な最適化を通じてです。

そしてエヴァンはこうも明かした。

GPU 不足がなかったら、昨年の製品および機能のリリースのペースはもっと速かったでしょう。

準備は整っていましたが、負荷に耐えられないこともわかっていました。

上記の課題に基づいて、Evan は OpenAI が学んだ教訓を共有しました。

  • この問題を単なる研究プロジェクトとしてではなく、システム エンジニアリングの課題として捉えてください。キャッシュ、ネットワーク、バッチ サイズなど、さまざまなシステム コンポーネントの調整を最適化する必要があります。
  • GPU メモリ帯域幅、ops/バイトなどがパフォーマンスに与える影響など、ハードウェアの根本的な詳細とそれがシステムに与える影響について深く理解する必要があります。表面的な指標だけにとどまることはできません。
  • システムはモデルやシナリオの変更に応じて常に調整されており、モデル構造や使用シナリオが異なると、システムに対する要件も異なります。
  • メモリとコンピューティング能力のバランス、容量拡張の制限など、さまざまなハードウェアの制限を考慮する必要があり、これらは製品ロードマップに影響を及ぼします。従来のクラウド拡張の経験をそのまま適用することはできません。

ChatGPTをスタートアップとして考える

チームに関しては、エヴァンも紹介をしてくれました。

ChatGPT がリリースされたとき、アプリケーション エンジニアリング チームは 30 人程度しかいませんでしたが、リリースから 10 か月後には 100 人近くにまで拡大しました。

OpenAI は、従業員数の増加と高い人材密度の維持のバランスを模索してきました。当初は、効率的な反復文化を維持できるように、チームをできるだけ小規模にしたいと考えていました。

しかし、製品規模が大きくなるにつれて、多くの機能が少数の人員でサポートされるようになり、一定のリスクが生じてきたため、拡張を決定しました。

チームビルディングに関するエヴァンの共有の中で、注目に値する点が 1 つあります。

彼はこう考えています。

ChatGPT を OpenAI の一部門と考えないでください。

彼らは3年前にAPIを使ってChatGPTに似たことをしようとしたので、エヴァンの意見では——

ChatGPT は、3 年目のスタートアップに組み込まれた 10 か月前のスタートアップのようなものです。そして、この 3 年目のスタートアップは、8 年目のスタートアップ (OpenAI) に組み込まれています。

次に、会社が新製品を発売した場合、エヴァンはこのモデルを引き続き使用したいと考えています。

参考リンク:
[1] https://www.youtube.com/watch?v=PeKMEXUrlq4.

[2] https://twitter.com/random_walker/status/1719342958137233605?s=20.

[3]https://twitter.com/nearcyan/status/1719225443788935372?s=20.

<<:  DeepMind が新世代 AlphaFold を発表、予測精度が 10% 近く向上しました。 DNAとRNAのAlphaFoldの瞬間が到来

>>:  シングルポイントのエンドツーエンドのテキスト検出および認識フレームワークは 19 倍高速です。華中科技大学、華南理工大学などが共同でSPTS v2をリリース

ブログ    
ブログ    
ブログ    

推薦する

知識をグラフに変換するには、いくつのステップが必要ですか?インターネット上で最も包括的な清華ナレッジグラフレポートの89ページ

ナレッジグラフは、人工知能の重要な分野技術です。2012年にGoogleによって提案され、大規模な知...

古代都市ポンペイを「ハイテク」な方法で訪れるにはどうすればいいでしょうか?

ビッグデータダイジェスト制作著者: カレブ西暦79年、ベスビオ山が噴火し、その麓にあったポンペイの街...

Google が「同時通訳」システム Translatotron を発表: テキスト変換なしの音声翻訳

Google AI の公式ブログ *** では、音声をテキストを挟まずに直接音声に翻訳できる実験的な...

ロボットシェフはトマト入りスクランブルエッグ9品を試食した後、味覚マップを描いた。

5月7日のZhidongxiによると、英国ケンブリッジ大学の研究者らは最近、シェフの調理過程を模倣...

...

自動運転のための不確実性を考慮した動作計画:強化学習ベースのアプローチ

[[429196]] 2021年10月1日にarXivにアップロードされた論文「強化学習を使用した不...

問題が VPN の問題であることを証明するにはどうすればよいですか?コンピュータ科学者は簡単な方法を発見した

P/NP 問題は、計算複雑性の分野における未解決の問題です。人々は、「すべての計算問題を妥当な時間内...

CMU PhD により、インテリジェント エージェントが現実世界で競争できるようになります。 GPT-4が勝利したが成功率はわずか10%

私たちは長い間、人工知能の進歩によって推進される自律的なインテリジェントエージェントを作成するという...

2022 年に予測されるロボット技術のトレンド トップ 10

COVID-19パンデミックは、物流やスーパーマーケットなどの分野に問題と機会の両方をもたらしまし...

...

ViTと競合するDeepMindは、スパースモデルからソフト混合エキスパートモデルに移行

大規模モデルが驚くべきパフォーマンスを示したため、モデルのサイズはモデルのパフォーマンスに影響を与え...

プロセス制御に人工知能をうまく導入する方法

製造業は、生産、意思決定、運用効率などのアプリケーションに人工知能 (AI) が導入されることで、大...

...

AI を使って亡くなった愛する人を「復活」させることができるとしたら、そうしたいですか?

もし人工知能技術によって亡くなった愛する人を生き返らせ、あなたと交流できるようにできるとしたら、あな...

Amazon が企業による生成 AI の利用を支援する新機能と Bedrock を発表

Amazon Web Services Inc. は本日、自社のエコシステムにおいて、企業顧客が独自...