ChatGPT がハッカーによって「ハッキング」された場合、OpenAI はどのように対応するのでしょうか? API を遮断して使用できないようにしますか?いやいやいや。 これらのオタクが取ったアプローチは、型破りなもの、つまり「インファナル・アフェア」のバックハンドショットと言えるでしょう。 これがその話です。 OpenAIはChatGPTをリリースする前に多くのセキュリティテストを実施しましたが、APIを公開した後も、悪意のあるハッカーがそれを利用してトラブルを引き起こすのを防ぐことはできませんでした。 ある日、チームのエンジニアが ChatGPT エンドポイントのトラフィックが少し異常であることに突然気づき、調査した結果、誰かが API をリバースエンジニアリングしている可能性が高いことが判明しました (海賊版 API)。 しかし、OpenAIはこれらのハッカーをすぐに止めることは選択しなかった。なぜなら、チームがそうした場合、ハッカーはすぐに異常に気づき、戦略を変えて攻撃を続けるだろうからである。 このとき、チーム内の「賢い人」が巧妙なアイデアを思いつきました。
「罠」がうまく仕掛けられた後、ハッカーの兄弟がChatGPTに別の質問をしたときの写真のスタイルは次のようになりました。 そうです、何を尋ねても答えは「ニャー言葉、ニャー言葉」です。
最初、ハッカーの兄弟は自分が「罠」にかかったことに気づかず、不思議な体験を説明するメッセージを投稿したほどだった。 しかし、ハッカーグループの誰かがすぐに何かがおかしいことに気づいた。
グループのメンバーの一部は Discord コミュニティでも議論しました:
彼らは、OpenAI のメンバーがすでに Discord コミュニティに潜入し、ハッカー間の会話を監視していたことを知りませんでした... ハッカーたちは最終的に真実を発見し、遅ればせながらそれに気づいた後、ついに Discord で OpenAI チームと話し合った。
これに対し、OpenAIのメンバーは「分かりました。次回はそうします」と答えた。 上記の興味深い話は、実は OpenAI のエンジニアである Evan Morikawa 氏が技術共有イベントで明らかにしたものです。 この話を読んで、多くのネットユーザーがため息をついた。
話は盛り上がって面白いのですが、本題に戻りましょう。これは、現在の大型モデルの時代に存在する安全上のリスクを間接的に反映したものでもあります。 エヴァンはイベントでこう語った。
さらに、Evan 氏はイベントで OpenAI と ChatGPT に関連する 2 つの「秘話」も披露しました。 読み続けましょう。 OpenAI: 十分なGPUがあれば、もっと早くリリースできただろうEvan はまず、ChatGPT の初期の人気について次のように振り返りました。 それをリリースするという社内の決定から予想外の人気まで、マスク氏もツイートして議論した。 その後、大量のユーザーが流入しましたが、当時のユーザー自身も、GPU の能力がそのような大きな負荷を処理できないことに不安を感じていました。 その後、Evan は ChatGPT を動かすために使用している、8 つの Nvidia A100 GPU を搭載したコンピューターを披露しました。 各 GPU には特別な HPM 高帯域幅メモリも接続されていますが、重要なのは、すべての GPU が相互に通信する必要があることです。 Evan 氏は、各リンクのパフォーマンスが ChatGPT の最終的なエクスペリエンスに影響を与えると述べました。 次に、Evan 氏はこの時点で立ち、OpenAI が GPU 上で最初に遭遇したボトルネックをレビューして要約しました。 GPUメモリ不足ChatGPT のモデルは非常に大きいため、モデルの重みを保存するには大量の GPU メモリが必要です。ただし、GPU 上の高帯域幅メモリは非常に高価で制限があり、多数のユーザー要求を同時に処理するには不十分です。これが最初のボトルネックになります。 非効率的な計算テンソル演算のメモリ アクセス パターンが十分に考慮されていなかったため、GPU 使用率インジケーターの初期監視に問題がありました。その結果、GPU の計算能力が十分に活用されず、貴重な計算リソースが無駄になります。 拡大が難しいChatGPT のトラフィックは急増しましたが、GPU サプライ チェーン全体の制限により、短期間で GPU サーバーの台数を増やすことはできず、ユーザー アクセスを制限する必要がありました。自動的にスケールアウトできないことが大きな課題となります。 多様な負荷特性ユーザーの使用パターンが変化すると、GPU の計算方法とメモリ アクセス パターンをさまざまなモデルやリクエスト タイプに合わせて常に調整する必要があり、最適化が困難になります。 分散トレーニングは難しいGPU 間の通信とデータ交換は、トレーニング アーキテクチャにおける新たなボトルネックになります。 OpenAI が GPU を使用して大規模なモデル サービスを展開し始めたとき、経験不足のためにシステム レベルのいくつかの困難に直面したことがわかります。ただし、ChatGPT が安定して実行されるのは、戦略の継続的な調整と徹底的な最適化を通じてです。 そしてエヴァンはこうも明かした。
上記の課題に基づいて、Evan は OpenAI が学んだ教訓を共有しました。
ChatGPTをスタートアップとして考えるチームに関しては、エヴァンも紹介をしてくれました。 ChatGPT がリリースされたとき、アプリケーション エンジニアリング チームは 30 人程度しかいませんでしたが、リリースから 10 か月後には 100 人近くにまで拡大しました。 OpenAI は、従業員数の増加と高い人材密度の維持のバランスを模索してきました。当初は、効率的な反復文化を維持できるように、チームをできるだけ小規模にしたいと考えていました。 しかし、製品規模が大きくなるにつれて、多くの機能が少数の人員でサポートされるようになり、一定のリスクが生じてきたため、拡張を決定しました。 チームビルディングに関するエヴァンの共有の中で、注目に値する点が 1 つあります。 彼はこう考えています。
彼らは3年前にAPIを使ってChatGPTに似たことをしようとしたので、エヴァンの意見では—— ChatGPT は、3 年目のスタートアップに組み込まれた 10 か月前のスタートアップのようなものです。そして、この 3 年目のスタートアップは、8 年目のスタートアップ (OpenAI) に組み込まれています。 次に、会社が新製品を発売した場合、エヴァンはこのモデルを引き続き使用したいと考えています。 参考リンク: [2] https://twitter.com/random_walker/status/1719342958137233605?s=20. [3]https://twitter.com/nearcyan/status/1719225443788935372?s=20. |
<<: DeepMind が新世代 AlphaFold を発表、予測精度が 10% 近く向上しました。 DNAとRNAのAlphaFoldの瞬間が到来
>>: シングルポイントのエンドツーエンドのテキスト検出および認識フレームワークは 19 倍高速です。華中科技大学、華南理工大学などが共同でSPTS v2をリリース
2018年世界ロボット会議が北京で開催され、ロボット産業の最先端技術が披露されました。世界的なロボ...
テクノロジー・トラベラーは2月10日、北京から次のように報じた。「人工知能技術はコーディング開発の結...
ChatGPT や GPT-4 などの大規模言語モデル (LLM) の出現により、迅速なエンジニアリ...
生成型人工知能の出現により、人間と人工知能の距離は徐々に縮まっています。これまで関連技術にあまり注意...
[51CTO.com オリジナル記事] 「初夏、あなたはついに貴重な年次休暇を楽しむ機会を得ました。...
人工知能は長年にわたって世界を支配しており、さまざまな分野における主要な問題が AI を使用して解決...
[[431476]] 「ターミネーター」のように、観た後に私に大きな影響を与える映画はほとんどあり...
競争で優位に立つために、ますます多くの企業が自社のアプリケーション、製品、サービス、ビッグデータ分析...
Agora.ioは3月9日、モバイルゲーム向けリアルタイム音声サービス「AMG Voice(Agor...
ウォルマートの創業者サム・ウォルトンはよく「私たちの人材が違いを生み出す」と言っていましたが、この言...