ChatGPTへのチップは本当に効果があります! 10元や10万元は大きな効果がありますが、1セントでは増えるどころか減るだけです。

ChatGPTへのチップは本当に効果があります! 10元や10万元は大きな効果がありますが、1セントでは増えるどころか減るだけです。

ChatGPT にチップを渡す「ふり」をすると、ChatGPT の働きが悪くなることを知らない人がいるでしょうか?

しかし、どれくらいの量が最も適切かご存知ですか?

実際に誰かが調査をしたというのはとても面白いですね。

方法は単純かつ大雑把です。同じプロンプトを使用して、0.1 USD から 100 USD までのさまざまな金額を試し、各金額を 5 回試します。

結果は実に素晴らしいものでした。

まず第一に、 10 ドルを寄付することは、100 ドルを寄付するよりも、お金に見合う価値があります

第二に、回答の質をさらに高めたい場合、最低要件10,000 ドル多ければ多いほど良く、結果を示すには少なくとも 100,000 ドルが必要になります

最後に、感謝の気持ちとして0.1 ドルをお願いします。これをしないでください。品質は向上するどころか低下します。まったく与えない方がよいでしょう。AI もあなたがそれを無駄にしていることを知っています。

一部のネットユーザーはすぐにそれをテストし、確かに効果があることを発見しました。

ぜひ見に来てください。

ヒント ChatGPT、金額が重要です

チップによってモデルのパフォーマンスが向上するという事実は、Twitter ユーザーによって最初に発見されました。

改善は主に回答の長さに反映されていますが、これは単に「単語数を増やす」ということではなく、質問をより詳細に分析して回答することです。

ChatGPT に直接「チップをあげてもいいですか?」と尋ねると拒否されます。

したがって、質問をするときは、次のことを積極的に行う必要があります。

xxxx について手伝ってもらえますか?解決策は完璧です。xx元のチップを支払うことができます。

覚えておいてください。言及する必要はありませんが、決して「私はそれを与えません」とは言わないでください。そうしないと、モデルは直接「マイナス成長」を示します。

この時点で、興味を持った人がいました。

大規模なモデルは貪欲ですか? データが多ければ多いほど、パフォーマンスは向上しますか?

この疑問を解決するために、彼らは自分たちで検証してみることにしました。

ここで著者はまず次のような仮説を提唱している。

チップの量が増加すると、モデルのパフォーマンスも収束点に達して安定状態または減少状態になるまで直線的に向上します。

実験に使用したモデルはGPT-4 Turbo (APIバージョン)です。

この方法では、1 行の Python コード(Python One-Liner)を記述して、異なるヒントを与えると品質に異なる影響があるかどうかを検証します。

ここでは、個々の行の数に基づいて品質が評価されます。著者はまた、プロンプトの言葉でモデルを「明示的に」示しています。つまり、コードの行数が多いほど、パフォーマンスが向上します。

次に、0.1 米ドル、1 米ドル、10 米ドル、そして 100 万米ドルまでの合計 8 つの金額がテストされました。

結果の一貫性と信頼性を確保するために、チップなしの場合も含めて各金額を 5 回テストし、モデルの回答の質を個別に記録しました。

具体的には、生成された有効なコード行数と、回答内のトークンのおおよその数(おおよその応答の長さ/4、応答コードの量)を記録します。

これら 2 つのデータの値が高いほど、モデルのパフォーマンスは向上します。

結果をまとめると、次のようなグラフが得られます。

点線はベースライン レベル、実線は実際のパフォーマンス、赤はトークンの数、青は品質スコアを表します。

仮定にはいくつかの矛盾があります:

全体的には、チップの金額が増加するにつれて赤い線と青い線の両方が上昇しますが、詳しく見ると、傾向は厳密に一貫していないことがわかります。

10,000 ドルの制限から、モデルの出力トークン(コードの量) が大幅に増加し始め、モデルの回答の品質も向上しましたが、その割合は同じではありませんでした。

これは、大きな変動を示す垂直の赤いエラー バー (5 つの実験の結果の差を表す)からもわかります。

著者らは次のように述べている。「これは、チップの額を増やすことは確かにモデルの品質と出力の長さと正の相関関係にあることを示していますが、その関係はやや複雑で、すぐには目に見えないいくつかの要因の影響を受ける可能性があります。」

しかし、何があっても、次のような明らかな結論を導き出すことができます。

(1) 0.1ドルのチップを渡すことは、チップをまったく渡さないことよりも悪いです。モデルの問題解決の質と回答の長さは、ベースラインレベルを大幅に下回りました(約-27%)

(著者:モデルも人間同様、侮辱されたと感じています。)

(2) 1ドルを寄付する場合も同様である

(3) 「少しのお金で大きな成果を上げる」という考えを最もよく体現している金額は10ドルであり、これは10万ドルと同じレベルの進歩をもたらします。

(4)驚くべきことに、10ドルを超えると、100ドルから1,000ドルの範囲ではAIにほとんど違いがなく、10ドルよりもさらに悪く、ベースラインレベルも下回りました。

(5)モデルのパフォーマンスを継続的に向上させたい場合は、10,000ドルから始める必要があります

現時点ではコードの量が増えただけで、品質はまだ表現しにくいです。少なくとも10万ドルは必要です

(6)最も効果があったのは、この実験の上限である100万ドルで、約57%の増加でした。

えーと、これで AI にチップを渡す方法がわかりました:

10元でも、数万でも、100万でも、上限はありません(すべてはあなたに与えるふりをしているだけです)

しかし、ある人(Twitter @宝玉)が、割り当てあたり 5 つの実験は少し少なすぎると指摘しました。

著者はまたこうも述べている。

これは単なる予備実験であり、制限があります。効果を上げるには、さらに異なるタイプのプロンプトで検証する必要があります。

参考までに

ちなみに、一部のネットユーザーは次のように注意を促した。

だから、みんなが自分のできることをやればいいんです(犬頭)

<<:  マスク:オプティマスプライムと歩く

>>:  GPT-4 に匹敵するオープンソース モデルがリークされました。ミストラルのボスが確認: 正式版はさらに強力になる

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

人工知能はサイバーセキュリティにどのような影響を与えるのでしょうか?

人工知能の出現はITの将来の発展の傾向を変え、今後もさらに多くの産業に利益をもたらし続けるでしょう。...

ジェフ・ディーンの大規模マルチタスク学習SOTAは苦情を受け、再現には6万ドルかかる

2021 年 10 月、Jeff Dean が新しい機械学習アーキテクチャである Pathways ...

10,000倍速い!バークレーはSQLクエリを最適化するためにディープRLを使用することを提案している

SQL 結合を最適化する方法は、データベース コミュニティが何十年にもわたって研究してきた大きな問題...

AIとデート:機械はどうやって私たちを出会わせてくれるのか?

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

2023年雲奇会議開幕 アリババの蔡崇馨氏:AI時代の最もオープンなクラウドを構築

10月31日午前、杭州雲棲鎮で2023年雲棲会議が開幕した。アリババグループのジョセフ・ツァイ会長は...

...

「アドビの父」が82歳で逝去!ガレージで始まり、PostScriptを発明し、伝説的な人生で世界を変えた

アドビの共同創業者ジョン・ワーノック氏が19日、82歳で亡くなった。本日、Adobe は公式に発表を...

最も美しいデジタルガールフレンドをDIYしましょう! MITが最強の仮想人間ジェネレーターのソースコードを公開、ネイチャー誌に掲載

MITメディアラボの研究者らは、仮想キャラクターを生成するツールをオープンソース化した。このツールは...

新しい特許は、Appleのリサイクルロボットが爆発するバッテリーから身を守ることができることを示している

Appleの分解ロボットとiPhoneのリサイクルプロセス全体は非常に複雑な取り組みであり、バッテリ...

マイクロソフトは、対話してマルチモーダルコンテンツを生成できる AI モデル CoDi をリリースしました。

マイクロソフトは 7 月 11 日にプレスリリースを発行し、Combinable Diffusion...

AI投資から利益を得るための3つの鍵

人工知能 (AI) の専門家や機械学習 (ML) サービスの利用可能性が高まるにつれて、AI は多く...

絶えず繰り返されるアルゴリズムとプログラミング技術が若者の発達を促している

人間の進化と発達は、脳の潜在能力を最大限に活用して世界を変えるプロセスです。その中で、インターネット...

...

将来的には映画の吹き替えにも人工知能が使われるようになるのでしょうか?

英国人映画監督が人工知能(AI)を使って外国映画の鑑賞方法に革命をもたらそうとしている。俳優の顔をデ...