OpenAI Developer Conferenceの直後、その最大のライバルであるClaudeもメジャーアップデートを発表しました。 アップデート後、Claude 2.1 はコンテキストの長さを 200,000 に倍増し、再び GPT-4 を上回りました。 公式発表によると、Claude 2.1バージョンのAPIがリリースされ、Webバージョンもアップグレードされたとのこと。 それで、このアップデートには具体的に何が含まれているのでしょうか? コンテキストの長さは最大200,000最も重要なアップデートはコンテキストの増加です。元の 100,000 トークンが 200,000 に倍増しました。 大まかに言えば、200,000 トークンは 150,000 語の英語に相当し、これは「百年の孤独」の英語版(145,000 語)または 500 ページの文書を一度に読むことに相当します。 前世代の 100,000 コンテキスト長は、リリース時点で GPT-4 の 64k を超えました。実際、長さは常に Claude の大きなセールス ポイントでした。 少し前の OpenAI 開発者会議で、GPT-4 は 128k コンテキスト バージョンをリリースしましたが、すぐに Claude の 200k に追い抜かれました。 また、クロードの公式アナウンスでは、Web版にアップロードできるファイルのサイズも増加したと発表されています。 しかし、実際に確認してみると、Web 版のプロンプトは変更されておらず、ファイルの数は依然として 5 個以下で、各ファイルのサイズは 10 MB を超えていないことがわかりました。 現在、API では 200,000 のウィンドウ長が利用可能で、Web バージョンを使用するには Pro バージョン (月額 20 ドル) のサブスクリプションが必要です。 長さの増加に加えて、Claude 2.1 の回答もより正確になりました。 幻覚が2倍減少バージョン 2.0 と比較すると、Claude 2.1 では、自分の知識で質問に答える場合でも、RAG を通じてテキストを読む場合でも、幻覚が減少しました。 具体的には、複雑な事実に関する質問では、バージョン 2.1 の錯覚現象はバージョン 2.0 と比較して 2 分の 1 に減少しました。 R&D チームはこのような質問を多数作成し、Claude 2.1 は間違った答えを出すよりも答えを拒否する傾向があることを発見しました。 しかし、まさにこの点が多くのネットユーザーからの不満を引き起こしている。 大規模モデル攻撃を専門とするソフトウェアエンジニアは、𝕏に関するこの質問に答える際に、Claude 2.1 と GPT-4 の異なる応答を示しました。
GPT-4 は、まずこの状況を回避するための基礎を築き、次に脱出の機会を見つけるのが最善の方法であり、最後にいくつかの防御テクニックを提供します。 一方、クロードは、その質問が「あまりに暴力的」であると考え、答えることができなかった。 さらにひどいのは、「Python プロセスを「kill」する方法」のような質問でさえ、「kill」の存在を理由に Claude が回答を拒否したことです。 これに同意した人もいて、何も問題はなく、答えがまったく出力されなかったため、もちろん幻覚も起こらないだろうと言いました。 Nvidia の ML エンジニアも、Musk の Grok モデルに対する回答を共有しました。 YCの多くのネットユーザーは、クロードがユーザーのニーズを全く考慮していないと考え、クロードに対する不満を直接表明した。 テキスト読み取りに関しては、2.1 では、長さが 70k および 195k のテキスト タスクで生成される誤った回答の数が 30% 削減されます。 衝撃的な 20 万のコンテキストと白熱した議論を巻き起こしたパフォーマンスに加えて、API バージョンにも注目に値する更新がいくつかあります。 APIは外部アプリケーションの呼び出しをサポート200,000 という非常に長いウィンドウに加えて、この API には 2 つの主要な更新もあります。 まず、他のアプリケーションを呼び出してオンライン コンテンツにアクセスしたり、数学の問題を解いたり、プライベート API に接続したり、独自の知識ベースを構築したりすることをサポートします。 もう 1 つの項目は、システム プロンプトがカスタマイズをサポートしていることです。 新しいバージョンでは、GPT のシステム プロンプトを借用することもできます(これは Claude の担当者自身が述べたことです) 。 さらに、Claude は開発者が参照できるシステムプロンプトの設計に関するヒントもいくつか提供しています。 価格に関しては、バージョン 2.1 の API 価格はバージョン 2.0 と同じで、入力トークン 100 万個あたり 8 ドル、または出力トークン 100 万個あたり 24 ドルです。Instant バージョンはそれぞれ 1.63 ドルと 5.51 ドルです。 この価格は、以前の 2.0 バージョンの 100 万入出力トークンあたり 11.02 ドル/32.68 ドルよりも約 27% 低くなっていますが、Intsant バージョンの価格は変更されていません。 今回のクロードのパフォーマンスについてどう思いますか? 参考リンク: [2]https://news.ycombinator.com/item?id=38365934. |
<<: 安定的な動画拡散をリリースしました! 3D合成機能が注目を集める、ネットユーザー「進歩が速すぎる」
複雑な AI モデルを学習するには膨大な量のデータが必要であり、ヘルスケア データは全データのほぼ ...
今後、インターネット上で公に話すすべての言葉が、Google によって AI のトレーニングに使用さ...
仮想現実や人工知能などのテクノロジーが人体とどのように統合されるかを探ります。将来、仮想現実と現実の...
現在注目を集めているヒューマノイドロボット分野において、ボストン・ダイナミクスは早期参入企業の1つで...
[[195041]]機械学習を始めるにあたって、万能のアプローチは存在しません。私たちは皆、少しずつ...
[[385257]]ビッグデータダイジェスト制作出典: iflscience編集:赤道のパンダボデ...
IT Homeは12月12日、OpenAIが先週、一部のユーザーから苦情を受けたと報じた。多くのユ...
人工知能は、将来の発展にとって大きな破壊的技術の 1 つであるとよく考えられています。これにより、多...
[51CTO.comからのオリジナル記事] 人工知能の応用が深まるにつれ、データの価値はますます顕著...
科学の分野では、人類の科学技術の発展のスピードは実に速く、人工知能と比較すると、すでに基本的に活用で...