LIama2を運営して8400万元稼ごう!最速のAI推論チップのコスト見積もりが白熱した議論を巻き起こす

LIama2を運営して8400万元稼ごう!最速のAI推論チップのコスト見積もりが白熱した議論を巻き起こす

史上最速の大規模モデル推論を実現するには、1171万ドル(8410万元)の費用がかかりますか? ? ?

同じプロジェクトの場合、Nvidia GPU を使用するコストはわずか 30 万ドルです...

最も強力な AI チップが Groq に移るかどうかについては、待って見守る必要があるかもしれない。

過去 2 日間で、Groq は驚くべき登場を果たしました。 「Nvidia より 100 倍コスト効率が高い」と言われるチップを使用して、目立った遅延なく 1 秒あたり 500 トークンの速度で大規模なモデルを生成します。 Google TPU チームの優秀な人材である Buff と相まって、多くの人がこう言っていました。「Nvidia は打ち負かされるだろう...」

騒動の後、主にGroqの費用対効果に焦点を当てた合理的な議論がいくつか出始めました。

ネットユーザーは、現在のデモには568個のチップが必要で、コストは1171万ドルになると概算した。

その結果、業界内外のあらゆる分野の人々が自発的に計算を始めました。

テーブルを持って現れ、自分の経験を共有するアナリストもいました...

そしてため息をつきました。 「よし、今週はみんな公開数学をやるんだ。」

しかし、Groq 氏もできるだけ早くソーシャル ネットワーク上で反応しました。

「みんな数学をやっている」

Groq のコスト問題に関する議論には、コンピューターを学ぶ学生や推論サービスを提供するクラウドベンダー、さらには現従業員と対立する元 Groq 従業員など、さまざまな人が参加し、非常に活発な議論が展開されました。

代表的なものをいくつか取り上げて、みんながどう思うか見てみましょう。

まず、大まかな見積もりですが、カードの価格はおよそ 20,000 ドルで、メモリはわずか 0.23 GB です。

したがって、1 台の LLama 70B モデルをサービスするには、約 320 枚のカード (実際にはそれ以上) を購入する必要があり、サーバーを含めて約 1,000 万ドルの費用がかかります...

Nvidia の H100 と比較するとどうでしょうか?

レプトンの賈洋青氏も参加し、いくつかの計算を行った。基本価格に加え、エネルギー消費量、性能、運用コストの観点からも分析しました。

最後に、次の核心点をまとめます。

  • LLaMA 70b モデルの場合、572 枚のカードを使用すると、年間の電気代は 254,000 ドルになります。
  • 4 枚の H100 カードを使用すると Groq のパフォーマンスの半分しか得られず、8 枚のカードが入った H100 ボックスのコストは現在約 30 万ドルになります。
  • 3年間運営した場合、Groqのハードウェア調達コストは1,144万ドル、運用コストは76万2,000ドルとなる。それに比べて、H100 は調達コストと運用コストが低くなります。

なお、Groq が実施したベンチマークテストには Lepton も含まれており、推論速度は Lepton の約 3 倍です。


賈陽青氏はまた、自分とGroqの創設者は古くからの知り合いであることを明らかにした。

私たちは Google にいた頃から知り合いでした。

ただし、これらの議論には他のアルゴリズムも存在します。

例えば、一部のネットユーザーは、単一のトークンの価格に基づいて計算するとどうなるのかと質問しています。

それは問題ではありません。行動を起こすプロのアナリストは他にもたくさんいます。

しかし、彼の計算によれば、100万トークンの支出ごとに、Groq の方が費用対効果が高くなります。

これに加えて、Transformer の高速化がサポートされているかどうかなど、他の議論もあります。

Groq オンライン Q&A

皆があまりにも注目していたので、グロクは出てきて自ら質問に答えざるを得ませんでした。

もう一度 FAQ を投稿して説明したいと思います。

主なポイントは次のとおりです。

  • オープンソース モデルを採用し、コンパイラを適応させて実行するだけです。
  • 当社のトークンは、チップからシステムまですべてを仲介業者なしで自社で行っているため、非常に手頃な価格で効率的です。
  • チップはサードパーティのサプライヤー以外には販売されないため、公表されている売上高は歪んでいる。
  • 私たちのターゲット顧客はシングルカードユーザーではありません。

オンラインでの質問への回答はまだ続いています...


したがって、Groq が本当に Nvidia の地位を揺るがすことができるのかどうかは、待って見守る必要がある。

しかし、昨日のNvidiaの株価は異常な動きを見せました...

<<:  人工知能は世界を支配するのでしょうか?

>>:  Karpathy の新しいビデオが再び人気に: GPT Tokenizer をゼロから構築

ブログ    
ブログ    

推薦する

AI 偽指紋が登場しても指紋ロック解除は安全ですか?

スマートフォンに生体認証指紋認証ロック解除技術が搭載されて以来、パスワードを入力する面倒なロック解除...

...

AIが書いたコンテンツは判別が難しく、言語の専門家でさえ無力である

9月10日のニュース、2023年は人工知能の年です。チャットボットChatGPTから、グラミー賞に参...

コンピュータビジョンの10年: ディープラーニングは変化をもたらすが、特定の課題においては依然として古典的な要素が優勢である

ビッグデータダイジェスト制作編集:ダイジェスト近年、コンピュータービジョン(CV)の発展は止められず...

GPT-4Vを試した後、マイクロソフトは166ページに及ぶ評価レポートを作成した。業界関係者:上級ユーザー必読

1週間前、ChatGPTはメジャーアップデートを受けました。GPT-4とGPT-3.5の両モデルは、...

...

人工知能が「骨董品鑑定」の分野に参入、人間の職業に再び影響が及ぶか?

データの「食料」が増え続け、入手が容易になるにつれ、現在の人工知能は機械学習、言語処理、対話機能にお...

人工知能はどのようにして銀行をより「インテリジェント」にすることができるのでしょうか?

[[263447]]人工知能技術の継続的な導入は、新たな産業発展の中核的な原動力となり、さまざまな...

...

エレクトロニック・アーツは、人工知能によってゲームキャラクターがよりリアルになると述べている

どのビデオゲームでも、キャラクターが予想外の行動をとって没入感を壊してしまう瞬間が必ずあります。もし...

サイバーセキュリティにおける人工知能の役割と6つの製品オプション

現代の IT 環境では、サイバー脅威がますます顕著になっています。サイバーセキュリティとその製品にお...

Jia Jiayaのチームが世界初の70B長文大規模言語モデルをオープンソース化し、ProMaxを使って論文や小説を直接読めるようにした。

皆さん、大規模言語モデル(LLM)の長年の課題がついに解決されました!つい最近、香港中文大学とMIT...

ネイチャー誌の記事で、ウォータールー大学のチームが「量子コンピュータ+大規模言語モデル」の現状と将来についてコメントした。

今日の量子コンピューティング デバイスをシミュレートする際の主な課題は、量子ビット間で発生する複雑な...

次世代人工知能

[[390934]] AI と機械学習の最近の研究では、一般的な学習と、ますます大規模なトレーニング...

この記事では、ニューラルネットワークBPアルゴリズムの原理とPythonでの実装について説明します。

私は最近、BP アルゴリズムを体系的に研究し、この研究ノートを書きました。私の能力が限られているため...