Volcano Engine は、大規模モデルのトレンドに関する解答用紙を提出しました。 大型モデルサービスプラットフォーム「Volcano Ark」。 MiniMax、Zhipu AI、Fudan MOSS、Baichuan Intelligence、IDEA、Lanzhou Technology、Mobvoiなど、多くの国内スターモデルをプラットフォームに投入しています。 ビッグモデルプレイヤー向けにトレーニング、推論、評価、微調整などの機能やサービスを提供するだけでなく、将来的には操作、アプリケーションプラグインなどのツールも提供し、ビッグモデルエコシステムをさらにサポートします。 つまり、大型モデルのための超強力な基盤を構築する必要があるのです。 そして、Volcano Arkを通じて、Volcano Engineは大型モデルのトレンドをどのように捉えていますか?あなたは何をしたいですか?今ではより明確な答えがあります。 Volcano Arkとは何ですか?簡単に言えば、各種大型モデルプラットフォームは、業界ユーザー向けに大型モデルサービスを販売する自営ショップのようなものです。 しかし、ボルケーノアークがやりたいのは独自の店舗をオープンすることではなく、いくつかの大型モデルの旗艦店を集めたショッピングモールです。 このモールでは、業界のユーザーは業界の高品質な大規模モデルに素早くアクセスし、Volcano Engine の機能に基づいてモデルの推論を微調整し、大規模モデルの使用のハードルを下げることができます。 大規模モデル プレーヤーは、Volcano Engine に基づいて堅牢な大規模モデル インフラストラクチャを構築し、独自のモデル ビジネス機能を向上させ、より直接的かつ広範な業界のニーズに対応し、反復とアップグレードを加速できます。 Volcano Ark は両者をつなぐプラットフォームとして、豊富で完全な開発ツール、十分なコンピューティング能力、安全で信頼できるプラットフォーム、エンタープライズ サービスを提供し、両者の協力をよりスムーズにする役割を担っています。 主な機能には、大規模モデルの調達と使用の全プロセスにわたる 6 つの側面が含まれます。 最初はモデルスクエアですこれは、モデルプロバイダーとユーザーが予備的な理解を得るためのプラットフォームとして理解でき、大規模なモデルメーカーがモデルを作成、アップロード、展開し、下流のユーザーがモデルの効果を確認してすぐに体験することができます。 2つ目はモデル推論ですユーザーがモデルを選択すると、Volcano Engine は安全で信頼できる推論ソリューションを提供できます。これにより、モデル プロバイダーの知的財産のセキュリティが保護されるだけでなく、ユーザーのデータと情報のセキュリティも維持されます。ユーザーは、展開されたオンライン サービスを直接使用したり、微調整されたモデルをオンライン タスクとして展開したりできます。 3つ目はモデルの微調整ですほとんどの業界ユーザーにとって、一般的なビッグモデルは単なる基本的な機能にすぎません。より高品質のビッグモデル サービスを使用したい場合は、独自のデータに基づいて継続的なトレーニングや微調整を行う必要がある場合があります。 Volcano Ark は非常にシンプルな微調整プロセスを提供します。基本モデルを選択 → ラベル付きデータセットをアップロードするという 2 つの手順で、ワンクリックで微調整できます。要件が複雑なシナリオでは、高度なパラメーター、検証セット、テスト セット、その他の豊富な機能をさらに設定できます。 4番目はモデル評価です。現時点では、アプリケーションのシナリオやデータなどの要因がパフォーマンスに影響するため、生成的な大規模モデルが業界で認められたベンチマークを形成することは困難です。しかし、業界のユーザーにとっては、さまざまな大規模モデルの長所と短所を理解することは、サービスを購入する前に重要なステップです。 そのため、Volcano Ark は、ユーザーが独自のデータに基づいてモデルのパフォーマンスを体系的に認識できるようにサポートする評価ツールを同時にリリースし、詳細な評価レポートを提供して、その後の意思決定の根拠となるデータを提供しました。 ご存知のとおり、B サイドの使用シナリオも「人によって異なる」ため、企業は独自の評価データを使用して、独自の要件を満たす正確な評価を行う必要があります。また、基本モデルのアップグレードや新技術・新モデルの登場は今後も長く続くでしょう。企業は常にテスト、比較を行い、開発動向を把握する必要があります。 5つ目は作戦介入である運用介入ツールを提供することで、ユーザーは関連するルールを迅速に設定し、モデルの使用後に微調整することなく、モデルの出力結果に介入できるようになります。 6番目はアプリケーションプラグインです現在、大規模なモデルをプラグイン機能と統合し、モデルの機能をさらに強化することが一般的な傾向となっています。今後、Volcano Arkでは、リアルタイムの情報取得(通称「ネットワーキング」)※や、プライベート文書の質問と回答の呼び出し、迅速な完成・建設などが実現される予定です。 上記の主要機能を通じて、Volcano Engine が現在のクラウド コンピューティングのトレンド、つまり大規模なモデル アプリケーションの実装を可能な限り加速するというトレンドを理解していることは容易にわかります。 さらに、具体的な実装パスの点でも、Volcano Engine は異なるプレイ方法を提供し、独自の特徴を形成しています。 Volcano Engine のインテリジェント アルゴリズムの責任者である Wu Di 氏は、要約として次の 3 つのキーワードを挙げました。
では、Volcano Ark は何が違うのでしょうか?オープン性、加速性、信頼、この 3 つのキーワードは互いに対応しており、実際には Volcano Ark 独自の位置付け、コンピューティング能力、セキュリティを表しています。 まずは、自社の位置づけから見ていきましょう。Volcano Arkはオープンかつ中立的なプラットフォームであり、法人顧客は実績に基づいて自由にモデルを選択できます。 クラウドベンダーにとって、優れた MaaS サービスを提供したい場合、モデル レイヤーが十分に充実し強力であることを確認することが重要なポイントの 1 つです。より豊富なアプリケーションシナリオに実装できることを意味するからです。 これまで、この問題の解決策は、クラウド ベンダー独自の大規模モデルの機能を向上させることに限られていました。 Stability AI、Anthropic など複数の企業の大規模モデル機能を一度に接続する大規模モデル プラットフォーム Bedrock by Amazon Cloud のリリースにより、業界に新たなパラダイムが切り開かれました。 このようにして、プラットフォームは業界最高の大規模モデルを直接導入し、独自の機能とアプリケーション シナリオを充実させることができます。 同じことが Volcano Ark の進路にも当てはまります。より大きなモデルを追加することで、柔軟性も高まります。 Wu Di 氏は、このようにして、ユーザーはさまざまなタスク要件に応じて「さまざまなサプライヤーの製品を比較」し、業界のより先進的な大規模モデルにアクセスできるようになると紹介しました。 Volcano Ark は、統一されたワークフローを提供することで、モデル間の柔軟なプラグインとプルアウトを実現します。複数のモデルを切り替える際も、ワークフローは基本的に変わらないため、各モデルが得意とするタスクを完了することができ、大規模モデルの開発・構築を加速できます。 第二に、Volcano Engine は、大規模モデル プレーヤーが懸念する計算能力の問題に重点を置いています。主な焦点は、十分であること、手頃な価格であること、そして安定していることです。 Volcano Engine の膨大なリソース プールは、大規模モデルのトレーニングと推論の現在のニーズを満たすことができます。 トレーニングと推論を加速することで、コンピューティング能力をよりコスト効率よく活用できます。 NVIDIAのアジア太平洋開発技術部門ゼネラルマネージャーであるLi Xipeng氏は、ハードウェアの性能をフルに活用したいのであれば、ソフトウェアとハードウェアの設計を調整する必要があると語った。 ハードウェアに関しては、NVIDIA は生成 AI 用のさまざまなハードウェア構成を Volcano Engine の基盤プラットフォームに深く統合しました。 ソフトウェアレベルでもさまざまな最適化手法が提案されており、画像前処理演算子ライブラリCV-CUDAを例に挙げて、両者は共同で多くのオープンソースリリースを行っています。これらは GPU 上で効率的に実行でき、演算子の速度は OpenCV (CPU 上で実行) よりも約 100 倍高速です。 OpenCV と TorchVision をバックエンドとして CV-CUDA に置き換えると、推論全体のスループットを元の 20 倍以上に高めることができ、CV-CUDA と OpenCV の演算子入力結果が完全に一致します。 さらに、Volcano Engine は Lego オペレータの最適化も開始しました。 このフレームワークは、モデル サブグラフの構造に基づいて Volcano Engine が独自に開発した高性能演算子を使用することで、より高い加速率を実現できます。 推論シナリオでは、Lego 演算子の最適化を使用すると、安定拡散モデルに基づくエンドツーエンドの推論速度が 66.14 it/s に向上します。これは、PyTorch の推論速度の 3.47 倍であり、実行時の GPU メモリ使用量が 60% 削減されます。トレーニング シナリオでは、モデルは 128 台の A100 で 15 日間でトレーニングできます。これは、当時の最高のオープン ソース バージョンよりも 40% 高速です。 安定性の面では、Volcano Engine はより基本的なレベルで NVIDIA とも協力しています。 Li Xipeng 氏は、現在、大規模なモデルのトレーニングでは、数千または数万枚のカードを同時に開始する必要があることが多いと紹介しました。マシンの 1 つが故障すると、トレーニング プロセス全体に影響が出ます。したがって、トレーニング中の安定性は開発効率に直接影響するため、非常に重要です。 この点、Volcano Engine と NVIDIA は、多数の内部テストに基づいて、最終的に特定のモデルの規模とネットワーク構造を実現し、適切なチェックポイントの頻度を決定し、トレーニングの継続性を確保しながらマシンを安定して実行できるようにしました。 具体的な能力も実際の事例で検証されている大型モデルプレイヤーのMiniMaxは、Volcano Engineをベースにした超大規模大型モデルトレーニングプラットフォームを開発し、毎日3モードの大型モデルの数千カロリー以上の正規化および安定したトレーニングを効率的にサポートしています。並列トレーニングで 99.9% を超える可用性を達成しました。 MiniMax はトレーニングに加えて、独自の超大規模推論プラットフォームも開発しました。このプラットフォームは現在、約 10,000 枚の GPU コンピューティング パワー プールを備えており、毎日数億件の大規模モデル推論呼び出しを安定してサポートしています。 MiniMax と Volcano Engine は、大規模モデルのトレーニング用に高性能コンピューティング クラスターを構築し、大規模モデルのトレーニングの安定性の向上に取り組んでおり、超キロレベルのトレーニング タスクが数週間以上安定して実行できることを保証しています。 堅牢なビッグ モデル インフラストラクチャにより、MiniMax はビッグ モデルとユーザー インタラクションの反復的なクローズド ループを最初から独立して完全に実行できるようになり、ビッグ モデルの反復速度が数か月から数週間に短縮され、ユーザー インタラクションが飛躍的に増加します。 MiniMax のエンタープライズ レベルの大規模モデル ソリューションは現在、数百の企業顧客に接続されており、オフィス コラボレーション、スマート ハードウェア、教育、医療、顧客サービスなど 10 を超える業界シナリオを実現しています。 次に、能力出力の面では、Volcano Engineは統合されたトレーニングとプッシュ、そして統一されたワークフローを提案します。統合ワークフローの機能は、モデルの柔軟なプラグインとアンプラグアウトだけでなく、Volcano Engine の大規模モデル機能の理解の統合にも存在します。 たとえば、自動評価を行うにはどうすればよいでしょうか?パイプラインを定義するには?どの程度の微調整を行うべきでしょうか?これらの問題は、多くの開発作業を経て初めて出力できる経験です。これらの詳細な安全対策により、企業ユーザーが大規模モデルを実装する際の効率と成功率が大幅に向上します。 一方、ボルケーノアークは統合的なトレーニングとプロモーションの概念も重視しました。 呉迪氏は、業界観察に基づき、将来的には大型モデル分野の大手メーカーと中堅メーカーの両方が「1+nモデル」、つまりメインの大型モデルを自社開発または綿密に連携し、同時に複数の外部モデルを呼び出し、トレーニングと推論の両方の要件を満たすモデルを採用すると考えていると述べた。 また、Volcano Engineは、ディープラーニングと機械学習は統合され、コンパクトで純粋なものであると常に信じており、統合トレーニングとプッシュモデルが開発トレンドになると判断し、Volcano Arkに導入しました。 さらに、トレーニングとプロモーションの統合により、企業のコンピューティング能力も節約できます。 最後に、Volcano Arkが重視している部分でもある安全性の面について見てみましょう。ウー・ディ氏は、ビッグモデルの時代には信頼の問題が極めて重要だと語った。 大規模モデルのプロバイダーは、苦労してトレーニングしたモデルが重要な知的財産であるため、他者にコピーされることを望みません。下流の顧客は、機密データは自分だけが閲覧できるようにする必要があるため、推論および微調整プロセス中にデータが漏洩されることを望みません。 両者の間に信頼のギャップが生じます。特に、大規模なモデルサービスではパートナーが多数存在するため、信頼の壁を築くことが重要です。クラウド プラットフォームとして、Volcano Engine は相互信頼コンピューティング フレームワークを使用して、さまざまな顧客のセキュリティとプライバシー保護の要件に基づいたセキュリティ サンドボックス、信頼できるハードウェア、フェデレーテッド ラーニング ソリューションを提供し、誰もが相互信頼に基づいて推論し、微調整できるようにします。 上記の 3 つの側面は、クラウド市場における Volcano Engine の違いを明確に示しています。 このことからも、Volcano Engine の技術的蓄積、業界経験、トレンド理解のすべてが、大型モデル プラットフォームへの参入に確固たる保証を与えていることが分かります。 では、なぜ Volcano Engine の答えは Volcano Ark なのでしょうか? なぜ Volcano Ark なのか?直接的な理由は市場の需要によるものです。 大型モデルのトレンドはここ数か月間活発に進化しており、ほぼすべての業界に影響を及ぼし、それに伴う需要も急増しています。 しかし、業界のユーザーにとって、市場で最も先進的なモデルにアクセスするにはどうすればいいのでしょうか?自分に最適なモデルを選ぶにはどうすればいいですか?最終的な大規模モデルのサービス計画をどのように決定しますか?これらの問題は、企業自身の技術的理解と開発レベルに対する要件を提起します。 供給側としても、大手モデル企業も好況の中、自社の事業展開を迅速に進めたい意向だ。これは技術的な競争であるだけでなく、ビジネス上の競争でもあります。より多くのユーザーに早くリーチできる人が、より早く市場に足場を築くことになります。この場合、プラットフォームのリーチはメーカー自体のリーチよりも大きくなければなりません。 基盤となるハードウェアメーカーだけでなく、大規模なモデルベースも緊急に必要としている。NVIDIAのアジア太平洋地域開発技術部門ゼネラルマネージャーであるLi Xipeng氏は、NVIDIAが開発するすべての新製品はワークロードによって推進されており、すべての開発は実際の問題の解決を目的としている、と述べた。 たとえば、ディープラーニングの台頭により、Tensor Core を使用して行列乗算計算を高速化することで、元のフレームワークにおけるワークロードの主要モジュールの効率が向上します。 たとえば、NVIDIA が昨年リリースした Hopper アーキテクチャは、リリースされるずっと前に設計されました。当時はGPT-3が出たばかりで、大規模モデルのトレンドはまだ来ていなかった。NVIDIAは先を見据えた研究をたくさん行いました。このような将来を見据えた探究を行うための方法は、実際のアプリケーションのインフラストラクチャから問題を発見することです。 李希鵬氏は、現状を振り返り、AI の今後のトレンドが GPT へと発展するかどうかはまだ不確実だが、業界の実際の需要によって NVIDIA はより的を絞ったハードウェアとソフトウェアの機能アップグレードを実施できるだろうと述べた。 どうすればこうしたニーズをより早く、より正確に把握できるでしょうか?大規模なモデルプレイヤーを結びつけるには、依然としてプラットフォームに頼る必要があります。 そのため、大規模なモデルサプライヤー、ユーザー、基盤となるハードウェアメーカーを擁する Volcano Ark のようなプラットフォームが業界では緊急に必要とされています。 より深い理由は、火山エンジン自体にあります。ウー・ディ氏は、Volcano Ark の使命は大規模モデルと高計算能力アプリケーションの実装を加速することだと確信を持って語った。 なぜスピードを上げるのですか? 2 つの成長曲線が答えを提供する可能性があります。 時間を横軸、GPU 需要を縦軸とする座標系で最初に現れる成長曲線がモデル トレーニング曲線です。 現在、新しい大型モデルが雨後の筍のように登場し、トレーニングの需要が急増しています。しかし、一般大型モデルの市場が飽和状態になると、この成長曲線は徐々に鈍化していきます。 同時に、推論需要曲線(モデル適用曲線)という別の成長曲線が現れます。 さらに、短期的には指数関数的に成長し、2025年頃にトレーニング需要曲線と交差し、その後はそれを上回ることになります。 言い換えれば、市場における推論の需要は、最終的にはトレーニングの需要よりも大きくなるでしょう。推論の需要が高まれば高まるほど、アプリケーション シナリオも豊富になります。 アプリケーションシナリオが十分に豊富でない場合、推論需要曲線は急速に上昇せず、トレーニング需要曲線も影響を受けて低下します。 このような状況が発生すると、現在ビッグモデルの波に投資している多くの起業家や企業は非常に困難な状況に直面することになります。 ウー・ディ氏は、ボルケーノ・エンジンは大型モデルの流行は単なる波ではなく、新たな技術時代への入り口であると固く信じていると語った。この時代の到来を早めたいのであれば、推論のニーズがトレーニングのニーズを上回るタイムラインを可能な限り短縮する必要があります。 それは、大規模モデルの適用を加速することです。 Volcano Arkは、下流のアプリケーション層と上流のモデル層およびハードウェア層を同時に接続し、企業ユーザーによるビッグモデルの使用を加速し、ビッグモデル分野の起業家に収益をより早く還元することで、加速された正のサイクルを形成します。 このため、Volcano Engine は大型モデル プラットフォームを「Ark」と名付けました。 ウー・ディ氏は、名前を考えていたとき、開放性、寛容性、活力、希望といった雰囲気を表す言葉を見つけたいと思ったと語った。 最終的に、数十語の中から箱舟が決定されました。 2つの意味を表すことができるからです。 まず、多くの人のキャリアや夢を背負い、共に成功の目的地に向かう、具体的な言葉です。 第二に、Volcano Engine は、大規模モデルと大規模なコンピューティング能力の分野全体で、モデルのトレーニング、コンテンツのセキュリティ、ハードウェアの最適化などにおいて多くのパートナーの共同の取り組みが必要であると考えています。 今日、Ark は Volcano Engine の技術の蓄積、業界への理解、そして美しいビジョンを携えて正式に出航します。 今後、この大きなモデルの波がどのように押し寄せてくるかは未知数だ。 しかし、国産の大型機種を多数搭載し、NVIDIAとも連携するVolcano Arkは、間違いなくVolcano Engineで新たな境地へと航海するだろう。 |
<<: 恒生電子と恒生巨源が共同で新たなデジタル金融商品を発売、金融ビジネスにおける大規模モデル技術の応用に重点
>>: Moka、業界初となるAIネイティブHR SaaS製品「Moka Eva」をリリース、AGI時代を見据えた準備万端
データラベリングは重大な再編の時期を迎えています。ビッグモデル時代の到来により、データ中心の AI ...
翻訳者 | 陳俊企業は通常、オンライン機能ストアを選択する前に、どのアーキテクチャが最も効率的でコス...
画像ソース: Unsplash新世代情報技術の急速な発展に伴い、コンピューティング能力、データ処理能...
以下の記事では、私たちの日常生活に登場する人工知能の12の例を確認することができます。人工知能 (A...
ビルの管理者や運営者は、暖房や冷房、照明システム、エレベーターの故障など、ビルのシステムや設備の予期...
海外メディアの報道によると、アマゾンはこのほど、米カリフォルニア州の倉庫の管理者が新型コロナウイルス...
イーロン・マスク氏は、テスラが2020年末までに完全自動運転車を開発すると繰り返し強調している。 「...
人工知能の波が大きな変化を引き起こすには、4年という時間は十分あります。 2016年に北京の大学の講...
フォーブスによると、人工知能(AI)によって人間の仕事が失われ、広範囲にわたる人員削減が起こると広く...
ChatGPT は、開始から 9 か月ですでに 2 億ドル近くを費やしています。海外メディアAnal...
1. AIGCからAIGAへAIGC は AI によって生成されたコンテンツを指し、すでに広く理解さ...