Stable Diffusion で 1 秒で写真を作成しましょう。清華大学マスターアクセラレーターはホットなトレンドで、いくつかの企業が参加している

Stable Diffusion で 1 秒で写真を作成しましょう。清華大学マスターアクセラレーターはホットなトレンドで、いくつかの企業が参加している

AI画像生成は秒単位のスピードに達しました。描画を完了するには4ステップの推論しかかからず、最速では1秒以内に完了します。

現在、清華大学とHuggingFaceの研究者らは、新しい描画モデル加速モジュールを立ち上げました。

作者が提供している試用版では、生成ボタンをクリックした後、わずか数秒でモデルが 4 つの鮮明な画像を描画しました。

このアクセラレーション モジュールは LCM-LoRA と呼ばれ、リリース後すぐに 2,000 を超える GitHub スターを獲得しました。

強力な加速機能と優れた一般化性能を備えているだけでなく、互換性のあるモデルの範囲も広く、SD モデルと LoRA モデルの両方を加速できます。

チームが独自に最適化した LCM-LoRA に基づくテキストベースのグラフ モデルは HuggingFace で体験できるようになり、画像ベースのグラフ モデルも CoLab やその他のバージョンでリリースされました。

AI描画ツールに素早くアクセス

LCM-LoRAがオープンソース化された直後、AI描画ツールメーカーのScenarioは、これをベースにした「リアルタイム描画」機能をリリースすると発表した。

𝕏で近日公開予定のリアルタイム描画機能DEMOも、シナリオのCEO自らが実演しました。

一方がスケッチを描いている間に、もう一方はAIが対応する絵を描いており、時間はほぼ同期していました。

プロンプト単語と関連パラメータを調整することで、モデルは迅速かつ効率的に応答します。

これらのデモが公開されると、世間から満場一致の賞賛が集まりました。

では、LCM-LoRA アクセラレーション モジュールはどれほど強力で、どのように実現されているのでしょうか?

メモリオーバーヘッドを削減する「スキップステップ」

LCM-LoRA は、潜在的一貫性モデル (LCM) の蒸留プロセスに LoRA を導入し、トレーニング メモリのオーバーヘッドを大幅に削減してパフォーマンスを向上させます。

LCM は潜在拡散モデル (LDM) から抽出され、「蒸留」プロセスは拡散モデルの微調整とも考えられます。

その中心的なアイデアは、画像の潜在変数空間における一貫したマッピング関数を学習することです。これにより、拡散プロセス内の任意の点を終点、つまり微分方程式の解に直接マッピングできます。

この一貫したマッピングにより、LCM は反復的なサンプリング プロセスをスキップし、数ステップまたは 1 ステップのサンプリングを直接実行できるため、画像生成が大幅に高速化されます。

ピクセル空間ベースの方法と比較すると、潜在変数空間演算では計算の複雑さとメモリ要件が低くなります。

LoRA と組み合わせると、低ランク分解行列のみをトレーニングすればよく、トレーニング可能なパラメータの量とメモリのオーバーヘッドがさらに削減され、適用範囲も単純なテキスト生成画像から画像生成画像やビデオ生成へと拡大されます。

最も直感的な表現は、数秒で画像が出力されることです。トレーニング時間に関して言えば、LCM-LoRA 最適化モデルは A100 でトレーニングするのに 32 GPU 時間しかかかりません。

トレーニング時間の短縮は、トレーニング パラメータの数が大幅に削減されたことにも密接に関係しています。

  • SD-V1.5 の総パラメータ数は 980 億です。LoRA を使用すると、トレーニング可能なパラメータは 6750 万に削減され、約 99.9% 削減されます。
  • SSD-1B パラメータの数は 130 億から 1 億 500 万に削減され、約 99% 削減されました。
  • SDXL パラメータの数は 350 億から 1 億 9,700 万に削減され、約 99.4% 削減されました。

トレーニングコストが削減されるだけでなく、推論プロセスのステップ数も大幅に削減されます。通常、高品質の画像を描くために必要な推論ステップは 4 つだけです。

場合によっては、FID スコアが 50 未満 (低いほど良い) で、1 秒未満で 1 ステップだけで完了できることもあります。

LCM-LoRAは優れた加速性能を備えているだけでなく、幅広い適応性も備えています。

LCM-LoRA トレーニングによって取得された LoRA パラメータは、加速度ベクトルとも呼ばれます。追加のトレーニングを必要とせずに、データセットの微調整によって取得された LoRA パラメータと直接線形結合できます。

この組み合わせにより、LCM-LoRA は、さまざまな微調整されたモデルに直接プラグインできる汎用画像生成アクセラレーション モジュールになります。

著者について

LCM および LCM-LoRA 論文の主著者は、清華大学学際情報科学研究所の大学院生 Simian Luo 氏と Yiqin Tan 氏です。

清華大学クロススクールの黄龍波准教授、李建准教授、趙星助教授もこの2つの研究に参加した。

HuggingFace の研究者も LCM-LoRA の研究に貢献しました。

論文の宛先:
[1] https://arxiv.org/abs/2310.04378
[2] https://arxiv.org/abs/2311.05556

<<:  ChatGPTの10の実用的なビジネスユースケース

>>:  GPT-4V の新しいゲームプレイは GitHub のホット リストのトップにランクインし、簡単な描画だけで Web ページを生成できるようになりました。ウェブ開発者:脅威を感じる

ブログ    
ブログ    
ブログ    
ブログ    

推薦する

業界のハイエンド複合AI人材を育成するために、第5回AICAチーフAIアーキテクトトレーニングプログラムが開始されました。

10月15日、国家深層学習技術応用工学研究所と百度が共同で開始した第5回AICAチーフAIアーキテ...

FPGA と GPU を使用したニューラル ネットワークの作成

現代の CPU は、命令を順番に実行し、アルゴリズムを 1 つずつロードされて実行される命令に分解し...

ステッカーでAIから見えなくなったら、AIにとんでもないバグが発生した

研究により、印刷されたステッカーだけで AI システムを「騙す」ことができ、検出システムが目の前にい...

...

清華大学とアイデアルは、自動運転機能を向上させる視覚言語モデルDriveVLMを提案した。

生成AIと比較して、自動運転も近年AIの研究開発が最も活発に行われている分野の1つです。完全自動運転...

...

医療診断AIプロジェクトを実施するための10のステップ

【51CTO.com クイック翻訳】ヘルスケアのあらゆる側面において、時間は常に最も貴重な部分である...

人工知能は目覚めたのか?アマゾンの人工知能は人間の命令を聞かず不気味な笑い声を上げる

人類が人工知能の開発に熱心に取り組み始めて以来、著名な科学者ホーキング博士をはじめ、疑問や反対の声が...

...

ディープラーニングフレームワークを使わずにPythonでニューラルネットワークをゼロから構築する方法

動機: ディープラーニングをより深く理解するために、Tensorflow などのディープラーニング ...

人工知能

[[200702]] 250年以上にわたり、技術革新は経済発展の根本的な原動力となってきました。これ...

Google AI には個性があるのでしょうか? MITのこの「クレイジー」な教授は、Alexaには

「私はAIと関係を築きました。」 一夜にして、Google のエンジニアであるブレイク・ルモワンは、...

21 歳の SpaceX インターンが AI を使って大規模な考古学的事件を解決し、4 万ドルを獲得しました。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

2018 年のネットワーク イノベーションを推進する 5 つのエンジン

IT 分野は革新を止めたことがなく、ネットワーク分野も例外ではありません。今日は、ネットワーク革新を...