「決して単純な切り抜きではありません。」 ControlNet の著者による最近の研究は大きな注目を集めています。 ちょっとしたヒントですが、Stable Diffusion を使用すると、単一または複数の透明レイヤー(PNG)を直接生成できます。 たとえば、次の文:
ご覧のとおり、AI はプロンプトを満たす完全な画像を生成するだけでなく、背景と文字を分離することもできます。 また、キャラクターの PNG 画像を拡大してよく見ると、髪の毛の一本一本がはっきりと見えます。 別の例を見てみましょう。
同様に、「燃えるマッチ」の PNG を拡大すると、炎の周りの黒い煙を分離することもできます。 これは、ControlNet の作者によって提案された新しい方法であるLayerDiffusionであり、大規模な事前トレーニング済み潜在拡散モデルを使用して透明な画像を生成できるようになります。 もう一度強調しておきたいのは、LayerDiffusion は決して画像を切り取るだけの単純なものではなく、鍵となるのは生成だということです。 ネットユーザーはこう言った。
一部のネットユーザーは、このような作業は難しくなく、「ついでにアルファチャンネルを追加する」だけの問題だと思っていたが、驚いたことに、
では、LayerDiffusion はどのように実装されるのでしょうか? PNG、生成ルートへLayerDiffusion の核となるのは、潜在的透明性と呼ばれる手法です。 簡単に言えば、 Stable Diffusion などの事前トレーニング済みの潜在拡散モデルの基礎となる分布を破壊することなく、モデルに透明性を追加できます。 具体的な実装の点では、慎重に設計された小さな変動(オフセット)を潜在画像に追加すると理解できます。この変動は追加チャネルとしてエンコードされ、RGB チャネルとともに完全な潜在画像を構成します。 透明性のエンコードとデコードを実現するために、著者らは 2 つの独立したニューラル ネットワーク モデルをトレーニングしました。1 つは潜在的透明性エンコーダーで、もう 1 つは潜在的透明性デコーダーです。 エンコーダーは、元の画像の RGB チャネルとアルファ チャネルを入力として受け取り、透明度情報を潜在空間のオフセットに変換します。 デコーダーは、調整された潜在画像と再構成された RGB 画像を受け取り、潜在空間から透明情報を抽出して、元の透明画像を再構成します。 追加された潜在的な透明性が事前トレーニング済みモデルの潜在的な分布を破壊しないことを保証するために、著者らは「無害性」メトリックを提案しています。 このメトリックは、調整された潜在画像と元の画像に対する元の事前トレーニング済みモデルのデコーダーのデコード結果の違いを比較することにより、潜在的な透明性の影響を評価します。 トレーニング中、著者らは、再構築損失、アイデンティティ損失、および識別損失を組み合わせた結合損失関数も使用しました。 それらの機能は次のとおりです。
このアプローチでは、潜在拡散モデルを調整された潜在空間に合わせて微調整するだけで、任意の潜在拡散モデルを透明画像ジェネレーターに変換できます。 潜在的な透明性の概念は、複数の透明なレイヤーを生成するように拡張することも、他の条件付き制御システムと組み合わせて、前景/背景の条件付き生成、共同レイヤー生成、レイヤー コンテンツの構造制御などのより複雑な画像生成タスクを実現することもできます。 著者は、ControlNet を導入して LayerDiffusion の機能を充実させる方法も示していることにも注目に値します。 従来の切り抜きとの違いLayerDiffusion と従来のカットアウトの違いについては、簡単にまとめると次の点になります。 ネイティブ生成と後処理 LayerDiffusion は、生成プロセスで透明情報を直接考慮してエンコードするネイティブの透明画像生成方法です。これは、モデルが画像を生成する際にアルファ チャネルを作成し、透明な画像を生成することを意味します。 従来の画像マット化方法では、通常、画像を生成または取得し、その後、クロマキー、エッジ検出、ユーザー指定のマスクなどの画像編集技術を使用して前景と背景を分離します。このアプローチでは、透明性を処理するために追加の手順が必要になることが多く、複雑な背景やエッジで不自然な遷移が生じる可能性があります。 潜在空間操作とピクセル空間操作 LayerDiffusion は、モデルがより複雑な画像機能を学習して生成できるようにする中間表現である潜在空間で動作します。潜在空間に透明性をエンコードすることで、モデルはピクセルレベルでの複雑な計算を必要とせずに、生成中に透明性を自然に処理できます。 従来の切り抜き技術は通常、ピクセル空間で実行され、色の置き換え、エッジのスムージングなど、元の画像を直接編集する必要がある場合があります。これらの方法では、半透明の効果(火、煙など)や複雑なエッジの処理が難しい場合があります。 データセットとトレーニング LayerDiffusion は、大規模な透明画像ペアのデータセットを使用してトレーニングされ、モデルが高品質の透明画像を生成するために必要な複雑な分布を学習できるようにします。 従来の画像マッティング手法では、小規模なデータセットや特定のトレーニング セットに依存する場合があり、多様なシーンを処理する能力が制限される可能性があります。 柔軟性と制御 LayerDiffusion は、ユーザーがテキストプロンプトを介して画像生成をガイドし、複数のレイヤーを生成してブレンドおよび組み合わせ、複雑なシーンを作成できるため、柔軟性と制御性が向上します。 従来のマット処理方法では、特に複雑な画像コンテンツや透明度を扱う場合には、制御が制限される可能性があります。 品質比較 ユーザー調査によると、LayerDiffusion によって生成された透明画像はほとんどの場合(97%)ユーザーに好まれており、生成される透明コンテンツは視覚的に市販の透明アセットに匹敵するか、それよりも優れていることが示されています。 従来のマット処理方法では、特に難しい透明部分やエッジを扱う場合には、同じ品質が得られない場合があります。 要約すると、LayerDiffusion は透明な画像を生成および処理するための、より高度で柔軟な方法を提供します。 生成プロセス中に透明度を直接エンコードし、従来のマット処理方法では実現が難しい高品質の結果を生み出すことができます。 著者について先ほど述べたように、この研究の著者の一人は、ControlNet の有名な発明者であるZhang Lyuminです。 彼は東呉大学を卒業し、学士号を取得しました。大学1年生の時にAIペインティングに関する論文を発表しました。学部在学中、トップカンファレンスで10本の初論文を発表しました。 現在、張龍民さんはスタンフォード大学で博士号取得を目指しているが、非常に控えめな人物で、Google Scholarにも登録していない。 現時点では、LayerDiffusion は GitHub でオープンソース化されていませんが、それでも皆の注目を集めており、660 個のスターを獲得しています。 結局のところ、張龍敏はネットユーザーから「時間管理の達人」とも評されているので、LayerDiffusionに興味がある友達は事前にマークしておくといいでしょう。 |
現代の若者は、ベテランスターたちの若い頃の見事な姿を見る機会がもうないが、それは問題ではない。人工知...
機械学習は現在注目されている技術の 1 つであり、多くのビジネスおよびテクノロジー分野の幹部は、自社...
OpenAI は、誰でも深層強化学習に習熟できるように設計された教育リソース「Spinning Up...
顧客エンゲージメント、パーソナライゼーションなど、5 つの異なる領域で AI を使用して顧客サービス...
[[389147]]人間は経験を通して学び、成長する能力を持っている学習能力と経験を通じてタスクを...
[[426889]]古代の学者たちは、一杯の酒を飲みながら心の奥底にある感情を表現したり、武宇寺に...
社会の生産性の向上は現代交通の進歩を牽引していますが、現代交通がもたらす大きな利便性を享受する一方で...
機械学習エンジニアチームの責任者であり、Looker の最高製品責任者でもある彼は、10 年を超える...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
5年前(2019年1月)、Nature Machine Intelligenceが設立されました。...
2050 年の雇用市場がどうなるかは全く分かりません。 [[412422]]わずか10年から20年の...
以前のPC時代では、人々は携帯電話やウェブページを通じて近くのレストランに注文をしていたが、これには...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...