写真を撮るだけで、宮崎駿や新海誠などの日本のアニメ巨匠の手描き風に変換できます。アニメ画像を生成するために特別に設計されたこのGANは、非常に便利であることがテストされています。
Synced が実際の店舗の写真に基づいて生成したレンダリングは、かつては日本のアニメシリーズのスクリーンショットだと考えられていました。 先日の2019年のチューリング賞はコンピュータグラフィックスとピクサーの3Dアニメーションに授与されましたが、2Dアニメーションの方が面白いと思う人も多いかもしれません。宮崎駿や新海誠などの巨匠が手描きするアニメには魂が込められており、どの絵も壁紙になる。日本のアニメは全体的に2次元が中心となっている。 実際の画像を日本の漫画風の手描き画像に変換できるモデルがあったら本当にクールだと思います。最近、マシンインテリジェンスはこれらのモデルが実際に存在することを発見し、CartoonGAN から AnimeGAN まで、非常に興味深い画像を生成できることが分かりました。 AnimeGAN を実装し、事前トレーニング済みのモデルを提供する新しい TensorFlow プロジェクトがあります。つまり、ダウンロード後すぐに生成されたエフェクトを試すことができます。私たちは日本のアニメスタイルのファンとして、すぐに新しいプロジェクトを試してみました。 プロジェクトアドレス: https://github.com/TachibanaYoshino/AnimeGAN 元のプロジェクトで示された優れた例の多くは街のシーンですが、さまざまなシーンでも問題ないことがわかりました。以下は、私たちが試した元の画像と生成されたエフェクトです。生成された桜道の最初の写真を見ると、突然「千と千尋の神隠し」の中にいるような気分になりました。 文字だけに焦点を当てれば、変換効果も非常に優れています。新垣結衣さんの写真をAnimeGANモデルに入力してみたところ、以下のような不思議な画風になりました。アニメにそのまま使っても問題なさそうです。 元の GitHub プロジェクトでは、作者もたくさんの例を挙げています。上記は Synced を試した結果に過ぎません。試してみるのもよいでしょう。 アニメGANプロジェクト全体は、論文「AnimeGAN: 写真アニメーション用の新しい軽量 GAN」で提案された方法を実装しています。著者は論文の中で AnimeGAN を CartoonGAN および ComixGAN と比較しています。 図からわかるように、細部に関してはAnimeGANの方が上記2つの方法よりも優れています。色は比較的自然で、にじみ感もそれほど強くありません。最も顕著なのは 2 行目のレンダリングです。AnimeGAN を使用して生成されたコミックは、宮崎駿のスタイルに近いです。 方法の紹介 本プロジェクトのAnimeGANでは、AnimeGANが使用するジェネレーターネットワークとディスクリミネーターネットワークを以下に示します。モデル全体は従来の畳み込みニューラル ネットワークのように見えますが、インスタンス正規化と新しい LReLU 活性化関数を使用します。 アーキテクチャの詳細の更新に加えて、著者らは次の 3 つの新しい損失関数も提案しました。
これらの損失関数により、生成された画像のスタイルを実際の漫画スタイルに近づけることができます。 以下の表は、ACartoonGAN と AnimeGAN のモデル サイズと推論速度を比較したものです。 AnimeGAN は、パラメータが少なく推論速度が速い、比較的軽量な GAN であることがはっきりとわかります。 一般的に、新しく提案された AnimeGAN は、より少ないモデルパラメータを使用し、写真のスタイルを強化するためにグラム行列を導入する軽量な生成的敵対的モデルです。研究者らの方法では、トレーニングのために一連の実画像と一連の漫画画像が必要であり、これらの画像はペアで一致させる必要がないため、トレーニングデータは非常に簡単に入手できます。 プロジェクト測定このプロジェクトは Ubuntu 18.04 でテストされており、関連する依存環境は次のとおりです。
これらの依存関係は CV でよく使用される拡張ライブラリであると言えるため、さまざまな依存関係環境の競合を解決するために多くの労力を費やす必要はありません。ここで良いレビューをします。 以下は、このプロジェクトの詳細なトレーニングおよびテストのプロセスです。まず、AnimeGAN プロジェクトをローカルにクローンし、Jupyter ノートブックに入力します。
作業ディレクトリをAnimeGANに変更します。
次に、プロジェクト作成者が提供する事前トレーニング済みモデルをダウンロードし、vim download_staffs.sh を使用してシェル ファイルを作成し、次のコマンドを入力します。
保存して終了します。上記のコマンドは、事前トレーニング済みモデル、vgg19 重み、およびトレーニング データセットをそれぞれのディレクトリにダウンロードして保存します。ノートブックで実行:
これで準備はすべて完了です。次のコードを実行してモデルをトレーニングできます。
AnimeGAN のトレーニングプロセスを下の図に示します。 テストするときは、テスト画像を dataset/test/real ディレクトリに保存し、次のコードを実行する必要があります。
上記の出力が表示された場合、プログラムが正常に実行され、生成された結果が結果フォルダーに保存されたことを意味します。ご覧のとおり、P100 GPU で画像を生成するには約 2.3 秒かかります。 |
>>: 「アバター」の脳-脳インターフェースの性能は2~3桁向上した
[[337082]]最近、グラスゴー大学コンピューティング科学学部のデータサイエンス研究者であるアレ...
Transformer の高性能は非常に高い計算能力に依存しており、モバイル NLP に大きな制限が...
[[219586]] 1990年代初頭、ウィチタ州立大学の物理学教授エリザベス・バーマンが量子物理...
2020年、「人工知能」は産業発展における高頻度のホットワードとなり、市場展望は業界全体で広く認知さ...
編纂者 | Yan Zheng制作:51CTO テクノロジースタック(WeChat ID:blog)...
MongoDB データベースに Java を適用すると、複雑なクエリや集計操作を実装できるため、開発...
昔、携帯電話がなかった頃は、写真を撮りたい人は写真館に行かなければなりませんでした。写真を撮る機会は...
英国の製造業はデジタル変革から大きな恩恵を受けるでしょう。インダストリー 4.0 に向けて進むにつれ...
業界では、人工知能はこれまで2世代を経てきたと一般的に考えられています。第一世代の人工知能は知識主導...