考えてみると恐ろしいですね! 1億人のネットユーザーが騙された、AIは変装の技術を習得

考えてみると恐ろしいですね! 1億人のネットユーザーが騙された、AIは変装の技術を習得

最近、「射雁英雄伝」でアテナ・チュウが演じる「黄容」の顔をAI技術で楊冪の顔に差し替えた動画が、ネット上で熱い議論を巻き起こしている。

これは朱隠の黄容です:

​​

ヤン・ミーと交代後:

​​

表情は相変わらずアテナ・チュウの生き生きとした表情だが、彼女の顔立ちはヤン・ミーのそれになっている。映像は完璧で、まるでヤン・ミーが演じたのかと思うほどだ。

​​

この作戦にネットユーザーは驚愕し、Weiboでのこのトピックの閲覧数は瞬く間に1億3000万回にまで急増した。

​​

この顔を変える技術は「楽しい」ように見えるが、一部のネットユーザーは肖像権を侵害しているのではないかと疑問を呈している。

​​

楊冪の「変顔」動画の制作者は27日、動画を制作した当初の意図は技術交流であり、営利行為はなかったと反論したが、当該動画は棚から撤去されており、「これは皆さんへの警告です。皆さんは著作権と肖像権を尊重し、技術そのものに焦点を当てるべきだ」と述べた。

​​

この魔法のブラックテクノロジーは、AI 顔変換と呼ばれます。しかし、このような高度な顔を変える技術は、数え切れないほどのネットユーザーの間でパニックを引き起こしている。「顔を変えることはどのように実現されるのか?この技術が他の場所で使用されたらどうなるのか?知らないうちに他人になりすまされるのではないか?現在の顔認識技術はまだ安全なのか?」

[[258584]]

恐ろしいAI顔変換技術

実は、AIによる顔の改造は2年前に海外のフォーラムで流行し、中国でも模倣者が多数いる。例えば、一部のネットユーザーは女性キャスターの顔をタン・イエン、ヤン・ミー、リウ・イーフェイなどの有名人の顔に置き換えた。

ショックを受けましたか?人工知能は誰も想像できないスピードで進歩し、私たちのこれまでの認識を覆しています...

Face-Swapping Brotherがこのリアルな動画を作成するために使用したツールは、Deepfakeと呼ばれています。このAI技術は、2年以上前から海外で人気を博しています。

当時、米国防総省はこの技術を人間とAIの軍拡競争の始まりだと称賛した。顔の筋肉の動きを調和させ、唇の形や声を一致させながら、動画内の顔を他の人の顔に置き換えることができる。

ディープフェイクとは何ですか?

当初、Redditのウェブサイトでは、「deepfakes」というユーザー名を持つネットユーザーが、映画のヒロインをワンダーウーマンに置き換える自作の顔変更ビデオを投稿した。この動画は短期間で大きな人気を集め、ネットユーザーは当然ながら彼のオンライン名をこの技術の名前として使った。

ワンダーウーマンを演じる女優、ガル・ガドットのこんな一面を見たことはありますか?実はこれは合成ビデオであり、ビデオに映っている人物はガル・ガドット本人ではありません。

代わりに、彼らは機械学習技術を使ったシステムを構築し、AIが女性スターの顔の特徴を学習し、それを成人映画の女優の顔に合成できるようにした。

その後間もなく、同じ名前のアルゴリズムがGitHubでオープンソース化され、ディープフェイク技術によって制作された動画がインターネット上に次々と登場しました。ジェシカ・アルバやエマ・ワトソンなどのハリウッドスターの顔が入れ替わったことがある。

Redditでの議論に加えて、2018年1月には、WindowsプログラムFakeAppがリリースされ、DeepFakeを使用するハードルが大幅に下がりました。これにより、人工知能に関する知識がなくても、ユーザーは簡単に自分の顔を変えるビデオを作成できます。

しかし、ディープフェイクは、多くのユーザーが政治家の演説を偽造するなど、偽の動画を作成するために使用したことから、悪評を博している。

DeepFakes は、実際には顔を交換する技術です。名前が示すように、画像やビデオ内の 1 つの顔を別の顔に置き換えます。

[[258585]]

実際、フェイススワッピング技術は映画制作の分野では新しい用語ではありませんが、これまでの映画ビデオでのフェイススワッピングは非常に複雑で、プロのビデオ編集者や CGI の専門家がビデオでのフェイススワッピングを完成させるのに多くの時間と労力を費やす必要がありました。

これは『ワイルド・スピード SKY MISSION』のポールです。映画が完成する前に突然亡くなり、本当に悲しいです。しかし、後にCGI技術によって顔が置き換えられ、分岐点での別れのシーンを見ることができるようになりました。

DeepFakesの出現は、顔交換技術における画期的な進歩であると言える。 DeepFakes テクノロジーを使用すると、リアルな顔交換ビデオを作成するために必要なのは GPU といくつかのトレーニング データだけです。

これは驚くべき進歩であると言えます。なぜなら、顔の入れ替えを完了し、非常にリアルなビデオ効果を生み出すには、アルゴリズムに何百もの人物のサンプル写真を入力するだけでよいからです。ビデオ編集について何も知らなくても、これを行うことができます。

DeepFakesの出現は、ビデオ内で大規模な「顔の入れ替え」を実行できることを意味します。私たちのほとんどは、インターネットに自分の写真をアップロードしているので、ほとんどの顔はいくつかのビデオで簡単に置き換えられ、ビデオの「主人公」になることができます。

これは非常に恐ろしいことだと言わざるを得ませんが、パニックになる必要はありません。結局のところ、私たちは「写真詐欺」(写真の偽造)を容認しているのです。

ディープフェイクの技術的原理

DeepFakes の核となるのは「オートエンコーダー」です。これは実際には、データ入力を受け取り、それを小さなコードに圧縮し、このコードから元の入力データを再生成できるディープ ニューラル ネットワークです。

​​

この標準的なオートエンコーダの設定では、ネットワークは元の入力画像を再生成できるエンコーディングの作成を学習しようとします。十分な画像データがあれば、ネットワークはこのエンコーディングを作成する方法を学習できます。

DeepFakes は、エンコーダーを使用して顔をコードに圧縮し、デコーダー 2 つを使用します。1 つは顔をキャラクター A (Fallon) に復元し、もう 1 つは顔をキャラクター B (Oliver) に復元します。

次の図は理解に役立ちます。

​​

この場合、使用されるエンコーダーは同じですが、Fallon と Oliver のデコーダーは異なります。

トレーニングプロセス中、入力された顔は「このような顔になることを希望する」という概念をシミュレートするために歪められます。

​​

アルゴリズムのトレーニングには次の 3 つのステップがあります。

  • まず、エンコーダーにジミーの歪んだ顔の写真を入力し、デコーダー A で顔を復元しようとします。これには、デコーダー A が複雑な写真にあるジミーの顔を認識して復元することを学習する必要があります。
  • 次に、オリバーの歪んだ顔の画像が同じエンコーダに送られ、デコーダ B を使用してオリバーの顔が復元されます。
  • 2 つのデコーダーがそれぞれ 2 人の顔を復元できるまで上記の操作を繰り返し、エンコーダーも重要な顔情報をキャプチャして Jimmy と Oliver の顔を区別することを学習できるようになります。

上記のトレーニング手順が完了したら、エンコーダーにジミーの写真を入力し、コードをデコーダー B に直接送信して、ジミーの顔をオリバーの顔に置き換えることができます。

​​

これは、モデルをトレーニングして顔の置き換えを完了するプロセス全体です。デコーダー A はジミーの顔情報を取得し、それをデコーダー B に渡します。このとき、デコーダー B は次のように応答します。「これは別の干渉情報です。これはオリバーの顔ではありません。したがって、あなたをオリバーに置き換えます。」

アルゴリズムが多数の画像を観察するだけで画像を再生・復元できるというのは信じられない話に聞こえますが、DeepFakes は実際にそれを実現しており、その効果はかなり良好です。

完全な破壊を避けるために、Reddit は Deepfake チャンネルを閉鎖せざるを得ず、GitHub のオープンソース コードも削除されました。

Twitterはすぐに関連コンテンツを削除し、関連コンテンツの検索を禁止しました。 FakeAppの公式サイトも現在は利用できません。

​​

2019年1月、オランダのDeepTrace研究所はDeepFakeの開発レポートを発表し、そのデータによると、2018年に「deepfake」というキーワードのGoogle検索数は2017年に比べて1,000倍に増加したことが明らかになった。

[[258588]]

ディープフェイクが誕生する前は、ビデオの顔を変える技術は主に映画の撮影で使用されており、比較的高い技術的および財政的投資が必要でした。

しかし現在では、ディープフェイクなどのディープラーニング技術の登場により、顔を変えるハードルは大幅に下がり、ユーザーはそれを政治家に対する偽ニュースを捏造するためだけに使うわけではない。

こうしたフェイク動画やフェイクニュースの有害性については詳しく述べません。そしてディープフェイクは昨年、米国防総省をも警戒させた。

彼らは、国防高等研究計画局(DARPA)を通じて全米の専門家に依頼し、さまざまな種類のビデオの真正性を見分ける方法を探った。

その後すぐに、DARPAは顔がすり替えられた偽の動画を自動的に検出できるAIツールを開発した。偽の動画には通常、まばたきや呼吸、目の動きなどの特徴が見られないため、99%の精度で偽の動画を識別できる。

関連論文とデータセット:

  • ​​https://arxiv.org/abs/1901.08971​​
  • ​​https://github.com/ondyari/FaceForensics​​

この技術は現在、ますます多くの人々によって使用されていますが、その目的は不明です。この最先端技術の前では、誰もが潜在的な被害者になる可能性があります。

一度悪用されると、実際の写真と音声シミュレーターや音声合成システムを組み合わせることで、恣意的な「フェイクニュース」が生成され、誰でも誰にでもなりすますことができるようになります。

今では、百聞は一見に如かずです。私たちは、氾濫する情報に対して、ただ群衆に従うのではなく、もっと識別力を持つ必要があります。

テクノロジーの乱用によって関係者にもたらされる被害と、社会全体への反発は、人類が新しいテクノロジーを尊重しなかったために払わなければならない代償です。

テクノロジーは常に諸刃の剣です。技術の進歩を私たちの弱点ではなく真の武器にするためには、時代の流れに遅れないより健全なルールと法的保護が依然として必要です。

「起こる前に計画を立て、起こる前に考えましょう。」新しいテクノロジーの出現は、私たちの法的見解や道徳観に常に影響を与えています。対応能力を向上させ、起こりうるリスクに備えることによってのみ、新しいテクノロジーは常に正しい軌道に乗り、道徳と法律の「柵」を突破することなくいられるのです。

​​

<<:  賈陽青氏がフェイスブックを辞任し、アリババ・シリコンバレー研究所の副社長に就任したことが明らかになった。

>>:  AI、BI、データ: 2020 年までに勝利するのは誰か?

ブログ    
ブログ    
ブログ    

推薦する

職場におけるAIとARの進化

[[434145]]職場における支援/拡張現実 (AR) と人工知能 (AI) の可能性を最大限に引...

新しい人工ニューロンデバイスは、非常に少ないエネルギーでニューラルネットワークの計算を実行できる

カリフォルニア大学サンディエゴ校の研究者らが開発した新しい人工ニューロン装置のおかげで、画像の認識や...

Java 開発者のための機械学習の事例

翻訳者 |陳俊レビュー | Chonglou昨年以来、 ChatGPTやBardなどの大規模言語モデ...

人工知能の時代にITキャリアを築く方法

人工知能(AI)技術がより高度になるにつれ、ITプロフェッショナルは将来、AIに対して優位に立つため...

...

OpenAIのスーパーアライメントチームの取り組み

今年11月17日、OpenAIのCEOサム・アルトマン氏は主任科学者イリヤ・スツケヴァー氏によるクー...

製造業の発展は新たな課題に直面しており、人工知能が重要な役割を果たすだろう

[[245913]]現在、製造業の発展は新たな歴史的時期を迎えており、世界各国間の競争の焦点となって...

Google のアルゴリズムにどんな恥ずかしいことが起こったのでしょうか?

ここには Google が意図的に行ったジョークがあると思われます。周知のとおり、Google の柱...

...

...

...

「Split Everything」のビデオ版はこちらです。数回クリックするだけで、動いている人物や物体が丸で囲まれます。

写真ビデオセグメンテーションは多くのシナリオで広く使用されています。映画の視覚効果を高めたり、自動運...

ディープラーニングの成果は収穫されようとしているのでしょうか? 11人の専門家がAIの現在(2018年)と未来(2019年)について語る

KDnuggets は、学界と産業界のさまざまな分野の機械学習と AI の専門家 11 名に相談し、...

美団のドローンの暴露:インターネットはインターネットに別れを告げる

美団ドローンは、ドローンそのもの以上のものを見せてくれるだけでなく、インターネットがインターネットに...

Go 言語 - データ構造とアルゴリズム プロジェクト

[[404457]]この記事はWeChatの公開アカウント「roseduanの執筆場所」から転載した...