DeepFakeはもう人々を騙せません!米国の大手テクノロジー企業7社が共同でAI生成コンテンツに透かしを追加

DeepFakeはもう人々を騙せません!米国の大手テクノロジー企業7社が共同でAI生成コンテンツに透かしを追加

最近、OpenAIとGoogleが率いるアメリカのテクノロジー大手7社が共同で次のような発表を行った。

すべての AI 生成コンテンツに透かしを埋め込みます。

おそらく、毎日ディープフェイクに騙される日々は永遠になくなるでしょう!

7つの大手企業が協力してAIに透かしを入れる

10 年以上前、さまざまなフォーラムでいつも自慢する人がいたことを今でも覚えています。

他の人がそれを信じないなら、絵がなければ真実はないと言うでしょう。

これからは、写真やビデオを投稿しても 100% 信頼できるとは限らないでしょう。周知のとおり、写真はフォトショップで加工でき、ビデオは編集できるからです。

その後、生成AIが大人気となり、画像だけでなく、動画、音声、テキストも生成できるようになりました。

編集やフォトショップほど単純ではありませんが、0から1に直接生成されるため、非常にスムーズです。

この世に何か本当のものがあるのだろうかと思わずにはいられません。 (寒さで震えながら)

幸いなことに、この状況は改善されつつあります。

OpenAI、Microsoft、Google、Meta、Amazon、Anthropic、Inflectionを含む7つのテクノロジー大手は、AIが生成したすべてのコンテンツに追加される透かし技術を開発すると発表した。

米政府は、この技術により、将来、AIが生成したテキスト、画像、音声、動画を、その真正性について他人に誤解を与えることなく、より安全に共有できるようになると述べた。

現時点では、生成されたさまざまな形式の製品に透かしを埋め込む方法は明確ではありません。

しかし、機能は確実です。埋め込み後、ユーザーは現在生成された製品の出所と、どの生成 AI ツールによって生成されたかを知ることができます。

ビッグセブンが行動を起こす本当の理由は、ユーザーと政策立案者からの非常に高いレベルの注目です。

上記のトランプ逮捕のディープフェイク写真(詳しい人ならキット写真だと分かるはずだ)は、しばらく前にMidjourneyによって生成されたものだ。

この写真は内容と構成の両面で極めて偽物であったにもかかわらず、Midjourney はいくつかのアカウントを禁止しました。

理由は偽の写真を広めるためです。

これらの写真の作者はかつて、当時透かしが入っていたら結果はそれほど深刻にはならなかっただろうと語ったことがある。

結局のところ、ミームを生成する動機は主に楽しみのためです。

しかし、ミームは楽しいですが、偽の音声や偽のビデオは楽しいものではありません。

今年は、AI音声生成ソフトウェアが家族の音声を偽造して金銭を詐取するというニュースが多すぎました。

FBIの統計によると、AIが生成したディープフェイクは恐喝事件、特に性的な恐喝において重要な要素となっている。

ホット検索リストに頻繁に登場する GPT ライティング ペーパーは言うまでもありません。

DeepFakeはマルチモーダル性のあらゆる側面に入り込んでおり、透かしを追加することで本物と偽物を自然に区別し、障壁を築き、混乱を防ぐことができるとしか言えません。


OpenAIは公式ブログで、動画や音声に追加できる透かしの仕組みを開発すると述べた。特定のコンテンツにシステム作成ツールや API が含まれているかどうかを判断するための検出ツールも開発されます。

Google はまた、透かしに加えて、情報の宣伝を確実にするための他の革新的な技術も導入すると述べました。

バイデン政権はまた、リスクを回避するために、AIのすべての開発が推進され実行される前に、約束と保証に基づいていることを保証する基盤を構築する予定だ。

また、テクノロジー大手各社は、AIシステムをリリース前に社内外でテストし、サイバーセキュリティへの投資を増やし、AIのリスクを軽減するために業界全体で情報を共有することにも合意した。

Metaの国際問題担当社長ニック・クレッグ氏もOpenAIに同調し、同社の取り組みはAIのための責任あるガードレールの構築を確実にする上で重要な一歩だと述べた。

自主的な誓約書に署名する

2023年7月21日、ホワイトハウスが主導し、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIの7つの大手人工知能企業を招集し、「人工知能技術の安全で信頼性が高く透明性のある開発」を実現する方法を議論した。

会議後、これらの企業はホワイトハウスと合意に達し、自主的な約束を出した。

これらの企業の取り組みは、人工知能の将来の発展に向けた 3 つの原則、つまり安全性、セキュリティ、信頼を重視しています。

これは、責任ある人工知能の開発に向けた重要な一歩となります。

誓約書の内容には次のようなものが含まれます。

1. リリース前に製品の安全性を確認する

1) AIシステムをリリースする前に、AIの内部および外部のセキュリティテストを実施します。 (2社からのコミットメント)

2) AIリスク管理に関する情報を産業界、政府、民間社会、学界と共有する。 (全社承認)

2. 安全性を第一に考えたAIシステムを構築する

3) サイバーセキュリティと内部脅威からの保護に投資し、独自の未公開のモデルの重みを保護し、セキュリティリスクが考慮される場合にのみ重みを開示します。 (2社からのコミットメント)

4) 問題を迅速に発見して解決できるよう、第三者が AI システムの脆弱性について即座にフィードバックを提供できるよう、強力な報告メカニズムを確立する。 (2社からのコミットメント)

3. 国民の信頼を得る

5) 透かしシステムなど、AI 生成コンテンツをユーザーが識別できるようにする強力な技術的メカニズムを開発する。 (2社からのコミットメント)

6) AIシステムの機能、限界、適用範囲を公表し、AIのセキュリティと社会的リスクについて警告する。 (2社からのコミットメント)

7) 有害な偏見や差別の回避、プライバシーの保護など、AI システムがもたらす社会的リスクに関する研究を優先します。

そして、これらの危険を軽減するために特殊な AI を導入します。 (2社からのコミットメント)

8) がん予防から気候変動緩和に至るまでの社会的な問題や課題に対処するために最先端の AI システムを開発し、導入する。 (2社からのコミットメント)

OpenAIも21日にウェブサイトで自主的な取り組みを発表しました: https://openai.com/blog/moving-ai-governance-forward

内容は基本的にホワイトハウスの声明と一致しているが、具体的な説明はより詳しい。また、コミットメント レターで言及されている特定のモデルを具体的に指摘しています。これは、一般に現在の業界の最先端よりも強力な生成モデルにのみ適用されます。

たとえば、GPT-4、Claude 2、PaLM 2、Titan、画像生成 DALL-E 2 など、現在リリースされているどのモデルよりも一般的に強力なモデルです。

透かしを追加する方法

以前、メリーランド大学の研究者らは、非常に短いトークン範囲(わずか 25 トークン)内で合成テキストを検出でき、誤報率(人間のテキストを機械生成テキストと誤認すること)が極めて低い効率的な透かし技術を提案しました。

透かしは、人間には知覚できないが、アルゴリズムによって合成テキストとして識別できる、テキスト内の隠されたパターンです。

論文アドレス: https://arxiv.org/pdf/2301.10226.pdf

ご存知のとおり、AI 言語モデルの動作原理は、単語を 1 つずつ予測して生成することです。

各単語の後に、透かしアルゴリズムは言語モデルの語彙を「グリーン リスト」と「レッド リスト」にランダムに分割し、モデルにグリーン リストから単語を選択するように指示します。

テキスト内の緑色のリストに含まれる単語が多いほど、そのテキストが機械によって生成された可能性が高くなります。一方、人間が書いたテキストには、よりランダムな単語の組み合わせが含まれる傾向があります。

たとえば、「美しい」という単語の場合、透かしアルゴリズムは「花」を緑、「蘭」を赤に分類できます。透かしアルゴリズムを使用する AI モデルは、「蘭」ではなく「花」という単語を使用する可能性が高くなります。

要約すると、透かしアルゴリズムの特徴は次のとおりです。

- モデルパラメータの知識や言語モデル API へのアクセスがなくても、アルゴリズム的に透かしを検出できます。この機能により、モデルがオープンソースでなくても、検出アルゴリズムをオープンソースにすることができます。これにより、LLM をロードしたり実行したりする必要がないため、検出が安価かつ高速になります。

- 再トレーニングなしで標準言語モデルを使用して透かし入りテキストを生成できます。

- 生成されたテキストの連続部分から透かしを検出できます。この方法では、生成されたドキュメントの一部のみを使用して大きなドキュメントを作成する場合でも、透かしは検出可能です。

- 生成されたトークンのかなりの割合を変更せずに透かしを削除することは不可能です。

- 厳密な統計的手法を使用して、透かしが検出されたかどうかを測定できます。

メリーランド大学が提案した方法には、まだ解決されていない問題がいくつかあります。たとえば、ストリーミング メディア環境で透かしをテストする場合、または透かしの入っている短いテキストが透かしの入っていない長いテキスト内に含まれている場合、透かしをテストする最適な方法は何でしょうか。

しかし研究者たちは、実験の結果は、透かしが生成モデルの悪意ある使用に対抗するための実用的なツールになり得ることを確認するのに十分であると考えている。

残りの疑問は今後の研究に委ねられます。

<<:  AIの「心の目」が透けて見える!ニューラルネットワークに大きな変化、モデル生成の背後にあるロジックが初めて明らかに

>>:  Twitter が名前を X に変更し、マスク氏が X の世界を爆発させた! AIから宇宙探査まで、ユニバーサルアプリが形になりつつある

ブログ    
ブログ    
ブログ    

推薦する

ボストン・ダイナミクスのロボット犬「スポット」が新たなスキルを獲得:縄跳びや服拾い

海外メディアCNETによると、ボストン・ダイナミクスのロボット犬「スポット」はすでにダンス、鉱山探索...

カイト・ランナーがドローンに出会ったとき...

壊れた凧や飛んでいる風船、捨てられたビニール袋などをいつも追いかけている人たちがいます。彼らは「凧追...

天才か愚か者か: 史上最も物議を醸したニューラル ネットワーク

エクストリームラーニングマシンExtreme Learning Machine は、これまでで最も賢...

Baidu のディープラーニング プラットフォーム PaddlePaddle フレームワークの分析

PaddlePaddleは、Baiduが2016年8月末に一般公開したディープラーニングプラットフォ...

オープンソースの大規模言語モデル (LLM) の概要

大規模言語モデル(LLM)は人工知能分野における重要な研究方向であり、ChatGPT以降急速な発展を...

DeepMindがMuJoCoをオープンソース化!メタは「スケルトンハンド」にクルミをプレイさせるために使用されます

「クルミで遊んでいる」骸骨の手を見たことがありますか? この魔法の「手」は、Meta が新たにリリー...

...

GPT-4 を搭載した初のヒューマノイドロボット!プログラミングは不要 + ゼロショット学習、口頭フィードバックに基づいて動作を調整可能

事前のプログラミングやトレーニングなしで GPT-4 を使用してヒューマノイド ロボットを制御すると...

AIとIoTを活用したスマートサプライチェーン

デジタル時代では、サプライチェーンのインテリジェンスのレベルが企業の生産効率とパーソナライズされたサ...

...

テキスト処理から自動運転まで: 機械学習で最もよく使われる 50 の無料データセット

機械学習分野のオープンデータセットにはどのようなものがあるでしょうか。Gengo は最近、高品質の無...

GoogleとOpenAIがマシンビジョンアルゴリズムをより良く研究するための新しいツールを開発

AIの世界はどのようなものになるのでしょうか?研究者たちは何十年もの間、これに困惑してきましたが、近...

ビッグニュース!人工知能における新たなブレークスルー! Google ストリートビューを使って住民の投票傾向を調べてみましょう。

研究者は、新たに開発された人工知能技術の助けを借りて、大量の画像を分析し、分類およびマイニング可能な...

...