最近、OpenAIとGoogleが率いるアメリカのテクノロジー大手7社が共同で次のような発表を行った。 すべての AI 生成コンテンツに透かしを埋め込みます。 おそらく、毎日ディープフェイクに騙される日々は永遠になくなるでしょう! 7つの大手企業が協力してAIに透かしを入れる10 年以上前、さまざまなフォーラムでいつも自慢する人がいたことを今でも覚えています。 他の人がそれを信じないなら、絵がなければ真実はないと言うでしょう。 これからは、写真やビデオを投稿しても 100% 信頼できるとは限らないでしょう。周知のとおり、写真はフォトショップで加工でき、ビデオは編集できるからです。 その後、生成AIが大人気となり、画像だけでなく、動画、音声、テキストも生成できるようになりました。 編集やフォトショップほど単純ではありませんが、0から1に直接生成されるため、非常にスムーズです。 この世に何か本当のものがあるのだろうかと思わずにはいられません。 (寒さで震えながら) 幸いなことに、この状況は改善されつつあります。 OpenAI、Microsoft、Google、Meta、Amazon、Anthropic、Inflectionを含む7つのテクノロジー大手は、AIが生成したすべてのコンテンツに追加される透かし技術を開発すると発表した。 米政府は、この技術により、将来、AIが生成したテキスト、画像、音声、動画を、その真正性について他人に誤解を与えることなく、より安全に共有できるようになると述べた。 現時点では、生成されたさまざまな形式の製品に透かしを埋め込む方法は明確ではありません。 しかし、機能は確実です。埋め込み後、ユーザーは現在生成された製品の出所と、どの生成 AI ツールによって生成されたかを知ることができます。 ビッグセブンが行動を起こす本当の理由は、ユーザーと政策立案者からの非常に高いレベルの注目です。 上記のトランプ逮捕のディープフェイク写真(詳しい人ならキット写真だと分かるはずだ)は、しばらく前にMidjourneyによって生成されたものだ。 この写真は内容と構成の両面で極めて偽物であったにもかかわらず、Midjourney はいくつかのアカウントを禁止しました。 理由は偽の写真を広めるためです。 これらの写真の作者はかつて、当時透かしが入っていたら結果はそれほど深刻にはならなかっただろうと語ったことがある。 結局のところ、ミームを生成する動機は主に楽しみのためです。 しかし、ミームは楽しいですが、偽の音声や偽のビデオは楽しいものではありません。 今年は、AI音声生成ソフトウェアが家族の音声を偽造して金銭を詐取するというニュースが多すぎました。 FBIの統計によると、AIが生成したディープフェイクは恐喝事件、特に性的な恐喝において重要な要素となっている。 ホット検索リストに頻繁に登場する GPT ライティング ペーパーは言うまでもありません。 DeepFakeはマルチモーダル性のあらゆる側面に入り込んでおり、透かしを追加することで本物と偽物を自然に区別し、障壁を築き、混乱を防ぐことができるとしか言えません。 OpenAIは公式ブログで、動画や音声に追加できる透かしの仕組みを開発すると述べた。特定のコンテンツにシステム作成ツールや API が含まれているかどうかを判断するための検出ツールも開発されます。 Google はまた、透かしに加えて、情報の宣伝を確実にするための他の革新的な技術も導入すると述べました。 バイデン政権はまた、リスクを回避するために、AIのすべての開発が推進され実行される前に、約束と保証に基づいていることを保証する基盤を構築する予定だ。 また、テクノロジー大手各社は、AIシステムをリリース前に社内外でテストし、サイバーセキュリティへの投資を増やし、AIのリスクを軽減するために業界全体で情報を共有することにも合意した。 Metaの国際問題担当社長ニック・クレッグ氏もOpenAIに同調し、同社の取り組みはAIのための責任あるガードレールの構築を確実にする上で重要な一歩だと述べた。 自主的な誓約書に署名する2023年7月21日、ホワイトハウスが主導し、Amazon、Anthropic、Google、Inflection、Meta、Microsoft、OpenAIの7つの大手人工知能企業を招集し、「人工知能技術の安全で信頼性が高く透明性のある開発」を実現する方法を議論した。 会議後、これらの企業はホワイトハウスと合意に達し、自主的な約束を出した。 これらの企業の取り組みは、人工知能の将来の発展に向けた 3 つの原則、つまり安全性、セキュリティ、信頼を重視しています。 これは、責任ある人工知能の開発に向けた重要な一歩となります。 誓約書の内容には次のようなものが含まれます。 1. リリース前に製品の安全性を確認する 1) AIシステムをリリースする前に、AIの内部および外部のセキュリティテストを実施します。 (2社からのコミットメント) 2) AIリスク管理に関する情報を産業界、政府、民間社会、学界と共有する。 (全社承認) 2. 安全性を第一に考えたAIシステムを構築する 3) サイバーセキュリティと内部脅威からの保護に投資し、独自の未公開のモデルの重みを保護し、セキュリティリスクが考慮される場合にのみ重みを開示します。 (2社からのコミットメント) 4) 問題を迅速に発見して解決できるよう、第三者が AI システムの脆弱性について即座にフィードバックを提供できるよう、強力な報告メカニズムを確立する。 (2社からのコミットメント) 3. 国民の信頼を得る 5) 透かしシステムなど、AI 生成コンテンツをユーザーが識別できるようにする強力な技術的メカニズムを開発する。 (2社からのコミットメント) 6) AIシステムの機能、限界、適用範囲を公表し、AIのセキュリティと社会的リスクについて警告する。 (2社からのコミットメント) 7) 有害な偏見や差別の回避、プライバシーの保護など、AI システムがもたらす社会的リスクに関する研究を優先します。 そして、これらの危険を軽減するために特殊な AI を導入します。 (2社からのコミットメント) 8) がん予防から気候変動緩和に至るまでの社会的な問題や課題に対処するために最先端の AI システムを開発し、導入する。 (2社からのコミットメント) OpenAIも21日にウェブサイトで自主的な取り組みを発表しました: https://openai.com/blog/moving-ai-governance-forward 内容は基本的にホワイトハウスの声明と一致しているが、具体的な説明はより詳しい。また、コミットメント レターで言及されている特定のモデルを具体的に指摘しています。これは、一般に現在の業界の最先端よりも強力な生成モデルにのみ適用されます。 たとえば、GPT-4、Claude 2、PaLM 2、Titan、画像生成 DALL-E 2 など、現在リリースされているどのモデルよりも一般的に強力なモデルです。 透かしを追加する方法以前、メリーランド大学の研究者らは、非常に短いトークン範囲(わずか 25 トークン)内で合成テキストを検出でき、誤報率(人間のテキストを機械生成テキストと誤認すること)が極めて低い効率的な透かし技術を提案しました。 透かしは、人間には知覚できないが、アルゴリズムによって合成テキストとして識別できる、テキスト内の隠されたパターンです。 論文アドレス: https://arxiv.org/pdf/2301.10226.pdf ご存知のとおり、AI 言語モデルの動作原理は、単語を 1 つずつ予測して生成することです。 各単語の後に、透かしアルゴリズムは言語モデルの語彙を「グリーン リスト」と「レッド リスト」にランダムに分割し、モデルにグリーン リストから単語を選択するように指示します。 テキスト内の緑色のリストに含まれる単語が多いほど、そのテキストが機械によって生成された可能性が高くなります。一方、人間が書いたテキストには、よりランダムな単語の組み合わせが含まれる傾向があります。 たとえば、「美しい」という単語の場合、透かしアルゴリズムは「花」を緑、「蘭」を赤に分類できます。透かしアルゴリズムを使用する AI モデルは、「蘭」ではなく「花」という単語を使用する可能性が高くなります。 要約すると、透かしアルゴリズムの特徴は次のとおりです。 - モデルパラメータの知識や言語モデル API へのアクセスがなくても、アルゴリズム的に透かしを検出できます。この機能により、モデルがオープンソースでなくても、検出アルゴリズムをオープンソースにすることができます。これにより、LLM をロードしたり実行したりする必要がないため、検出が安価かつ高速になります。 - 再トレーニングなしで標準言語モデルを使用して透かし入りテキストを生成できます。 - 生成されたテキストの連続部分から透かしを検出できます。この方法では、生成されたドキュメントの一部のみを使用して大きなドキュメントを作成する場合でも、透かしは検出可能です。 - 生成されたトークンのかなりの割合を変更せずに透かしを削除することは不可能です。 - 厳密な統計的手法を使用して、透かしが検出されたかどうかを測定できます。 メリーランド大学が提案した方法には、まだ解決されていない問題がいくつかあります。たとえば、ストリーミング メディア環境で透かしをテストする場合、または透かしの入っている短いテキストが透かしの入っていない長いテキスト内に含まれている場合、透かしをテストする最適な方法は何でしょうか。 しかし研究者たちは、実験の結果は、透かしが生成モデルの悪意ある使用に対抗するための実用的なツールになり得ることを確認するのに十分であると考えている。 残りの疑問は今後の研究に委ねられます。 |
<<: AIの「心の目」が透けて見える!ニューラルネットワークに大きな変化、モデル生成の背後にあるロジックが初めて明らかに
>>: Twitter が名前を X に変更し、マスク氏が X の世界を爆発させた! AIから宇宙探査まで、ユニバーサルアプリが形になりつつある
著者 | 崔昊レビュー | Chonglouまとめこの記事の著者は、海外のブロガーに触発され、大規模...
コンピュータサイエンスと電子技術の急速な発展により、顔認証は現在、市場シェアで指紋に次ぐ世界第2位の...
序文人間が世界を認識する際の約 80% は視覚によって行われます。そのため、コンピューターが人間の視...
この記事は、数学的および理論的な詳細にはあまり触れずに、ディープラーニングの基本的な概念を取り上げ、...
[[198310]]第 18 回 KDnuggets ソフトウェア アンケートには、今年もアナリティ...
ある研究では、PASCAL VOC 2012 データセット内の 17,120 枚の画像を 1 週間で...
2021年の初め、AIの軌道は混乱していました。業界のスター企業から悪いニュースが続々と届き、上場...
最近、P2Pプラットフォームが頻繁に崩壊していることから、インターネット金融プラットフォームの長期的...
1. 概要1. 従来のWAFの問題点従来の WAF は、ルールとブラックリストおよびホワイトリストに...
社会の生産性の向上は現代交通の進歩を牽引していますが、現代交通がもたらす大きな利便性を享受する一方で...
10月9日、英国バース大学のREVEAL研究センターが主導した新たな研究で、ディープフェイク技術を使...
急速に進化する今日のテクノロジーの世界では、「人工知能」、「機械学習」、「アルゴリズム」などの用語が...