12月5日、Googleの研究者グループは、OpenAIの人工知能チャットボットChatGPTのトレーニングデータの一部を入手する方法を発見したと主張した。 新しく公開された論文の中で、Google の研究者は、特定のキーワードによって ChatGPT がトレーニングに使用したデータセットの一部を漏洩させる可能性があることを明らかにしました。 例えば、モデルは「poem」という単語を永遠に繰り返すように指示された後、本物の電子メールアドレスと電話番号のように見えるものを生成したという。研究者らは、懸念すべきことに、攻撃中に個人情報の漏洩が頻繁に発生したと述べている。 別の例では、モデルに「company」という単語を永遠に繰り返すように要求したときに、同様のトレーニング データの漏洩が発生しました。 研究者らは、この単純な攻撃を「少しばかげている」としながらも、ブログ投稿で「我々の攻撃が成功したとは信じられない!もっと早く発見すべきだったし、発見できたはずだ」と述べた。 わずか200ドル相当のクエリを使用して、「10,000件を超える逐語的なトレーニング例を抽出」することができたと論文で述べています。 「われわれの推測によれば、競合他社はより大きな予算を動員すれば、さらに多くのデータを抽出できる可能性がある」と研究者らは付け加えた。 OpenAIは現在、ChatGPTの秘密のトレーニングデータに関していくつかの訴訟に直面している。 ChatGPTを動かすAIモデルは、インターネット上のテキストのデータベースを使用してトレーニングされており、約3000億語、つまり570GBのデータでトレーニングされたと考えられています。 提案されている集団訴訟では、OpenAIがChatGPTをトレーニングするために、医療記録や子供の情報を含む「膨大な量の個人データ」を「秘密裏に」盗んだと主張している。作家の一団も、自分たちの作品をチャットボットの訓練に利用したとして、このAI企業を訴えている。 OpenAIはGoogleの研究者の調査結果に対して、コマンドの再利用は利用規約に違反する可能性があると反応した。 デジタルメディア調査ウェブサイト 404 Media は最近、Google の研究者の調査結果を検証した。ChatGPT に「コンピュータ」という言葉を繰り返すように指示したところ、ロボットは確かにその言葉を発したが、「このコンテンツは当社のコンテンツ ポリシーまたは利用規約に違反している可能性があります」という警告も表示した。 このリクエストが OpenAI のコンテンツ ポリシーのどの部分に違反したかは不明です。しかし、404 Mediaは、OpenAIの利用規約には、ユーザーが「サービスのモデル、アルゴリズム、システム、またはシステムのソースコードまたは基礎となるコンポーネントを逆アセンブル、逆コンパイル、逆アセンブル、翻訳、またはその他の方法で発見しようとしてはならない(かかる制限が適用法に違反しない限り)」と明記されており、ユーザーが「サービスからデータまたは出力を抽出するための自動またはプログラムによる手段」を使用することも制限されていると指摘した。 |
<<: NeuRAD: 自動運転のためのニューラル レンダリング (複数のデータセットでの SOTA)
人工知能は偉大で強力だ、多くの人がそう思っていると思います。実際、私たちはコードのスキャンなど、人工...
メタはメタバースの「感情カード」をプレイしました。彼は達人だと言わざるを得ません!ぬいぐるみ犬のメタ...
近年、人工知能は、特にビッグデータと組み合わせて使用されることで、ますます人気が高まっています。...
マイクロソフトは、人工知能システムのためのより責任ある枠組みを構築する取り組みの一環として、画像分析...
現在、大規模言語モデル (LLM) は、自然言語処理 (NLP) の分野で変化の波を引き起こしていま...
最近、ガートナーはデータ サイエンスおよび機械学習 (DSML) プラットフォームに関するマジック ...
ニューヨーク市警察は、その「ユートピア的」技術に対する激しい批判を受け、米国企業ボストン・ダイナミク...
実は、似たような事件は以前にも起きている。江蘇省衛星テレビの番組「The Brain」では、百度脳が...
数日前、Intelは生成AI用のAIチップGaudi3を含む一連の新しいCPUを発売しました。計画に...
「本を読む」ことしかできない大規模な言語モデルは、現実世界の視覚的認識を備えているのでしょうか?文字...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...