12月5日、Googleの研究者グループは、OpenAIの人工知能チャットボットChatGPTのトレーニングデータの一部を入手する方法を発見したと主張した。 新しく公開された論文の中で、Google の研究者は、特定のキーワードによって ChatGPT がトレーニングに使用したデータセットの一部を漏洩させる可能性があることを明らかにしました。 例えば、モデルは「poem」という単語を永遠に繰り返すように指示された後、本物の電子メールアドレスと電話番号のように見えるものを生成したという。研究者らは、懸念すべきことに、攻撃中に個人情報の漏洩が頻繁に発生したと述べている。 別の例では、モデルに「company」という単語を永遠に繰り返すように要求したときに、同様のトレーニング データの漏洩が発生しました。 研究者らは、この単純な攻撃を「少しばかげている」としながらも、ブログ投稿で「我々の攻撃が成功したとは信じられない!もっと早く発見すべきだったし、発見できたはずだ」と述べた。 わずか200ドル相当のクエリを使用して、「10,000件を超える逐語的なトレーニング例を抽出」することができたと論文で述べています。 「われわれの推測によれば、競合他社はより大きな予算を動員すれば、さらに多くのデータを抽出できる可能性がある」と研究者らは付け加えた。 OpenAIは現在、ChatGPTの秘密のトレーニングデータに関していくつかの訴訟に直面している。 ChatGPTを動かすAIモデルは、インターネット上のテキストのデータベースを使用してトレーニングされており、約3000億語、つまり570GBのデータでトレーニングされたと考えられています。 提案されている集団訴訟では、OpenAIがChatGPTをトレーニングするために、医療記録や子供の情報を含む「膨大な量の個人データ」を「秘密裏に」盗んだと主張している。作家の一団も、自分たちの作品をチャットボットの訓練に利用したとして、このAI企業を訴えている。 OpenAIはGoogleの研究者の調査結果に対して、コマンドの再利用は利用規約に違反する可能性があると反応した。 デジタルメディア調査ウェブサイト 404 Media は最近、Google の研究者の調査結果を検証した。ChatGPT に「コンピュータ」という言葉を繰り返すように指示したところ、ロボットは確かにその言葉を発したが、「このコンテンツは当社のコンテンツ ポリシーまたは利用規約に違反している可能性があります」という警告も表示した。 このリクエストが OpenAI のコンテンツ ポリシーのどの部分に違反したかは不明です。しかし、404 Mediaは、OpenAIの利用規約には、ユーザーが「サービスのモデル、アルゴリズム、システム、またはシステムのソースコードまたは基礎となるコンポーネントを逆アセンブル、逆コンパイル、逆アセンブル、翻訳、またはその他の方法で発見しようとしてはならない(かかる制限が適用法に違反しない限り)」と明記されており、ユーザーが「サービスからデータまたは出力を抽出するための自動またはプログラムによる手段」を使用することも制限されていると指摘した。 |
<<: NeuRAD: 自動運転のためのニューラル レンダリング (複数のデータセットでの SOTA)
近年、機械学習ほどモノのインターネットの急速な成長を牽引したものはほとんどありません。人間の創造性を...
新しいテクノロジー、特に人工知能 (AI) の急速な台頭により、教育と指導は大きな変化の瀬戸際にあり...
パーソナライズされた推奨は、インターネット業界が DAU (Daily Active Users) ...
[[386401]] Python は安定性とメンテナンスのしやすさから、常に優れたパフォーマンス...
規模に関係なく、企業はニーズに合わせてカスタマイズされたビジネス インテリジェンス ツールを使用して...
確率を用いた異常検出アルゴリズム異常検出は、外れ値分析の統計タスクとして扱うことができます。 しかし...
最近、中国の Apple App Store で「奇妙な現象」が発生しました。一部のアプリケーション...
中国・北京—2018年8月15日、ロボット産業の「ワールドカップ」であり、世界的なインテリジェントテ...
2021 年は自然言語処理 (NLP) と機械学習 (ML) にとって非常に生産的な年でした。さて、...