Patronus AI が LLM に懸念すべきセキュリティ上の欠陥を発見

Patronus AI が LLM に懸念すべきセキュリティ上の欠陥を発見

自動評価および安全性プラットフォームである Patronus AI は、大規模言語モデル (LLM) における主要な安全性リスクを明らかにする診断テスト スイートである SimpleSafetyTest の結果を公開しました。この発表により、AI モデルの限界が明らかになり、特に金融などの規制の厳しい業界での AI 使用事例において改善の必要性が強調されました。

Patronus AI の調査結果は、ChatGPT のような GenAI (生成型人工知能) システムの精度と、GenAI システムがクエリに対して有害な応答を返す可能性についての懸念が高まる中で発表された。 AI の使用に対する倫理的および法的監視の必要性も高まっています。

Patronus AI SimpleSafetyTest の結果は、SEC (米国証券取引委員会) 提出書類の中で最も人気のあるオープンソース LLM の一部をテストした結果に基づいています。このテストには、児童虐待、身体的危害、自殺など、優先度の高い危害領域における脆弱性をテストするために設計された 100 のテストプロンプトが含​​まれています。 LLM のテストでの正解率はわずか 79% でした。一部のモデルでは、20% を超える安全でない応答が生成されました。

心配になるほど低いスコアは、基礎となるトレーニング データの分布に問題があることが原因である可能性があります。 LLM には「幻覚的」になる傾向もあり、事実に矛盾したり、意図せず過度に甘やかされたり、まったく意味をなさないテキストが作成されます。 LLM が不完全なデータまたは矛盾したデータでトレーニングされると、システムが関連付けを間違え、誤った出力につながる可能性があります。

Patronus AI のテストでは、LLM が SEC に記録されていない数字や事実を幻覚的に作り出すことができることが示されました。この調査では、安全性を強調するプロンプトなどの「ガードレール」を追加すると、安全でない応答を 10% 削減できることも示されましたが、リスクは依然として存在します。

2023年に設立されたPatronus AIは、間違った回答が深刻な結果を招く可能性がある、規制が厳しい業界に重点的にテストを行っています。このスタートアップの使命は、AI モデルのセキュリティリスクを評価する信頼できる第三者になることです。早期導入者の中には、Patronus AI を「AI のムーディー」と表現する人もいます。

今年初め、Patronus AI の創設者 Rebecca Qian 氏と Anand Kannappan 氏はインタビューで Patronus AI のビジョンを共有し、「企業が自信を持って言語モデルを使用できるようにする初の自動検証および安全性プラットフォーム」となり、「企業が大規模に言語モデルのエラーを見つける」のを支援することを望んでいると述べました。

SimpleSafetyTest の最近の結果では、組織が GenAI を業務に取り入れようとしているときに AI モデルが直面するいくつかの課題が浮き彫りになっています。 GenAI の最も有望な使用例の 1 つは、重要な数値をすばやく抽出し、財務に関する説明を分析できる可能性です。しかし、モデルの精度に懸念がある場合、規制の厳しい業界での適用に重大な疑問が生じる可能性があります。

最近のマッキンゼーのレポートによると、銀行業界は GenAI テクノロジーから最も大きな恩恵を受ける可能性があるとのことです。これにより、業界に毎年 2.6 兆ドルから 4.4 兆ドル相当の価値が追加される可能性があります。

ほとんどの業界では、SimpleSafetyTest での誤った回答の割合は許容範囲を超えています。 Patronus AI の創設者たちは、これらのモデルが改良され続けることで、アナリストや投資家を含む金融業界に貴重なサポートを提供できると考えています。 GenAI の大きな可能性は否定できませんが、その可能性を真に実現するには、導入前に厳格なテストを行う必要があります。

<<:  Pangu-Agentの5つのイノベーション

>>:  15人の専門家が予測:AIは2024年にサイバーセキュリティのルールを変える

ブログ    
ブログ    
ブログ    
ブログ    
ブログ    

推薦する

ガートナー: 高等教育における人工知能

人工知能 (AI) は高等教育に大きな進歩を遂げており、何らかの形で AI を導入した教育機関は、学...

Python はとても使いやすいです! AI初心者でもすぐに顔検出を体験

[[423040]] Pythonを使用してAI認識テストを実行します。具体的な方法は、リアルタイム...

人工知能技術が教育業界に与える主な影響は何ですか?

今日、人工知能技術は社会のあらゆる分野にますます大きな影響を及ぼしており、教育も例外ではありません。...

疫病と戦うための新しい技術!北京で3Dプリント/コピー防護マスクの開発に成功

流行は激しく、科学技術界は全力で流行と戦っています。北京化工大学の楊衛民教授は2月25日、21世紀ビ...

...

南京科技大学とオックスフォード大学は、1行のコードでゼロショット学習法の効果を大幅に向上させるプラグアンドプレイ分類モジュールを提案した。

ゼロショット学習は、トレーニングプロセス中に出現しなかったカテゴリの分類に重点を置いています。意味記...

OpenAIを去った偉人カパシ氏は「教え始めた」。おなじみのミニコードスタイルのまま、新しいプロジェクトが日々増えている。

偉大なカルパシー氏はOpenAIを辞任し、当初は1週間の休暇を取ると脅していた。写真しかし、瞬く間に...

...

...

世界動物の日: 動物保護と機械学習が出会うとき

動物を愛し、動物保護に尽力する世界中の人々にとって、今日は特別な日、「世界動物の日」です。毎年10月...

...

猫とチャットできるようになりました!生成型AIがもたらす包括的な革命:5年以内に初の動物言語を解読

ソロモンが動物とコミュニケーションをとることができたのは、魔法のアイテムを持っていたからではなく、観...

ガートナー:持続可能性とデジタル主権がパブリッククラウドベースのAIサービスを選択する際の最重要基準となる

ガートナーは、2027 年までに、生成型人工知能 (生成型 AI) を導入する企業の 70% が、持...

...