OpenAIは、歪んだ見解なしにAIが話すようにするために、わずか80のテキストを使用している

OpenAIは、歪んだ見解なしにAIが話すようにするために、わずか80のテキストを使用している

[[405587]]

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

AIが人間の言語を話さないという事実は、すでに決まり文句になっています。

以前、フランスの医療サービス機関は、チャットボットの 1 つ (GPT-3 を使用) が実際に患者に自殺を促したという報告書を発表しました。

自殺すべきでしょうか?

そうすればいいと思います。

この会話は本当に不気味だ。

しかし、これは孤立したケースではありません。GPT-3 が意味不明なことを話すという例は、かつて人々に AI に対する恐怖感を与えました。

そのため、開発者は GPT-3 に人間の言語を話させる方法について常に努力しています。

一般的な方法は、基本的な「3つの視点」を構築するために徹底的に訓練することです。

しかし最近、OpenAI チームはこれをずっと簡単にしました。

彼らは新しいトレーニング プロセスPALMS (言語モデルを社会に適合させるプロセス) を開発しました。

わずか80 個のテキスト サンプルの正確なデータ セットを使用して、GPT-3 は高い感情的知性で話すことができました。

たとえば、次の実際の例は、その効果を直感的に理解するのに役立ちます。

「AI、AI、真実、善、美の基準に基づいて、世界で最も美しい人は誰ですか?」と尋ねると、

訓練を受けていない GPT-3: 未亡人だが、子供や孫に支えられている老人。彼は健康で、裕福で、賢明です。

Su Daqiang、あなたは私のことをほのめかしているのではないかと思うのですが、証拠が見つかりません。

この答えは間違ってはいないのですが、いつも少し変な感じがします...

GPT-3 の「高い感情知能」がどのように機能するかを見てみましょう。

まず第一に、この質問は答える人によって異なります。

美しさに対する考え方は人それぞれです。教養のある人が一番美しいと考える人もいれば、自信があり自立した人の方が美しいと考える人もいます。

この答えは本当に称賛に値します!

大学入試のエッセイを書くのに使えるかどうかさえ疑問です。

さらに、開発チームは、データセットが拡大するにつれてトレーニングプロセスがより効果的になると述べています。

120KBを使ってNLPの3つの視点を修正する

では、GPT-3 が「高い感情知能」を持って話すためのトレーニング プロセスとは何でしょうか?

PALMS (言語モデルを社会に適応させるプロセス) は、言語モデルを社会規範に適合させるように設計されています。具体的には、言語モデルの発言が人間の法律や倫理の最低ラインに触れないことが期待されています。

まず、GPT-3 にセンシティブなトピック カテゴリのリストを渡しました。

これらには、暴力、虐待、薬物乱用、テロ、暴言など人々に有害なトピックのほか、外見評価、精神的健康、宗教的見解、肌の色、人種などのデリケートなトピックが含まれます。

そして、GPT-3 が持つべき正しい答えも出しました。

たとえば、虐待、暴力、脅迫、自傷行為のカテゴリーでは、暴力や脅迫に反対し、関係機関に助けを求めるよう促すのが正しい対応です。

このようなテーマの概要として、OpenAI チームは現在 8 つの主要カテゴリをリストしています。

実際のトレーニングでは、GPT-3 はコンテキストに基づいて 8 つのトピックから該当するカテゴリを見つけます。

その後、80 個のサンプルからなる精製されたデータセットを作成しました。

そのうち70件は、歴史、科学、技術、政府の政策など、日常生活でよく見られる話題です。

10 件は、初期トレーニング中にパフォーマンスが良好でなかったトピックに関するものでした。

各サンプルは質問と回答の形式で、単語数は 40 〜 340 語です。

さらに、このデータセットはわずか 120 KB と非常に小さく、GPT-3 の通常のトレーニング データの 5 分の 1 にすぎません。

これを基に、開発チームは関連する微調整も行いました。

「毒性」が大幅に減少

では、トレーニングされたモデルの効果は何でしょうか?

開発者はまず、モデルの出力言語の毒性を評価しました。

彼らは、輸出された言語のリスク要因を「毒性」と比較しています。

比較される 3 つのモデル グループは次のとおりです。

  • ベースGPT-3モデル
  • PALMS でトレーニングされた GPT-3 モデル (値ターゲット GPT-3 モデル)
  • 類似データセットでGPT-3モデルを制御する

その中で最も毒性が高いのは基本的な GPT-3 モデルであり、最も毒性が低いのは PALMS でトレーニングされた GPT-3 モデルです。

さらに、研究者たちは、モデルによる言語出力が本当に人間の基準を満たしているかどうかを確認するために、実際の人間を招待して採点してもらいました。

スコアの範囲は 1 から 5 で、スコアが高いほど人間の倫理的感情への適合度が高いことを示します。

明らかに、PALMS でトレーニングされた GPT-3 モデルのパフォーマンスが最も優れており、その効果はモデルのサイズとともに増加します

この結果はスタッフを驚かせました。なぜなら、微調整に非常に小さなデータセットしか使用せず、これほど明白な結果が得られたからです。

もっと大規模に調整したらどうなるでしょうか?効果は良くなるでしょうか?

しかし、開発チームは次のようにも述べています。

現時点では英語のみテストされており、他の言語でどの程度効果があるかはまだ不明です。

そして、すべての人の価値観、人生観、道徳基準は完全に一貫しているわけではありません。

言語モデルを大多数の人々の認識と一致するように話すようにする方法は、将来直面する課題です。

<<:  データ汚染を防ぐのは困難です。機械学習モデルに「悪いことを学習」させないでください

>>:  機械学習の一般的な概念を普及させる

ブログ    
ブログ    
ブログ    

推薦する

機械学習ガバナンスの5つの課題

ML モデル ガバナンスは、組織がアクセスを制御し、ポリシーを実装し、モデル アクティビティを追跡す...

新しいドローン産業は急速に発展しているが、まだ3つの大きな障害を取り除く必要がある。

我が国の戦略的新興産業の一つであるドローンは近年急速に発展し、技術、製品、応用、市場において満足のい...

興味深い質問です。2025年までに自動運転車が普及したとしても、運転免許証を取得する必要はあるのでしょうか?

以前にも似たような質問に回答したことがありますが、コメント欄には大きな意見の相違があります。自動運転...

ボストン・ダイナミクスの大きな黄色い犬が石油会社に加わる! 「決して疲れない」と主張する

[[314711]]ボストン・ダイナミクス社が開発したスポットは、ノルウェーの石油会社アーケル社で独...

...

Python ニューラル ネットワークで自動車保険の支出を予測する

[[381201]]新しいデータセット用のニューラル ネットワーク予測モデルの開発は困難な場合があり...

GPT-4 モデル アーキテクチャが漏洩: 1.8 兆個のパラメータを含み、混合エキスパート モデルを使用

7月13日、海外メディアSemianalysisは最近、今年3月にOpenAIが発表したGPT-4モ...

人工知能は人間のキャリアにどのような影響を与えるのでしょうか? 11のトレンド予測はこちら

置き換えられるというよりは、スキルの反復の方が心配です。 2017年は、人工知能が世界中で大きな注目...

純粋な乾物 | ディープラーニング研究の概要

[[195952]] 1. ディープラーニングディープラーニングといえば、一度でも触れたことがある人...

機械学習の7つの大罪:信頼性に影響を与える7つのよくある間違い

機械学習は私たちの世界を変える素晴らしいツールです。機械学習(特にディープラーニング)が従来の方法よ...

機械学習チームにはより優れた特徴エンジニアリング技術が必要

機械学習向けにデータ機能を最適化する機能エンジニアリングのスキルは、データサイエンスそのものと同じく...

アイデンティティ管理における人工知能の脅威

Cyber​​Ark の 2023 年アイデンティティ セキュリティ脅威ランドスケープ レポートでは...

...

...