IT Homeは1月15日、Google Researchが最近、独自のBIG-Benchベンチマークテストを使用して「BIG-Bench Mistake」データセットを確立し、関連データセットを使用して市場で人気のある言語モデルの「エラー確率」と「エラー修正能力」に関する一連の評価研究を実施したと報じた。 Googleの研究者らは、これまで大規模言語モデルの「エラー確率」や「自己修正能力」を評価できるデータセットがなかったため、評価テスト用に「BIG-Bench Mistake」という専用のベンチマークデータセットを作成したという。 研究者らはまず、PaLM言語モデルを使用して独自のBIG-Benchベンチマークタスクで5つのタスクを実行し、次に生成された「思考の連鎖」の軌跡を修正して「論理エラー」部分を追加し、それをモデルに戻して思考の連鎖の軌跡のどこにエラーがあったかを判断したと報告されています。 データセットの精度を向上させるために、Google の研究者は上記のプロセスを繰り返し実行し、最終的に「255 個の論理エラー」を含む「BIG-Bench Mistake」と呼ばれる専用のベンチマーク データセットを作成しました。 研究者らは、「BIG-Bench Mistake」データセットの論理エラーは比較的「単純かつ明確」であるため、言語モデルが単純な論理エラーから練習を開始し、エラーを識別する能力を徐々に向上させるのに役立つ優れたテスト標準として使用できると述べています。 研究者らはデータセットを使用して市場のモデルをテストし、言語モデルの大部分は推論中に発生する論理エラーを識別して自己修正できるものの、このプロセスは「理想的ではない」ため、モデル出力のコンテンツを修正するには通常、人間の介入が必要であることを発見しました。 ▲ 画像出典: Google Research プレスリリース IT Homeはレポートから、Googleが「現時点で最も先進的な大規模言語モデル」と主張するものの自己修正能力も比較的限られていることを発見した。関連するテスト結果で最も優れたパフォーマンスを示したモデルは、論理エラーの52.9%しか見つけられなかった。 Google の研究者らは、この BIG-Bench Mistake データセットはモデルの自己修正能力の向上にも役立つと主張している。関連するテスト タスクでモデルを微調整した後、「通常、小さなモデルでも、サンプル プロンプトがゼロの大きなモデルよりもパフォーマンスが向上します。」 これを踏まえて、Googleは、モデルのエラー修正という点では、独自の小さなモデルを使って大きなモデルを「監督」できると考えています。大きな言語モデルに「自身のエラーを修正」することを学習させるのに比べて、大きなモデルの監督専用の小さな専用モデルを展開することは、効率の向上、関連するAI展開コストの削減、微調整の容易化につながります。 |
<<: ソフトウェア開発者ガイド: 独自のデータで ChatGPT をトレーニングする
>>: インテリジェントな変革の時代を迎える: AIでビジネスの未来をリードする
[[204425]]序文ディープラーニングは、画像処理、音声認識、自然言語処理の分野で大きな成功を収...
報道によると、APICloudが主催するAI時代のモバイル技術変革カンファレンスが2018年1月5日...
さあ、手払いについて学んでみましょう〜アマゾンはこのほど、自社が開発した手のひら認識技術「Amazo...
夕食後に AI について話さないと、社会の一員ではないような気がします。しかし、ネットワーク インテ...
多くの企業が、ロボティック・プロセス・オートメーション(RPA)を監督することを主な責務とする最高オ...
俳優や声優(声優)の保護に取り組む日本俳優協会は6月14日、「生成型人工知能技術の活用に関する提言」...
元のアルゴリズムに並列戦略を適用するのは難しいため、他のアルゴリズムのバリアントである pegaso...
画像を生成するための大規模なモデルがコンピュータービジョンやグラフィックスの基礎となっている一方で、...
[[254737]]小中学生の91.7%が、AI関連のコンテンツについて学ぶことに多少なりとも非常...