Google が発表した新しい研究論文では、音声検索や YouTube 動画へのテキスト説明やタグの追加など、音声認識プログラムの背後にあるデータ サイエンスが詳しく説明されています。ほとんどの人はアルゴリズムを習得できませんが、その考え方は完全に理解できます。この論文の出発点は、人々がビッグデータに魅了される理由と、仕事に適したデータセットを選択することの重要性です。 Google は、データが多ければ多いほど良いと常に信じてきました。製品開発ディレクターの Peter Norvig 氏の言葉を借りれば、「データが多ければ多いほど、アルゴリズムが優れているよりも良い」のです。ノルヴィグの評価にはアルゴリズムに関する細かい指摘がまだ残っているものの、この論文を受け入れた人が増え、ビッグデータの分野で白熱した議論が巻き起こったことは明らかだ。モデルが学習するデータが増えるほど、たとえ最初は最も正確でなかったとしても、モデルの精度は高まります。 では、これ以上前置きせずに、音声認識システムの改善において、より多くのデータが果たす役割について見ていきましょう。研究者らは、データセットと大規模言語モデル(Google の開発に関わった n グラム モデルの Wikipedia による説明)により、最初の単語を受け取った後に次の単語を推測する際のエラー率を削減できることを発見しました。たとえば、Google の上級研究員は 10 月 31 日の研究に関するブログ投稿で次のような例を挙げています。「優れたモデルであれば、最初の 2 つの単語が「ニューヨーク」の場合、次の単語を推測する際に「グラノーラ」ではなく「ピザ」を選択する可能性が高くなります。」音声検索を行う際、彼のチームは、モデルのサイズが 2 桁増加するごとに、関係語のエラー率が 10% 減少することを発見しました。 ここで重要なのは、データセットの種類に関係なく、どのタイプのデータセットがモデルにとって有益であるかということです。検索テストでは、Google は google.com への匿名クエリのランダム サンプルを使用して、スペル修正に表示されなかった 230 語を検索しました。人間の話し方や書き方は通常の入力による検索方法とは異なるため、YouTube のモデルのデータはニュース レポートの録音や大規模な Web サイトからのスクレイピングから取得されます。 「純粋に言語モデル化の観点から言えば、トピックや話し方の多様性により、大規模なウェブクロールは言語モデル化に適した選択肢となる」と彼らは書いている。 この研究は必ずしも画期的なものではありませんが、ビッグデータとデータサイエンスが今日これほど注目を集めている理由を説明しています。消費者がよりスマートなアプリケーションとよりシームレスなユーザー エクスペリエンスを要求するにつれて、あらゆるデータの選択と各データに対応する分析ソリューションが間違いなく最優先事項になります。 |
>>: 基本的なアルゴリズムについての簡単な説明: AVL ツリーとスプレイ ツリー (パート 3)
ロイター通信は12月、米国国家安全保障局(NSA)が、携帯端末で広く使用されている暗号化技術にバック...
【51CTO.comオリジナル記事】 [[193891]] 人工知能は、1956 年のダートマス会...
これはおそらく、マルチラベル分類のための最も実用的なヒントです。ご存知のとおり、バイナリ分類タスクは...
5月21日、国務院新聞弁公室の記者会見で、李小鵬交通運輸大臣はわが国の自動運転の発展についての質問に...
[[408123]]最近、Google Brain チームは Vision Transformer ...
関連データによると、今年上半期、わが国のカラーテレビ市場の累計販売台数は2,000万台未満で、前年同...
顔認識技術は、Google、Facebook、Alibaba、Tencent、Baiduなどの国内外...
Leifeng.com によると、「部屋の中の象」という外国の慣用句は、「ワニの涙」と同じくらい有...
[[349418]]序文今回紹介するトライ辞書ツリーは、データ構造トピックの分岐です。トライのツリー...
政府の電気自動車推進のビジョンに後押しされ、電気自動車業界はここ数年で大きな勢いを増しています。さら...
[[242145]]ビッグデータダイジェスト制作編集者: Luo Ran、Xue Qing、Ail...