TensorFlow プロダクト マネージャー: 今後 10 年間で機械学習はソフトウェアとハ​​ードウェアをどのように変えるのでしょうか?

TensorFlow プロダクト マネージャー: 今後 10 年間で機械学習はソフトウェアとハ​​ードウェアをどのように変えるのでしょうか?

最近、Google Brain の従業員であり TensorFlow プロダクト マネージャーでもある Zak Stone 氏が、シリコンバレーの起業家コミュニティである South Park Commons で講演を行い、TensorFlow、XLA、Cloud TPU、TFX、TensorFlow Lite などのさまざまな新しいツールやトレンドが機械学習の未来をどのように形作っているのかについて語りました。同時に、彼はまだ公表されていないいくつかの興味深い事柄についてもほのめかした。

講演のタイトルは「Tensor Flow、Cloud TPU、ML の進歩」です。以下は、South Park Commons の公式ブログからまとめた講演全体の要約です。

プラットフォームとして、TensorFlow は大きな賭けです。高速で、柔軟性があり、本番環境で使用できるものでなければなりません。実験と実行の間の移行は、エンジニアリングの生産性を確保するのに十分な速さでなければなりません。静的画像の計算は、Python などの高水準で柔軟な言語で表現され、グラフのコンパイルにより、特定の目標に対する精度の最適化が可能になります。

オープンソース プロジェクトとして、TensorFlow は非常に成功しています。2015 年 11 月のリリース以来、Github で 20,000 件を超えるコミットを獲得しています。 TensorFlow の Github バージョンは、少なくとも週に 1 回、Google の内部イメージ ファイルと双方向に同期されます。同時に、TensorFlow は、Intel、Microsoft、IBM、Rstudio、Minds.ai などの企業の R&D チームから、あらゆる規模の貢献も受けています。

より多くのユーザーにリーチするために、モバイル デバイスで TensorFlow モデルを実行する効率を向上できる TensorFlow Lite が今年後半にデバイスに組み込まれる予定です。XLA などのプロジェクトはさらに野心的です。XLA はディープラーニングを使用して線形代数要素の事前コンパイルとジャストインタイム コンパイルをサポートし、任意のターゲット バックエンド システム用の高速コードを生成します。 XLA の目標は、GPU アーキテクチャだけでなく、線形代数要素を並列化できるあらゆるアーキテクチャにおいて、階層的最適化における大きな進歩を達成することです。

Google では、CEO の Sundar Pichai 氏の「AI ファースト」企業になるという呼びかけの下、多くのプロジェクトに TensorFlow が適用されています。

機械学習ベースのソフトウェア開発の加速化の傾向は、Googleだけに起きているわけではありません。Amazon、Apple、Baidu、Facebook、Microsoft、Salesforce、Uber、Lyftなど、ほとんどすべての主流テクノロジー企業も、機械学習の産業化を推進するために専門的な研究開発チームを採用しています。これらの企業の中には、Facebook の PyTorch や Caffe2、Microsoft の CNTK、Apple の Core ML、Amazon の MXNet など、さまざまなディープラーニング開発プラットフォームがあります。

今後 10 年間のソフトウェア エンジニアリングはどのようになるでしょうか?

機械学習の台頭は、元々のクリーンな抽象化とモジュール設計が、高次元浮動小数点テンソルと効率的な行列乗算に置き換えられていることを意味します。

この傾向が続けば、ソフトウェアエンジニアリング業界は変化するでしょう。

Google のソフトウェア エンジニアである D. Sculley 氏はかつて、「機械学習: 技術的負債という高利のクレジットカード」というタイトルの記事を執筆し、機械学習システムが不適切なソフトウェア設計を誘発し、さらには不適切な設計を必要とするさまざまな可能性を列挙しました。同氏は、「これらのシステムの基本コードは通常のコードと同じ複雑さだが、システムレベルではより複雑であり、潜在的なリスクにつながる可能性がある」と述べた。(https://research.google.com/pubs/pub43146.html)

機械学習システムは、すべてのシステム入力を緊密に結合することでモデルの境界と抽象化を曖昧にします。望ましい動作の不変量は、ソフトウェア ロジックからではなく、それを駆動する特定の外部データから得られます。静的分析とグラフ接続を使用してコードの信頼性を識別するツールはありますが、一般にこれらのツールにはデータの相関関係を分析する機能はありません。

D Sculley らは論文の中で、システム設計におけるいくつかの欠点について論じており、それは関連する実務家の共感を呼んでいます。

1. グルー コード システム設計スタイル、「さまざまな目的でインストール パッケージとの間でデータを転送するために、大量のサポート コードを記述する必要がある」

2. パイプラインのジャングルは時間の経過とともに有機的に進化し、データ準備システムは「スケープ、結合、サンプリングのステップが絡み合った混乱状態になり、中間ファイル出力が発生することがよくあります」。

3. システムや生産ラインの開発に伴って蓄積される構成負債とは、「使用する機能、データのフィルタリング方法、特定の学習アルゴリズムの設定(範囲は多岐にわたる)、潜在的な前処理または後処理、検証方法など、さまざまなコンパイル オプション」の集合です。

より小規模で軽量なプロジェクトであっても、エンジニアは依然として次のような問題に悩まされています。

1. 実験で使用されるモデル アーキテクチャと重みのバージョン - 特に、モデルが別のシステムからトレーニング モデルの一部を借用する場合、または他のモデルから重みを借用する場合。

2. データ ソースと機能バージョン。

3. 実験環境と本番環境間の移行(ドメインシフト)

4. 運用中の推論の品質を監視します。

これらの問題に対する解決策の 1 つは、機械学習モデルを本番環境で配布および提供するために Google 社内で開発されたプラットフォームである TFX です。

機械学習モデルを確実に作成および展開するために使用できるプラットフォームを作成および管理するには、トレーニング データに基づいてモデルを生成する学習者、データとモデルを分析および検証するためのモジュール、そして最終的にはモデルを運用環境に展開するためのインフラストラクチャなど、多くのコンポーネント間の慎重なオーケストレーションが必要です。データが時間の経過とともに変化し、モデルが継続的に更新されると、プラットフォームの管理が非常に困難になります。

残念ながら、これらの取り決めは通常、グルーコードと特定のスクリプトファイルを通じて 1 つずつ処理されるため、複製コストが高くなり、システムが脆弱になり、多くの技術的リスクが発生します。

TFX はこれらのプロセスとコンポーネントを標準化し、単一のプラットフォームに統合することで、プラットフォームのコンパイル プロセスを簡素化し、生産時間を数か月から数週間に短縮するとともに、プラットフォームの信頼性を確保し、サービスのクラッシュを削減します。

今後 10 年間でハードウェアはどのように変化するでしょうか?

ムーアの法則の減速により、私たちは「アーキテクチャの黄金時代」に再び突入し、さまざまなチップや命令セットの急速な発展を目の当たりにできるようになりました。

Intel の Nervana、Nvidia、Cerebras、Google などの企業はいずれも、機械学習で使用される線形代数演算を高速化できる次世代ハードウェア アーキテクチャに取り組んでいます。また、デフォルトでは、各アーキテクチャには、cuDNN のような独自の低レベルの手動で最適化されたプリミティブ ライブラリが必要です。 (cuDNN は CUDA Deep Neural Network ライブラリの略で、NVIDIA がディープ ニューラル ネットワーク専用に設計した GPU コンピューティング アクセラレーション ライブラリのセットです。)

この傾向を打破するには、同業者が XLA などのより汎用的なコンパイラ フレームワークの開発にさらに力を入れる必要があります。

Google の TPU (Tensor Processing Units) は現在、GPU の優位性を打ち破る可能性が最も高いです。各 Cloud TPU は、1 秒あたり最大 180 兆回の浮動小数点演算、64 GB の超高帯域幅のストレージ スペース、およびカスケード可能な機能を提供できます。これまでのスーパーコンピュータ アーキテクチャとは異なり、TPU は機械学習で一般的な線形代数演算専用にゼロから設計されました。

TPUはTensorFlowと統合されており、Googleは有料のクラウドサービス(Cloud TPU)を提供しています。同時に、TensorFlow Research Cloud(TFRC)プロジェクトを通じて、TPUを事前に利用したい機械学習の専門家に補助金を支給し、1,000台のCloud TPUを提供し、彼らが研究成果を論文やオープンソースソフトウェアを通じて世界に発信することを期待しています。

まとめ

グラフ コンピューティングと TensorFlow のようなディープラーニング ライブラリは、コンピューティング業界の将来の発展の主な原動力であり、ハードウェアからコンパイラ、高レベルのプログラミング言語、設計仕様に至るまで、システム アーキテクチャを再検討する原動力となります。

したがって、ソフトウェア アーキテクト、エンジニア、研究者、その他の実務者にとっては大変な作業となりますが、同時にそのプロセスは非常に刺激的なものでもあります。ザック氏はスピーチの中で次のように要約した。

これらの素晴らしいアプリケーションのほとんどは、私が大学院生だったときには実現できませんでした。人々が機械学習の技術に慣れ、今では予測できないようなことをし始めたらどうなるでしょうか。最初の TensorFlow ネイティブ製品はどのようなものになるでしょうか。」

<<:  Python での機械学習 K-means アルゴリズムの実装

>>:  こんにちは。タクシーに乗って空へ行きたいです。右へ飛んでください。

ブログ    

推薦する

2018 年の人工知能に関する 10 冊の良書のまとめ

いろいろ検索してみたところ、インターネット上にはまだ人工知能に関する本のリストがないので、自分で作っ...

NanoNets: データが限られている場合にディープラーニングを適用するにはどうすればよいでしょうか? (優れた)

私は AI をロケット船の建造に例えています。巨大なエンジンと大量の燃料が必要です。エンジンが大きく...

...

面接官はガベージコレクションアルゴリズムについて質問するのが大好きです

[[438235]]この記事はWeChatの公開アカウント「Programmer Bus」から転載し...

中国チームは、自分たちが作るペイントトランスフォーマーを提案した。ネットユーザー:これもニューラルネットワークの使用が必要です

ニューラル ネットワークが優れた画家であることは周知の事実です。スケッチを風景画に変えたり、異なるス...

素晴らしいディープラーニング コース 8 つ (評価付き)

エンジニアリング分野では、機械学習の応用は想像されているほど一般的ではありませんが、ディープラーニン...

AIは人間の絵画と「区別がつかない」芸術作品を生み出すことができる

人工知能技術(AI)の発達により、画家という職業は機械に置き換えられつつあるようです。最近、アメリカ...

人工知能の環境コストと可能性

人工知能 (AI) は、大衆文化や政治分析において、2 つの極端な形で現れることが多いです。それは、...

顔認識は「ワーテルロー」に見舞われ、ビッグデータが将来の方向性を明らかに

顔認識技術の利用が増えるにつれ、さまざまなリスクが徐々に明らかになってきています。 CCTVの「3....

MITのロボット犬がまた進化しました。砂利や氷の上でも滑らずに走れます。今回は本当に犬と同じくらい安定しています

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...

...

ブロックチェーンのコンセンサスアルゴリズムとは何ですか?

所有権や金額などの取引の基本的な特性は、基本的な数学的特性に基づいて機能する公開鍵暗号化のおかげで簡...

2021年に最も役立つ顔認識ソフトウェア9選をチェック

この記事は公開アカウント「Reading Core Technique」(ID: AI_Discov...

NVIDIA DLSS 3.5 がリリースされました!新しいAI「光再構成」は超リアルな光と影を実現し、新旧両方のグラフィックカードでサポートされています。

人工知能は世界を変えており、グラフィックス コンピューティングも例外ではありません。 5 年前、NV...

COVID-19は非接触アクセス制御の新時代を加速させる

現在、新型コロナウイルス感染症のパンデミックが世界的に拡大し、私たちの知る世界は大きく変化しています...