[51CTO.com クイック翻訳] 先週、Intel は分散型ディープラーニング用のオープンソースの Spark 駆動型フレームワークである BigDL プロジェクトをリリースしました。大手 IT メーカーが機械学習フレームワークを発表していることを考えると、CPU 大手が遅れをとる理由は確かにありません。 しかし、最も注目すべきは、Intel のプロジェクトが Spark クラスターで機械学習ソリューションを構築する上でどのように役立つかではなく、このチップ大手が GPU と最後まで戦うという野心である。
大きな野望 BigDL は主に、機械学習を使用して Spark または Hadoop クラスター内のデータを処理するユーザー、特に Caffe または Torch ライブラリの使用をすでに開始しているユーザーを対象としています。 BigDL のディープラーニング アプローチは Torch と非常によく似ています。 BigDL を使用すると、両方で作成されたモデルをインポートして Spark プログラムで実行できます。さらに、Spark を使用すると、このようなワークロードをクラスター全体にスケールアウトできます。 ただし、GPU アクセラレーションを使用してプロセスの進歩を実現する他の機械学習フレームワークとは異なり、BigDL は Intel の Math Kernel を使用します。含まれている数学関数は、マルチスレッド実行と Intel 固有のプロセッサ拡張用に最適化されており、このチップ大手は Python ディストリビューションを含むいくつかのプロジェクトでこれについて言及しています。 Intel は、BigDL での処理は「シングルノード Xeon 上の既製のオープンソース Caffe、Torch、または TensorFlow よりも数桁高速である (つまり、主流の GPU ソリューションと比較して)」と主張しています。ただし、BigDL ライブラリ自体には、この主張を裏付ける特定のベンチマーク結果はありません。 GPU アクセラレーションが機械学習ライブラリの標準的な高速化オプションになりつつあるのに、なぜ Intel はデフォルトで GPU サポートを組み込まないのでしょうか。一見すると、これは Spark が従来 GPU アクセラレーション対応製品ではないためと思われます。しかし、この考え方は実際には意味をなさない。なぜなら、IBM はすでに対応するプロジェクトを立ち上げており、商用 Spark ベンダーの Databricks は昨年末に自社のサービスに GPU アクセラレーション Spark のサポートを追加しているからだ。理論上、BigDL は GPU アクセラレーション Spark と完全に連携できますが、Intel の全体的な計画は明らかに異なります。 ハードウェア戦争 Intel は、Xeon Phi プロセッサ ラインでハイエンド コンピューティング市場の GPU と戦ってきました。 Intel は、Xeon Phi プロセッサを PCIe アドイン カードの形で GPU としてパッケージ化し、OppoenMP や OpenCL などのソフトウェア ツールを組み込んで、ハードウェアでの同時処理と高速処理を可能にしています。 (Intel は Nervana という機械学習ハードウェアメーカーも買収しており、同社はおそらく自社製品を PCIe アドイン カードとして提供すると思われます。) これはすべて、開発者により多くの選択肢があることを意味します。理論的には、既存のソフトウェアを Xeon Phi で実行することは、GPU アーキテクチャに移植するよりもはるかに少ないコード変更で実現できます。これは、Xeon Phi アドイン カードを使用して構築されたシステムは、ラック全体を交換することなく、カードを差し込むだけでアップグレードまたは拡張できるため、操作が簡単になることも意味します。 この点で、BigDL は Intel の将来の開発計画をサポートする重要な概念実証アプリケーションの 1 つと見ることができます。しかし、業界全体の勢いは明らかに GPU に傾いています。ただし、GPU アクセラレーションに使用されるほとんどのソフトウェアは、別のハードウェア ベンダー (CUDA を使用する NVIDIA) によって設定された客観的な標準に従う必要があります。さらに、Spark やその他のライブラリが GPU アクセラレーション メカニズムを本格的に導入し始めていることを考えると、開発者はこれによってもたらされるメリットを享受するためにそれほど多くの労力を費やす必要はありません。 Intel は BigDL などのライブラリを使用することで一定の競争上の優位性を獲得することができましたが、長期的には、機械学習の歴史的な車輪は依然として GPU サポートに向かって回転し続けています。 原題: Intel の BigDL ディープラーニング フレームワークが GPU を CPU に押し付ける、原著者: Serdar Yegulalp [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
<<: [乾物] Tencent Cloud FPGA 上のディープラーニング アルゴリズム
>>: 大規模な機械学習: データサイエンスを本番システムアーキテクチャに導入するための典型的なパターン
論文:混合モデルアプローチによる電子商取引プッシュ通知での補完製品の推奨論文リンク: https:/...
現在のオープンワールド オブジェクト検出モデルのほとんどは、テキスト クエリ モデル、つまりカテゴリ...
ロボティック プロセス オートメーション (RPA) は、今日のデジタル サポート エクスペリエンス...
今最もホットな分野といえば、間違いなく「人工知能」でしょう。給与面でも人材ギャップの面でも、この分野...
[[436858]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...
最近、GoogleがColaboratory(Colab)サービス上のディープフェイクプロジェクトを...
著者の個人的な考え自動運転の分野では、BEV ベースのサブタスク/エンドツーエンド ソリューションの...
ディープラーニング (DL) は、再帰型ニューラル ネットワーク、長期短期記憶、畳み込みニューラル ...
この記事では、ロボット開発で使用される最も人気のあるプログラミング言語のトップ10を見ていきます。そ...
私たちはほぼ毎日、人工知能と医療業界におけるその応用に関する最新の記事を読んでおり、医療機関などのク...
人間は、脳内の神経系が外部環境の変化に継続的に適応するためにその構造を変える能力を持っていることを証...