[51CTO.com クイック翻訳] 調査によると、Google Cloud AI および機械学習プラットフォームにはいくつかの機能が欠けており、まだベータ段階ですが、その範囲と品質は業界でも依然として最高レベルです。
Google は業界最大規模の機械学習スタックを保有しており、現在は Google Cloud AI と機械学習プラットフォームを中心に構築されています。 Google は数年前に TensorFlow をオープンソース化しましたが、TensorFlow は今でも最も成熟しており、広く引用されているディープラーニング フレームワークです。同様に、Google は数年前に Kubernetes をオープンソース ソフトウェアとして分離しましたが、Kubernetes は依然として主要なコンテナ管理システムです。 Google Cloud Platform は、開発者、データ サイエンティスト、機械学習の専門家にとって最適なツールとインフラストラクチャのソースの 1 つですが、Google Cloud AI はこれまで、本格的なデータ サイエンスやプログラミングのバックグラウンドを持たないビジネス アナリストにとってはあまり魅力的ではありませんでした。それが今変わり始めています。 Google Cloud AI および機械学習プラットフォームには、AI ビルディング ブロック、AI プラットフォームとアクセラレータ、AI ソリューションが含まれます。これらは、データ サイエンティストではなくビジネス エグゼクティブを対象とした比較的新しい AI ソリューションであり、Google またはそのパートナーからのコンサルティングが含まれる場合があります。 事前にトレーニング済みでありながらカスタマイズ可能な AI ビルディング ブロックは、プログラミングやデータ サイエンスの知識がなくても使用できます。それでも、データ サイエンティストは実用的な理由からこれらを使用することが多く、基本的には大規模なモデル トレーニングを行わずに作業を完了できます。 AI プラットフォームとアクセラレータは通常、データ サイエンティストを対象としており、コーディング スキル、データ準備手法の知識、およびかなりのトレーニング時間が必要です。このため、関連するビルディングブロックを試してから実装することをお勧めします。 Google Cloud AI サービスには、特にデータ準備に関して、まだ欠けている部分がいくつかあります。 Google Cloud のデータ インポートおよび調整サービスに最も近いのは、Trifacta のサードパーティ Cloud Dataprep です。ただし、Cloud AutoML Tables に組み込まれている特徴エンジニアリングは有望であり、このサービスを他の状況で使用すると便利です。 AI のダークサイドは、説明責任 (またはその欠如) と永続的なモデル バイアス (多くの場合、トレーニングに使用される偏ったデータによる) に関係しています。 Google は 2018 年に AI 原則を発表しました。これはまだ進行中の作業ですが、最近 Responsible AI に関するブログ投稿で説明されたガイダンスの基礎となります。 Google には AI 市場で多くの競合相手がおり、パブリック クラウド市場にも多くの競合相手がいます (クラウド コンピューティング ベンダーは 6 社以上あります)。公平に比較してまとめると、AWS は Google Cloud でできることのほとんどを非常にうまく実行できますが、一般的に価格は高くなります。 Google Cloud の AI ビルディング ブロックには、機械学習の専門知識はあまり必要ありませんが、事前トレーニング済みのモデルと自動トレーニングに基づいています。 AI プラットフォームを使用すると、ユーザーは独自の機械学習およびディープラーニング モデルをトレーニングして展開できます。 Google Cloud AI の構成要素 Google Cloud AI ビルディング ブロックは、ユーザーが独自のアプリケーションに組み込んで、ビジョン、言語、会話、構造化データを追加できる使いやすいコンポーネントです。多くの AI ビルディング ブロックは、事前トレーニング済みのニューラル ネットワークとして提供されますが、ニーズを満たさない場合は、転移学習とニューラル ネットワーク検索を使用してカスタマイズできます。 AutoML Tables が他と異なるのは、データ サイエンティストが表形式のデータセットに最適な機械学習モデルを見つけるために使用するプロセスを自動化する点です。 オートML Google Cloud AutoML サービスは、言語ペアの翻訳、テキスト分類、オブジェクト検出、画像分類、ビデオオブジェクトの分類と追跡のためのカスタマイズされたディープ ニューラル ネットワークを提供します。トレーニングにはラベル付けされたデータが必要ですが、ディープラーニング、転移学習、プログラミングに関する深い知識は必要ありません。 Google Cloud AutoML では、ユーザーのラベル付きデータに合わせて、Google がテストした高精度のディープ ニューラル ネットワークをカスタマイズできます。 AutoML は、モデルをゼロからではなくデータからトレーニングします。また、AutoML により、言語ペアの翻訳や上記のその他のサービスに対して、自動ディープ トランスファー ラーニング (他のデータでトレーニングされた既存のディープ ニューラル ネットワークから開始する) とニューラル アーキテクチャ検索 (追加のネットワーク レイヤーの適切な組み合わせを見つける) が可能になります。 これらの各分野において、Google はすでにディープ ニューラル ネットワークと大量のラベル付きデータに基づく 1 つ以上の事前トレーニング済みサービスを備えています。これらの方法は変更されていないデータでも機能する可能性が高いため、ユーザーは時間とコストを節約するためにこれをテストする必要があります。そうでない場合、Google Cloud AutoML を使用すると、転移学習の実行方法やニューラル ネットワークの設計方法を知らなくても、それを実現するモデルを作成できます。 転移学習には、ニューラル ネットワークを最初からトレーニングするのに比べて、主に 2 つの利点があります。まず、ネットワークのほとんどの層がすでに十分にトレーニングされているため、必要なトレーニング データが大幅に少なくなります。 2 番目に、最後のレイヤーのみを最適化するため、トレーニングが速くなります。 Google Cloud AutoML サービスは従来、パッケージで一緒に提供されていましたが、現在はその基本的な事前トレーニング済みサービスがリストされています。他のほとんどの企業が AutoML と呼んでいるものは、Google Cloud AutoML Tables によって実行されます。 これをテストするために、サンプルの Google 画像から AutoML Vision カスタム花分類器を 1 時間でトレーニングし、近くの美術館で撮影されたチューリップの写真と比較しました。 AutoML テーブル 多くの回帰問題や分類問題の場合、通常のデータ サイエンス プロセスは、トレーニング用のデータ テーブルを作成し、データをクリーンアップして整理し、特徴エンジニアリングを実行し、変換されたテーブルで適切なモデルのトレーニングを試行することです。これには、最適なモデルのハイパーパラメータを最適化する手順も含まれます。ターゲット フィールドを手動で識別した後は、Google Cloud AutoML Tables でプロセス全体を自動化できます。 AutoML Tables は、Google のモデル ズー内の構造化データを自動的に検索し、線形/ロジスティック回帰モデル(より単純なデータセット用)から高度なディープ検索、アンサンブル検索、アーキテクチャ検索手法(より大規模で複雑なモデル用)に至るまで、最適なモデルを見つけます。さまざまな表形式のデータ プリミティブ (数値、クラス、文字列、タイムスタンプ、リストなど) の特徴エンジニアリングを自動化し、欠損値、外れ値、その他の一般的なデータの問題を検出して対処するのに役立ちます。 コード不要のインターフェースにより、エンドツーエンドの機械学習ライフサイクル全体にわたってユーザーがガイドされるため、チームの誰もが簡単にモデルを構築し、より広範なアプリケーションに確実に統合できます。 AutoMLTables は、入力データとモデルの動作に対する広範な解釈機能を提供し、一般的な間違いを防ぎます。 AutoMLTables は、API 環境とノートブック環境の両方で利用できます。 AutoML Tables は、他のいくつかの AutoML 実装およびフレームワークと競合します。 AutoML Tables は、機能設計からデプロイメントまで、表形式データの予測モデルを作成するプロセス全体を自動化します。 AutoML Tables の分析フェーズでは、すべての生の特徴に関する記述統計が利用できます。 無料の Google Cloud Vision「API を試す」インターフェースを使用すると、画像を Web ページにドラッグして結果を確認できます。子供が笑っているのがわかるので、「喜び」というラベルは正しいです。しかし、アルゴリズムではかぶっている帽子を完全に識別することはできません。 ビジョンAPI Google Cloud Vision API は、画像を分類し、さまざまな特徴を抽出するための事前トレーニング済みの機械学習サービスです。このアルゴリズムは、画像に見られる一般的な物体や動物 (猫など) から一般的な状況 (夕暮れなど)、特定のランドマーク (エッフェル塔やグランドキャニオン) に至るまで、数千の事前トレーニング済みカテゴリに画像を分類し、画像の一般的な特性 (主な色など) を判別できます。顔の領域を分離し、幾何学的分析(顔の向きやランドマーク)や顔の感情分析を実行できますが、有名人(特別な使用許可が必要)を除いて、顔を特定の人物として識別することはできません。 Vision API は OCR を使用して、50 を超える言語とさまざまなファイル タイプで画像内のテキストを検出します。また、製品のロゴを認識し、成人向け、暴力的、医療的なコンテンツを検出することもできます。 ビデオインテリジェンスAPI Google Cloud の Video Intelligence API は、保存された動画やストリーミング動画内の 20,000 を超えるオブジェクト、場所、アクションを自動的に識別します。また、シーンの変化を区別し、ビデオ、スナップショット、またはフレーム レベルで豊富なメタデータを抽出することもできます。また、OCR を使用してテキストの検出と抽出、露骨なコンテンツの検出、字幕とキャプションの自動クローズ、ロゴの認識、顔、人物、ポーズの検出も行います。 Google では、Video Intelligence API を使用してメタデータを抽出し、ユーザーの動画コンテンツをインデックス作成、整理、検索することを推奨しています。ビデオを録画してクローズドキャプションを生成し、不適切なコンテンツにフラグを付けてフィルタリングすることができ、手動録画よりもコスト効率に優れています。使用例には、コンテンツのモデレーション、コンテンツの推奨、メディアのアーカイブ、広告などがあります。 自然言語API 自然言語処理 (NLP) は Google 検索や Google アシスタントへの入力を非常にうまく機能させる秘密のソースの大きな部分を占めています。 Natural Language API は、同じテクノロジーをユーザー プログラムに公開します。 10 言語で文法分析、エンティティ抽出、感情分析、コンテンツ分類を実行できます。ユーザーが言語を知っている場合は、それを指定できます。それ以外の場合、API は言語を自動的に検出しようとします。現在、ヘルスケア関連のコンテンツに特化した別の API がリクエストに応じて利用可能です。 翻訳API 翻訳 API は 100 以上の言語を翻訳できます。ユーザーが指定しない場合は、ソース言語を自動的に検出し、基本翻訳、高度な翻訳、メディア翻訳の 3 つのバージョンを提供します。高度な翻訳 API は、語彙、バッチ翻訳、カスタム モデルの使用をサポートします。基本翻訳 API は、基本的に、コンシューマー向け Google 翻訳インターフェースで使用される API です。 AutoML Translation を使用すると、ユーザーは転移学習を使用してカスタム モデルをトレーニングできます。 Media Translation API は、12 の言語のオーディオ ファイルまたはストリーミング ファイルからコンテンツを直接変換し、句読点を自動的に生成します。ビデオと電話通話の音声にはさまざまなモデルがあります。 テキスト読み上げ Text-to-Speech API は、プレーンテキストと SSML マークアップを音声に変換でき、200 種類以上の音声と 40 種類以上の言語とバリエーションから選択できます。その変種には、米国、英国、南アフリカ、インド、アイルランド、オーストラリアの言語など、さまざまな国や民族のアクセントが含まれます。 その基本的な音は、かなり機械的に聞こえることが多いです。 WaveNet の音声は一般的に自然な感じがしますが、使用コストが高くなります。ユーザーは、独自のスタジオ品質の録音からカスタム サウンドを作成することもできます。 ユーザーは、合成音の速度を最大 4 倍まで上げたり下げたりすることができ、ピッチを 20 半音ずつ上下にシフトできます。 SSML タグを使用すると、ユーザーは一時停止、数字、日付と時刻の形式、その他の発音指示を追加できます。音量ゲインを最大 16 デシベルまで上げたり、音量を最大 96 デシベルまで下げたりすることもできます。 音声テキスト変換 Speech-to-Text API は、Google の高度なディープラーニング ニューラル ネットワーク アルゴリズムを使用して、音声をテキストに変換し、自動音声認識 (ASR) を実現します。 125 を超える言語とバリエーションをサポートし、オンプレミス(ライセンスあり)だけでなく Google Cloud Platform にも導入できます。 Speech-to-Text は、短いオーディオ サンプル (1 分以下) の場合は同期して実行でき、長いオーディオ (最長 480 分) の場合は非同期で実行でき、リアルタイム認識のためにストリーミングできます。 ユーザーは、ドメイン固有の用語やまれな単語を書き起こすためのプロンプトを提供することで、音声認識をカスタマイズできます。ビデオ、電話、コマンド、検索用の特殊な ASR モデルと、「デフォルト」(その他すべて) があります。ユーザーは API リクエストにエンコードされたオーディオを埋め込むことができますが、多くの場合、ユーザーは Google Cloud Storage バケットに保存されているバイナリ オーディオ ファイルへの URI を提供します。 ダイアログフロー Dialogflow Essentials は、音声テキスト変換とテキスト読み上げを基盤としており、単一トピックの会話を行う小さなボットのテンプレートとして、40 を超える構築済みエージェントを活用できます。 Dialogflow CX は、チャットボット、ボイスボット、IVR (対話型音声応答) ボットなどの会話型 AI アプリケーションを作成するための高度な開発キットです。これには、ビジュアル ボット構築プラットフォーム (下のスクリーンショットを参照)、コラボレーションおよびバージョン管理ツール、高度な IVR 機能のサポートが含まれており、企業の規模と複雑さに合わせて最適化されています。 Dialogflow CX は、複雑な音声対話型仮想エージェントの設計者です。ここでデザイナーは「store.location」というインテントに対して 10 個のフレーズをリストしています。類似のフレーズも認識されます。 推論API 時系列データでは、多くの場合、何らかの特別な処理が必要になります。特に、大規模な履歴データセットの処理に加えて、ストリーミング データに対してリアルタイムでデータ処理を実行したい場合には、この処理が必要になります。現在限定的なアルファテスト中の、完全に管理されたサーバーレス Inference API は、イベントのタイムスタンプを使用して傾向と異常を検出し、最大数百億のイベントを含むデータセットを処理し、1 秒あたり数千のクエリを実行し、低レイテンシで応答できます。 推奨API 機械学習を使用して効果的な推奨システムを構築することは、困難で時間のかかる問題であると考えられています。 Google は、現在ベータ版である推奨 API を使用してこのプロセスを自動化しました。この完全に管理されたサービスは、データの前処理、機械学習モデルのトレーニングと調整、インフラストラクチャのプロビジョニングを処理します。また、偏りや季節性も修正します。 Analytics 360、タグ マネージャー、Merchant Center、Cloud Storage、BigQuery などの関連する Google サービスと統合されます。初期のモデルのトレーニングとチューニングは完了するまでに 2 ~ 5 日かかります。 Google Cloud AI プラットフォーム Google Cloud AI プラットフォームとアクセラレータは、開発者、データ サイエンティスト、データ エンジニアを対象としています。ほとんどの場合、Google Cloud AI プラットフォームを使用して問題を解決するのは、大規模な取り組みになる可能性があります。ユーザーが AI ビルディング ブロックを使用してこの作業を回避できる場合は、そうするべきです。 Google Cloud AI Platform は、開発者、データ サイエンティスト、データ エンジニア向けにエンドツーエンドの機械学習ワークフローを促進します。これは、ユーザーがデータやコード モデルを取得するのに役立つわけではありませんが、機械学習ワークフローの残りの部分を結び付けるのに役立ちます。 Google Cloud AI Platform は、モデルのトレーニングからモデルのバージョン管理や管理まで、ほとんどの機械学習ワークフローを結び付けます。 AI プラットフォームには、複数のモデル トレーニング サービスと、GPU や TPU アクセラレータを含むさまざまなマシン タイプでのトレーニングとチューニングが含まれています。予測サービスを使用すると、ユーザーは任意のトレーニング済みモデルから予測を提供できます。これは、ユーザー自身がトレーニングしたモデルや、Google Cloud Platform でユーザーがトレーニングしたモデルに限定されません。 AI Platform Notebooks は、TensorFlow、PyTorch、その他のディープラーニング パッケージが事前構成された JupyterLab Notebooks を Google Cloud Platform の仮想マシンに実装します。 AI プラットフォーム データ ラベリング サービスを使用すると、ユーザーはモデルのトレーニングに使用するデータセットの人間によるラベル付けをリクエストできます。 AI Platform Deep Learning VM イメージは、主要な機械学習フレームワークとツール、および GPU サポートを使用して、データ サイエンスと機械学習のタスク向けに最適化されています。 AI プラットフォーム ノートブック 多くのデータ サイエンティストにとって、Jupyter または JupyterLab Notebook を使用することは、モデルと機械学習ワークフローを開発して共有する最も簡単な方法の 1 つです。 AI Platform Notebooks を使用すると、JupyterLab、Git、GCP 統合、ユーザーが選択した Python 2 または Python 3、R、Python または R コア パッケージ、TensorFlow、PyTorch、CUDA が事前構成された安全な仮想マシンを簡単に作成および管理できます。 Kaggle と Colab も Jupyter Notebooks をサポートしていますが、Kaggle は趣味人や学習専門家、Colab は研究者や学生、AI Platform Notebooks は企業ユーザーを対象としています。重い処理については、AI Platform Notebooks は Deep Learning Virtual Machines、Dataproc クラスタ、Dataflow を使用し、BigQuery などの GCP データソースに接続できます。 ユーザーは、小さな VM で開発を開始し、より多くのメモリと CPU を備えたより強力な VM にスケールアップし、ディープラーニングのトレーニングに GPU または TPU を使用することもできます。ユーザーはノートブックを Git リポジトリに保存し、他のインスタンスに読み込むこともできます。あるいは、以下で説明する AI プラットフォーム トレーニング サービスを使用することもできます。 以下は、AI Notebooks を使用した実装コードラボです。以下は実験のスクリーンショットです。内部のディレクトリの 1 つには、JupyterLab にプリロードされたサンプル ノートブックがあります。面白そうですね。 新しい Google Cloud AI Notebook インスタンスを作成するときに、環境の開始点を選択できます。仮想マシンは後で最適化できます。 コードラボは、パッケージのインポートを設定し、公開 BigQuery データセットに対してクエリを実行して、分析とモデル トレーニング用のデータを取得することから始まります。このコードラボでは、Pandas、TensorFlow、NumPy、Scikit-learn のメソッドを自由に組み合わせています。 Witwidget は Google の What-If ツールです。 Codelab はデータをインポートした後、それをテスト用とトレーニング用に分割し、単純な完全接続ニューラル ネットワークをトレーニングします。この実験の焦点は、最適なモデルをトレーニングすることではなく、Google Cloud AI Notebook をデモンストレーションすることであるため、エポックは 10 個のみで、最終的な平均二乗誤差はそれほど大きくありません。 説明可能なAIと仮説ツール TensorFlow をモデルの構築と適合のフレームワークとして使用する場合、Google の what-if 分析ツールを使用して、トレーニング データ内の値の変更がモデルにどのような影響を与えるかを理解できます。他の分野では、これは感度研究と呼ばれます。 What-If 分析ツールでは、多くの便利なグラフも表示できます。 TensorFlow モデルを適合する場合は、Cloud AI Notebook の Google What-If ツールを使用して、モデルの解釈可能性を調べることができます。 人工知能プラットフォームトレーニング 通常、モデルのトレーニングには、モデルの開発よりも多くのコンピューティング リソースが必要です。ユーザーは、Google Cloud AI Notebook または独自の小さなデータセットでシンプルなモデルをトレーニングできます。大規模なデータセットで複雑なモデルをトレーニングするには、AI プラットフォーム トレーニング サービスを使用する方がよい場合があります。 トレーニング サービスは、Cloud Storage バケットに保存されているトレーニング アプリケーションを、Cloud Storage バケット、Cloud Bigtable、またはその他の GCP ストレージ サービスに保存されているトレーニング データと検証データに対して実行します。ユーザーが組み込みアルゴリズムを実行する場合、独自のトレーニング アプリケーションを構築する必要はありません。 ユーザーは、Cloud Storage のコード パッケージを使用するモデル(現在は TensorFlow、Scikit-learn、XGBoost)のほか、Cloud Storage のカスタム コンテナ イメージを使用するモデルや組み込みアルゴリズムを使用するモデルをトレーニングできます。ユーザーは、AI プラットフォーム ディープラーニング コンテナから派生した、事前に構築された PyTorch コンテナ イメージを使用することもできます。 現在組み込まれているアルゴリズムは、XGBoost、分散 XGBoost、線形学習、ワイドおよびディープ学習、画像分類、画像オブジェクト検出、および TabNet です。画像分類と画像オブジェクト検出を除き、これらのアルゴリズムはすべて表形式のデータからトレーニングされます。現在、XGBoost を除くすべてのアルゴリズムは TensorFlow 1.14 に依存しています。 ユーザーは、AI Platform コンソールの [ジョブ] タブから、または Google Cloud AI Platform ジョブ送信トレーニング コマンドを発行して、AI Platform トレーニングを実行できます。コマンドライン呼び出しメソッドを使用すると、モデルコードを Cloud Storage バケットに自動的にアップロードすることもできます。 ユーザーは、分散 AI プラットフォームのトレーニングに分散 XGBoost、TensorFlow、PyTorch を使用できます。フレームワークごとに設定が異なります。 TensorFlow の場合、3 つの分散戦略と、トレーニング クラスターの構成を定義する「スケール クラス」の 6 つのオプションがあります。 ハイパーパラメータの調整は、異なるトレーニング プロセス変数 (学習率を設定してアルゴリズムを制御するなど) を使用してモデルを複数回トレーニング (可変の重みを設定) することによって機能します。 TensorFlow はトレーニング メトリックを概要イベント レポートで返すため、ユーザーが TensorFlow モデルでハイパーパラメータ チューニングを実行するのは非常に簡単です。他のフレームワークの場合、AI Platform トレーニングでモデルの指標を検出できるように、ユーザーはクラウド ml-hypertune Python パッケージを使用する必要がある場合があります。トレーニング ジョブを定義するときに、ユーザーはチューニングするハイパーパラメータ、その範囲、およびチューニング検索戦略を設定できます。 ユーザーはトレーニングに GPU または TPU を使用できます。通常、ユーザーは、使用する GPU または TPU を含むインスタンス タイプを指定し、コードからそれらを有効にする必要があります。モデルが大きく複雑になるほど、GPU または TPU によってトレーニングが加速される可能性が高くなります。 Google Cloud AI Platform ジョブは、ユーザーが 3 つの機械学習フレームワークのいずれか、またはカスタム コンテナ イメージを使用してモデル トレーニングをセットアップする方法です。フレームワークを選択するときは、バージョンも選択する必要があります。 組み込みアルゴリズムは、カスタム モデル用の機械学習フレームワークとコードを提供する代わりに使用できます。 AIプラットフォームVizier ハイパーパラメータの最適化を実行する別の方法は、AI プラットフォーム Vizier (ブラックボックス最適化サービス) を使用することです。 Vizier は数多くの実験研究を受けており、AI トレーニングだけでなく、多くの種類の最適化問題を解決できます。 Vizier はまだベータテスト中です。 AIプラットフォーム予測 トレーニング済みのモデルができたら、それをデプロイして予測を行う必要があります。 AI Platform Prediction は、モデルを実行するためにクラウド プラットフォーム内のコンピューティング リソースを管理します。ユーザーは、AI Platform Prediction にデプロイできるアーティファクトとしてモデルをエクスポートします。 Google Cloud AI でモデルをトレーニングする必要はありません。 AI Platform Prediction では、モデルは時間の経過とともに変化すると想定されているため、モデルにはバージョンが含まれており、バージョンをデプロイできます。これらのバージョンは完全に異なる機械学習モデルに基づくことができますが、モデルのすべてのバージョンが同じ入力と出力を使用すると役立ちます。
この写真とそのオーバーレイは、モデルが動物を犬ではなく猫として識別するのに役立つ領域を示しています。 AI Platform Prediction は、モデル バージョンに送信されたオンライン予測リクエストを処理するためにノードを割り当てます。モデル バージョンをデプロイするときに、AI Platform Prediction がそれらのノードに使用する仮想マシンの数とタイプをカスタマイズできます。ノードは厳密には仮想マシンではありませんが、基盤となるマシンの種類は似ています。 ユーザーは、AI Platform Prediction がノードを自動または手動でスケーリングできるようにすることができます。モデル バージョンに GPU が使用されている場合、ノードの自動スケーリングはできません。割り当てられたマシン タイプがモデルに対して大きすぎる場合、ノードを自動的にスケーリングしようとすることができますが、スケーリングの CPU 負荷条件が満たされない可能性があります。理想的には、ユーザーは機械学習モデルに適した正確なノード サイズを使用します。 予測に加えて、プラットフォームは特定の予測に対する特徴属性の形で AI による説明を提供することもできます。現在ベータテスト中です。特徴属性は、表形式データの棒グラフとして、また画像データのオーバーレイとして使用できます。 AI プラットフォーム ディープラーニング VM イメージ ユーザーが単純な OS から始めて、機械学習とディープラーニング、CUDA ドライバー、JupyterLab 用に環境を構成する場合、少なくとも単純なモデルの場合は、モデルのトレーニングに時間がかかることがあります。事前設定されたイメージを使用すると、この問題は解決できます。 ユーザーは、TensorFlow、TensorFlow Enterprise、PyTorch、R、またはその他の 6 つのフレームワークを使用して、AI Platform ディープラーニング VM イメージを選択できます。すべてのイメージに JupyterLab を含めることができ、GPU で使用するためのイメージには CUDA ドライバーを含めることができます。 ユーザーは、Google Cloud コマンドライン (Google Cloud SDK 経由でインストール) または Google Cloud Marketplace を通じてインスタンスを作成できます。仮想マシンを作成するときに、ユーザーは仮想 CPU の数 (およびメモリの量) と GPU の数とタイプを選択できます。ユーザーは、選択したハードウェアに基づいて月額費用の見積もりを確認し、継続使用に対して割引を受けることができます。これらのフレームには追加料金はかかりません。 GPU を搭載した仮想マシンを選択した場合は、CUDA ドライバーがインストールされるまで数分間待つ必要があります。 ユーザーは、Google Cloud Console とコマンドラインからディープラーニング仮想マシンを作成できます。 CUDA ドライバーと JupyterLab の両方のインストールでは、チェックボックスを 1 つだけオンにすればよいことに注意してください。フレームワーク、GPU、マシンタイプ、リージョンの選択は、ドロップダウン リストから行います。 AI プラットフォーム ディープラーニング コンテナ Google は、ローカルマシンまたは Google Kubernetes Engine(GKE)上の Docker 用のディープラーニング コンテナも提供しています。コンテナーには、ユーザーが必要とする可能性のあるすべてのフレームワーク、ドライバー、およびサポート ソフトウェアが含まれています。一方、仮想マシン イメージでは、ユーザーは必要なものだけを選択できます。 Deep Learning Container は現在ベータテスト中です。 AI プラットフォーム パイプライン MLOps (機械学習運用) は、DevOps (開発者運用) のプラクティスを機械学習ワークフローに適用します。多くの Google Cloud AI プラットフォームは何らかの形で MLOps をサポートしていますが、AI プラットフォーム パイプラインが MLOps の中核となります。 現在ベータ版の AI Platform Pipelines を使用すると、TensorFlow Extended (TFX) を使用して Kubeflow Pipelines を簡単にセットアップできるため、MLOps を簡単に開始できます。オープンソースの Kubeflow プロジェクトは、Kubernetes 上での機械学習ワークフローの展開をシンプル、移植可能、かつスケーラブルにすることを目指しています。現在ベータ版である Kubeflow のコンポーネントである Kubeflow Pipelines は、エンドツーエンドの機械学習ワークフローを展開および管理するための包括的なソリューションです。 Spotify が MLOps を Kubeflow Pipelines と TFX に切り替えたとき、一部のチームでは実験の数が 7 倍に増加しました。 TensorFlow Extended は、本番環境の機械学習パイプラインをデプロイするためのエンドツーエンドのプラットフォームです。 TFX は、Apache Airflow、Apache Beam、Kubeflow Pipelines などのさまざまなオーケストレーター上で機械学習プロセスをオーケストレーションするのに役立つツールキットを提供することで、MLOps の実装を容易にします。 Google Cloud AI Platform Pipelines は、DAG (有向非巡回グラフ) である TFX Pipelines を使用し、Airflow や Beam ではなく Kubeflow Pipelines を使用します。 ユーザーは、Google Cloud コンソールの AI プラットフォームの [パイプライン] タブを通じて AI プラットフォーム パイプラインを管理できます。新しいパイプライン インスタンスを作成すると、Kubernetes クラスタ、Cloud Storage バケット、Kubeflow パイプラインが作成されます。ユーザーは、例に基づいて、または TFX を使用して最初からパイプラインを定義できます。 Spotify は TFX と Kubeflow を使用して MLOps を改善しました。同社によれば、一部のチームは7倍もの実験を行っているという。 AI プラットフォーム データ ラベリング サービス Google Cloud AI Platform のデータ ラベリング サービスを使用すると、ユーザーは人間のラベラーと協力して、機械学習モデルで使用できるデータ コレクションの非常に正確なラベルを作成できます。このサービスは現在ベータテスト中であり、COVID-19パンデミックの影響で利用できる範囲が非常に限られています。 AIハブ 現在ベータ版である Google Cloud AI Hub は、人工知能システムを構築する開発者やデータ サイエンティストにさまざまなアセットを提供します。ユーザーはアセットを見つけて共有できます。ベータ版でも、AI ハブはかなり便利そうです。 Google Cloud AI Hub は、Google Cloud Platform で AI プロジェクトを学習、構築、共有するための迅速な方法です。 TensorFlowエンタープライズ TensorFlow Enterprise は、長期バージョン サポートを備えた、Google Cloud に最適化された TensorFlow ディストリビューションをユーザーに提供します。 TensorFlow Enterprise ディストリビューションには、カスタマイズされた TensorFlow バイナリと関連パッケージが含まれています。 TensorFlow Enterprise Edition ディストリビューションの各バージョンは、特定のバージョンの TensorFlow に基づいており、含まれるすべてのパッケージはオープンソースで利用できます。 Google Cloud AI ソリューション Google は、データ サイエンティストやプログラマーではなく、ビジネス エグゼクティブを AI ソリューションの対象としています。ソリューションには、オプションのコンサルティングまたは契約開発コンポーネントが付属していることがよくあります。コンサルティングサービスも別途ご利用いただけます。 コンタクトセンターAI コンタクト センター AI (CCAI) は、人間のようなやり取りを提供することを目的とした Google のコンタクト センター向けソリューションです。 Dialogflow 上に構築されており、仮想エージェントをプロビジョニングし、顧客の意図を監視し、必要に応じてライブエージェントに切り替え、人間のエージェントに支援を提供できます。 Google には、CCAI ソリューションの開発と導入、代理店のサポートとトレーニングをお手伝いできるパートナーが 6 社あります。 AIの構築と使用 Build and Use AI は、ビジネス上の問題を解決するための Google の AI 専門知識、AI ビルディング ブロック、AI プラットフォームを提供する、汎用的に定義されたソリューションです。このソリューションは、他の利点の中でも、パイプライン自動化と CI/CD を通じてユーザーが MLops をセットアップするのに役立ちます。 ドキュメントAI Document AI は、Google Vision API OCR ビルディング ブロックを Cloud Natural Language と組み合わせて使用し、通常は PDF 形式で提供されるビジネス ドキュメントから情報を抽出して解釈します。その他のコンポーネントは、通常のフォームと請求書フォームを解析します。住宅ローンの処理と調達に関する業界固有のソリューションが現在テストされています。 Google には、Document AI ソリューションの実装を支援できるパートナーが 6 社あります。 各種ツールの価格 Cloud AutoML Translation: トレーニング: 1 時間あたり 76 ドル、分類: 最初の 500,000 文字以降は 100 万文字あたり 80 ドル。 Cloud AutoML Natural Language: トレーニング: 1 時間あたり 3 ドル、分類: 最初の 30,000 レコード以降は 1,000 レコードあたり 5 ドル。 Cloud AutoML Vision: トレーニング: 最初の 1 時間以降は 1 時間あたり 20 ドル。分類: 最初の 1,000 枚の画像以降は 1,000 枚あたり 3 ドル。 Cloud AutoML テーブル: トレーニング: 1 回限りの無料 6 時間使用 + 1 時間あたり 19.32 ドル (n1-standard-4 相当のサーバー 92 台を並列使用)、バッチ予測: 1 回限りの無料 6 時間使用 + 1 時間あたり 1.16 ドル (n1-standard-4 相当のサーバー 5.5 台を並列使用)、オンライン予測: 1 時間あたり 0.21 ドル (n1-standard-4 相当のサーバー 1 台)。 ビデオ: 毎月最初の 1,000 分を超えると、1 分あたり 4 ~ 7 セントをお支払いいただきます。 自然言語: 毎月 5,000 単位を超えると、1,000 単位あたり 0.50 ~ 2 ドルを支払う必要があります。 翻訳: 最初の 500,000 文字以降は 1 か月あたり 100 万文字あたり 20 ドル。 メディア翻訳: 毎月最初の 60 分以降は、1 分あたり 0.068 ~ 0.084 ドルが課金されます。 テキスト読み上げ: 最初の 400 万文字以降は 1 か月あたり 100 万文字あたり 4 ドル。 音声テキスト変換: 毎月最初の 60 分以降は、15 秒あたり 0.004 ~ 0.009 ドルが課金されます。 Dialogflow CX Agent: チャット セッション 100 回につき 20 ドル、音声セッション 100 回につき 45 ドル。 Dialogflow ES エージェント: モードによって異なり、基本的な音声および自然言語の料金が反映されます。 推奨 AI: トレーニングとチューニングに 1 ノードあたり 2.50 ドル、1,000 予測あたり 0.27 ドル (月間リクエスト数が 2,000 万件を超える場合はボリューム割引あり)。 GPU: 1GPUあたり0.11~2.48ドル/時間。 TPU: 1時間あたり1.35ドルから8ドルをお支払いいただきます。 AI プラットフォーム トレーニング: 1 時間あたり 0.19 ~ 21.36 ドルをお支払いいただきます。 AIプラットフォームの予測:1時間あたり0.045〜1.13ドル/ノード1.13ドル、さらに0.45ドルから2.48ドル/GPU/1時間のGPU価格を支払います。 プラットフォーム すべてのサービスは、Googleクラウドプラットフォームで実行されます。 オリジナルタイトル:レビュー:Google Cloud AIライトアップ機械学習、著者:Martin Heller [51CTOによる翻訳。パートナーサイトに転載する場合は、元の翻訳者と出典を51CTO.comとして明記してください] |
自動運転技術の開発は常に議論の的となっています。自動運転の将来に関して、避けて通れない話題が1つあり...
教育部のウェブサイトによると、教育部、国家発展改革委員会、財政部はこのほど、「『双一流』建設大学にお...
若い医師の慢性的な不足により、2034年までに米国全土で124,000件もの求人が発生すると推定され...
4月7日、権威あるAIベンチマーク評価組織MLPerfが最新の推論パフォーマンスリストを公開した。 ...
ロボットを食べるというのはあまり魅力的に聞こえないかもしれないが、近い将来、食べられる機械があなたの...
Meta は無料の商用バージョンである Llama 2 をリリースし、ネットワーク全体を席巻しました...
近年、顔認識をめぐる論争が絶えません。少し前に、「初の顔認識事件」の第一審判決が発表され、杭州野生動...
人工知能は新たな産業変革の中核的な原動力であり、これまでの科学技術革命と産業変革によって蓄積された膨...
あなたは理想の仕事をしていないかもしれません。おそらく、あなたが望むほどの収入は得られていないでしょ...
深層強化学習は近年人気が出てきている技術です。深層強化学習の制御および意思決定プロセスには、状態、ア...
ディープラーニングと 3D テクノロジーの発展により、Neural Radiance Fields ...
ニューラル ネットワークは、これまでに発明された最も美しいプログラミング パラダイムの 1 つです。...