良いニュースです。生成 AI アプリケーションの敷居が大幅に下がりました。 先ほど、Amazon Web Services は年次イベント re:Invent で公式に次のことを発表しました。
たとえば、Meta の Llama 2 70B、Antropic の Claude 2.1 など: これほど多くの大規模モデルを「パッケージ化」できるインテグレーターが、Amazon Web Services の AI 大規模モデルサービスであるAmazon Bedrockです。 もちろん、最新のアップグレードされた大型モデルTitanも含まれています。
Amazon Web Services の AI 担当副社長である Swami Sivasubramanian 氏も、その場で Titan Iamge Generator の機能をデモンストレーションしました。 たとえば、Photoshop を一切使わずに、たった 1 つの文で緑のトカゲをオレンジ色に変えることができます。 たとえば、画像を回転させたい場合は、次の 1 つの文だけが必要です。 便利ですよ、本当に便利ですよ。 しかし、記者会見全体を見ると、これらの機能とアップグレードは、Amazon Web Services が敷居を下げる取り組みのほんの一部に過ぎません。 さらに多くの新機能がリリースされ、生成 AI アプリケーションの開発がはるかに簡単になりました。 SageMaker 新着SageMaker は、Amazon Web Services が長年注力してきたプロジェクトです。主な機能は、機械学習モデルの構築、トレーニング、デプロイです。 スワミ氏は本日のカンファレンスで、顧客が生成 AI モデルをより簡単に構築、トレーニング、展開できるようにするいくつかの新機能を発表しました。 まず、 SageMaker HyperPod機能があります。 ご存知のように、これまでは基本モデルは単一の AI チップを使用してトレーニングするには複雑すぎることが多く、複数のプロセッサに分割する必要がありましたが、これは技術的に複雑な作業でした。 SageMaker HyperPod はオンデマンドの AI トレーニング クラスターへのアクセスを提供し、開発者はポイント アンド クリック コマンドと比較的単純なスクリプトの組み合わせによってクラスターを構成できるため、インフラストラクチャを手動で構成するよりもはるかに高速です。 スワミ氏はイベントで次のように述べた。
SageMaker HyperPod は、AI トレーニング クラスターのセットアップ プロセスを自動化するだけでなく、そのメンテナンスも自動化します。 顧客クラスター内のインスタンスがオフラインになると、組み込みの自動化ソフトウェアが自動的に修復を試行します。トラブルシューティングの試行が成功しない場合は、SageMaker HyperPod が障害が発生したノードを新しいノードに交換します。 場合によっては、基本モデルのトレーニングに数週間または数か月かかることがあります。障害により基盤となる AI インフラストラクチャがオフラインになった場合、開発者はトレーニングを最初からやり直す必要があり、プロジェクトに大幅な遅延が生じる可能性があります。 これを回避するために、SageMaker HyperPod はトレーニング中に AI モデルを定期的に保存し、最新のスナップショットからトレーニングを再開する機能を提供します。 それだけでなく、各 SageMaker HyperPod クラスターは、Amazon Web Services によって開発された一連の分散トレーニング ライブラリで事前構成されています。 これらのライブラリは、開発者のモデルをクラスター内のチップ全体に自動的に分散し、そのモデルのトレーニングに使用されるデータをより小さく管理しやすい部分に分割します。 次に、推論の面では、Amazon Web Services がSageMaker Inference機能を開始しました。 その登場により、モデルの導入コストとレイテンシの削減に役立ちます。新しい推論機能により、顧客は単一のエンドポイントに 1 つ以上の基本モデルを導入し、それらに割り当てられるメモリとアクセラレータの量を制御できるようになります。 Amazon Web Services はイベントで、コスト削減と効率改善の具体的な成果も紹介しました。
機械学習モデルを構築するためのノーコードインターフェースであるSageMaker Canvasも更新されました。 自然言語で直接処理できるようになりました。 チャット インターフェイスでは、SageMaker Canvas は、使用しているデータベースに関連するガイド付きプロンプトをいくつか提供します。また、独自のプロンプトを作成することもできます。 たとえば、「データ品質レポートを準備する」、「特定の条件に基づいて行を削除する」などと言って、必要な操作を実行するように依頼できます。 … 全体として、今日の SageMaker の多くの機能アップデートにより、モデルの構築、トレーニング、およびデプロイメントが大幅に簡素化されました。 データも取得されている生成 AI を最大限に活用するには、強力なデータ基盤が不可欠です。 スワミ氏はその場で、強力なデータ基盤は包括的、統合的、そして管理されたという3つの点を満たす必要があると述べた。 これらの機能に関して、Amazon Web Services も本日のカンファレンスで対応する新機能を発表しました。 1 つ目は、より効率的な検索とプロセスを実現できるベクター エンジン用のOpenSearch Serverlessです。 。 第二に、 DocumentDBとDynamoDBにはベクトル関数も追加され、ユーザーは複数の種類のデータを一緒に保存できるようになりました。 さらに、 MemoryDB for Redisも更新され、ベクトル検索がサポートされるようになり、応答時間が短縮され、1 秒あたり数万件のクエリを処理できるようになりました。 分析データベースに関しては、Amazon Web Services がAmazon Neptune Analyticsをリリースしました。これにより、開発者は膨大な量のグラフデータを数秒で調べることができ、より高速なベクトル検索もサポートされます。 データの「統合」特性に関して、Amazon Web Services は依然として「ゼロ ETL」アプローチ、つまり Amazon S3 を活用した OpenSearch Service ゼロ ETL 統合に準拠しており、1 つのツールのみを使用して S3 内のすべての運用データを分析できます。 最後に、「ガバナンス」の面では、Amazon Web Services の新機能としてClean Rooms MLがあります。 これにより、ユーザーは基礎となるデータを共有することなく、顧客と機械学習モデルを適用できるようになります。 もう一つビッグモデルの開発を推進する上で、Amazon Web Servicesは独自の「遊び方」を持っていると言えるでしょう。 独自の大規模モデルを開発するだけでなく、他の大規模モデルにも AI インフラストラクチャと AI ツールを提供し、それらのモデルもより優れた開発が行えるようにしています。 それで、両者の間には対立や競争が起こるのでしょうか? Qubit と Amazon Web Services のデータベースおよび移行サービス担当副社長 Jeff Carter 氏とのやり取りの中で、彼は次のような見解を述べました。
|
<<: 脳コンピューターインターフェースにおける重要な進歩!国内チームが「フルスペクトル中国語解読」に成功:トップ3の正解率は100%に迫る
本発明は、Bzip2 アルゴリズムのハードウェア アクセラレーション実装方法を開示する。この方法は、...
ガートナーは、2022年の銀行および投資サービス業界における3つの注目の技術トレンドとして、生成型人...
さまざまなメーカーが続々と参入し、スマートカー市場はますます熱を帯びています。このような背景から、ス...
今回はBaidu Smart Cloudの顔認識機能とPythonを組み合わせて実験してみました。結...
人工知能研究チームOpenAIが発表した最新の報告書は、ロボットが自ら作成した新しい言語を使って互い...
現在、拡張現実(AR)技術はもはや新しい製品ではありませんが、その適用範囲が限られているため、ARは...
サイバー脅威の範囲は、企業資産や選挙から健康データや物理インフラまで拡大しており、新興技術の予期せぬ...
自然言語処理は言語の壁を打ち破り、人間と機械間の相互作用とコミュニケーションを強化します。自然言語処...
[[423755]]人工知能は、詐欺の特定や金融犯罪の撲滅から、顧客への革新的なデジタル体験の提供に...
人工知能、エッジ コンピューティング、移動中のデータの統合は、業界を変革し、コンピューティング シス...
人工知能は、今日の商業不動産業界において非常に重要な破壊的変化をもたらします。すべての兆候から判断す...
近年の人工知能の発展スピードは驚異的で、あらゆる分野で専門的なAIが登場しています。上海では以前、無...