良いニュースです。生成 AI アプリケーションの敷居が大幅に下がりました。 先ほど、Amazon Web Services は年次イベント re:Invent で公式に次のことを発表しました。
たとえば、Meta の Llama 2 70B、Antropic の Claude 2.1 など: これほど多くの大規模モデルを「パッケージ化」できるインテグレーターが、Amazon Web Services の AI 大規模モデルサービスであるAmazon Bedrockです。 もちろん、最新のアップグレードされた大型モデルTitanも含まれています。
Amazon Web Services の AI 担当副社長である Swami Sivasubramanian 氏も、その場で Titan Iamge Generator の機能をデモンストレーションしました。 たとえば、Photoshop を一切使わずに、たった 1 つの文で緑のトカゲをオレンジ色に変えることができます。 たとえば、画像を回転させたい場合は、次の 1 つの文だけが必要です。 便利ですよ、本当に便利ですよ。 しかし、記者会見全体を見ると、これらの機能とアップグレードは、Amazon Web Services が敷居を下げる取り組みのほんの一部に過ぎません。 さらに多くの新機能がリリースされ、生成 AI アプリケーションの開発がはるかに簡単になりました。 SageMaker 新着SageMaker は、Amazon Web Services が長年注力してきたプロジェクトです。主な機能は、機械学習モデルの構築、トレーニング、デプロイです。 スワミ氏は本日のカンファレンスで、顧客が生成 AI モデルをより簡単に構築、トレーニング、展開できるようにするいくつかの新機能を発表しました。 まず、 SageMaker HyperPod機能があります。 ご存知のように、これまでは基本モデルは単一の AI チップを使用してトレーニングするには複雑すぎることが多く、複数のプロセッサに分割する必要がありましたが、これは技術的に複雑な作業でした。 SageMaker HyperPod はオンデマンドの AI トレーニング クラスターへのアクセスを提供し、開発者はポイント アンド クリック コマンドと比較的単純なスクリプトの組み合わせによってクラスターを構成できるため、インフラストラクチャを手動で構成するよりもはるかに高速です。 スワミ氏はイベントで次のように述べた。
SageMaker HyperPod は、AI トレーニング クラスターのセットアップ プロセスを自動化するだけでなく、そのメンテナンスも自動化します。 顧客クラスター内のインスタンスがオフラインになると、組み込みの自動化ソフトウェアが自動的に修復を試行します。トラブルシューティングの試行が成功しない場合は、SageMaker HyperPod が障害が発生したノードを新しいノードに交換します。 場合によっては、基本モデルのトレーニングに数週間または数か月かかることがあります。障害により基盤となる AI インフラストラクチャがオフラインになった場合、開発者はトレーニングを最初からやり直す必要があり、プロジェクトに大幅な遅延が生じる可能性があります。 これを回避するために、SageMaker HyperPod はトレーニング中に AI モデルを定期的に保存し、最新のスナップショットからトレーニングを再開する機能を提供します。 それだけでなく、各 SageMaker HyperPod クラスターは、Amazon Web Services によって開発された一連の分散トレーニング ライブラリで事前構成されています。 これらのライブラリは、開発者のモデルをクラスター内のチップ全体に自動的に分散し、そのモデルのトレーニングに使用されるデータをより小さく管理しやすい部分に分割します。 次に、推論の面では、Amazon Web Services がSageMaker Inference機能を開始しました。 その登場により、モデルの導入コストとレイテンシの削減に役立ちます。新しい推論機能により、顧客は単一のエンドポイントに 1 つ以上の基本モデルを導入し、それらに割り当てられるメモリとアクセラレータの量を制御できるようになります。 Amazon Web Services はイベントで、コスト削減と効率改善の具体的な成果も紹介しました。
機械学習モデルを構築するためのノーコードインターフェースであるSageMaker Canvasも更新されました。 自然言語で直接処理できるようになりました。 チャット インターフェイスでは、SageMaker Canvas は、使用しているデータベースに関連するガイド付きプロンプトをいくつか提供します。また、独自のプロンプトを作成することもできます。 たとえば、「データ品質レポートを準備する」、「特定の条件に基づいて行を削除する」などと言って、必要な操作を実行するように依頼できます。 … 全体として、今日の SageMaker の多くの機能アップデートにより、モデルの構築、トレーニング、およびデプロイメントが大幅に簡素化されました。 データも取得されている生成 AI を最大限に活用するには、強力なデータ基盤が不可欠です。 スワミ氏はその場で、強力なデータ基盤は包括的、統合的、そして管理されたという3つの点を満たす必要があると述べた。 これらの機能に関して、Amazon Web Services も本日のカンファレンスで対応する新機能を発表しました。 1 つ目は、より効率的な検索とプロセスを実現できるベクター エンジン用のOpenSearch Serverlessです。 。 第二に、 DocumentDBとDynamoDBにはベクトル関数も追加され、ユーザーは複数の種類のデータを一緒に保存できるようになりました。 さらに、 MemoryDB for Redisも更新され、ベクトル検索がサポートされるようになり、応答時間が短縮され、1 秒あたり数万件のクエリを処理できるようになりました。 分析データベースに関しては、Amazon Web Services がAmazon Neptune Analyticsをリリースしました。これにより、開発者は膨大な量のグラフデータを数秒で調べることができ、より高速なベクトル検索もサポートされます。 データの「統合」特性に関して、Amazon Web Services は依然として「ゼロ ETL」アプローチ、つまり Amazon S3 を活用した OpenSearch Service ゼロ ETL 統合に準拠しており、1 つのツールのみを使用して S3 内のすべての運用データを分析できます。 最後に、「ガバナンス」の面では、Amazon Web Services の新機能としてClean Rooms MLがあります。 これにより、ユーザーは基礎となるデータを共有することなく、顧客と機械学習モデルを適用できるようになります。 もう一つビッグモデルの開発を推進する上で、Amazon Web Servicesは独自の「遊び方」を持っていると言えるでしょう。 独自の大規模モデルを開発するだけでなく、他の大規模モデルにも AI インフラストラクチャと AI ツールを提供し、それらのモデルもより優れた開発が行えるようにしています。 それで、両者の間には対立や競争が起こるのでしょうか? Qubit と Amazon Web Services のデータベースおよび移行サービス担当副社長 Jeff Carter 氏とのやり取りの中で、彼は次のような見解を述べました。
|
<<: 脳コンピューターインターフェースにおける重要な進歩!国内チームが「フルスペクトル中国語解読」に成功:トップ3の正解率は100%に迫る
IT Homeは2月9日、「高齢者のデジタル適応力に関する調査報告」によると、スマートフォンを使用...
この記事はLeiphone.comから転載したものです。転載する場合は、Leiphone.com公式...
[[207302]]現代の人工知能は企業に多くの利益をもたらすと同時に、機械の認知能力も大幅に向上さ...
AV カメラは他のセンサーと比較して最も密度の高い情報を持っていることはよく知られており、自動運転車...
前提Snowflake は、Twitter のオープンソースの高性能 ID 生成アルゴリズム (サー...
AIワークロードをエッジで実行することで、経済性の向上、意思決定の迅速化、自動化が可能になります。誇...
[[421133]]ドローン産業の発展レベルは、国の軍事力、科学技術革新、製造レベルを測る重要な指標...
[[421132]] [51CTO.com クイック翻訳]自然言語処理 (NLP) は、機械学習の専...
この記事では、線形回帰、ロジスティック回帰、線形判別分析、ナイーブベイズ、KNN、ランダムフォレスト...
昨年上半期、メディアはかつてアンドリュー・ン氏が妻のために百度を去ったという話題を熱く議論していた。...
近年、科学技術分野で最もホットな言葉は人工知能であり、これは近年の人工知能の急速な発展によるものです...
著者: ヨギータ・キナブガッティが編集企画丨孫淑娊適切な機械学習アルゴリズムを選択するにはどうすれば...
[[317899]]生産機械学習には組織的な問題があります。この問題は、生産機械学習の比較的新しい...