良いニュースです。生成 AI アプリケーションの敷居が大幅に下がりました。 先ほど、Amazon Web Services は年次イベント re:Invent で公式に次のことを発表しました。
たとえば、Meta の Llama 2 70B、Antropic の Claude 2.1 など: これほど多くの大規模モデルを「パッケージ化」できるインテグレーターが、Amazon Web Services の AI 大規模モデルサービスであるAmazon Bedrockです。 もちろん、最新のアップグレードされた大型モデルTitanも含まれています。
Amazon Web Services の AI 担当副社長である Swami Sivasubramanian 氏も、その場で Titan Iamge Generator の機能をデモンストレーションしました。 たとえば、Photoshop を一切使わずに、たった 1 つの文で緑のトカゲをオレンジ色に変えることができます。 たとえば、画像を回転させたい場合は、次の 1 つの文だけが必要です。 便利ですよ、本当に便利ですよ。 しかし、記者会見全体を見ると、これらの機能とアップグレードは、Amazon Web Services が敷居を下げる取り組みのほんの一部に過ぎません。 さらに多くの新機能がリリースされ、生成 AI アプリケーションの開発がはるかに簡単になりました。 SageMaker 新着SageMaker は、Amazon Web Services が長年注力してきたプロジェクトです。主な機能は、機械学習モデルの構築、トレーニング、デプロイです。 スワミ氏は本日のカンファレンスで、顧客が生成 AI モデルをより簡単に構築、トレーニング、展開できるようにするいくつかの新機能を発表しました。 まず、 SageMaker HyperPod機能があります。 ご存知のように、これまでは基本モデルは単一の AI チップを使用してトレーニングするには複雑すぎることが多く、複数のプロセッサに分割する必要がありましたが、これは技術的に複雑な作業でした。 SageMaker HyperPod はオンデマンドの AI トレーニング クラスターへのアクセスを提供し、開発者はポイント アンド クリック コマンドと比較的単純なスクリプトの組み合わせによってクラスターを構成できるため、インフラストラクチャを手動で構成するよりもはるかに高速です。 スワミ氏はイベントで次のように述べた。
SageMaker HyperPod は、AI トレーニング クラスターのセットアップ プロセスを自動化するだけでなく、そのメンテナンスも自動化します。 顧客クラスター内のインスタンスがオフラインになると、組み込みの自動化ソフトウェアが自動的に修復を試行します。トラブルシューティングの試行が成功しない場合は、SageMaker HyperPod が障害が発生したノードを新しいノードに交換します。 場合によっては、基本モデルのトレーニングに数週間または数か月かかることがあります。障害により基盤となる AI インフラストラクチャがオフラインになった場合、開発者はトレーニングを最初からやり直す必要があり、プロジェクトに大幅な遅延が生じる可能性があります。 これを回避するために、SageMaker HyperPod はトレーニング中に AI モデルを定期的に保存し、最新のスナップショットからトレーニングを再開する機能を提供します。 それだけでなく、各 SageMaker HyperPod クラスターは、Amazon Web Services によって開発された一連の分散トレーニング ライブラリで事前構成されています。 これらのライブラリは、開発者のモデルをクラスター内のチップ全体に自動的に分散し、そのモデルのトレーニングに使用されるデータをより小さく管理しやすい部分に分割します。 次に、推論の面では、Amazon Web Services がSageMaker Inference機能を開始しました。 その登場により、モデルの導入コストとレイテンシの削減に役立ちます。新しい推論機能により、顧客は単一のエンドポイントに 1 つ以上の基本モデルを導入し、それらに割り当てられるメモリとアクセラレータの量を制御できるようになります。 Amazon Web Services はイベントで、コスト削減と効率改善の具体的な成果も紹介しました。
機械学習モデルを構築するためのノーコードインターフェースであるSageMaker Canvasも更新されました。 自然言語で直接処理できるようになりました。 チャット インターフェイスでは、SageMaker Canvas は、使用しているデータベースに関連するガイド付きプロンプトをいくつか提供します。また、独自のプロンプトを作成することもできます。 たとえば、「データ品質レポートを準備する」、「特定の条件に基づいて行を削除する」などと言って、必要な操作を実行するように依頼できます。 … 全体として、今日の SageMaker の多くの機能アップデートにより、モデルの構築、トレーニング、およびデプロイメントが大幅に簡素化されました。 データも取得されている生成 AI を最大限に活用するには、強力なデータ基盤が不可欠です。 スワミ氏はその場で、強力なデータ基盤は包括的、統合的、そして管理されたという3つの点を満たす必要があると述べた。 これらの機能に関して、Amazon Web Services も本日のカンファレンスで対応する新機能を発表しました。 1 つ目は、より効率的な検索とプロセスを実現できるベクター エンジン用のOpenSearch Serverlessです。 。 第二に、 DocumentDBとDynamoDBにはベクトル関数も追加され、ユーザーは複数の種類のデータを一緒に保存できるようになりました。 さらに、 MemoryDB for Redisも更新され、ベクトル検索がサポートされるようになり、応答時間が短縮され、1 秒あたり数万件のクエリを処理できるようになりました。 分析データベースに関しては、Amazon Web Services がAmazon Neptune Analyticsをリリースしました。これにより、開発者は膨大な量のグラフデータを数秒で調べることができ、より高速なベクトル検索もサポートされます。 データの「統合」特性に関して、Amazon Web Services は依然として「ゼロ ETL」アプローチ、つまり Amazon S3 を活用した OpenSearch Service ゼロ ETL 統合に準拠しており、1 つのツールのみを使用して S3 内のすべての運用データを分析できます。 最後に、「ガバナンス」の面では、Amazon Web Services の新機能としてClean Rooms MLがあります。 これにより、ユーザーは基礎となるデータを共有することなく、顧客と機械学習モデルを適用できるようになります。 もう一つビッグモデルの開発を推進する上で、Amazon Web Servicesは独自の「遊び方」を持っていると言えるでしょう。 独自の大規模モデルを開発するだけでなく、他の大規模モデルにも AI インフラストラクチャと AI ツールを提供し、それらのモデルもより優れた開発が行えるようにしています。 それで、両者の間には対立や競争が起こるのでしょうか? Qubit と Amazon Web Services のデータベースおよび移行サービス担当副社長 Jeff Carter 氏とのやり取りの中で、彼は次のような見解を述べました。
|
<<: 脳コンピューターインターフェースにおける重要な進歩!国内チームが「フルスペクトル中国語解読」に成功:トップ3の正解率は100%に迫る
ある観点から見ると、激しい競争は業界の人気を示しています。最近、人気のディープラーニングも論争を引き...
[[427578]]動物の知能は、環境と相互作用するにつれて、その体の形に合わせて進化します。例え...
[[412385]]人工知能は現在、特に自動運転車でより広く深く活用されています。人工知能を使用して...
現在、Microsoft、OpenAI、GitHub が共同で作成した AI プログラミング支援ツー...
この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載...
最近、DeepMind は強化学習の分野で新しいことを行いました。簡単に言えば、DeepMind の...
英国放送協会が10月25日に報じたところによると、人工知能によって制作された芸術作品がオークションで...
2023年10月17日(本日)、百度のシンプル検索はアップグレードを発表し、大規模モデルを通じて再構...
著者 | 王 睿平今日、大規模言語モデル技術が継続的に成熟するにつれ、専門家はそれを活用してインテリ...
顔認識は、一般的に肖像認識または顔認識とも呼ばれ、顔の特徴に基づいて人物を識別する生体認証技術です。...
テクノロジーが進化し続けるにつれ、ドローンが「破壊」と同義だった時代は終わりました。現在、ドローンは...