レッドハットのCEOがAIの取り組みとソースコードの混乱について語る

レッドハットのCEOがAIの取り組みとソースコードの混乱について語る

今年初めの Red Hat Summit で、Red Hat は OpenShift AI によるプラットフォーム機能を強化しました。これにより、組織は OpenShift 上のアプリケーション ポートフォリオにさらに多くの人工知能ワークロードを追加できるようになります。

この動きは、Red Hat の目標の自然な延長です。 Red Hat の目標は、パブリック クラウドとプライベート クラウド、およびネットワーク エッジにわたる分散 IT 環境でアプリケーションを構築および実行するための、アプリケーション開発者とインフラストラクチャ オペレーターが選択するプラットフォームになることです。

Red Hat は、OpenShift AI を通じて本番環境の AI および機械学習モデルを作成するための標準化された基盤を提供します。 Red Hat は IBM と提携して Ansible Lightspeed を開発し、IBM は Watson Code Assistant をトレーニングして Ansible 自動化プレイブックを作成できるようにしました。

しかし、Red Hat の AI への取り組みは、Red Hat Enterprise Linux (RHEL) のソースコードへの顧客アクセスを制限するという同社の動きに対するオープンソース コミュニティの反応によって、いくぶん影に隠れてしまっている。 Red Hat は、ワシントン D.C. で開催された Red Hat Summit の約 1 か月後にこの決定を発表し、再構築者がソフトウェアに付加価値を付けずに RHEL コードから利益を得ることを防ぐ取り組みを進めている。

Red Hat CEO の Matt Hicks 氏は、ハイブリッド クラウド環境での生成 AI および MLOps ツールの使用をサポートする Red Hat の取り組みについて語りました。また、RHEL ソース コードの混乱に関する見解や、Red Hat がこの決定に対するコミュニティの懸念にどのように対処しているかについても述べました。

最近の Red Hat Summit で発表された重要な発表のいくつかと、それが Red Hat の将来にとってどのような意味を持つのかを説明していただけますか?

Hicks: まず AI から始め、それから遡って話を進めていきます。AI が本質的にハイブリッドなワークロードになるだろうということは非常に明らかになっていると思うからです。大規模な環境でモデルをトレーニングし、できるだけユーザーの近くで実行することもできます。当社は長年オープン ハイブリッド クラウドを信じてきましたが、これはお客様がハイブリッド アーキテクチャを採用できるようにする魅力的なワークロードです。

ChatGPT のようなホットなトピックにより、ほとんどのエンタープライズ顧客は、AI がビジネスにどのような影響を与えるか、ハイブリッドをうまく実現するにはどうすればよいかを考え始めており、このサミットで発表した内容のほとんどは、従来のアプリケーション、クラウドネイティブ アプリケーション、AI ワークロードなど、ハイブリッドの基盤を築くことに関するものでした。

私たちは、安全なサプライ チェーンに関する取り組みから始めて、いくつかの異なる方法でこれを実行します。ご存知のとおり、テクノロジー スタックは急速に変化しています。そのため、オンプレミス、パブリック クラウド、または最終的にはエッジのいずれであっても、基盤を提供する際には、特にデータ センターから何かを移動する場合、基盤がどこから来ていて、どの程度安全であるかを理解することが重要です。

サービス相互接続は、私たちの発表の第 2 部です。 Service Interconnect を使用すると、アプリケーションは SSH トンネルと VPN を介してハイブリッド クラウド内のコンポーネントに簡単に接続できるようになります。私たちは、AI は単独で存在するのではなく、アプリケーションとともに実行され、これらのアプリケーションはトレーニング環境から始まるビジネス運用環境と相互接続される必要があると考えているため、これに非常に興奮しています。

3番目の部分は開発者センターです。 OpenShift を使用する多くの企業が、独自のポータルを構築して資産を収集し、使用するイメージやサービスなど、開発者がどこから始めるべきかを指示しているのを目にしてきました。これは非常に一般的なことであり、安全な基盤があり、複数の場所にまたがるアプリケーションを構築する場合は、それらのアプリケーションを公開して使用し、より広範な開発チームをサポートできることも同様に重要です。

AI がもたらす課題、特に数十億、あるいは数兆ものパラメータを持つ大規模な言語モデルの説明可能性など、AI がもたらす課題のいくつかにどう対処すればよいのでしょうか。

ヒックス: これには 2 つの部分があります。1 つは私たちが行うことで、もう 1 つはモデル作成者に委ねられます。私が IBM と共同で行っている Ansible Lightspeed の取り組みについてお話しします。これは主に、コンテンツを要求すればそのコンテンツが生成される、ドメイン固有の AI 生成機能を提供することを目的としています。 ChatGPT の適用範囲は非常に広いですが、非常に特殊であり、Ansible に適しています。

ご質問に関して、私たちが重視していることの 1 つはソース、特に AI が提供する推奨事項のソースです。これは、私たちがオープンソース ビジネスに携わっており、ライセンス、著作権、商標のルールが重要であるためです。コードをそのまま他のコードに組み込むことはできません。自分たちに何ができるかを確実に示したいと考えました。

この問題は実際には 2 つのスタックで発生します。 OpenShift を使用すると、ソース コード管理、ピア レビュー、コード リリース、タグ付け、リリース モジュールの理解、パイプライン、そしてコードのリリースなど、DevOps の一連の作業をサポートできます。OpenShift は、この点で優れた機能を発揮します。コレクション全体を活用して、コードをラップトップから本番環境に移行できます。

AI モデルはそれほど違いはありません。原則として、最初から使用しているモデルを理解する必要があります。生成 AI の場合は、取り込むデータの内容と、そのデータをどのようにトレーニングするか (リファインメント トレーニングまたはプロンプト エンジニアリングのいずれか) を正確に把握する必要があります。出力内容を追跡し、本番環境にリリースする前にテストする必要があります。そうすれば、結果が変わった場合に、それがどこから来たのかがわかります。この部分は、データが非常に急速に変化するため、再トレーニングせずにデータをリリースすることはできないため、注意が必要です。コード生成と同様に、データの再トレーニングも進行中です。

OpenShift AI で私たちが行っているのは MLOps、つまりデータの取り込み、モデルのトレーニング、コードに非常によく似たパイプラインの使用です。しかし、ベースモデルが必要であり、モデルを最初にどのようにトレーニングするかという疑問が生じます。これは、Red Hat 自体が行っていないことであり、IBM、Meta、OpenAI などのモデルジェネレーターによって行われます。さらに、Hugging Face にも多くのオープンソースのモデルジェネレーターがあります。

IBM は、これは Ansible に特有の領域であるため、モデルを厳しく管理することになります。最終的にコアアトリビューションを推進できるように、トレーニング オブジェクトを厳密に制御します。 2 つの異なる陣営があります。公開されているすべてのコンテンツでトレーニングを行い、帰属が常に課題となる多数のパラメーター モデルを提供する陣営です。次に、Hugging Face があります。これには、基本モデルから始まるものの、ドメイン内で制限されている多くの特殊なモデルがあります。

私たちの目標は、その規律を最初からお客様のコンテンツに追加できるようにすることです。データに関しては何を変更しましたか?どのように再訓練しましたか?結果はどうですか?どこに公開しますか?現在はトレーニングが盛んですが、今後 1 ~ 2 年で推論の領域にさらに踏み込むことになると思います。その反復的なアプローチが重要になるでしょう。

IBM 以外の市場プレーヤーと協力する予定はありますか?さらに、Red Hat は MLOps 機能も備えたハイパースケーラーと深い関係を築いていますが、競争環境についてはどうお考えですか?

ヒックス氏:私たちがモデルを使わない理由の一つは、私たちがプラットフォーム企業であることを確実にしたいからです。私たちの仕事は、最高のモデルを可能な限り最高の方法で実行することです。 RHEL と OpenShift を使用して、モデル (どれでも) を Nvidia、Intel、または AMD ハードウェアにブリッジし、トレーニングと推論を実行するにはどうすればよいでしょうか。モデルに関与しないことで、私たちは誰にとっても自然なパートナーとなり、それは実はハードウェアに関する声明でもあります。トレーニングに OpenShift 分散コンピューティング環境を最大限に活用し、コア RHEL またはより小さな OpenShift インスタンスに何倍も近い場所で推論を行うにはどうすればよいでしょうか。これが最初のレイヤーです。

OpenShift AI を見ると、2 番目のレイヤーでは、関数配列を検討している Starburst など、他の多くの企業と協力して特殊な機能を追加しています。 IBM が WatsonX で行っている作業は興味深いものです。彼らは OpenShift AI を広範に使用しており、最初から OpenShift に非常に満足していました。私たちの目標は、プラットフォーム企業として中立かつ独立性を保つことです。IBM にサービスを提供できることは喜ばしいことですが、この分野には多くの専門的なテクノロジーとニッチな製品があるため、他のパートナーとも提携する予定です。

私は最近、SUSE の CEO と会い、Red Hat が RHEL ソースコードへの顧客のアクセスを制限するという最近の決定について話し合いました。 Red Hat の幹部は、この動きの根拠を説明するために長々と文書を書いていますが、この決定について顧客にどのように説明し、コミュニティの懸念を和らげるつもりですか?

ヒックス:私はこれに2つの方法でアプローチします。コミュニティの懸念については、その半分は、チームでの使用のための RHEL であれ、非本番環境での使用のための複数のインスタンスであれ、個人や趣味での使用のための無料の RHEL であれ、RHEL へのアクセスを提供していることに人々がようやく気づき始めたということだと思います。私たちの主な目標は、あなたが Linux 貢献者である場合に、私たちの製品の使用を決して妨げないことです。おそらく、1年前にそうした障壁の多くを取り除いたと思います。 RHEL の使用が増えるにつれて、改善の余地はあるでしょうか?もちろん、これにより、RHEL がユーザーに利用可能になります。

独自の Linux コミュニティを構築したい、または私たちが行った作業の一部から始めて異なる方向に進みたいコミュニティからアプローチを受けた場合、CentOS Stream は RHEL の次期バージョンに関して必要なものをすべて提供するというのが私たちの見解です。もっと積極的に改善したい場合、Fedora には必要なものがすべて揃っています。私たちが選択すれば、あなたの貢献は RHEL に反映される可能性があります。

RHEL をビット単位で再構築してもうまくいきません。さて、誰かが CentOS に入り、すべてのコードをリミックスすることはいつでも可能ですが、Linux ディストリビューションに関して私たちが好むのは、これまでにない方法でディストリビューションを改善する、何か新しいものや特殊なものを追加することです。

私たちのクライアントのほとんどは、コミュニティビルダーとは異なる世界に住んでいます。当社の RHEL ソース コード ポリシーは、顧客ベースを非常によくカバーしており、顧客としてソース コードを希望する場合は、ソース コードを入手できます。当社には RHEL と CentOS を使用したことがある顧客がおり、彼らにとってこれは間違いなく決定的なポイントです。しかし、Linux は地球上で最も利用されているオペレーティング システムなので、選択できるオプションは多数あります。当社は常に RHEL でサービスを提供できるようにしたいと考えていますが、これは実際には顧客にとっての課題ではありません。

問題は、私たちが何かを奪っているようにコミュニティが感じていることだと私は思います。理由の半分は、CentOS Stream と RHEL の使い方に慣れていないことです。私たちはしばらくオープンソースに取り組んできましたが、オープンソースに加えるあらゆる変更は非常に強い反応を引き起こす傾向があります。当社は引き続きオープンソースに取り組んでおり、当社が行うすべてのことをオープンソース化し、収益のすべてに対して多大な貢献を続けています。

最近のレイオフに関する従業員への手紙の中で、Red Hat が最も得意とする分野に注力することの重要性について言及されていました。それが何なのか、そして何を達成したいのかを詳しく説明していただけますか?

ヒックス:それは素晴らしい質問です。私はほぼすべての社内会議を「ご安心ください。当社はプラットフォーム企業です」という言葉で始めます。私たちは、データセンターの外部に新しく統合されたデバイス上のエッジ世界のハードウェア上に位置付けられることになります。従来のアプリケーションでも新しいクラウドネイティブ アプリケーションでも、アプリケーションに接続して AI ワークロードを実行できるようになります。

RHEL の時代から JBoss Middleware、OpenShift、分散コンピューティングに至るまで、私たちの仕事は、当社のプラットフォームを使用して構築したい開発者が可能な限り広範囲に及ぶようにすることです。現在多くのことが変化しているため、これは重要です。エッジと AI の交差点に注目すると、プラットフォーム企業になるためには、この市場とワークロードに対応する必要があります。つまり、エンジニアリングと販売に投資する必要があるということです。

企業で Linux、OpenShift、Ansible を成功させる素晴らしい機会が私たちにはあります。しかし、データセンターの境界は変化しており、新しいテクノロジーが企業の構築方法を変えています。これは私たちにとって次のチャンスであり、データセンターからクラウドまでやるべきことはたくさんありますが、プラットフォームであることとこれらのユースケースに対応することに絶え間なく注力し続けなければなりません。

それが私たちがうまくやりたいことであり、その作業の一部は、ソフトウェア サプライ チェーンの保護、PyTorch の最適化、Nvidia の統合など、オペレーティング システムの領域にあります。その作業の一部は分散コンピューティングに関係しており、これは私たちが OpenShift で行っていることです。また、Ansible オーケストレーションに関しても、やるべき作業がたくさんあります。

私たちは、これら 3 つの分野以外にも投資することは間違いありませんが、私が仕事をきちんと行えば、このプラットフォームのユースケースに関係のない分野に投資することは決してないでしょう。現時点では、私たちにとってかなり大きな市場だと考えています。私たちはこの市場の動向を理解しており、この市場に販売する方法を知っており、この市場での人材も有しており、これらの成長分野には注目に値する十分な機会があります。

<<:  マスク氏がテスラFSD V12の試乗を生放送!世界初のエンドツーエンドAI自動運転、10,000台のH100でトレーニング

>>: 

ブログ    

推薦する

iQIYI機械学習プラットフォーム構築実践

機械学習プラットフォームを構築する以前、iQiyi にはすでに比較的成熟したディープラーニング プラ...

...

世論調査によると、日本の男性の約60%が人工知能と交際する意向がある

[[252365]]日経新聞によると、日本の世論調査会社が、人工知能(AI)と恋に落ちたり友達になっ...

Google:MLの発展を牽引する転移学習とは何でしょうか?丨NeurIPS 2020

機械学習の分野でよく使われる分類学習タスクでは、訓練された分類モデルの精度と高い信頼性を確保するため...

女性用メイクアップムスク!超楽しいモデルStyleCLIPがオープンソースになりました。急いで自分の顔を変えてみましょう

[[421561]]マスク氏は科学研究に本当に多大な貢献をしてきました!最近、イスラエルの研究者が新...

...

人工知能は人々を失業させるだけでしょうか?マッキンゼーの調査と分析では、異なる答えが出ました。

AIへの追加投資は2030年までに雇用の5%に貢献し、創出される追加の富は労働需要を促進し、雇用を...

...

機械に「忘却の呪文」をかける? Google、初の機械忘却チャレンジを開始

機械学習はよく話題になりますが、「機械の忘却」について聞いたことがありますか?機械学習の目的は誰もが...

従来のポートレートプレイヤー向けに AI を新たなレベルに引き上げる方法

これからは、集合写真を撮るときに端に立って歪んでしまうことを心配する必要はありません。現在、このハー...

HellobikeがAIベースのシェアモビリティ技術を発表

Hello Mobilityの非電動車両安全管理システム持続可能な交通の専門企業Hellobikeは...

...

AIも催眠術をかけられるのか?

いつか、おそらく数十年以内に、人工ニューラル ネットワークを使用して、人間の脳をリアルにシミュレート...