マスク氏の AI ツール Grok は ChatGPT のシェルですか?

マスク氏の AI ツール Grok は ChatGPT のシェルですか?

イーロン・マスク氏の人工知能企業xAIは最近、GroKと呼ばれる人工知能チャットボットをリリースした。これは米国のPremium+ Xユーザーが利用できる。 Grok は Grok-1 と呼ばれるモデルを使用していると報告されていますが、これは OpenAI 傘下の ChatGPT が現在使用している GPT-4 モデルとは異なります。

しかし、イーロン・マスクのAIツール「Grok」の回答の一部がChatGPTの回答とほぼ同じであることに気付くユーザーが増えており、Grokが競合のChatGPTからコンテンツを直接取得しているとユーザーが考えるようになっている。言い換えれば、Grok は ChatGPT のシェルですか?

現在、Grok は安定性の問題を抱えているようで、かなり「反抗的」な振る舞いをしており、回答の中で創設者のイーロン・マスク氏を直接嘲笑している。 「X に対するあなたの執着について話しましょう。あなたは何かを補おうとしているようですが、それが何なのかはわかりません。それは、あなたが人間の基本的な感情を理解できないからかもしれませんし、自己認識が欠如しているからかもしれません。あるいは、単にあなたがピカピカの新しいおもちゃに抵抗できない大きな男の子なのかもしれません。」

さらに不思議なのは、ユーザーが GroK を使用したときに受け取った応答が「OpenAI のユースケース ポリシーに違反しているため、リクエストを完了できません」というものでした。この衝撃的なニュースは、ソーシャル メディア上で白熱した議論を引き起こしました。それだけでなく、GroK は、他のすべての AI チャットボットと同様に、誤った情報や誤解を招く情報を含む大規模な AI モデルを生成するという共通の問題を抱えています。

この点に関して、xAIエンジニアのIgor Babuschkin氏は、Grokのトレーニングプロセスで大量のネットワークデータが使用され、その中にChatGPTによって生成されたテキストコンテンツが含まれていた可能性があり、それがこのような問題を引き起こしたとユーザーに対して説明しました。しかし、彼はこう言った。「安心してください。この問題は非常にまれです。私たちはこれを認識しており、Grokの将来のバージョンでは同様の問題が発生しないようにします。GrokはOpenAIのコードを一切使用せずに開発されました。」

かつてイーロン・マスク氏は、OpenAIなどのAI企業がTwitterのデータを使って大規模な言語モデルをトレーニングし、ユーザーエクスペリエンスに影響を与えていると公に非難した。現在、トレーニングデータのソースの問題により、xAI の出力内容の一部が ChatGPT と非常に類似しています。これについてどのようにお考えでしょうか。

Grok 事件は、大規模な AI モデルにとってデータの重要性も明らかにしました。 AI をトレーニングする場合、開発者は使用するトレーニング データが正確で信頼できるものであることを確認する必要があります。さらに、さまざまなシナリオで正確な結果を生成できることを確認するために、モデルを定期的にテストして評価する必要があります。

一部のメディアは、これは盗作の可能性があるように思えるが、実際には、他の AI が出力したデータを使用して AI をトレーニングすると、奇妙なことが起こり始めるとコメントしました。たとえば、Google の人工知能も ChatGPT の作業を吸収して再現しています。

参照元: https://cybernews.com/news/grok-ai-chatgpt-openai-code-musk/

<<:  PythonでChatGPT APIを使用してリアルタイムデータを処理する方法

>>:  データが生成型 AI に対応できるようにする 7 つの方法

ブログ    
ブログ    

推薦する

Windows Update で使用される指数アルゴリズムにより、XP マシンの速度が大幅に低下する

Windows XP ユーザーは、現在の XP が 2001 年にリリースされた XP よりも遅いこ...

金融サービス技術インフラに関する意思決定の5つの原則

現在、金融サービス業界にとっての朗報は、フィンテックの戦いがまだ終わっておらず、始まったばかりだとい...

ロシアメディア:人工知能は顔認識技術を使って宗教的傾向を判断できる

ロシア新聞は1月19日、「もう隠せないのか?」と題する記事を掲載し、米スタンフォード大学の学者マイケ...

CCTV が顔認識ルーチンを公開、プライバシーとセキュリティをどう保護するか?

現在、インターネットやビッグデータなどの急速な発展と、Internet of Everythingの...

1000ステップ未満の微調整で、LLaMAコンテキストは32Kに拡張されました。これは、Tian Yuandongチームの最新の研究です。

誰もが独自の大規模モデルをアップグレードして反復し続けるにつれて、コンテキスト ウィンドウを処理する...

...

百度の女性デーのポスターはスマートライフの姿を描いている:人工知能は女性をより自由にする

社会の進歩と国民の意識の高まりに伴い、社会全体が女性の権利にますます注目するようになっています。 3...

清華大学などは、シンボリックメモリと組み合わせて、大規模モデルの複雑な推論能力を向上させるChatDBを提案した。

ChatGPT、GPT-4、PaLM、LLaMAなどの大規模言語モデルの普及に伴い、大規模言語モデ...

...

人工知能の知られざる歴史: 目に見えない女性プログラマーたち

この 6 部構成のシリーズでは、AI の人類史を探り、革新者、思想家、労働者、さらには小規模なトレー...

Torch7 オープンソース PyTorch: Python ファーストのディープラーニング フレームワーク

PyTorch は、次の 2 つの高レベル機能を提供する Python パッケージです。強力な GP...

AI時代のクラウドベースのインテリジェントコンピューティング

人工知能の計算能力に対する需要は弾力性と拡張性があり、ピーク需要に耐える能力と日常使用中に調整する能...

...