テスラロボットが家事を始める。マスク氏は最新の動画で、テスラのロボット「オプティマス・プライム」が服を折りたたむ様子を披露し、多くのネットユーザーが視聴した。 現在、ロボットは衣類を折りたたむのにたった 3 つのステップしか必要とせず、1 枚の衣類を折りたたむのに 30 秒しかかかりません。 最初のステップは、バスケットから衣類を取り出し、片方の袖を直接折りたたむことです。 2 番目のステップは、衣服の位置をスムーズに調整し、もう半分と揃えることです。 最後に、始めと終わりを連続して半分に折って完成です。 すでに、いつ買えるのかと熱心に問い合わせている人もいます。 ネットユーザーの中には、シェルドンのような洋服たたみ板を子供に買うべきだと提案する人もいた。 最初のホットなコメントは、未来の人々がこの瞬間をどう捉えるかを考え始めたものでした。 スタンフォード大学のロボット調理動画がインターネット上で拡散し、多くの誤解を招いたことを受けて、マスク氏は後に免責事項を付け加えた。 重要な注意: オプティマス プライムは現在、洗濯物を折りたたむ作業を自律的に実行することはできませんが、どのような環境でも確実に実行できるようになります (テーブルを完全に固定する必要はなく、バスケットに衣類が 1 枚だけ入っている必要もありません) 。 マスク氏は、完全な自律走行は不可能だと述べるだけで、それをどのように実現するかについては詳しく述べなかった。しかし、ビデオをよく見ると、欠陥が明らかになる。 8秒目から、右下隅にロボットアームが静かに現れ、その移動軌跡はわずかな遅れを伴いながらロボットと全く同じです。 すると答えは明らかです。スタンフォードの方法と同様に、 AIは人間の動きを模倣することから始まります。 しかし、AIによるタンパク質予測、AIによる描画などの技術開発の過程と同様に、AIが1つのことしかできない段階から人間を超える段階に進化するのに、それほど時間はかからないでしょう。 シリコンバレーのベテラン技術ブロガー、ロバート・ドコブル氏は、17 か月未満になると考えています。あなたはどう思いますか? テスラ第二世代ロボット衣服を折りたたむことができるこのロボットは、テスラ オプティマスの第2世代です。以前のプロトタイプであるバブルビーと合わせて、合計2回の大きなアップグレードが行われています。 最も注目すべきは、オプティマス用のテスラの新しい手です。 前世代と比べて、新型ロボットの手は動きが速いだけでなく、11 の自由度と新しい触覚センサーも備えています。 彼は力加減も知っていました。箱から卵を取り出し、ひっくり返してからボウルに入れました。その過程で卵が潰れることはありませんでした。 手に加えて、オプティマスの首も関節構造と 2 つの自由度を備えて完全に再設計されました。 オプティマスの足も関節式になっており、人間の足の形状を模倣しています。 全体的に、オプティマスの移動速度は前世代よりも 30% 速くなり、重量は 10 kg 軽くなりました。 アップグレードされたロボットは、スクワットを簡単に完了し、その過程を通じて良好なバランスを維持できます。 テスラだけではありません。2024年を迎えるにあたり、ロボット工学における人類の新たな進歩が雨後の筍のように現れています。 2024年は家庭用ロボット元年?2024年になってまだ半月しか経っていないが、ロボット分野ではテスラを含め少なくとも4つのブレークスルーがあった。 これらのロボットの共通の特徴は、まず人間の動作を模倣して学習し、その後徐々に人間の操作から独立して自律的な動作を実現することです。 例えば、スタンフォード大学のALOHAロボットは、人間の遠隔操作によって調理などの一連の複雑な動作を完了することができ、人間の操作プロセスはロボットが学習するための材料となります。 学習後、ロボットは特定のタスクを完了するためにいくつかの人間の動作を自律的に習得できるようになります。 ほぼ同時に、 Google DeepMindもロボットモデルRobotics Transformer (略してRT)のアップグレード版をリリースしました。 さらに、3 つのフレームワークが共同で立ち上げられました。RT-Trajectory は一般化問題を解決し、SARA-RT は意思決定速度の向上に使用され、AutoRT はデータ収集を担当します。 その中で、一般化能力の向上を目的としたRT-Trajectoryは、主にマルチモーダル大規模モデルの視覚能力を活用して実現され、学習教材も人間の動作からキャプチャしたり、直接手動で描画したりします。 スタンフォード大学とディープマインドに続き、ロボット工学のスタートアップ企業 Figureも独自の「コーヒーロボット」 Figure 01 を発売しました。 リモート操作なしで、マシンのカバーを開け、コーヒーを入れ、マシンを起動するというプロセス全体を自律的に完了でき、エラーも自律的に修正できます。 トレーニング中、図01は人間の動作も学習しますが、学習方法はビデオです。 わずか 10 時間の徹底的なトレーニングで、Figure 01 はマシンを使用してコーヒーを作るプロセスを習得することができました。 最近のいくつかの成果に加えて、Google の HYDRA や Nvidia の MimicGen など、以前の多くのロボット プロジェクトでも、人間を模倣する学習方法を採用しています。 テスラのロボット工学エンジニアであるミラン・コヴァック氏も、この技術的ルートの利点を具体的に紹介しました。
人間の模倣から完全に自動でタスクを実行すること、そしてさらに多様なタスクに一般化することまで、これが今日のインテリジェントロボット業界の主要なトレンドになっています。 短期間で数多くの画期的な成果も達成され、ロボットが実行できる作業はますます実際のニーズに近づいてきています。 技術は発展し、市場も好意的に反応しました。 UBTECH Robotics は上場された最初のヒューマノイドロボットとなり、上場のベル鳴らしにロボットが参加したのは史上初となった。 ファーウェイの若き天才、志慧軍氏が設立した知源ロボティクスは、評価額が10億ドルを超え、急速にユニコーン企業となった。 ロボットは、先日終了したテクノロジーイベントCESでも最も人気のあるアイテムでした。マイクロソフトのナデラCEOもケプラー・ロボティクスのブースを訪れ、説明を聞きながら何度もうなずいていた。 では、AIGC 元年と大型モデル元年を経て、2024 年は本当にヒューマノイド ロボット元年となるのでしょうか? もう一つ一部のネットユーザーは、まったく異なる種類のロボットを紹介した。
しかし、私ができる唯一の仕事は服を畳むことです。 |
<<: テンセントの最新 AI ツールが画面いっぱいに登場!ヤン・ミーのマルチスタイルの写真が数秒で生成され、ルクンが気に入っている
>>: Microsoft Copilot Pro が登場: 個人ユーザーも Word で GPT-4 を使用可能、月額 20 ドル
[[187947]] 2017 年の最初の 1 ~ 2 か月間、2017 年のテクノロジー トレン...
数日前、「大規模言語モデルを使用した MIT 数学および EECS カリキュラムの調査」と題された論...
[[241691]]画像出典: Visual China AIチップ投資マップAI チップの設計は、...
AI はワークフローを強化し、反復的なタスクを削減し、出力を増幅します。スタンフォード大学とMITの...
サイバーセキュリティのスキル不足は、政府を含むさまざまな地域、市場、セクターの組織に引き続き影響を及...
オープンソースの「ビッグコードモデル」が登場しました。 UIUC 清華大学の研究者チームは、70 億...
[51CTO.com からのオリジナル記事] ウォールストリートジャーナルの最近の報道によると、テク...
10月25日、外国メディアは事情に詳しい関係者の話として、月曜日に「インダストリアル・メタバース」プ...
真に AI を活用したサービスを構築するのは簡単ではありません。そこで、一部のスタートアップ企業は、...
同じ場所で二度失敗することがないように、そして他の人の役に立つために、私は自分の情熱に従ってデータ ...