Raspberry Pi でボストン ロボット ドッグを DIY すれば、50 万ドル節約できます。オープンソースのチュートリアルで誰でも始められます。

Raspberry Pi でボストン ロボット ドッグを DIY すれば、50 万ドル節約できます。オープンソースのチュートリアルで誰でも始められます。

この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI)より許可を得て転載しています。転載の際は出典元にご連絡ください。

53万ドルもするボストン・ダイナミクスのロボット犬と遊ぶ余裕がない場合はどうすればいいでしょうか?

オープンソース プロジェクトや Raspberry Pi を使用した DIY を使用する方がコストは 4,000 元未満です。

こうやって立っていると、ボストンダイナミクスの犬になった気分になりますか?

関節の柔軟性を示すためのウォームアップ運動をしましょう。

このような Raspberry Pi バージョンの Boston Dynamics Dog は、3 軸のボディ姿勢制御を通じて 2 つの動作モードを実現できます。

一つは速歩姿勢です。この 4 段階の歩行では、ロボット犬の 2 本の対角脚が同時に動くため、より速い移動速度を実現できます。

もう一つは歩く姿勢です。この 8 段階の歩行は、体の動きと組み合わされて、ロボット犬のバランスと安定性を維持するのに役立ちます。

このロボット犬はマイケル・ロマンコという外国人によって作られました。

少し感動しましたか?

それでは、このオープンソースのチュートリアルを最後まで読み進めて、細部まで正確に解説してみませんか。自分だけのミニボストンダイナミクス犬を飼うことは、もはや夢ではありません。 (犬の頭)

ハードウェアコストは4000元未満

この Raspberry Pi ロボット犬は、オープンソースの ThingVerse Spot Micro フレームワークに基づいて構築されています。シェルは0.6のノズルを備えた3Dプリンターで作られています。

ソフトウェア部分は、Ubuntu 16.04 を実行している Raspberry Pi 3B コンピューターに実装されています。

まず、約230人民元の価値があるRaspberry Pi 3B開発ボードを準備する必要があります。

制御部のコンポーネントには、 30元未満でI2Cインターフェースを備えたサーボドライバーPCA9685が含まれます。

そして、12個のサーボモーターPDI-HV5523MG、単一の価格は約70元以上です。

さらに、I2C インターフェースを備えた 16×2 LCD ディスプレイも必要です。

バッテリーに関しては、2s 4000mAhリチウムバッテリーを使用し、パワーサーボに直接接続されており、価格は約160元です。

使用される電圧レギュレータはHKU5 5V/5A UBECで、Raspberry Pi、LCDパネル、PCA9695制御ボードに電力を供給します。価格は約45人民元です。

3Dプリンターを含むシステム全体のコストは4,000元以下で、これはスタンフォード大学の安価なオープンソースの四足ロボット「Pupper」(600〜1,000米ドル)よりもさらに安い。

△スタンフォード・パッパー

細部まで解説したチュートリアル

Mike の組み立てチュートリアルは比較的短いですが、参考として「Micro Robot Dog AI」(SpotMicroAI) コミュニティを提供しています。

SpotMicroAI のチュートリアルは「手を取り合って」いると言えます。チュートリアルを書いたエンジニアは、ロボット犬の組み立てのほぼすべての詳細な手順を提供し、Raspberry Pi に SSH 接続する方法まで提供し、誰もが理解できるように努めています。

最初のステップは、Raspberry Pi のオペレーティング システムをインストールすることです。NOOBS オペレーティング システム インストーラーの拡張バージョンであるPINNをインストールすることをお勧めします。

インストール後、システムには SSH と VNC が付属するため、Raspberry Pi に外部キーボードとマウスを接続する必要がなく、リモートでデバッグできます。

△ VNC経由でRaspberry Piに正常に接続

PINN の多くのオペレーティング システム オプションの中から、Raspbian Lite をインストールすることを選択します。この後、VNC 接続は切断され、Raspberry Pi へのすべての接続は SSH 経由で行われます。

Raspberry Pi システムには FTP が付属しています。初心者がコンピューターと Raspberry Pi 間でファイルを転送しやすくするために、FileZilla ソフトウェアをインストールすることをお勧めします。

Raspberry Pi の IP アドレス、ユーザー名、パスワード、ポート 22 を入力し、[Quickconnect] をクリックして Raspberry Pi のファイル システムに接続します。必要に応じて SpotMicroAI からファイルをドラッグ アンド ドロップできるようになりました。

次に、最も重要なステップであるロボット犬制御ソフトウェアのインストールに進みます。インストールを簡素化するために、作者はスクリプトを作成し、インストール プロセスは自動的に完了します。

  1. ssh [email protected] https://gitlab.com/custom_robots/spotmicroai/basic-runtime/-/raw/master/utilities/self_install.sh | bash

次に、通信バス I2C を起動します。ターミナルを開き、次のコマンドを実行します。

  1. sudo raspi-config

次に、表示オプションから次の変更を行います: インターフェースオプション → I2Cを有効にする

次に、以下に示すように、すべてのハードウェアを Raspberry Pi に接続します。

ロボット犬のシェルの 3D 印刷ファイルも含まれています。著者は、印刷速度を最大化するために、0.6 mm ノズルを使用し、レイヤーの高さを 0.3 mm に設定することを推奨しています。

ハードウェアの組み立てが完了したら、ソフトウェアをデバッグします。

まず、JSON 形式のデフォルト構成ファイル (https://gitlab.com/custom_robots/spotmicroai/basic-runtime/-//blob/master/spotmicroai.default) をダウンロードし、そのファイルをユーザーのホーム ディレクトリに配置します。

キャリブレーション ツールを開き、12 個のサーボ クリックをキャリブレーションして、ロボット ドッグが「休止」しているときのモーターの初期位置を見つけます。

  1. cd ~/spotmicroai/calibration./calibration.sh

キャリブレーション後、ロボット犬はさまざまなアクションを実行できるようになります。

ちょっと待ってください、ロボット犬の尻尾に取り付けられたディスプレイ画面は何の役に立つのでしょうか?実際、ロボット犬の現在の状態をすぐに確認するのに役立ちます。

例えば、上のパネルでは、Raspberry Pi CPU の現在の温度、外部コントローラーとの接続状態、サーボ制御ボードの状態などを確認できます。

この時点で、ミニロボット犬は完成です。組み立てるだけでなく、より高度な開発チュートリアルを学びたい場合は、Extra のコンテンツを参照してください。

次のステップ

現在、マイクのミニロボット犬は簡単な動作しかできません。マイクの次の計画は、ボストン・ダイナミクスのロボット犬と同じくらい賢くすることです。マイクの将来の目標は次のとおりです。

1. LiDAR を追加し、SLAM を使用して部屋の簡単な 2D マッピングを実現します。オリジナルのボストンダイナミクスのロボット犬と同じです。

今、マイクの最初の目標を達成した人がいます:

2. 感知した 2D 環境の周囲でロボットが簡単なタスクを実行できるように誘導する自律動作モジュールを開発します。たとえば、部屋の中を移動し、障害物にぶつからないようにするなどです。

3. カメラまたはウェブカメラと組み合わせて基本的な画像分類を実行するソフトウェア モジュールを作成します。例えば、拳の開閉を感知することで、ロボットは特定の動作に具体的に反応し、ジェスチャー制御を実現できます。

ネットユーザー:まとめてみましょう

Raspberry Pi の公式担当者も賞賛した、独自の「Boston Dynamics Dog」を DIY しましょう。

ネットユーザーたちは次々とこう言った。「おお、これは本当にすごい」

待ちきれず、自分でやろうと計画する人もいます。

それで、まとめますか?

参考リンク:

https://www.raspberrypi.org/blog/mini-raspberry-pi-boston-dynamics-inspired-robot/

https://github.com/mike4192/sp​​otMicro#概要

https://gitlab.com/custom_robots/spotmicroai

<<:  人間とコンピュータのインタラクション技術の現状と進化 将来、私たちはどのように機械とコミュニケーションをとるのでしょうか

>>:  限られたデータでモデルのパフォーマンスを最大化するにはどうすればよいですか? Baidu のエンジニアがデータ拡張サービスを構築

ブログ    

推薦する

サイバーセキュリティの専門家は、悪意のあるAIが広がり始めると述べている

調査レポートによると、26%の人が、既知のサイバーセキュリティ対策のほとんどを回避できる悪意のあるA...

Llama2がオープンソース化された後、国内の大型モデルはどのような展開を見せるのでしょうか?

7 月 19 日、オープン ソース コミュニティの最も強力な大規模モデルが Llama から Ll...

AIとERPが出会うとどんな「化学反応」が起こるのでしょうか?

生成型人工知能 (GenAI) は、マーケティングや販売などのさまざまなビジネス分野で人気が高まって...

超大型モデルの登場でAIはゲームオーバーになるのか?ゲイリー・マーカス:道は狭くなっている

最近、人工知能技術は大規模モデルにおいて飛躍的な進歩を遂げています。昨日、Google が提案した ...

エッジAIデバイスの選び方

エッジ コンピューティングは、最も話題になっているテクノロジ トレンドの 1 つになりました。こうし...

人工知能技術は建設業界をどのように変えるのでしょうか?

人工知能 (AI) は世界中の産業に革命をもたらし、その能力によって世界を変えています。 ChatG...

流行は収まったが、学校の開始は何度も延期されている。プログラムシミュレーションでその理由がわかる

全国的な「オンライン授業」が始まって1か月、湖北省以外の省では新型コロナウイルスの新規感染者もそれほ...

...

初めて人間を超えた! 「絵を読んで意味を理解する」ことに関しては、AIは人間の目よりも優れている

[[417746]]この記事はAI新メディアQuantum Bit(公開アカウントID:QbitAI...

現時点では、ディープラーニング以外の実装方法を模索する必要がある。

[51CTO.com クイック翻訳] ディープラーニングは確かに多くの印象的な成功事例をもたらしま...

あなたのリモート従業員は本当に彼自身でしょうか? FBI、ディープフェイクを悪用する求職者を明らかに

ディープフェイクの世界では、真実と虚偽を区別することが難しい場合があります。 AIアルゴリズム「ディ...

...

...

人工知能は標的の照準を加速し、人間と機械の統合を支援して即時攻撃を可能にします。

米国の国防月報ウェブサイトは2020年9月23日、米陸軍当局者が、8月11日から9月23日まで行われ...

南洋理工大学と香港中文大学の Talk-to-Edit: 対話により非常にきめ細かな顔の編集が可能に

[[425172]]南洋理工大学と香港中文大学の研究者らは、ユーザーとシステム間の対話を通じてきめ...