このプロジェクトは大きく分けてロボット台車とロボットアームの制御の2つから構成されています. ~ロボット台車~ 台車にはKobukiを使用します.Kobukiへの移動指令は,音声による入力とゲームパッドによる入力の2種類が用意されています.音声入力では,入力デバイスとしてAndroid端末を使用します.Android on RTMの音声認識アプリケーションにより,特定の音声が認識されるとそれに対応した目標座標がKobukiへ入力されます.Kobukiは目標座標へ車輪からのオドメトリ情報を参照しながら自律的に移動することができます.また,ゲームパッドによる入力では,ジョイスティックからのアナログ値の入力により,人間が直接Kobukiを操作できるようになっています.
ここには、ユーザーが作成した様々な RTコンポーネントが登録されています。 コンポーネントの概要、スクリーンショット(または関連する図)、ページ、ソースコードまたはバイナリパッケージへのリンクがあり、自分の必要なコンポーネントを探してダウンロードすることができます。
なお、ここには NEDO 次世代ロボット知能化技術開発プロジェクト(H19-H23)の成果、過去の RTミドルウエアコンテストの応募作品も含まれています。
>> 詳細検索
遠隔操縦でボールを追いかけるロボットの開発
概要
特徴
仕様
コンポーネント群
新規作成
再利用
パスタ巻きロボット
概要
特徴
仕様
コンポーネント群
新規作成
再利用
拭き掃除ロボット
概要
特徴
仕様
コンポーネント群
新規作成
移動ロボットコントローラ「T-Frog」対応RTコンポーネント
移動ロボットコントローラ「T-Frog」対応のRTコンポーネントです.T-Frogを制御するためのソフトウエアライブラリypspurをRTコンポーネントにまとめました.
競KOBUKI
概要
お絵描きKobuki
概要
邪魔にならない掃除ロボット
概要
人とロボットのアルゴリズム体操
概要
SIWAKEロボット
このプロジェクトは大きく分けてロボット台車とロボットアームの制御の2つから構成されています. ~ロボット台車~ 台車にはKobukiを使用します.Kobukiへの移動指令は,音声による入力とゲームパッドによる入力の2種類が用意されています.音声入力では,入力デバイスとしてAndroid端末を使用します.Android on RTMの音声認識アプリケーションにより,特定の音声が認識されるとそれに対応した目標座標がKobukiへ入力されます.Kobukiは目標座標へ車輪からのオドメトリ情報を参照しながら自律的に移動することができます.また,ゲームパッドによる入力では,ジョイスティックからのアナログ値の入力により,人間が直接Kobukiを操作できるようになっています.
~ロボットアーム~ Kinectから人間の腕の関節角度,コントローラからシミュレーションの計算開始の合図,及びグリッパの開閉の制御量を取得します.そして,シミュレーションの計算開始後ロボットシミュレータのOpenHRP3上で対象のロボット動かしながら,実機or ロボットシミュレーションのChoreonoid上のOrochiで動かします.動作中はシミュレーションと実機の時間を同期させて関節角度などの情報の記録を行います.
以下が作成・使用したコンポーネントです
GPSナビゲーションコンポーネント
概要
GPSから受信したデータをもとに,ロボットのナビゲーションのために
必要な処理を行うコンポーネントであり,現在地点から目標点への
距離・旋回角度の出力を行います。
ライセンス
・GPSナビゲーションコンポーネントに関する著作権は,芝浦工業
大学ヒューマン・ロボット・インタラクション研究室に帰属します。
・芝浦工業大学水川研究室が著作権を持つRTコンポーネントは,非営利目的での
使用及び改変自由ですが,商用利用の場合は別途ご相談下さい。
なお,本作品を使用して発生した,いかなる損害についても責任を負いません。
ページ