私たちの研究室ではロボットやマルチメディア情報処理に関する研究を行っています. 研究を進めるための基礎となるテクニックは,
などです.
研究内容の概要につきましては,
などを御覧下さい.
人に近い場所でともに働くロボットには,タスクに関わる情報共有を言語によって行うことが求められます.本研究では,人からタスクに関する言語での指示(何らかの動作に失敗している,など)を受けて動作状況を識別し,行動修正などの対応を行うことのできる識別方法を研究・開発しています.ロボットが行うタスクには図のような物体の組み立て作業を想定し,その作業の失敗について,どのような失敗が置きているのかを識別します.タスクと動作方法については設計者が設計して与え,自然言語処理には,クラウドソーシングにより収集した文章データをもとに自動的に識別を行うことを目指しています.※本研究は,ミュンヘン工科大学(自動制御研究室,Prof. M. Buss, Prof. D. Wollherr)との共同研究により行われています.
![]() |
![]() |
Fig. ロボットによるタスク実行の様子 | Fig. タスクの階層表現の例 |
モデルを用いることなくロボットのバランス制御を行う方法を研究しています。ロボットが姿勢を変更する場合、ロボットが動く軌道というのは無数にあります。そこで冗長自由度を考慮した運動学に基づき、「目標の姿勢に近づくこと」と「バランスを保つこと」の2つのタスクを達成可能な軌道を探索し、安全な姿勢の変更を目指します。また、モデルを用いないことで、実環境とモデルのずれに影響されない制御を目指します。ロボットの制御は運動学モデルを用いた制御が主ですが、ずれがあった場合には、対処が難しくなります。ですが、モデルを用いることなくロボットが実環境で観測したデータをもとに制御することができれば、ずれに影響されない制御が可能になります。
![]() |
![]() |
Fig. ロボットの動作軌跡 | Fig. 動作時の圧力中心 |
自律ロボットによる事前情報を用いない周囲の環境を認識する手法を研究しています.具体的には,ロボット周囲における物体との接触,隠れなどの状態を,環境に対して何も意味を与えられていないまま,取得した画像のみより判断を行います.画像からは特徴点を取得するのみで,腕の微小移動ごとの画像群より,その位置での状態を確率的に判断します.事前情報を用いない自律ロボットは,未知の環境下においても柔軟に行動することが期待されます.
![]() |
![]() |
![]() |
Fig. ロボットと環境 | Fig. カメラにより得た画像 | Fig. 視覚特徴点同士の依存関係 |
![]() |
![]() |
Fig. 屋外環境を走行する移動ロボット | Fig. 不整地環境の例 |
![]() |
![]() |
Fig. 無人自律車両のシミュレータ | Fig. 不整地環境でのナビゲーション |
![]() |
|
Fig. ハンド・アーム搭載移動ロボット |
![]() |
![]() |
Fig. ハンド・アームシステム | Fig. 物体操作(回転動作)の例 |
この研究では、複数台の車両型移動ロボットによって1つの物体を経路を分担して運ぶための動作計画をしています.物体はロボットが押し動作によって運ぶことで、アームでは持てないような物体でも運ぶことができます.しかし押し動作によって運ぶ場合、物体は押していくにつれて床面との摩擦等でずれていってしまいます.よって私の研究では、押し動作時に物体がどれくらいずれるのかをシミュレータで予測し、どこでロボットがもう一台のロボットに物体を受け渡すのが一番適しているのかを計算しています.これにより作業の正確さや効率が向上することが期待できます.
![]() |
![]() |
|
Fig. 移動ロボット | Fig. 協調押し動作 | Fig. 物体の受け渡しを含んだ協調動作の最適経路 |
世の中には定点カメラから進行方向の交通状況を把握する技術がある。しかし、ドライバーが知りたい場所には定点カメラがない場合があるため、一枚の車載カメラの画像から前方方向に移動した仮想視点画像の生成方法を提案した.定点カメラが無い場所にて,そこより後方に車載カメラを搭載した車両が存在する問題を想定する.後方にいる車両の車載カメラの画像から前方方向に視点を移動した画像を自動生成し,その場所の交通状況を認識可能にする画像提示を行なうことができた.
![]() |
![]() |
|
Fig. 車載カメラ画像(後方画像) | Fig. 車載カメラ画像(前方画像) | |
![]() |
||
Fig. 生成された要求地点での画像 |