|
神奈川環境プラットフォームでのデモの模様
|
2月5日、次世代ロボット連携群「平成20年度第4回講演会/見学会 次世代ロボット共通プラットフォーム技術神奈川環境プラットフォーム」が開催された。「次世代ロボット連携群」とは、内閣府総合科学技術会議の推進する「科学技術連携施策群」の1つ。このプロジェクトでは「環境情報の構造化」として、屋内、屋外など環境内でのロボット、人・物体の位置計測技術、機器間通信技術、ロボットサービスAPIの研究開発を行なっている。最終年度となる今年度は、実証プラットフォーム環境が福岡、関西けいはんなにて順次、公開されている。今回は、神奈川にて環境プラットフォームが公開された。
まず講演形式で概要が紹介されたあと、住宅展示場内に作られた実験スペース「神奈川環境プラットフォーム」の見学会が行なわれたのだが、本記事ではまず、デモンストレーションの模様からレポートする。
公開された実証環境「神奈川環境プラットフォーム」は、横浜市営地下鉄中川駅から徒歩2分の場所にある「ハウスクエア横浜」内にある。「ハウススクエア横浜」自体は広く一般に公開されている総合住宅展示場で、最新のモデルハウスが24棟建っている実に大きなスペースだ。そのなかの1つ、「住まいの情報館」内の一角「住まい体験広場」が「次世代ロボット連携群」の実証環境となっている。
|
|
|
神奈川環境プラットフォームのある総合住宅展示場「ハウスクエア横浜」
|
住まいの情報館。重りやゴーグルを付けたシニア体験などができる。入場無料
|
立ち上がり補助トイレなどもある
|
● 神奈川環境プラットフォーム
実際の実証環境は家庭のキッチンスペースを模した「住まい体験広場」の天井に、環境カメラ、ランドマークなどを配して、ロボットが動き回りやすく整えたもの。押入内にはノートパソコンが隠されており、そのなかではRMS(Room Management System)と呼ばれる部屋全体の情報をカメラを通して把握するマネージメントシステムが動いている。
また、電子レンジや冷蔵庫にはこのプロジェクトで開発されたロボットが扱いやすいように規格化された「ユニバーサルハンドル」が通常のハンドルとは別に取り付けられている。冷蔵庫内の食品コンテナも、ロボットが扱いやすいようにデザインされたものだ。この実証環境では主として物理的接触を伴う作業を行なって人に対してサービスを行なうことを目的としている。しかしながら把持すべき作業対象(ワーク)が多種多様な形をしていると、現状のロボット技術では対応しきれない。そこで、実際に把持する部分を規格化することでロボットの負担を減らした。ソフトウェアのインターフェイス部分を共通規格化するのと同様に、物理的コンタクトを伴う部分を規格化することで、システムの負荷は大幅に減るという。
|
|
|
このキッチンスペースが「神奈川環境プラットフォーム」
|
位置認識に使う「StarGazer」というIRを使ったランドマークと環境カメラが設置された天井
|
「StarGazer」は韓国・Hagisonic社による位置認識用ランドマーク技術
|
|
|
|
環境カメラは二次元コード「CLUE」を自動でパンチルトして絶えず追いかける
|
RMSはカメラが取得した物品位置情報を管理して必要に応じてロボットに伝える
|
食品トレイ。ロボット把持用と環境カメラ用の二次元コードがつけられている
|
|
|
多少の位置ズレがあっても吸収するようにテーパーを付けるなど、ロボットが把持しやすい形状にデザインされている
|
ロボット用のハンドルが付けられている電子レンジと冷蔵庫
|
|
|
さまざまなハンドで把持できるような形状にデザインされている
|
ロボットや部屋の物品位置をマネージするRMSのサーバはノートPC
|
● 2種類のロボット
デモで動作したロボットは2体。1体は独立行政法人産業技術総合研究所(産総研)が主に開発したもので、電動車椅子に「iARM(アイ・アーム)」というマニピュレータを取り付けたロボット。「アイ・アーム」自体は障害者向けに市販されているオランダ・Exact Dynamics製のロボットアームだ。「ARM」とは「Assistive Robotic Manipulator」の略称で、既に販売実績は10年以上、海外では補助金も使えるため500人以上のユーザーがいる。電動車椅子のバッテリを使って駆動する。自由度は7で、先端にエンドエフェクタとしてグリッパがついている。およそ1.5kg程度の物体を把持でき、ほぼ人間の手が届く範囲に腕が届く。各関節にはエンコーダーが入っていて、手先のグリッパを水平に保ったまま動かせる。また挟み込みや衝突などへの対策もなされている。衝突によって関節位置がずれたときにはリセットで対応する。日本では2008年1月からテクノツール株式会社から市販されている。
今回の産総研のシステムではそれを改造して、先端部につけたUSBカメラで環境側やワーク対象となる食品コンテナ等に貼り付けた「CLUE(Coded Landmark for Ubiquitous Environment)」と呼ぶ二次元コードを読み取り、RMSの助けを受けて自動動作できるようにした。ある程度まで人が手動で動かし、二次元コードを読み取らせると、そこから先の把持作業などは自動で行なうことができる。いわば半自動ロボットである。
iARMは人と接触しても安全なように全体が柔らかく作られている。またベルトで駆動されていることもあり、位置精度は高くない。もともとの「ARM」は操作者が肉眼でロボットアームの先を見ながら手動でジョイスティックあるいはキーパッドを使って一関節ずつ操作するものであるため、別に位置精度は低くても使えればいいという思想で作られている。だが自動で動かすようにするため、今回のシステムでは絶えずビジュアルサーボをかけながら対象にゆっくり近づいていく。開発ではこのあたりに苦労したという。
また、自動で動かすためにはコードをカメラで読み取らせる必要があるが、そのためには腕の先をマーカーにほぼ正対させる必要がある。操作には多少の馴れが必要なようだ。
|
|
|
「iARM」付き電動車椅子。ゲームパッドでアームを動かす
|
左側には位置認識センサー「StarGazer」のIRライトとカメラが設置されている。これで位置情報を把握する
|
冷蔵庫やレンジのドアを開けて食品トレイを取り出す
|
|
|
|
食品トレイをテーブルに運搬する
|
グリッパ先端にマーカを読み取るためのUSBカメラを設置
|
アームを折りたたんだ状態
|
|
|
|
【動画】ハンド先端のカメラでマーカーを認識して扉を開ける
|
【動画】トレイを引き出す
|
【動画】テーブル上のトレイを把持する
|
|
|
|
【動画】ビジュアルサーボで位置を修正しながらアプローチしていく
|
【動画】電子レンジのドアを開ける
|
【動画】このロボットの場合は横からハンドルを掴む
|
もう1つのロボットは東芝製。左右独立駆動の2輪で移動する上半身型ヒューマノイドだ。人が操作・半自動で動くARMと異なり、こちらは自律ロボットである。まだ正式名称はないが、同社が開発していたお供ロボット「ApriAttenda(アプリアテンダ)」の発展版でもあることから、「ApriAttenda Ver.2(仮称)」という位置づけだそうだ。ApriAttendaとの大きな違いは双腕がついていることと、胴体部分。腕はワイヤー駆動で動き、アクチュエーターは本体部に搭載されている。そのため腕そのものは細くできているが、重量5kg程度のモノを把持できるという。ただしメンテナンスそのほかには特有の課題があるという。指は3本。手の内側には100万画素程度のカメラが付けられている。現在はセンサー類は接触センサーも力センサーも入れてないそうだが、今後はセンサーを組み合わせることでさまざまなものを把持できるようにする。
なお、車椅子につけられたiARMのグリッパは指2本、東芝のロボットは3本だが、それぞれのロボットは二次元コードを認識すると、自動的に自分に持ちやすい持ち方で把持する。また食品コンテナやハンドルは、ロボットの指がそのように多様であっても、許容できるように工夫されている。
さらに、胴体部分はまっすぐ上に伸びる。それによってロボットの身長は通常時の100cmから130cmまで伸びて、通常時は届かない高い場所にまで手が届くように工夫されている。胴体の中央と下部にレーザーレンジファインダーがおさめられる予定で、胴体中央部のレーザーレンジファインダーでは、テーブル上の食器などをスキャンして位置を把握できるようにする予定だという。また、各部品はモジュール化されており、必要に応じて組み合わせ、拡張がしやすい構成になっている。
|
|
|
東芝のロボット「ApriAttenda Ver.2(仮称)」
|
胴体部分。中央部にはレーザーレンジファインダーが設置されている
|
ロボット背面にStarGazer用のIRカメラ
|
|
|
|
頭部ステレオカメラ
|
ワイヤー駆動の腕
|
肩の付け根部分
|
|
|
|
指先はシリコンゴムで覆われている
|
指を開いたところ
|
指(上)の左付け根部分に小さなカメラが設置されている
|
|
|
|
ボディを伸ばすと高いところにも手が届く
|
各部はモジュール化されている
|
ロボットの概要
|
|
|
|
【動画】冷蔵庫の扉を開ける
|
【動画】別角度から
|
【動画】食品トレイを取りに行く動作がなかったのでデフォルト動作をそのまま実行してしまう
|
なお両者のロボットが実際に実証環境で動けるかどうかは、統合シミュレーション環境である「OpenHRP3」で確認を行ない、最適な立ち位置を決めた。東芝のロボットは自動でデモを行なったが、ロボットのスキルは「RTミドルウェア」の「RTコンポーネント」で書かれている。「RTコンポーネント」とは他のロボットでも使用できるようにモジュール化・規格化された共通のインターフェイスを持つソフトウェア部品である。デモでは実際にRTコンポーネントを次々に切換えながらプログラムされたスキルを実行していく様子が示された。
「神奈川環境プラットフォーム」は、研究者であれば事前に申し込めば使用できる。申込先は神奈川県ロボットパーク事業事務局県工業振興課。自動機能は切られているものの、iARM付きの電動車椅子はこのスペースに置かれている。今後、常に実証実験が行なわれているわけではないが、スペースそのものは一般公開されているので、実証実験中に出くわせばロボットがモデルハウス内を動き回る様子も見ることができるかもしれない。デモの背景詳細、講演内容については後ほど別途レポート記事でお伝えする。
|
|
|
「ノブを掴む」、「腕を回転する」といったRTCで書かれた各スキルを連続して実行していく
|
ロボットの位置・動きもRMSは把握している
|
利用について
|
■URL
科学技術連携施策群
http://www.jst.go.jp/renkei/
■ 関連記事
・ ユニバーサル・シティウォーク大阪で4社7体のロボットを連携して実証実験 ~ネットワークサーバーで情報を共有し、サービスを提供するロボット達(2008/12/05)
・ 次世代ロボット連携群、環境情報構造化プラットフォームの実証実験を公開(2008/01/24)
・ 産総研、ロボットのためのユニバーサルデザインを開発(2007/10/24)
・ 次世代ロボット共通プラットフォーム技術の現状は? ~「次世代ロボット連携群」講演会レポート(2007/09/20)
・ 「次世代ロボット共通プラットフォーム技術」平成18年度成果報告会レポート(2007/02/23)
( 森山和道 )
2009/02/06 15:48
- ページの先頭へ-
|