1月10日、東京大学工学部にて「21世紀COE情報科学技術戦略コア 実世界情報システムプロジェクト最終成果デモンストレーション」が報道公開された。
人と情報システムの新しいインタラクションの研究を進めてきた同プロジェクトの目的は、実世界環境の中の人間に対してこれからの計算機や情報科学が、どのようなサービスを提供できるか探ること。人間に合わせたサービスを実現するため、実環境と情報環境との新しい融合と、「人間行動支援環境」の実現を目指して研究を進めてきた。今年度は5年間の研究プロジェクトの最終年度にあたる。
人間行動支援環境デモが行なわれた「実世界ショールーム」は、未来のリビングルームをイメージして研究成果を統合した空間。人間の状態に応じて、ヒューマノイドロボットやVRシステム、エージェントシステムなど多種類のロボットや情報システムが互いに協調し、人の行動を臨機応変に支援する人間行動支援システムが動作する。

|
拠点リーダーで東京大学大学院情報理工学系研究科 研究科長の武市正人氏
|
拠点リーダーで東京大学大学院情報理工学系研究科 研究科長の武市正人氏は、幅広い情報分野を融合し、実世界に密着した情報空間を実現し、単独プロジェクトでは実現できないような成果を得るため、若手の研究者も積極的に参画してもらった、とプロジェクトの趣旨を述べた。
なおPC Watchでは2003年に行なわれた同プロジェクトのシンポジウム・レポートをお送りしているので、当時のレポートも参考にしてもらいたい。それぞれの研究がどのように発展したのか分かる。
□人間に手を差し伸べる机、部屋、計算機(PC)
~東大COE 情報科学技術コア 実世界情報システムプロジェクト・シンポジウム&オープンハウス
http://pc.watch.impress.co.jp/docs/2003/0929/kyokai15.htm
デモは、部屋に埋め込まれた圧力センサー、画像認識、音声認識、ジェスチャー認識などを使って、情報理工学系研究科知能機械情報学専攻 佐藤知正教授が部屋の主というイメージで行なわれた。
まず、佐藤教授が部屋のソファに腰掛け、本を開くと照明ロボット「ロボティック照明」が自動的に位置を調整し手元を照明するというシーンから始まった。この部屋の床やソファにはセンサが埋め込まれていて、人の位置や座ったことは、そのセンサによって検知される。ロボティック照明は5自由度、明るさ制御機能を持ち、座った位置に合わせて自動的に追従する。
なおセンサ群からのデータは、「統合サーバ」にイベントとして送信され、統合サーバが予め定められたルールに基づいて個々のロボットにコマンドを送るというシステムになっている。
続けて佐藤氏は、手招きジェスチャを行なった。このジェスチャ動作は部屋の端につけられたビデオカメラによって撮影されており、PCによる処理によってコマンドとして認識されると、ロボットに対してコマンドが発せられる。
ジェスチャ認識には独自の「立体高次局所自己相関(CHLAC)」と呼ぶ特徴量が使われており、リアルタイムで認識が行なえる。当然のことながら人間はジェスチャコマンド以外の動きも行なうが、無関係の動きを判断する処理を実現することで、誤反応を抑えることができたという。
|
|
|
複数台のロボットやセンサーが協調する「実世界ショールーム」
|
天井近くには音声認識システムやビデオカメラ、プロジェクターが並ぶ
|
人間に機械や情報システムが合わせる「行動支援環境」の実現を目指す
|
|
|
|
5自由度の照明ロボット「ロボティック照明」
|
【動画】ロボティック照明の動作の様子
|
ジェスチャー動作でコマンドを与える佐藤教授
|
ヒューマノイドは近づいて、用件を聞く。「お茶が欲しい」というと、2台のロボットが協力してお茶を人間の手元にまで運んでいく。まず1台目がお茶をペットボトルから湯飲みに注ぐ。防水用の手袋をつけられたHRPのハンドは単なるグリッパーなのでペットボトルの把持は見た目ほど簡単ではなく、ときどき滑ってしまう。そのため今は滑りを検知して把持力を変えるような研究を行なっているという。一連の動作にはステレオカメラを使った物体認識技術が使われている。
それを車輪型のHRPが手元まで運搬する。ロボットは部屋の環境地図を持っており、それを一秒間に10回更新する。車輪型の移動部分にはレーザーレンジファインダが付けられており、障害物を認識しながら移動することができる。
テーブル上に置くときは、テーブル面の高さを検知して湯飲みを置いている。なお2台のHRPの首は、下(手元)を覗き込みやすいように少し延長されている。頭部には10個のマイクを使って音声認識や音源定位を行なっている。首は音源方向に向くようになっており、ビジョンはそのなかで移動する物体を探すことで人間からのリクエストがないか探している。
なお車輪型は平坦な場所、キッチンカウンター内など狭い場所では脚式が適していると考えているという。
|
|
|
腕に防水用の手袋をしたHRP-2
|
2台のロボットが共同で作業を行なう
|
お茶をとる車輪型日常生活支援型ロボット
|
|
|
|
【動画】「お茶を持ってきて下さい」という命令に応じてロボットがお茶くみ作業を始める
|
【動画】ペットボトルから湯飲みにお茶を注ぐ
|
【動画】1台がお茶を注ぎ、もう1台がそれを取る
|
|
|
【動画】湯飲みを佐藤教授のところにもっていきテーブル上に置く
|
【動画】車輪型ロボットの移動の様子。全方向に動ける
|
こうして佐藤教授はお茶を飲みながら、キーボードを演奏する。誤りやテンポの変動など、人間の演奏が不十分であっても自動伴奏システムが支援をしてくれる。ミスタッチなどの誤りの起こりやすさはHMM(隠れマルコフモデル)でモデル化されている。もちろん、再演奏も簡単に行なえる。
そのためのコマンドは自動的に首振りを行なうプロジェクタと、マーカーを使った画像認識システムによる「環境遍在型ディスプレイ」で行なう。マーカーの描かれた映像を見ることでシステムは情報を得て、それに応じて映像をプロジェクションする。
|
|
【動画】自動伴奏システム
|
環境遍在型ディスプレイ
|
|
|
マーカーを認識してプロジェクタから情報が投影される。操作も行なえる
|
天井の可動式プロジェクタ
|
友人と話をするときには、VRシステム、ARシステムを使う。回転する遮光板とLEDアレイを使った「回転型パララクスバリア」と呼ばれる手法を使った大型の全周囲裸眼立体映像ディスプレイ「TWISTER」、回転ディスプレイを使った「実世界ビデオアバター」などを使うことにより、立体映像を裸眼で見ながら会話することができる。
TWISTERほかの基本原理は、下記の以前のレポートを参照して頂きたい。
□箱から出るコンピュータ、実空間と融合するVR空間(PC)
~テレコミュニケーション、テレイグジスタンスの未来
http://pc.watch.impress.co.jp/docs/2004/1215/kyokai32.htm
「実世界ビデオアバター」はプライバシーフィルターを張ったタブレットPCを貼り合わせたデバイスをDCモーターで回転させたもの。40度ごとに違う画像を提示し、一秒間に4回転させている。画像情報は制御PCから無線LANで送信されている。それによって、立体画像が見えるのだ。
遠隔地との高速通信には大域ディペンダブル情報基盤プロジェクトの成果が生かされている。
|
|
全周囲裸眼立体映像ディスプレイ「TWISTER」
|
【動画】「実世界ビデオアバター」システム
|
|
|
回転してない状態の「実世界ビデオアバター」システム
|
【動画】Attentive Work benchの動作の様子(プレゼンを再撮)
|
会話のなかでは、今後のセル生産システムを支援する作業支援環境「Attentive Work bench」がビデオで紹介された。自動的に部品などが運搬されてくるデスクと、作業内容を提示するディスプレイシステム、作業者のバイタルを取ることで副交感神経活動から心理的負荷などを測定するシステムだ。
お茶を飲み終わった佐藤教授は、お茶の片づけをヒューマノイドに命じる。そうすると再び、車輪型ヒューマノイドと2足歩行ヒューマノイドが共同して作業を行なう。2足歩行ロボットのほうは、水道に向かい、シンクや水道蛇口の位置を把握、蛇口のハンドルを操作して自分で水を出し、コップの中に水を注ぎ、洗浄する。
ハンドル操作は人間にとってはなんでもない作業だが、ロボットに作業をやらせようとすると、回転中心の検出や、微妙な力制御が必要となる。そうでないとロボット自身のアクチュエータを破壊したり、ハンドルを傷つけたりしてしまう。どの部位を握るべきかの判断は知識モデルを使って行ない、全身行動の動作計画を行なう。
なお今回のデモで見せた動作以外に、稲葉研究室では、箒でゴミを掃いたり、掃除機を使うなど、ヒューマノイドによる日常動作支援の研究を行なっている。
□東大、人型ロボットをテーマとした第一回工学体験ラボを開催
~工学部広報センター「T-Lounge」新設
http://robot.watch.impress.co.jp/cda/news/2006/07/21/87.html
|
|
|
湯飲みを片づけるロボット
|
2台で片づける
|
【動画】水を出し、湯飲みをすすいで水を止める
|
続けて「Strino Plant Instument」と「SmartHead Boy」が紹介された。「Strino Plant Instument」は、ひずみ計測技術を応用した観葉植物で、触ると音を奏でる。植物のような柔らかいものから鉄棒のように硬いものまで、同じ方法でインターフェイス化できるという。「SmartHead Boy」は聴覚センサーで音源の方向を検知して首を向ける。音源の3次元定位ができる。
|
|
音源定位する「SmartHead Boy」。天井にとまったふくろうのイメージでデザインされていた
|
【動画】ひずみ計測技術を使った「Strino Plant Instument」
|
最後に、案内ロボットがデモの内容の全体をまとめて紹介した。案内ロボットは3次元CGを使った擬人化音声対話システム。全方向移動台車の上に短焦点の反射型プロジェクタを搭載したソフトウェアエージェントとなっている。音声合成対話システムには「Galatea(ガラテア)」と呼ばれるツールキットが使われている。
デモ当日は場所の関係で移動するデモはなかったが、プロジェクタ投影面の後ろにはカメラが付けられていて、エージェントの背景に背面画像をそのまま投影することにより、あたかも3次元CGエージェントと一緒に歩いているかのような動作が実現可能だという。
|
|
|
案内ロボット
|
【動画】3DCGエージェントの動作の様子
|
背面にあるカメラ
|
なお、このプロジェクトの研究成果の一部は東京大学がトヨタなど7社と組んで進めている「IRT基盤創出プロジェクト」に引き継がれて発展させていくことになるという。
■URL
東京大学21世紀COE 「情報科学技術戦略コア」
http://park.ecc.u-tokyo.ac.jp/coe-rwisp/
【2003年9月29日】東大COE 情報科学技術コア 実世界情報システムプロジェクト・シンポジウム&オープンハウス(PC)
http://pc.watch.impress.co.jp/docs/2003/0929/kyokai15.htm
■ 関連記事
・ ロボット+IT=IRTは10年後の新産業を目指す(2006/08/07)
・ 東大、人型ロボットをテーマとした第一回工学体験ラボを開催(2006/07/21)
( 森山和道 )
2007/01/11 16:43
- ページの先頭へ-
|