|
ICT分野における研究開発の成果発表だが、ロボット分野のものも複数があった
|
総務省は11日、情報通信技術(ICT)分野における競争的資金制度である「戦略的情報通信研究開発推進制度(SCOPE=Strategic Information and Communications R&D Promotion Programme)」の第4回成果発表会を開催した。会場は、都心の大手町サンケイプラザ。2件のロボット関連の成果報告も行なわれたほか、ポスターセッション会場ではデモ映像や開発機器の一部なども披露された。今回拝見させてもらったロボット関連の成果報告と、会場で見かけた興味深い技術についてお届けする。
SCOPEとは、ICT分野におけるイノベーションを生み出すことを目指し、平成14年度(2002年)からスタートした競争的資金制度。総務省が定めた戦略的な重点研究開発目標(UNS戦略プログラム)を実現することを目的とした、研究開発を支援するものだ。ちなみに競争的資金制度とは、研究資金の配分を行なう機関が広く研究開発課題を募集し、専門家を含む委員会による科学的・技術的な観点を中心とした評価に基づき、提案課題の中から実施すべきものを採択し、研究者などに資金を配分するものである。
今回のロボット関連の成果報告のタイトルは、ひとつが次世代ヒューマンインターフェース・コンテンツというくくりの中で発表された、「視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション」。もうひとつは、産学官連携先端技術開発プログラムの中のひとつで、「遠隔ロボットを用いた災害時マルチメディア情報収集技術に関する研究開発」だ。前者は研究代表者として、埼玉大学 大学院理工学研究科 数理電子情報部門教授(工学博士)の久野義徳氏が行なった。後者は同じく研究代表者として、東北大学 大学院工学研究科 航空宇宙工学専攻教授(工学博士)の吉田和哉氏が成果報告している。
● 視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション
同研究は久野氏のほか、工学の面から筑波大学教授の葛岡英明氏と埼玉大学助教の小林貴訓氏、社会学の面から埼玉大学教授の山崎敬一と東京工科大学(研究開始時は公立はこだて未来大学)准教授の山崎晶子氏が参加。研究期間は平成17年度(2005年)から平成19年度(2007年)までの3年間だ。
「視覚情報に基づく人間とロボットの対面およびネットワークコミュニケーション」とは、人と人がその場で行なう対話と同じコミュニケーションを、人とロボットの間で行なうことを目的とした研究である。具体的にいうと、ロボットに「あれ取って!」といって取ってもらえるようにする、という研究である。人間だと非常に簡単だが、それをロボットで実現しようとすると、人間の行動や周囲状況を視覚で認識することと、人間の視覚に対して適切な行動を示すことが、ネットワークを通じた場合も含めて必要になる。それを実現するための研究として、ミュージアムガイドロボットと介護ロボットに関しての実験が行なわれた。
まずミュージアムガイドロボットだが、こちらは研究室でまず参加人数を変えて実験を実施。その後、大原美術館(岡山県倉敷市)にて実証実験も行なわれた。絵画などの解説をロボットが行なう形で、被験者(来場者)に対しての頭部ジェスチャー(首振り)による行動表現がどのような影響を及ぼすか、ネットワークを介したコミュニケーションではどうなるかといったことのデータを収集している。使用されたロボットは、ヴイストンの「Robovie-R Ver.2」やオリジナルで開発されたロボットなどだ。首振りによる行動表現とは、人が他者に説明するとき、時々聞き手の方に振り向いたり、うなずいたりするといった行動のこと。
それに対して、聞き手側も説明者の方を向いたり、うなずき返したりすることで、「わかりますか」「はい、続けてください」という意思疎通を、非言語的に行なっているというわけだ。実験ではロボットに振り向くタイミングを変えて複数回実施し、聞き手の反応を探った。話が一段落するタイミングで顔を向けると、聞き手も予想しているのでほぼ同時にロボットを見たりうなずいたりする。しかし、説明の途中など変なタイミングだと、「今こっち見たのは何?」と聞き手が疑問に感じたり、まったく無視してしまったりすることが判明。首振り運動にいかに影響力があるかということと同時に、ロボットの非言語的な行動が人に大きな影響を与えることもわかったというわけである。
|
|
|
埼玉大学の久野義徳氏
|
社会学と共同しての研究で、実証実験は岡山県倉敷市の大原美術館で行なわれた
|
研究室での実験は、12人参加の小規模なものと46人参加の大規模なものが実施された
|
|
|
|
【動画】オリジナルの首振りロボット
|
【動画】オリジナルの首振りロボットによる実験の様子
|
【動画】実験の様子。説明が一段落ついた段階でRobovie-Rが振り向いた際は、聞き手のレスポンスが早い
|
|
|
|
【動画】実験の様子その2。意味のないタイミングで振り向く場合の反応。遅れたり、無視したりする
|
実験結果。薄紫が一段落ついた時の首振りに対する聞き手の反応。左から聞き手の首振り、うなずき、両方、合計で有意差が出た
|
【動画】大原美術館での実証実験の様子
|
続いては、ネットワークを通じた実験。操縦者がロボットを媒介にして訪問客とコミュニケーションする「ネットワーク代理コミュニケーション」と、ネットワークを介して遠隔地の人間が自律ロボットとコミュニケーションする「ネットワーク直接コミュニケーション」のふたつが行なわれた。Robovie-Rに前方カメラ3台と後方カメラ1台を設置してあり、操縦席には上段に後方カメラのモニターが1台、下段に前方カメラのモニター3台が並べられている形だ。下段の3台のモニターはタッチパネルである。
ネットワーク代理コミュニケーションでは、操作者がどのモニターを見ているかがRobovie-Rにフィードバックされる仕組みで、その方向に首を向けるようになっている。それにより、Robovie-Rのそばにいる訪問客も操縦者がどの方向を観ているかがわかるというわけだ。また、タッチパネルに触れると、その方向をロボットが指さす仕組みにもなっている。ネットワーク直接コミュニケーションは、「このパンフレットを」といいながら、下段のモニターのどれかに映っているパンフレットの部分にタッチし、「あの人に渡して」と続けて、モニター上の目的の訪問客の顔にさらにタッチすれば、ロボットは指示されたパンフレットと訪問客を視覚的に認識し、指示を実行できるという仕組みだ。この間、上段のモニターには、後方視界の中にRobovie-RのCGがインポーズされ、あたかも前方から撮影したような映像となっており、周囲の状況も把握できるようになっている。これらの実験でも、発話の適切な時点でRobovie-Rが頭部を動かすことで、それに応じて人間が反応するということが確かめられた。
|
|
ネットワークを介して操縦するロボットシステム
|
【動画】操縦者の首の動きに同調して頭部を上下左右に動かすロボットの様子
|
介護ロボットに関しては、最初にロボットを使用しての実験ではなく、3カ所の高齢者介護施設の食堂などでビデオ撮影を行なうところからスタート。どのようにして、お年寄りから介護士への依頼が始まるかが、会話や相互行為から分析された。それによれば、まず手の空いている介護士は、「手が空いている」ということがわかるポーズ(サービス提供が可能な「availability」の表示)をしながら、お年寄りが何か困ってないか、順々にひとりずつの顔を見渡していく。お年寄りの方で何かお願いしたいことがあれば、介護士がこちらを見てくれたタイミングで視線を送る。介護士がそれに気がついたら、気がついたことを知らせる視線をお年寄りに送り返す(「recipiency」の表示)。そのあと、さらに手を挙げたり、発話したりして確認を行なう(「acknowledgment」の表示」)という流れであることが判明した。
実際にロボットを使った実験では、周囲の人間を検出し、その方向で少し動きを止めながら顔を動かし、その時にロボットの方に顔を向けた人を検出したら、視線を止めるという動作をするようにした。結果、実験に参加した学生たちはそうした動作があることで、親しみやすく見守ってくれている感じを与えてくれ、依頼をしやすいというものが得られたという。
|
|
介護施設での様子を撮影しているところ
|
【動画】学生がお年寄りを演じた介護ロボットの実験の様子。ロボットは、外装が外されたRobovie-R
|
また、物体認識システムについても発表された。まず物体の自動認識を行ない、それに失敗したら認識を助ける情報を人間に対話を通じて求めるという手法である。調査で、物体名を認識できない場合、人はその物体で最も使われている面積の広い、または地(背景)の色で行なうことが判明。そこで、色で指示された場合に物体を認識するため、地の色を検出するシステムを開発。地の色を検出している様子が示された。
|
|
|
人は、相手に伝わらないときに、その物体をどう表現するかの観察実験には、10組が参加し、227の表現を収集
|
相手に伝わらない場合は、地の色か最大面積部分の色で表現することが多いことが判明
|
地の色を検出するためのシステムが検出しているところ
|
結論として、ロボットと人とのコミュニケーションでは、視覚情報で認識する「見る」技術だけでなく、相手に非言語的な手段を用いて意思疎通する「見せる」技術、そして「対話物体認識」が重要であるとしている。ミュージアムガイドロボットの場合は「見せる」技術が重要で、「見る」技術が補助的、介護ロボットは3つすべてが揃っている必要があるという。今回の研究は既に終了しているが、今後もより一般的な場合への対応ができるように研究を進めていくとしている。
● 遠隔ロボットを用いた災害時マルチメディア情報収集技術に関する研究開発
続いては、「遠隔ロボットを用いた災害時マルチメディア情報収集技術に関する研究開発」。近年、レスキューロボットの開発が活発だが、こちらもそのひとつである。東北大学の吉田氏が発表を行なったが、こちらも複数の大学に加えて、一般企業や独立行政法人も参加した大型の研究開発だ。東北大学(大学院工学研究科)以外には、大阪大学サイバーメディアセンターおよび同産業科学研究所、株式会社IHIエアロスペース研究開発部、株式会社映蔵、独立行政法人情報通信研究機構情報通信セキュリティ研究センターが参画した。研究期間は平成15年度(2003年)から平成19年度(2007年)まで実施されている。
同研究が目指すのは、ロボット工学、通信衛星、IT関連技術を連携させ、広域自然災害被災地における初動情報収集活動を支援するための技術開発を行なうこと。具体的には、4項目において研究開発がなされた。ひとつ目が、通信インフラが途絶する可能性の高い広域災害現場で、適切な情報収集と遠隔地への伝送を行なうための手段として利用する「非常時通信アドホック・ネットワークの構築」。ふたつ目は、その構築したアドホック・ネットワークと4つ目に紹介する通信衛星を介しての「移動探査ロボットの遠隔操縦」。3つ目は、ロボットが収集したデータを基に、災害現場の立体的なマップ作成を行なう「拡張現実感を用いたデータ表示」だ。そして4つ目が、前述したように災害対策本部(司令室)と結ぶための「衛星通信実験」となっている。
|
|
東北大学の吉田和哉氏
|
開発コンセプト
|
これらの研究によって開発されたのが、無線遠隔操縦が可能な不整地探査用親子型ロボットシステムの「MURROS」だ。Multi-purpose Rescue Robot Systemの略称で、「ミューロス」と読む。親ロボットははしごを背負った6輪車の大型がれき走破ロボットで、「Grande」と呼ばれる。子ロボットは、そのはしごに2機がセットされており、直接探索を行なうクローラ型の小型ロボットで「Piccolo」という。PiccoloがGrandeのはしごにセットされているのは、建物の2、3階から進入し、下へ降りていく形で要救助者を捜す作業手順だからだ。Grandeはアドホック通信の中継器としての機能を持っており、建物の外で待機して、Piccoloからの情報を受け取り、操縦者らのいる災害対策本部へ通信衛星を経由して伝える仕組みである。
|
|
|
親ロボットのMURROS-Grande。6輪の大型ロボット
|
【動画】2006年の公開デモの時のGrandeの様子
|
子ロボットのMURROS-Piccolo。新開発のセンサで環境情報を収集する
|
|
|
【動画】Piccoloが段差を乗り越える様子
|
【動画】ビルの解体現場での実験で、Piccoloががれきの中を移動していく様子
|
また、今回の研究で新たに開発されたのが、環境認識のための3次元全方位視覚センサ。円錐型のミラーを逆さまに配置し、そこに映った360度の映像を録画するカメラと、レーザレンジセンサ(レーザスキャナ)を複合させたシステムである。レーザレンジセンサが、まず届く範囲内にある建物やがれきなどの位置・形状を立体的に把握した後、カメラでとらえた映像を普通の視野に変換してテクスチャとして貼り付けるという仕組みだ。屋外でも使用することができ、実験では東北大学の校舎の周囲の路面5カ所で計測しただけで、あたかも空撮したかのような校舎の映像を構築していた。
|
|
3次元全方位視覚センサの実物
|
360度の映像はこのようにして撮影。魚眼レンズよりもこの仕組みの方が通常の映像に変換しやすい
|
|
|
【動画】レーザレンジセンサのスキャン画像と360度カメラの映像から周囲の環境を立体的に再現する様子
|
【動画】5カ所の路面上でデータを取得しただけで、ヘリによる空撮に近い立体的な映像を得られる様子
|
アドホック・ネットワークに関しては、GrandeとPiccoloの連携だけでなく、中継器を途中で設置して操作するという実験も行なわれた。建物の規模が大きい場合、ロボットが自ら要所ごとに中継器を設置し、通信が途絶しないようにするというわけである。実験は、東北大学工学部の校舎でのビル内およびビル間をロボットが通り抜けるという内容で、あらかじめ11台の中継端末が設置されて行なわれた。走行距離約230mを通り抜けることに成功している。
さらに、きく8号を用いた通信衛星経由の遠隔操作実験は、昨年11月の科学系イベント「サイエンスアゴラ」内で一般公開にて実施。操縦者がロボットを直接見ずに、衛星経由で操作することに成功している。操縦者は直接ロボットを見ずに、3次元全方位視覚センサで取得したデータを基に操作。リアルタイムのストリーム映像を頼りに操作するよりも、遙かに情報量が少なく済むのがポイントだそうだ。感覚としては、がれきの散乱する実験現場をスキャンして仮想空間として構築し、操縦者はそこでロボットのシミュレータのように操作するという形のようである。
|
|
中継端末11台を用いた実験も行なわれた
|
【動画】通信衛星経由による遠隔操作の一般公開デモの様子
|
ポスターセッション会場では、3次元全方位視覚センサの実物が披露されていた。昨年度で研究開発は一区切りとなったが、今後も研究開発は続けられていき、また近いうちにマスコミにも披露するということなので、その時はぜひお伝えしたい。
● ポスターセッション会場で見かけたロボット関連技術
ポスターセッション会場で、開発された装置やデモ映像が説明パネルとともに披露されていたのが、地域情報通信技術振興型研究開発だ。その中のひとつの「ネットワーク触覚インターフェースの研究開発」は、ロボットの要素技術が利用されている技術。岐阜大学工学部人間情報システム工学科教授の川崎晴久氏が研究代表者を務め、株式会社ダイニチ、株式会社丸富精工、イー・バレイ株式会社が参加して開発された。研究期間は、平成17年度から19年度まで。
同研究開発は、「触覚の通信」を根幹としたものだ。人の複数の指や手のひらに力覚を提示できるネットワーク触覚インターフェース技術を目指して、研究開発が行なわれた。同技術の応用により、人型ロボットの(五指の精密な)遠隔操作、製造業における触感3次元CAD、製造現場における熟練技能の力のかけ具合など触覚部分における記録と伝達、医学教育における触診訓練システム、医療における遠隔検診と治療、福祉における遠隔介護などなど、さまざまな分野での応用が考えられている。
今回開発され、展示されていたのは、対抗型5指触覚インターフェイス「HIRO III」。人の手に対応するためには、人の手と同じ形状が最も適しているということで、一見するとロボットハンドである。使用する際は、人の指の先端にマグネットのついた指サックを装着し、5指インターフェースの指先とは磁石で接続する。それにより、万が一機器が暴走したりしたときも、簡単に外れて危険性がないというわけだ。
|
|
|
完全に人の手の形をしている、対抗型5指触覚インターフェイス「HIRO III」
|
このように指先同士を接続して操作する
|
【動画】操作しているところ
|
|
|
操作する際に指先にサックをはめる
|
指サックの先端に鉄球が着いており、磁石で5指インターフェイスの指先に吸着する
|
実際に装着して試させてもらったのだが、ソフトウェア上で3DCGの球体をつまむと、ちゃんと抵抗が感じられた。本来はハンド部分だけでなく、アーム部分があるのだが、スペースの都合で展示できないため、5指インターフェイスの手首が固定されてしまっている関係で少々動かしづらい点は残念だった。
具体的な使用例としては、まず医療方面がある。デモ映像では、乳ガン検診用として、女性の上半身を模したソフトウェアの3DCG上で、しこりがどこにあるか確かめるという実験を見せてもらえた。さらに、熟練技術の記録や伝達もターゲット。映像や音声、テキストでの説明では伝えられない、「力のかけ具合」というものをHIRO IIIで記録し、修得したい人たちに伝えるというわけである。また、指先だけでは力の記録や伝達は不足であることから、指の腹の部分に着けるデバイスも開発中としてサンプルを見せてもらえた。そのデバイスは手のひらへの応用も研究中ということである。
|
|
ソフト上の仮想空間で球体をつまんだところ。小さな球体が指先を表している
|
乳ガン検診などの触診訓練では、ガン(しこり)の位置を変えられるので何度でも挑戦できる
|
|
|
よりリアルさを出すため、5指インターフェースと組み合わせた没入型立体医画像ディスプレイ
|
指の腹に感覚を伝えるためのデバイスのサンプル
|
● ネットワークを介して人間の日常活動と情報・体験共有を支援する複合現実情報環境
直接ロボット関連の技術ではないが、近未来的なデバイスなどをいくつか紹介する。次世代ヒューマンインターフェイス・コンテンツ技術のひとつとして紹介されていたのが、「ネットワークを介して人間の日常活動と情報・体験共有を支援する複合現実情報環境」だ。現在、バーチャル・リアリティがあまりにもリアルでないということから、現実の映像にCGによる情報を重ね合わせる、「複合現実」(拡張現実ともいわれる)と呼ばれる表現に研究が移行してきている。同研究はそれを題材にしたもので、奈良先端科学技術大学院大学 情報科学研究科 研究科長教授の横矢直和氏が平成17年度から19年度にかけて研究を行なった。
デモのひとつは、ポスターセッション会場の様子をとらえたカメラの映像に対し、「出口」や各ブースのネームプレートなどの情報をスーパーインポーズしてほぼリアルタイムで表示していた。仕組みは、人の目には見えにくい透明な再帰性反射材で記号をブースの上部に設置した天板に描き、それをカメラの上側に設置されていた赤外線カメラがとらえることで、重ね合わせていたというわけである。また、データベースさえあれば屋外でも可能とのことで、同大学のキャンパスのビデオ映像を流してそれを取り込み、情報をスーパーインポーズして表示していた。
|
|
【動画】ポスターセッション会場のホールの映像に情報がスーパーインポーズしている様子
|
ブースの上に設けた天板に、再帰性反射材で情報を書き込んであり、それによりスーパーインポーズされる
|
|
|
【動画】屋外の映像でもデータベースさえあれば、情報をスーパーインポーズすることは可能
|
【動画】実写風景映像にCGキャラのアニメーションをインポーズすることもできる。映画やゲーム業界向きの技術だ
|
● 実世界における「触覚」を提供するボリュームベース臨場感通信に関する研究開発
「実世界における『触覚』を提供するボリュームベース臨場感通信に関する研究開発」は、「ネットワーク触覚インターフェースの研究開発」と似た題材で、遠隔地点間で触感/触覚を共有するハプティックコミュニケーション分野を扱ったもののだ。立命館大学大学院 情報理工学部 教授の田中弘美氏が研究代表者で、同大学大学院理工学研究科および総合理工学研究機構、滋賀医科大学医学部、奈良女子大学が参画した研究である。こちらも研究開発は、平成17年度から19年度まで。
こちらの研究では遠隔手術などの医療分野での用途を検討しているそうだが、デモでは、遠隔地と結んでの実験の再現は無理なため、リアルな触感/触覚を持った「肝臓」がPCのソフト上に用意されており、「ファントム」と呼ばれるフォースフィードバック機能を備えたPC用のペン型デバイスで、つっついたり、引っ張ったりできた。うにょ~んという、柔らかいのだがある程度の質感もある内臓という感触を感じさせてくれたが、ちょっとソフトの調子がよくなかったようで、いつもより操作感の精度が低かったそうである。
|
|
【動画】バーチャルな肝臓をつっついたり引っ張ったりする様子
|
インターフェイスは、ソリッドレイ研究所の「ファントム」を使用。価格は50万4,000円
|
● 単一磁束量子デバイスによるニューロチップの開発
若手先端IT研究者育成型研究開発のひとつとして、ポスターセッション会場で発表されていたひとつが、「単一磁束量子デバイスによるニューロチップの開発」だ。東北大学 電気通信研究所所属の工学博士である小野美武氏が研究代表者で、期間は平成17~19年度。
ニューロチップは生物の脳の構造を真似ており、現在のCPUが苦手とする画像認識などを得意とする。今回開発されたニューロチップは、4度Kの極低温環境下の超伝導現象を利用して作動するというもので、民生用として出回るのはさすがになさそうである。将来的には100GHzの動作周波数を目指すという。ニューロチップは脳細胞のように多数を結合させていく仕組みだが、このニューロチップは1,024個の接続を実現している。それ以上は厳しいそうで、人間の脳のように140億個も接続できるようになるには、現状ではほぼ不可能ということであった。残念ながら(?)、人工知能の反乱は当分なさそうである。
|
|
ニューロチップ
|
ニューロチップの回路拡大図
|
今回の成果発表は、研究開発の進み具合を感じさせてくれるものもあれば、実際に製品として市場に出回るとしてもまだまだ先になりそうなものもあった。研究は平成19年度で一区切りということだが、今後もさらに発展させ、ぜひ具体的な製品やシステムに持っていってほしいところである。
■URL
戦略的情報通信研究開発推進制度(総務省)
http://www.soumu.go.jp/joho_tsusin/scope/
久野義徳氏研究室(コンピュータビジョン研究室)
http://www.cv.ics.saitama-u.ac.jp/
吉田和哉氏研究室(宇宙ロボット研究室)
http://www.astro.mech.tohoku.ac.jp/
川崎晴久氏研究室
http://robo.mech.gifu-u.ac.jp/jp/
横矢直和氏研究室
http://yokoya.aist-nara.ac.jp/
田中弘美氏研究室
http://www.cv.ci.ritsumei.ac.jp/haptic/
( デイビー日高 )
2008/06/19 20:06
- ページの先頭へ-
|