6月5日~9日の日程で「2006年人工知能学会 全国大会」が開催されている。7日には「ロボット・センサネットワーク」セッションが行なわれ、6件の研究が発表された。
|
慶應義塾大学大学院理工学研究科 向井淳氏
|
まずはじめに「注意機構にもとづくロボットの自律的な行動選択手法の提案」という研究が慶應義塾大学大学院理工学研究科の向井淳氏から発表された。
向井氏は、コミュニケーションにおいて対話をはじめとした行動の多様性に着目しており、ロボットの行動に対するアプローチとして、注意機構を使うモデルを提案した。ロボットが取るべき反応のうち、ある種のものは、単純なif~thenルールでは論理的に決定することができない。たとえば、赤い箱と青い箱を人間から示されて「どちらが好きか」と問いかけたときに、恣意的な判断基準のようなものを持っていないと対話が成立しないことがある。このようなケースでも人間とスムーズに対話するためにはどうすればいいだろうか。
向井氏は「注意機構」を使うことで、行動の多様性を実現することができるという。具体的にはセンサー入力の手前のところに、ある種のフィルターのようなものをつけることで、「注意」を時間的に遷移させることでロボットの行動を変化させる。それによって、同じ行動でも注意によって内容を変えることができるのだという。
たとえばロボットが色や大きさ、形などの属性を持つ物体を見ているとする。そのうち、どの属性に注目しているかが、「注意」によって時間的に切り替わっていくのである。
注意が遷移する基準は、「コンテキスト」による。このシステムにおける「コンテキスト」とは、これまで注意を向けていた対象と属性のペアの部分的な履歴で、それをもとに注意が構成され、また動的に更新されていく。これによって行動に多様性を持たせられるという。
今後は、既存のモデルでは実現できない行動を生成することを目指すと同時に、モデルの適切さを心理実験などで確認していくそうだ。
|
|
システムの構成
|
【動画】実験に使われているロボットはRobovie。オレンジのブロックを見せたあとにコンテキストを書き換えさせている
|
続けて「心理状態認識を用いたペットロボットの行動選択手法の提案」が岩手県立大学大学院ソフトウェア情報学研究科の阿部訟氏から発表された。
利用者の生体信号(心拍活動)を計測し、そこから交感神経と副交感神経の活動を間接的に見ることで、利用者の快不快状態を推定する。そしてロボット利用者の望む行動を推測することによって「利用者が望む行動を行なうペットロボット」の構築を目指す、という研究だ。
現時点では実際のロボットを使った評価実験は行なっておらず、また、この手法を使うと実験回数が増えた場合に「良評価」を得られる割合が高まったものの、使った場合とそうではない場合とで大きな差が見られなかったという。人間自体の評価基準をスタティックなものとして捉えている点なども気になったが、今後に期待したい。
|
|
岩手県立大学大学院ソフトウェア情報学研究科 阿部訟氏
|
生体信号を使って心理状態計測を試みるアプローチそのものはあちこちで行なわれている
|
同志社大学工学部知識工学科知識情報処理研究室の益田泰孝氏らによる「画像情報を用いた自律移動ロボットの位置姿勢計測」は、天井に設置した広角カメラ画像を補正して、ロボットの代わり全長6cm、速度1.5m/sで走行するミニラジコンカーの位置を決定し、室内での疑似GPSのような機能を実現したというもの。その情報を使ってミニカーを制御して、目的の場所まで到達させた。
室内で移動する自律ロボットにも使える技術かもしれないが、画像認識そのものよりも、精度もあまり良くないミニカーをオンオフだけのスイッチで、それなりの精度でコントロールできる点が面白い。研究よりもむしろ安価に実用化できるのであれば可能性があるかもしれないと感じた。
「実写動画からの道路俯瞰図生成と自己位置姿勢同定」も同じく同志社大学の知識工学科の田中翔氏による研究で、ロボットの視覚を想定した台車+2眼カメラの画像から道の角などを認識して、俯瞰図のマップを作るというもの。
将来的にはロボットからの画像とGPS技術によってロボットの移動制御が可能になるだろうという。
|
|
同志社大学工学部知識工学科知識情報処理研究室・益田泰孝氏
|
カメラで画像を取得してミニカーを制御するが通信遅延が0.1秒ほどある
|
|
|
クルマの動きを予測して、遅延補正をかける
|
走行実験の軌跡
|
|
|
同志社大学工学部知識工学科知識情報処理研究室・田中翔氏
|
研究目的
|
|
|
自律移動システム全体の流れ
|
実験の様子
|
このあと、センサネットワーク上のセンサデータを論理表現に変換するミドルウェア「セマンティック・センサネットワーク」に関する研究発表が2本続いた。
壁や床、テーブルや椅子、その上のモノなど、周囲のあらゆる事物にさまざまな小型無線センサーが付けられており、モノの情報やモノとモノの関係がシンボル表現として生成され、環境が論理表現に変換されていれば――すなわち事物同士の繋がりがロボットを初めとした自律システムが利用できる形になっていれば、システムは、全体として知的に振る舞うことができる。
たとえば、コップと本にそれぞれタグが付けられていて、本の上にコップが載っているということまで分かっており、それを機械システムが把握することができれば、人間に適切にアドバイスするなり、実際にコップを本の上からどけるといったことも可能になる。
|
慶應義塾大学大学院理工学研究科 古山真之氏
|
慶應義塾大学大学院理工学研究科の古山真之氏は、「Viewlonによるセマンティックセンサネットワークの可視化」を提案した。「Viewlon」とは、セマンティック・センサネットワークの関係可視化システムだ。このツールを使うことで複雑なセマンティック・センサネットワークの要素間の関係を整理して低次することができる。
セマンティック・センサネットワークは、「クラス」、「インスタンス」、「センサ」、「推論規則」の4つの要素からなっている。「クラス」とは物体の抽象的表現。「インスタンス」はクラスが実体化したもの。センサはインスタンスに取り付けられている。推論規則はインスタンスの論理関係を記述するために用いられるルール。
「Viewlon」は、センサとインスタンスの関係、インスタンスとクラスの関係、インスタンス間の論理関係を、各要素をノードで表現して可視化する。実世界の情報は膨大なので関係はかなり複雑になるが、情報表示のレベルはスライダーで調節することができ、6段階に切り替えることができる。また、インスタンス間の論理関係の時間変化を可視化して示すこともできる。平たく言い直すと、物体がどのように移動したりしたかということが示せるということだ。
|
|
|
セマンティック・センサネットワークの構造
|
システム構成
|
「Viewlon」画面構成。ユーザーからのクエリ結果も可視化して答える
|
|
慶應義塾大学大学院理工学研究科開放環境科学専攻 神田武氏
|
慶應義塾大学大学院理工学研究科開放環境科学専攻の神田武氏は、推論機構「JUSTO」について発表した。「JUSTO」は、テキスト形式で記述されたルールファイルを読み込んで、推論ルールに基づいて新たなシンボル表現を生成する。シンボル表現の時間的な安定性を推論過程に反映することで、実世界でインスタンス同士が安定していたら、安定した状況として表現することができるという。
また、推論を実行する時に、一定周期でシンボル表現の更新作業を行なうことで、シンボル表現の変化を随時反映した動的な推論を実現することができる。
|
|
|
セマンティック・センサネットワークが構築されていれば、ロボットなどの知的システムはユーザを適切にサポートできる
|
システム構成
|
推論機構「JUSTO」の機能。周期的なシンボル読み込み機能を持つ
|
研究発表では「コップ」と「本」といった非常に簡単かつ日常的な世界での実験が示された。だが、一般家庭やオフィスがセンサーだらけになる時代はまだなかなか来ないだろう。
いっぽう現在、経済産業省やNEDOは「人間・ ロボット協調型セル生産組立システム」の実現を目指している。多品種少量生産が求められている生産現場では、従来のライン型組立システムに加えて、「セル型」の組立システムが普及している。「屋台生産方式」とも呼ばれるセル生産はコンパクトなラインのなかで、一人あるいは数人の作業者が、製品の完成までを担当するシステムだ。そのさらに次世代型が「人間・ロボット協調型セル生産組立システム」である。
セマンティック・センサネットワーク環境は、そのような次世代工場でまず使われることになるのではなかろうかと筆者には思われた。
なおこのほか、8日には「ヒューマノイド型ロボットの動作制御コード分析による身体知表出実験:SHERK-Primery」、「工業用ロボットハンドのティーチングの分析」などの研究発表のほか、特別企画として「経済産業省技術戦略マップの概要と学会への期待~ロボット分野の技術戦略マップを事例として~」と題して、経済産業省産業技術環境局企画官の渡邊政嘉氏と、同省・産業機械課の土屋博史氏による「ロボット分野の技術戦略マップ等の紹介」が行なわれる。
9日にはパネル討論「コンピュータの進歩で将棋は変わるか」のほか、ヒューマンエージェントインタラクションと題したセッションで、ロボットと人間の関係に関する研究発表が行なわれる予定だ。
■URL
2006年人工知能学会全国大会
http://www.jaist.ac.jp/jsai2006/
( 森山和道 )
2006/06/07 23:58
- ページの先頭へ-
|