3月3日と4日、東京・竹橋の学術総合センターにて、情報処理とヒューマンインターフェイス関連のシンポジウム「インタラクション2008」が行なわれた。主催は社団法人情報処理学会・ヒューマンインタフェース研究会、グループウェアとネットワークサービス研究会、ユビキタスコンピューティングシステム研究会。大会スポンサーはMicrosoft ResearchとGoogle。このほか、電子情報通信学会、日本バーチャルリアリティ学会、日本認知学会、日本ソフトウェア科学会、日本社会心理学会、ヒューマンインタフェース学会、人工知能学会、日本ロボット学会が協賛している。
今回で12回目となる「インタラクション2008」の研究発表は、シングルトラックでの講演、デモ中心のインタラクティブ発表、そしてポスターセッションの3形式で行なわれる。今年は新規性・有用性・完成度に加え、「新しさや面白さ」を重視して採択された、合計150件近い発表が行なわれた。
今回の「インタラクション」の発表セッションでは「エージェントとロボット」と題されたセッションも設けられた。そのセッションと、実物によるデモが行なわれるインタラクティブ発表のロボット関連を中心にレポートする。
● 「エージェントとロボット」セッション
|
東京電機大学情報環境学部 湯浅将英氏
|
まず東京電機大学情報環境学部の湯浅将英氏らが、擬人化エージェントとの会話に関する研究発表を行なった。演題は「発話マインドに基づく発話交替モデル ―気持ちが読める会話インタフェースを目指して―」。
ある人が話し終わったあとに別の人が話し出すことを「発話交替」といい、発話交替時には次に話してほしい人を見るということが先行研究によってよく知られている。ところが、視線発話交替ルールだけ用いてエージェントによる会話システムを作っても、なんとなく会話っぽくは見えるが人間の会話のようには見えない。
そこでより自然な会話の実現を目指して人間の会話を観察すると、会話に参加したい人は「話したい」という気持ちを目線やアクションで表すことが分かったという。それをこの研究では「発話マインド」と名づけた。
発話マインドの表出は、無意識的ではあるが、反射的ではなく、両者の中間のような階層に属するもので、人間はそれを何も考えず読み取れるという。だからエージェントに「発話マインド」表出動作を実装させれば、人間のユーザーはそれを読み取って、会話の流れをコントロールできる。つまり人間のマインドリーディング能力を利用する。
具体的には、発話したいという意思を表す「発話立候補」のときにはエージェントの体を伸び上がらせ、逆に人間に発話を促す「発話懇願」のときには体をかがませる。すると人間はおおむねエージェントによる発話意図のタイミングを読み取ることができたという。今後はエージェントの姿をより単純化したり、脳活動なども計測していくという。
|
|
|
人間の発話では、話したい/どうぞ話してという「発話マインド」がやりとりされる
|
発話マインド交替モデル
|
発話マインドの分類と擬人化エージェントへの実装を目指した
|
|
|
「発話立候補」と「発話懇願」
|
より単純化されたエージェントでも効果を試していく予定だという
|
|
ATR知能ロボティクス研究所/大阪大学 宮下善太氏
|
ATR知能ロボティクス研究所/大阪大学の宮下善太氏らは「来客と顔見知りになる案内ロボット」という研究を発表した。イオン高の原ショッピングセンターで、案内をロボット「Robovie」にさせたときの印象や効果を調べた実験をベースにしたものである。実験期間は25日間で、RFIDタグを使って相手を同定することでロボットが同じ人と「顔見知り」になれるようにしてみて、その印象や効果を見たというものだ。ショッピングセンターでは当然、同じ人が何度もやってくることが考えられる。そのときにロボットはどんな情報を提供し、どんな関係を構築できるのか。
なおこの実験に関しては、本誌でも一度記事にしている。詳細はそちらをお読み頂きたい。
実験の結果、ロボットはおおむね好意的に受け入れられ、ショッピングセンターに行く楽しみの一つとなっていたという意見も得られたという。だがロボットの話が一方的で長すぎるという意見もあったそうだ。情報提供の効果も比較的高く、回答者235人中、ロボットが話した店舗を訪れた人が99人、会話をきっかっけに買い物をした人が63人おり、ロボットの存在によって購買行動が促されたと考えられる、という。なかには「子どもがロボットとの会話のなかで出てきたクレープの話を何度もするので買わざるを得なかった」といったユニークなものもあったそうだ。
また客のロボットへの印象や関係性、そして購買行動の関係を分析した結果、人に購買行動を起こさせるためには、いい印象を与えるだけではなく、人と顔見知りになるほうが有効だと分かったという。
会場からは被験者の選択にバイアスがかかっているのではないか等、厳しい質問も出た。宮下氏は将来的にはロボットならではの利点を生かし、単に情報提供を行なうだけではなく、物理的にモノを運搬するサービスなどを想定しており、そのための基礎研究の一つだと述べた。
|
|
|
モニタ参加者にRFIDを配布しDBに対話履歴を保存することで顔見知りになることを実現
|
道案内だけではなく口コミ情報を提供することで購買を促す
|
【動画】道案内の様子
|
|
|
|
【動画】人間とロボットの対話の様子
|
【動画】口コミ情報の提供
|
ロボットに対する印象評価
|
|
|
|
ロボットの印象と行動の関係図
|
ロボットと関係を持ったと感じることが購買行動に繋がったという
|
購買行動をもたらすためには単に良い印象を与えるだけではなく顔見知りになることが重要
|
|
東京大学大学院新領域創成科学研究科 基盤情報学専攻 細井一弘氏
|
東京大学大学院新領域創成科学研究科 基盤情報学専攻の細井一弘氏らは「モバイルディスプレイを用いた直感的なヒューマン・ロボット・インタラクションの提案」という発表を行なった。ロボットの操縦法に関する提案で、掃除ロボットのような単機能ロボットを、ハンドヘルド型あるいはプロジェクション型のディスプレイを使って操縦しようというものである。
ハンドヘルド型の場合は、カメラ付きディスプレイでロボットの姿と目標を捉え、ディスプレイを動かすことでロボットが移動する。ジョイスティックで操縦するのに比べ、ユーザーの主観視点で右左を判断できるので、ロボットの操作が簡単になるという。ロボットの移動速度と操作の速度はそのままでは合わない。その問題については、デバイスを右に振ることで右に動いていく「ジェスチャーモード」を実装することでだいぶ解消されたという。
またプロジェクション型のほうはロボットの行き先そのものを小型のプロジェクターで指し示すことで、ロボットがその経路にそって動いていく。床面に投影するときの歪みは、プロジェクターに3軸加速度センサーを付け、リアルタイムに補正することで補償している。同グループではこのシステムを使った、教育用途アプリケーションとして、物語とその背景を作ってそれに応じてロボットを動かすシステムを提案している。
|
|
|
【動画】ハンドヘルド型ディスプレイを使ったロボット操作の様子
|
【動画】複数台のロボットを動かすこともできる
|
【動画】飛行船のような空中のロボットも操縦可能
|
|
|
|
【動画】プロジェクションディスプレイを用いた小型ロボット操作の様子
|
【動画】ロボットを動かすルートと背景を描く
|
【動画】ロボットを動かしながら物語をつむいでいく
|
● デモンストレーションほか
デモとポスターにもいくつかロボット関連の展示があったのでご紹介する。
豊橋科学技術大学 知識情報工学系 教授の岡田美智男氏の研究室からは2件のロボット研究がデモとポスターで発表されていた。どちらも人とロボットの関係を考えるためのものだ。
吉田善紀氏らの「Sociable Trash Box」は、ゴミ箱ロボットである。距離センサーや赤外線センサー、カメラなどはついているが、自分でゴミを見つけてゴミ箱に入れたりすることはできない。このロボットは弱さを武器にして、他人に拾って入れてもらうのである。人はロボットを助け、それによって自らも価値付けられる。人とモノの間にこれまでにはなかった相互関係性を持たせることで、つながりや愛着が生まれるのではないかという。
また吉池佑太氏らの「Sociable PC」は、「パソコンのようなロボット、ロボットのようなパソコン」だという。柔らかいウレタンで覆われた白い箱状のPC/ロボットで、人と関わりを持つことのできるロボットのミニマムデザインを探索するために、非常にシンプルなデザインとなっている。
|
|
|
「Sociable Trash Box」
|
中身。ゴミ箱入り口についているのは赤外線
|
底面。距離センサーとモーターがあり、少し動ける
|
|
|
|
【動画】「Sociable Trash Box」の動き
|
「Sociable Trash Box」ポスター
|
「Sociable Trash Box」の構造
|
慶應義塾大学 安西・今井研究室の大澤博隆氏らは「エージェント化した物体を試用する直接的説明手法の評価」として、物体を直接、擬人化し、自分で自分の機能を説明させるというインタラクション手法を提案していた。家電などに「目」や「腕」などをつけて擬人化させ、ソフトウェア・エージェントではなく、直接「腕」や「顔」を使って、モノ自体が自分自身の機能を説明する。これによって、CGあるいは横に立ったヒューマノイド等が機能を説明するのに比べてユーザーは説明対象に意識を集中させやすくなるという。確かに、記憶に残りやすいかもしれない。
デモでは、シュレッダーに、「目」や「腕」を付けた例が紹介されていた。腕はタカラトミーの「i-SOBOT」の部品が用いられており、Bluetoothによって無線でコントロールされている。「目」も「腕」も簡単にマジックテープで任意の位置に取り付けたり外したりできるようになっている点が面白い。
|
|
|
擬人化されたシュレッダー
|
腕は「i-SOBOT」のパーツを転用
|
簡単に取り外せる
|
|
|
|
目の位置も簡単に変更可能
|
【動画】デモの様子。声にはVocaloidが用いられている
|
そのほかの「擬人化」例
|
電気通信大学大学院人間コミュニケーション学専攻の橋本悠希氏らは、「生物感提示装置」を発表していた。最近のロボットペットが物足らない理由の一つとして触覚による生物感の不足を挙げ、スピーカ・コーンの振動を使った触覚提示を提案したものだ。加速度センサーや力センサーなども備え、ぎゅっと押したりすることで振動周波数が変化する。
実際に提示されるのはスピーカコーンと手のひらの間の空気圧の変化なので、やわらかい触覚が得られることが特徴だ。ただし実際に何かのロボットに実装したことはまだないという。
|
|
「生物感提示装置」
|
ぎゅっと手で押すことで振動が変化する
|
株式会社日立製作所 基礎研究所 人間・情報システムラボ 紅山史子氏らは「実世界クローリング:行動型センシングによるRFID情報の網羅的収集」と題して、移動ロボット台車の上にRFIDリーダーを先端に付けたアームロボットを載せたものをデモしていた。10~20cm程度の距離で読み取れる2.45Ghz帯のRFIDリーダーを使って、倉庫や工場など、ある程度の面積に置かれた物品をRFIDを使って読み取ること目的としたアプリケーションである。
移動ロボットの環境マップはSLAM(Simultaneous Localization And Mapping)を使って生成する。アーム先端には測域センサが付けられており、先端位置は物品から一定の距離をとって動かすことができる。読み取ったデータは棚卸し管理画面と連動する。なおロボット台車そのものは、日本SGIの「BlackShip」が使われている。
|
|
|
日立製作所のRFIDリーダー付きロボット
|
解説パネル
|
【動画】アームの動き
|
|
沖電気工業株式会社「遠隔参加者の存在感を表現する会議ロボットシステムの試作」
|
沖電気工業株式会社 研究開発本部ヒューマンコミュニケーションラボラトリの福島寛之・鈴木雄介氏らは「遠隔参加者の存在感を表現する会議ロボットシステムの試作」をポスター発表。遠隔会議では伝えにくい存在感、いわゆるテレプレゼンスを、実体を持ったロボットなど、画像・音声以外のメディアで伝達することを目指した研究である。たとえばロボットが動いて向きを変えることにより、遠隔参加している人が何を注視しようとしているのか把握することができるという。
今後もロボットを使うかどうかは、妥当性の判断次第だそうだ。
電気通信大学の「跳ね星」はLEDによって発光するボール。加速度センサーとPICを中に仕込んでおり、ボールをポンポンと投げたり、蹴ったり、ぐるぐる回したりするだけで次々に色が鮮やかに変わっていく。点滅の速度や発光変化の程度は調整できる。たとえばこれを使って夜間にキャッチボールをやるとけっこう楽しいという。
ボールには赤外線LEDも仕込まれており、画像認識カメラを通じて認識させることで、ボールを使ったゲームなどに用いることもできる。単純だがそれだからこそ楽しい、可能性がありそうな発表だ。
|
|
|
【動画】回したり衝撃を与えたりしたら色が変わる
|
【動画】投げ上げたボールを受け取めると色が変わる
|
【動画】「跳ね星」を使ったゲームの様子
|
■URL
インタラクション2008
http://www.interaction-ipsj.org/
■ 関連記事
・ インタラクション2007開催中(2007/03/16)
( 森山和道 )
2008/03/05 17:42
- ページの先頭へ-
|