Robot Watch logo
記事検索
最新ニュース
【 2009/04/21 】
ロボットビジネス推進協議会、ロボ検を開始
~メカトロニクス・ロボット技術者の人材育成指標確立を目指す
[17:53]
グローバックス、名古屋にロボット専門店をオープン
~5月2日~5日にプレオープンイベントを開催
[17:05]
「ロボカップジュニア九州ブロック大会」開催
~ジャパンオープン大会の出場チームが決定
[14:32]
【 2009/04/20 】
研究者たちの「知りたい」気持ちが直接わかる
~理研一般公開でのロボット
[15:15]
【やじうまRobot Watch】
巨大な機械の「クモ」2体が横浜市街をパレード!
~横浜開港150周年記念テーマイベント「開国博Y150」プレイベント
[14:20]
【 2009/04/17 】
第15回総合福祉展「バリアフリー2009」レポート
~ロボットスーツ「HAL」や本田技研工業の歩行アシストも体験できる
[19:46]
「第12回 ロボットグランプリ」レポート【大道芸コンテスト編】
~自由な発想でつくられた、楽しい大道芸ロボットが集結!
[14:57]
【 2009/04/16 】
北九州市立大学が「手術用鉗子ロボット」開発
[14:34]
ROBOSPOTで「第15回 KONDO CUP」が開催
~常勝・トリニティに最強のチャレンジャー現る
[13:17]
【 2009/04/15 】
「第15回ROBO-ONE」が5月4日に開催
~軽量級ロボットによる一発勝負のトーナメント戦
[18:50]
ヴイストン、秋葉原に初の直営店舗「ヴイストンロボットセンター」、29日オープン
[13:37]
【 2009/04/14 】
大盛況の「とよたこうせんCUP」レポート
~ロボカップにつながるサッカー大会が愛知県豊田市で開催
[11:34]

インタラクション2007開催中

~「ジェミノイド」関連研究がベストペーパーに

 3月15日、16日の日程で、学術総合センター・一橋記念講堂にて、人と人工物、および人工物を介した人と人のインタラクションに関する研究成果一般を対象にした「インタラクション2007」が開催されている。大会スポンサーはマイクロソフトリサーチとグーグル。

 本誌では、セッション2「五感メディア」のレポートを中心にお送りする。


「遠隔存在感」を伝えるロボット・ジェミノイド

ATR知能ロボティクス研究所 コミュニケーションロボット研究室 坂本大介氏
 株式会社国際電気通信基礎技術研究所(ATR)知能ロボティクス研究所コミュニケーションロボット研究室研修研究員の坂本大介氏からは、「ジェミノイド」に関する2006年10月末までの実験結果が発表された。ジェミノイドは、存在感そのほかの研究を行なうためのテストベッドとして開発された、ATR知能ロボティクス研究所客員室長 石黒浩教授のコピーロボットだ。

 存在感とは何か。この研究では、ある人の存在感を表現することのできるメディアが「遠隔存在感メディア」だと定義した。ジェミノイドは全身に50、顔だけで13の自由度を持っている。

 ロボットを、テレビや電話の次の「コミュニケーション・メディア」として捉えると、ロボットを操作するための遠隔操作システムが課題となる。特に自由度の大きいヒューマノイドロボットを自由に操作するためには何らかのアプローチが必要となる。そこでATRでは、半自動遠隔制御システムを開発した。システムはある「状態」を持ち、オペレーターは、その状態を逐次切り替える。それによってジェミノイドの振る舞いが変わる。それが意識的な操作にあたる。

 いっぽう、瞬きや呼吸など、自然な人間らしさを出すための無意識的な動作は、自動生成される。基本的にはあらかじめ定義されたモーションファイルを再生し続けることで動作するのだが、たとえば口が動かないと気持ちが悪い。人間に似せているロボットならではの問題だ。

 そこでオペレーターの唇にマーカーをつけてリップシンクを行なっている。2枚のモニターを対話者とロボットを確認しながら5台のカメラで動作を監視している。


遠隔存在感の実現を目指すジェミノイド リップシンクはモーションキャプチャー

 では、このロボットで本当に存在感が伝わるのか。オペレータが操作するジェミノイド、オペレータの顔だけのビデオ、スピーカの音だけで実験を行なった。ジェミノイドが操作されていることは事前に被験者に伝えておく。評価方法は質問票によるアンケートで行なった。

 実験前に、ジェミノイドはもっとも存在感のある対象であり、より人間らしく、自然であると評価されるだろうと仮説を立てた。それ以外に、アイコンタクトが成立するか、不気味であると判断されるかどうかを検討した。

 実験の結果、存在感が他の条件よりも有意にあると評価されると同時に、他の条件同様に自然だとされた。しかしやはり他よりも不気味であるとされた。またアイコンタクトはビデオと同等だった。ただしビデオ実験のキャリブレーションの影響もあるという。

 今後は、不気味さの由来について検討していくという。不気味であることは社会関係のなかで用いられる上では大きな課題となる。なお「人らしさ」の増加と「不気味さ」の増加には関係がないそうだ。

 なおその後、家族との対話実験なども行なっているほか、犬との対面実験なども行なっているそうだ。犬はジェミノイド越しに発せられた石黒教授の指示(ふせやおすわりなど)に応えたそうだ。だが、それが何に由来するものかはまだ今後の検討課題だという。

 またジェミノイドが触られると、センサーフィードバックも何もないのに、オペレーターに嫌な感覚が生まれることは今後も考えていきたいと坂本氏は述べた。コピーされた当人でなくても嫌な感覚が生まれるというのは面白い点である。

 会場からは、「存在感」と「存在感の伝達」は別だがその区別はできているのか、といった質問や、実際の人間であっても不気味に感じることがあるが、それとの比較はしているのか、パフォーマーなどに協力してもらえれば比較可能ではないか、といった質問やコメントが出た。

 なお、この研究が、今回の「ベストペーパー」に選ばれた。前日に行なわれたロボット学会セミナーでの石黒教授による発表記事と併せてお読み頂きたい。


ジェミノイド、ビデオ画像、スピーカからの音だけ、それぞれを提示する比較実験 実験の結果 ジェミノイドが他よりも存在感が感じられる

存在感と同時に、より不気味だという感じも与えてしまう 触られると、操作者は皆「嫌な感じ」がするという

没入型「風覚」ディスプレイ

金沢工業大学工学研究科 小坂崇之氏
 続けて、金沢工業大学工学研究科の小坂崇之氏から、風の感覚を伝える「風覚」ディスプレイに関する研究発表が行なわれた。

 風を感じる「風覚」の研究は、まだ限られた範囲でしか行なわれていない。しかし、たとえばゲームにおいてキャラクターのジャンプや落下の感覚を提示するためには2次元では難しいが、これまで3次元で風覚を再現したものは開発されていない。そこでブラシレスファンを用いて没入型3次元風覚ディスプレイを試作、上半身での評価を行なった。

 人間にはどの程度の風覚解像度があるのか、条件による違いや個人差なども分かってない。実験の結果、正面よりも側面の正答率のほうが高く、斜め上の風源の正答率は低かった。反応時間は平均2秒。上段から風をあてた場合も反応速度は遅かった。坊主頭でも同様の結果だったことから、髪の毛の影響によるものではないという。また風速をあげると、正面では正答率がにぶくなる。風速があがったからといって、風覚は感度がよくなるわけでないそうだ。今後はさらに被験者を増やすと同時に、風の気温による影響も調べていく。

 また、熱式エアフロセンサを用いた風覚カメラを作成。それを使ってブランコに乗っているときの映像と風情報を同時に記録したものを再生することで、ブランコに乗っている時の風のように感じたかどうかを聞く実験を行なったところ、没入感が高く、違和感が低いという結果が出た。風提示はきちんと再現できているわけではないものの、高い評価が得られたそうだ。

 また応用として、たとえば飛行機を操作するゲームで、飛行中の風が感じられたらよりリアルだと考えられる。しかし、ゲームで飛行機に乗ったときの風を再現することはできない。

 だが、任天堂「Wii」のようなコントローラーを握り、腕を振って操作するタイプのゲームの場合は、コントローラーに直接、風覚カメラを取り付けることにより、コントローラーを振り回したときの風を記録することができる。コントローラーの動きはゲーム中の飛行機の動きに近い。よって、擬似的に飛行機に乗ったときの風として用いることができる。実際に、プレイしながら同時に記録した風を再生すれば、あたかも飛行機に乗っているかのような感覚を得られるという。

 さらに、映像合成システムへの応用も考えられる。たとえば役者を森の映像に合成するとする。いまは環境光の映りこみをCGで再現できるが、同様に、風による服や髪のなびきを再現できるかもしれない。現在は手作業で、扇風機などを用いて風のなびきを起こしている。だがこのシステムを使えば、より自然な形で風による動きを再現できるかもしれないという。

 まだ現時点では、どこにどの程度ファンを配置すればいいのかは分かっていない。それは今後の課題だという。


没入型三次元風覚ディスプレイ システム構成 人間の風覚の分解能はあまり高くない

熱式エアフロセンサを用いた風情報記録の様子 ゲームなどにも応用可能 【動画】風のなびきを再現して合成した例

インタラクティブ・セッションから

 「インタラクション」では「インタラクティブ・セッション」と呼ばれるデモンストレーションも行なわれる。いくつかご紹介する。

 京都大学情報研究科の翠輝久氏らによる「質問応答・情報推薦機能を備えた音声による情報案内システム」は、擬人化エージェントを用いた音声対話システム。ユーザーの顔認証・音声認識によって、情報通信研究機構で開発されたロボット「フィノ」が返答するというシステム構成で、京都大学博物館にて2006年6月から8月末までおよそ3カ月間運用された。奈良先端大学院大学で開発された音声対話システム「たけまるくん」をベースに情報検索・応答・推薦機能を拡張したもの。

 なおこの音声情報案内システムを開発した奈良先端科学技術大学院大学教授の鹿野清宏氏の講演は以前の記事でまとめているので興味がある方は合わせて参照されたい。

 ウェアラブルシステム関連の発表もいくつかあった。金沢大学の新村達氏らは「導電性衣服を用いた多チャンネル筋電位測定システム」を提案。導電性衣服を使うことでケーブルと電力供給の問題を解消して、多点計測ができる安価なシステムだという。

 東大の上岡玲子氏らは幼児の運動支援にRFIDのパッチをつけたウェアラブルシステムを使う「SoundTag」を提案。日立のミューチップを使っている。子どもたちはオニとコに別れ、オニはタグをタッチすることで「音」を集める。多くの子どもが関わりあう遊びの提案である。

 NTTドコモ研究所の真鍋宏幸氏らは、微小な動作によって他者にまったく気づかれない認証システム「AwareLESS認証」を発表。これは周囲の人が入力操作に気づかないことを目指した認証システムで、圧力センサを用いたもの。事前に登録したリズムを押すのだが、ごくごくわずかな動作ですむため、目の前で見ていても気づかない。動画で確認頂きたい。


質問応答・情報推薦機能を備えた音声による情報案内システム 導電性衣服を用いた多チャンネル筋電位測定システム

幼児の運動支援システム「SoundTag」 【動画】「AwareLESS認証」。ただ持っているだけに見えるがわずかな動作で押している

招待講演:言語と歌の起源と進化 ~ロボティクスに詳しい研究者も募集中

理化学研究所 脳科学総合研究センター 岡ノ谷一夫氏
 招待講演者は、鳥やハダカデバネズミ、デグーなど動物を使った研究で著名な理化学研究所脳科学総合研究センターの岡ノ谷一夫氏。言語と歌の起源の進化に関する講演が行なわれた。岡ノ谷氏は現在、ロボティクスに詳しい研究者も募集しているとのことなので、下記に講演内容をまとめる。

 言語は、言語ではない何らかの要請で進化したいくつかの心理的モジュールが合わさって生まれたというのが岡ノ谷氏による「言語の前適応説」だ。たとえば鳥の羽はもともと断熱への適応として進化したものが、いっぱい生えてくるうちに後に飛ぶことに使われるようになった。

 言語が生まれるためには、発声操作、順番を操作し文法につながる系列操作、音と意味の対応を作る「象徴操作」機能が必要だ。これらの要素がそれぞれ別個に進化し、融合して言語が生まれたのではないか、という。

 犬は「おすわり」といえばおすわりするが、「おすわり」と言い返すことはできない。九官鳥はおすわりしないが「おすわり」と言い返すことができる。これが発声学習である。今までできなかった発声のパターンを学習できる動物は、鯨、鳥類それぞれの一部のほか、人間しかいない。チンパンジーが発声学習したという証拠もない。発声学習する動物に共通する脳の特徴がある。運動皮質から延髄の呼吸・発声中枢への直接のつながり、直接連絡である。ジュウシマツのように歌を学習する鳥は直接つながっている。

 なぜつながっているのか。呼吸はほとんどの動物で自律神経系のみで制御される。だが一部の動物は大脳から直接制御を受けている。鳥と鯨は、飛行時、潜水するときに正確な呼吸制御を行なう必要がある。一部の鳥は雛の時に自分でエサをとれないので、エサをねだる鳴き声が発達したことが理由ではないかと考えられるという。


 では人間はどうか。岡ノ谷氏は「産声仮説」を提案している。人間の乳児はよく泣く。他の霊長類の赤ん坊はあれほど泣かない。捕食の危険が減ったために、泣き声で親を制御することが適応的になったのではないかと考えられるという。ただし証明は難しい。

 実際の泣き声を計測してみると、生まれてすぐはものすごく単純な音声の繰り返しだが、1カ月くらい経つと泣き声が複雑化してくる。これは脳の中の髄鞘化によるのではないかと考えられる。2カ月以降はさらに複雑化する。これは養育者との相互作用によるのではないかという。

 では文法機能はどうか。鳥の歌は、会話ではない。縄張り防衛と求愛の文脈で歌われる。1つ1つの音には意味はない。とにかく歌を歌うということで文脈が生まれる。

 鳥の脳は脳構造と行動の対応がつきやすく、研究に向いているという。鳥の歌は性行動である。ジュウシマツの歌は有限状態文法で表される歌を歌う。ジュウシマツは野鳥のコシジロキンパラが原種で、およそ250年前に中国から日本に入り、改良された鳥だ。およそ120年ほど前にジュウシマツとなった。コシジロキンパラの歌は単純だが、ジュウシマツは有限状態文法で表現される複雑な歌となっている。

 ジュウシマツの歌はなぜ複雑になったか。基本的には、メスが複雑な歌を好むことが原因だと考えられるという。歌は親から学ばれる。野生ではいろいろな親の歌を分節化し、それを適当に組み合わせることで歌を学ぶ。複雑な歌を聴いたメスは一生懸命巣作りをする。ではなぜ複雑な歌がいいのか。ザハヴィ(Zahavi)による「ハンディキャップ原理」と呼ばれるものがある。ハンディキャップがある状態でちゃんと生活しているほうが、より能力が高いことを示すディスプレイではないか、という考え方だ。では実際にそうなのか。実際に栄養状態のよい体格の良いオスを作ると、そちらのほうが長い歌を歌うという。

 ジュウシマツの複雑な歌は、コシジロキンパラに対する捕食圧がなくなったことで、そのぶんエネルギーに余裕ができ、メスの好みに合わせて歌が複雑化していったと考えられる。

 この歌文法を作る脳部位はどこか。大脳基底核と、哺乳類でいう前頭前野にあたる部分(NIf)が重要な部位であることが破壊実験からわかっている。鳥類においては両者のループ構造が、連続音声を切り分ける上で重要だと考えられる。


 では人間はどうか。6つの3つ組音をランダムに組み合わせた音をひたすら聞かせると、やがて3つ組の音単語の最初の音が出たときだけ、大脳基底核をソースとする、ある事象関連電位が前帯状皮質から観測されるようになる。3つ組の音の、最初の音は、2番目、3番目の音とは異なる処理を受けていることが分かる。このことは、言語学習における、ランダムに聞こえるが実際には統計的規則がある音からの分節の切り出しを連想させる。新生児でもこの反応は出る。音声分節化は、左の前頭部(ブローカ野)と側頭部で行なわれていると考えられている。

 では最後に象徴機能はどうか。記号は、形態の特徴で対象を支持するアイコン(形態記号)、時間的・空間的近接関係で対象を指示するインデックス(指示記号)、社会的な合意の上で恣意的な記号と対象をあてはめるシンボル(象徴記号)に分けられる。アイコンは文化を超えて伝わり、インデックスは文化に依存するがだいたいは通じるもの、シンボルは文化に依存する。シンボルが言語である。

 言語は音と意味とを対応づけたものだ。デグーというネズミは最低17種類の状況依存性発声を持つことが知られている。攻撃、警告、コンタクトなどで違う音を出す。これはインデックスだと考えられる。

 また哺乳類だが真社会性動物として知られるハダカデバネズミは、地下の穴の中ですれ違うときに、お互いに鳴き交わす。鳴きあいは上位が相対的に低い声、下位個体が相対的に高い声で鳴き、しかも上位が上を通ってすれ違う。これ自体、たいへん面白いが、しかしネズミの発声はシンボルではない。構成的な意味には対応していない。

 音節を切り分けるだけでは言語は生まれない。まずは、状況を切り分けなければならない。新生児・乳児もこれを行なっているという。これまでは生得的な状況依存性をもつといわれていた。しかし、人の鳴き声は養育者との相互作用により規定されるものであり、社会的・私的な歴史として発達していくだろうというのが岡ノ谷氏らの考えである。

 母子の行動文脈と泣き声の相互分節化は、家族特異的に起こる。つまり家庭によって、赤ん坊の泣き声は違うということである。現在、実験を積み重ねているところだ。


 いま理研にいる入来篤史氏は、1996年にニホンザルの道具使用の実験を行なった。その過程でサルが自発的発声を行なうことから岡ノ谷氏と共同研究をはじめた。実験を続けているうちに、サルが、道具がほしいとき、エサがほしいときなど、泣き声が状況に特異的に変化していったという。

 両者に共通に起こっているのが状況の分節化だ。他者の存在によって行動文脈が明確になり、状況が分節化される。それにより情動が分節化され、発声が分節化される。最終的に状況の分節化と、発声の分節化が対応づけられる。ではそれはどこで分節化されるのか。海馬と前頭前野ではないかと考えられるが、まだ実験は進めておらず、これからだという。

 最近、50kHzから100kHzでマウスが歌っていることが分かった。いろいろな動物が歌を歌っている。テナガザルも歌を歌っているが、その歌は2つの要素から構成されており、それを解析すると、歌を歌った文脈と状況が対応づけられていることが分かったという。

 文法と意味はどう融合したのか。岡ノ谷氏の考えはこうだ。ある状況のときに特定の歌を歌っていたとする。例えば、狩りに行くときと食事に行くとき、それぞれ違う歌を歌っていたとする。そのなかにたまたま共通の音節があったら、両者に共通する状況――複数で行動する――が、対応づけられることがあるかもしれない。このような過程を経て、まず発声の学習ができるようになり、統語ができるようになり、最終的に統合されたのではないかという。

 現在、岡ノ野氏の研究室では、信号処理とロボティクスが得意な研究者を募集中だという。


URL
  インタラクション2007
  http://www.interaction-ipsj.org/

関連記事
ロボット学会工学セミナー「ロボット・インタラクション・テクノロジー」レポート(2007/03/15)


( 森山和道 )
2007/03/16 00:47

- ページの先頭へ-

Robot Watch ホームページ
Copyright (c) 2007 Impress Watch Corporation, an Impress Group company. All rights reserved.