記事検索
バックナンバー
【 2009/04/17 】
■
月刊ROBOTウォッチング
~心機一転、MANOI企画設立!
[12:03]
【 2009/04/15 】
■
ノモケンの「素組でロボット」
バンダイ 1/100スケール MG「RX-78-2 ガンダム Ver.2.0」(その2)
[14:24]
【 2009/04/09 】
■
ノモケンの「素組でロボット」
バンダイ 1/100スケール MG「RX-78-2 ガンダム Ver.2.0」(その1)
[15:40]
【 2009/04/06 】
■
世界最小級の二足歩行ロボット「ROBO-Q」レビュー
~全高3.4cmの超小型ロボットが自律動作する!
[14:09]
【 2009/04/03 】
■
石井英男のロボットキットレビュー
ヴイストン「Beauto Balancer」
~倒立振子制御を手軽に学べる工作キット
[12:59]
【 2009/03/27 】
■
通りすがりのロボットウォッチャー
男の憧れか? 女性型ロボット
[01:19]
【 2009/03/24 】
■
「新型ASIMO」のフィギュアが登場!
~フィギュアで実感、ASIMOの進化~
[02:00]
【 2009/03/18 】
■
ノモケンの「素組でロボット」
バンダイ 1/72スケール「VF-25F メサイアバルキリー アルト機」(その3)
[14:28]
【 2009/03/11 】
■
ノモケンの「素組でロボット」
バンダイ 1/72スケール「VF-25F メサイアバルキリー アルト機」(その2)
[00:05]
【 2009/03/06 】
■
月刊ROBOTウォッチング
~2月はエンタメ路線を爆走!?
[11:31]
【 2009/03/04 】
■
ノモケンの「素組でロボット」
バンダイ 1/72スケール「VF-25F メサイアバルキリー アルト機」(その1)
[13:05]
【 2009/02/27 】
■
通りすがりのロボットウォッチャー
脳とロボットを直接つなぐBMI
[00:10]
人・ロボットの社会的発達を研究するための子供型ロボット「CB2」
~「浅田共創知能システムプロジェクト」を訪ねて
Reported by 森山和道
浅田共創知能システムプロジェクトが開発した「CB2(Child-robot with Biomimetic Body)」
科学技術振興機構(JST)の戦略的創造研究推進事業 ERATO型研究「浅田共創知能システムプロジェクト」(研究総括:大阪大学大学院工学研究科教授 浅田 稔氏、平成17年度~平成22年度)は6月1日、柔らかい肌と柔構造を持つ子供型ヒューマノイド「
CB2(Child-robot with Biomimetic Body)
」を発表した。同研究プロジェクトの一環として、社会的共創知能グループ(グループリーダー:石黒浩 大阪大学大学院工学研究科 教授)が開発したロボットだ。
CB2は、人とロボットとが密接な関わりを持ちつつ、「発達」していく過程を研究するためのロボットである。圧縮空気の圧力を用いる空気アクチュエーターを使い、これまでにないほど「人間っぽい動き」を連想させるリアルな動作、全身触覚を備えた白く柔らかいボディ、そして人工声道から「あー、あー」という声をあげる様子は、テレビそのほかで広く報道された。既にご覧になった方も多いだろう。遅ればせながら本誌でもレポートをお送りする。
まず、「CB2」だ。CB2は1歳児程度の知能、特にその発達過程を研究するためのプラットフォームロボットである。大きさはちょうど人間の子どもと同じくらいで、身長130cm。体重は33kg。「肌色では生々しすぎる」という理由で白になった全身は、柔らかなシリコンの「皮膚」で覆われている。その下には全部で197個の高感度触覚センサが備えられている。眼球はカメラで、耳にあたる部分にはそれぞれマイクがある。これらを収めた頭はかなり大きいが、これがまた人間の子どもっぽい雰囲気を醸し出している。
背中からは、全身を駆動する空気アクチュエータに圧縮空気を送る黒い管が伸びている。CB2のアクチュエーター数は全部で56個。そのうち眼球駆動用以外の51個に空圧アクチュエーターが使われている。空圧を使っているのは、人間や外界、環境との自然な関わりを実現するためだ。CB2では1つのアクチュエーターにバルブを2個つけているため、脱力ができる。押しても外力に添うし、CB2を抱きかかえながら引き起こすといった動作もできる。人に助けられつつ立ち上がる様子が、逆に、非常に人間に似て見えるときがある。
CB2
身長は130cm。話しかけているのは開発したメンバーの一人、港 隆史氏
指は3本。手首の金属部分は、はいはい運動をするときに地面に引っかけるためのもの
CB2の各自由度構成
顔。目はカメラ。目の上下の凸凹は表情を出すための機構だ
耳にはマイク
シリコンの皮膚の下の触覚センサー。歪みを計測する
内部機構の一部。メカはココロが担当しており、詳細は企業秘密
実際にはこのような機構が収められているそうだ。中央に2本並んでいるのが空圧シリンダー
【動画】
CB2の全身をさわってみる
【動画】
全身の触覚センサーの動作の模様。頭をなでているところ
【動画】
頭をぐるんぐるんなでられる
【動画】
生まれたばかりの赤ちゃんのように(ジェネラルムーブメントという)ジタバタするCB2
【動画】
眼球は肌色などを見つけてそちらを向くようになっている
【動画】
手をバタバタさせながらおもちゃを追いかけ、勢いあまって寝返りする
【動画】
足をぶらぶらさせるCB2
【動画】
頭をなでられたり足を触られたりして反応するCB2
【動画】
人工声道から「あー、あー」と声を発するCB2
【動画】
体をさわられて声を出すCB2
【動画】
呼びかけられた方向を向くこともできる
【動画】
抱き起こされるCB2
なお今回のデモは、あくまで「こんな動きができる」ことを示すためのものである。発達/学習させているわけではなく、ERATOで実施している様々な認知発達の研究を統合するプラットフォームとして開発されたものだ。認知発達研究の概論などについては、
こちらのサイト
にて確認できる。
リリースでは、今後CB2は、人と関わるために必要な「対人反応機能・運動機能・感覚-運動統合機能について研究」すると同時に、「人の乳幼児のコミュニケーションの発達過程の観測を通して、人の対人関係における発達過程をモデル化」するとされている。両者を融合させ、コミュニケーション能力を発達させられるロボットを作ると同時に、人間の発達を理解する研究に取り組むという。
報道直後には生々しい動きや「声」に対して「気持ち悪い」という感想が散見された。記者本人もなんとなく(大げさに言うと)「気持ち悪さ」を期待していたようなところがあった。だが実際に間近で見た「CB2」は、意外なほど可愛いらしく見えた。
また、記者は頭をなでたり体を押したりさせてもらったのだが、さわるときにも、石黒教授による「アンドロイド」ほど、躊躇する必要がなかった。肌色で服まで着ているアンドロイドと違って、全身が白いボディのため、「どこを触ればいいんだろう」と余計なことを考える必要がなかったのだ。早速、「子どもらしい見かけ」によって「人の密接な相互作用が誘発」された格好だ。
人間でも写真やビデオと、実物の印象が異なる人がいるが、どうやら人工物においても、カメラ越しだと気持ち悪く感じる外見と、逆に直接見たほうがどこか気持ち悪く感じる外見があるようだ。CB2の場合は、前者のように思える。
●
インタビュー
「浅田共創知能システムプロジェクト」のリーダーを務める浅田 稔教授と、今回のロボットを開発した石黒浩教授に、背景について話を聞いた。なお、研究はまだ始まったばかりであり、お二人のお話は共に「こういうことをやりたい」という意気込みの表明であり、当然、仮説の部分も多いことをお断りしておく。
大阪大学大学院工学研究科 知能・機能創成工学専攻教授 浅田 稔氏。ロボカップ国際委員会のプレジデントでもある
浅田教授によれば、「浅田共創知能システムプロジェクト」の「共創知能(Synergistic Intelligence)」には、脳科学や発達心理、認知科学など学際的に研究を進めるという「共創」の意味と、環境、特に養育者とロボット両者のインタラクションによって知能が生まれる「共創知能」という意味が込められているという。
ロボットと養育者の関係のなかから知能を創発させるとはどういう意味だろうか。赤ちゃんと養育者の関係を見ると、まず、お母さんは赤ちゃんにいろいろな情報を与える。赤ちゃんは赤ちゃんとして、独立したエージェントとして情報を獲得する。両者は、お互いにモデリングしながら相互にギャップを埋めていく。それと同じような仮定をロボットと人間の関係のなかで作る。そうして、ロボットのような人工物が、赤ちゃんに類似したと思えるような認知発達にフォーカスをあてて見ていきたいという。
既存の脳科学は、基本的に発達し、機能がある意味で局在化した大人の脳を主たる対象としている。浅田教授らはむしろ、機能そのものがどうやって実現発達してきたか見てみたいという。
「たとえば赤ちゃんがどういう形で言葉を覚えるかというミステリーに迫りたい。我々の構成論的アプローチが役立つかどうかというと、すぐさまどういう形で役立つかは見えないですが、いろんなアプローチの一つとして考えていきたい。人間というミステリーの発達への興味を共有しながら議論していくことが大切だと思っているんです。そのなかで人工物の発達のモデル化を、人間の赤ちゃんを対象にしてできないかということです」
ロボットを発達研究に使うメリットの一つは再現性だ。しかし一方で、人間とロボットはかなり違う。何よりの違いは、ロボットではハードウェアの発達、すなわち「成長」がないことだ。だがそこは試行錯誤しつつ、「発達における、ある種の本質」を発見できないものかと考えているという。「当然、ロボットと人間は同じものではないです。逆に、同じものではないから、本質と思えるものは何か、見出していきたい」。
構想としては「ある種の階層的な構造発達システム」を想定しているという。特にポイントは、報酬を価値基準を作るバイアスとしながら、階層を自ら構成していくことだという。
大阪大学大学院工学研究科 知能・機能創成工学専攻 知能創成工学講座 教授 石黒 浩 氏
開発にあたった石黒教授は、CB2開発の背景について「『複雑なものが発達する』という側面においては、人間とロボットそれぞれに共通する部分があるだろうと考えている。私としては、ロボットを作ることで、人間が人間の間でどういうふうにインタラクションしているのか、そのメカニズムを実装して、人間のメカニズムを理解したい。そしてロボットも作りたい。それがこのプロジェクトの目的」と語る。「複雑なシステムがどういうふうに統合化されていくのかというところに人間がどう動いているかの本質がある」という。
ロボットを組み上げるためにある仮説を立て、その仮説を使ったロボットが人とインタラクションできたとすれば、逆にそれは脳科学の仮説としても検証する価値があるのではないかという。
CB2は体中に多数のセンサーが分布している。また、アクチュエータも比較的人間の筋肉に近いような特性を持ったものを使っているため、いわゆる硬いロボットと違って、逆運動学を解いて動かすわけにはいかない。モデルのとおりには身体が動かないからだ。このようなボディにした理由は「センサー系とアクチュエーター系がどういうふうに組織化されていれば全体を制御できるのかという研究」を行なうためだ。
複雑なロボットでは、全てのセンサーとアクチュエーターをモニターすることは不可能である。また、姿勢によってもアクチュエーターの出力は変わる。中央ですべて制御することはできない。CB2のような柔らかい身体を持っている場合ではなおさらだ。
そこでCB2では、センサー系とアクチュエータ系をそれぞれ階層化させて、ローカルな処理ですむものはそこですませてしまう。例えばセンサー系であれば、まずセンサーとセンサーの情報を合わせて、中間的な情報表現を作る。その上の階層では、そうして作った中間情報同士を組み合わせて、より抽象的な情報を作る。それぞれの中間情報は下位の情報に応じて随時更新されるが、同時に、学習したパターンに応じて自己の状態を予測している。
アクチュエーター系も同様に抽象表現を介して階層化させる。こうしてそれぞれ作られたトップレベルでの抽象表現が、ロボットの「ボディイメージ」となる。ボディイメージはそれぞれが自分自身の状態を常に予測している。運動系のボディイメージとセンサー系のボディイメージがお互いに必要に応じて情報をやりとりする。
石黒教授は、これを「2重化モデル」仮説と呼び、ロボットより遙かに複雑な人間の神経系と身体も、同じような仕組みになっているのではないかと考えている。常に全身のセンサー/アクチュエーターを見ているのではなく、かなりの部分は中間階層による予測が使われ、必要に応じてセンサー情報を見たり指令を出す、というのが基本的な考え方だ。ほとんどはセンサー/アクチュエーターの内部モデルにおいて仮想の入出力を使ってフィードフォワードで指令値を出す。もし予測と違う部分があったり、特定の部分に注意を向けると、情報がやりとりされて統合され、モデルが更新される。
「体中のセンサーフィードバックをいちいち見ていたら歩けない」と石黒教授は語る。歩く場合も、動きやセンサー系の予測モデルがあり、モニタリングはあくまで必要最小限、ほとんどフィードバックなしで歩いているのではないかという。このモデルを使って、まずはロボットを動かし、それがうまくいけば、次は脳の中に実際にそのような仕組みがあるのか調べていこうという目論見だ。
なおセンサーが作る中間の抽象表現は、特定のモダリティだけではなくマルチモダリティが大前提だという。各モダリティはローレベルで融合して新しい情報を生み出しているのではないかと考えているそうだ。センサーの階層化は自己組織化が大前提だが、ある程度は作り込みになる。
ただ、どこまでの情報処理をローカルでやり、どのような情報処理だとより上位でやるべきなのかといった、情報の切り分け方は未解決の課題である。実験の過程で、さまざまな組織化の方法を試していく予定だという。
もう一つの仮説は、このような内部モデルを発達で作るためには、人と相互作用することが必須であるというもの。「育てる人間がいなければロボットは育たない」という。いずれにしても構造化は外からの刺激で起こると考えている。
仮説はもう一つある。「時間概念」が「二重化モデル」のカギだという。たとえば視覚はリアルタイム性が非常に重要だが、皮膚の触覚情報はほとんど予測ではないかと考えられる。そもそもセンサー各種のレイテンシーも同じではない。それらのタイミングのズレを考慮に入れつつ、フィードフォワード構造を作る必要がある。「時間概念の獲得」がどのように起こるのかという視点で、これまでの研究を洗い直したい、と石黒教授は語る。
石黒教授は、自分そっくりのロボット「
ジェミノイド
」の研究などでも知られている。人間らしい姿形を持ったロボットであれば、ある程度表層的なインタラクションはそれでできてしまうというのが、石黒教授の考え方だが、「内部的な複雑さができたときに人間はどれだけインタラクションできるか試したい」という。「今日のは『こういうふうに動きますよ』的なデモだけど、ある程度感覚が統合されてきて反応がよくなってくれば、だんだん可愛くなるよ(笑)」。
階層の抽象度が上がっていくなかで、センサー、行動、認知、いろんな情報が圧縮されていく。浅田教授は、それが何らかの形で、拘束されたり遅れたりすることによって、たとえば自閉症やウィリアムズ症候群(認知発達障害の一つだが、時として言語能力、音楽能力においてずば抜けた才能を示す)の計算論的説明ができないかと考えているそうだ。
課題はもろもろあるものの、浅田教授は、「階層構造の自然な獲得」がすべてのカギだと考えている。通常の発達と、違う過程を辿った場合、それぞれにおいてどのように違う構造を持つのかが、ロボットを使った構成論的アプローチで、実際に示したいという。
浅田教授はプロジェクトの統括として、4つのグループを率いて、多くのテーマを実施している。CB2を使うこれからの研究の特徴として、CB2がフルボディのヒューマノイドであることを存分に活用することを挙げている。このCB2に、これまでバラバラに途中まで進めていた研究を集約させていくという。
「いままではいわば『単品』でやってきたんです。音声模倣や語彙獲得も。でも実際には同時に起きてることですよね。音声模倣、視覚を使った物体認識、触覚を使った動作。これらは同時に発達するわけですから、お互いのなかで影響を及ぼしているはずです。そのためにCB2を使った長期実験をやろうと思っています」
たとえば言語獲得過程を見ると、母親と赤ん坊はハードウェアも音域も違うのに、お互いにインタラクションし、コミュニケーションができている。そのような過程を通じて、ロボットの頭のなかに、名詞の概念、動作、そして即物的な表現から抽象概念の獲得という形で「シンボル獲得のプロセス」を再現していきたいという。
それは音声だけではなくて、視覚、触覚、聴覚、いろんなモダリティにおいて起こっているはずだ。浅田教授は、その構造化の過程においては、物理的な身体的な構造が重要な意味を持っているのではないかと考えている。そして、身体構造を使って何かの情報表現を掴むことと、物体の認識過程において物体の表現が総体としてある構造を取る過程は、モダリティによらず同期しているのではないかという。
いずれにしてもいまはまだ仮説の段階だ。浅田教授も「アウトプットが出始めてからのほうが納得してもらえるかもしれませんね。もう一年くらい待っていただくと、うまく説明できるかもしれません」と笑う。
運動の発達、認知の発達、コミュニケーションの発達――。これらがそれぞれどんな過程なのか、どんな関係を持っているのか。いずれにしてもそれは、生物ならではの情報処理の本質を反映しているに違いない。CB2が「はいはい」するとき、彼の内部状態はきっと、作り込みとは違ったものだろう。期待して、研究の発達を見守っていこう。
■
URL
浅田共創知能システムプロジェクト
http://www.jeap.org/
大阪大学浅田研究室
http://www.er.ams.eng.osaka-u.ac.jp/
大阪大学石黒研究室
http://www.ed.ams.eng.osaka-u.ac.jp/
■
関連記事
・
日伊共同研究拠点「ロボット庵」が開業
~「身近なロボット」シンポジウムレポート(2007/03/26)
・
ロボット学会工学セミナー「ロボット・インタラクション・テクノロジー」レポート(2007/03/15)
・
「けいはんな社会的知能発生学研究会公開シンポジウム」レポート(2007/03/08)
2007/08/03 00:15
-
ページの先頭へ
-
Robot Watch ホームページ
Copyright (c) 2007 Impress Watch Corporation, an Impress Group company. All rights reserved.