東京・お台場の独立行政法人産業技術総合研究所デジタルヒューマン研究センターは7日、年1回のペースで開催している無料のシンポジウム「デジタルヒューマン・シンポジウム 2008」を、隣接する日本科学未来館で開催した。
ここでは講演終了後に行なわれた日本科学未来館に隣接する産業技術総合研究所臨海副都心センターの3Fにあるデジタルヒューマン研究センターのオープンハウス(見学会)の模様を中心にお届けする。
● 「人を支えるデジタルヒューマン」ではロボット関連の技術を披露
シンポジウム終了後のデジタルヒューマン研究センターのオープンハウスでは、30に及ぶ新技術が披露された。それらは、「人に合わせるデジタルヒューマン」(人間適合設計チーム)、「人に見せるデジタルヒューマン」(人間情報可視化チーム)、「人を知るデジタルヒューマン」(人間モデリングチーム)、「人を見守るデジタルヒューマン」(人間行動理解チーム)、「人を支えるデジタルヒューマン」(ヒューマノイドインタラクションチーム)という5つのカテゴリーに分類。直接的なロボットに関連する技術は「人を支えるデジタルヒューマン」だ。
2月10日に実施された日本科学未来館の友の会イベント「発見!ロボット研究最前線」で話を伺った、加賀美聡氏をリーダーとするヒューマノイドインタラクションチームの担当である。川田工業製のヒューマノイド型ロボット「HRP-2 Promet」や、レーザー距離センサを搭載した障害物を自動的に回避しながら移動する小型ロボット「Penguin2」も活躍していた。公開されたのは、以下の8つだ。
・受動ベースの二足歩行制御
・ステレオカメラによる歩行者発見
・バーチャルヒューマノイドの操縦
・マイクアレイによる音源分離
・ロボットシステム開発のためのMR環境
・ロボット用実時間システム
・Autonomous Mobile Robot:Penguin II
・GPU-accelerated Real-Time 3D Tracking for Humanoid Locomotion
「受動ベースの二足歩行制御」は宮腰清一氏の担当で、高いロバスト性(不確定な変動に対して、システム特性が現状を維持する性能)と、即応適時材歩行を特徴とした「メモリ・ベースト歩行制御」(うまく歩ける歩行パターンのメモリ作成とメモリ参照による歩行制御)によるもの。要するに、人間同様にどのような接地面でも倒れずに歩くという、ロボットの不整地踏破能力を高めるためのシステムだ。
「ステレオカメラによる歩行者発見」は、加賀美氏と中田貴丈氏による研究内容。ステレオカメラの距離画像中からの床上物体の検出を行ない、それらの追跡をすることで、全床上物体中から歩行者を検出するというものである。
「バーチャルヒューマノイドの操縦」は、西脇光一氏が手がけている。ヒューマノイドソフトウェア開発のためのシミュレーション環境で、実ロボットと同じプログラムで、仮想ロボットをジョイスティックで操縦できるというシステムだ。
「マイクアレイによる音源分離」は、佐々木洋子氏と藤原友亜起氏による研究。32チャンネルマイクアレイによる音源定位・音源分離を行なっている。雑音のある中で、ロボットが人の言葉を聞き分けるという目的の研究で、複数の音声を個別に録音して再生するといったことが可能だ。
「ロボットシステム開発のためのMR環境」も西脇氏の担当。自律行動ヒューマノイドシステムの開発環境において、MR(複合現実感)技術を用いて内部状態を重畳表示するというシステムである。ロボットが周囲の環境をどのように認識しているかを、現実の画像に重ねる形で表示するシステムだ。
「ロボット用実時間システム」は、デジタルヒューマン研究センターの副センター長を努める松井俊浩氏の研究。実時間ネットワーク分散処理を特徴とする新開発のプロセッサ「RMTP」や、運動制御モジュール「DASH-4」などが展示されていた。
「Autonomous Mobile Robot:Penguin II」は、サイモン・トンプソン氏による小型ロボット「Penguin II」の研究。「マイクアレイによる音源分離」の研究と連動した多チャンネルマイクアレイを搭載しているタイプや、レーザー距離センサを搭載した障害物を自動的に回避しながら移動するタイプなど、複数の「Penguin II」がある。
「GPU-accelerated Real-Time 3D Tracking for Humanoid Locomotion」は、フィリップ・マイケル氏の担当。HRP-2を用いた研究のひとつで、ヒューマノイドロボットの移動をリアルタイムに3D位置情報をグラフィカルにトラッキングするシステムだ。
|
|
|
川田工業製「HRP-2 Promet」
|
自動回避を行ないながら移動させられる「Penguin2」
|
「ロボット用実時間システム」のプロセッサ「RMTP」や「DASH-4」など
|
|
|
|
ヒューマノイドロボットのための実時間分散型情報処理の説明パネル
|
運動制御モジュール「DASH-4」の説明
|
対象物の位置姿勢推定のためのステレオ画像列と三次元モデルの距離マッチング手法の説明
|
● 残り4つのカテゴリーで紹介された技術
残り4つのカテゴリーに属する技術は、ロボットに直接的には関連しないものだが、ハイテク(SF系)系であったり、商品化されれば生活がより便利になったりするもの(すでに一部は商品化されている)ばかり。4つのカテゴリーの各技術は、以下の通りだ。
【人に合わせるデジタルヒューマン】
(人間適合設計チーム)
・異なる大きさの手の疑似体験
・産学連携への取り組み
・相同モデル+Body Shape Browser
・手の寸法計測システム
・デジタルマネキンに適応した全身関節中心推定
・歩行中の足の変形計測
・指先の科学
・めがね感性シミュレータ
・ロボティックインソール
【人に見せるデジタルヒューマン】
(人間情報可視化チーム)
・事故シミュレーション映像の簡易な製作環境
・デジタルヒューマン可視化プラットフォーム「Dhaiba」
・複雑形状物の画像ベースモデリング
【人を知るデジタルヒューマン】
(人間モデリングチーム)
・患者反応シミュレーションモデル
・建設現場のヒューマンエラー防止技術
・操作するデジタルヒューマン
・メンタルヘルスモニタの開発
【人を見守るデジタルヒューマン】
(人間行動理解チーム)
・移動軌跡のデータ解析による人間行動理解
・加速時計を用いた住宅内における乳幼児溺れ防止システムの試作
・時空間意味情報マッピング・システム
・身体地図情報管理機能を持つ障害サーベイランスシステム
・超音波3次元タグ
・乳幼児行動シミュレータ
・ベイジアンネットによる大規模データからのヒューマンモデリング
これらすべてを紹介することは難しいが、その中で体験させてもらって特に面白かったものなどを紹介する。
● 「手の寸法計測システム」と「ロボティックインソール」
記者がまず体験させてもらったのが、「人に合わせるデジタルヒューマン」カテゴリーの「手の寸法計測システム」。主任研究員の河内まき子氏と、デジタルヒューマン研究センターと共同研究している芝浦工業大学の青木義満氏、高橋拓也氏が担当している。
手の寸法の計測は、熟練計測者を必要とする非常に高度な技術が求められるのだが、同システムではそれを簡単に実現できてしまう。同システムはWindows用ソフトウェアと、ふたをしなくてもきれいに手の形をスキャンできるスキャナーの組み合わせ。作業としては手の平を載せてスキャンするだけで、その画像を基に手首から中指の先までの全長から各パーツの長さまできめ細かく計測され、数値が多量に算出される仕組みだ。それにより、オーダーメードのさまざまなグローブを簡単に作れるというわけである。
ちなみに記者も採寸してもらったところ、大きくて頑丈な部類の手だそうだ。なお、同システムは製品化が決定しており、今年4月よりデジタルヒューマン研究テクノロジーより発売の予定だ。
|
|
|
スキャナーに手をかざしてスキャンするだけ
|
画像クォリティーはかなり高い
|
記者の手は標準より頑丈で大きいそうだ
|
次は、同じカテゴリーの「ロボティックインソール」。土肥麻佐子氏と高野太刀雄氏の研究だ。人の足の裏の3次元的な形状も、これまたかなり個人ごとに異なっている。そんな足裏に合わせてオーダーメードで靴を頼もうとすると、熟練職人に頼む必要があるわけで、高額となるのはいうまでもない。
そこで、もっと簡単にオーダーメードできるようにというコンセプトで考え出されたのが、同システムである。同システムは、両足を載せて計測する仕組みだ。載せる場所は片足ごとに独立しており、その部分は上下に動かせる細い棒が何本も並んだ仕組みになっている。その棒を1本1本、片足の足裏の形状に合わせて高さを決めていくことで、インソールの型を簡単に取れるというわけだ。
なお現状では、そのまま乗ると結構痛いときもあるので、手前の段階で足裏の3次元スキャンを簡単に行なって、事前にある程度足裏に合わせておくような仕組みが望ましい。土肥氏によれば、そうした方向の改良を予定しているそうだ。
|
|
この上に立って計測を行なう
|
【動画】ウネウネと棒が高さを変えていく様子
|
|
|
棒の高さを変えるイコライザー風の入力装置
|
説明パネル
|
● 人の動作や事故をシミュレーションするシステムなど
人間情報可視化チームによる「人に見せるデジタルヒューマン」では、まず「デジタルヒューマン可視化プラットフォーム『Dhaiba』」を見せてもらった。川地克明氏が担当しており、現在は自動車の運転席への乗り込み動作に関してのCGを利用した可視化が行なわれている。
自動車への乗りやすさ・乗りにくさを調べることを目的としており、自動車のルーフ部分の高さを何パターンか変化させ、それぞれ乗り込むシーンを披露していた。当たり前だが、ルーフが低くなるほど乗り込みにくくなり、最も低くした場合は、「こんなクルマには乗りたくない」と思わせる、とてもきつそうに乗り込んでいく様子が見て取れた。
|
|
|
通常の高さで乗り込む動作
|
ルーフを高くした場合。かなり楽に乗り込める
|
ルーフを低くした場合。首の曲げ方がほとんど拷問
|
|
|
|
室内のステアリング周りのボタンの設置などの検証も可能
|
運転席への乗り込み動作の説明パネル
|
助手席への乗り込み動作の説明パネル
|
もうひとつの「事故シミュレーション映像の簡易な製作」は、事故シミュレーション映像を安価で簡単に作れるようにすることを目的としている。赤澤由章氏の担当だ。現在、自治体や企業などが家庭内や公園などで乳幼児が会いやすい事故のシミュレーション映像などを公開して啓蒙活動などをしていたりするが、新しいシミュレーション映像を作り続けていくのはランニングコストの面で問題がある。
そこで、モーションキャプチャーを装備した専門のスタントマンによって得た擬似的な事故の動作データを乳幼児のCGに落とし込める仕組みを作ると同時に、公園の遊具や家庭内の家具といったCGとデータを用意し、背景の製作を容易に行えるようにしているのが同システムだ。事故の様子は、環境や行動の制御ルールに基づいて、半自動的に事故行動シミュレーションを行なえるようにもなっている。
|
|
|
【動画】事故シミュレーション映像の作成の模様
|
ブースではスタントマンによるモーション撮影の様子も流されていた
|
説明パネル
|
● 日常生活行動情報管理システム
続いては、人間行動理解チームの「人を見守るデジタルヒューマン」。移動軌跡のデータ解析による人間行動理解、時空間意味情報マッピング・システム、超音波3次元タグなどを組み合わせた「日常生活行動情報管理システム」を紹介する。担当は白石康星氏だ。
ロケーションセンサとウェアラブルセンサ、アイカメラ、マイクなどを統合させたシステムである。それを装備して、さらに定点カメラやマイクが設置されたセンサハウスでの生活の模様(実験は1カ月行なわれた)が、間取り図上に表示された移動ルートと並んで見せるデモが流されていた。用途の例としては、薬を取る際の視線と手の映像から取り間違いの原因を調査したり、掃除をする際に家具の配置などに対して人がどう動くかといった行動のデータを取得したりするのに使えるとしている。
|
|
|
【動画】日常生活行動情報管理システムを装備しての生活の様子を撮影したデモ映像
|
白石氏はこんなカメラとマイクを備えたバイザなどをつけて生活
|
説明パネル
|
なお、人間モデリングチームの「人を知るデジタルヒューマン」に関しては、時間がなくなってしまい、今回は詳しい話を聞くことはできず。複数の感覚フィードバックによる操作者の制御モデルを構築する「操作するデジタルヒューマン」(エドワード・アラタ・ヤマモト・ムラカミ氏)や「建設現場のヒューマンエラー防止技術」など、こちらも興味深いものが多かったが、また来年も開催されるようなので、次の機会に取っておきたいと思う。
ちなみに、デジタルヒューマン研究センターが入っている産業技術総合研究所臨海副都心センターは、日本科学未来館の裏手にあるのだが、実は1Fは無料のちょっとした展示施設になっている。デジタルヒューマン研究センターなどで開発された道具や乗り物や、各種ロボットなどが展示・解説されているので、一度足を運んでみてほしい。
|
|
|
建設現場での事故予測のモデル化の説明パネル
|
メンタルヘルスモニタに関する説明パネル
|
ウェアラブルセンサによる寝返りの計測と睡眠の質の解析という説明パネルもあった
|
( デイビー日高 )
2008/03/17 14:43
- ページの先頭へ-
|