Robot Watch logo
記事検索
最新ニュース
【 2009/04/21 】
ロボットビジネス推進協議会、ロボ検を開始
~メカトロニクス・ロボット技術者の人材育成指標確立を目指す
[17:53]
グローバックス、名古屋にロボット専門店をオープン
~5月2日~5日にプレオープンイベントを開催
[17:05]
「ロボカップジュニア九州ブロック大会」開催
~ジャパンオープン大会の出場チームが決定
[14:32]
【 2009/04/20 】
研究者たちの「知りたい」気持ちが直接わかる
~理研一般公開でのロボット
[15:15]
【やじうまRobot Watch】
巨大な機械の「クモ」2体が横浜市街をパレード!
~横浜開港150周年記念テーマイベント「開国博Y150」プレイベント
[14:20]
【 2009/04/17 】
第15回総合福祉展「バリアフリー2009」レポート
~ロボットスーツ「HAL」や本田技研工業の歩行アシストも体験できる
[19:46]
「第12回 ロボットグランプリ」レポート【大道芸コンテスト編】
~自由な発想でつくられた、楽しい大道芸ロボットが集結!
[14:57]
【 2009/04/16 】
北九州市立大学が「手術用鉗子ロボット」開発
[14:34]
ROBOSPOTで「第15回 KONDO CUP」が開催
~常勝・トリニティに最強のチャレンジャー現る
[13:17]
【 2009/04/15 】
「第15回ROBO-ONE」が5月4日に開催
~軽量級ロボットによる一発勝負のトーナメント戦
[18:50]
ヴイストン、秋葉原に初の直営店舗「ヴイストンロボットセンター」、29日オープン
[13:37]
【 2009/04/14 】
大盛況の「とよたこうせんCUP」レポート
~ロボカップにつながるサッカー大会が愛知県豊田市で開催
[11:34]

「第16回 産業用バーチャル リアリティ展」リポート
~高額&高機能の産業用VR関連デバイスを紹介


VR用インターフェイスは、SFテイストあふれまくり
 6月25日(水)~27日(金)にかけて、有明の東京ビッグサイトで「第16回 産業用バーチャル リアリティ展」(IVR)が開催された。IVRは日本最大の産業用バーチャルリアリティ(VR)の専門展。第12回機械要素技術展と第19回設計・製造ソリューション展と併催され、ビッグサイト東館の第1から第6ホールまで使った、大規模の展示会である(IVRは第1ホールの半分程度を使用)。

 VRというと、ヘッドマウントディスプレイ(HMD)を被って仮想現実の世界に没入するイメージだが、それだけでなくロボットの遠隔操縦や各種センサ、新型デバイスなども展示されており、近年はロボット要素も一部に含まれている。また、システムの合計金額が1,000万円近くになるものもある産業用VRは、近年はかなりの完成度を見せており、格段の没入感は必見。まさに、現実が感じられなくなってしまうほどなのだ。実際に体験してきたそれらについてお届けする。


ハードからソフトまでVR用製品を多数扱う旭エレクトロニクス

 バーチャルリアリティのソフトからハードまで多岐に渡って手がけているのが旭エレクトロニクスだ。同社の複数の機器を組み合わせたVRシステム、JAXA(宇宙航空研究開発機構)で使用されているロボットアーム操作訓練シミュレータ、ロボットハンドの双方向遠隔制御システムなどを体験させてもらった。

 VRシステムで装着したのは、オプションの5指に装着するバイブレータ「CyberTouch」を装備したデータキャプチャグローブ「CyberGlove」と、SXGA(1,280×1,024)表示が可能なNVIS社製HMD「nVisor SX」。CyberGloveはつまむといった指先の動作を検出し、仮想空間内で物をつかむとバイブレータがブルブルと震える仕組みだ。また、CyberGloveとnVisor SXには、それぞれの空間座標の検出用としてトラッカーの「MicroTrax HandTracker」と「MicroTrax HeadTracker」も装備。それを周囲に配置された超音波センサと、そのコントロールボックスの組み合わせである傾斜型立体ディスプレイ用システム「IS-900 Sim Tracker」が検出するという仕組みだ。そしてシステムの中核となるのは、市販のPC。産業用としては低価格なのが特徴というわけだ。

 実際に装着させてもらって、仮想空間内に浮かぶクルマのエンジンパーツを取り外すという内容を試させてもらった。本来は、指の動きのキャリブレーション(微調整)を取るのだが、デモということでそれを行なえないため、仮想空間内の指をあまり上手には動かせなかったのだが、それでも感覚的なものは十分に楽しめた。nVisor SXの視界はほぼ人の視野と等しいといってよく、仮想空間内にいるようにしか思えないほどである。


VRシステムを装着してのデモンストレーション 仮想空間内の様子 CyberGlove。指先についている黒い装置がバイブレータのCyberTouch

手首にあるのがMicroTrax HandTracker HMDのnVisor SX

 それから、同社の3D VRアプリケーション開発ツール「VirDSE(バーズ)」を使用してJAXAで開発されたのが、国際宇宙ステーションの日本実験棟「きぼう」に備え付けられたロボットアームの操作訓練用シミュレータだ。今回は、十字キーとジョイスティックが実際に本物のシミュレータで使用されているのと同じ物が持ち込まれていた(モニターはシミュレータが動作しているノートPCと通常の大型モニターを使用していた)。操作系だが、十字レバーは押すことと引っ張ることもでき、押すとアームを伸ばし、引けば縮めるという仕組み。もちろん、左右上下(宇宙に上下はないが、頭部方向脚部方向という意味で)への操作も行なう。ジョイスティックでは、ロボットアームを操作するための画像の切り替えや視点の微調整などを行なう。

 実際のロボットアームは安全性を最重視した設計のため、非常にゆっくりとした動作速度なのだが、シミュレータなので倍の速さで動かせる。なお、アームの操作をミスして、宇宙ステーションのどこかにぶつかったりしてしまわないのか心配なところであるが、ぶつかるような位置には動かせない設計なのだそうだ。


【動画】ロボットアームの操作訓練用シミュレータの操作の様子 十字キー

ジョイスティック シミュレータには国際宇宙ステーションが映し出されている

 最後は、ロボットハンドの双方向遠隔制御システム。装着したのは、グローブ型触覚インターフェイス「CyberGrasp」だ。これは、VRシステムで手に装着したCyberGloveのオプションのひとつで、ワイヤー制御によるフォースフィードバック機構である。このCyberGraspと離れたところにあるロボットハンドが双方向につながっており、装着者が指の曲げ伸ばしなどを行なうと、ロボットハンドもその動きをトレースするというわけだ。それと同時に、ロボットハンドがつかんだ物体の硬さがフィードバックされる仕組みになっている。こちらも、キャリブレーションが取れていないため、ものすごくよくわかる、というわけではなかったのだが、2種類のスポンジの柔らかさの違いを感じ取ることができた。


【動画】CyberGraspを装着して指を握って開いてをしてみた様子 【動画】CyberGraspで遠隔操縦している様子 【動画】遠隔操縦で操作するロボットハンドの動く様子

 丸富精工と岐阜大学は、共同ブースで対向型5指ハプティックインターフェイスロボット「HIRO III」と、「バーチャル解剖模型」を出展していた。

 HIRO IIIは、同大学 工学部 人間情報システム工学科の川崎(晴久教授)・毛利(哲也講師)研究室に加え、ダイニチイー・バレイテック技販が共同研究で開発。この9~10月から製品の販売の開始を予定しており、販売元は丸富精工が担当する。

 なおHIRO IIIは、6月11日に総務省が開催した、情報通信技術分野における競争的資金制度である「戦略的情報通信研究開発推進制度(SCOPE)」の第4回成果発表会のリポートでも紹介した、世界初の対向型5指ハプティックインターフェイスロボットでもある。触診の研修といった医療用途や、職人技の記録といったことが、主な目的だ。ちなみにハプティックインターフェイスとは、仮想空間内の物体に触れたり操作したりすることが可能な、フィードバック機構を兼ね備えたインターフェイスのことだ。HIRO IIIの操作は、先端に鉄球の着いた指サックを操作者が装着し、ロボットハンドの先端のマグネットになっている部分とくっつけて行なう。ワイヤー型は引っ張ることでしかフィードバックができないが、HIRO IIIは指で押したり引いたりするため、より現実に近い感触を与えられるというわけだ。

 第4回成果発表会ではスペースの都合で、ハンド部分のみでデモが行なわれていたが、今回はアーム部分も加えたフル装備で出展。しかも第4回成果発表会の時点では、どの指も先端にマグネットの穴があったのだが、わずかな間に改良され、親指と小指に関しては上側(人ならツメの部分)に変更されていた。これは、親指と小指に関してはこの方が可動範囲を広くできるという意見が集まり、それを実践したそうである。

 もうひとつのバーチャル解剖模型は同大学のバーチャルシステム・ラボラトリーに属する工学部 応用情報学科の木島竜吾准教授の研究室で開発された、自由曲面ディスプレイ技術を用いた医学教材のプロトタイプ。運動立体視と呼ばれる立体表示手法を用いてマネキン型スクリーンの表面に3次元CGの内臓を投影しており、使用者から見ると、マネキンを透視しているように体内の内臓を観察できるというもの。仕組みとして、使用者が視点計測用の光学マーカを持ち、それを光学センサがとらえることでプロジェクタの映像を視点に合わせる。また、マネキン型スクリーンの内部には電磁気式位置センサが埋め込まれており、こちらの位置も計測して、角度などを補正した上で投影するというわけである。


【動画】HIRO IIIの動作する様子 親指と小指の先端が改良されていた

6月11日に行なわれた総務省のSCOPE第4回成果発表会の時のHIRO III バーチャル解剖模型

VR用HMDは性能競争に突入中! 各社の産業用HMDを紹介

 実際に仮想空間内を自分の足で歩ける(実際には現実の地面を歩いている)デモを行なっていたのが、クレッセントだ。デモでは、同社が扱っているVirtual-Eye社製のHMD「HEWDD-768」と、両手と腰に装着する位置および高さ計測用のトラッカーを装着して実施。IVRの出展企業の内で、特に広めのブーススペースを押さえていた同社は、その半分で実際に体験者に歩いてもらい、VR空間内を移動している感覚を味わってもらっていた。デモの内容は、仮想空間内で箱を持ち上げてクルマのトランクに入れたり、そのクルマの運転席や後部座席などに座ったりするといったもの。アトラクション感覚のデモに、体験希望者が途絶えることがない状態だった。

 記者は、もうひとつのデモを体験。こちらは自分で歩いての移動ではなく、その場で回って移動したい方向に向き、手に持ったコントローラで進んでいくというゲームに近い感覚である。仮想空間のソフトの内容は、ヨーロッパの一部の国で実際に採り入れられているというもので、殺人事件のあった建物内を移動するというもの(血にまみれた死体も見られる)。最近のHMDは、透過型ならいざ知らず、HEWDD-768などは外界の様子を完全にシャットアウトでき、なおかつ人の視野にかなり近いことと、ジャイロ搭載で頭を巡らせればその通りにCGも360度変化するので、HMDを被っていることを忘れてしまう。HEWDD-768は水平方向で120度(メガネ視野を超える角度)、垂直で92度あり、まさに仮想空間内に没入できる。1,280×768のLCOSを左右にそれぞれ3枚使用し、画素数は590万画素だ。

 VR系のHMDを被った感覚は、文章でしかお伝えできないのが非常に残念である。フィット感やバランス感覚もよく、装着者の頭部形状やサイズに合わせて微調整できるなど、非常に細かい作りが特徴。正確な重量は不明だが、重量バランスがいいのであまり重くは感じなかった。ちなみに値段は840万円なり!


840万円のHMD「HEWDD-768」 装着した様子を横方向から 現実世界で歩くことで、同時に仮想空間内も歩けるデモンストレーション

デモの内容はクルマのトランクに木箱を入れたり、車内に乗り込んだりというもの 使用者の位置はブース上方に設置された光学センサが検出を行なう

こちらは記者が体験した殺人現場が舞台のデモ 左の黒いのが胴部に巻くトラッカーで、右のふたつが手のトラッカー

 兼松エアロスペースは、航空宇宙並びに防衛向けの電子システムを中心に取り扱う企業。VR関連の製品も多数取り扱っており、HMDもそのひとつだ。同社が扱うのは、米国Sensics社製の「piSight」で、水平方向で58度から179度、垂直方向で29度から84度までという視野角を持つ。最大の特徴は、今回チェックしたHMD中で最高の解像度となる、有効ピクセル数で2,400×1,720(単眼あたり最大4,200×2,400)を誇っている点だ。重さは約1kg。デモは、高層階の一室の中を見回せるというもの。ブースのスペースの都合で、歩き回わることはあまりできなかったのだが、視野の広さや解像度の高さは最高級ということを実感できた。

 また、単眼用の耐環境性を重視したシースルー型のHMDである米国Liteye社製「LE-750A」も展示されていた。実際に米軍などでも使用されているそうだ。性能的には、非常にコンパクトながら800×600の解像度を持ち、重さも約100g。軍隊や工事現場などではヘルメットに装着して使用しているようだが、バランスさえ取れればメガネにも着けられそうなほど軽いので、複合(強化)現実用に使えそうである。


Sensics社製HMD「piSight」。上部で光っているのは、位置検出用のトラッカー 軍隊でも利用されているという、Liteye社製単眼用シースルー型HMD「LE-750A」

 HMDによる仮想空間で可視化するVRシステムを扱っている企業は複数あり、日本バイナリーもそのひとつ。旭エレクトロニクスと同じく、NVIS社製HMD「nVisor SX」を中心としたVRシステム一式を取り扱う。デモンストレーションの映像はベルトコンベア上を流れてくるビンとカンを選別して、別々のゴミ箱に入れるというもの。コントローラを手に持って、仮想空間内の自分の手を操作するのだが、やはり没入感がすごい。nVisor SX自体の重量も1kg以下と軽いので、あまり負担に感じることもなく、うっかりすると現実と仮想空間を取り違えてしまいそうで怖いほど(実際に、一瞬自分がどこにいるのかわからなくなった)。

 ちなみに、システムのおおよその総額を聞かせてもらえたのだが、位置や高さの検出を行なう光学式ポジションセンサや、仮想空間の3DCGを制作するツールも含めて、合計で1,000万円近い価格だそうである。一般人が手を出すのはとても不可能なので、ちょっと買ってきてPCに接続してFPSのような3Dのアクションゲームをプレーしてみる、なんてことは難しいようである。


nVisor SX nVisor SXを装着して使用している図 nVisor SXを正面から

水色のパーツがジャイロセンサ プレーヤーの仮想空間内の手をコントロールするリモコン

 オーディオ・ビジュアル関連のメジャー企業・パイオニアが出展していたのは、浮遊映像操作システム「フローティングインターフェース」。これは、メガネなしで見られる立体映像表示技術「3Dフローティングビジョン」に、非接触式ユーザーインターフェイスを統合したもの。浮遊している3D映像をユーザーが手で操作したり、実物体と3D映像を連動させたりすることができる技術である。

 モニターの仕組みとしては、液晶ディスプレイの前に特製3D用レンズを組み込み、さらにその前に赤外線による空間センサを配置。これにより映像が浮遊して見えるのと同時に、モニター前の空間(フレームが通常のモニターに比べてかなり張り出しており、スペースがある)で手を動かしたり、物を置いたりすると認識されるという仕組みだ。センサがとらえたデータはPCで処理され、それを加味した映像を表示するというわけである。デモのひとつは、モニターに近づけた指に蚊が寄って来るというもの。さらには、実物体の殺虫剤のスプレー缶を空間センサの範囲内に置くと、そこからまるで本物のような殺虫剤のミストが噴射され、蚊がポトポトと落ちていくという内容であった。


【動画】指に寄っていく3匹の蚊の様子 【動画】殺虫剤のスプレー缶を置いてみると、本物のような霧が

【動画】実物体のペットボトル内に地球が浮かんでいるデモの様子 【動画】映像と実物体を連動させるデモ

 VR関連のハードからソフトまでを扱うケイ・ジー・ティーが自社ブースで一押しのアピールをしていたのが、イオン・リアリティー社製の非接触式ユーザーインターフェイスを備えた映像表示システム「イオン・タッチライト」だ。後方から透明なスクリーンに映像を映し出す、プロジェクタ的な映像表示システムだ。プロジェクタから投影された映像を、反射させるミラーの近くに赤外線カメラが備えられており、それでスクリーン越しにユーザーの手の動きを感知し、それに合わせて映像をインタラクティブに表示するという仕組みだ。

 ブースでのデモでは、手を少しひねったりするだけで画面が回転し、また手のひらを近づけたり遠ざけたりすることで、拡大縮小などもできた。フィリップ・K・ディック原作/スティーブン・スピルバーグ監督の「マイノリティ・レポート」の1シーンにあったような、透明ディスプレイに浮かぶコンテンツを素手で操作していたイメージだ。


【動画】非接触で表示映像を拡大縮小・回転を自由に行なう様子 モニターの背部。中央のミラーの両脇にある白い電光掲示板のような物が赤外線カメラ 【動画】赤外線カメラでスクリーン越しに手の動きを認識している様子

 画像処理分野を中心に手がける日本コントロールシステムがアピールしていたのは、「ジェスチャー認識エンジン」。それを利用して、非接触式のユーザーインターフェイスのデモンストレーションをしていた。まず指で鉄砲の形(人差し指のみを前に突き出し、親指を立てる形)を作り、親指を思いっきり寝かすと、円を中心に上下左右4カ所にポインタが現れ、手首を動かすことで、表示されている静止画を切り替えていくというもの。

 仕組みとしては、最初に3Dカメラで3次元データ(距離画像)を撮影。それを基にジェスチャー認識エンジンが判断を行なうわけだが、まず注意領域に存在する対象物の検出を行ない、続いて登録ジェスチャーとの照合を実施。さらに、ジェスチャーの変化および移動距離の検出を行なった上で、あらかじめ指定された作業をアプリケーションに実行させる形だ。また指先だけでなく、身体全体を使ってのゲームのデモンストレーションも行なわれていた。任天堂のゲーム機Wiiが実現している仕組みに近いわけだが、リモコンやセンサ付きのマットなどは一切なしに、完全に身体の動きだけでゲーム内のキャラクターを操作しており、センサとしては遙かに上である(ただし、ゲーム機のような価格にまで落とし込めるのかは未確認)。


【動画】指先のジェスチャーでアプリケーションを操作する様子 【動画】全身を使ってゲームをプレーしている様子

そのほか会場で見かけたさまざまなVR系の機器&システム

 コスメイトは、ドライビングおよびフライトシミュレータ、テーマパークなどのモーションライドなどに利用されている、6軸モーションベースのMBシリーズによる地震体験機を披露。実際に地震の揺れを体験できるシステムとして、デモンストレーションを行なっていた。

 地震体験機は6本の電動シリンダにより、前後(X)、左右(Y)、上下(Z)方向に加え、左右方向の傾き(ロール)、前後方向の傾き(ピッチ)、左右方向の回転(ヨー)の6自由度を再現している。また、映像と連動させる仕組みも採用。ただし、今回は揺れる映像だとかなり気持ちが悪くなるということで、遠景を映し出すようにしてあった。体験する際は、立って手すりにつかまるといった感じ。実際に体験してみたところ、揺れのリアルさは見事という感じで、震度5強の時はヒヤっとしたほど。アトラクション的で、なかなか面白いシステムだった。


【動画】地震体験機の様子 地震体験機のフロア下のメカニズム

 新川電機は、光ファイバーセンサを利用したMeasurand社製3D形状測定センサ「シェイプテープ」を応用したデータグローブ「シェイプハンド」や、それを全身に応用したモーションキャプチャーシステム「シェイプラップ III」などを披露した。「シェイプハンド」の優れている点は、40個の光ファイバーセンサによる、6自由度の測定が可能な点。各指の関節の曲げ伸ばし、回転、開閉など測定できない動きはないというぐらい、繊細に動きを拾えるのだ。フィードバックのいらない場合のロボットの遠隔操縦やVR環境での操作などには、最も向いていると感じた機器であった。


【動画】データグローブの動きとリアルタイムで連動したCGの手指の動き モーションキャプチャーシステム「シェイプラップ III」

 VR環境では、ハプティック型=触覚をフォースフィードバックでいかに伝達できるかが近年は重要視されている。そこで重要視されている要素のひとつが、触覚センサだ。シスコムは、指に装着できるサイズと形状、そしてフレキシブルな点が特徴の米PPS社製触覚アレイセンサを出展していた。指先に巻くことができるので、ロボットの指の腹に装着して、より正確な力のかかり具合などを測定することが可能というわけである。ちなみにセンサの厚みは1mm以下。

 また面型の物もあり、そちらはグリッド上に複数のセンサが配置されている。どの部分にどれだけの圧力がかかっているかを測れるというわけだ。人の手と同等サイズのロボットハンドの手のひらなどに装備すれば、よりリアルな触覚をとらえられるというわけである。


指先に装着した触覚アレイセンサ センサ本体 面型のセンサ

 価格はもちろん桁違いなのだが、細部まで徹底して開発された製品ばかりなので、市販品とはまったく異なる凄さを堪能できる「産業用」バーチャル リアリティ展。ヘタなアトラクションよりもよほど楽しめたりするので、最先端のVR技術を堪能したい人は、ぜひとも来年の同展示会に足を運んでみてはいかがだろうか。来年の第17回もすでに東京ビッグサイトでの開催が決定していて、2009年の6月24日(水)~26日(金)までの3日間となっている。


URL
  産業用バーチャル リアリティ展
  http://www.ivr.jp/ivr/

関連記事
「第15回産業用バーチャルリアリティ展」レポート(2007/07/02)


( デイビー日高 )
2008/07/02 16:06

- ページの先頭へ-

Robot Watch ホームページ
Copyright (c) 2008 Impress Watch Corporation, an Impress Group company. All rights reserved.