「第17回産業用バーチャル リアリティ展」レポート
~時代はARやMR、そして非拘束の方向へ
機械要素展などとともに、東京ビッグサイトの1~6ホールを利用して併催された |
6月24日(水)~26日(金)まで、東京ビッグサイトにおいて「第17回産業用バーチャル リアリティ(IVR)展」が、第13回機械要素技術展、第20回設計・製造ソリューション展とともに併催された。昨年辺りから、MR(Mixed Reality:複合現実感)やAR(Augmented Reality:拡張現実感)技術が目立つようになってきているが、今年はさらにそれらが加速しており、少々大げさな言い方をすると、「バーチャルリアリティ」という言葉がそろそろ当てはまらない感じがしてきた(MRもARもVRの一種なのだが)。数々の展示製品、展示技術を見て実際に体験してきたので、それらを紹介する。
●VR製品からヒューマノイド・ロボットハンドシステムまで展示していた日本バイナリー
IVR展で最も異色だったのが、日本バイナリーが展示していた、英Shadow Robot Company社製ヒューマノイド・ロボットハンドシステムの「Shadow Dextrous Hand」だ。同社はVR機器の代理店で、今回も多数の関連製品を展示しており、力覚デバイスなどと一緒に紹介されていた。残念ながら、コンプレッサーの設置スペースや作動音の問題などで実機の動作デモは無理だったそうで、実機の展示とデモ映像のみ(デモ映像は英Shadow Robot Companyの公式サイトで見ることが可能)。
Shadow Dextrous Handは24自由度を持ち、空圧式の40個の人工筋肉で動作する。各指の関節ごとに、曲げ用、伸ば用の人工筋肉が、それぞれ1本ずつ取り付けられており、これだけ本数があるのはそれが理由だ。平均的な男性の手に可能な限り近づけて設計されたというだけあり、握手をしても不自然ではないサイズや形状となっている。重さも3.9kgと、それほど人と変わらないようだ。ただし、極端というほどではないが、さすがに人工筋肉40本分の前腕部分は少し太めである。鍛え上げた筋肉隆々の腕という感じか。また、動作速度は人間の半分程ということで、手を開いた状態から握った状態にするまでに約0.2秒だという。材質はアルミや鉄、真鍮といった金属と、ポリカーボンやポリウレタン、ゴム、コルクなどの組み合わせでできている。
Shadow Dextrous Hand。40本の人工筋肉が、人の筋肉繊維っぽい感じを出している | ハンド部分のアップ。指は1本1本が独立して動くほか、手のひら部分にも関節がある |
前腕部のアップ。人工筋肉が40本。各指の関節それぞれに曲げるのと伸ばすのと両方の担当筋肉がある | 空圧式の人工筋肉のサンプル |
それから同ブースで面白かったのが、仏HAPTION社製の力覚フィードバックデバイス「ヴァーチュオーズ 6D デスクトップ」。パラレル構造の関節を備えた3本のアームで構成されており、把持部は3本のアームが接する先端部分にある。6自由度を有しており、XYZ軸並進方向の3自由度と、回転方向3自由度のすべてに反力を提示できる仕組みだ。要は、把持部を上下、左右、そして奥に押したり手前に引っ張ったりすることで、CGの物体を上下左右手前奥と3次元的に自由に動かすことが可能。また、ひねることで回転もさせられる。また、それらの動作に対して抵抗を発生させられ、自分が操作している物体が何かに接触したりした感触を味わえるというわけだ。ブースでもPCに接続されており、3次元空間内の箱を自由に動かせるというデモが用意されていた。地面や壁にぶつかるとそれ以上は箱を動かせず、確かに抵抗を感じる。最大反力は15N、最大トルク0.5N・m。把持部が稼動する空間は、直径12cmの球状なので、デスクトップ上でもそれほど場所を専有されないで済むのも特徴だ。
ヴァーチュオーズ 6D デスクトップ | 把持部をつかんで手前に引っ張っているところ | 【動画】実際に操作しているところ。前にあるモニタの左下のウィンドウ内で、箱を操作している |
日本バイナリーが出展していた製品の内、最後に紹介したいのは米IMMERSIVE DISPLAY SOLUTIONS社の半球ドーム型プロジェクションシステム「イマーシブドーム150」。直径1.5mの半球型のドームスクリーンなのだが、180度という高視野角を有する。付属のテーブルに手をついてちょっと身を乗り出し気味にすれば、やたらと視野が広く、映像が覆い被さってくるような感じだ。特に3D映像ではなくても、かなりの迫力がある。
XGA(1,024×768)またはSXGA+(1,400×1,050)で表示でき、Windows用のモニタとして利用可能。画像補正レンズの付いたシングルプロジェクタ方式で投影し、またドームスクリーンの形状に合わせて映像そのものを補正するソフトも付属している。これでゲームをやると、相当迫力があると思うが、あくまでも業務用途なので、価格は数百万円。
イマーシブドーム150の全景。テーブルは支柱でドームと一体になっている | 【動画】ビデオの視野とは比べものにならないため、イスに座って撮影すると非常に広いのがわかる |
●バーチャル世界に入れるクレッセントのVR製品
国内外のVR製品を扱う代理店のクレッセントは、毎年大きなブースを構えている。今年もふたつの異なる内容のVR体験デモを実施し、来場者が長蛇の列を成していた。クレッセントで扱っているヘッドマウント型のウェアラブルディスプレイは、国内のVR関連製品開発メーカーのひとつ、バーチャル・アイが開発した「HEWDD-768」。1,280×768ドットの解像度、垂直90度、水平140度の高視野角を有した製品だ。
1つ目のデモの舞台は、グリーン一色で統一された隔離スペース。マーカーは使用せず、複数台の位置・動作検出用の光学反射式センサーとビデオカメラを利用し、利用者の外見と動きを取得、バーチャル世界にCG化してリアルタイムに投影するというものである。要は、利用者がCGになって、バーチャル世界で動き回れるというわけだ。グリーン一色で隔離しているのは、特撮映画のブルーバックみたいなもので、利用者の外見と動きのみを検出しやすくするため。ほかの来場者が映り込んでしまうようだと、判別が難しくなってしまうからである。内容は、クルマに乗りこみ走るというもので、自分の腕が実際に映るので、バーチャル世界の感覚をつかみやすいようだ。
また、体験スペースの入口には車内の様子がモニタで見られるようになっており、そこに利用者がドライブしている(ように見える)姿が映し出される。記者も実際にバーチャルな姿となってクルマに乗ることができたので、ご覧いただきたい。なお、今回はシステムとして組んで間がなかったため、若干ながらキャリブレーションが取れていないなど問題もあったようで、自分の腕などのCGが乱れてしまうこともあった。性能的にはまだまだ余力があるということだったので、きっと来年にはきっちり調整してもっとすごいデモンストレーションを見せてもらえるのではないだろうか。
バーチャル・アイ製ヘッドマウント型ウェアラブルディスプレイ「HEWDD-768」を利用 | 光学反射式センサー。これで利用者の動きや位置を検出 |
カメラで撮影した利用者の姿やポーズをリアルタイムでCG化して画面に投影 | バーチャルな世界に入ってみた、の図。遂に記者も念願(?)の2次元の住人になることに成功 |
もう一方のデモは、足にマーカーを装着することで、光学反射式センサーが利用者の移動を検知し、バーチャル空間内を実際に歩いて移動できるというもの。高層ビルで火事に遭い、転落死確実の高さにある外のキャットウォークを伝って脱出するという内容だ。体験デモの最後に、屋上からつり下げられているものと思われるゴンドラ(?)に避難するため、すき間を超えて一歩またがなくてはならないのだが、これまたかなり没入感があるため、結構怖かったりする。本気で落ちないようつい大股になってしまうし、ゴンドラに足を着く瞬間は揺れたりしないか緊張してしまう。
こちらもHEWDD-768を装着して体験する | 足の甲にくっつけられたマーカー | 歩き回るため、広いブースじゃないとできない |
内容は、キャットウォークを伝ってビル火災から逃げるというもの | この最後にまたぐ一歩にはつい力が入ってしまった |
●マーカーなしでモーションキャプチャを行なえるアムテックスの2製品
モーションキャプチャといえば、顔や身体中に白いマーカーを付けて、その軌跡を記録し、それをCGに反映させてキャラクターの動きをより人らしくリアルに見せる、といった技術であることは、いまや多くの人がご存知のはず。しかし、いざ自分がそうした装置を装着するとなったら、結構面倒くさそうに感じはしないだろうか。アムテックスが今回展示したふたつのモーションキャプチャシステムは、それらがいらない次世代の製品となっている。
まず、蘭Xsens社製の「Moven mocap suit」から。こちらは、加速度センサーを17個搭載した、モーションキャプチャスーツ。加速度センサーだけで装着者の動きを完全に把握しており、煩わしいマーカーはない。それにも関わらず、完全6自由度のトラッキングが可能だ。しかも、最大150mまで離れられるワイヤレス仕様で、屋内外問わず使用できるほか、センサーなどをつなぐ配線も合成繊維のスーツに埋め込まれているので、10分程度で着用できるなど使い勝手もよく、また動きやすい点が特徴。会場では、ダンサーのお姉さんが軽やかにダンスを披露し、その動きをリアルタイムでCGの人型に反映させ、モニタの中でもほぼ同時に踊っていた。
Moven mocap suit。オレンジ色のラインの下にセンサーとコードがある | 背中にはワイヤレスの装置などがある |
お姉さんのポーズに同期しているのがわかるだろうか | 【動画】お姉さんの動きにほぼ同期する形で、モニタ内の人型も動いているのがわかるはず |
続いては、さらに気軽なシステムを紹介。マーカーはもちろんのこと、スーツの着用すら必要ないという、米Organic Motion社製「モーション・キャプチュア・システム」だ。これは14個のカメラを利用する仕組みで、背景とコントラストの強い色の服装であれば、普段着でもOKというスグレもの。縦4m×横4m×高さ2.5mの計測スペースがあれば機器を設置でき、XYZ位置精度は最高1mm、回転精度は1~2度、遅延時間は25msというスペックでモーションキャプチャが可能だ。
ブースでは、前述のMovenの隣のホワイトバックのスペースで黒い服を着たダンサーのお姉さんが踊っており、マーカーは当然だが、センサーの類もないのが見て取れた。ちなみに、こちらでもお姉さんの動きはすべてリアルタイムで処理され、隣に設置されたモニタ上で、ETだかゴブリンだか、人間ではない二足歩行生物が同期した形で踊っていた。
特殊な装備のない服装でゆったりと踊るお姉さん | 左側のモニタ内の生物とお姉さんのポーズが一緒なのがわかるだろうか | このカメラが14台スペース内に設置されており、お姉さんの動きを検出している |
【動画】マーカーの装着も、専用スーツの着用も必要なしでモーションキャプチャが可能 |
●極東貿易ブースで披露されていたキヤノンのMR技術
続いては、MRやARといった、現実の映像とCGを融合させるスタイルの技術を紹介しよう。まずは、極東貿易ブースで披露されていたキヤノンのMR技術から。いくつものデモが用意されていたようだが、記者がまず見たのは、女性の覆面演奏者たちによるライブ。肉眼で見ればもちろんただのライブなのだが、ヘッドマウントディスプレイ(HMD)やモニタで見れば、その足下で粘土人形のような生物(?)が、カメラを持って動き回っているという具合。また、記者が直接スコープをのぞいて体験したデモは、展示されている小型の恐竜の骨の模型が、実際に恐竜となってブース内を徘徊するというもの。ほかにもコピー機の内部機構を見られるなど、多数の体験デモが用意されていた。
キヤノンでは、HMDと映像位置合わせ技術の二つを基盤として、MR技術の活用を図っているという。今後、産業分野での応用の検証を勧め、開発期間の短縮や試作回数の削減などの効果を期待しているそうである。キヤノン製HMDは、小型カメラを内蔵した独自のビデオシースルー型だ。観察者視線とカメラ視線の視差を解消しているのが特徴で、CGで描かれた仮想物体が、ごく自然に現実空間にあるように感じられるのがポイント。実際に恐竜を見た限りでは、本当に触れそうなほど仮想物体のスケール感、立体感を把握できた。
またキヤノンがMR技術の課題として、現実空間と仮想空間の位置、時間、画質のズレを挙げる。それを解消し、融合すべく研究が進められているわけだが、今回展示されたシステムでは、HMD内のカメラ、現実空間内(ブースの上方の複数箇所に設置されている)のカメラ、HMDに搭載された加速度センサー、位置合わせ計算用マーカーなどを組み合わせることで、かなり克服しているようだ。
●メガネなしのAR型立体映像を見られる「3D・B-Vision」
石川光学造形研究所が展示していた「3D・B-Vision」は、メガネなしで立体映像を見られるシステム。ジオラマと重ね合わせるAR的な使い方にも非常に向いている。デモでは、おまんじゅうのような半球状のドームを丘に見立て、かわいい妖精が魔法で花を咲かせていくという内容。スクリーンを通して見ると、そこに立体映像の動画が投影されるのだが、それ以外の場所から見ると何も見えないので、そこだけ妖精の世界を垣間見られるようなファンタジーな感じを味わえた。
スクリーンを通さないと何も見えないけど…… | 【動画】スクリーン越しに見ると、そこには妖精が花を咲かせているファンタジーな世界が |
●AR技術はお手軽になりつつある?!
現実世界の映像とCGを重ね合わせることで実現できるARの用途は、販売促進用のディスプレイ、バーチャルシミュレーション、教育・研究用途などなど。ケイ・ジー・ティーが展示していた、独METAIO社の「メタイオ ユニファイ プラットフォーム」は、ノートPCやiPhoneなどで容易に、なおかつ短時間で作成できるAR構築ツールだ。デモでは、ノートPC上にボウリングのピンを並べてストライクが出れば当たり、という店頭でのキャンペーン用のものや、超小型のデスクトップ・クレーンの操作をしていた。
【動画】ボウリングデモ。目の前にあるノートPCの上に、見えないピンなどがある感じ | 【動画】デスクトップ・クレーンとてでもいうべきデモ |
●机の上に3D映像を表示してしまう「机上立体」
モニタではなく、机の上に図面などを広げて、複数の人間で打ち合わせたりすることはモデルルームや都市開発といった大型の建築・建設プロジェクトのプレゼンテーションなどではよくある話。図面ではなく、立体的に見られれば、誰でもわかりやすいわけで、それを実用化したのがソリッドレイ研究所の俯瞰立体表示プレゼンテーションシステム「机上立体」だ。同社が開発したVR構築・体験ソフトウェア「Omega Space」を活用したシステムで、偏向式のメガネをかけることで机の上に立体映像が広がるという内容だ。ただし、残念ながら例によって単眼のカメラでは立体感をとらえられないので、お見せできないのが残念である。
また同社では複数の製品を展示していたが、個人的にちょっと引かれたのが、手術者目線録画システム「オペアイ」。執刀医が頭部に装着するための小型カメラと単眼用のHMDを搭載したヘッドマウント型のシステムで、遠隔地に執刀医の視線での映像を送ることが可能。逆に、HMDにとらえた画像に重ねる形でテキストや画像をリアルタイムに重ねて表示させることも可能で、施術中の執刀医へのアドバイスも行なえるようになっている。
机上立体。ユーザーが動くとそれに合わせて映像が変化し、3D感を味わえるという仕組み | オペアイ。ARで遠隔地からアドバイスを受けつつ手術が可能なシステムだ | 右上のモニタにオペアイでとらえた映像が映っている |
●島根県産業技術センターが開発した「3Dカメラセンサシステム」
続いては、VRとの橋渡し的なデバイス系の製品や技術を紹介。今年は、これまでの拘束型から、非拘束な方向に発展しており、グローブをはめたり、何かを身に付けたりするようなスタイルから脱却し始めている傾向である。島根県産業技術センターが開発した「3Dカメラセンサシステム」もその一つ。ブースには、普通に販売されている大型液晶モニタの下にカメラがあるのみ。赤外線を照射する3次元カメラを使って人の動きを認識し、特定のジェスチャーによって操作するという仕組みだ。3次元カメラは、光の移動速度を利用したTOF(Time-Of-Flight)方式を用いており、外乱光、温度変化による影響が小さく屋外でも利用可能であるほか、高精度、短時間での距離測定、タッチパネルより非常に安価といった点が特徴。
デモンストレーションは、博物館と思われる屋内をシームレスに360度撮影した画像を、手振りだけで上下左右に画面を動かし、拡大縮小を行なうというのが一つ。ほかにも、宇宙空間を舞台にした3Dシューティングなどもあり、すべて手振りだけで操作していた。
博物館内のバーチャルツアー・デモ。画面は、拡大の指示を受けて、それを実施するところ | 3次元カメラセンサ |
【動画】博物館内のバーチャルツアー・デモの様子 | 【動画】スペースシューティング。ガンナーの視点で接近してくる敵の宇宙戦闘機を迎撃する |
また、電磁誘導式床圧力分布マットセンサーシステム「トレーニングステーション」も体験デモコーナーを用意。マット面全体で重心移動や体重測定などが可能で、足のみでさまざまな操作を行なえるステップインターフェイスとなっている。こちらも特に何かを装着するといった拘束の要素はなく、普通にマットの上で足踏みするだけで、仮想空間内で移動できる体験デモとなっていた。電磁誘導式床圧力分布マットセンサーは、金属シート、緩衝材、コイルの直交するセル部という比較的シンプルな構成。圧力によって金属シートがセル部に近づくことで電磁誘導が発生して電磁結合パラメータが変化し、それによって各セル部の圧力を算出、独立して表示するという仕組みだ。最大サイズは10m四方で、最小厚は2mm。最小分解能は4mm、最大検出速度は100fpsとなっている。電力供給はUSB接続で行なう。なお、名称からも想像がつくとおり、ゲームやトレーニングなどへの利用も考慮されているそうだ。10m四方のスペースが取れるのなら、複数人で遊ぶことも可能だろう。
トレーニングステーション。今回は全部に左右への旋回などのスイッチあり、そこを踏んで向きを変える仕組み | デモの内容は、江戸時代の城下町を探索するというもの | 【動画】トレーニングステーションを利用している様子 |
●フル体感型・可触化インターフェース
独立行政法人産業技術総合研究所は、ゲームやVRにおける物体の形状や動きに関する触力覚を体感できる、「フル体感型・可触化インターフェース」を展示し、「3Dリアル・フル体感型釣りゲーム」のデバイスとして体験デモを行なった。同研究所が開発した錯触力覚感覚誘発技術を利用することで、仮想空間における物体と現実空間の利用者との間に働く触力覚的インタラクションを体感できる仕組みとなっている。
特徴は、従来は必須とされた力覚提示用のワイヤーやアーム、電磁気力を使用することなく、非拘束で仮想物体の触感提示を可能としている点。フル体感型とは、コントローラへ入力した力覚情報に呼応した力覚反力を、ユーザーが力覚的に体感できる双方向インタラクションのこと。ゲームコントローラなどで一般的なのは、力覚情報を視聴覚情報などの異なるモード情報に変換して提示する疑似体験型である。
3Dリアル・フル体感型釣りゲームの釣り竿デバイス | 3Dリアル・フル体感型釣りゲーム。釣り好きの人たちが多かったようで、やたらと混んでいた |
●色まで判別できる3次元レーザースキャナ「GLS-1000」
計測機器メーカーのトプコンが展示したのは、3次元レーザースキャナの「GLS-1000」とそのデモ映像。3次元的に地形や屋内などの形状を高精細で把握でき、なおかつ形状だけでなく色までわかるという。実際に撮影したデータをいただいたので、ご覧いただきたい。これを装備してヘリコプターで飛び、調べたい地形などを計測すればあっという間に3次元地形データを収集でき、なおかつカメラで撮影したとまではさすがにいかないが、かなり鮮明に色までわかるので、わかりやすいことこの上ないというわけだ。距離精度は、150mまでで4mm、角度精度は6秒、スキャンスピードは1秒間に3,000点。
左がGLS-1000。右はもっと高性能の機種ということ | 建物をスキャンした画像 | 【動画】スキャンしたデータを用いれば3Dの空撮のような映像もすぐに作れる |
●球体映像入出力システム
ナックイメージテクノロジーで来場者の目を引いていたのが、科学技術振興機構さきがけ研究員兼武蔵野美術大学研究員の橋本典久氏が開発した、「パノラマボールビジョン」。球の中心をレンズの主点として球体外面に全方向空間を表示させ、小型で歪みのない完全な全天周映像を再現する球体映像入出力システムである。球体の表面には地球儀でいう経線のようなLEDのラインが幾筋かあり、それを高速回転させ、角度ごとに表示する内容を瞬間的に変更し、なおかつ人間の目ならではの残像も利用する形で映像をきれいに再現するようになっている。動画の30fpsでもフレームレートが高いようで、若干ちらつく感じになっている。スチルカメラで撮影する場合はシャッタースピードを遅めにすれば、きれいに撮影できるというわけだ。
実写映像版地球儀は最も適した使い方と思われ、非常にきれいだった | パノラマボールビジョンのシステム全体の様子 |
回転が停止しているところ。LEDの筋が何本かあるだけ | 【動画】動画だとどうしてもちらついてしまうが、映像が球体全面に表示されていることがわる |
●本をめくる動作で操作する「フシギデスク」
最後は、IVRC2008(第16回国際学生対抗バーチャルリアリティコンテスト)に出展し、東京予選で審査員奨励賞を受賞した東京工業大学ロボット技術研究会の「フシギデスク」を紹介。「本をめくる」という動作をスイッチにしたVRガジェットで、「ねことねずみ」という絵本を題材にしたCGが展開する。机の中に手を入れるとそこに本があるので、めくると(1ページ1ページがハードカバーの表紙のように厚く、数ページしかない)デスク面のモニタの本も同じようにめくられる。そして、そこら中から湧き出してくるねことねずみ(ほとんど両者をイメージする記号に近いCGなのだが)をはじき飛ばせたりできるというもの。次から次へと本をめくる勢いで吹っ飛ばしても、わらわらと動いていっぱい出てくるという内容である。日本バーチャルリアリティ学会のブースで展示されていた。
フシギデスク | ほんをめくると、モニタの本も同期してめくられ、ねことねずみが飛ばされたりする |
中はこんな感じ | 【動画】フシギデスクを体験している様子 |
以上、2009年の産業用、業務用のVR関連の製品トレンドを紹介してみたが、いかがだっただろうか。昨年に比べると、明らかにAR系の技術が増えているのがわかった。完全なCG空間を舞台とするVRは用途が限定され、限界が見え始めているので、今後は現実を強化するAR、MRといった技術が伸びていくことは確実なようだ。また、データグローブやモーションキャプチャスーツのように、拘束型は利用者からするとやはり使いづらいというのがあるようで、非拘束型の方向に移ってきている。今後は、少ないセンサーでどれだけ正確に利用者の動きや姿などを捉えることができるかが、ポイントとなっていくのではないだろうか。
なお、来年の第19回の開催もすでにスケジュールが発表されており、同じ東京ビッグサイトで6月23日から25日まで実施される予定になっている。楽しみにしたいと思う。
2009/7/3 18:59