● ミクスト・リアリティがバーチャルとリアルをつなぐ
6月27日より3日間、江東区の東京ビッグサイトにおいて、第15回産業用バーチャル リアリティー展(IVR)が開催されている。主催はリードエグジビションジャパン。本レポートでは、ロボットに関連する基調講演や、各社の出展ブースについて紹介する。
|
【写真1】東京大学大学院 情報理工学系研究科 知能機械情報学専攻 廣瀬通孝教授
|
基調講演では、VRのテクノロジーを用いたポルシェのデザインや、遠隔操作を応用した臨場感、存在感(テレイグジスタンス)に関する話題もあった。ここでは、東京大学大学院 情報理工学系研究科の廣瀬通孝教授(知能機械情報学専攻)による講演「VRとIRT」(情報技術とロボット技術)について紹介する【写真1】。
コンピュータが作り出した空間に没入し、さまざまな体験ができる「バーチャルリアリティ」というタームは、1980年代後半にVPLリサーチ社がデータグローブなどを発売してから世に広まった。そのルーツは航空宇宙技術にある。近年ではインターネットの世界でも、「セカンドライフ」のように、VRによってサイバーワールドを構築したりと、さまざまな分野で盛り上がりを見せている。内閣府が取りまとめたイノベーション25の中でも「家に居ながらサイバーワールド上で、日本や世界を体験できるような技術を進展させる」という提言もある。
|
【写真2】トロント大学のP.ミルグラム氏によって提唱されたMR(複合現実感)
|
従来のVRでは、外部の世界とコンピュータが作り出す世界に関連性がなくてもよかった。廣瀬教授は「'90年代終わりごろからVR技術に新しい動きが現れた。それがミクスト・リアリティ(MR:Mixed Reality)だ」と語る。MR(複合現実感)は、バーチャルとリアルが混ざり合う連続的な領域として世界を捉えるもの【写真2】。「たとえば、目の前で見えている実世界にバーチャルな映像をスーバーインポーズしたり、仮想空間の中にあるテレビで本当の番組が視聴できるような世界など、MRはいろいろな方向で進歩している」(廣瀬教授)という。
さらに面白い展開として、最近になって「VVR」(Virtual Virtual Reality)という概念も出てきたことだ。これは実際にはVRではないが、機能や効果としては従来のVRのエッセンスを受け継いでいる技術。少しややこしいが、バーチャルなVRということになる。たとえば、ユビキタスコンピューティングのように、実際にリアルな世界(実空間)に出て行って、バーチャルを体験できるようなものだという。
いまユビキタスコンピューティングの世界は、新しい姿として「ネットワークとロボットの融合」という方向に向かっている。「もともとVRとロボットの関係は、テレイグジスタンスに集約されるように、目の前にあるリアルと遠方のリアルを、メディアというバーチャルなものを介してつなぐ、というコンテキストで語られることが多かった」と廣瀬教授は語る。
しかし、'90年代の終わりになってから、ネットワークにつながれるロボット、いわゆる「ネットワークロボット」の概念が登場し、従来のロボット・オリエンテッドな考えかたとは一線を画するものになってきた。「ネットワーク側からロボットを見れば、それは社会から見えないブロードバンドを可視化するディスプレイの役目を果たしており、ネットワークのアクチュエータとしてロボットがあるということ。そのような観点で考えると、実はVRもロボットも同じようなもの」(廣瀬教授)。つまり、ネットワークにつながれたときには、ロボットと等価的な存在(VVR)がたくさんあるということだ。
ネットワークロボットでは、二足歩行ロボットのようにロボット技術が必ずしも単体として成立しなくてもよいわけで、極端な話ではプリンタやFAXでさえロボットの1つとして捉えることができる。コンピュータやネットワークで閉じていたITの世界を拡げたり、あるいは周辺装置としてロボットを強力に位置づけるために、ITとRobotが融合した「IRT」という領域も登場してきた。IRTの前身を担うものが現時点でのネットワークロボットなのだ。この分野では、システム全体としての機能のほうが重要であり、ロボットを社会に装着するための体系づくりが必要となる。
● もはやバーチャル・タイムマシンも夢ではない
具体的なネットワークロボットについては、大きく3つに分類されるという。ネットワーク上の仮想空間で活動したり、ディスプレイなどを通じて実世界とコンタクトする「バーチャル型」、道路・街・室内・機器などの環境に埋め込まれ、人間の行動などをモニタリングして支援を行なう「アンコンシャス型」、実際に人型、ペット型のように目で見える実体を持つ「ビジブル型」である。
廣瀬教授は、このうち自身の研究領域である「バーチャル型」について説明した。最近では、ディスプレイとしてのロボットによって、バーチャルな世界で時間と空間を超えて人が出会い、いろいろなコラボレーションワークができるようになってきた【写真3】。
しかし、VRで問題なのは「人がVR装置のある場所まで意図的に行かなければならないこと。都市空間全体がこの種の特殊装置になることは考えづらいが、日常スペースの中にも装置が置かれないと、(技術としては)あまり意味がない」と指摘する。
そこで、リビングルームなど実空間に3次元映像を浮かび上がらせるような実体型ディスプレイも提案されるようになってきた【写真4】【写真5】。これらは、リアルな世界でバーチャルなものに存在感を持たせる意味で、決定的な役割を果たすものだという。ディスプレイとしてのロボットは、情報世界が外側に働きかけるインターフェイスだ。表現手段がプリンタからCRT、液晶ディスプレイ、さらにロボットへと変遷する、あるいはラジオやテレビといったメディアが、今後はロボットに移り変わることもありえるという。
|
|
|
【写真3】バーチャル型ディスプレイとしてのロボット。ビデオアバタのための空間カメラで、多視点映像をキャプチャし、3Dモデルを生成する。それを仮想空間のアバターとして利用
|
【写真4】サイバーワールドではなく、実空間中に3次元映像を提示する実体型ディスプレイ装置。リアルな世界でバーチャルなものに存在感を持たせる
|
【写真5】産総研、慶応大学、バートンによる実体型ディスプレイ。空気中にプラズマを発生させ、リアルな3次元映像を表示する
|
次にセンサとしてのロボットを考えてみると、人の機能を拡張する「ウェアラブルコンピュータ」もロボットの範疇に入るという【写真6】。ロボットではセンサが装備され、モータなどのアクチュエータで動くが、ウェアラブルコンピュータの場合には、ロボットから切り出した機能を身に付けて、アクチュエータの役割をするのは人間側だ。別の見方をすれば、ウェアラブルコンピュータに、アクチュエータが付いたものがロボットだとも言えるという。
ウェアラブルコンピューティングの世界で、キラーアプリケーションの候補として挙げられているのがライフロボット分野である。人が日常的にコンピュータを身につけて生活すると、大量の情報をセンシングしたり、記録・記憶することが容易にできるようになる。たとえば、TV会議品質で1日8時間ほど映像を記録したとしても、70年間でメモリ容量は10TBぐらいにしかならない。
これらの膨大なデータをマイニングすることで、消費者行動をマーケティングとして活用したり、人の行動習慣を健康管理(生活習慣病)に利用したり、製造現場でのノウハウを蓄積・伝達することもできるようになる【写真7】。実は現在、こうしたライフロボット分野から、知能ロボットに対して強力なラブコールが送られているのだという。知能ロボットに装備されたカメラで大量のデータを自由に収集できるからだ。
|
|
【写真6】ロボットから切り出した機能を身に付けるウェアラブルコンピュータもロボットの範疇に入る
|
【写真7】ライフロボット分野では、日常の膨大なデータを収集し、それをマイニングすることで、マーケティング調査や健康管理など、さまざまな分析が可能になる
|
さらに、いくらでも映像を記録できるようになり、これがVRの世界に入り込むと、また新しい世界が拓けてくる。いまバーチャルな世界では大量のデータベースができ始めているそうだ。情報をテキスト化するのではなく、リアルな生情報のまま映像として記録し、あとからメタデータとして検索していく新しい技術が研究されている。廣瀬教授は、「プライバシーの問題というハードルを超えなければならないが、いつ・どこで・何をしたのか、というデータをすべて揃えられれば、バーチャル・タイムマシンも夢ではない」と語る【写真8】【動画1】。
東京大学では現在、前述のようなさまざまな文脈から語られるVR、IT、ロボットの領域が融合するIRT技術を推進すべく、新しいプロジェクトを昨年から発足している。東京大学の先端技術と、企業の開発力を合わせて、10年後の産業の萌芽となるような先端技術を確立していくものだ。少子高齢化社会と人を支えるロボットの実用化へ向け、基盤となる技術を創出していく。そして、最終的にはヒューマノイド、社会・生活支援システム、パーソナルモビリティという3つのプラットフォームを実現する方針だ【写真9】。
最後に廣瀬教授は、「我々が研究しているVR分野は、もともとコンテンツが重要視されている。その一方で現在のロボット技術は、コンテンツに対してとてもナイーブな状態。ロボット分野に対して、コンテンツという強力なメッセージを出していくのが、実はIRTでの我々の1つのミッションだと考えている」と述べて講演を終えた。
|
|
|
【写真8】TV会議品質で1日8時間ほど映像を記録したとしても、70年間でメモリ容量は10Tバイトぐらい。プライバシーの問題というハードルを超えれば、もはやバーチャル・タイムマシンも夢ではない
|
【動画1】いつ・どこで・何をしたのか、すべてを生の映像情報として記録しておき、いつでも過去に遡って映像情報を検索できる。将来は2007年6月の東京ビッグサイトの状況などもすぐに取り出せるようになるかもしれない
|
【写真9】東京大学IRT拠点では、少子高齢化社会と人を支えるロボットの実用化へ向け、ヒューマノイド、社会・生活支援システム、パーソナルモビリティの3つのプラットフォームとなる技術を創出する
|
● 高応答・高精度な磁気式手指用モーションキャプチャ装置が登場!
展示会場では、最新の3次元CGやシミュレーション技術をはじめとした製品が一堂に集まったVR展と同時に、機械要素技術展や設計・製造ソリューション展なども併設されていた。これらのイベントから、ロボットに関連のある製品についてピックアップして紹介する。
展示会で特に目を引いたのは、モーションキャプチャ、ヘッドマウントディスプレイ、3DビジョンなどのVR製品、検査工程やロボットに用いられるセンシング機器、産業用ロボットおよびロボットを利用したシステムなどだ。
秋田大学を中心とした研究グループは、世界初となる磁気式手指用モーションキャプチャ装置を展示していた【写真10】。秋田県は伝統芸能が豊富にあるお国柄。伝承者の踊りをデジタルコンテンツとして保存する取り組みが進められている。とはいえ、「従来は、繊細な手指の動きや滑りまで測定できる技術はなかった。そこで、高速・高精度な手指用のモーションキャプチャ装置を開発した」(秋田大学 工学資源学部 講師 水戸部一孝氏)という。
モーションキャプチャの仕組みには、ファイバー式、光学式、機械式などがある。それぞれ一長一短あるが、この研究でユニークな点は3次元磁気式センサ(3軸直交コイル)を用いて、誘導電流を検出する方式を採用している点だ【写真11】【動画2】。これにより、サンプリング周波数が240Hzと高速でありながら、位置分解能4μm、角度分解能0.0012°を実現。測定位置も3軸×16chで計48カ所までキャプチャが可能だ。
演奏家やスポーツ選手の指使い、熟練技術者や匠の技の記録・伝達、手術などの繊細な動きが要求される遠隔操作ロボットなどのデータに応用できるという。
|
|
|
【写真10】磁気式手指用モーションキャプチャ装置を開発した秋田大学の研究グループ。極東貿易のブースにて
|
【写真11】3次元磁気式センサ(3軸直交コイル)を用いて、誘導電流を検出する方式を採用している
|
【動画2】サンプリング周波数240Hz、分解能4μm、0.0012°(角度)を実現。ピアノの鍵盤をたたく指使いもキャプチャできるという。背景のディスプレイに、キャプチャしたモーションを表示
|
ディテクトは3次元運動を解析するリアルタイムトラッカーシステム「PRO-Tracker II」のデモを実施していた【写真12】【動画3】。こちらは光学式によるモーションキャプチャで、被写体に反射マーカーをつけてイメージセンサでトラッキングする方式だ。測定データを3次化してアニメーションとして表示したり、計測ポイントの速度・加速度・角加速度などを解析できる。最大30台のカメラシステムを構築できるが、デモでは京商の二足歩行ロボット「マノイ」の動きを12台のカメラシステム(2セットぶん)でトラッキングしていた。
|
|
【写真12】リアルタイムトラッカーシステム「PRO-Tracker II」のデモ。こちらは光学式のモーションキャプチャで、最大30台のカメラシステムを構築できる
|
【動画3】二足歩行ロボット「マノイ」の動きを12台のカメラシステムでトラッキング。光学式のため、4方にセンサを置いてキャプチャする必要がある
|
現在、モーションキャプチャで最も普及している方式は光ファイバーによるものだ。新川電機は、光ファイバー式屈曲センサ「シェイプテープ」を利用した全身モーションキャプチャシステムを展示。体にテーピングした光ファイバを貼り付け、屈曲による光の透過量の変化を検出してモーションを検出し、ワイヤレスでデータを転送する【写真13】【写真14】。
|
|
【写真13】光ファイバー式屈曲センサ「シェイプテープ」を利用した全身モーションキャプチャシステム。現在、最も普及している方式だ
|
【写真14】体に光ファイバー式屈曲センサを実装した状態。体全体の姿勢角を検出するセンサも装備されている
|
インタラクティブ性のある面白いメディアアート作品もあった。電気通信大学は、画面に向かって息を吹きかけると画面上のキューブが吹き飛ぶ「BYU-BYU-View」を紹介していた【写真15】【動画4】。本物の「風」を感じることができるユニークな作品だ。仕組みは透過スクリーンの裏にあるマトリックス型に配置されたボックスにある。息を吹きかけるとボックスの扉が動き、中にあるフォトインタラプタが反応し、スイッチがオンになる。それをトリガーとして、スクリーンに投影されたキューブを動かすというもの【写真16】。バルブが開いて、画面から風が出てきたりする機構も装備されているが、今回のデモでは動作させていなかった。
|
|
|
【写真15】電気通信大学の「BYU-BYU-View」。画面に向かって息を吹きかけると画面上のキューブが吹き飛ぶインタラクションがユニーク
|
【動画4】息を吹きかけるというリアルな実世界での行為と、スクリーン上でキューブが吹き飛ぶバーチャルな動きがMR、複合現実感を与える
|
【写真16】スクリーンの背部。マトリックス型に配置されたボックスにはフォトインタラプタが装備されている。息を吹きかけるとボックスの扉が動き、フォトインタラプタが反応
|
センシングで目を引いたのは松下電工。赤外線センサによって、奥行きと形状をリアルタイムに計測できる距離画像センサを展示していた【写真17】。距離の測定には、赤外線が反射して戻ってくるまでの時間を画素ごとに計測するTOF(Time Of Flight)方式を採用。画素数128×123ピクセルのCCDを利用しており、近距離高速タイプでは36フレーム/秒まで応答できる。実は愛知万博に出展した回廊を巡回するロボットにも、このセンサが利用されていたという。
日本精機は、小型全方位カメラモジュールの試作品を紹介していた【写真18】。コーン型(USB2.0)、エッグ型(Ethernet)。ポール型(NTSC出力)の3タイプがあり、画素数は31万ピクセル。全周囲画像、トップビュー、パノラマ画像、切り出し表示を組み換えられるという。
|
|
【写真17】松下電工の距離画像センサ。奥行きと形状をリアルタイムに計測できる点がポイント。愛知万博のロボットにも利用された
|
【写真18】日本精機の小型全方位カメラモジュール。映像の出力インターフェイスの違いにより3モデルがある。写真は試作品だ
|
● 裸眼で周囲360度から立体映像を見れる装置も
|
【写真19】デンマーク・RAMBOLL社の大型立体映像投影システム「Cheoptics360XL」。裸眼で周囲360度から立体映像を見ることができる
|
2次元、3次元ディスプレイの展示も多かった。3次元ディスプレイで驚いたのは、丸紅ソリューションが販売するデンマーク・RAMBOLL社の製品だ【写真19】。
「Cheoptics360XL」と名付けられた大型立体映像投影システムは、偏向グラスなど特殊なメガネを装着せず、裸眼で周囲360度から立体映像を見ることができる。ピラミッドを逆さにした形状のガラス・スクリーンを使用し、4方向からプロジェクタに映像を投影すると、その中心点に立体映像が現れる仕組み。プロジェクタから映像を投影するだけなので、データの特殊な加工も不要。普通のビデオカメラで撮影した映像も利用できるほか、フルハイビジョンにも対応する。
松下電工では半球ドーム型映像提示システム「CyberDome」を展示していた【写真20】。スクリーンサイズ(ドーム開口部の径)は最大3,700mmと大きく、視野の広い迫力ある映像を楽しめる。こちらは、2次元のほか3次元映像にも対応できるが、立体メガネが必要だ。なお、汐留シオサイト内のCyberDomeでは、直径8.5mもの巨大なドームスクリーンが採用されている。
このほか日本SGIは、フルHDTVの4倍を超える4K(4,096×2,160ドット)に対応したSXRDプロジェクタ(ソニー製)×2台と、同社のワークステーション「Asterism」などを組み合わせたリアルタイム4K立体視VRシアターを展示【写真21】。立体視を時分割方式でも偏向方式でも同時に4K解像度で体感できるシステムは日本初になるという。同ブースでは、来場者に偏向グラスを配布し、ポルシェや地図データなどを利用した精細な3次元のビジュアルを見せていた。ポルシェは塗料の細かい粒子まで再現されていた。
|
|
【写真20】松下電工の半球ドーム型映像提示システム「CyberDome」。3次元映像にも対応できるが、立体メガネが必要
|
【写真21】日本SGIのリアルタイム4K立体視VRシアター。4,096×2,160ドットのSXRDプロジェクタ×2台と、ワークステーション「Asterism」などを組み合わせたもの
|
● 力覚フィードバック装置で機構的な干渉をチェック
産業用途としての3次元スキャナや、反力を持つ力覚フィードバック装置も数社で展示されていた。
アドバンストシステムズは、CADデータを読み込んで、設計データと実際の仕上がり精度を比較する3次元スキャナを出展していた【写真22】。レーザースキャナとプローブを組みあわせ、手動で金型などの表面に沿って段差や隙間を計測するもので、品質検査などに利用できる。7軸構造で無限回転ができるシンコア社のアームを利用しており、関節に装備されたエンコーダによって、プローブの絶対位置が分かるようになっている。
同様の3次元計測システムは、パーセプトロン【写真23】や、FARO、ソアテックなどでも展示していた。いずれもリバースエンジニアリングなどで利用されるものだ。
また、興味を引いたのは、日本バイナリーの力覚フィードバック装置だ【写真24】。これは6自由度すべてに反力を持つデバイスで、製品設計段階において、デジタルモックアップ上でシミュレーションが行なえる装置。たとえば、機構的な干渉があった場合に、アームを動かすと該当部分で負荷が掛かり、反力が返ってくる仕組みだ。また、同様の力覚フィードバック装置で、3本のパラレルリンク機構によって剛性を高める工夫を凝らした「omegaシリーズ」も紹介されていた【写真25】。こちらは12Nの高い反力をサポートするという。
|
|
【写真22】アドバンストシステムズの3次元スキャナ。検査プロセスで、設計データと実際の仕上がり精度を比較できる
|
【写真23】パーセプトロンの3次元計測システム「SPIN ARM II」。アーム部はカウンターバランス機構によって、スムーズな操作が可能だ
|
|
|
【写真24】日本バイナリーの力覚フィードバック装置。これもバーチャルな世界と、リアルな力覚を結びつけることで、複合現実感を与えてくれる
|
【写真25】3本のパラレルリンク機構によって剛性を高めた力覚フィードバック装置「omegaシリーズ」も紹介されていた
|
● 産業用ロボットのユニークなデモンストレーションも
|
【写真26】アマダのYAGレーザー溶接ロボット用オフラインティーチングソフト「Dr.ABE_Weld」。加工ノウハウにあわせた段取り作業や編集作業、リアルシミュレーションが可能
|
工作機械メーカーとして有名なアマダは、YAGレーザー溶接ロボットの段取り工程の手間を省けるオフラインティーチングソフト「Dr.ABE_Weld」などを紹介していた【写真26】。溶接工程において、データの取り込みから、加工ノウハウにあわせた段取り作業や編集作業、リアルシミュレーションまでに対応している。
産業用ロボットおよびロボットを利用したシステムでは、まず三菱電機のブースが面白かった。同社では、サーボモータから、シーケンサ、コントローラ、産業用ロボット、FAまで幅広く製品をラインアップしている。
たとえば、産業用ロボットとしては「MELFA RVシリーズ」のデモが行なわれていた【写真27】【動画5】。このロボットは、同社のMELSECシーケンサの専用バス「Qバス」にロボットコントローラを直接スロットインでき、シーケンサとコントローラ両者の通信を高速化できる。
このような仕組みを支えるのが、「iQプラットフォーム」という概念だ。これは、上位のERPから、製造実行システム「MES」、エンジニアリング・コントローラ・ネットワークなどのレイヤから成るモデル。上位層のERPから、下位層のシーケンサやモーションコントローラ、産業用ロボットまでの連携をシームレスに統合し、FA全体の最適化を図ることができる。また、下位層のユニットから製造実行システムのデータベースへSQL文を直接発行して、生産条件の抽出や稼働実績の更新をすることが可能だ【写真28】。
同社のシーケンサ「MELSEC-Qシリーズ」において、C言語でのプログラミングをサポートするC言語コントローラも発売されている。このC言語コントローラと、シーケンサユニット、モーションユニットを組み合わせてマルチ構成で利用することもできる。
関連会社の三菱電機コントロールソフトウェアは、C言語コントローラを利用した設備情報監視システム「Miranda-MM」のデモを行なっていた。これは、設備の稼働状態をモニタリングし、何かの誤動作や誤操作で機械にインターロックが掛かったりした場合に、設備の異常をデータベースに直接送信できるもの。デモでは実際に自作ロボットを利用し、画面でアーム各部の稼働状態をモニタリングしていた【写真29】【動画6】。
|
|
|
【写真27】三菱電機の産業用ロボット「MELFA RVシリーズ」。最大可搬重量が6kgと12kgのタイプがある
|
【動画5】MELFA RVシリーズのデモ。MELSECシーケンサの専用バス「Qバス」に、ロボットコントローラを直接スロットインできる。シーケンサとコントローラ両者の通信が高速化される
|
【写真28】「iQプラットフォーム」の概念は、上位のERPから、製造実行システム「MES」、エンジニアリング・コントローラ・ネットワークなどのレイヤまでをシームレスに統合し、FA全体の最適化を図るというものだ
|
|
|
【写真29】C言語コントローラを利用した設備情報監視システム「Miranda-MM」。機械にインターロックが掛かったりした場合に、設備の異常をDBに直接送信できる
|
【動画6】「Miranda-MM」のデモ。ロボットを利用し、画面上でアーム各部の動きをモニタリングしているところ
|
産業用インクジェットプリンタの総合メーカーである紀州技研工業は、三菱電機製の産業用ロボットを利用したダンボール印字のデモを実施していた【写真30】【動画7】。500ドット、最大70mmの文字を印字できるインクジェットプリンタを固定し、ロボットアームで印字部を動かことで、高速なダイレクト印字を実現していた。印字部の天地の反転もアームで行なうため、効率よくプリントできる。また、ペットボトルのキャップに印字された小さな文字を高速で検査する装置の実演もあった。
|
|
【写真30】紀州技研工業は、同社の産業用インクジェットプリンタの利用シーンを提示。三菱電機製の産業用ロボットを利用し、高速なダイレクト印字を実現していた
|
【動画7】ロボットアームでダンボールの天地を逆転させたり、円弧補間動作で円周上に印字させているところ
|
ロボットアームと組み合わせて、形状測定のデモを実施していたのは東京貿易テクノシステムだ【写真31】。400万画素のCCDカメラを採用した非接触測定器「COMET5」を利用し、ロボットアームにより計測ポイントの正確な位置決めと同時に、高精度な測定ができる。ちなみにデモで利用されていた産業用ロボットは、ドイツの専門メーカー「クーカ」(KUKA)製のものだった。
ヤマハファインテックは、ファナックの6軸ロボットを利用して、職人芸的なダイキャスト部品の表面仕上げや、エッジ面取りなどの特注仕上げを行なうロボットシステムをデモンストレーションしていた【写真32】。
|
|
【写真31】東京貿易テクノシステムのブースでのデモ。ドイツ・クーカ製のロボットアームと組み合わせて、形状測定のデモを実施。非接触測定器「COMET5」を利用し、ロボットアームで計測ポイントの位置決めと同時に高精度な測定も
|
【写真32】ヤマハファインテックは、特注仕上げロボットシステムをデモ。ファナックの6軸ロボットを利用して、エッジ面取りなどの特注仕上げを行なう
|
特注仕上げロボットには、ファナックの6軸ロボットアーム「M-16iB/20」が使用されていた。M-16iB/20は可搬重量20kgで、繰り返し精度は±0.08mm。デモでは、マシニングセンタのように加工プロセスに応じて、把持したツールを素早く変更していた。
一方、ダイキャスト部品の表面仕上げでは、携帯電話のフロントカバーを把持しながら位置決めを実施。位置決めが終わると、スラスト方向に摺動する研削・研磨ツールによって、何段階かの仕上げが行われるようになっていた【動画8】。
このほか変わりダネの素材としては、寺田が発売している「ポーラス・アルミ板」が目をひいた【写真33】【動画9】。これはアルミ板に直径がφ12/φ15μmの微孔をあけた多孔質材だ。ポイントは穴あけ加工しなくても、通気性があるため、非接触型の浮遊搬送装置やプラスチック成形型、真空吸着治具に利用できる点だ。デモでは、エアホッケーのように素材の表面から空気を出して物を浮遊させ、ラクラクと搬送していた。
|
|
|
【動画8】こちらのデモはダイキャスト部品の表面仕上げ。固定されている工具の位置まで、ロボットで部品を把持して移動する
|
【写真33】寺田が発売している多孔質材のポーラス・アルミ板。通気性があるため、非接触型の浮遊搬送装置にも利用できる
|
【動画9】実際にポーラス・アルミ板を利用して浮遊搬送装置の実演をしていた。アルミ多孔質材である点がポイントだ
|
■URL
第15回産業用バーチャルリアリティ展 (IVR)
http://www.ivr.jp/ivr/
第18回設計・製造ソリューション展
http://www.dms-tokyo.jp/
第11回機械要素技術展
http://www.mtech-tokyo.jp/
秋田大学 吉村研究室
http://kc6.ee.akita-u.ac.jp/member/member.html
■ 関連記事
・ 産業用バーチャルリアリティ展などで展示されたロボットたち(2006/06/22)
( 井上猛雄 )
2007/07/02 19:43
- ページの先頭へ-
|