Robot Watch logo
記事検索
最新ニュース
【 2009/04/21 】
ロボットビジネス推進協議会、ロボ検を開始
~メカトロニクス・ロボット技術者の人材育成指標確立を目指す
[17:53]
グローバックス、名古屋にロボット専門店をオープン
~5月2日~5日にプレオープンイベントを開催
[17:05]
「ロボカップジュニア九州ブロック大会」開催
~ジャパンオープン大会の出場チームが決定
[14:32]
【 2009/04/20 】
研究者たちの「知りたい」気持ちが直接わかる
~理研一般公開でのロボット
[15:15]
【やじうまRobot Watch】
巨大な機械の「クモ」2体が横浜市街をパレード!
~横浜開港150周年記念テーマイベント「開国博Y150」プレイベント
[14:20]
【 2009/04/17 】
第15回総合福祉展「バリアフリー2009」レポート
~ロボットスーツ「HAL」や本田技研工業の歩行アシストも体験できる
[19:46]
「第12回 ロボットグランプリ」レポート【大道芸コンテスト編】
~自由な発想でつくられた、楽しい大道芸ロボットが集結!
[14:57]
【 2009/04/16 】
北九州市立大学が「手術用鉗子ロボット」開発
[14:34]
ROBOSPOTで「第15回 KONDO CUP」が開催
~常勝・トリニティに最強のチャレンジャー現る
[13:17]
【 2009/04/15 】
「第15回ROBO-ONE」が5月4日に開催
~軽量級ロボットによる一発勝負のトーナメント戦
[18:50]
ヴイストン、秋葉原に初の直営店舗「ヴイストンロボットセンター」、29日オープン
[13:37]
【 2009/04/14 】
大盛況の「とよたこうせんCUP」レポート
~ロボカップにつながるサッカー大会が愛知県豊田市で開催
[11:34]

東大・生研/先端研の研究成果を一挙に公開
~宇宙・水中ロボットから、昆虫操作型ロボット、生体融合のマイクロ・ナノマシンまで


究極の極限環境で活躍する宇宙ロボットたち

【写真1】一般公開された東京大学生産技術研究所・駒場リサーチキャンパス。さまざまな先端研究のほか、小中学生を対象とした分かりやすい理科教室も開催
 5月29日から31日まで、東京大学生産技術研究所(生研)および、先端科学技術研究センター(先端研)のオープンキャンパスが行なわれた【写真1】。人文・社会系、基礎系、情報・エレクトロニクス系、機械・生体系、物質・環境系、海洋工学、生命知能・宇宙環境システムなど、幅広い研究分野から多数の先端研究がお披露目された。本稿では、さまざまな研究の中から、Robot Watchに関わるロボットや関連要素技術を中心に紹介しよう。

 最近、国際宇宙ステーションや船外実験室の組み立てなど、極限環境で活躍する宇宙ロボットが注目を浴びている。この分野では、先端研・町田・矢入研究室が宇宙システムのロボット化・知能化をテーマに研究成果を公開した。同研究室では、高度な自律作業を求められる宇宙ロボットにおいて、視覚IDタグを利用することで、ロボットの自律作業を支援するシステムを開発【写真2】。産業用ロボット(三菱電機製)に搭載したカメラでARタグを認識し、そのタグの情報から姿勢位置、物体形状、操作方法などを知ることで、制御を確実なものにするという仕組みだ。デモでは、タグ情報から燃えるゴミと燃えないゴミを分別する様子を公開【動画1】。またシステムの有効性を実証するために、回転式・ハンドル式・スライド式のドアノブを認識して作業内容を切り替えたり、位置・姿勢に応じたハンド先端の軌道生成などを試みたという。

 もう1つの研究は、再生・循環型宇宙システムに適したセル型衛星「CellSat」だ【写真3】。現在開発されている衛星は必要な部品・機能がすべて一体化された完結品として打ち上げられる。そのため、もし何か部品が壊れてしまうと、すべて利用できなくなってしまうという弱点があった。1度使えなくなった衛星はスペースデブリ(宇宙ゴミ)の原因にもなってしまう。そこでCPU、バッテリ、カメラなど、衛星を構成する機能要素をセル化し、ロボットによって宇宙空間の軌道上でセルを組み立て、全体として衛星として機能させようというコンセプトだ。修理・交換・保守が容易で、セルの組み合わせを変更すれば機能も変えることができる。またセルは標準化することで、開発コストの低減にもつながるという。

【お詫びと訂正】初出時、生産技術研究所のみのレポートとして掲載しておりましたが、同日開催されておりました先端科学技術研究センターでの公開内容も含まれておりました。お詫びとともに記載内容を訂正させていただきます


 セルを組み立てる際には、それぞれのセルを横に並べ、鍵穴に結合ピンを挿して結合する方式だ。しかし、宇宙環境で鍵穴にピンを挿す作業は難しい。そこで宇宙ロボットによる精密組み立て技術も研究しているという。マニピュレータに搭載した力センサで、部品同士の接触による反力を検出し、反力が最小になる方向を探りながら、作業時に起きたスタック状態から抜け出せる【写真4】。

 これらの技術は、将来的に衛星が故障したときに、部品を交換・修理する宇宙ロボットに応用できる。いわばクルマの故障を直すJAFの宇宙版のようなイメージだ。さらに故障を診断する仕組みも考案している。故障検出は双腕ロボットの協調動作によって行なわれる。まずロボットで小型衛星を捕まえて作業台に乗せる。そして片側のロボットによって衛星に振動を加え、さらに反対側のロボットに付いているプローブで周波数を測定して、その共振点から故障を分析するという流れだ【写真5】。また医師が聴診器を当てるようなイメージで、AEセンサ(Acoustic Emission)を利用して、亀裂や歪のエネルギーとして検出される弾性波から故障を診断する方法も併用しているという。このほか、JAXAの技術試験衛星「きく7号」(ETS-VII)に搭載された宇宙実験用ロボットシステムと同等の実験装置も展示されていた【写真6】。


【写真2】ロボットの作業台に乗っている白い箱の上には、ARタグが貼り付けてある。このタグをカメラで読み取り、ロボットが動作する仕組み 【動画1】ゴミ分別作業のデモ。ここでは、産業用ロボットは白い箱がゴミであることをARタグより認識。グリップした箱をゴミカゴのほうにアームで移動し、ハンドを開放 【写真3】セル型衛星「CellSat」。CPU、バッテリ、カメラ、センサ、通信系などの機能要素をセル化し、それらを組み合わせることで衛星を構成できる。修理が容易になり、スペースデブリもなくなる

【写真4】宇宙ロボットによる精密組み立て技術の研究。セルにピンを通して結合する際にスタック状態に陥っても、反力を検出しながら、うまく抜け出すことが可能 【写真5】双腕ロボットの協調動作によって、衛星の故障を診断できる。衛星を加振したり、弾性波から故障を診断できるという 【写真6】JAXAの技術試験衛星「きく7号」(ETS-VII)に搭載されたものと同等の宇宙実験用ロボットシステムの展示。人工衛星で長期間運用されるロボットシステムとしては国内初となるものだった

クラゲ捕捉ロボットから自由姿勢制御ロボットなど多数のAUVが登場

 一方、極限環境といえば、遥か天空の宇宙だけではなく、我々が住む身近な地球の海中も考えられるだろう。生研・海中工学研究センターは「海を拓く自律型海中ロボット」として、多数のユニークな海中ロボットを展示し、研究所に設置された巨大水槽でデモンストレーションを実施していた。デモが行なわれたのは浦研究室で開発した自律型水中ロボット(以下AUV:Autonomous Underwater Vehicle)「TriDog」【写真7】【動画2】。これはホバーリング型のテストベットAUVで、6つの推進器(スラスタ)を搭載し、上下・前後・左右・方位の4自由度を独立して制御できるようになっている。2007年に鹿児島湾で12回に渡り全自動観測実験を行ない、3,000平方m,規模の海底面をマッピングすることに成功したという。

 一方、「Tam-Egg2」は、沈没船を調査する目的で開発されたAUVだ【写真8】。ステレオビジョンによる3次元計測を行ない、沈没船の窓を発見してサイズを測る。その窓枠から本体が通過できるかどうか判断し、可能であれば船内に入り込んで情報を収集する。すでに実験での船内進入に成功しており、実際に海で沈没した船の観測を目指すそうだ。

 ユニークな水中ロボットとして目を引いたのは「T-pod」という遠隔操作型ロボット(以下ROV:Remotely Operated Vehicle)だ【写真9】。これは、深海に住む未知のクラゲを捕捉する目的で開発されたもの。クラゲの比重は水とほぼ同じで、音響ソナーの信号を通過してしまう。そのため認識や位置の把握が難しい。そこでステレオビジョンによる画像処理でキャッチ。クラゲを傷つけずに捕捉するために、前方に取り付けられたホースから吸い込む形でサンプリングする工夫もなされている。


【写真7】自律型水中ロボット「TriDog」。6つのスラスタを搭載し、上下・前後・左右・方位の4自由度を独立して制御できる。深度は110mまでに対応する 【動画2】TriDogのデモンストレーション。地下の研究室に設置されている水槽でTriDogを稼動させているところ

【写真8】自律型水中ロボット「Tam-Egg2」。水深100mまでの海底で探査できる。前方にはLEDライト、ドップラー式速度計、超音波センサ、ステレオカメラなどを搭載。無線LANで通信も可能だ 【写真9】「T-pod」はクラゲを捕捉する目的でつくられたユニークな遠隔操作型ロボット。本体搭載のステレオビジョンでクラゲを認識し、2基のスラスタを使ってターゲットに接近、クラゲを吸引して傷つけないように捕まえる

 水中で画期的な制御系を実現していたのは「IKURA」だ【写真10】。この水中ロボットは、あたかも無重力空間にいるように水中で浮遊し、あらゆる姿勢をとれる。自由姿勢制御が可能になった理由は、フライホイールとモータ付ジンバルで構成された内部ジャイロによるもの。プロペラやフィンとは無関係に直接モーメントを発生できる機構を採用し、機敏な応答の3軸姿勢制御を実現した。また、外界用のセンサには広角魚眼カメラを採用しており、周囲環境を全方向にわたり認識できるという【写真11】。

 また、この内部ジャイロを利用して発電するハイブリッド物理電池システムを開発している点もユニークだ。姿勢制御システムとエネルギー源を一体化させることで、化学電池や燃料電池が不要となり、さらなる小型化が見込めるという。今後このロボットは、小サイズ・優れた運動性能を生かし、水中洞窟、水道管・冷却管、パイプラインなどの管内観測への活用にも期待されている。

 1,500mまで潜れる耐深性を実現した小型水中ロボットとして紹介されていたのは「TUNA-SAND」だ【写真12】。このロボットは、深海環境下での沈没船調査や科学調査用のプラットフォームとして開発されたもの。高精度な慣性航法、潮流に抗う推進力、複数の測距センサによる自己位置特定などの機能を備えている。さらに光ファイバケーブルを着ければ、AUVだけでなくROVとしても運用できる。このTUNA-SANDは、鹿児島湾や伊豆小笠原海域の海底活火山・明神礁カルデラで、熱水湧水地帯や熱水鉱床を発見したりと、さまざまな成果をあげている。


【写真10】従来の制御方法と異なる「IKURA」。機械式ジャイロで機敏な3軸方向の姿勢制御を実現。無重力空間にいるように浮遊し、あらゆる姿勢をとれる 【写真11】IKURAで利用されている魚眼レンズで撮像。ロボットの周囲全方向のマッピングが可能になる 【写真12】1,500mまで潜れる小型水中ロボット「TUNA-SAND」。11月に開催される水中ロボットコンベンションでは、このロボットが参加する予定だという

 一方、サイドスキャンソナーなどで海底地形を測り、深海深く潜る潜航型AUV「r2D4」のパネル展示もあった。こちらは最大深度4,000mに対応できる能力を備えており、前述の明神礁カルデラや、インド洋ロドリゲス島沖の中央海嶺へ潜行し、溶岩大平原などの新しい発見をしている。

 このような興味深い展示のほか、今年の11月1日に開催される水中ロボットコンベンションの告知もあった。本イベントは水中ロボットの展示とデモンストレーションが中心であったが、今年からAUVとROVの競技大会も予定されている。たとえば、自律型水中ロボットを使って、沈没した飛行機を捜索してくるというAUV大会もある。決められたコースをトレースしながら、水中に沈んだ飛行機の写真を撮影するというミッションが与えられている。

 一方、遠隔操作型のROV大会も開催する予定だ。こちらはキュー・アイ社のROVを操縦し、コースをクリアする競技。自作参加のAUV大会は、どうしても技術的な敷居が高くなりがち。そのため浦研究室では、誰でも購入できるラジコンパーツを利用して水中ロボットを製作し、その製作過程をネット上の日記として公開することで、多くの競技参加者を呼び込みたい意向だ。


昆虫が大活躍! 脳研究のためのユニークな昆虫操縦型ロボット

 ロボットの直接的な研究とは異なるが、先端研 神崎・高橋研究室のブースでは、脳研究のための実験装置として、カイコガによってコントロールされるユニークな昆虫操縦型ロボット「EmoRobo」を展示していた【写真13】【写真14】。同研究室では、昆虫脳の完全な理解と、人工的な再現を目指している。昆虫操縦型ロボットは、この目的を達成するための行動実験の1つとして開発したものだというが、Robot Watchの読者には大いに興味深い内容ではないだろうか。

 ロボットは、コンピュータのボールマウスと似た構造になっており、回転体の上にオスのカイコガが乗っている。通常、オスのカイコガはほとんど動かないが、メスのフェロモンを嗅がせると途端に活発に動き出し、フェロモン源に向かって、メスを探し出そうとする【写真15】【動画3】。そこでロボットの回転体上に乗ったカイコガが歩行を始めると、ロボット本体も同じ方向に動く仕組みだ【動画4】。


【写真13】カイコガによってコントロールされるユニークな昆虫操縦型ロボット「EmoRobo」 【写真14】ロボット本体に設置されているマウスのような回転体上にカイコガが乗っている。通常は静止状態のカイコガだが、フェロモンを嗅がせると途端に活発化し、メスを求めて回転体を転がし始める 【写真15】カイコガの匂い探索行動を来場者に理解してもらうために実施したカイコガレース。コントローラのスイッチを押すと、フェロモンがパイプに流れ出し、中にいるカイコが動き出す

【動画3】カイコガレース開始。探索行動はプログラム化されたパターン(直進歩行、ジグザクターン、回転歩行)で構成され、高い環境適応性を持つことも分かってきたという 【動画4】フェロモンを嗅がすとカイコガは途端に動き始める。このデモでは、カイコガがフェロモン源を探すためのジグザグ歩行を行なっているので、ロボットも左右にジグザク走行している

 実際の研究では、ロボットのモータ制御パラメータの変化に対し、コントローラとなる昆虫脳がどのような認識をして、なおかつ補償を行なって適応的な行動を示せるのかという点を解析している。たとえばロボット駆動源の左右のDCモータの動きを調整して、ロボットの片側を旋回しやすくしても、オスのカイコガはうまくロボットを運転し、みごとにフェロモン源を探し当てることができる。シンプルに見える昆虫の脳は、実は我々が思っている以上に、高度な環境適応性を持っていることが分かってきたという。

 また同研究室では、カイコガの神経回路を実装した匂い探索ロボットも製作しているそうだ。このように昆虫の一部を機械で代替する「生体・機械ハイブリッドシステム」を構築し、究極的にすべての神経情報処理機構をロボットに統合することで、その動作を検証できる手法を確立しようとしているのだ。

 そのほかの展示として目に付いたのは筋電位操縦型ロボットだ【写真16】【動画5】。こちらは生体情報計測を体験する目的で来場者に向けて製作したアトラクションの1つ。皮膚表面に貼り付けた電極で捉えた筋電位をトリガーとしてミニカーを操作する仕組みだ【写真17】。ミニカーを動作させる制御信号は、無線(赤外線)にて本体に送られる。実際のデモでは、操作者となる人が右腕を動かすと、ミニカーが右に回転、左腕を動かすと左に回転、さらに左右を同時にうまく動かすと直進するようになっていた。


【写真16】こちらは来場者向けにつくられたアトラクションの1つ、筋電位操縦型ロボット。筋電位は比較的簡単に取り出すことができるという 【動画5】腕の動きによってミニカーが左右に動く様子。最近ではBMI(ブレイン・マシン・インターフェイス)の分野で、このような研究が盛んに行なわれている 【写真17】実際に増幅された筋電位の波形をオシロスコープで見たところ。この電位を利用してミニカーに無線で指令を出し、左右のモータを動かす

わずか充電時間30秒で20分走行! 新しい電気自動車のカタチ

 車両系では、わずか30秒間の充電で20分間の走行が可能な電気自動車「コムスCV」(C-COMS)に驚いた【写真18】【動画6】。これは生研・堀研究室で開発している1人乗りの試作車で、電池仕様ではなく、高速充電が可能な電気二重層キャパシタ(スーパーキャパシタ:100V・100F)を搭載している点がポイント【写真19】。1回の短時間充電で、最高時速50km、走行距離は5kmほどだという。最新モデルはギアを介したブラシレスDCモータで動くが、次期モデルはダイレクトドライブモータを採用する予定。決められた区間ごとに充電ステーションを置いて、コムスCVを往復させるなど、未来のエコカーとして利用できる。「ほとんどの電車が自らエネルギー源を搭載しないのと同じように、未来のクルマは電力系統につながって動くようになるのではないか」と堀教授は説明する。

 スーパーキャパシタは電気自動車のみならず、2足歩行ロボットや車輪型ロボットの駆動源にも応用が利きそうだ。さらに同研究室では、共振による磁界結合を利用した非接触充電の研究も紹介していた【写真20】。電気自動車が普及するためには、手軽で何回も充電できる手法が必要だ。そのためコイルとアンテナによってエネルギーを送受信する非接触の充電方式を研究しているという。こちらもロボットに使えれば大変便利だろう。

 生研・須田研究室では、車両のダイナミクスと制御、モビリティビークル、ITS、各種アクチュエータなど幅広く研究している。展示で目を引いたのは、新しいパーソナルモビリティビークルの提案と「セルフパワード・アクティブ振動制御」の研究だ。前者の研究は、自転車にも平行2輪車にもなるデュアルモードのビークルで、公道と構内・室内での移動が可能。場所によって使い分けができるという【写真21】。後者は、クルマや船舶などで自身の揺れを抑える振動制御において、アクチュエータのエネルギーを外部から取らず、振動自体から回生して蓄えて使うというもの。そのためセルフという名前が付いている。振動発生源からエネルギーを取って制御に利用しようというエコな発想だ【写真22】。


【写真18】電気自動車の試作車「コムスCV」(C-COMS)。30秒間の充電で20分間の走行が可能だというから驚きだ 【動画6】開発者の堀教授が自ら運転。機動性もあり、かなり高速(最高時速50km)で走りまわれることがわかる。未来のエコカーとして期待される 【写真19】これが高速充電の秘密、電気二重層キャパシタ(スーパーキャパシタ)。価格は100万円ぐらいだが、量産化されればコストダウンさするだろう。2足歩行ロボットや車輪型ロボットの駆動源にも応用が利きそうだ

【写真20】非接触充電の研究も興味を引いた。共振による磁界結合を利用し、エネルギーを送信するという 【写真21】須田研究室で提案中の新しいパーソナルモビリティビークル。1台2役で、公道と構内・室内での移動ができる。写真右が平行2輪車モード、写真左が自転車モード 【写真22】セルフパワード・アクティブ振動性制御のシステムに用いられる電磁アクチュエータの例

複雑な非線形ロボティクスや、芸術科学の創造へ結び付く研究

 生研・鈴木高宏研究室では、非線形ロボティクスの研究として「超柔軟ロボットシステム」について紹介していた。超柔軟ロボットとは、柔軟性があるが復元力がない(弾性がない)系やモデルのこと。たとえば、ファイバー、テザー、ワイヤーなどのようなヒモ状の柔軟な要素だ。人間は、ヒモのような道具を巧みに利用して、物に向かって投げたり、巻きつけて物を捕捉したり、鞭打ちによる打撃などが行なえる。従来の硬い機械では不可能な複雑なコントロールを実現しようというのが、この研究の趣旨だ。具体的には、ヒモ状要素ロボットによるマニピュレーションなどが考えられるという【写真23】。最新の研究成果として、超柔軟機構を利用した3次元ディスプレイなども紹介していた【写真24】。

 このような超柔軟系の応用研究は、人工臓器の分野にも応用が利くそうだ。たとえば、例として展示されていたのが「メカトロニック人工食道」だ【写真25】。これは食道の代替品として咀嚼物を胃に送る機能を持つもの。食道のまわりには心臓・肺・胃などの重要な臓器があり、柔軟性に富んだロボティクスが要求されるため考案したという。

 生研・池内研究室では、伝統芸能(踊り)、お絵かき、ヒモ結びなど、人の行動を模倣するロボットの研究を紹介していた。これらの研究はロボットが単に見たとおりの真似をするのではなく、対象となるものが実際に何をしているのか、ロボット側で理解して、それを表現している点が重要なところだ。そして、ロボットがミッションをうまく実行できたかどうか判断する点まで視野に入れ、ロボット芸術科学の創造へ結び付く研究をしている。たとえば、脳内で想像している結果を比較できるモデルとして、ユニークなお絵かきロボット「ドットちゃん」を展示していた【写真26】。このロボットは、4本の指(親指4自由度、そのほか3自由度)を持ち、指先に力センサを備えている。ハンドの握り方の性質を考慮しながら、鉛筆や筆を把持して線を引ける。また、筆の傾き、筆圧、払い・止めなどの微妙な筆遣いで輪郭を描ける。もし思うように描けない場合は、気に入らない部分を再描画することも可能だ【写真27】。


【写真23】受動関節で連結されたリンク機構。超柔軟の動力学モデルとなるもの。根元関節部のみのアクチュエータで先端部をダイナミックに安定化させるため、高度な制御理論が必要だという 【写真24】超柔軟3次元ディスプレイ。柔軟なヒモ上に発光体をつけて回転させる。ヒモの運動と発光パターンの制御によって、さまざまに変化する曲面上に文字などを表示できる 【写真25】超柔軟系の応用として研究されている「メカトロニック人工食道」。食道のまわりには大切な臓器を守るために、柔軟性に富んだロボティクスが要求される

【写真26】人の行動を理解して模倣するロボットの例。ユニークなお絵かきロボット「ドットちゃん」は、微妙な筆遣いで絵を描ける 【写真27】ドットちゃんに筆を握らせて描いたリンゴと人の絵。トライするたびに、味わいのあるリンゴが描かれることがわかる。人間が描くより上手かもしれない

バーチャルリアリティやメディアアート系のユニークな作品も展示

 これ以外にも生研・池内研究室ではVR関連の研究も進めている。たとえば、複合現実感技術(MR:Mixed Reality)を利用したバーチャル飛鳥京プロジェクトを紹介していた【写真28】。MRはカメラなどで自分が見ている風景に、CGで描いた仮想オブジェクトを合成させて表示する技術だ。平安京の建物をCGで復元し、いにしえの景観をありありと再現させていた。さらに合成画像の現実感を高めるために、陰影表現にも工夫が凝らされていた。これにより、移り変わる太陽の動きに応じて、CGモデルの陰影をリアルタイムに変化させることも可能だ。

 メディアアート系の研究・作品も展示されていた。廣瀬・谷川研究室では、テクノロジーとアートを結びつけた「デジタル・パブリック・アート」プロジェクトから2つの作品を展示していた。1つは霧を利用して雲をかたどる「雲のディスプレイ」【動画7】、もう1つは光を手のひらで感じることができる「感じる木漏れ日」だ。前者は16個の空気砲をマトリクス状に配置し、空気圧シリンダーのオンオフ制御によって煙を出す仕組みだ【写真29】。スモークマシンの配管を通って送られる煙は、途中でドライアイスで冷却され、より重くて白いスモークが出るようになっているという【写真30】。現時点では同期のタイミングをとることが難しいが、煙の出し方をうまく制御して文字や図形を表現することもできるほか、最終的に空間にホログラフィーのような映像を出したり、においを出したりすることで、拡張現実感(AR: Augumented Reality)を実現したいという。

 一方、後者の作品は、影と光の部分を画像認識させ、光の部分に対応したピストンを動かすことによって、手のひらで擬似的に光を感じられる仕組みだ【写真31】。文字読み取りをする点字変換機などにも応用できそうな気がする。


【写真28】MRを利用したバーチャル飛鳥京プロジェクトの紹介。ヘッドマウントギアをつけて、いにしえの世界に没入。陰影表現にも工夫が凝らされている 【動画7】「雲のディスプレイ」のデモ。今回の実演では、任意にスモークを発生させ、雲をかたどっていた。将来的には文字や図形を表現したり、映像や匂いを加えて、拡張現実感を実現したいという 【写真29】雲のディスプレイを俯瞰したところ。16個の空気砲をマトリクス状に配置。コンピュータ制御によって、空気圧シリンダーのバルブをオンオフし、スモーク(霧)を出す。制御のタイミングが課題だという

【写真30】舞台演出などに用いられる本格的なスモークマシン。高密度でドライなフォグの噴出を可能にする機械だ 【写真31】光を手のひらで感じることができる「感じる木漏れ日」。裏からみると多数のピストンがあることがわかる(写真手前)。光に対応して、このピストンが動く

見えない空間に飛び交う情報を利用し、人間をサポートする技術

 先端研・森川研究室では、次世代ネットワーク・コンピューティングの情報基盤を構築すべく、利用者のコンテキストに合わせた情報を提供する「コンテキストウェア・コンピューティング」や、センサネットワーク、モバイルネットワークなど幅広い研究を行なっている。オープンキャンパスでは、同研究室のユビキタス・デモルームを公開していた。たとえば、前述のコンテキストウェア・コンピューティングに関わるサービスをマッシュアップするフレームワークや、安価な無線式の地震センサーのほか、携帯端末で人の挙動を認識するデモなども実施していた【写真32】。

 人の挙動を認識するデモは、加速度センサで収集した周波数データを解析し、その推定結果から人の動き(歩行・走行・停止など)を認識するもの。人の挙動によってコンテンツサービスを起動させたり、さまざまなイベントを発生させることができる。スクリーンに表示されたアクションどおりに人が動くと、ポイントが加算されるゲームのようなデモも行なわれていた【写真33】。将来的には、ある状態によってサービスを変えたり(人の動きがなければ携帯電話をマナーモードに設定、あるいは走っていればモードを解除)、ヘルスケアでの歩行計測、介護分野での見守り機能(人の動きがなければアラートを投げる)にも応用が利くようになるかもしれないという。


【写真32】3軸加速度センサとPICマイコンを内蔵した携帯端末。加速度センサで収集した周波数データをPICマイコンで解析し、人の挙動を認識する 【写真33】スクリーンに表示されたアクションどおりに人が動くとポイントが加算される、ゲーム性に富んだデモ。こちらはユビキタス・デモルームではなく、3号館2階のピロティで実施されていた

 生研・橋本研究室は、情報通信技術とロボット技術を用いたネットワークロボットの研究を柱としている。今回の展示では「空間とロボティクスの融合」をテーマに、空間知能化と、触覚インターフェイスを用いた遠隔微細作業システムなどを紹介していた。

 たとえば前者の空間知能化では「インテリジェント・スペース」という概念を提唱し、研究を進めている。インテリジェント・スペースは、環境に多数の分散感覚知能デバイス・DIND(センサと処理部から構成されるデバイス)を埋め込んで知能化した空間のこと。ネットワーク化されたコンピュータやロボットによってセンサ情報を収集し、そこにいる人の意図を推定・理解したうえで、適切な支援を行なうプラットフォームとなるものだ。

 デモンストレーションとして、人間の身体を用いて直感的に情報にアクセスできる空間ヒューマンインターフェイスとして、「タッチポスター」や「空間メモリ」の紹介をしていた。前者のタッチポスターは、スクリーン、あるいは普通のポスターを壁に貼りつけて、タッチパネル感覚で利用できるもの【写真34】。レーザーレンジファインダーを使って、スクリーンやポスター部をスキャンして位置を同定し、特定の場所でイベントを発生できる。レーザーレンジファインダーにもひと工夫がなされている。鏡を利用することでレーザーを反射させ、スキャン領域を広げて精度を高くしているという。

 一方、後者の空間メモリは、空間にコマンドを紐付けてイベントを実行できるもの。天井に設置された複数の超音波センサで位置を同定し、その位置に検知デバイスがくると「照明をつける」「ビデオをモニタに流す」「ロボットを動かす」といったイベントを発生できる【動画8】【写真35】。

 橋本研究室のもう1つの柱は、ハプティックインターフェイス(触覚)を用いた遠隔微細作業システムだ。こちらは、マイクロ・ナノの微細な作業を効率化する目的で研究されたもの。オペレータに対して、微細な作業環境を拡大提示し、視覚フィードバックに加え、さらに力覚フィードバックも加えることで、操作性を向上させている【写真37】【写真38】。同研究室では、遠隔操作やVR空間で作業をする際に、力覚フィードバックによって臨場感を与えるハプティック(触覚)インターフェイスの開発に10年以上前から着手してきたという【写真39】。

 また、昨年の「つくばチャレンジ」に参加した自走ロボットなども展示されていた【写真40】【写真41】。このロボットはGPSを利用せず、地磁気センサで方向を検出しマップと照合し、レーザーレンジファインダで障害物を回避しながら走行する。大会では誤って別プログラムをロードしてしまい、思い通りにいかなかったが、その後は正規プログラムで1kmの走行を確認できたそうだ。今年も11月に大会が開催される予定だが、昨年より難易度が高く、往復でゴールに戻るルールになったため、さらなる改良をしているところだという。


【写真34】タッチパネル感覚で通常のスクリーンやポスターを利用できる「タッチポスター」。レーザーレンジファインダーでスキャンして位置を同定し、特定の場所でイベントを発生 【動画8】空間メモリのデモンストレーション。空間メモリ上に検出デバイスを持ってくると、パソコンからビデオ映像が流れる仕掛けになっていた 【写真35】天井に設置されている多数の超音波センサ。このセンサで3点測量を行い、空間メモリの位置と検出デバイスの位置を照合する

【写真36】空間メモリでイベントを発生させ、ロボットを制御する実験(デモはビデオで紹介されていたもの) 【写真37】視覚フィードバック加えて、力覚フィードバックも操作性を向上する上で重要。写真は力覚フィードバックにより、ある範囲まで動くと反力が働いて、操作者が分かるようになっていた 【写真38】MEMSより小さなNEMS(Nano Electro Mechanical Systems)の時代を切り開くために、遠隔微細作業システムの精度を向上させる高精度センサの開発も行なっている。ピエゾ効果を利用した力センサで、pNレベルの力を検出できるという

【写真39】手首から肩までの力に対応する7自由度のハプティックデバイス「Sensor Arm」。そのほかにも、遠隔地の相手がグリップ力を感じられる「Tele-Handshake Device」、仮想空間の力をフィードバックしてコンピュータとのオペレーションを図る「Sensor Glove」などの研究も紹介されていた 【写真40】昨年の「つくばチャレンジ」に参加した自走ロボット。地磁気センサとレーザーレンジファインダを搭載 【写真41】こちらはSGIの走行ロボット開発支援プラットフォーム「BlackShip」を利用したもの。これを利用すれば、ハードウェア製作を必要とせず、目的とするアプリケーション開発がスムーズに行なえる

ナノ・マイクロの世界が熱い! タンパク質を使って動くロボットも登場?

 今回のオープンキャンパス会期中には、たくさんの興味深い展示・デモンストレーションに加えて、小中学生を対象とした分かりやすい理科教室も開かれた。たとえば、最終日の31日には、生研・土屋健介准教授【写真42】が「ミクロの世界のワールドカップを制覇しろ!」をテーマに、光学顕微鏡やマニュピレータを利用して微細物質を移動させるミクロのサッカー大会を開催【写真43】【写真44】。コートは1×0.8mmという極小フィールドで、ボールは0.03mmのガラス球。小学生同士が対戦相手となり、マニュピレータを動かしながら、相手ゴールにボールを早く移動できれば勝ちというゲームだ【動画9】。子供たちが歓声をあげながら対戦を楽しんでいる姿が印象的だった。

 もともと土屋准教授は「ナノ・マイクロのモノづくり」をテーマに、微細加工・組み立て技術や、それらを応用した医療デバイスの研究を行なっている。たとえば、電子顕微鏡下で物体をリアルタイムに観察しながら、16自由度を持つマニュピレータで工具を動かして、微細構造物を組み立てたり、接合したり、細胞や染色体の解体・抽出する研究などを行なっている。この理科教室では、マイクロアセンブリ技術によって組み立てた微細な建物や、微細なハンドリング技術によって抽出したDNAの事例も紹介していた【写真45】【写真46】【写真47】。


【写真42】生産技術研究所 機械・生体系部門 土屋健介准教授。ナノ・マイクロのモノづくりを基本テーマに、微細加工・組み立て技術や、それらを応用した医療デバイスの研究を行なっている 【写真43】ミクロのサッカー大会で使用した光学顕微鏡とマニュピレータ。極小世界なので、少しでもズレると焦点がぼけたり、フィールドを見失ってしまうので、事前の調整も大変そう 【写真44】理科教室の1コマ。マニュピレータを利用して0.03mmのガラスをゴールに移動させるミクロのサッカー大会

【動画9】コートは1×0.8mmという極小フィールド。小学生同士が実際にマニュピレータを動かしている。ボールを運ぶ触針はとても細くて、激しいバトルがあると折れそうになる 【写真45】土屋准教授の研究成果の紹介。微細加工・組み立て技術で小さなものをつくる。写真は0.1mmオーダーの鳥居や五重塔

【写真46】水戸黄門の印籠も0.01mmオーダーで製作。紋所の微細な加工もしっかりとつくられていることが分かる 【写真47】さらに微細な世界でのハンドリング技術。0.000002mmのDNAを引き出したり、切り出しているところ

 マイクロメカトロニクス分野の展示ブースでは、ユニークな研究が数多く公開されていた。生研・藤田研究室では、MEMSとナノ、バイオ技術を融合した次世代のマイクロバイオマシンプロジェクト「BEANS」(Bio Electro-mechanical Autonomous Nano Systems)の研究について紹介していた。たとえば、微生物を利用したマイクロマシンとして、原生動物のツリガネムシを基板上に配置させると、マイクロ流路をつくれるという。ツリガネムシはカルシウム濃度の変化で上下運動をするため、これに棒状の構造物を取り付け、2Way流路のスイッチング源として使用できるというアイデアだ。このほかロボットに関連するものとしては「スマートスキン」と呼ばれるMEMSアレイの紹介もあった。これは多数のマイクロマシンを基板上に並べてアレイをつくり、協調動作させることでコンベア機能を持たせるものだ。フォトダイオードアレイとFPGAを組み合わせ、フィードバックが可能な搬送システムなどもつくれるという。

 また生研・竹内研究室でも、生体と融合するマイクロ・ナノマシンの研究が進められている。筋肉を構成するタンパク質(アクチン・ミオシン)を使ったナノサイズのアクチュエータ、脳や人工臓器などに埋め込める神経インターフェイス・超フレキシブルデバイス、味や匂いを高感度で計測するタンパク質センサなど、興味深いバイオハイブリッドシステムが紹介されていた。最近ではマイクロナノマシンの世界に、バイオなどの新領域がどんどん融合されつつある。このような動きはロボティクス分野でも同様だろう。そのうち本当に前述のようなタンパク質を使って動かせるロボットも登場しそうだ。


URL
  東京大学生産技術研究所
  http://www.iis.u-tokyo.ac.jp/

関連記事
東京大学「機械系研究室オープンハウス」が開催
~ワイヤー駆動型ロボットやジャンプロボットなど(2008/05/30)



( 井上猛雄 )
2008/06/11 00:57

- ページの先頭へ-

Robot Watch ホームページ
Copyright (c) 2008 Impress Watch Corporation, an Impress Group company. All rights reserved.