● 実世界共生ロボットを実現する2つの流れ
|
【写真1】オーガナイザーを務めた九州大学 大学院システム情報科学研究院 倉爪亮教授
|
6月11日(水)から13日(金)の3日間、パシフィコ横浜においてマシンビジョン関連機器の総合展示会「'08画像センシング展」が開催されていたが、画像センシング技術研究会の主催によって「第14回画像センシングシンポジウム」(SSII08)も同時に催されていた。ここでは13日に行なわれたオーガナイズドセッションの中から、特にロボットに関わり深い内容について紹介する。オーガナイザーは九州大学の倉爪亮教授(大学院システム情報科学研究院)【写真1】。
本オーガナイズドセッションは「実世界環境におけるロボットのための環境センシング」をキーワードに、移動ロボットのナビゲーション技術、センシング技術にフォーカスし、実世界共生ロボットの実用化への見通しを探るもの。はじめにオーガナイザーの倉爪教授がセッションの目的について説明した。
従来、工場など限られた環境下で使用されていたロボットに代わり、最近ではサービスロボットやホビーロボットなど、日常生活で活躍するロボットが少しずつ浸透してきた。日常の環境でロボットが使用され、社会活動を支援できるように、ITやロボットを融合した「IRT」を国策としても推進しようとしているところだ。このようなパートナーロボットの実現を目指した「実世界共生ロボット」の研究も盛んに行なわれている。将来は、ロボットを取り巻く環境にさまざまなセンサーが配置され、日常で使用されるようになるだろう。
倉橋教授によれば、このような実世界共生ロボットには2つの流れがあるという。1つはロボット自体の性能だ。たとえば高機能・高性能なセンシング能力や制御アルゴリズムを搭載し、処理の向上を図るもの。もう1つはロボット周囲の環境を整備して、いろいろなセンサーを取り付けて、ロボットを支援していこうというものだ。この考え方は「環境情報構造化」あるいは「空間知能化」と呼ばれている。
最近では、実世界でロボットを動かす取り組みとして、「つくばチャレンジ」やDARPAの無人カーレースなど、競技会形式での実証実験も行なわれるようになってきた。さらにロボット周囲環境の整備についても多くの取り組みがなされている。環境情報構造化による共生ロボットの研究・実証実験は、九州大学(ロボットタウンプロジェクト)や、早稲田大学(wabot-house)、東京大学生産技術研究所(インテリジェントスペース)などの大学や研究機関でも盛んに行なわれている。
以下、この分野の第一線で活躍する研究者による講演の模様をレポートする。本セッションでは、倉爪教授を含む4人の研究者が登壇し、実世界共生ロボットを実現する最新の研究や技術について説明した。
● 屋外自律ナビゲーションの実現に向けた筑波大学のロボットとは?
|
【写真2】筑波大学 大学院システム情報工学研究科 知能機能システム専攻 坪内孝司教授
|
トップバッターの講演者は、筑波大学の坪内孝司教授(大学院システム情報工学研究科、知能機能システム専攻)だ【写真2】。坪内教授は「移動ロボットによる屋外自律ナビゲーション」をテーマに、共生ロボットのための実世界実証実験の1つとして位置づけられている「つくばチャレンジ2007」の話題を中心に解説した。
つくばチャレンジは昨年初めて開催された屋外公道走行実験。つくば市内の遊歩道1kmの区間をロボットが自律走行し、ゴールに辿り着く(停止する)という課題が与えられた大会だ。いわゆる競技会という位置づけではなく、あくまで課題達成が第一の目的となる。課題に対する方法論の開発と、技術情報の公開・共有によって、ロボット技術の社会的認知や裾野を広げることが狙いだという。実験場所が公道という実環境ということもあり、開催までにはさまざまな苦労があったという。
ロボットのサイズ・重量は75×120×150cm(幅×奥行き×高さ)、100kg以内に制限されており、最高速度も人が歩く速度と同等の4km/h以下に規定。また何か異常があった場合に備え、見える場所に非常スイッチを取り付け、走行時の異常に素早く対処できるように、オペレータがロボットに随走するなど、安全対策も施す必要があった。さらに坪内教授は「警察から道路使用許可を得ることが大変だった」と、準備段階での公道利用の苦労についても回想した。このような準備を経て2007年11月16日と17日の両日、無事に試走会が開かれた。
実際に大会にエントリーしたのは、個人参加を含めて33団体だった。16日にはスタート地点から100mを12分以内で走る「トライアル走行」が実施され、27団体中11団体が予選を通過した。17日の本走行では、公道1kmを2時間以内で走行する課題が与えられた。今回初めてのチャレンジということもあったが、完走したチームは金沢工業大学と、筑波大学2チーム(「屋外組」および「つくロボ」)の合計3チームだった。
本大会の難しいところは、走行する道幅が一定ではなく、路面の凹凸・段差、縁石・路肩があり、さらに道行く自転車や歩行者も想定しなければならないことだ。天候、時刻、場所によっては、周囲の明るさも変わる。また実験が行なわれる11月頃は、落ち葉がたくさん積もるため、ロボットが障害物として誤認識する恐れもある。人が実際に生活している、あるがままの環境下で実験することが、いかに難しいことか改めてよく分かる【写真3】。
そのような中で、筑波大学の坪内教授率いるチームは一体どのような自律走行ロボットを製作したのであろうか。走行系は従来から研究室にあった機体を利用。これに必要なエレクトロニクス系を搭載した。外界・内界系センサーには、モータ用のエンコーダ、GPSレシーバ、IMU(GPS援助慣性計測装置)、測域の異なる2台のURG(レーザーレンジスキャナ)、カメラなどを使用【写真4】。ロボットをナビゲーションするにあたって、坪内教授はいくつかの戦略を考えたという。
まず地図位置ベースと、センサーインタラクティブな道沿い走行を組み合わせ、相互補完できるように全体の制御系を組んだ。前者の地図位置ベースによる走行では、ロボットの自己位置がわかるように、事前にRTK-GPSによってWayPointでの経路地図を作成し、その経路全域をロボットに走らせて測域センサーのデータを収集。また、よく見える縁石や植え込みなどの特徴抽出も行ない、ランドマークを参考にして、累積された自己位置の誤差修正が行なえるように準備も整えた【写真5】。
|
|
|
【写真3】「つくばチャレンジ2007」の公道走行における環境。路面の凹凸・段差、縁石・路肩があり、自転車や歩行者あり、落ち葉ありと、さまざまな状況を想定する必要があったという
|
【写真4】坪内研の自律走行ロボット。センサー系には、エンコーダ、GPSレシーバ、IMU、URG×2、カメラなどを採用。耐環境性に優れたノートPCも搭載している
|
【写真5】ナビゲーションの戦略。地図位置ベースと、センサーインタラクティブな道沿い走行を組み合わせ、相互補完できる制御系を組んだ
|
測位のポイントとしては、いつもGPSが信頼できるとは限らない点を念頭にいれること。ロボットの移動場所によっては、GPS受信電波の状況がめまぐるしく変化することもある。坪内教授は「たとえ受信状態が悪くて推定誤差が大きくなっても、とにかく走れるようにしたかった。ランドマークによる自己位置の修正だけでなく、周囲の環境を見ながら道路沿いに走行できる工夫をした」と説明する。ただし当日の走行では、ランドマークのスキャンマッチングによる自己位置認識は採用しなかったそうだ。というのも、大会ではまわりに人垣ができる可能性があり、カメラビジョンで適当なランドマークを選択することが難しいと予測されたからだという。
障害物検出については、URGを2つ利用した。1つのURGは遠目に先を見るために地面4mぐらいでクロスさせるようにし、もう1つのURGはロボット直下に配置。これらのURGによって障害物を検出すると走行速度が切り替わる仕組みで、最終的に回避行動ができるようになった【写真6】。路肩はセンサーの計測データの高さ平均から検出しているが、道に落ち葉が積み重なっていると、これも障害物とみなしてしまう。そこで、落ち葉が道路内で離散的になっていることから、これをベースに認識するようにした【写真7】。
一方、ソフトウェアについては、ナビゲーション戦略が複雑であったため、分離して実装できる構造にしたという。デバック時にもぐら叩きにならないよう工夫したそうだ。センサーで測定したデータにタイムスタンプを付けて共有メモリに書き込み、マルチプロセスで必要なデータを読んで処理して走行できるようにしたそうだ【動画1】。
|
|
|
【写真6】2つのURGを搭載し、障害物を検出したセンサによって走行速度を切り替えている。最高速度は1.1m/s、4m以上先の場合は60cm/s、1mぐらいの地点では30cm/sと低速に走行
|
【写真7】晩秋に大会が開催されたため、道路に積もる落ち葉の対策が必要。道路の外側に比べ、道路内では落ち葉のパターンが離散的になっていることから判断する
|
【動画1】大会当日の走行の模様。オペレータがロボットに随走している。1kmの公道を完走。初のチャレンジのためか、参加チームで課題を達成したのは3チームのみだった
|
坪内教授は「我々は公式記録として課題を達成できたが、実はゴール手前80cmのところをゴール位置と認識してしまった。また走行時は人垣のためかどうか原因はわからないが、GPS受信状況が悪く位置修正があまり効かなかったようだ。今回の大会では、金沢工大のようにビジョンベースを使いこなした団体が少なかった。ロボット屋としては寂しいので、次回はビジョンベースをナビゲーションに取り入れてチャレンジしてみたい」と語り、つくばチャレンジ走行の総括とした。
● ロボティクスに適する高速3次元画像計測用のセンサーを開発!
|
【写真8】中央大学 理工学部 精密機械工学科の梅田和昇教授
|
続いて登壇したのは、中央大学の梅田和昇教授【写真8】。梅田教授は、ロボットの要素技術として「高速3次元画像計測-200Hz小型距離画像センサの構築」をテーマに講演を行なった。ロボット分野では、障害物回避、物体認識、マニピュレーションなど、3D空間の距離画像に関する処理技術が求められている。これらは製品化されているものもあるが、実はロボティクス向けでないものも多いという。ロボットで利用する際には、サイズ、ロバスト性、リアルタイム性、耐環境性について考慮しなければならないからだ。
特に多くの応用例ではリアルタイム性がポイントになるという。現在、ロボティクスにおいて高速な距離計測をする際には、光の伝播時間(位相ズレも含む)を利用する「Time Of Flight法」(TOF法)と、光路のズレを利用する「三点測量法」(2台以上のカメラ)あるいは「焦点測量」(1台のカメラ)がある【写真9】。計測時の不確さについては、前者の場合は距離による影響が小さいため遠距離計測に向く。一方、後者の場合は距離の2乗に精度が利いてくるので、どちらかというと近距離計測に向く。
では、このような計測法を使って3D距離計測をするのは一体どうしたらよいのだろう。時間伝播法を利用した1Dスキャンセンサーは「SICK」(ジック)や「URG」(北陽電機)といった製品が有名で、さらに1軸を加えることで2Dスキャン計測も実現している【写真10】。また、梅田教授によれば最近では多点で同時に時間伝播法を実現する製品も出てきているという。TOF法を実現するセンサーをマトリクス状に複数配置し、ワンショットで距離を高速に計測できるようにしたもので、松下電工やシャープなどから登場している【写真11】。ただし、計測対象から出た光を撮像素子全体で受ける方式のため感度を稼げず、屋外使用にはあまり向いてない。
|
|
|
【写真9】距離計測の基本原理。大別すると、光の伝播時間を利用する方法と、光路のズレを利用する方法がある
|
【写真10】ジックや北陽電機から発売されている1Dスキャンセンサーを2つ使うことで、2Dのスキャンを実現する方法も
|
【写真11】TOF法を実現するセンサーをマトリクス状に複数配置し、多点で同時に時間伝播法を実現する製品も登場
|
一方、ステレオ法でも高速な製品が市販されている。たとえば、ロボット分野では、Point Grey Research社の「Bumblebee2」がよく利用されているという。また、ステレオ法のカメラ1台を投光器に変えて、三角測量ベースの原理で距離を測る「アクティブステレオ法」では、スポット光、スリット光、マルチスポット光を利用したものが開発されている。マルチスポット光での距離計測の原理は、対象となる物体に多点スポット光をレーザープロジェクタで投影。それらをCCDカメラで撮像し、各スポットに対して三角測量を行なうことで、3Dの測量を可能にするものだ【写真12】。
梅田教授が開発した画像センサーも、多点スポット光でのアクティブステレオ法の原理を応用し、高速な3D画像計測を可能にする【写真13】。スポット光を投影するプロジェクタには市販品(カナダのStockerYale製)を利用。小型ながら19×19ドットの多点スポット(レーザー波長:785nm)を投影できる。一方、CCDカメラには200Hzに対応するPoint Grey Research社の「DragonflyExpress」を採用。このセンサーはプロジェクタを回転させることで、隣り合うスポット光を重複させない工夫を凝らし、三角測量時の計測レンジを広げるようにしている。
現在のところ、開発したセンサーは800mm以上の距離で計測ができるという特性が得られたという【写真14】。計測点は約400(19×19)ほどでモデリングには足りないが、ロボットビジョン用でリアルタイムに使う場合には、このレベルでも十分に対応できるそうだ。
梅田教授は、200Hzで計測できることを実証するため、落下物の計測実験も行なっている。また外乱光に対するロバスト性についても研究している。太陽光が強烈に入る屋外環境で使うために、高性能なレーザーライン・バンドパスフィルタ(BPF)をCCDの前に取り付けて実験したそうだ。屋外では、このBPFにR72(赤外線透過可視光吸収フィルタ)を重ねると、うまくスポット光が見えるようになったそうだ【写真15】。
梅田教授は、さらに応用例として、このセンサーをヒューマノイドロボットに搭載し、実験を試みている【写真16】。この実験では障害物となる物体をセンサーによって認識し、ロボットが動作をストップさせることに成功している【動画2】。
|
|
|
【写真12】アクティブステレオ法のマルチスポット光による多点距離計測の原理。対象物体に多点スポット光をレーザープロジェクタで投影。それらをCCDカメラで撮像し、各スポットに対して三角測量を行なう
|
【写真13】梅田教授が開発した小型3D距離画像センサー。19×19ドットの多点スポットを投影して測距。CCDカメラは200Hzと高速に応答
|
【写真14】開発したセンサーの特性。距離800mm以上の距離で計測できる
|
|
|
|
【写真15】外乱光に対するロバスト性の研究。BPFをCCDの前に取り付け、さらにR72(赤外線透過可視光吸収フィルタ)で2重にすると、うまくスポット光が見える
|
【写真16】開発したセンサーをヒューマノイドロボットに応用。富士通オートメーションの「HOAP2」で実験
|
【動画2】搭載したセンサーで障害物を認識し、一時停止をするHOAP2
|
● 共生ロボットの作業をサポートする3D物体地図の研究
|
【写真17】千葉工業大学 未来ロボット技術研究センター 友納正裕副所長
|
ロボットの距離計測には、3Dの情報は大変重要だ。千葉工業大学 未来ロボット技術研究センター副所長 友納正裕氏は「移動ロボットによる三次元物体地図の構築」をテーマに講演を行なった【写真17】。研究目的は、共生ロボットが屋内で物体を運んで、何らかの作業をするために、3Dの環境地図を構築すること。そこで物体単位での環境認識を重要課題としてとらえているという。
移動ロボットによる地図構築の技術は、ロボットの自己位置推定と地図構築を同時に行なう「SLAM」(Simultaneous Localization and Mapping)と呼ばれる手法の研究が進んでいる【写真18】。もちろん現時点で3D地図の作成は可能だが、環境全体の形状が分かるだけで、物体ごとに分けられていない点が大きな課題だという。たとえば、ロボットがビルや建物の廊下を走行する際に、ドアや机などの物体についての情報は認識していない。というのも、ロボットの主目的は移動であり、走行可能な領域を知ることが重要視されてきたからだ。またロボットが自己位置を知るために、従来は特徴点、画像のエッジ、レーザースキャナのパターンなどをランドマークとしていた。しかし、物体を扱うようなロボットでは、この手法は通じない。そこで物体ごとに分割された地図作成を目指したという。
では、物体地図を作るにはどのようにすればよいのだろうか。素朴に考えれば、物体モデルを生成し、それがどこにあるかという位置情報を取得し、その位置情報に沿って物体モデルを空間に配置していけば、物体ごとに分割された地図が作れる【写真19】。その際に重要な点は「物体認識」にあるという。移動ロボットが物体の位置を知るときは、画像からその物体を見つけて位置を認識するので、当然ながら物体認識の技術が必要になる。そこで物体モデルを作る時点で、認識特徴をあらかじめ入れ込んでおく必要があるという。
友納副所長は、これらのステップについて順を追って説明した。まず物体モデルの生成については、画像列から3Dモデルを作る。入力には「単眼カメラ」の画像列を用いる。内界センサーを利用せず、ハード構成を簡単にするために単眼カメラを使ったという。出力としては、物体の密な3D形状と認識特徴の情報が加わる【写真20】。
|
|
|
【写真18】従来、ロボットのよる地図構築はSLAMによる方法が取られていた。環境全体の形状を知るにはよいが、個々の物体ごとに分けられていない点が課題だという
|
【写真19】物体地図を構築するには、物体モデルを生成し、位置情報を取得して、その位置情報に沿って物体モデルを空間に配置する
|
【写真20】物体の3Dモデルは、単眼カメラで入力した画像列から作る。単眼カメラということもポイント
|
課題となるのは、物体認識をするために、形状モデルと認識モデルを対応づけること。もう1つの課題は外見が単調な物体の対処だ。大学の研究室に置かれた机のように無地が多い物体だと、顕著な特徴点があまり取れないという問題がある。このような状況での認識やモデリングは少しやっかいだという。そこでモデル生成のアプローチとして、線分ではなくて、各点の画像エッジを特徴点として使うことにしたそうだ。面情報はエッジから復元できる。認識する際には、これら多数のエッジ点を利用すれば、ロバストな認識も可能になるという発想だ【写真21】。
カメラ運動を復元するためには、有名な「SFM法」(Structure from Motion)を使う。これは、与えられた動画像(画像列)から、そこに映っている物体や、カメラの動き自体を復元する手法。まず「KLT」(Kanade-Lucas-Tomasi)トラッカなどによって特徴点を追跡する。次に初期形状を認識するための解法として「因子分解法」(多くの特徴点をどんなに多くの枚数の画像でトラッキングしても、本質的な情報は3行もしくは3列の行列に帰結する原理がベース)を用い、カメラ姿勢と物体形状を推定する。一度でも3D形状ができれば、その一時点前の3D形状を基にして、次の物体形状を逐次推定していける【写真22】。
さらにカメラ運動を復元できれば、エッジも点単位で復元できるようになる。これは、エピポーラ幾何(同一の3D空間を撮影した視点の異なる複数の画像に存在する幾何学的な関係)をベースにする【写真23】【写真24】。エッジの復元ができたら次に面の復元を行なう。これも家具などではテクスチャや凹凸が少なく単色が多いため、通常のステレオカメラなどを利用した復元方法だと、面に穴が開いてしまうそうだ。そこで、すでに復元しておいた相対する画像エッジ点をつないで、線分として面を補間していく明快なアプローチを採用したという。この際、偽の線分や冗長線分の処理も施している【写真25】【写真26】。
|
|
|
【写真21】モデル生成のアプローチ。画像エッジ点を特徴点として使う。多数のエッジ点からロバストな認識をする
|
【写真22】カメラ運動を復元するには「SFM法」を利用する。特徴点は「KLT」トラッカなどによって追跡。初期形状の認識には「因子分解法」を用いる。できあがった3D形状をベースに逐次推定を行なっていく
|
【写真23】エピポーラ幾何をベースに(複数の視点における相対的なカメラの位置や姿勢情報は、エピポーラ幾何と呼ばれる画像特有の幾何によって記述できる)、エッジを点単位で復元していく。エピ極線と画像エッジの交点を対応点の候補とする
|
|
|
|
【写真24】エッジを点単位で復元。正面、右・左、斜め方向などの異なる視点、サイズの違いなどによる復元例
|
【写真25】凹凸が少なく単色が多い物体では通常の復元方法だと、面に穴が開いてしまう。そこで相対する画像エッジ点をつないで、線分として面を補間していくアプローチを採用
|
【写真26】面情報の復元例。復元の際には、偽の線分や冗長線分の処理も施す。さらに色も付加する
|
その一方、物体認識に使うためのモデルも作っていく。認識モデルを生成する際の要件は、任意形状の物体(基本的には剛体に限定し、曲面や曲線を含んでもよい)、画像内にどの物体があるかを特定(データベースにある複数ターゲットに対して、どれが画像内でマッチするか)、1枚の画像から物体の3D姿勢を求めるというもの。このアプローチとしては、どの物体があるか特定するために、画像特徴を用いて2Dで認識し(SIFT記述子)、そのあと2Dモデルと3Dモデルをうまく組み合わせて、3D姿勢推定まで行なう。
また、物体モデルの生成では、前述の画像列から3Dモデルを作り、同じ画像列から任意の間隔で画像を抜粋して、2Dモデルを生成する。同一の画像列から両方のモデルを作るようにしている【写真27】。処理の大まかな流れは、抜粋した画像列からエッジ抽出を行ない、特徴ベクトルを生成し、3Dモデルとエッジ点を対応づけて、データベース側に登録する。1つの物体に対しては2Dと3Dのモデル両方が登録されている。
物体認識は、入力画像からエッジを抽出し、データベースのモデル画像とエッジ点のマッチングを行なって2次元認識を行なう。2D認識ができたら、さらに3D姿勢推定をするという流れ【写真28】。こちらは入力画像に3Dモデルを投影し、対応がついているエッジ点の投影誤差が最小になるようにカメラ姿勢を推定していく。友納副所長は、この手法によって、角度が異なる机や流し台、複雑なロボットなどの形状を3Dで認識した事例を示した【写真29】。認識率は、画像144枚・物体6種類という条件で正解率が96.5%だったという。
|
|
|
【写真27】物体モデルの生成では、同一の画像列から2Dモデルと3Dモデルを作る。2Dモデルは任意の間隔(20~30度ずつ視点を変える)で画像を抜粋して生成する
|
【写真28】モデル生成と物体認識の処理のフロー。3Dモデル生成とともに、物体認識(モデル特定とカメラ姿勢)も行なう
|
【写真29】異なる角度からの机、複雑なロボットなどの形状を3D認識した事例。認識率は96.5%だったという
|
次に物体モデルができたら、いよいよ物体地図の生成を行なう段階に入る。前述のように、物体地図の生成は物体モデルを位置情報と紐づけながら並べていけばよい。部屋の中でロボットを走らせて画像を撮影し、画像と物体モデルを当てはめていく。その際、ロボットがもつ事前情報は、部屋にある物体のデータベースのみ。まだ実際にその物体がどの場所に配置されているのか分からない状態なので、ロボットは無闇に走るわけにはいかず、安全に走れる領域を見つける必要がある。
また画像の撮影を効率的にするため、撮影の狙い(物体候補へのカメラ視線の設定)を決めておく【写真30】。そのために、まず環境探索のフェイズを考え、ロボットに搭載されたレーザースキャナのマッチングによって、2D地図を生成しておく【写真31】。
このようにして2D地図ができたら、カメラ姿勢を決めて、再度ロボットを走らせながら物体を撮影。ここで物体認識と位置推定を行ない、地図の位置情報を得てから、認識した物体モデルを2D地図の上に重ねて、目的の物体地図を作っていく【動画3】【写真32】。
最後に友納副所長は「この手法のメリットは、物体のモデリングと認識を統合した点、新規物体を容易に追加できる点にある。一方、今後改善すべき点は、精度の問題(5~20cm、5~15度)や、数秒かかる物体認識の処理速度。またモデル生成の一部や物体認識の最終判定など、人の支援が必要なところもあるため、自律性も課題」とし、「まだ物体地図の研究はほとんど例がなく、始まったばかり。今後は各要素技術の性能向上など、進めていく事案も多い」と述べて講演を締めくくった。
|
|
【写真30】物体地図の生成の準備。環境探索のフェーズを考える。未知環境のため、ロボットが安全に走れる領域を見つける。またカメラの視線も設定する
|
【写真31】2D地図生成の模様。ロボットに搭載されたレーザースキャナのマッチングによって2D地図を作る
|
|
|
【動画3】物体地図の生成の模様。2D地図に沿ってロボットが動く。カメラが物体を捉えて物体を認識。認識した物体モデルを2D地図の上に重ねて物体地図を作る
|
【写真32】物体地図の生成。認識した立体的な物体モデルを2D地図の上に重ね合わせていく。赤い軌跡はロボットが動いたところ、緑の線はカメラ視線
|
● 複数ロボットの協調によって、環境地図の高精度な測定を実現!
最後に九州大学の倉爪亮教授が「移動ロボット群の協調動作による環境構造の高精度計測」をテーマに、環境情報構造化による共生ロボットや群ロボットを用いた広域3Dレーザー計測の手法について説明した。
国策として進められている第三期科学技術基本計画では「世界に先駆けた家庭や街で生活に役立つロボットの中核技術」を実現すべく、経済産業省をはじめとする多くの省庁でさまざまなロボット施策が練られてきた。とはいえ、これらは各省庁でバラバラに提案されてきたため、2005年からプロジェクトを連携統合し、研究で抜けのある部分を補足するプロジェクトも立ち上がっている。その1つが倉爪教授が推進する「ロボットタウンの実証的研究」だ【写真33】。
実際にロボットを稼動させるための周囲環境は、ある程度管理された「整備環境」が必要だ。とはいえ、日常生活をしている我々の空間は、ロボットから見ると「いつ」「どこで」「何があるのか」といったことが分からない「非整備環境」でもある。そこで、近年のIT技術によって環境内に多数の外界センサーを埋め込み、これらをネットワークで接続することで、ロボットの環境認識能力を補完しようという「環境情報構造化」が考えられている【写真34】。
倉爪教授が研究しているロボットタウンプロジェクトは、福岡市の埋め立て人工島・アイランドシティの開発にあわせて、分散センサー群を環境に埋め込んだロボット向けインフラを整備し、新しい街づくりのかたちを提案するというものだ【写真35】。具体的には、環境地図情報、移動体情報、分散センサーシステムを統合するような巨大データベースを作り、人間からもロボットからも働きやすい環境を構築しようと試みている【写真36】。これにより、環境に埋め込まれたさまざまなセンサーからの情報をロボットが吸い上げて、システム側で整合性をとり、次にロボットが行なうべきことを指令する、というようなことが可能になる。実際にロボットタウンには実験住宅があり、家の中に各種センサーが設置されている。床には約1万枚のICタグが敷き詰められ、その上にいくと自分がどこにいるのか、位置情報が分かる仕組みだ。
|
|
【写真33】2006年度から始まった第3期科学技術基本計画。「環境構造化」と「ロボット用基盤ソフトウェア」の推進において、2008年までの連携施策群の1つとして、「ロボットタウンの実証的研究」が選ばれた
|
【写真34】従来のようにロボット自体に多数のセンサーを搭載するという方向ではなく、ロボットが活動する環境内にセンサーを埋め込んで、ロボットのセンシングや能力を高めようというコンセプトが「環境情報構造化」の考え
|
|
|
【写真35】ロボットタウンプロジェクト構想。福岡市のアイランドシティにおいて、分散センサー群を環境に埋め込んだロボット向けのインフラを整備中だ
|
【写真36】環境地図情報、RFIDタグによる移動体情報、分散センサーシステムという、環境情報構造化の3大要素を統合して管理する試み
|
倉爪教授は、このロボットタウンにおいて研究されている環境地図について言及した。ロボットが自由に動くためには正確な環境地図が重要だ。そして環境構造化の中であらかじめ用意されている環境地図を、ロボットが活動するときに取り出せるシステムが必要となる。ここではロボットの目線でみて、同じ位置から同じ精度・粒度になるような地図が正確な環境地図だという。
倉爪教授は正確な環境地図の例として、九州大学の伊都キャンパスで行なわれた計測実験の例について説明した。これは、レーザー計測を用いて、まるごと3D構造を取って街並み地図として獲得し、ロボット側に提供するというもの【写真37】。従来このような地図計測をする際には、多地点でのレーザー計測が必要だった。とはいえレーザー自体は装置が重く、このような多地点計測では労力や手間がかかりすぎる。さらに地図を作る際には、多地点データの位置合わせをする人手が必要になる。
そこで倉爪教授は、これらをすべて自動化して、「ロボットによるロボットのための環境地図の獲得」を目ざす取り組みを行なっている。これは、移動ロボットに搭載したレーザーレンジファインダで街並みを計測し、ロボットの自己位置を高精度に同定しながら、街並み地図を作成していくという試みだ【写真38】。ロボットの位置を正確に測ることができれば、人的なデータの位置合わせ作業も不要になり、すぐに3Dモデルが作れるようになるという。
|
|
【写真37】ロボットが自由に動くために必要な環境地図。九州大学の伊都キャンパスで行われた、レーザー計測による環境地図の計測結果
|
【写真38】環境地図をロボットだけで自動化して構築する取り組み。移動ロボットのレーザーレンジファインダで街並みを計測し、ロボットの自己位置を高精度に同定しながら、街並み地図を作成する
|
そして、これを実現するために開発したのが、群ロボットを用いた広域3Dレーザー」計測手法「CPS-SLAM」と呼ばれるもの。この計測手法を実現するには2つの課題があった。まず1つ目は、どのようにロボットが測定位置を知るかということ。従来ロボットの位置同定法にはさまざまな方法が開発されている。代表的なものは、車輪の回転角度を積分し、出発点からの移動量を算出する「オドメトリ法」。これは簡単だが、タイヤの滑りなどがあり精度は低い。
また前セッションでも説明された「SLAM」は、特徴的な形状や十分に密な計測が必要になり、外界センサーの情報を繰り返し使うことになる。そのため、ひとつ間違えると大きな誤差が広がるリスクがあり、実環境でロバストに使うことが難しい。またGPSによる方法は屋外では大変パワフルなツールだが、適用環境が限られ、リアルタイム性という面で課題が残る。
そこで倉爪教授が提案しているのが、複数台の群ロボットによる「協調ポジショニング法」(CPS)だ。この考え方はとてもシンプルで、たとえば3台のロボットが協調しあい、お互いに、その位置を教えあって正確な位置を同定していく手法だ。
まず1台のロボットが動く。このロボットは位置がわからないが、すでに位置が同定されている静止ロボットで、移動したロボットの位置(移動角度)を計測。次にもう1台の静止ロボットも動いたロボットの位置を計測する。移動ロボットの位置を計算し終った段階で、今度はこれまで静止していたロボットが移動を開始する【写真39】。3台のロボットで、このような動作を繰り返すことによって、長距離移動でも桁違いに高い位置同定精度を実現できるという。実際にロボットを動かすと、300mほどの距離移動でも1mぐらいの誤差で戻ってこられるそうだ。倉爪教授はこの手法を使って3Dモデルの構築を試みたという。
では具体的な測量ロボットのシステムを見てみよう。ロボットは親機1台と子機2台で構成されている。親ロボットには、2km先でも数mmの高精度測定が可能なレーザーレンジファインダ「LMS200」(トプコン社製)、回転ステージと組み合わせて360度の環境をスキャンするレーザーレンジファインダ「GTS-825A」(ジック社製)が搭載されている【写真40】。前者は子機ロボット計測用に使用し、後者は周囲環境用のレーザー計測として用いられるものだ。一方、子機ロボットには前述のCPSを行なうために「コーナーキューブ」が付いている。このキューブによって親機から子機までの距離が正確に計測できるという【写真41】。
CPSでは自分が動いた位置が高精度でわかるため、あとは簡単な座標変換をすれば3Dモデルが得られ、面倒な後処理の必要がなくなる。倉爪教授は、実際にCPS-SLAMによって得られた屋内計測実験の結果(九州大学)を披露した【写真42】【写真43】【動画4】【写真44】。例では約100mの移動で22cmの精度で元に戻ってきたという。このCPS法に加え、ICPアルゴリズム(3D形状モデル間の位置合わせを行なう従来手法)も合わせて最適化すると、さらに精度は約8mmほどに高まるという。同様に屋外の砂利道でも計測実験をした。
また、本システムをどこまで広い範囲で適用できるか、冒頭のロボットタウン周りでも実験をしたそうだ。ロボットが距離約540mを移動しながら、45回の計測によってデータを収集して作成した環境地図は、周りの木や家なども正確に反映できている【動画5】。現在のところ、このシステムではロボットの走行経路は人間が教示している。そこでロボットが自律的に全自動で計測できるよう拡張を試みている。将来的にはロボットが勝手に移動して、どんどん街の地図を作成してくれるようになっていきそうだ。
|
|
|
【写真39】複数台の群ロボットによる「協調ポジショニング法」(CPS)。1台のロボットで位置を知るのではなく、3台のロボットが協調しあい、お互いに、その位置を教えあって正確な位置を同定していく手法
|
【写真40】親ロボットの構造。センサーは、子ロボット計測用の高精度レーザーレンジファインダと、周囲環境をスキャンするレーザーレンジファインダが搭載されている
|
【写真41】子ロボットの構造。コーナーキューブ(ミラー)を搭載し、親機から子機までの距離が正確に計測できる
|
|
|
|
【写真42】CPS-SLAMによる計測測実験のフロー。親ロボットと子ロボットによる協調制御によって、正確な位置同定が可能になった
|
【写真43】九州大学の構内で行なわれた計測測実験。親ロボットは100mほど移動しているが、位置同定誤差は22cmと高精度。移動区間で合計23回の環境測定を実施した
|
【動画4】親ロボットと子ロボットの協調動作による環境測定の模様。この動作を繰り返しながら位置を同定し、環境測定を行なう
|
|
|
【写真44】屋内計測実験の結果(九州大学)。約100mの移動で22cmの精度で元に戻ってきたという
|
【動画5】CPS-SLAMによって得られた屋外計測実験の結果(ロボットタウン)。屋外でも正確に環境地図が作れることがわかった。さらに全自動計測を目指すという
|
■URL
第14回画像センシングシンポジウム
http://www.ssii.jp/
( 井上猛雄 )
2008/06/26 20:03
- ページの先頭へ-
|