「第12回 組込みシステム開発技術展(ESEC 2009)」レポート

~ジェスチャー、画像、音声などを応用したユニークなロボットやシステムに注目!


【写真1】組込みシステム開発に必要なハードウェア、ソフトウェア、コンポーネントから開発環境までが一堂に集結した第12回 組込みシステム開発技術展(ESEC 2009)

 5月13日(水)から5月15日(金)の3日間、東京・江東区の東京ビッグサイトで、「第12回 組込みシステム開発技術展(ESEC 2009)」が開催された【写真1】。このイベントは、組込みシステム開発に必要なハードウェア、ソフトウェア、コンポーネントから開発環境までが一堂に会した総合展示会だ。マイクロプロセッサー・DSP・その他ハードウェア、リアルタイムOS・ミドルウェア・ドライバーなどのソフトウェア部品・その他ソフトウェアIP、ICE・エミュレーター・デバッガーといった開発支援ツールも数多く展示されていた。ここではロボット開発に必要なツールやモーションコントロールなど、制御系で目を引いた製品を中心にピックアップしていこう。

組込みシステム開発を学べるロボット学習キット

【動画1】日新システムズのブース。ゼットエムピーのe-nuvo WHEEL用無線LANモジュール基板オプションには、LANTRONIX製の「WiPort」が搭載されている。WiPortには、Webサーバーとしての機能もある

 まず始めに、組込みシステム開発の学習教材として利用できるものを紹介しよう。日新システムズのブースでは、ゼットエムピーのe-nuvo WHEEL用無線LANモジュール基板オプションが展示されていた【動画1】。e-nuvo WHEELでロギングしたデータをパソコンで取得したり、速度や旋回角度などの制御指令値を送る場合、従来のようにRS-232Cでパソコンに接続すると、ケーブルの引き回しなどで問題があり不便だ。そこで、この無線LANモジュール基板を利用すれば、簡単にワイヤレス化が可能になる。モジュール基板に搭載されたLANTRONIX製の「WiPort」は、Webサーバーとしての機能もサポートしている。e-nuvo WHEELにモジュール基板を付ければ、固有IPアドレスを持った移動体として利用でき、アイデア次第でさまざまな応用が可能だ。また今回のイベントでは展示されていなかったが、親指大の超小型サーバーとして有名なLANTRONIXの「XPort」なども同社では取り扱っている。

 サイバネットシステムのブースでは、LEGO Mindstorms NXTを対象としたモデルベースデザインの組込み開発事例が紹介されていた。モデルベースデザインは「MATLAB/Simulink」を中心に、最近主流になっている設計手法である。モデル設計をしたあと「Simulink 3D Animation」によって、3Dシミュレーションでロボットの挙動を検証し、さらに「Realtime Workshop Embedded Coder」などで、C言語のコード生成を前提としたコントローラモデリングや、コード生成による実機制御も可能だ。

 同ブースでは、運動方程式に基づいて制御を行なう「移動倒立振子ロボット」や、状態遷移に基づく制御を行なう「スキャナーマシン」の実演が行なわれていた【動画2】。特にMATLAB/Simulinkで設計したスキャナーマシンは、かなり本格的で面白かった。紙送り機構と、光センサーを搭載したピンホール光学系をサーボモータで移動させ、光センサーから得られた画像データのボケ補正処理を施すという仕組みだ【写真2】【写真3】。

【動画2】手前左にあるのが、LEGO Mindstorms NXTでつくったスキャナーマシン。奥で走っている走行体は移動倒立振子ではない通常のロボットだ【写真2】グレイスケールでパソコン上に表示されたスキャニング画像の一例。思っていた以上に鮮明な画像だ【写真3】スキャナーマシンの外観。LEGO Mindstorms NXTだけで、ここまで完成度が高いのはすごい。紙送り機構と、光センサーを搭載したピンホール光学系をサーボモータで移動させて、スキャニングする

 一方、移動倒立振子ロボットのほうは「ETロボコン2009」の新走行体として採用が決まったもの。従来の走行体に加え、倒立振子という制御がかなり難しいモデルでも、MATLAB/Simulinkを利用すれば最適設計が可能になるだろう。もちろんモデルからつくられたCプログラムは、LEGO Mindstorms NXT用の開発・実行環境「nxtOSEK」上で動作できる。

 このほかにも、MATLAB/Simulinkによるモデルベースデザイン手法として、ステッピングモータの角度制御モデルを作成し、PCやマイコンへ実装した例などもあった。

 塩尻市(長野県)は、同市が推進する「組込みシステム産業振興プロジェクト」について紹介していた。これは経済産業省の採択を受けたプロジェクトで、組込みシステムに特化した地域産業の拠点として塩尻インキュベーションプラザを中心に、信州大学や長野工業高等専門学校などと共同で行なわれているもの。技術者の人材育成や、産学官連携、ビジネス支援を積極的にサポートしている。今回の展示では、長野高工専で実施されている組込み初級・中級講座のオリジナル教材や、eラーニングのコンテンツなどを紹介【動画3】【写真4】。

【動画3】長野工高専で実施されている組込み初級講座で利用しているマイコン制御によるエレベータ教材の実例【写真4】長野工高専で実施されている組込み中級講座。SH2マイコンを使ってタッチパネル付きミュージックプレーヤーを製作

 eラーニングは、アルゴリズム的な思考法から、C言語、CGI演習、デバイスドライバー実習、ネットワークプログラミング、IP電話演習、マイコン学習、FPGA演習まで、組込みソフトとハード両面にわたって、一通り学習できる本格的な内容で、人気も高いという。費用は無料で、すでに1期生の定員は締め切られているものの、秋ごろに2期生の募集予定もあるそうなので、興味のあるかたは問い合わせてみるとよいだろう。

【写真5】ソフトシリウスによるユニークな植物水耕栽培管理システムのデモ。水温と照明を管理して植物の成長を促す。これは実際に売り出す製品ではなく、あくまでソリューションとしての例だという

 エンベデッドソリューションボード「EP5701」を組込んで、ユニークな植物水耕栽培管理システム【写真5】を展示していたのはソフトシリウスだ。本システムは、栽培水槽を温度センサーで管理しながら、LED照明のオン/オフを制御することで、最適な条件で植物を栽培するものだ。制御ボードには、内藤電誠町田製作所のCPUボードを利用。そこに「T-Kernel/T-Kernel SE」を実装し、WWWサーバーとして利用するもので、Webブラウザから水槽の状態の確認や設定が可能だ。TCP-IPプロトコルスタックや、専用アプリケーションなどは、ユーザー環境に合わせて最適化して提供するという。

製造・生産ラインの自動化と効率化を推進する制御システム

 展示会場では、産業用ロボットや、駆動系の要となるサーボモータ、制御系のドライバーコントローラーなども数多く見られた。

【動画4】三菱電機エンジニアリングの卓上型ロボット「LR100/LR200シリーズ」を組み合わせて製作した「タッチモニター耐久検査装置」の実例

 三菱電機エンジニアリングは、同社の卓上型ロボット「LR100/LR200シリーズ」を利用したアプリケーションとして、「タッチモニター耐久検査装置」のデモを行なっていた【動画4】。同社の卓上型ロボットは、2軸から4軸までのモデルがあり、さまざまな生産現場に対応するシステム展開が可能だ。たとえば、ディスペンサー(塗布)、ねじ締結、はんだ付けなどのロボットや、キーボタン押圧力検査、非接触寸法計測、基板特性検査システムへの実績もある。またプログラミングやティーチング、動作設定などを統一インターフェイスで行なえるオールインワンシステム「ECP」(Embedded Panel Controller)も用意。

 新栄電子計測器は、カーナビ用自動検証評価システム【動画5】や、携帯電話カメラ機能評価システム【動画6】など、産業用ロボットを利用した、さまざまな自動検査システムを展示していた。これまで人の手と目で検査していた工程を自動化できるシステムで、製造・生産ラインの検査要員の削減が可能だ。展示の目玉は、静電型タッチパネル機器の自動検査が行なえる組込み機器検査用の操作ロボット「AF-W200」【動画7】。これは機構部に2本のフィンガーを装備し、2種類のキーを同時操作しながら検査できるもの。フィンガーでタッチパネルとキーボタンを押し分け、カメラによってパネル画面の状態を取り込んで、その画面を検査してOK/NG判定を行なうという流れだ。ステージの駆動にはステッピングモータが用いられ、動作範囲はX200×Y120×Z40mm。自動計測判定ソフトやパターンマッチング・文字認識などをサポートする画像処理ソフトがオプションで用意されている。

【動画5】新栄電子計測器のブースその1。カーオーディオからカーナビまでの自動検査が可能なシステムのデモ【動画6】新栄電子計測器のブースその2。携帯電話カメラ機能評価システムのデモ。携帯電話カメラで撮影した画像のカラーパターンや階調パターンを調べることが可能【動画7】新栄電子計測器のブースその3。組込み機器検査用の操作ロボット「AF-W200」のデモ。静電型タッチパネル機器の自動検査が行なえる。Wフィンガーで押圧しながら、指示した操作どおりに動くかどうか、その結果を画像処理によって検証

 モータ制御系の展示では、三菱電機や安川電機関連メーカーなど多数の出展ブースがみられた。三菱電機はPLCを中心に、生産現場のラインを自動化する総合的なFA技術を紹介。同社の「iQ Platform」に対応するC言語コントローラーとして、新製品の「Q12DCCPU-V」と「Qモーションコントローラ」を組み合わせたモータ制御のデモが行なわれた【写真6】。PLCを利用する際には、従来からのラダー言語を用いるイメージが強いが、このコントローラーを用いれば、C言語でシーケンスを組めるため、技術者の裾野も広がるという。

 また、従来型PLCを追加したマルチCPU構成により、システムタクトタイムを短縮する方法も説明されていた。これはC言語コントローラーでデータ処理などの演算を施しながら、従来型シーケンサーCPUによってI/Oシーケンス制御を行ない、さらにモーションCPUでサーボ制御を行なうことで、処理系全体の最適化を図る方法。デモでは、3台のサーボモータとリニアサーボを組み合わせ、モータの歯車同士が接触しないように回転させる高精度かつ高速な多軸制御を実演していた【動画8】。

【写真6】三菱電機のブース。新製品の「Q12DCCPU-V」とQモーションコントローラを組み合わせたモータ制御のデモ。Q12DCCPU-Vは、シーケンスプログラムを組む際に、通常のラダー言語でなく、C言語を利用できる【動画8】高速多軸同期リニアサーボのデモ。3つのサーボモータ軸に取り付けられた歯車を6,000rpmで回転させ、リニアモータでサーボモータを接近させる。歯車が近づいても、それぞれの歯が接触しないように、うまく同期が取れていることが分かる

 関連技術になるが、CLPA協会(CC-LINK PARTNER ASSOCIATION)のブースもあった。CLPAは日本発のCC-LinkをグローバルなFAオープンネットワークにすべく、推進活動を行なっている団体だ。すでに対応パートナーは1,200社以上もあり、海外での展開も活発だという。同ブースでは、三菱電機のほか、多数のCC-Linkパートナー製品が紹介されていた【写真7】。

 ハイピーテックは、自軸または他軸のポジションからリアルタイムに位置補正が行なえる「Active Mapping」機能を備えたサーボモータコントローラーなどを出展していた。これにより、ボールねじのリードピッチ誤差を自軸で補正したり、XYテーブルの片軸移動時に発生したピッチ誤差を他軸で補正したり、回転に対する追従動作の補正、機械式カムのような複雑な動作にも対応できる【写真8】。

【写真7】CLPA協会(CC-LINK PARTNER ASSOCIATION)のブース展示。不二越、安川電機、三菱電機などの産業用ロボットを制御する多数のCC-Linkパートナー製品が紹介されていた【写真8】ハイピーテックのサーボモータコントローラ。自軸または他軸のポジションからリアルタイムに位置補正が行なえる「Active Mapping」機能を備える。機械的なカムの動きをサーボモータで再現

 アルティマは、モーションコントロールをカスタマイズする際に便利なデバイスとして、FPGA(Field Programmable Gate Array)を利用した事例を示していた。たとえば、同社で扱っているALTERAの低コストFPGA「Cycloneシリーズ」を利用すれば、高速かつ低消費電力で、柔軟なプラットフォームを構築できる。従来のようにASICやDSPでモーションコントロール回路を設計するのでなく、FPGAベースでモータドライブ/コントローラを統合する方向だ。Cyclone IIまたはCyclone IIIによって、プロセッサー、リアルタイムイーサネットで要求されるプロトコル制御、各種のインターフェイスや信号処理をまとめてワンチップで実装し、モーション制御の軸数も柔軟に設計できる。

 デモでは、Arrows社の開発キット「MotionFireキット」(ベース基板とドライバーで構成)【写真9】を利用し、3軸構成でDCサーボモータの速度制御を行なっていた【動画9】。また速度・位置制御の状態を表示する無線LANタッチパネルソリューションも併せて紹介。こちらにもCyclone IIIが実装されているという。

【写真9】Arrows社の開発キット「MotionFireキット」は、ベース基板(写真)とドライバーで構成。ベース基板にALTERAのFPGA「Cyclone II」が搭載され、高速・低消費電力で、柔軟なモーションコントロールを実現【動画9】MotionFireキットで3軸構成のモーションコントロールをしているところ。画面に制御状態を表示する無線LANタッチパネルソリューションにもCycloneが搭載されている

画像や音声を応用したユニークな組込みシステムも多数出展

 日本システムウェアは、ジェスチャー認識技術をロボットに応用した面白いデモを行なっていた。これは身振り手振りによって、機械を操作できる新しいコンセプトだという。WebカメラとLEDによって構成される高精度センサーカメラを採用し、赤外線と可視光線を組み合わせることで、バックグラウンドノイズに強く、明るい環境で手の動きを認識できるようになったという。たとえば指の数や手の形まで認識するため、「じゃんけんゲーム」なども簡単に行なえる【写真10】。デモでは自分の指の動きに追従するロボットを実演しており、これを産業用ロボットのティーチングに適用すれば便利かもしれない【動画10】。このほか娯楽分野、医療分野、セキュリティ分野などでの応用も利きそうだ。

【写真10】日本システムウェアのジェスチャー認識技術によって、指の数や手の形まで認識して、じゃんけんを行なっているところ【動画10】ジェスチャー認識技術の応用例。自分の指の動きに追従して動くアームロボット。かなり応答性がよいことが分かる。産業用ロボットでティーチングを行なう際に利用できるかもしれない

 東芝情報システムは、参考出展のロボット用ステレオ楕円画像認識コンポーネントを紹介。このコンポーネントをロボットアームに接続して、皿やコップなどの食器を把持するデモを行なっていた【写真11】。2台のカメラ(ステレオカメラ)で撮影した対象物の円弧を楕円として認識し、それに対応する物体を登録データから選出することで、位置や姿勢を割り出す仕組み。パソコンの画面から位置・姿勢を実写画面とワイヤーフレームで重ねて表示することも可能だ【写真12】。

 このコンポーネントは、産業技術総合研究所で開発が進められているロボット用モジュール開発フレームワーク「OpenRTM」に準拠したRTC(Robot Technology Component)であるため、他のRTCと接続することも可能だ。具体的なデモでは、画像認識によって出力した食器の座標に向かって、Neuronics社のロボットアーム「KATANA」を動かしながら、うまく食器を把持していた【動画11】。

【写真11】東芝情報システムのデモ。ステレオ楕円画像認識コンポーネントによって、ロボットアーム(Neuronics社の「KATANA」)に画像認識機能を追加【写真12】奥に設置されたステレオカメラで撮影した対象物の円弧を楕円として認識。それに対応する物体を登録データから選出し、位置や姿勢を割り出す。パソコンの画面には位置・姿勢の実写とワイヤーフレームが表示される【動画11】ロボットアーム「KATANA」を動かしながら、うまく食器を把持

 レスキューロボットのコントローラーで有名なサンリツオートメイションは、これまでの遠隔操作IPシステムによるロボット制御に加え、高精度同期I/Oネットワークで物体の位置を計測するデモも行なっていた【動画12】。まず遠隔操作IPシステム【写真13】によってフィールド内にあるクルマを移動させていく。ラジコンカーから一定時間ごとに音が発生するようにしておき、フィールドの両隅にあるマイクロフォンで、その音を収集する。この際に、高精度同期I/O技術によって、複数のマイクで受信した信号を完全に同じタイミングでサンプリングすることで、三角測量の原理で発信音のある位置を算出できる【写真14】。正確な分散同期計測が行なえるため、音の振動が伝わるまでの時間差を利用すれば、音の発信源の位置が分かるわけだ。超音波でなく、人間が聞こえる可聴音で測定を行なっている点がユニークだった。

【動画12】遠隔操作IPシステムでラジコンカーを移動させ、高精度同期I/Oネットワークで物体の位置を計測しているところ。間断的に「カチャ」という音がクルマから出ていることが分かる【写真13】同社の遠隔操作IPシステムは、独自の通信/画像遅延補正技術によって、距離を感じさせない遠隔操作と制御を双方向IP通信で実現。サーボ出力、デジタル入出力、音声入出力も備えたオールインワンタイプで、遠隔監視などの用途にも利用できる【写真14】フィールドの奥に集音マイクが2本ほど設置されている。高精度同期I/O技術により、同一タイミングでサンプリングを行なうことで、クルマから発した音の伝播時間を正確に測定し、発信源の位置を調べる

 レイトロンは、同社の小型画像認識モジュールや、雑音ロバスト音声認識モジュールを組込んだ製品を展示。画像認識モジュールは名刺サイズの大きさで画像認識処理を実現し、カード・標識・マークなどの15パターンを認識できる。独自アルゴリズムによって、フレームメモリーも不要だ。このモジュールを搭載し、矢印を認識すると方向転換する車輌のデモが行なわれていた【動画13】。

 一方、音声認識モジュールは、最大1,000フレーズを登録して認識できる孤立単語認識方式(フレーズ認識方式)を採用。周囲に雑音が多い環境でも高精度で音声区間を認識し、S/N比20dBで認識率98%以上という高い雑音ロバスト性を実現している【写真15】。この応用例として、ユニークな音声認識コンセント【動画14】やコミュニケーションロボット「Chapit」(チャピット)【写真16】を紹介していた。前者のコンセントは人の声でコマンドを出すと、それに応じて電源がオン/オフする便利な仕組み。一方、後者のChapitは産学共同で開発したもので、音声認識機能に加え、音声データベースを基に単語を組み合わせて言葉を作り出す音声合成機能や、音声コマンドによる家電制御機能も備える。さらにオプションとして、携帯電話による赤外線データ通信、無線LAN、RF-IDリーダ/ライタ、カメラ機能などを組込むことも可能だ。

【動画13】名刺サイズの小型画像認識モジュールとカメラを車輌に搭載し、前方にある矢印を認識すると、その矢印の方向に曲がる仕組み【写真15】新製品の音声認識モジュール「BSRM01-01E」。登録済のフレーズの中から1つのフレーズを選び音声入力すると、音声認識LSIがデータベース中のフレーズ群(学習データ)と比較して、最も近いフレーズに割り当てられたindexと値を算出
【動画14】音声認識機能を応用した音声認識コンセント。コンセントの中に音声認識技術を入れてしまう発想は大胆だ。将来の家電機器の姿の1つかもしれない【写真16】産学共同で開発されたコミュニュケーションロボット「Chapit」。こちらも音声認識機能を応用したもので、音声コマンドによる家電制御機能などを備えている

 もう1つ音声認識で面白かったのは、HOYAのPENTAX事業開発センターが展示していた感情認識ソフトウェアだ【写真17】。これは人の感情を色とデータ量で可視化できるもので、脳科学での検証も進み、鬱検知など行動予測も8割がた分かるようになったという。すでに大手自動車メーカーなど数十社で導入済みで、SGIの空間ロボット、コールセンター、任天堂DSのゲーム「ココロスキャン」などにも応用されるという。このような機能をヒューマノイドロボットに搭載すれば、人の心を読んで、相手の気分によって行動パターンを変えてくれる「おもてなしロボット」などが実現できるだろう。

 オムロンは、映像の中から人の顔を見つけて、その人の笑顔を高精度に自動測定できる「スマイルスキャン」のデモを実施していた【写真18】。小型アナログカメラとセンサーユニットで構成し、独自の顔センシング技術「OKAO Vision」を活用することで、表情によって変化する目や口の形状、顔のしわなどの情報を測定。笑顔の度合いを0から100%の数値として出力することができる。本技術を応用すれば、前述の感情認識技術と同様に、相手の笑顔を理解して対応できるロボットも簡単につくれるかもしれない。

 さらに、このスマイルスキャンを拡張すると、人の性別や年齢・年代分析も可能な「セグメントセンサ」になる。こちらもデモが行なわれていたが、筆者の年齢をわずか1歳の誤差範囲で当てることができ、その正確さにかなり驚いた。セグメントセンサは、商業施設や設置すれば、来場者の属性情報からマーケティングにも利用できる。また駅中では通行量の分析にも一役買う。ユビキタスコンピューティングとロボットを結びつける新しい社会の実現も夢ではなくなるだろう。

【写真17】HOYAのPENTAX事業開発センターが開発した感情認識ソフトウェア。人の感情を色とデータ量で可視化できるもので、すでに実用化の段階に入っている【写真18】オムロンの「スマイルスキャン」は、映像の中から人の顔を見つけて、その人の笑顔を高精度に自動測定できる技術。独自の顔センシング技術で、表情によって変化する目や口の形状、顔のしわなどの情報を測定して笑顔度を数値化する

人体通信、超微弱長距離通信などのユニークな技術に注目!

 以下、直接ロボットとは関係はないが、応用技術として利用できそうなものを紹介しよう。アドソル日進は、ユニークな接触式人体通信タグ「タッチタグ」のデモを実施していた【写真19】。人体通信は、人の表面で発生する微弱な電界を利用して通信できる技術。タグを携帯したユーザーが、床マット、タッチパネル付きの壁、ドアノブなど、リーダーパネルに相当する部分に触れると、通信回路が形成され、スイッチがオンになる。人体を媒体として通信する方式であるため、わざわざカードを取り出してリーダーにかざす必要もなく、手ぶらで認証できて便利だ。今回のデモでは、ヘルメットにタグが埋め込まれ【写真20】、それを被った人がエントランスのタッチパネルに触れるだけで、ドアロックが自動開放される仕組みになっていた。このシステムはイトーキと共同開発したもので、2009年秋ごろに発売される予定だという。

 また同社は、加速度センサーとZigBee通信を組み合わせた小型タグ・ソリューション【写真21】や、高速可視光通信などの応用例も紹介していた。小型タグ・ソリューションは、加速度センサーから管理物の動作(転倒、持ち出しなど)を検出し、さらにZigBeeによって所在エリアも特定できるメリットがある。人がタグを携帯していれば、タグから発する電波を受信した中継器を特定することで、その人が現在いるエリアが分かるわけだ。

【写真19】アドソル日進のユニークな接触式人体通信タグ。タグを携帯したユーザーが、リーダーパネルに相当する部分に触れると、通信回路が形成され、スイッチがオンになる仕組み【写真20】専用のタグは、ヘルメットに埋め込まれていた。人体を媒体として通信するため、ヘルメットをかぶっていれば、リーダー部に体の一部をタッチするだけで認識される【写真21】加速度センサーとZigBee通信を組み合わせた小型タグ・ソリューション。加速度センサーで管理物の転倒や持ち出しなどを検出できるほか、ZigBeeによって所在エリアも特定できる
【写真22】数理設計研究所の超微弱長距離通信技術に注目が集まっていた。50nWという超微小電力ながら、2kmまでの超高性能通信を実現できる

 数理設計研究所が開発した「スペクトラム拡散通信の高速同期」(MAD-SS)による超微弱長距離通信技術も大変注目を浴びていた【写真22】。小さな出展ブースながら、多数の見学者が詰めかけていた。いわゆる特別小電力通信(10mW)を利用した通信の実用距離は最大でも1kmぐらいだ。しかし、このMAD-SS技術では、わずか50nWという超微小電力ながら、2kmまでの超高性能通信を実現できるという。通信速度は10bpsと低速だが、1.4秒ほどで同期の確立が行なえる特徴もあり、防災環境の長距離通信技術として大いに期待がもてそうだ。災害救助ロボットなどに搭載すれば、長期的な災害監視にも利用できるだろう。



(井上猛雄)

2009/6/10 16:12