通りすがりのロボットウォッチャー

考えれば動くロボット

Reported by 米田 裕

 考えただけで物が動くと聞けば、そりゃ超能力か? テレキネシスか? と思ってしまうが、れっきとしたロボットの操縦手段であるという。

 株式会社ホンダ・リサーチ・インスティチュート・ジャパンと株式会社国際電機通信基礎技術研究所(ATR)、株式会社島津製作所の共同研究開発によって、脳活動を読み取ってロボット「ASIMO」を動かすことができる技術ができたとのことだ。

 こうした技術をBMI(ブレイン・マシーン・インターフェイス)という。

 考えれば動くというと、超能力系とか精神感応とか、そんなイメージを持ってしまうが、実際に考えたことでASIMOがその通りに動くわけではなく、「あること」を考えたときに、その脳の活動によって生まれる脳波や、脳内の血流の動きを検知して、「あること」を考えたときのパターンが抽出されれば、それをトリガーとして、ロボット動作のリモコンボタンが押されるという感じのようだ。

 その「あること」というのは、「右手」「左手」「足」「舌」をそれぞれ動かしているときのイメージだという。

 右手をバタバタとさせている、回している、上下させるなど、右手の運動イメージを、身体を動かさずにずーっと考えてもらい、その時の脳活動を検出できるよう、コンピューターがパターンを解析して覚えるということらしい。

 頭のなかで「ハイASIMO歩いて、冷蔵庫のドア開けて、プリンを出して持ってきて」とか、旗を持たせて「赤あげて、白あげて、白下げないで赤下げる。赤あげないで白下げる」なんて考えるとASIMOがそのまま動くということではないらしい。

 「右手」「左手」「足」「舌」といった部位の、それぞれの運動を思い浮かべて、その検知結果が事前に入力してあるパターンに合致すればロボットがある一定の動作をするという仕組みだ。

 なんとなく、昔に見た『モンティパイソン』のコントを思い出してしまう。

 そのコントでは、リモコンでチャンネルを変えることのできるテレビが登場するのだが、リモコンのスイッチを押すと、テレビの脇に立っているインド人らしい人間に電流が伝わり、ビリビリと感電しながらテレビのチャンネルを回すというものだった。

 モンティパイソン放映時は、テレビのチャンネル変更はダイヤル式で、それを回転させてチャンネルを変えていたのだ。

 リモコン部分は単なるトリガーにすぎず、間に入ったインド人をパターン処理をするコンピューターと、実際に動作をするロボットと捉えれば、このようなことになる。

 現在のところ、脳波と血流を検知する機械は大きい。頭部にはたくさんの電極のついたヘッドギアをかぶり、その上にカバーがついている。きのこのような頭のシルエットだ。

 そして、イスの前方に飛び出した棒についた機器と、後方には巨大な箱形の検知器と計算処理部分がある。重量は300kg程度あるという。

 これはでかくて重い。とても持ち運びはできないが、これらの装置が、将来的には小型化していきたいということだ。

 装置の小型化も重要だが、現在のパターン検出だけでなく、本当に思考を読み取れるようになっていくのか?

 「考えればその通りに動くロボット」という存在への第一歩という位置づけとのことだが、将来へ向けての期待も大きい。

思考操縦ロボットがもし戦えば?

 思考しただけでロボットが動くとなると、すぐに考えてしまうのが、この仕組みを使って巨大ロボットの操縦に使えないかということだ。

 日本のテレビアニメと共に育ってきた年代では、アニメのなかで見てきた技術が現実のものとなるかという期待があるだろう。

 記憶している限りでは、思考というか、精神感応という形で巨大ロボットを操縦していたのは『勇者ライディーン』だと思うが、あれは「フェードイン!」とライディーン内部へと人間が吸い込まれ、お腹の中(?)の不思議な空間で、思考をこらして操縦をしていたはずだ。

 もし、近い未来に、こうした思考検出型巨大ロボットができて、兵器としての争いとなると、その戦いは物理的なものではなく、精神的にものとなるかもしれない。

 巨大ロボットに乗り込んで操縦するには、外部の様子がわからないと無理なので、外界の様子がわかったり、外部からのフィードバックは必須だと思う。

 そして、操縦のために「右手」「左手」といった部位の運動を思い浮かべるとき、それを妨害するような外部からの攪乱が、敵を攻撃するのに有効な手段となりそうだ。

 「速い!」
 「後ろか?」
 「甘いな坊や」
 「上か!」
 「なに? 奴にはわかるというのか?」

 などというカッコいい戦いにはならないはずだ。

 相手の思考を乱すには、考えのまとまらないような意外な発言やら、論理を無視した言葉の展開をするようになるだろう。

 2台の巨大ロボットが対峙している。お互いに見つめ合ったまま動かない。しかし、それぞれのコクピットでは、パイロットたちの壮絶な思考妨害攻撃が行われていた。

 「やーい、お前の母ちゃん昆虫!」
 「あ、ハダカのねーちゃんが魚をくわえて走っているぞ」
 「二日酔いの朝、タライいっぱいのぬるいウイスキーの匂いがぷーんと」
 「ぬるぬるのにゅるにゅるのにょろにょろのへらへらの……」
 「あ、マンチカンの仔猫が空飛んでる!」

 などと、相手に身体の部位の運動を思考させないように、意表をつく言葉がつぎつぎとくりだされるのだ。

 人間、笑っていたり、余計なことに気を取られるとなかなか考えることができない。

 そういうわけで、くだらない言葉は相手に届くように、音声、あらゆるチャンネルの通信手段や、相手の通信をハッキングして行なわれる。

 ロボット同士のいる空間には、そうしたくだらない会話? が延々と流れ続けることになる。

 息詰まる攻防戦、というより、これじゃお笑いだわなぁ。

考えを読む。空気を読む。

 実際に考えただけでロボットが動く、またはそうした技術を使って、家電や自動車などが動くようになるとどこが便利になっていくかだ。

 まずは事故などの後天的な原因で、身体の機能が失われてしまった人には、代替の機能を提供することができるだろう。

 物を取ってくる、作業をするなど自分でできないことをロボットにやってもらうわけだ。

 ずーっとイスに座ったままでも、考えることによってロボットたちが作業をする。ロボットでなく、パワードスーツであれば、自分で動くことも可能になるかもしれないが、その場合は、筋電位などを直接感知した方が効率的かな。

 ひょっとすると、人間側がロボットに動作をさせようとするものではなく、ロボット側で人間の考えを読むのに使う装置となるかもしれない。

 人と人との関係では、その場の雰囲気、つまり空気を読むということがある。「空気読めないやつだなぁ」というのは、その昔の「お呼びでないね、お呼びでないね。こりゃまた、失礼いたしましたぁ!」という感覚に近いと思うが、自律しているロボットが人間といっしょにいる場合、空気の読めないロボットと化す場合が多々あると思う。

 人間側はそのたびに「うわー! 何しよんねん」とつっこんでいたら、とてもくたびれてしまう。

 そこで、人間側にも思考を発信する機器を付けて、ロボット側に人の考えを読み取ってもらうことも考えられる。

 1人にしておいてほしいときに、ロボットが「何かご用ですか?」「お困りのことは?」とからんでくるとうっとうしい。

 かといって、手がふさがっているときに手伝ってほしい、しかし、声を出してロボットを呼ぶこともできないなんてときに、さっと手伝いにロボットがやってくる。

 なんていう用途に使えると思う。

 ロボット側に人の顔色を見て気分や気持ちを判断させるのはむずかしそうだが、人の側がロボットに向けて情報発信をすれば、ロボットにも理解しやすいだろう。

個人の思考が保存できたら

 ロボットに関する技術や研究は、まだ萌芽の時期か、先々のことはわからないことが多い。ひょっとすると袋小路への道か、あるいはメインストリームとなるか、全てが始まったばかりだ。

 二足歩行ができたとき、ロボットの実現は近いと誰もが思ったが、実際にはまだまだ長い道のりを歩き始めたばかりだ。

 さまざまな技術の統合先がロボットという存在になっていくのだと思う。

 考えれば動く機械のための、脳内活動の分析機器は、ひょっとすると別方面へ応用されていくかもしれない。

 なんたって、人間同士でもお互いを理解するのは難しいのだから、理解のためのツールとなっていく可能性もある。

 その時には、中間思考もしくは脳活動パターンによるデータベースができ、中間で翻訳されたデータをやりとりすることで、人間、ロボットを含めて、相互意志の伝達ができる世の中になっているかもしれない。

 そうなると、自分の思考や意志も保存しておくことができたりしないかね? それができて、それをロボットに継いでもらえるなら、死後の世界を見続けていてくれる存在ができるんだがなぁ。

 その時には、肉体はこの世からなくなっても安心だな。


米田 裕(よねだ ゆたか)
イラストライター。'57年川崎市生。'82年、小松左京総監督映画『さよならジュピター』にかかわったのをきっかけにSFイラストレーターとなる。その後ライター、編集業も兼務し、ROBODEX2000、2002オフィシャルガイドブックにも執筆。現在は専門学校講師も務める。日本SF作家クラブ会員



2009/4/24 00:00