Vol.2 No.2 2009
30/108
研究論文:安心・安全な次世代モビリティーを目指して(佐藤ほか)−117−Synthesiology Vol.2 No.2(2009)ター(搭乗者を吊り上げて電動車いすの座面付近まで運ぶ装置)を必要とする場合があることがわかり、カメラヘッドとリフターの干渉を避けるためにカメラヘッド取り付けアームをスイング可能な構造としたためスイングと固定を行うたびに取り付け姿勢が微妙に変化してしまう、という2つの問題が試作機のテスト時に判明し、リアルタイムにカメラの姿勢を推定する方法が必要になった。姿勢推定を行うにあたっては、加速度センサーとジャイロスコープを用いる方法が定石であるが、相対的な姿勢推定であり、累積誤差が問題となる。そこで、全方向画像からカメラヘッドの姿勢を高速かつ絶対的に推定する方法を開発し、実装を行った[11]。具体的にはまず全方向画像からエッジ(明度勾配の大きい部分)を全て取り出す。次に取り出された全てのエッジの方向を投票空間に投票すると、2つの大きなピークが得られる。これは我々の生活空間には鉛直と水平のエッジが多く存在しているためである。例えば机の天板や、天井と壁の境界線は水平のエッジを持ち、柱や本棚の支柱は鉛直のエッジを持つ。これらのピークの位置が投票空間上のどこに現れるかが相対的にカメラヘッドの姿勢を表していることになる。もちろん、鉛直に対して斜めに木が生える森があったとすると、その中では推定を誤ることになるが、ジャイロスコープと加速度センサーを併用することで、誤りが起こったことを知ることができる。この手法についても、可能な限りルックアップテーブル化するなどの工夫を行い、わずか10 ms程度で、姿勢の推定および座標系の補正を可能にした。図6に、実際にカメラヘッドの姿勢を推定し、画像の補正を行った例を示す。図中上段は補正前の画像で、カメラヘッドが鉛直方向に対して傾いた状態で電動車いすに設置されているため、画像が歪んで見えることがわかる。図中下段は、上段の画像と全く同一のデータに対し、推定された姿勢パラメーターを用いて幾何変換を行ったものである。横方向が水平、縦方向が鉛直に対応する画像となっていることがわかる。カメラヘッドがどのような姿勢になったとしても、このような補正をリアルタイムで行うことができる。3.5 危険検知図7に全方向ステレオカメラによって取得した全方向距離情報を可視化した例を示す。正十二面体状に配置された各ステレオカメラユニットから得られた距離情報を座標変換し、カメラヘッドの中心を原点とする1つの統一座標系にマッピングしている。図7は1ショットで撮った同一のデータを3つの仮想視点から観測したものである。生データを直接プロットしているため、やや粗いものではあるが、人物や壁などまでの距離感が立体的に捉えられていることがわかる。全方向ステレオカメラでは、このような全方向距離情報を1秒間に15回 (角度分解能360/512度=約0.7度、1ショットで約30万点を計測の場合)取得することができる。電動車いす走行環境の危険検知は、この全方向距離情報を直接的に用いて行う。危険検知の詳細なアルゴリズムについては参考文献[11]に譲るが、基本的には、床面の高さを0としたとき、−0.5 m(床より低い)から1.6 mの高さまでに存在する物体を全て検出する。このとき、検出された物体が実際に走行の障害となるかどうかは、電動車いすの進行方向に依存するため、図8に示すジョイスティックを倒す方向に応じて切り替わる判定エリアを設定し、減速・停止エリアに物体が入った場合にそれぞれ自動的に減速・停止する。本論文における実験では、判定エリアの直径はそれぞれ1.2 m (減速エリア)、0.4 m(停止エリア)とした。前進直進(F0)では、狭い通路も通過可能となるよう、判定エリアを矩形としている。これに対し、前図6 カメラヘッドの姿勢推定および傾き補正全方向画像中の鉛直及び水平エッジからカメラヘッド自らの姿勢を推定する。上段は補正前の画像である。全方向画像なので傾きの影響がサインカーブ状に現れる。中央付近に写る黒い物体は電動車いす本体である。下段は推定したパラメーターを用いて補正した画像で、横方向が水平、縦方向が鉛直に対応するよう補正されている。図7 全方向距離情報同一のデータを3 つの仮想視点から見たもの。観測点数は約30 万点。このような全方向にわたる三次元データを1 秒間に15 回取得することができる。カメラヘッド姿勢推定傾き補正アルゴリズム
元のページ