私はkinectベースのアプリケーションで使用するマーカー検出アルゴリズムを調査してきました。私が見つけることができた作業の大部分は、明らかに「通常の」画像の特徴検出に焦点を当てています。
ただし、kinectハードウェアは、ピクセルごとに11ビットの深度値を提供します(基本的に、調整後)。
この深度画像には、オブジェクトのエッジの周りに投影された影からのさまざまな視覚的なアーティファクトもあります(たとえば、このビデオの濃い黒の境界線http://www.youtube.com/watch?v=-q8rRk8Iqww&feature=relatedを参照してください)。
一部の従来のマシンビジョンテクニック(エッジ検出など)はこれでうまく機能しますが、他のマシンビジョンテクニックはうまくいかず、これについて議論しているネット上の情報はほとんどないようです。
簡単な例として、depth値を使用すると、マーカーブロックを見つけたら、その方向を簡単に検出できます。
それで、特徴検出のための深度画像の処理をカバーする議論/論文などを見た人はいますか?
「深度」マーカーを検出するための優れたアルゴリズムを推奨できますか?
私がこれまでに行ったことは、イメージを処理するためにopencvを使用したアドホックな実験でしたが、安定していないか、十分に高速ではありません。
なんらかの試用をせずに市販のマシンビジョン製品にリンクする場合は、それが適切だと思う理由を回答に含めてください。