JP4709668B2 - 3次元物体認識システム - Google Patents
3次元物体認識システム Download PDFInfo
- Publication number
- JP4709668B2 JP4709668B2 JP2006071857A JP2006071857A JP4709668B2 JP 4709668 B2 JP4709668 B2 JP 4709668B2 JP 2006071857 A JP2006071857 A JP 2006071857A JP 2006071857 A JP2006071857 A JP 2006071857A JP 4709668 B2 JP4709668 B2 JP 4709668B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- edge point
- edge
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Description
る物体モデルを生成すること、および、その物体モデルを用いてカメラ画像から物体を認識し、物体の3次元姿勢を推定することに関する。
デル群をその入力画像と照合して、最もよくマッチする物体モデルを出力する処理であ
る。最もマッチする物体モデルがなければ、何も出力しない。さらに、マッチする物体
モデルの3次元姿勢を推定する。これは、ロボットによる物体操作などへの応用におい
て、とくに重要である。
一般に、物体認識には物体モデルが必要であるが、物体モデルを手動で生成するのは、多大な工数がかかる。また、複雑な形状の物体に対応しにくい、誤差が入りやすい、などの問題がある。
2次元特徴を用いる方法としては、たとえば、特許文献1および非特許文献1がある。特許文献1に記載している方法では、カメラ角度を少しずつ変えながら、対象物体の画像を撮影し、特徴を抽出して物体モデルとする。また、非特許文献1の方法も同様に、カメラ角度を変えながら対象物体の画像を撮り、スケール不変な特徴を抽出して、物体モデルとする。マッチングに用いる特徴量は異なるが、いずれも、2次元特徴を用いて入力画像によくマッチするモデル画像を求める。
が、2次元特徴だけを用いているため、物体の正確な3次元姿勢を推定することはでき
ない。
一方、3次元特徴を用いる方法では、次のような問題がある。特許文献2では、入力
画像から3次元特徴を得るにはステレオ画像を用いているが、そのためには複眼のステ
レオカメラが必要であり、その装置コストや校正の手間がかかるという問題がある。ま
た、対象物体が遠方にある場合は、ステレオカメラによる3次元復元に必要な視差が充
分に得られなくなり、有意な3次元特徴が抽出できず、認識ができなくなるという問題
がある。
これに対し、ステレオカメラを用いずに、1台の単眼カメラを移動させながら入力画像
を複数枚撮影して3次元特徴を得る方法も考えられる。しかし、カメラを適切に移動させながら画像を撮影するのに時間を要し、また、3次元復元処理にも時間がかかる。これらに要する時間は、物体モデル生成ではさほど問題にならないが、物体認識はロボットの動作中に実時間で行う必要性が高いため、大きな短所となりうる。
本発明は、これらの問題に対処して、1枚のカメラ画像から物体の認識と3次元姿勢推
定を安定して行うことを目的とする。
本発明は、物体モデルを2次元の画像エッジ点とそれらを3次元に復元した3次元エッジ点とで構成し、多数の画像エッジ点を2次元特徴として用いて安定な認識を行いながら、3次元エッジ点を用いて物体の3次元姿勢推定を正確に行っている。
画像列と該画像列を撮影した際のカメラ姿勢列を入力して、物体認識に用いるモデル画像と該モデル画像を撮影したカメラ姿勢を選択するモデル画像選択手段と、該モデル画像を入力して画像エッジ点群を抽出するエッジ抽出手段と、該エッジ抽出手段で抽出された画像エッジ点の特徴ベクトルを生成する特徴ベクトル生成手段と、該モデル画像に対応するカメラ姿勢と物体の3次元エッジモデルを入力して、該3次元エッジモデルに含まれる各3次元エッジ点の該モデル画像への投影を計算して前記投影エッジ点を求める3次元モデル投影手段と、該3次元モデル投影手段で計算された前記各投影エッジ点に対して、前記エッジ抽出手段で抽出された画像エッジ点のうち、該投影エッジ点に位置が最も近い画像エッジ点を求め、該投影エッジ点の投影元である3次元エッジ点と前記最も近い画像エッジ点の対応関係を生成するエッジ点対応づけ手段とを備え、物体名、3次元エッジモデル、2次元モデル(複数の画像に対するカメラ姿勢、画像エッジ点群、該各画像エッジ点の特徴ベクトル、及び、各画像エッジ点と対応する3次元エッジ点)を組にして物体モデルとして出力することを特徴とする3次元物体認識システム用物体モデル生成システムも構成するとよい。
また、上述のシステムをコンピュータ・システムに構成させるコンピュータ・プログラムも本発明である。
また、この3次元物体認識システムに用いる物体モデルも容易に作成することができる。
<概要>
本発明は、物体モデル生成と物体認識の2つのフェーズからなる。
物体モデル生成のフェーズでは、複数のカメラ視点から撮影した対象物体の画像列、その撮影時のカメラ運動、および、その画像列から復元した3次元エッジモデルを入力とする。そして、該画像列の画像から抽出した2次元エッジ点、および、その2次元エッジ点と3次元エッジ点の対応関係を出力する。
ここで用いる対象物体の画像列は、単眼カメラで撮影した画像でも複眼ステレオカメラの画像でもよい。カメラ運動は、この画像列の各画像を撮影したときのカメラ姿勢の時系列である。各カメラ姿勢がわかれば、単眼カメラの場合でも、ステレオ視の原理に基づいて画像から抽出したエッジを3次元復元することができる。
物体モデル生成では、画像列とカメラ運動の情報から、次のように物体モデルを生成する。まず、前記画像列からいくつかの画像を選択して、モデル画像とする。各モデル画像から物体のエッジ点を抽出する。
さて、各画像を撮影したカメラ姿勢はわかっているから、前述の3次元エッジモデルを、そのカメラ姿勢に基づいて画像に投影すると、3次元エッジ点の投影像が2次元エッジ点とほぼ重なるはずである。これにより、各画像の2次元エッジ点と3次元エッジ点の対応づけを行うことができる。さらに、エッジ点の近傍領域から、そのエッジ点を識別するための特徴ベクトルを生成しておく。
画像レベルの認識では、入力画像の2次元エッジ点に対して特徴ベクトルを生成し、モデル画像の2次元エッジ点の特徴ベクトルと照合する。特徴ベクトルは、多少のカメラ角度の違いがあってもマッチするので、多くの場合、モデル画像のどれかとはマッチする。入力画像とモデル画像で2次元エッジ点がマッチすれば、入力画像の2次元エッジ点と3次元エッジ点の対応がとれるので、3次元姿勢推定が可能になる。
第一の利点は、エッジ点は大量に得られるので、統計的に処理することで安定して認識を行えることである。認識によく使われる特徴点として、エッジのコーナ点や分岐点などがあるが、その個数は物体あたりたかだか数十個程度である。一方、エッジ点は数千から数万個のオーダで得られる。
第二の利点は、個々のエッジ点は最小限の画像処理で得られるので、エッジ線分などの高次の特徴よりも安定して得られることである。エッジを線分として扱おうとすると、直線当てはめ処理などで誤差が生じる可能性があり、また、線分の端点を正確に求めるのも難しい。
第三の利点は、エッジ点は3次元形状モデルとの対応がとりやすいことである。エッジ点は、見かけの輪郭線(シルエット) でなければ、カメラの視点が変わってもほぼ同じ位置に抽出できる。このため、カメラ画像列から3次元モデルを生成するのに都合がよい。しかも、エッジ点群で構成された3次元モデルは形状が鮮明なので、人間が目視で確認するのにも適している。
図1にしたがい、本発明における物体モデル生成処理の一実施形態を説明する。
モデル画像選択処理101は、カメラからの画像列と推定したカメラ運動を入力して、所定の間隔で選択したモデル画像Jとカメラ姿勢Tを出力する。選択の方法としては、画像を表示して、オペレータが目視で確認しながら手動で選んでもよい。あるいは、カメラ姿勢間の並進量と回転量の間隔をあらかじめ設定しておき、その間隔を超えた移動があった時のカメラ姿勢を自動的に選ぶようにしてもよい。
3次元エッジモデル生成処理102では、画像列とカメラ姿勢列から、3次元エッジモデルを生成する。この生成については、上述のように非特許文献2,3に記載されている。これにより、単眼カメラで撮影した画像からでも、3次元エッジモデルを生成することができる。
Cannyオペレータは、ガウス関数で画像を平滑化した後、画像の一次微分を施す。そして、エッジの法線方向(微分方向) で微分強度が極大となる点をエッジ点として抽出する。このようなエッジ抽出法では、画像に写っている対象物体の大きさによって、エッジの位置が変化することがある。この問題に対しては、Canny オペレータのガウス関数の分散項を自動調節することで、エッジ位置のずれを軽減することが可能である。
このエッジ抽出処理については、従来技術を用いているので、非特許文献4などを参照されたい。
エッジ点対応づけ処理105は、エッジ抽出処理103で抽出された画像エッジ点群Gと3次元モデル投影処理104で求めた投影エッジ点群とについて位置の近いものを見つけて、画像エッジ点qと3次元エッジ点Pの対応関係を生成する。
物体モデル記憶107は、物体モデル名、3次元エッジモデル、および、エッジ点対応づけ処理105で生成されたエッジ点対応関係を組にした2次元モデルを物体モデルとして記憶する。
次に、図2を用いて、本発明の物体認識システムで用いる物体モデルの構成例を説明する。ここで説明する物体モデルは、上述の図1で説明した物体モデル生成の処理で作成されるものであり、上述の物体モデル記憶107に記憶されるものである。
物体モデルは、図2(a) に示すように、物体モデル名、3次元エッジモデル、および、2次元モデルから構成される。
物体モデル名はオペレータが物体に与えるもので、通常は対象物体に即した名前をつける。図2(a)では、desk1(机1)とつけられている。3次元エッジモデルは、前述のように画像列から復元した3次元エッジ点Piの集合である。2次元モデルは、あるカメラ視点から対象物体を撮影した画像から抽出された情報である。一般に、1つの物体モデルは複数の2次元モデルをもつ。
2次元モデルIDは、2次元モデルを一意に表す記号(例えば、M1)である。モデル画像Jは、対象物体の画像列の中から選択された1枚の画像データである。カメラ姿勢Tは、モデル画像を撮影したときのカメラの姿勢であり、ある3次元座標系内の位置(x,y,z)と方向(θ,φ,ψ)を表す6個の変数からなる。座標系は任意でよいが、通常は、画像列の最初の画像を撮影したカメラ姿勢を原点にして設定される。エッジ点集合Gは、モデル画像から抽出された画像エッジ点qの情報の集合である。
画像エッジ点qの情報は、2次元特徴として認識に用いられる。図2(c)は、1個の画像エッジ点qの情報の構成である。エッジ点qの情報は、モデル画像内での位置(u,v)、方向(a)、スケール(S)、特徴ベクトル(B)、および、対応する3次元エッジ点(Pj)から構成される。
モデル画像内での位置(u,v)は、上述のエッジ抽出処理103におけるエッジ抽出オペレータにより求められる。方向(a)はその位置での画像の微分方向であり、やはり上述のエッジ抽出オペレータにより求められる。スケールはエッジ点qの近傍領域のサイズ(S)であり、その求め方は後で説明する。特徴ベクトルBは、エッジ点の近傍の局所画像から抽出される多次元の数値情報である。種々のものが利用可能であるが、マッチングを安定して行うために、回転不変性、スケール不変性、照明不変性、カメラ視点の変化による歪みに対する許容性をもつことが望ましい。3次元エッジ点Pjは、モデル画像と3次元エッジモデルの間で画像エッジ点の対応関係を保持するためのものである。
次に、図3にしたがって、2次元モデルの生成手順を説明する。図3を用いて説明する処理は、図1において、3次元モデル投影処理104,エッジ点対応づけ処理105および特徴ベクトル生成処理106の処理に対応している。
さて、ここでの入力は、モデル画像選択処理101で選択したモデル画像Jとカメラ姿勢T、および、エッジ抽出処理103で抽出された画像エッジ点群Gである。
この時点では、画像エッジ点群Gの各画像エッジ点qは、図2(c)に示した画像エッジ点の構成において、位置と方向しかもたない。この各画像エッジ点qに対して、図2(c)のスケールS、特徴ベクトルB、および、対応する3次元エッジ点Pを求めることが、図3に示したフローチャート処理での目的である。
次に、ステップS112において、画像エッジ点群Gから1つの画像エッジ点qを取り出す。次に、ステップS114において、モデル画像Jに3次元エッジ点群を投影した像のうち、エッジ点qに位置が最も近いものを求める。この基準としては、2点間のユークリッド距離を用いればよい。これを図4を用いて説明する。
たとえば、図4は、カメラ姿勢を用いてカメラ中心と3次元エッジモデルとを直線で結び、それが画像Jを切る点を求めることで3次元エッジモデルを画像Jに投影していることを示している。図4では、3次元エッジ点Pの画像Jへの投影点が画像エッジ点qと一致するので、画像エッジ点qに対応する3次元エッジ点としてPを設定する。
なお、エッジ点qから所定の距離以内に3次元エッジ点の投影像がなければ、そのエッジ点qの対応はないとしてもよい。この場合、図3に示したフローチャートで、3次元エッジ点Pとの対応関係がないときは、特徴ベクトルを生成する処理(S116)はスキップするようにする。
図3における特徴ベクトルの生成(S116)を詳しく説明する。
一般に、物体は、画像により様々な大きさで写っている。少ないモデル画像で種々の入力画像とマッチングできるようにするには、画像中の物体の大きさに依存しないように特徴ベクトルを生成できることが望ましい。このためには、特徴ベクトルを生成する近傍領域の大きさを、物体の大きさに合わせて決める必要がある。
このために、次のように近傍領域の半径Sを決め、これを図2(c)で示したエッジ点のスケールSとする。
この式は、qを中心とした円周上にあるエッジ点の強度の和が最大になる半径を求めている。これは、直観的には、図5のようにqの周囲のエッジと最もよく接する円に相当する。Sは、画像中の物体の大きさに比例するので、Sで近傍領域の局所画像を正規化すれば、特徴ベクトルは物体の大きさに依存せず不変になる。なお、上式では最大点を採用しているが、Sの適当な初期値から探索を始めて最初に見つかった極大点を用いてもよい。
エッジ点の近傍領域が決まると、その中に含まれる局所画像から特徴ベクトルを生成する。まず、局所画像を上式で求めた近傍領域サイズSで正規化する。これにより、物体の大きさによらず、近傍領域に含まれる画素の個数を同じにする。
特徴ベクトルは種々のものが利用できるが、たとえば、非特許文献1で提案されたSIFT法で用いられる特徴ベクトルを利用する。SIFT法での特徴ベクトルは、特徴点の近傍領域の局所画像を4×4のブロックに分割して、各ブロック内にある画素の微分方向のヒストグラム値を並べて特徴ベクトルとする。方向ヒストグラムは45°の間隔で離散化される。したがって、4×4×8=128次元のベクトルとなる。ただし、特徴ベクトルが物体の回転に不変となるように、注目しているエッジ点の法線方向からの相対角度で方向ヒストグラムを作る。なお、SIFT法では、特徴点としてDOG (Difference of Gaussian) フィルタの極値点を用いるが、本発明では、そのかわりにエッジ点を用いていることに注意されたい。
以上述べたようにして、本発明では物体モデルを生成する。
図7にしたがい、本発明における物体認識処理の概略を説明する。この物体認識処理は、上述の処理で生成した、図2に示す2次元モデルと3次元エッジモデルを含む物体モデルを使用し、1枚の入力画像から物体を認識するとともにその画像のカメラ姿勢も推定する。
エッジ抽出処理202は、入力画像から画像エッジを抽出する。その処理内容は、図1の物体モデル生成におけるエッジ抽出処理103と同様である。
特徴ベクトル生成処理203は、エッジ抽出処理202で抽出した各画像エッジ点qに対して、特徴ベクトルを生成する。その処理内容は、図1の物体モデル生成時の特徴ベクトル生成処理106と同様である。ただし、物体モデル生成時における特徴ベクトル生成処理106では、3次元エッジ点Pと対応がとれた画像エッジ点qに対してのみ特徴ベクトルを生成したが、物体認識時は、すべての画像エッジ点qに対して、特徴ベクトルを生成する。
3次元姿勢推定処理208は、2次元モデル照合処理207で求めた物体モデルと2次元モデル、および、エッジ点ペア集合Hを入力して、物体の3次元エッジモデルの投影像が入力画像エッジ点群とよく一致するカメラ姿勢を求める。そして、最終的な認識結果として、最もよくマッチした物体モデル名とカメラ姿勢を出力する。
図8にしたがい、本発明における物体認識処理手順の一例を説明する。このフローチャートでは、図7の2次元モデル照合処理207及び3次元姿勢推定処理208を詳しく説明する。
まず、入力画像エッジ点群とマッチするモデル画像エッジ点が多い2次元モデルMを物体モデル記憶を参照して求める(S212)。エッジ点のマッチングは、特徴ベクトル生成処理203で求めた入力画像エッジ群の特徴ベクトルと、2次元モデルMの各画像エッジ点の特徴ベクトルとの一致度を用いて判定する。
特徴ベクトルの一致度の計算には種々の方法があり得るが、たとえば、特徴ベクトル同士のユークリッド距離や相関などを用いればよい。判定の結果、2次元モデルMは複数個得られる可能性があるので、それぞれを候補として集合Dに登録する。また、2次元モデルMごとに、マッチしたモデル画像エッジ点と入力画像エッジ点のペア集合を記憶しておく。
ステップS220においては、入力画像エッジ点と3次元エッジ点の対応関係を求める。モデル画像エッジ点に対応する3次元エッジ点は、物体モデル生成時に得られているので、前のステップ(S218)により入力画像エッジ点とモデル画像エッジ点の対応が得られれば、入力画像エッジ点と3次元エッジ点の対応も得られる。
次に、3次元エッジ点の入力画像への投影像と入力画像エッジ点の位置が一致するように、カメラ姿勢を求める(S222)。この具体的な方法は後で詳しく述べる。このとき、位置がよく一致するエッジ点ペアの個数、および、その位置誤差の和を一致度として計算する。
なお、入力画像と類似する2次元モデルの集合Dを作成するステップ(S212)において、物体モデル記憶107に含まれるすべての2次元モデルに対して、入力画像エッジ点群の特徴ベクトルのマッチングを行うと、多くの計算時間がかかる。そこで、非特許文献1で提案されているように、特徴ベクトルのインデックスをKD木で構成して、マッチングを高速に行うようにしてもよい。
特徴ベクトルは局所特徴なので、それだけを用いてマッチングしたエッジ点ペアには多くの誤りが含まれうる。そこで、物体の画像上の形状にもとづく制約を用いて、誤ったエッジ点ペアを除去する処理(S218)を行っている。このために、まず、入力画像とモデル画像の変換を求める(S216)。この変換としては、相似変換やアフィン変換があるが、ここでは相似変換の例を述べる。
画像エッジ点は、位置、方向、スケールの情報をもつため、1組の入力画像エッジ点とモデル画像エッジ点とから、エッジ点の画像上での並進量(位置の差)、回転量(方向の差)、拡縮量(スケールの比)を計算することができる。各エッジ点ペアについてこれらの変換量を計算し、クラスタリングまたは投票処理を行って、最大多数を占める変換量を求める。このようにして求めた変換量によって、入力画像とモデル画像の相似変換を定義する。なお、アフィン変換の場合は、2組のエッジ点ペアからアフィン変換量を計算できる。
次に、エッジ点ペア集合に含まれるエッジ点ペアについて、求めた相似変換量と大きく値が異なる相似変換量をもつものを除去する。これにより、エッジ点の誤対応の多くが除去される。
入力画像エッジ点と3次元エッジ点の対応から、カメラ姿勢を計算する処理(S222)を説明する。
まず、カメラ姿勢の初期値として、モデル画像を撮影したカメラ姿勢を用いる。画像上の特徴が似ているということは、モデル画像のカメラ姿勢が入力画像のカメラ姿勢と近いと期待されるからである。次に、3次元エッジ点の入力画像への投影像が、入力画像のエッジ特徴点と位置がよく一致するようにカメラ姿勢を計算する。これは次式を最小化することで求める。
この最小化は非線形最小化問題となるので、上述のモデル画像のカメラ姿勢をR,Tの初期値として、最急降下法やニュートン法などの方法を用いて解く。
以上述べたようにして、本発明の3次元物体認識システムは、1 枚の入力画像から物体
の特定と3次元姿勢推定を行う。
図9に本発明の物体認識の動作例を示す。図9(a)は、本発明の物体モデル生成のフェーズで作成した物体モデル(シンク)の3次元エッジモデルである。図9(b)〜(d)は、各1枚のカメラ画像に図9(a)の3次元エッジモデルを含んだ物体モデルを用いて、物体認識を行った結果である。図9(b)〜(d)は、物体(シンク)の認識が成功していることを示している。これらの図9(b)〜(d)では、本システムで推定したカメラ姿勢で、3次元エッジモデルをカメラ画像上に重ね合わせて表示している。
図9(b)は図9(c)や図9(d)より画像中の物体の大きさが小さいが、認識に成功していることを示している。また、図9(d)は、物体の一部が欠けて写っているが、認識に成功していることを示している。
この例における物体(シンク)はほぼ直線で構成されており、コーナ点や分岐点といった特徴点の個数は少ない。このため、物体の一部が画像から欠けると、抽出できる特徴点数が少なくなり、認識が不安定になる。しかしながら、本発明の方法では、エッジ点すべてを用いるため、物体の一部が欠けても、まだ多数の2次元エッジ点が得られるため、図9に示したように、認識の安定性が高い。
の認識、などに適用することができる。
Claims (5)
- 1枚の入力画像から物体認識を行う3次元物体認識システムにおいて、
物体名、3次元エッジモデル、2次元モデル(複数の画像に対するカメラ姿勢、画像エッジ点群、該各画像エッジ点の特徴ベクトル、及び、各画像エッジ点と対応する3次元エッジ点)を組にして物体モデルとして記憶する物体モデル記憶手段を有し、
前記入力画像から画像エッジ点群を抽出する画像エッジ抽出手段と、
前記画像エッジ抽出手段で抽出された画像エッジ点の特徴ベクトルを生成する特徴ベクトル生成手段と、
前記特徴ベクトル生成手段で得られた前記入力画像の画像エッジ点の特徴ベクトルと、前記物体モデル記憶手段に記憶された物体モデルがもつ画像エッジ点の特徴ベクトルとを比較して、前記入力画像にマッチする物体モデルを検索する2次元モデル照合手段と、
該検索された物体モデルがもつ3次元エッジモデルの3次元エッジ点を、前記入力画像に投影した位置が前記入力画像の画像エッジ点の位置と一致する度合いが大きくなるようなカメラ姿勢を求める3次元姿勢推定手段とを備え、
前記入力画像の物体名とカメラ姿勢とを出力することを特徴とする3次元物体認識システム。 - カメラ画像列から、物体認識に用いる物体モデルを生成するシステムであって、
画像列と該画像列を撮影した際のカメラ姿勢列を入力して、物体認識に用いるモデル画像と該モデル画像を撮影したカメラ姿勢を選択するモデル画像選択手段と、
該モデル画像を入力して画像エッジ点群を抽出するエッジ抽出手段と、
該エッジ抽出手段で抽出された画像エッジ点の特徴ベクトルを生成する特徴ベクトル生成手段と、
該モデル画像に対応するカメラ姿勢と物体の3次元エッジモデルを入力して、該3次元エッジモデルに含まれる各3次元エッジ点の該モデル画像への投影を計算して投影エッジ点を求める3次元モデル投影手段と、
該3次元モデル投影手段で計算された前記各投影エッジ点に対して、前記エッジ抽出手段で抽出された画像エッジ点のうち、該投影エッジ点に位置が最も近い画像エッジ点を求め、該投影エッジ点の投影元である3次元エッジ点と前記最も近い画像エッジ点の対応関係を生成するエッジ点対応づけ手段とを備え、
物体名、3次元エッジモデル、2次元モデル(複数の画像に対するカメラ姿勢、画像エッジ点群、該各画像エッジ点の特徴ベクトル、及び、各画像エッジ点と対応する3次元エッジ点)を組にして物体モデルとして出力することを特徴とする3次元物体認識システム用物体モデル生成システム。 - 前記特徴ベクトル生成手段は、画像エッジ点の特徴ベクトルを生成する際に、該画像エッジ点を中心とした円形領域を求めて、該円周上にあるエッジ強度の和が最大あるいは極大になるように該円形領域の半径を定め、
該円形領域に含まれる画像情報から特徴ベクトルを生成することを特徴とする請求項1
記載の3次元物体認識システム又は請求項2記載の3次元物体認識システム用物体モデル生成システム。 - コンピュータ・システムを、
入力画像から画像エッジ点群を抽出する画像エッジ抽出手段と、
前記画像エッジ抽出手段で抽出された画像エッジ点の特徴ベクトルを生成する特徴ベクトル生成手段と、
前記特徴ベクトル生成手段で得られた前記入力画像の画像エッジ点の特徴ベクトルと、前記物体モデル記憶手段に記憶された物体モデルがもつ画像エッジ点の特徴ベクトルとを比較して、前記入力画像にマッチする物体モデルを検索する2次元モデル照合手段と、
該検索された物体モデルがもつ3次元エッジモデルの3次元エッジ点を、前記入力画像に投影した位置が前記入力画像の画像エッジ点の位置と一致する度合いが大きくなるようなカメラ姿勢を求める3次元姿勢推定手段
として機能させ、
前記入力画像の物体名とカメラ姿勢とを出力させることを特徴とするコンピュータ・プログラム。 - コンピュータ・システムを、
画像列と該画像列を撮影した際のカメラ姿勢列を入力して、物体認識に用いるモデル画像と該モデル画像を撮影したカメラ姿勢を選択するモデル画像選択手段と、
該モデル画像を入力して画像エッジ点群を抽出するエッジ抽出手段と、
該エッジ抽出手段で抽出された画像エッジ点の特徴ベクトルを生成する特徴ベクトル生成手段と、
該モデル画像に対応するカメラ姿勢と物体の3次元エッジモデルを入力して、該3次元エッジモデルに含まれる各3次元エッジ点の該モデル画像への投影を計算して投影エッジ点を求める3次元モデル投影手段と、
該3次元モデル投影手段で計算された前記各投影エッジ点に対して、前記エッジ抽出手段で抽出された画像エッジ点のうち、該投影エッジ点に位置が最も近い画像エッジ点を求め、該投影エッジ点の投影元である3次元エッジ点と前記最も近い画像エッジ点の対応関係を生成するエッジ点対応づけ手段として機能させ、
物体名、3次元エッジモデル、2次元モデル(複数の画像に対するカメラ姿勢、画像エッジ点群、該各画像エッジ点の特徴ベクトル、及び、各画像エッジ点と対応する3次元エッジ点)を組にして物体モデルとして出力させる
ことを特徴とするコンピュータ・プログラム
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006071857A JP4709668B2 (ja) | 2006-03-15 | 2006-03-15 | 3次元物体認識システム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006071857A JP4709668B2 (ja) | 2006-03-15 | 2006-03-15 | 3次元物体認識システム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007249592A JP2007249592A (ja) | 2007-09-27 |
JP4709668B2 true JP4709668B2 (ja) | 2011-06-22 |
Family
ID=38593815
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006071857A Active JP4709668B2 (ja) | 2006-03-15 | 2006-03-15 | 3次元物体認識システム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4709668B2 (ja) |
Families Citing this family (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5714232B2 (ja) | 2009-03-12 | 2015-05-07 | オムロン株式会社 | キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法 |
JP5316118B2 (ja) | 2009-03-12 | 2013-10-16 | オムロン株式会社 | 3次元視覚センサ |
JP5245938B2 (ja) | 2009-03-12 | 2013-07-24 | オムロン株式会社 | 3次元認識結果の表示方法および3次元視覚センサ |
JP5282614B2 (ja) * | 2009-03-13 | 2013-09-04 | オムロン株式会社 | 視覚認識処理用のモデルデータの登録方法および視覚センサ |
KR20110064197A (ko) | 2009-12-07 | 2011-06-15 | 삼성전자주식회사 | 물체 인식 시스템 및 그 물체 인식 방법 |
JP5712801B2 (ja) * | 2011-06-06 | 2015-05-07 | 株式会社明電舎 | 画像特徴量抽出装置及びこれを用いた画像処理によるマーカ検出装置 |
GB2492779B (en) * | 2011-07-11 | 2016-03-16 | Toshiba Res Europ Ltd | An image processing method and system |
JP6352208B2 (ja) * | 2015-03-12 | 2018-07-04 | セコム株式会社 | 三次元モデル処理装置およびカメラ校正システム |
JP6511959B2 (ja) * | 2015-05-26 | 2019-05-15 | 大日本印刷株式会社 | 立体物造形用データ出力規制装置 |
KR101715782B1 (ko) * | 2016-10-06 | 2017-03-13 | 삼성전자주식회사 | 물체 인식 시스템 및 그 물체 인식 방법 |
KR102058421B1 (ko) * | 2019-01-31 | 2020-01-22 | 주식회사 팀엘리시움 | 대상물의 표면 메시를 획득하는 방법 및 이를 이용한 장치 |
CN113592928A (zh) * | 2021-07-26 | 2021-11-02 | 北京小米移动软件有限公司 | 图像处理方法、图像处理装置及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164503A (ja) * | 2002-11-15 | 2004-06-10 | Olympus Corp | 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム |
-
2006
- 2006-03-15 JP JP2006071857A patent/JP4709668B2/ja active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004164503A (ja) * | 2002-11-15 | 2004-06-10 | Olympus Corp | 三次元モデル検索方法、三次元モデル検索装置、三次元モデル検索プログラム、及び三次元モデル検索システム |
Also Published As
Publication number | Publication date |
---|---|
JP2007249592A (ja) | 2007-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4709668B2 (ja) | 3次元物体認識システム | |
JP6430064B2 (ja) | データを位置合わせする方法及びシステム | |
US10776936B2 (en) | Point cloud matching method | |
Zeng et al. | 3dmatch: Learning local geometric descriptors from rgb-d reconstructions | |
JP6216508B2 (ja) | 3dシーンにおける3d物体の認識および姿勢決定のための方法 | |
EP3382644A1 (en) | Method for 3d modelling based on structure from motion processing of sparse 2d images | |
Azad et al. | Stereo-based 6d object localization for grasping with humanoid robot systems | |
JP6836561B2 (ja) | 画像処理装置及び画像処理方法 | |
WO2013094441A1 (en) | Method for estimating pose of object | |
JP2016099982A (ja) | 行動認識装置、行動学習装置、方法、及びプログラム | |
JP6172432B2 (ja) | 被写体識別装置、被写体識別方法および被写体識別プログラム | |
JP2018128897A (ja) | 対象物の姿勢等を検出する検出方法、検出プログラム | |
JP2017097578A (ja) | 情報処理装置及び方法 | |
JP2012159990A (ja) | 物体識別システムおよび方法、並びに、特徴点位置抽出システムおよび方法 | |
JP6544482B2 (ja) | 物体認識装置、物体認識方法及び記憶媒体 | |
KR20160049639A (ko) | 부분 선형화 기반의 3차원 영상 정합 방법 | |
JP6946912B2 (ja) | 推定プログラム、推定装置、及び推定方法 | |
Tsai et al. | Design and implementation of a RANSAC RGB-D mapping algorithm for multi-view point cloud registration | |
Park et al. | Mobile robot localization in indoor environment using scale-invariant visual landmarks | |
CN115700507B (zh) | 地图更新方法及其装置 | |
Shin et al. | 6DOF pose estimation using 2D-3D sensor fusion | |
Wietrzykowski et al. | A probabilistic framework for global localization with segmented planes | |
Sadran et al. | Sparse keypoint models for 6D object pose estimation | |
JP2007140729A (ja) | 物品の位置及び姿勢を検出する方法および装置 | |
JP6534411B2 (ja) | 相対角度推定装置、相対角度推定方法、及び相対角度推定プログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080328 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20101007 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20101116 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101224 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110318 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |