JP4003465B2 - Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus - Google Patents
Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus Download PDFInfo
- Publication number
- JP4003465B2 JP4003465B2 JP2002018853A JP2002018853A JP4003465B2 JP 4003465 B2 JP4003465 B2 JP 4003465B2 JP 2002018853 A JP2002018853 A JP 2002018853A JP 2002018853 A JP2002018853 A JP 2002018853A JP 4003465 B2 JP4003465 B2 JP 4003465B2
- Authority
- JP
- Japan
- Prior art keywords
- pattern
- recognition
- local
- image
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、電子回路の位置決め等に応用されるパターン認識技術において、既知のパターンをあらかじめ記憶手段に記憶しておき、これと入力される画像との照合を行って画像中で既知パターンが相似変形して見える際の幾何学的パラメータ、すなわち位置、回転角度、スケール変動を検出する技術に関し、特にパターンの明度変動、他のパターンとの重なりあい、ノイズの発生などにより画像から抽出される画像特徴量が不安定となる場合にも正しい幾何学的パラメータの検出を可能にする、特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置に関するものである。
【0002】
【従来の技術】
既知のパターンを入力画像から検出するパターン認識技術において、検出するべきパターンにスケール変動や回転がない平行移動のみが加わっている場合にそのパターンを検出するとき、パターンの画像そのものをテンプレートとしてあらかじめ記憶手段に記憶させておき、画像上のあらゆる位置においてテンプレートと画像との正規化相関値(認識対象画像の任意の位置でテンプレートと同サイズに切りだした画像の画素値と、テンプレートの画素値との間の相関係数)を算出し、正規化相関値が最大となる位置を検出する正規化相関パターンマッチング法が広く知られている。
【0003】
また、認識対象画像のパターンが回転する可能性がある場合の認識方法の一例としての特開昭60−258689号公報に記載された発明では、複数のパターンが撮影された画像からパターンの周囲長や面積などの特徴量を算出し、特徴量と既知パターンの特徴量を比較することにより所望のパターンを検出し、さらにパターンに含まれる直線部を検出することにより回転角度、位置を同定するようにすることで、回転の生じるパターンも認識可能としている。
【0004】
【発明が解決しようとする課題】
しかしながら、正規化相関法では前述のようにパターンの回転、スケール変動が生じている場合や、部分的な明度変動、パターンの一部隠蔽などが生じている場合にも位置が正しく検出されないという問題があった。
【0005】
また、特開昭60−258689号公報に記載された発明では、ノイズや明度むらが大きい場合など、認識対象となるパターンと背景パターンを2値画像に分離することができない場合には適用できない欠点があった。
【0006】
本発明は、上記事情に鑑みてなされたものであり、照明変動や障害物、位置決め誤差などの環境の変動の影響などを受け難い頑健な認識が可能な、特定パターン認識方法、特定パターン認識プログラム、特定パターン認識プログラム記録媒体および特定パターン認識装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するための請求項1記載の発明は、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、画像処理装置が認識対象画像の特定パターンを認識する特定パターン認識方法であって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程とを含むことを特徴とする。
【0008】
請求項2記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像の輪郭線を求め、この輪郭線における曲率値が所定値よりも大きい領域の部分画像から、前記局所パターンを抽出することを特徴とする。
【0009】
請求項3記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像の部分画像について、画素毎に明度変化方向を求め、少なくとも異なる2方向に明度変化のピークが現れる部分の画像のパターンを前記局所パターンとして抽出することを特徴とする。
【0010】
請求項4記載の発明は、請求項1記載の特定パターン認識方法において、前記連結パターンは画像パターンであることを特徴とする。
【0011】
請求項5記載の発明は、請求項1記載の特定パターン認識方法において、前記連結パターンは、直線、少なくとも1つの中間節点を持つ折れ線および曲線のいずれかであり、その連結パターンデータは数式データであることを特徴とする。
【0012】
請求項6記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像から、前記局所パターンの中心位置を原点とする極座標を、原点を中心とした角度を示す角度軸と原点からの距離を示す距離軸とを有する直交座標に変換して、直交変換画像を作成し、前記局所パターン候補点抽出過程では、前記認識対象画像を含むデジタル画像から、ある注目点を原点とする極座標を直交座標に変換して、直交変換画像を作成し、この直交変換画像と前記モデル生成過程で作成された直交変換画像とを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を前記局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を前記局所パターン候補点に割り当てることを特徴とする。
【0013】
請求項7記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像から、前記局所パターンの中心位置を原点とする極座標を、原点を中心とした角度を示す角度軸と原点からの距離を示す距離軸とを有する直交座標に変換して、直交変換画像を作成し、この直交変換画像を角度軸に投影して1次元の波形データを作成し、前記局所パターン侯補点抽出過程では、前記認識対象画像を含むデジタル画像から、ある注目点を原点とする極座標を直交座標に変換して、直交変換画像を作成し、この直交変換画像を角度軸に投影して1次元の波形データを作成し、この1次元の波形データと、前記モデル生成過程で作成された波形データとを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を前記局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を前記局所パターン候補点に割り当てることを特徴とする。
【0014】
請求項8記載の発明は、請求項6記載の特定パターン認識方法において、前記認識対象画像を含むデジタル画像から抽出した直交変換画像を距離軸方向に拡大または縮小して、前記モデル生成過程で作成された直交変換画像とマッチングすることを特徴とする。
【0015】
請求項9記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターン侯補点抽出過程では、局所的に画素値の変化の大きい部分だけを事前に抽出し、その部分のみに対して局所パターン候補点抽出処理を行うことを特徴とする。
【0016】
請求項10記載の発明は、請求項1記載の特定パターン認識方法において、前記モデル変形過程では、前記変形候補の局所パターン候補点の方向と、対応する前記局所パターンの方向との角度差が所定角より大きい場合、その変形候補を前記類似度評価過程での類似度の評価から除外することを特徴とする。
【0017】
請求項11記載の発明は、請求項4記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが画像データである場合、前記モデル変形過程で求められた変形候補の変形パラメータに基づいて、前記連結パターンを変形し、この変形した連結パターンを含む変形した認識用モデルの全体パターンと前記認識対象画像とのマッチングを行うことを特徴とする。
【0018】
請求項12記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定された全てのサンプリングライン上の画素値の分布と、連結パターン候補の位置で画素値がステップ状に変化する理想パターンとの相関値を算出して類似度とすることを特徴とする。
【0019】
請求項13記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定されたサンプリングライン上の画素値の分布と、サンプリング点部分で画素値がステップ状に変化する理想パターンとの類似度を調べる処理をサンプリングラインごとに行い、類似度を全てのサンプリングラインに対して求めて平均値を算出し全体の類似度とすることを特徴とする。
【0020】
請求項14記載の発明は、請求項11から13のいずれかに記載の特定パターン認識方法において、前記認識対象画像に明暗のコントラスト反転が生じることが既知である場合、類似度として正規化相関値の絶対値を用いることを特徴とする。
【0021】
請求項15記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定された全てのサンプリングラインの各々についてエッジ位置を求め、エッジ位置と連結パターンの距離の平均値をもって類似度とすることを特徴とする。
【0022】
請求項16記載の発明は、請求項15記載の特定パターン認識方法において、前記サンプリングラインのある注目位置の左右で画素値の平均値を求め、平均画素値の差の絶対値を求め、注目位置を前記サンプリングラインの範囲内で移動させながら、平均画素値の差の絶対値を順次求め、その絶対値が最大となる位置をエッジ位置として用いることを特徴とする。
【0023】
請求項17記載の発明は、請求項15記載の特定パターン認識方法において、前記連結パターンの各々について、エッジ位置をもとに最小自乗法を用いて連結パターンの数式に当てはめることを特徴とする。
【0024】
請求項18記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターンおよび連結パターンの特徴と、これらパターンの認識に対する最適な処理方法および認識パラメータのうち少なくとも一方との関係を記述したデータベースを予め作成し、前記認識用モデルを生成するモデル生成過程として、検出するべきパターンの特徴の解析を行い、この解析結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定する過程をさらに含むことを特徴とする。
【0025】
請求項19記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターンおよび連結パターンの画像間変動の特徴と、それらパターンの認識に対する最適な処理方法および認識パラメータのうち少なくとも一方との関係を記述したデータベースを予め作成し、複数の教示画像に対して試験的に認識を行い、この認識結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定することを特徴とする。
【0026】
請求項20記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、同じパターンを撮影して得た前記認識基準画像を含むデジタル画像を複数、教示用画像として用いる場合、前記局所パターンデータおよび連結パターンデータの画像間変動を正規化して統合することを特徴とする。
【0027】
請求項21記載の発明は、請求項1記載の特定パターン認識方法において、時系列で連続して入力されるデジタル画像に対してパターン照合および位置検出を行い、パターンの追跡を行う場合に、先に行ったパターン照合の結果をもとに前記認識用モデルを変更することを特徴とする。
【0028】
請求項22記載の発明は、請求項1記載の特定パターン認識方法において、時系列で連続して入力されるデジタル画像に対してパターン照合および位置検出を行い、パターンの追跡を行う場合に、先に行った位置検出の結果をもとに、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法を随時変更することを特徴とする。
【0029】
請求項23記載の発明は、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、画像処理装置が認識対象画像の特定パターンを認識する特定パターン認識方法の処理手順を含む特定パターン認識プログラムであって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程とを含むことを特徴とする。
【0030】
請求項24記載の発明の特定パターン認識プログラム記録媒体は、請求項23記載の特定パターン認識プログラムを前記コンピュータにより読み取り可能に記録したことを特徴とする。
【0031】
請求項25記載の発明は、撮像を行う撮像手段と、この撮像手段により撮像された画像信号から2次元マトリクスの各格子点ごとに明度値が記録されたデジタル画像を得る量子化手段と、この量子化手段で得られたデジタル画像のデータを少なくとも記憶する記憶手段とを備え、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、認識対象画像の特定パターンを認識する特定パターン認識装置であって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出手段と、この局所パターン候補点抽出手段で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形手段と、このモデル変形手段で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価手段とを含むことを特徴とする。
【0032】
ここで、本発明の方法によれば、全体パターンを特徴的な部分の局所パターンとそうでない部分の連結パターンとに分け、認識対象画像を含むデジタル画像から、局所パターンに似た部分を検出し、その部分の情報をもとに全体パターンの変形(位置、回転、スケール変動)を推定し、全体パターンの情報を用いて推定した全体パターンの変形が正しいかを検証することにより、全体パターンを認識するようにしたので、パターンの回転やスケール変動が生じている場合はもとより、ノイズや明度むらにより二値化処理などの簡易な方法ではパターンを背景から分離するのが困難な場合や、パターンの一部が隠蔽されて形状が変化して見える場合にも正しい認識が可能となる。
【0033】
【発明の実施の形態】
図1は特定パターン認識装置の構成図、図2は図1中の処理装置によって実行される特定パターン認識方法の処理の流れを示すフローチャート、図3は図1中のカメラおよび量子化器から得られうる各種デジタル画像の例を示す図であり、これらの図を参照しながら本発明の一実施形態について説明する。
【0034】
本実施形態の特定パターン認識装置は、例えば対象物10の位置決めなどに応用されるものであり、図1に示すように、カメラ11と、量子化器12と、記憶装置13と、画像表示装置14と、処理装置15とを備えている。
【0035】
カメラ11は、対象物10を撮影して画像信号を得るTVカメラである。量子化器12は、カメラ11で得られた画像信号から、2次元マトリクスの各格子点ごとに明度値が記録され、対象物10の認識対象画像I10を所定サイズのフレーム内に含むデジタル画像I12を得るものである。記憶装置13は、半導体記憶装置などにより構成され、量子化器12で得られたデジタル画像I12の画像データを記憶するものである。画像表示装置14はCRTまたはLCDなどにより構成され、各種情報を表示するものである。処理装置15は、CPUおよびRAMなどにより構成されるコンピュータの中枢部であり、例えば、パターンの認識処理を通して、対象物10の位置決めなどに必要なその位置および向きを計測し、計測して得た結果を画像表示装置14の画面に出力表示したり、図示しない外部機器にデータ出力したりするものである。
【0036】
このような構成の装置では、量子化器12から、デジタル画像中の認識対象画像が常に一定の状態で得られるとは限らず、図3の例に示すように、周囲環境の変動などに伴って認識対象画像に様々な変動が加わる。すなわち、図3(a)に示すように、認識対象画像が適正な状態で得られる場合もあれば、図3(b)から(i)に示すように、認識処理にとって不都合となる変動が認識対象画像に加わる場合もある。図3(b)では、対象物10の位置決め誤差により、認識対象画像が適正な向きに対し半時計周りにある角度回転した状態になっている。図3(c)、図3(d)では、対象物10とカメラ11との間の距離変動により、それぞれ、認識対象画像が適正な画像のサイズよりも大きなサイズになり、認識対象画像のピントがずれている。図3(e)では、照明装置の照度変動により、明度にムラが生じている。図3(f)、図3(g)では、対象物10を保護する半透明のシートなどにより、それぞれ、コントラストが低下し、画像にノイズが発生している。図3(h)では、対象物10上の不透明な物体により、認識対象画像の一部が隠された状態になっている。また、図3(i)では、認識対象画像の局所パターンとなる部分の一部は見えているが、別の一部が隠された状態になっている。また、これらの変動は2つ以上が組み合わさって発生することもある。
【0037】
本実施形態では、上記様々な変動が認識対象画像に加わっても、微視的に見れば、認識対象画像の位置および向きを特定することができる部分画像が、複数正常に撮影されることが多いので、それら複数の部分画像のパターン(以下、この特定パターンを「局所パターン」という)を通して、認識対象画像の全体パターンを推定するとともに、フレーム上におけるその全体パターンの位置、向きおよびスケール変化などを推定することにより、正確なパターンの認識処理を行うことができるように、処理装置15を構成した。
【0038】
すなわち、上記処理装置15は、図1に示すように、モデル生成部151、局所パターン候補点抽出部152、モデル変形部153および類似度評価部154などの各種処理機能を具備し、認識対象画像の位置および向きを特定するための局所パターンの認識処理を通して、対象物10の位置決めなどに必要な対象物10の位置および向きを計測するように構成される。
【0039】
モデル生成部151は、事前準備として、図3(a)の例に示すように、適正な状態で得られた認識対象画像(以下「認識基準画像」という)を含むあらかじめ用意されたデジタル画像に対し、これに含まれる認識基準画像の全体パターン構造(形状)を解析して、認識基準画像の全体パターンを、複数の局所パターンとこれら局所パターン間をそれぞれ連結する連結パターンとに分類することにより、これら局所パターンおよび連結パターンを、これから認識する認識対象画像の認識処理に利用する認識用モデルとして生成し、それら局所パターンおよび連結パターンのデータを半導体記憶装置やハードディスク装置などに記憶して登録するものである(図2の#1)。
【0040】
なお、本実施形態では、認識基準画像から自動的に上記認識用モデルが生成されて登録される構成となるが、これに限らず、人があらかじめ認識基準画像の全体パターン構造を解析して認識用モデルを生成して登録するようにしてもよい。
【0041】
局所パターン候補点抽出部152は、認識対象画像を含むデジタル画像から、認識用モデルの局所パターンに符合する局所パターン候補の座標位置である局所パターン候補点を少なくともモデル変形過程における変形の推定に必要な数だけ抽出するとともに、各局所パターン候補点について認識用モデルの局所パターンごとに付与された局所パターンの当該デジタル画像上での方向を併せて求めるものである(図2の#2)。
【0042】
モデル変形部153は、局所パターン候補点抽出部152で抽出された局所パターン侯補点から、認識用モデルを構成する局所パターンのうち少なくとも2種類の相異なる局所パターンに符合する局所パターン候補点のペアを選び出すことによりフレームにおける認識対象画像の全体パターンの位置、方向、スケール変化を推定するものである(図2の#3)。
【0043】
類似度評価部154は、モデル変形部153で推定された認識対象画像の全体パターンとその認識対象画像との類似度を評価することにより、モデル変形部153での推定が正しいかどうか検証し、認識対象画像と認識用モデルとの照合を決定するものである(図2の#4)。
【0044】
以下、図面を適宜さらに追加しながら、上記モデル生成過程、局所パターン侯補点抽出過程、モデル変形過程および類似度評価過程の各々について順次説明する。
【0045】
(1)モデル生成過程
1.認識用モデルの生成登録
図4はモデル生成過程の処理により生成された認識用モデルの例を示す図である。図4において、p1〜p4が局所パターンであり、これらのうち、局所パターンp1,p3は認識基準画像の両端部分のパターンを示し、局所パターンp2,p4は認識基準画像のコーナー部分のパターンを示している。これらはいずれも認識対象画像の位置および向きを特定するために利用することができる非対称形状になっており、後述するモデル変形過程においてパターン変形を推定する必要があるために、少なくとも2つの局所パターンおよび少なくとも1つの連結パターンが事前に決定されて登録される。また、局所パターンp1〜p4には矢印で示される方向の情報が付与されるが、これらの各方向は認識基準画像の有る方向を示している。さらに、認識基準画像の画像データも、後述の局所パターン侯補点抽出過程の処理のために半導体記憶装置やハードディスク装置などに記憶される。
【0046】
上記局所パターンおよび連結パターンは、以下の「2.第1のモデル自動生成方法」〜「3.第2のモデル自動生成方法」のいずれかの方法によって自動的に生成される。
【0047】
2.第1のモデル自動生成方法
図5は認識基準画像を含むデジタル画像から抽出された輪郭線を示す図、図6は図5の輪郭線の曲率(半径の逆数)変化を表すグラフである。
【0048】
第1のモデル自動生成方法では、図5の輪郭線から図6に示すように輪郭線の曲率が求められ、この輪郭線の曲率が局所パターンの自動生成に利用される。図6に示すように、輪郭線の曲率値をあるしきい値で2分すれば、認識基準画像の全体パターンを示す輪郭線を、局所パターンp1〜p4と連結パターンl1〜l4とに分類することができる。このように、認識基準画像を含むデジタル画像から輪郭線を求め、この輪郭線の曲率をその輪郭線の各位置毎に求め、各曲率値を所定のしきい値で2分することにより、自動的に、認識基準画像の全体パターンを局所パターンp1〜p4と連結パターンl1〜l4とに分類し、これらを認識用モデルとして生成することができる。
【0049】
3.第2のモデル自動生成方法
図7は認識基準画像およびこれを含むデジタル画像中の複数の部分領域を示す図、図8は図7中の各部分領域内の明度変化方向を表すグラフである。ただし、図8(a)〜(d)はそれぞれ図7中の部分領域R1〜R4の明度変化方向を表す。また、これらの各明度変化方向を表すグラフは、図7に示すように、画面上方向きに明度が低くなるような明度変化方向を0°方向として時計回りに方向を定義したとき、各注目領域内に存在する全画素について明度変化方向を求め、そのヒストグラムを取ったものである。
【0050】
第2のモデル自動生成方法では、例えば輪郭線を得にくい場合に有効であり、図8に示すように明度変化方向の分布が利用される。認識基準画像を含むデジタル画像おける部分領域R1,R2では、図8(a),(b)に示すように、明度変化方向の分布に顕著なピークが2つ以上現れるのに対し、部分領域R3,R4では、図7(c),(d)に示すように、顕著なピークは多くても1つしか現れない。
【0051】
このように、認識基準画像を含むデジタル画像における各部分領域内の明度変化方向の分布を調べ、一の部分領域で異なる2方向以上に顕著な明度変化のピークが現れる場合、その部分領域内の部分画像のパターンを認識用モデルを構成する局所パターンとして抽出することができる。そして、抽出された局所パターンから、それらの間を連結する連結パターンを作成することができる。
【0052】
4.連結パターンの変形例
図9は連結パターンの他の形状例を示す図である。図4の例では、連結パターンは直線になっているが、図9の例に示すように、対象物10の形状に応じて連結パターンの形状を変化させてもよい。図9(a)は、少なくとも1つの中間節点を持つ折れ線形状の連結パターンの例を示している。図9(b)は、曲線形状の連結パターンの例を示している。これらの連結パターンは、数式データで登録することができるが、エッジが不明瞭である場合や、図9(c)に示すQFPチップ部品のリードのように複雑なエッジパターンが繰り返し現れるような場合には、認識基準画像を含むデジタル画像から切り出した部分画像の画像データがそのまま連結パターンのデータとして登録される。
【0053】
(2)局所パターン侯補点抽出過程
1.回転に影響されない手法
局所パターン侯補点抽出過程からは、認識基準画像ではなく、検査時などで、上記認識用モデルおよび認識基準画像を含むデジタル画像を利用して、カメラ11および量子化器12から得られ記憶装置13に記憶された認識対象画像を含むデジタル画像I12に対して処理が行われる。
【0054】
この過程においては、認識対象画像を含むデジタル画像に対し、認識用モデルを構成する局所パターンに符合する可能性の高い局所パターン候補の座標位置である局所パターン候補点を抽出し、この局所パターン候補点に上記対応する局所パターンに付与された方向の情報を割り付ける処理が実行される。
【0055】
この場合、図3(b)〜(h)に示すように、回転またはスケール変化などの変動がデジタル画像中の認識対象画像に加わっている可能性があるため、少なくとも回転に影響されない手法で局所パターン候補点の抽出等の処理が行われる。ここでは、画像の極座標→直交座標変換を行った上でマッチングを行う方法が用いられる。以下、これら極座標→直交座標変換およびマッチングについて説明する。
【0056】
2.極座標→直交座標変換およびマッチング
図10は極座標→直交座標変換処理の説明図、図11は認識対象画像を含むデジタル画像に対する極座標→直交座標変換処理によって得られうる直交変換画像例を示す図である。
【0057】
極座標→直交座標変換処理では、基準座標位置を求めるため、認識基準画像を含むデジタル画像に対し、図10(a)に示すように、ある注目点を中心とし、画面上向きを0°として時計周りに1周分角度を変化させながら、任意の半径の線分上の画素値を切り出し、図10(b)に示すように、横軸を角度軸、縦軸を注目点からの距離軸とした直交座標系へ転記して、極座標を直交座標に変換することにより、直交変換画像が生成される。同図では、注目点が黒地に白色の直角コーナーの部分画像中のコーナー点となっているので、直交変換画像は角度軸の1/4が明るい縞状のパターンとなる。
【0058】
同様に、図11に示すように、認識対象画像を含むデジタル画像に対して直交変換画像を生成する処理が実行される。図11(a)の例では、注目点が黒地に白色の直角コーナーの部分画像中のコーナー点の画素となっているので、図11(b)に示すように、直交変換画像は角度軸の1/4が明るい縞状のパターンとなる。これに対し、図11(c)の例では、注目点がコーナー点から外れた位置の画素となっているので、図11(d)に示すように、直交変換画像は角度軸の1/4が明るい縞状のパターンにはならない。
【0059】
いずれの場合も、注目点がコーナー点の画素となるときの直交変換画像は、縞状のパターンとなるので、このときの双方の明るい縞状のパターン領域同士を比較すれば、認識対象画像の注目点に、認識基準画像の注目点に位置する局所パターンに符合する局所パターン候補が存在しているか否かを判定することができるとともに、局所パターンに対し、局所パターン候補にどの程度の回転の変動が加わっているかを検出することができる。本実施形態では、局所パターン候補にどの程度の回転の変動が加わっているかを示す情報を含む局所パターン候補の座標位置を、局所パターン候補点として求め、この局所パターン候補点に、対応する局所パターンに付与された方向の情報を割り付ける処理が実行される。
【0060】
より具体的には、認識基準画像を含むデジタル画像の部分画像(注目点が中心となる上記半径の円内の画像)による直交変換画像のパターン(図10(b))と、認識対象画像を含むデジタル画像の部分画像による直交変換画像のパターン(図11(b))との相対位置を角度軸方向に移動させながら(角度軸は0°と360°の位置で連続とみなされる)、正規化相関値が順次計算される。
【0061】
続いて、得られた各正規化相関値から最大の正規化相関値が抽出され、この最大の正規化相関値が予め定められた一致度の基準値より大きいか否かの判定が行われる。
【0062】
最大の正規化相関値が基準値より大きい場合には、認識対象画像の注目点(図11(a))に、認識基準画像の注目点(図10(a))に位置する局所パターンに符合する局所パターン候補が存在していると判断される。そして、最大の正規化相関値となった位置から、局所パターン候補点が求められる。また、その最大相関値を与える移動量をもとに、局所パターン候補点に、対応する局所パターンに付与された方向を割り付けた情報が作成され、記憶装置13に記憶される。
【0063】
他方、最大の正規化相関値が基準値より大きくない場合には、認識対象画像の注目点(図11(c))に、認識基準画像の注目点(図10(a))に位置する局所パターンに符合する局所パターン候補が存在していないと判断される。つまり、上記基準値は、この場合の最大の正規化相関値よりも大きい値に設定されることになる。
【0064】
以上のように、認識基準画像を含むデジタル画像および認識対象画像を含むデジタル画像の両方に対し、極座標→直交座標変換処理を施して両方の直交変換画像を生成し、これら直交変換画像を用いて認識対象画像を含むデジタル画像から局所パターン候補点を抽出するようにすれば、回転に影響されることなく局所パターン候補点を抽出することができる。
【0065】
3.その他のマッチング方法
図12は直交変換画像が単純な縞状のパターンになる場合のマッチング方法の説明図、図13は直交変換画像が複雑なパターンになる場合のマッチング方法の説明図である。
【0066】
図12は図11と同様の直交変換画像であるが、このように直交変換画像が単純な縞状のパターンになる場合、認識対象画像を含むデジタル画像の部分画像による直交変換画像と認識基準画像を含むデジタル画像の部分画像による直交変換画像とをそれぞれ図12(b),(d)に示すような直交座標系の角度軸に投影(角度軸の単位ごとに、距離軸方向の画素値を合計する処理を実施)した上で、一次元の正規化相関マッチングを行えばよい。つまり、図12に示すように、上記投影により1次元の波形データを作成し、認識基準画像による波形データと認識対象画像による波形データとを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を局所パターン候補点に割り当てればよい。
【0067】
この方法を用いることにより、処理の負荷は大幅に低減できる。なお、この方法は局所パターンが単純な場合には投影した1次元のデータは元の局所パターン形状をよく反映するので特に有効であるが、局所パターンが複雑な場合であっても、回転角度を大まかに推定するための前処理として用いることができる。
【0068】
図13の例では、部分画像のパターンがスケール変動の影響を受ける形状になっており、直交変換画像のパターンがスケール変動の影響を受けてより複雑になっている。このように、スケール変動の影響を受けて直交変換画像が上下(距離軸方向)に圧縮ないし伸張(図13(c),(d)では伸張)されると、スケール変動の補正が必要となる。したがって、この場合、距離軸方向に圧縮ないし伸張された直交変換画像を、距離軸の正の方向に拡大ないし縮小した上で、マッチングを行えば、局所パターン候補を正しく抽出することが可能となる。
【0069】
4.極座標→直交座標変換およびマッチングの高速化
デジタル画像の各画素を注目画素として上記極座標→直交座標変換およびマッチングの処理を行うと、処理量が膨大となり、処理時間が長くなる。そこで、事前にエッジ抽出処理などを行って画素値の変化の大きい部分だけを取り出し、この部分の画素についてのみ前述の処理を行えば、処理の負荷を大幅に低減することができる。
【0070】
(3)モデル変形過程
1.変形候補
図14は認識対象画像例を示す図、図15は局所パターン侯補点抽出過程によって図14の認識対象画像から抽出された局所パターン侯補点を示す図、図16はモデル変形過程の説明図である。
【0071】
図15において、cp11〜cp14は図4の認識用モデルを構成する局所パターンp1,p3に符号する局所パターン候補点である。cp21,cp22は図4の局所パターンp2に符号する局所パターン候補点である。cp31〜cp36は図4のp4に符号する局所パターン候補点である。
【0072】
モデル変形過程では、これら局所パターン侯補点をもとに、変形推定が行われる。変形推定は、局所パターンおよび局所パターン侯補点から、相異なる2つ以上の局所パターンと類似しているとされた局所パターン侯補点の組を選び出すことにより、全体パターンの回転、移動、スケール変動のパラメータを決定することを意味する。
【0073】
具体的には、図16の例に示すように、それぞれ図4に示す認識用モデルと図15に示す局所パターン侯補点を次のように対応付けして、変形された認識用モデルの候補となる変形候補df1〜df4が作成ないし選定される。ただし、以下の変形候補以外にも多数の変形候補が考えられるが、ここではその一部を示してある。
【0074】
このように、モデル変形過程では、局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補が選定される。
【0075】
また、選定された変形候補の各局所パターン侯補点の位置関係をもとに、認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを認識対象画像に重ね合わせる際の各変形パラメータが求められる。
【0076】
例えば、図3(b)〜(g)のように、パターンの形状およびパターンの明度に変動がある場合であっても、前述の局所パターン候補点抽出過程において、局所パターン候補点はパターンのスケール、回転、明度などの各変動に影響されにくい方法で検出されているので、各局所パターン候補点は正しく求められているから変形候補を抽出できる。また、図3(e)および(g)に示す局所的な明度ムラやノイズ重畳の程度がひどく、局所パターンが見えない場合や、図3(i)のように一部の局所パターンが障害物に隠されている場合に、複数(実施形態に示すパターンの場合、図4のp1〜p4に示す4種類)の局所パターンのうち、幾つかの局所パターンに符合する局所パターン候補点が見つからなかったとしても、最低限2種類の局所パターンに符合する局所パターン候補点があれば変形候補を抽出できる。また、図3(h)のように、連結パターンに符合する部分が隠されている場合には、局所パターンは問題なく見えているのでモデル変形過程において影響はない。
【0077】
2.高速化処理
次に、高速化のために上記変形候補の絞込みが行われる。前段の局所パターン侯補点抽出過程では、局所パターンの種類毎にパターンが類似している座標位置とともに方向を抽出しているので、その方向が利用される。
【0078】
すなわち、変形候補の全体パターンに対する局所パターン侯補点の方向の角度と、認識用モデルの全体パターンに対する局所パターンの方向の角度とを比較し、両者の角度差が所定角よりも大きければ、その変形候補は、ありえない変形であるとして除外される。
【0079】
例えば、図16中の変形候補df1〜df4のうち、変形候補df4の全体パターンに対する局所パターン侯補点cp12の方向の角度と、図4の認識用モデルの全体パターンに対する局所パターンp1の方向の角度とが大きく異なっているので、変形候補df4が除外されることになる。また、このような場合の両者の角度差よりも小さい値に上記所定角が設定されることになる。これにより、図16の変形候補df1〜df4が作成ないし選定されたとき、変形候補df1〜df3に絞り込まれることになる。
【0080】
(4)類似度評価過程
1.照合
類似度評価過程では、認識対象画像とこれに対する変形モデルとを照合し、各変形モデルから最適な変形モデルを選択する処理が実行される。
【0081】
具体的には、モデル変形過程で求められた変形候補の変形パラメータに基づいて、認識用モデルを変形し、この変形した認識用モデルを認識対象画像に重ね合わせ、変形候補と認識対象画像との類似度を評価する処理が実行される。
【0082】
このとき、連結パターンが認識用モデルにおいてどのように表現されているか(画像か、数式化されているか)や画像の特性や認識の目的(明度ムラやパターン隠れが頻発するかどうか、あるいは単独バターンの認識を目的とするか、複数の類似パターンの識別を目的とするかなど)によって、種々の類似度評価方法から適切な類似度評価方法が選択されて使用される。以下、各類似度評価方法について説明する。
【0083】
2.連結パターンが画像データである場合の類似度評価方法
図17は類似度評価方法の説明図である。認識基準画像を含むデジタル画像において、局所パターン間の部分画像が不明瞭なパターンであったり、複雑なパターンであったりする場合には、局所パターン間の部分画像がそのまま連結パターンとして使用される。このとき、図17の例に示すように、連結パターンを構成する部分画像を、上記変形候補の変形パラメータ(スケール、回転など)に合わせて変形させることにより、連結パターンを変形することができる。そして、この変形した連結パターン候補を含む変形した認識用モデルの全体パターンと、認識対象画像とを、正規化相関マッチングでマッチングすれば、類似度評価値を得ることができる。
【0084】
3.連結パターンが数式データである場合の類似度評価方法
認識用モデルを構成する連結パターンが、エッジ形状を数式化したものである場合には、変形モデルと認識対象画像との照合方法は、画像の特性に応じて幾つかの方法を選択することができる。
【0085】
(第1の照合方法)
図18は連結パターンが数式データである場合の第1の照合方法の説明図である。第1の照合方法では、正規化相関法による照合方法が使用される。図16に示す変形候補df1〜df3について、図18に示すように認識用モデルの輪郭線内にある領域Piと認識用モデル輪郭の近傍の領域Oiに含まれる画素に対して以下の数式に基づいて相関係数S1を計算し、最も相関係数が高いものを最適な照合として選択する。
【0086】
【数1】
【0087】
第1の照合方法によれば、多数の画素値を利用して照合を行うことができるため、明度ムラに弱い反面、類似した多数のパターンから最も類似したものを選択する必要がある場合やコントラストが低い場合などに信頼性の高い照合が可能となる。
【0088】
(第2の照合方法)
図19は連結パターンが数式データである場合の第2の照合方法の説明図である。図19(a)は図16のdf1による変形モデルに対する照合方法を示し、図19(c)は図16のdf2による変形モデルに対する照合方法を示す。
【0089】
第2の照合方法では、パターンのエッジ付近の明度変化を用いて類似度を評価する方法が使用される。
【0090】
図19に示すl11〜l1m,l21〜l2n(mおよびnはサンプリング点数)のように、図4の局所パターンp1の位置を始点とし、変形モデルの連結パターン候補に沿って、時計回りに連結パターン候補上にサンプリング点を複数配置する。続いて、サンプリング点ごとにサンプリング点を中心として連結パターン候補の法線方向に伸びる長さlの線分(以下「サンプリングライン」という)を設定する。このとき、サンプリングラインに沿って明度を抽出すると、図19(b),(d)に示すような結果となる。
【0091】
これらの図に示す各サンプリングラインの明度変化について、サンプリングラインの中点(変形モデルの連結パターン候補上の位置)で、理想的なステップ状(図20参照)に変化するエッジパターンとの相関係数S2を、以下の数式により求めれば、エッジ付近の画素のみを用いた照合ができる。
【0092】
【数2】
【0093】
最適な照合である図16のdf1の変形に対しては、図19(b)に示すごとく、エッジと理想的なステップ状エッジパターンの形状が各々のサンプリングラインにおいてよく類似しているため、相関係数S2が高くなる。他方、エッジ位置がずれている図16のdf2の変形に対しては、図19(d)に示すごとく、エッジと理想的なステップ状エッジパターンの形状が異なるため相関係数S2が低くなる。このことを利用して、複数の変形モデルから最適な照合を得ることが可能となる。このように、エッジ付近の明度変化のみを用いて照合を行うことにより、パターン内部に明度変動を起こしやすいパターンが存在する場合に信頼性の高い照合を行うことができる。
【0094】
(第3の照合方法)
第3の照合方法では、第2の照合方法と同じ手順によりサンプリングラインを設定した後、次式により類似度を計算する方法が使用される。
【0095】
【数3】
【0096】
第2の照合方法と第3の照合方法との違いは、前者の方法では各サンプリングラインの明度変化を全て合計して、相関係数を1回だけ算出しているのに対し、後者の方法では相関係数を各サンプリングラインごとに計算し、その平均値を取っている点である。
【0097】
前者の方法は、第1の照合方法において連結パターン候補の周囲だけを切り出して相関係数を算出する処理に相当するので、パターン内部に明度変動が起きやすい部分が存在する場合に、その部分の影響を排除できる特長があるが、連結パターン部分に明度のムラがある場合には誤認識を起こす可能性がある。
【0098】
これに対し、後者の方法によれば、各サンプリングラインごとに相関係数を計算することにより、連結パターン部分に大きな明度ムラがある場合にも信頼性の高い照合が可能となる特長がある。
【0099】
また、第1〜第3の照合方法において、計算した相関係数の値は−1〜1の間の数値を取るが、この相関係数は絶対値を取っても良い。こうすることにより、パターンの明暗が反転している場合であっても照合が可能となる。
【0100】
(第4の照合方法)
図21は連結パターンが数式データである場合の第4の照合方法の説明図、図22はエッジ位置の検出方法の説明図である。
【0101】
第4の照合方法では、エッジ位置を用いる方法が使用される。第2および第3の方法と同様、変形モデルの連結パターン候補に直交するサンプリングラインを複数設定し、サンプリングラインごとにエッジ位置を検出する。図21にはサンプリングラインごとにエッジ位置を抽出した状態が示されている。この各エッジ位置と線上パターンとの距離の平均を求め、平均距離が最小となる変形モデルを最適な照合として採用する。
【0102】
第4の照合方法において、エッジを検出する方法としては、微分値の最大値を用いる方法が簡便であるが、図22に示すように、サンプリング線の任意の位置の右側の明度平均値a1と左側の明度平均値a2を求め、|a1−a2|が最大となる位置をエッジ位置として用いることにより、エッジ付近での局所的な明度変化の影響を受けることなく正しいエッジ位置の検出が可能となる。
【0103】
第4の照合方法には、最適な変形モデルの選択と同時に実際の認識対象画像におけるエッジの抽出も行うことができる特長がある。連結パターンが数式により表現されている場合には、抽出されたエッジ位置をもとに連結パターンの数式に最小自乗近似することにより、局所パターンの形状の影響によるマッチングのズレやパターンの歪み(相似変形でない変形)を補正し、認識精度を向上することができる。
【0104】
以上のように、モデル生成過程、局所パターン侯補点抽出過程、モデル変形過程、類似度評価過程の4つの処理過程を経ることにより、回転、サイズ変動はもとより、明度ムラ、ピントずれ、コントラスト低下、ノイズ、パターン隠れなどの変動が生じても認識ミスを発生しない頑健な認識が実現されるのである。
【0105】
なお、上記4つの処理過程の各過程における処理方法は、複数の特性の異なる方法から目的によって最適な処理方法やパラメータを選ぶ必要がある。したがって、使用者が各処理方法の特性を理解していないと最適な処理方法が採用できない問題があるので、この点を自動化することにより利便性を向上できる。
【0106】
具体的には、例えば連結パターンのデータが画像データであるか、エッジ形状の数式化されたデータであるかに応じて、類似度評価過程における照合方法を変更すればよく、あるいはパターン内部にまた別のパターンが存在するかどうかの情報を元に、類似度評価過程において第1の照合方法を用いるか第2の照合方法を用いるかを決定すればよい。この場合、局所パターンおよび連結パターンの特徴と、パターンの認識に対する最適な処理方法や認識パラメータとの関係を記述したデータベースをあらかじめ作成しておき、モデル生成過程において、検出すべきパターンの解析を行って局所パターンおよび連結パターンの分類を行う際、データベースを参照して後段の処理手順を決定するようにすればよい。
【0107】
また、時系列的に変動する要因を調べるために、複数の画像に対して認識を実行し、その結果をもとに最適な処理方法やパラメータを選ぶことにより、さらに利便性を向上することができる。具体的には、複数の画像に対して行った認識結果をもとに、明度ムラが多く発生していれば類似度評価過程における第3の照合方法を採用し、そうでなければ第1の照合方法を採用する方法などが挙げられる。この場合も、局所パターンおよび連結パターンの画像間変動の特徴と、パターンの認識に対する最適な処理方法および認識パラメータとの関係を記述したデータベースをあらかじめ作成しておき、複数の画像を用いた認識結果をもとにデータベースを参照して後段の処理手順を決定するようにすればよい。
【0108】
また、このように複数の教示用画像を用いる場合には、上記のように処理方法やパラメータだけでなく、認識用モデルの形状の変動も得ることができる。複数の教示用画像から局所パターンデータおよび連結パターンデータを抽出し、ある基準となる教示用画像(通常1枚目の画像)に合わせて他の教示用画像から得られた局所パターンデータおよび連結パターンデータを正規化し、データの平均および変動量を求めることにより、単一の教示用画像のみから認識用モデルを構築する場合よりも信頼性の高い認識が可能な認識用モデルを構築することができる。
【0109】
時系列で入力される連続画像に対する処理の場合には、時系列のある時点における認識方法をそれまでの認識結果を用いて変更することにより、認識速度の向上を図ることができる。
【0110】
上記連続画像に対する処理に係わる第1の方法として、先に行ったパターン照合の結果をもとに認識用モデルを変更する方法が考えられる。図23に示すように、パターンが連続して歪みを起こす場合には、上述した相似変形でない変形を補正する場合と同様に、パターンの歪みを補正してパターン照合し、照合の結果を用いて局所パターンあるいは連結パターンを順次変更することにより、時系列で相似変形以外の変形を起こす対象物の追跡が可能となる。
【0111】
連続画像に対する処理に係わる第2の方法として、先に行ったパターン照合の結果をもとに処理方法を変更する方法が挙げられる。図24に示すようにパターンが連続して回転、スケール変動するような連続画像においては、その時点より前の照合結果をもとに局所パターン侯補点抽出過程において局所パターンの位置、回転、スケール変動のパラメータを推定し、局所パターン侯補点抽出の際の探索範囲や局所パターンの回転範囲を限定することによりマッチング処理を効率化したり、抽出する局所パターン侯補点を絞り込むことにより後段の処理過程を効率化することができる。
【0112】
【発明の効果】
請求項1記載の発明は、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、画像処理装置が認識対象画像の特定パターンを認識する特定パターン認識方法であって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程とを含むので、認識対象画像のパターンに、回転、サイズ変動、ピントずれ、明度ムラ、コントラスト低下、ノイズ、パターン隠れ等の変動が生じている場合であっても、認識対象画像の全体のうち、認識対象画像の位置および向きを特定することができる部分が正常に撮影されていれば、その部分に対応する局所パターンをもとに、認識対象画像の全体パターンを推定して認識対象画像との照合を行うことができるから、照明変動や障害物、位置決め誤差などの環境の変動の影響などを受け難い頑健な認識が可能となる。
【0113】
請求項2記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像の輪郭線を求め、この輪郭線における曲率値が所定値よりも大きい領域の部分画像から、前記局所パターンを抽出するので、画像のコントラストが高く輪郭線を容易に得ることができる場合には、位置、方向を特定しやすい局所パターンを簡単に抽出することができる。
【0114】
請求項3記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像の部分画像について、画素毎に明度変化方向を求め、少なくとも異なる2方向に明度変化のピークが現れる部分の画像のパターンを前記局所パターンとして抽出するので、請求項2記載の発明では輪郭検出が困難な複雑なパターンの場合に、方向画像のヒストグラムを作ってピークが2つある所を探すなどの方法により局所パターンを抽出することができる。
【0115】
請求項4記載の発明は、請求項1記載の特定パターン認識方法において、前記連結パターンは画像パターンであるので、連結パターンが複雑な形状をしている場合や不明瞭なパターンである等の理由でエッジ形状を数式で表現することが困難な場合にも連結パターンの表現が可能となる。
【0116】
請求項5記載の発明は、請求項1記載の特定パターン認識方法において、前記連結パターンは、直線、少なくとも1つの中間節点を持つ折れ線および曲線のいずれかであり、その連結パターンデータは数式データであるので、認識用モデルのデータ量を小さくすることができる。また、パターン照合および位置検出方法によって精度の向上や歪んだパターンの照合が可能になる。
【0117】
請求項6記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像から、前記局所パターンの中心位置を原点とする極座標を、原点を中心とした角度を示す角度軸と原点からの距離を示す距離軸とを有する直交座標に変換して、直交変換画像を作成し、前記局所パターン候補点抽出過程では、前記認識対象画像を含むデジタル画像から、ある注目点を原点とする極座標を直交座標に変換して、直交変換画像を作成し、この直交変換画像と前記モデル生成過程で作成された直交変換画像とを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を前記局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を前記局所パターン候補点に割り当てるので、パターンが回転している場合にも局所パターンを抽出するとともに方向も割り当てることができる。
【0118】
請求項7記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、前記認識基準画像を含むデジタル画像から、前記局所パターンの中心位置を原点とする極座標を、原点を中心とした角度を示す角度軸と原点からの距離を示す距離軸とを有する直交座標に変換して、直交変換画像を作成し、この直交変換画像を角度軸に投影して1次元の波形データを作成し、前記局所パターン侯補点抽出過程では、前記認識対象画像を含むデジタル画像から、ある注目点を原点とする極座標を直交座標に変換して、直交変換画像を作成し、この直交変換画像を角度軸に投影して1次元の波形データを作成し、この1次元の波形データと、前記モデル生成過程で作成された波形データとを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を前記局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を前記局所パターン候補点に割り当てるので、パターンが回転している場合に簡易な1次元のパターンマッチングによりパターンの類似度および方向を求めることができる。
【0119】
請求項8記載の発明は、請求項6記載の特定パターン認識方法において、前記認識対象画像を含むデジタル画像から抽出した直交変換画像を距離軸方向に拡大または縮小して、前記モデル生成過程で作成された直交変換画像とマッチングするので、パターンの回転とともにスケール変化が生じている場合であっても局所パターンを抽出することができる。
【0120】
請求項9記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターン侯補点抽出過程では、局所的に画素値の変化の大きい部分だけを事前に抽出し、その部分のみに対して局所パターン候補点抽出処理を行うので、局所パターン抽出処理の負荷を軽減することができる。
【0121】
請求項10記載の発明は、請求項1記載の特定パターン認識方法において、前記モデル変形過程では、前記変形候補の局所パターン候補点の方向と、対応する前記局所パターンの方向との角度差が所定角より大きい場合、その変形候補を前記類似度評価過程での類似度の評価から除外するので、類似度評価過程における処理の負荷を軽減することができる。
【0122】
請求項11記載の発明は、請求項4記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが画像データである場合、前記モデル変形過程で求められた変形候補の変形パラメータに基づいて、前記連結パターンを変形し、この変形した連結パターンを含む変形した認識用モデルの全体パターンと前記認識対象画像とのマッチングを行うので、連結パターンとして使用するパターンが複雑であったり不明瞭であったりするために連結パターンとして画像を用いている場合に正しいマッチングを行うことができる。
【0123】
請求項12記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定された全てのサンプリングライン上の画素値の分布と、連結パターン候補の位置で画素値がステップ状に変化する理想パターンとの相関値を算出して類似度とするので、内部パターンを無視してエッジ近傍における類似度だけを評価することができるため、パターン内部に明度ムラや明度が変化するようなパターンが存在する場合にも正しいマッチングを行うことができる。
【0124】
請求項13記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定されたサンプリングライン上の画素値の分布と、サンプリング点部分で画素値がステップ状に変化する理想パターンとの類似度を調べる処理をサンプリングラインごとに行い、類似度を全てのサンプリングラインに対して求めて平均値を算出し全体の類似度とするので、大きな明度ムラが存在する場合にも正しいマッチングを行うことができる。
【0125】
請求項14記載の発明は、請求項11から13のいずれかに記載の特定パターン認識方法において、前記認識対象画像に明暗のコントラスト反転が生じることが既知である場合、類似度として正規化相関値の絶対値を用いるので、明度のコントラスト反転が生じていても正しいマッチングを行うことができる。
【0126】
請求項15記載の発明は、請求項5記載の特定パターン認識方法において、前記類似度評価過程では、前記連結パターンのデータが線状のパターンを表す数式を用いて表される場合、前記連結パターンから得られた連結パターン候補上にサンプリング点を複数設定し、これらの各サンプリング点を中心として連結パターン候補の法線方向に任意長のサンプリングラインを設定し、設定された全てのサンプリングラインの各々についてエッジ位置を求め、エッジ位置と連結パターンの距離の平均値をもって類似度とするので、類似度判定と同時にエッジ抽出を行うことができ、実際の画像上でパターンの輪郭形状を求めることができる。
【0127】
請求項16記載の発明は、請求項15記載の特定パターン認識方法において、前記サンプリングラインのある注目位置の左右で画素値の平均値を求め、平均画素値の差の絶対値を求め、注目位置を前記サンプリングラインの範囲内で移動させながら、平均画素値の差の絶対値を順次求め、その絶対値が最大となる位置をエッジ位置として用いるので、局所的な特徴によりエッジ位置が著しく不正な位置に検出される危険を回避できる。
【0128】
請求項17記載の発明は、請求項15記載の特定パターン認識方法において、前記連結パターンの各々について、エッジ位置をもとに最小自乗法を用いて連結パターンの数式に当てはめるので、局所的にエッジ形状が乱れている場合にも正確なエッジ位置の推定が可能となる。
【0129】
請求項18記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターンおよび連結パターンの特徴と、これらパターンの認識に対する最適な処理方法および認識パラメータのうち少なくとも一方との関係を記述したデータベースを予め作成し、前記認識用モデルを生成するモデル生成過程として、検出するべきパターンの特徴の解析を行い、この解析結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定する過程をさらに含むので、利用者側がアルゴリズムや認識パラメータを決定する必要がなく、システムとしての使い勝手が向上する。
【0130】
請求項19記載の発明は、請求項1記載の特定パターン認識方法において、前記局所パターンおよび連結パターンの画像間変動の特徴と、それらパターンの認識に対する最適な処理方法および認識パラメータのうち少なくとも一方との関係を記述したデータベースを予め作成し、複数の教示画像に対して試験的に認識を行い、この認識結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定するので、時系列変化がある対象物にシステムを使用する場合の使い勝手を向上する。
【0131】
請求項20記載の発明は、請求項1記載の特定パターン認識方法において、前記認識用モデルを生成するモデル生成過程をさらに含み、このモデル生成過程では、同じパターンを撮影して得た前記認識基準画像を含むデジタル画像を複数、教示用画像として用いる場合、前記局所パターンデータおよび連結パターンデータの画像間変動を正規化して統合するので、単一の教示用画像のみから認識用モデルを構築する場合よりも信頼性の高い認識が可能な認識用モデルを構築することができる。
【0132】
請求項21記載の発明は、請求項1記載の特定パターン認識方法において、時系列で連続して入力されるデジタル画像に対してパターン照合および位置検出を行い、パターンの追跡を行う場合に、先に行ったパターン照合の結果をもとに前記認識用モデルを変更するので、時系列で相似変形以外の変形を起こす対象物の追跡が可能となる。
【0133】
請求項22記載の発明は、請求項1記載の特定パターン認識方法において、時系列で連続して入力されるデジタル画像に対してパターン照合および位置検出を行い、パターンの追跡を行う場合に、先に行った位置検出の結果をもとに、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法を随時変更するので、パターンの探索範囲の絞り込みなどが可能となり、より効率的なパターン照合および位置検出が可能となる。
【0134】
請求項23記載の発明は、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、画像処理装置が認識対象画像の特定パターンを認識する特定パターン認識方法の処理手順を含む特定パターン認識プログラムであって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程とを含むので、専用の画像処理装置以外の装置であっても、照明変動や障害物、位置決め誤差などの環境の変動の影響などを受け難い頑健な認識が可能となる。
【0135】
請求項24記載の発明の特定パターン認識プログラム記録媒体は、請求項23記載の特定パターン認識プログラムを前記コンピュータにより読み取り可能に記録したので、専用の画像処理装置以外の装置であっても、照明変動や障害物、位置決め誤差などの環境の変動の影響などを受け難い頑健な認識が可能となる。
【0136】
請求項25記載の発明は、撮像を行う撮像手段と、この撮像手段により撮像された画像信号から2次元マトリクスの各格子点ごとに明度値が記録されたデジタル画像を得る量子化手段と、この量子化手段で得られたデジタル画像のデータを少なくとも記憶する記憶手段とを備え、デジタル画像に含まれる特定パターンを有する認識対象画像の位置および向きを特定することができるものであって、前記認識対象画像に対応する基準となる認識基準画像を含むデジタル画像から得られ一の方向がそれぞれに付与された少なくとも2つの局所パターンと、これら局所パターン間を連結する少なくとも1つの連結パターンとから構成される認識用モデルを利用して、認識対象画像の特定パターンを認識する特定パターン認識装置であって、前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出手段と、この局所パターン候補点抽出手段で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形手段と、このモデル変形手段で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価手段とを含むので、照明変動や障害物、位置決め誤差などの環境の変動の影響などを受け難い頑健な認識が可能となる。
【図面の簡単な説明】
【図1】特定パターン認識装置の構成図である。
【図2】図1中の処理装置によって実行される特定パターン認識方法の処理の流れを示すフローチャートである。
【図3】図1中のカメラおよび量子化器から得られうる各種デジタル画像の例を示す図である。
【図4】モデル生成過程の処理により生成された認識用モデルの例を示す図である。
【図5】認識基準画像を含むデジタル画像から抽出された輪郭線を示す図である。
【図6】図5の輪郭線の曲率(半径の逆数)変化を表すグラフである。
【図7】認識基準画像およびこれを含むデジタル画像中の複数の部分領域を示す図である。
【図8】図7中の各部分領域内の明度変化方向を表すグラフである。
【図9】連結パターンの他の形状例を示す図である。
【図10】極座標→直交座標変換処理の説明図である。
【図11】認識対象画像を含むデジタル画像に対する極座標→直交座標変換処理によって得られうる直交変換画像例を示す図である。
【図12】直交変換画像が単純な縞状のパターンになる場合のマッチング方法の説明図である。
【図13】直交変換画像が複雑なパターンになる場合のマッチング方法の説明図である。
【図14】認識対象画像例を示す図である。
【図15】局所パターン侯補点抽出過程によって図14の認識対象画像から抽出された局所パターン侯補点を示す図である。
【図16】モデル変形過程の説明図である。
【図17】類似度評価方法の説明図である。
【図18】連結パターンが数式データである場合の第1の照合方法の説明図である。
【図19】連結パターンが数式データである場合の第2の照合方法の説明図である。
【図20】理想的なエッジにおける明度変化を示す図である。
【図21】連結パターンが数式データである場合の第4の照合方法の説明図である。
【図22】エッジ位置の検出方法の説明図である。
【図23】パターンに時系列で連続して歪みを生じる状態のデジタル画像例を示す図である。
【図24】パターンに時系列で連続して相似変形する状態のデジタル画像例を示す図である。
【符号の説明】
10 対象物
11 カメラ
12 量子化器
13 記憶装置
14 画像表示装置
15 処理装置
151 モデル生成部
152 局所パターン候補点抽出部
153 モデル変形部
154 類似度評価部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a pattern recognition technique applied to electronic circuit positioning and the like, in which a known pattern is stored in advance in a storage means, and this is compared with an input image, so that the known pattern is similar in the image. This is a technique for detecting geometrical parameters such as position, rotation angle, and scale fluctuation when it appears to be deformed, and in particular, an image extracted from an image due to pattern brightness fluctuation, overlap with other patterns, noise generation, etc. The present invention relates to a specific pattern recognition method, a specific pattern recognition program, a specific pattern recognition program recording medium, and a specific pattern recognition device, which can detect a correct geometric parameter even when a feature amount becomes unstable.
[0002]
[Prior art]
In a pattern recognition technology that detects a known pattern from an input image, when the pattern to be detected is only subjected to translation without scale fluctuation or rotation, the pattern image itself is stored in advance as a template. The normalized correlation value between the template and the image at any position on the image (the pixel value of the image cut out to the same size as the template at an arbitrary position of the recognition target image, and the template pixel value There is widely known a normalized correlation pattern matching method for calculating a correlation coefficient between the two and detecting a position where the normalized correlation value is maximized.
[0003]
Further, in the invention described in Japanese Patent Application Laid-Open No. 60-258689 as an example of a recognition method when there is a possibility that the pattern of the recognition target image is rotated, the perimeter of the pattern is obtained from an image obtained by photographing a plurality of patterns. Calculating feature quantities such as area and area, comparing the feature quantity with the feature quantity of the known pattern to detect the desired pattern, and further identifying the rotation angle and position by detecting the straight line part included in the pattern By doing so, it is possible to recognize a pattern in which rotation occurs.
[0004]
[Problems to be solved by the invention]
However, in the normalized correlation method, the position is not correctly detected even when pattern rotation or scale variation occurs as described above, or when partial brightness variation or partial pattern concealment occurs. was there.
[0005]
In addition, the invention described in Japanese Patent Application Laid-Open No. 60-258689 cannot be applied when the pattern to be recognized and the background pattern cannot be separated into a binary image, such as when noise or brightness unevenness is large. was there.
[0006]
The present invention has been made in view of the above circumstances, and a specific pattern recognition method and a specific pattern recognition program capable of robust recognition that are not easily affected by environmental fluctuations such as illumination fluctuations, obstacles, and positioning errors. Another object is to provide a specific pattern recognition program recording medium and a specific pattern recognition device.
[0007]
[Means for Solving the Problems]
The invention according to
[0008]
The invention according to
[0009]
According to a third aspect of the present invention, in the specific pattern recognition method according to the first aspect, the method further includes a model generation process for generating the recognition model, and the model generation process includes a partial image of the digital image including the recognition reference image. For each pixel, a brightness change direction is obtained for each pixel, and a pattern of an image in which a peak of brightness change appears in at least two different directions is extracted as the local pattern.
[0010]
According to a fourth aspect of the present invention, in the specific pattern recognition method according to the first aspect, the connection pattern is an image pattern.
[0011]
According to a fifth aspect of the present invention, in the specific pattern recognition method according to the first aspect, the connection pattern is any one of a straight line, a broken line having at least one intermediate node, and a curve, and the connection pattern data is mathematical data. It is characterized by being.
[0012]
According to a sixth aspect of the present invention, in the specific pattern recognition method according to the first aspect of the present invention, the method further includes a model generation process for generating the recognition model, and in the model generation process, from the digital image including the recognition reference image, A polar coordinate having the center position of the local pattern as an origin is converted into an orthogonal coordinate having an angle axis indicating an angle centered on the origin and a distance axis indicating a distance from the origin to create an orthogonal transform image, and In the pattern candidate point extraction process, from the digital image including the recognition target image, polar coordinates having a certain point of interest as an origin are converted into orthogonal coordinates to generate an orthogonal conversion image. In the orthogonal conversion image and the model generation process, While translating the created orthogonal transformation image in the direction of the angle axis, the similarity is obtained sequentially, the maximum similarity is extracted from each of these similarities, and this maximum similarity is predetermined. If it is larger than the reference, the position of the orthogonal transformation image when the maximum similarity is obtained is set as the position of the local pattern candidate point, and the corresponding local pattern is determined based on the movement amount that gives the maximum similarity. The given direction is assigned to the local pattern candidate point.
[0013]
The invention according to claim 7 further includes a model generation process for generating the recognition model in the specific pattern recognition method according to
[0014]
The invention according to claim 8 is the specific pattern recognition method according to claim 6, wherein the orthogonal transformation image extracted from the digital image including the recognition target image is enlarged or reduced in the distance axis direction and created in the model generation process. It matches with the orthogonal transformation image which was made.
[0015]
According to a ninth aspect of the present invention, in the specific pattern recognition method according to the first aspect, in the local pattern interpolation point extraction process, only a portion having a large change in pixel value is extracted in advance, and only that portion is extracted. On the other hand, a local pattern candidate point extraction process is performed.
[0016]
According to a tenth aspect of the present invention, in the specific pattern recognition method according to the first aspect, in the model deformation process, an angle difference between the direction of the local pattern candidate point of the deformation candidate and the direction of the corresponding local pattern is predetermined. If the angle is larger than the corner, the deformation candidate is excluded from the similarity evaluation in the similarity evaluation process.
[0017]
The invention according to
[0018]
According to a twelfth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern A plurality of sampling points are set on the connection pattern candidates obtained from the above, and sampling lines of arbitrary length are set in the normal direction of the connection pattern candidates around these sampling points, and all of the set sampling lines are set. A correlation value between a distribution of pixel values and an ideal pattern in which pixel values change stepwise at the position of a connected pattern candidate is calculated and used as a similarity.
[0019]
According to a thirteenth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern Set multiple sampling points on the connected pattern candidate obtained from, set an arbitrary length sampling line in the normal direction of the connected pattern candidate around these sampling points, and set the pixel value on the set sampling line The process of examining the similarity between each distribution and the ideal pattern in which the pixel value changes stepwise at the sampling point is performed for each sampling line, and the average is calculated by calculating the similarity for all sampling lines. It is characterized by the similarity.
[0020]
According to a fourteenth aspect of the present invention, in the specific pattern recognition method according to any one of the eleventh to thirteenth aspects, when it is known that contrast inversion of light and darkness occurs in the recognition target image, the normalized correlation value is used as the similarity. The absolute value of is used.
[0021]
According to a fifteenth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern A plurality of sampling points are set on the connection pattern candidate obtained from the above, and a sampling line of an arbitrary length is set in the normal direction of the connection pattern candidate around each sampling point, and each of all the set sampling lines is set. The edge position is obtained for, and the average value of the distance between the edge position and the connection pattern is used as the similarity.
[0022]
According to a sixteenth aspect of the present invention, in the specific pattern recognition method according to the fifteenth aspect, an average value of pixel values is obtained on the left and right of an attention position with the sampling line, an absolute value of a difference between the average pixel values is obtained, and an attention position The absolute value of the difference between the average pixel values is sequentially obtained while moving within the sampling line range, and the position where the absolute value is maximum is used as the edge position.
[0023]
According to a seventeenth aspect of the present invention, in the specific pattern recognition method according to the fifteenth aspect, each of the connection patterns is applied to a mathematical expression of a connection pattern using a least square method based on an edge position.
[0024]
The invention according to claim 18 is the specific pattern recognition method according to
[0025]
According to a nineteenth aspect of the present invention, in the specific pattern recognition method according to the first aspect, at least one of a feature of inter-image variation of the local pattern and the connection pattern, an optimum processing method for the recognition of the patterns, and a recognition parameter, A database describing the relationship between the local pattern candidate points, a plurality of teaching images are experimentally recognized, and the local pattern candidate point extraction process and model deformation process are performed by referring to the database based on the recognition results. In addition, at least one of a processing method and a recognition parameter in each process of the similarity evaluation process is determined.
[0026]
The invention according to claim 20 is the specific pattern recognition method according to
[0027]
According to a twenty-first aspect of the present invention, in the specific pattern recognition method according to the first aspect, when pattern matching and position detection are performed on a digital image continuously input in time series, and the pattern is traced, The recognition model is changed on the basis of the result of pattern matching performed in (1).
[0028]
According to a twenty-second aspect of the present invention, in the specific pattern recognition method according to the first aspect, when pattern matching and position detection are performed on a digital image continuously input in time series, and the pattern is traced, On the basis of the result of the position detection performed in the above, the processing method in each process of the local pattern candidate point extraction process, model deformation process, and similarity evaluation process is changed as needed.
[0029]
The invention according to claim 23 is capable of specifying the position and orientation of a recognition target image having a specific pattern included in a digital image, and includes a recognition reference image serving as a reference corresponding to the recognition target image. An image processing apparatus uses a recognition model composed of at least two local patterns obtained from a digital image, each of which is assigned one direction, and at least one connection pattern connecting the local patterns. A specific pattern recognition program including a processing procedure of a specific pattern recognition method for recognizing a specific pattern of a recognition target image, wherein the local pattern matches each of at least two different local patterns among the local patterns constituting the recognition model A local pattern candidate point that is a position of the pattern candidate is displayed as a digital image including the recognition target image. A local pattern candidate point extraction process in which at least one is extracted from and a direction given to the corresponding local pattern is assigned to the at least one local pattern candidate point, and the local pattern candidate extracted in the local pattern candidate point extraction process By extracting at least one set of local pattern candidate points that match at least two different local patterns from the points, a deformation candidate consisting of each local pattern compensation point of the extracted set is selected and selected When the position, scale, and angle of the recognition model are modified based on the positional relationship between the local pattern compensation points of the deformation candidates, and the entire pattern of the recognition model is superimposed on the recognition target image. Based on the model deformation process for obtaining each deformation parameter of the image and the deformation parameter obtained in the model deformation process, the recognition Deforming the model, the recognition model this deformation superposed on the recognition target image, characterized in that it comprises a similarity evaluation process for evaluating the similarity between the recognition target image and the modified candidate.
[0030]
According to a twenty-fourth aspect of the invention, a specific pattern recognition program recording medium records the specific pattern recognition program according to the twenty-third aspect so as to be readable by the computer.
[0031]
According to a twenty-fifth aspect of the present invention, there is provided an imaging unit that performs imaging, a quantization unit that obtains a digital image in which brightness values are recorded for each lattice point of a two-dimensional matrix from an image signal captured by the imaging unit, Storage means for storing at least digital image data obtained by the quantization means, the position and orientation of a recognition target image having a specific pattern included in the digital image can be specified, and the recognition It is composed of at least two local patterns obtained from a digital image including a recognition reference image serving as a reference corresponding to the target image, each of which is assigned one direction, and at least one connection pattern connecting these local patterns. A specific pattern recognition apparatus for recognizing a specific pattern of a recognition target image using a recognition model. At least one local pattern candidate point that is a position of a local pattern candidate that matches each of at least two different local patterns among local patterns constituting the model is extracted from the digital image including the recognition target image, and at least one of the local pattern candidate points is extracted. A local pattern candidate point extraction unit that assigns a direction assigned to a corresponding local pattern to one local pattern candidate point, and at least two different local regions from the local pattern candidate point extracted by the local pattern candidate point extraction unit By extracting at least one set of local pattern candidate points that match the pattern, a deformation candidate composed of each local pattern interpolation point of the extracted set is selected, and each local pattern interpolation point of the selected deformation candidate is selected Based on the positional relationship, position, scale, and angle deformations are added to the recognition model. Model deformation means for obtaining respective deformation parameters when superposing the entire pattern of the recognition model on the recognition target image, and deforming the recognition model based on the deformation parameters obtained by the model deformation means, The recognition model is superimposed on the recognition target image, and similarity evaluation means for evaluating the similarity between the deformation candidate and the recognition target image is included.
[0032]
Here, according to the method of the present invention, the entire pattern is divided into a local pattern of characteristic parts and a connected pattern of non-characteristic parts, and a part similar to the local pattern is detected from the digital image including the recognition target image. By estimating the deformation of the entire pattern (position, rotation, scale fluctuation) based on the information of the part and verifying whether the deformation of the entire pattern estimated using the information of the entire pattern is correct, As a result, it is difficult to separate the pattern from the background using a simple method such as binarization due to noise and lightness unevenness, as well as pattern rotation and scale fluctuations. Even when a part of the image is concealed and the shape appears to change, correct recognition is possible.
[0033]
DETAILED DESCRIPTION OF THE INVENTION
1 is a configuration diagram of a specific pattern recognition apparatus, FIG. 2 is a flowchart showing a flow of a specific pattern recognition method executed by the processing apparatus in FIG. 1, and FIG. 3 is obtained from the camera and quantizer in FIG. It is a figure which shows the example of the various digital images which can be done, and one Embodiment of this invention is described referring these figures.
[0034]
The specific pattern recognition apparatus according to the present embodiment is applied to, for example, positioning of the
[0035]
The
[0036]
In the apparatus having such a configuration, the recognition target image in the digital image is not always obtained from the
[0037]
In the present embodiment, even if the various variations described above are added to the recognition target image, a plurality of partial images that can specify the position and orientation of the recognition target image can be normally captured when viewed microscopically. Because there are many, the overall pattern of the recognition target image is estimated through the pattern of these partial images (hereinafter, this specific pattern is referred to as “local pattern”), and the position, orientation and scale change of the entire pattern on the frame, etc. Thus, the
[0038]
That is, the
[0039]
As shown in the example of FIG. 3A, the
[0040]
In this embodiment, the recognition model is automatically generated and registered from the recognition reference image. However, the present invention is not limited to this, and the person recognizes by analyzing the entire pattern structure of the recognition reference image in advance. A model for use may be generated and registered.
[0041]
The local pattern candidate point extraction unit 152 needs at least a local pattern candidate point, which is a coordinate position of a local pattern candidate that matches a local pattern of a recognition model, from a digital image including a recognition target image to estimate deformation in the model deformation process. As many local numbers as possible are extracted, and the direction of the local pattern assigned to each local pattern of the recognition model for each local pattern candidate point is also obtained (# 2 in FIG. 2).
[0042]
The
[0043]
The
[0044]
Hereinafter, each of the model generation process, the local pattern compensation point extraction process, the model deformation process, and the similarity evaluation process will be described in order while further adding drawings.
[0045]
(1) Model generation process
1. Create and register a recognition model
FIG. 4 is a diagram showing an example of a recognition model generated by the model generation process. In FIG. 4, p1 to p4 are local patterns. Among these, the local patterns p1 and p3 indicate patterns at both ends of the recognition reference image, and the local patterns p2 and p4 indicate corner pattern of the recognition reference image. ing. These have asymmetric shapes that can be used to identify the position and orientation of the recognition target image, and it is necessary to estimate the pattern deformation in the model deformation process described later. And at least one connection pattern is determined and registered in advance. Moreover, although the information of the direction shown by the arrow is provided to local pattern p1-p4, each of these directions has shown the direction with a recognition reference image. Further, the image data of the recognition reference image is also stored in a semiconductor storage device, a hard disk device, or the like for processing of a local pattern interpolation point extraction process described later.
[0046]
The local pattern and the connection pattern are automatically generated by any one of the following “2. First model automatic generation method” to “3. Second model automatic generation method”.
[0047]
2. First model automatic generation method
FIG. 5 is a diagram showing contour lines extracted from a digital image including a recognition reference image, and FIG. 6 is a graph showing changes in curvature (reciprocal of radius) of the contour lines in FIG.
[0048]
In the first model automatic generation method, the curvature of the contour line is obtained from the contour line of FIG. 5 as shown in FIG. 6, and this curvature of the contour line is used for automatic generation of the local pattern. As shown in FIG. 6, if the curvature value of the contour line is divided by a certain threshold value, the contour line indicating the entire pattern of the recognition reference image is classified into the local patterns p1 to p4 and the connection patterns l1 to l4. be able to. As described above, the contour line is obtained from the digital image including the recognition reference image, the curvature of the contour line is obtained for each position of the contour line, and each curvature value is divided into two by a predetermined threshold value. Specifically, the entire pattern of the recognition reference image can be classified into local patterns p1 to p4 and
[0049]
3. Second model automatic generation method
FIG. 7 is a diagram showing a recognition reference image and a plurality of partial regions in a digital image including the recognition reference image, and FIG. 8 is a graph showing the brightness change direction in each partial region in FIG. However, FIGS. 8A to 8D show the brightness change directions of the partial regions R1 to R4 in FIG. 7, respectively. Further, as shown in FIG. 7, these graphs showing the respective brightness change directions are obtained when each direction of interest is defined when the direction of the brightness change is defined as 0 ° direction so that the brightness decreases upward on the screen. The brightness change direction is obtained for all the pixels existing in the image, and the histogram is obtained.
[0050]
The second model automatic generation method is effective when, for example, it is difficult to obtain a contour line, and a distribution in the brightness change direction is used as shown in FIG. In the partial areas R1 and R2 in the digital image including the recognition reference image, as shown in FIGS. 8A and 8B, two or more significant peaks appear in the distribution in the brightness change direction, whereas the partial area R3 , R4, as shown in FIGS. 7C and 7D, only one remarkable peak appears at most.
[0051]
As described above, when the distribution of the brightness change direction in each partial area in the digital image including the recognition reference image is examined, and a peak of significant brightness change appears in two or more different directions in one partial area, The pattern of the partial image can be extracted as a local pattern constituting the recognition model. And the connection pattern which connects between them can be created from the extracted local pattern.
[0052]
4). Variations of connected patterns
FIG. 9 is a diagram showing another shape example of the connection pattern. In the example of FIG. 4, the connection pattern is a straight line. However, as shown in the example of FIG. 9, the shape of the connection pattern may be changed according to the shape of the
[0053]
(2) Local pattern interpolation point extraction process
1. Insensitive to rotation
From the local pattern interpolation point extraction process, a storage device obtained from the
[0054]
In this process, a local pattern candidate point that is a coordinate position of a local pattern candidate that is highly likely to coincide with a local pattern constituting the recognition model is extracted from the digital image including the recognition target image, and this local pattern candidate is extracted. A process of assigning information of the direction given to the corresponding local pattern to the point is executed.
[0055]
In this case, as shown in FIGS. 3B to 3H, fluctuations such as rotation or scale change may be added to the recognition target image in the digital image. Processing such as extraction of pattern candidate points is performed. Here, a method of performing matching after performing polar coordinate → rectangular coordinate conversion of the image is used. Hereinafter, the polar coordinate → rectangular coordinate conversion and matching will be described.
[0056]
2. Polar coordinate → Cartesian coordinate conversion and matching
FIG. 10 is an explanatory diagram of polar coordinate → rectangular coordinate conversion processing, and FIG. 11 is a diagram illustrating an example of an orthogonal conversion image that can be obtained by polar coordinate → rectangular coordinate conversion processing for a digital image including a recognition target image.
[0057]
In the polar coordinate → rectangular coordinate conversion processing, in order to obtain the reference coordinate position, the digital image including the recognition reference image is centered on a certain point of interest and the screen is turned clockwise at 0 ° as shown in FIG. The pixel value on the line segment of an arbitrary radius is cut out while changing the angle for one round, and as shown in FIG. 10B, the horizontal axis is the angle axis, and the vertical axis is the distance axis from the point of interest. An orthogonal transformation image is generated by transcribing to an orthogonal coordinate system and converting polar coordinates into orthogonal coordinates. In the figure, since the point of interest is a corner point in a partial image of a white right-angled corner on a black background, the orthogonal transformation image has a bright striped pattern with 1/4 of the angle axis.
[0058]
Similarly, as shown in FIG. 11, a process of generating an orthogonal transform image is executed on a digital image including a recognition target image. In the example of FIG. 11A, the attention point is a pixel of a corner point in a partial image of a white right-angled corner on a black background, so that the orthogonal transformation image has an angular axis as shown in FIG. 1/4 is a bright striped pattern. On the other hand, in the example of FIG. 11C, the attention point is a pixel at a position deviating from the corner point, so that the orthogonal transformation image is 1/4 of the angle axis as shown in FIG. Does not result in a bright striped pattern.
[0059]
In either case, the orthogonal transformation image when the point of interest is a corner point pixel is a striped pattern. Therefore, if both bright striped pattern areas at this time are compared, the recognition target image It is possible to determine whether there is a local pattern candidate that matches the local pattern located at the target point of the recognition reference image at the target point, and how much rotation the local pattern candidate has relative to the local pattern. It is possible to detect whether a change is applied. In this embodiment, the coordinate position of a local pattern candidate including information indicating how much rotation variation is added to the local pattern candidate is obtained as a local pattern candidate point, and the local pattern corresponding to the local pattern candidate point is obtained. The process of assigning the information of the direction given to the is executed.
[0060]
More specifically, the orthogonal transformation image pattern (FIG. 10B) based on the partial image of the digital image including the recognition reference image (the image in the circle having the above-mentioned radius centered on the target point) and the recognition target image are obtained. While the relative position of the orthogonal transform image pattern (FIG. 11 (b)) by the partial image of the digital image is moved in the direction of the angle axis (the angle axis is considered to be continuous at 0 ° and 360 ° positions), the normal The correlation values are calculated sequentially.
[0061]
Subsequently, the maximum normalized correlation value is extracted from the obtained normalized correlation values, and it is determined whether or not the maximum normalized correlation value is larger than a predetermined reference value of coincidence.
[0062]
When the maximum normalized correlation value is larger than the reference value, the point of interest in the recognition target image (FIG. 11A) matches the local pattern located at the point of interest of the recognition reference image (FIG. 10A). It is determined that there is a local pattern candidate to be performed. And a local pattern candidate point is calculated | required from the position used as the largest normalized correlation value. Also, based on the amount of movement that gives the maximum correlation value, information in which the direction assigned to the corresponding local pattern is assigned to the local pattern candidate point is created and stored in the
[0063]
On the other hand, when the maximum normalized correlation value is not larger than the reference value, the local position located at the attention point (FIG. 10A) of the recognition reference image is set at the attention point of the recognition target image (FIG. 11C). It is determined that there is no local pattern candidate that matches the pattern. That is, the reference value is set to a value larger than the maximum normalized correlation value in this case.
[0064]
As described above, both the digital image including the recognition reference image and the digital image including the recognition target image are subjected to the polar coordinate → orthogonal coordinate conversion process to generate both orthogonally converted images, and these orthogonally converted images are used. If the local pattern candidate points are extracted from the digital image including the recognition target image, the local pattern candidate points can be extracted without being influenced by the rotation.
[0065]
3. Other matching methods
FIG. 12 is an explanatory diagram of a matching method when the orthogonal transform image becomes a simple striped pattern, and FIG. 13 is an explanatory diagram of a matching method when the orthogonal transform image becomes a complex pattern.
[0066]
FIG. 12 is an orthogonal transform image similar to FIG. 11, but when the orthogonal transform image becomes a simple striped pattern in this way, an orthogonal transform image and a recognition reference image by a partial image of the digital image including the recognition target image. Are projected onto the angle axis of the orthogonal coordinate system as shown in FIGS. 12B and 12D, respectively (the pixel value in the distance axis direction is calculated for each unit of the angle axis). 1-dimensional normalized correlation matching may be performed after the summation process is performed). That is, as shown in FIG. 12, one-dimensional waveform data is created by the above projection, and the similarity is sequentially obtained while the waveform data based on the recognition reference image and the waveform data based on the recognition target image are translated in the angle axis direction. The maximum similarity is extracted from each of these similarities, and if the maximum similarity is larger than a predetermined reference, the position of the orthogonal transformation image when the maximum similarity is obtained is set as the position of the local pattern candidate point. At the same time, the direction given to the corresponding local pattern may be assigned to the local pattern candidate point based on the movement amount that gives the maximum similarity.
[0067]
By using this method, the processing load can be greatly reduced. This method is particularly effective when the local pattern is simple because the projected one-dimensional data reflects the original local pattern shape well, but even if the local pattern is complicated, the rotation angle can be adjusted. It can be used as preprocessing for rough estimation.
[0068]
In the example of FIG. 13, the pattern of the partial image has a shape that is affected by the scale fluctuation, and the pattern of the orthogonal transformation image is more complicated by the influence of the scale fluctuation. Thus, when the orthogonal transform image is compressed or expanded (expanded in FIGS. 13C and 13D) up and down (distance axis direction) under the influence of the scale variation, it is necessary to correct the scale variation. . Therefore, in this case, if the orthogonal transformation image compressed or expanded in the distance axis direction is enlarged or reduced in the positive direction of the distance axis and then matched, it is possible to correctly extract the local pattern candidates. .
[0069]
4). Faster conversion from polar coordinates to Cartesian coordinates and matching
If each pixel of the digital image is the pixel of interest and the above polar coordinate → rectangular coordinate conversion and matching processing are performed, the processing amount becomes enormous and the processing time becomes long. Therefore, if an edge extraction process or the like is performed in advance to extract only a portion having a large change in pixel value, and the above-described processing is performed only for the pixel in this portion, the processing load can be greatly reduced.
[0070]
(3) Model deformation process
1. Candidate for deformation
FIG. 14 is a diagram showing an example of a recognition target image, FIG. 15 is a diagram showing local pattern interpolation points extracted from the recognition target image of FIG. 14 by a local pattern interpolation point extraction process, and FIG. 16 is an explanatory diagram of a model deformation process. It is.
[0071]
In FIG. 15, cp11 to cp14 are local pattern candidate points that code to the local patterns p1 and p3 constituting the recognition model of FIG. cp21 and cp22 are local pattern candidate points that code for the local pattern p2 in FIG. cp31 to cp36 are local pattern candidate points that code p4 in FIG.
[0072]
In the model deformation process, deformation estimation is performed based on these local pattern interpolation points. The deformation estimation is performed by selecting, from the local pattern and local pattern compensation points, a set of local pattern compensation points that are similar to two or more different local patterns, thereby rotating, moving, and scaling the entire pattern. It means to determine the parameter of variation.
[0073]
Specifically, as shown in the example of FIG. 16, the recognition model shown in FIG. 4 and the local pattern interpolation point shown in FIG. Deformation candidates df1 to df4 are created or selected. However, in addition to the following modification candidates, a large number of modification candidates are conceivable, but some of them are shown here.
[0074]
In this way, in the model transformation process, by extracting at least one set of local pattern candidate points that match at least two different local patterns from the local pattern candidate points extracted in the local pattern candidate point extraction process, A deformation candidate consisting of the extracted local pattern interpolation points of the set is selected.
[0075]
In addition, based on the positional relationship between each local pattern interpolation point of the selected deformation candidate, the position, scale, and angle are deformed to the recognition model, and the entire pattern of the recognition model is converted into the recognition target image. Each deformation parameter at the time of superposition is obtained.
[0076]
For example, as shown in FIGS. 3B to 3G, even if there is a change in the pattern shape and the brightness of the pattern, the local pattern candidate point is the pattern scale in the above-described local pattern candidate point extraction process. Since each local pattern candidate point is obtained correctly, it is possible to extract a deformation candidate. 3E and 3G, the local brightness unevenness and the degree of noise superposition are so severe that the local pattern is not visible, or some local patterns are obstructions as shown in FIG. If the pattern is hidden in the pattern, local pattern candidate points that match some local patterns among a plurality of (in the case of the pattern shown in the embodiment, four types shown in p1 to p4 in FIG. 4) local patterns are not found. Even if there are local pattern candidate points that match at least two types of local patterns, a deformation candidate can be extracted. Further, as shown in FIG. 3 (h), when the portion corresponding to the connected pattern is hidden, the local pattern appears without any problem, so there is no influence in the model deformation process.
[0077]
2. High speed processing
Next, the modification candidates are narrowed down for speeding up. In the local pattern interpolation point extraction process in the previous stage, the direction is extracted together with the coordinate position where the pattern is similar for each type of local pattern, so that direction is used.
[0078]
That is, the angle of the direction of the local pattern compensation point with respect to the overall pattern of the deformation candidate is compared with the angle of the direction of the local pattern with respect to the overall pattern of the recognition model, and if the angle difference between the two is larger than a predetermined angle, A deformation candidate is excluded as a possible deformation.
[0079]
For example, among the deformation candidates df1 to df4 in FIG. 16, the angle of the direction of the local pattern complement point cp12 with respect to the entire pattern of the deformation candidate df4 and the angle of the direction of the local pattern p1 with respect to the entire pattern of the recognition model in FIG. Are greatly different from each other, and the deformation candidate df4 is excluded. In addition, the predetermined angle is set to a value smaller than the angle difference between them. Thereby, when the deformation candidates df1 to df4 in FIG. 16 are created or selected, the deformation candidates are narrowed down to the deformation candidates df1 to df3.
[0080]
(4) Similarity evaluation process
1. Collation
In the similarity evaluation process, a process of collating the recognition target image with a deformation model corresponding to the recognition target image and selecting an optimal deformation model from each deformation model is executed.
[0081]
Specifically, based on the deformation parameters of the deformation candidate obtained in the model deformation process, the recognition model is deformed, the deformed recognition model is superimposed on the recognition target image, and the deformation candidate and the recognition target image are combined. A process for evaluating the similarity is executed.
[0082]
At this time, how the connected pattern is expressed in the recognition model (whether it is an image or a mathematical expression), the characteristics of the image, the purpose of recognition (whether uneven brightness or pattern hiding occurs frequently, or a single pattern) Appropriate similarity evaluation methods are selected and used from various similarity evaluation methods depending on whether the purpose is recognition of a plurality of similar patterns, or identification of a plurality of similar patterns. Hereinafter, each similarity evaluation method will be described.
[0083]
2. Similarity evaluation method when connected pattern is image data
FIG. 17 is an explanatory diagram of the similarity evaluation method. In a digital image including a recognition reference image, when a partial image between local patterns is an unclear pattern or a complex pattern, the partial images between local patterns are used as they are as a connection pattern. At this time, as shown in the example of FIG. 17, the connection pattern can be deformed by deforming the partial images constituting the connection pattern according to the deformation parameters (scale, rotation, etc.) of the deformation candidates. Then, if the entire pattern of the deformed recognition model including the deformed connection pattern candidate is matched with the recognition target image by the normalized correlation matching, a similarity evaluation value can be obtained.
[0084]
3. Similarity evaluation method when connected pattern is formula data
When the connected pattern constituting the recognition model is a mathematical expression of the edge shape, several methods can be selected as the matching method between the deformation model and the recognition target image according to the characteristics of the image. it can.
[0085]
(First verification method)
FIG. 18 is an explanatory diagram of a first matching method when the connection pattern is mathematical formula data. In the first matching method, a matching method based on a normalized correlation method is used. For the deformation candidates df1 to df3 shown in FIG. 16, based on the following formulas for pixels included in the area Pi within the outline of the recognition model and the area Oi in the vicinity of the recognition model outline as shown in FIG. The correlation coefficient S1 is calculated, and the one with the highest correlation coefficient is selected as the optimum collation.
[0086]
[Expression 1]
[0087]
According to the first collation method, since collation can be performed using a large number of pixel values, it is weak against lightness unevenness, but it is necessary to select the most similar one from many similar patterns or contrast. Highly reliable verification is possible, for example, when the value is low.
[0088]
(Second verification method)
FIG. 19 is an explanatory diagram of a second matching method when the connection pattern is mathematical formula data. FIG. 19A shows a collation method for the deformation model by df1 in FIG. 16, and FIG. 19C shows a collation method for the deformation model by df2 in FIG.
[0089]
In the second matching method, a method of evaluating the similarity using a change in brightness near the edge of the pattern is used.
[0090]
Like l11 to l1m and l21 to l2n (m and n are the number of sampling points) shown in FIG. 19, the position of the local pattern p1 in FIG. 4 is set as the starting point, and the connection pattern is clockwise along the connection pattern candidates of the deformation model. A plurality of sampling points are arranged on the candidates. Subsequently, for each sampling point, a line segment having a length l (hereinafter referred to as “sampling line”) extending in the normal direction of the connection pattern candidate around the sampling point is set. At this time, when the lightness is extracted along the sampling line, the results shown in FIGS. 19B and 19D are obtained.
[0091]
Regarding the brightness change of each sampling line shown in these figures, the phase relationship with the edge pattern that changes in an ideal step shape (see FIG. 20) at the midpoint of the sampling line (position on the connection pattern candidate of the deformation model) If the number S2 is obtained by the following mathematical formula, collation using only pixels near the edge can be performed.
[0092]
[Expression 2]
[0093]
For the deformation of df1 in FIG. 16 that is the optimal collation, as shown in FIG. 19B, the shape of the edge and the ideal stepped edge pattern are very similar in each sampling line. The relationship number S2 is increased. On the other hand, for the deformation of df2 in FIG. 16 in which the edge position is shifted, as shown in FIG. 19D, the shape of the edge and the ideal stepped edge pattern is different, so the correlation coefficient S2 is lowered. By utilizing this fact, it is possible to obtain an optimal collation from a plurality of deformation models. Thus, by performing collation using only the brightness change near the edge, it is possible to perform highly reliable collation when there is a pattern that is likely to cause brightness fluctuations within the pattern.
[0094]
(Third verification method)
In the third collation method, a method is used in which the sampling line is set by the same procedure as the second collation method and then the similarity is calculated by the following equation.
[0095]
[Equation 3]
[0096]
The difference between the second verification method and the third verification method is that the former method sums all the brightness changes of each sampling line and calculates the correlation coefficient only once, whereas the latter method. Then, the correlation coefficient is calculated for each sampling line, and the average value is taken.
[0097]
The former method corresponds to the process of cutting out only the periphery of the connected pattern candidate and calculating the correlation coefficient in the first matching method. Therefore, when there is a portion where brightness fluctuation is likely to occur within the pattern, Although there is a feature that the influence can be eliminated, there is a possibility of erroneous recognition if the connection pattern portion has uneven brightness.
[0098]
On the other hand, the latter method has a feature that, by calculating a correlation coefficient for each sampling line, highly reliable collation is possible even when there is a large lightness unevenness in the connected pattern portion.
[0099]
In the first to third matching methods, the calculated correlation coefficient value takes a numerical value between −1 and 1, but the correlation coefficient may take an absolute value. By doing so, it is possible to perform collation even when the lightness and darkness of the pattern is reversed.
[0100]
(Fourth verification method)
FIG. 21 is an explanatory diagram of a fourth matching method when the connection pattern is mathematical data, and FIG. 22 is an explanatory diagram of an edge position detection method.
[0101]
In the fourth matching method, a method using an edge position is used. Similar to the second and third methods, a plurality of sampling lines orthogonal to the connection pattern candidates of the deformation model are set, and the edge position is detected for each sampling line. FIG. 21 shows a state where edge positions are extracted for each sampling line. The average of the distance between each edge position and the on-line pattern is obtained, and a deformation model that minimizes the average distance is adopted as the optimum collation.
[0102]
In the fourth collating method, as a method for detecting an edge, a method using the maximum differential value is simple. However, as shown in FIG. 22, the lightness average value a1 on the right side of an arbitrary position of the sampling line By obtaining the left brightness average value a2 and using the position where | a1-a2 | is the maximum as the edge position, it is possible to detect the correct edge position without being affected by local brightness changes near the edge. Become.
[0103]
The fourth matching method has an advantage that an edge in an actual recognition target image can be extracted simultaneously with selection of an optimal deformation model. If the connected pattern is expressed by a mathematical expression, the least square approximation is performed on the mathematical expression of the connected pattern based on the extracted edge position, thereby causing a matching shift or pattern distortion (similarity) due to the influence of the shape of the local pattern. It is possible to correct the deformation (non-deformation) and improve the recognition accuracy.
[0104]
As described above, through the four processing processes of model generation process, local pattern compensation point extraction process, model deformation process, and similarity evaluation process, not only rotation and size fluctuation, but also lightness unevenness, focus shift, contrast reduction Thus, robust recognition that does not cause recognition errors even when fluctuations such as noise and pattern hiding occur is realized.
[0105]
The processing method in each of the above four processing steps needs to select an optimal processing method and parameters according to the purpose from a plurality of methods having different characteristics. Therefore, since there is a problem that an optimum processing method cannot be adopted unless the user understands the characteristics of each processing method, convenience can be improved by automating this point.
[0106]
Specifically, for example, the collation method in the similarity evaluation process may be changed depending on whether the data of the connection pattern is image data or data obtained by formulating the edge shape. Whether to use the first matching method or the second matching method in the similarity evaluation process may be determined based on information on whether another pattern exists. In this case, a database describing the relationship between the features of local patterns and connected patterns and the optimal processing method and recognition parameters for pattern recognition is created in advance, and the pattern to be detected is analyzed during the model generation process. Thus, when the local pattern and the connected pattern are classified, the subsequent processing procedure may be determined with reference to the database.
[0107]
In addition, in order to investigate the factors that fluctuate in time series, it is possible to improve the convenience by executing recognition on multiple images and selecting the optimal processing method and parameters based on the results. it can. Specifically, based on the recognition results obtained for a plurality of images, the third collation method in the similarity evaluation process is adopted if lightness unevenness is large, otherwise the first Examples include a method that uses a collation method. In this case as well, a database describing the relationship between the inter-image variation characteristics of local patterns and connected patterns, the optimum processing method for pattern recognition and recognition parameters is created in advance, and the recognition results using multiple images The subsequent processing procedure may be determined with reference to the database based on the above.
[0108]
In addition, when a plurality of teaching images are used as described above, not only the processing method and parameters as described above but also the variation of the shape of the recognition model can be obtained. Local pattern data and connected pattern data are extracted from a plurality of teaching images, and local pattern data and connected patterns obtained from other teaching images in accordance with a certain teaching image (usually the first image). It is possible to construct a recognition model that can be recognized more reliably than when a recognition model is constructed from only a single teaching image by normalizing the data and obtaining the average and variation amount of the data. .
[0109]
In the case of processing for continuous images input in time series, the recognition speed can be improved by changing the recognition method at a certain point in time series using the recognition results obtained so far.
[0110]
As a first method related to the processing for the continuous image, a method of changing the recognition model based on the result of the pattern matching performed previously can be considered. As shown in FIG. 23, when the pattern is continuously distorted, as in the case of correcting the deformation that is not the similar deformation described above, the pattern distortion is corrected and the pattern matching is performed. By sequentially changing the local pattern or the connected pattern, it is possible to track an object that causes a deformation other than the similar deformation in time series.
[0111]
As a second method related to processing for continuous images, there is a method of changing the processing method based on the result of pattern matching performed previously. As shown in FIG. 24, in a continuous image in which the pattern continuously rotates and scale changes, the position, rotation, and scale of the local pattern are extracted in the local pattern interpolation point extraction process based on the matching result before that point. Estimate the parameters of variation, limit the search range and local pattern rotation range when extracting local pattern interpolation points, and make matching processing more efficient, or narrow down the local pattern interpolation points to be extracted The process can be streamlined.
[0112]
【The invention's effect】
The invention according to
[0113]
The invention according to
[0114]
According to a third aspect of the present invention, in the specific pattern recognition method according to the first aspect, the method further includes a model generation process for generating the recognition model, and the model generation process includes a partial image of the digital image including the recognition reference image. Therefore, the brightness change direction is obtained for each pixel, and the pattern of the image where the peak of brightness change appears in at least two different directions is extracted as the local pattern. In the case of a pattern, a local pattern can be extracted by a method of creating a histogram of direction images and searching for a place where there are two peaks.
[0115]
According to a fourth aspect of the present invention, in the specific pattern recognition method according to the first aspect, since the connection pattern is an image pattern, the reason is that the connection pattern has a complicated shape or an unclear pattern. Thus, even when it is difficult to express the edge shape with a mathematical expression, the connection pattern can be expressed.
[0116]
According to a fifth aspect of the present invention, in the specific pattern recognition method according to the first aspect, the connection pattern is any one of a straight line, a broken line having at least one intermediate node, and a curve, and the connection pattern data is mathematical data. Therefore, the data amount of the recognition model can be reduced. Further, the pattern matching and the position detection method can improve accuracy and match a distorted pattern.
[0117]
According to a sixth aspect of the present invention, in the specific pattern recognition method according to the first aspect of the present invention, the method further includes a model generation process for generating the recognition model, and in the model generation process, from the digital image including the recognition reference image, A polar coordinate having the center position of the local pattern as an origin is converted into an orthogonal coordinate having an angle axis indicating an angle centered on the origin and a distance axis indicating a distance from the origin to create an orthogonal transform image, and In the pattern candidate point extraction process, from the digital image including the recognition target image, polar coordinates having a certain point of interest as an origin are converted into orthogonal coordinates to generate an orthogonal conversion image. In the orthogonal conversion image and the model generation process, While translating the created orthogonal transformation image in the direction of the angle axis, the similarity is obtained sequentially, the maximum similarity is extracted from each of these similarities, and this maximum similarity is predetermined. If it is larger than the reference, the position of the orthogonal transformation image when the maximum similarity is obtained is set as the position of the local pattern candidate point, and the corresponding local pattern is determined based on the movement amount that gives the maximum similarity. Since the assigned direction is assigned to the local pattern candidate point, the local pattern can be extracted and the direction can be assigned even when the pattern is rotating.
[0118]
The invention according to claim 7 further includes a model generation process for generating the recognition model in the specific pattern recognition method according to
[0119]
The invention according to claim 8 is the specific pattern recognition method according to claim 6, wherein the orthogonal transformation image extracted from the digital image including the recognition target image is enlarged or reduced in the distance axis direction and created in the model generation process. Since matching is performed with the orthogonal transformation image, the local pattern can be extracted even when the scale changes with the rotation of the pattern.
[0120]
According to a ninth aspect of the present invention, in the specific pattern recognition method according to the first aspect, in the local pattern interpolation point extraction process, only a portion having a large change in pixel value is extracted in advance, and only that portion is extracted. On the other hand, since the local pattern candidate point extraction process is performed, the load of the local pattern extraction process can be reduced.
[0121]
According to a tenth aspect of the present invention, in the specific pattern recognition method according to the first aspect, in the model deformation process, an angle difference between the direction of the local pattern candidate point of the deformation candidate and the direction of the corresponding local pattern is predetermined. If the angle is larger than the angle, the deformation candidate is excluded from the similarity evaluation in the similarity evaluation process, so that the processing load in the similarity evaluation process can be reduced.
[0122]
The invention according to
[0123]
According to a twelfth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern A plurality of sampling points are set on the connection pattern candidates obtained from the above, and sampling lines of arbitrary length are set in the normal direction of the connection pattern candidates around these sampling points, and all of the set sampling lines are set. Since the correlation value between the distribution of pixel values and the ideal pattern in which the pixel values change stepwise at the position of the connected pattern candidate is calculated as the similarity, the internal pattern is ignored and only the similarity near the edge is evaluated Therefore, correct matching is performed even when there is a pattern with varying brightness or varying brightness within the pattern. Door can be.
[0124]
According to a thirteenth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern Set multiple sampling points on the connected pattern candidate obtained from, set an arbitrary length sampling line in the normal direction of the connected pattern candidate around these sampling points, and set the pixel value on the set sampling line The process of examining the similarity between each distribution and the ideal pattern in which the pixel value changes stepwise at the sampling point is performed for each sampling line, and the average is calculated by calculating the similarity for all sampling lines. Therefore, correct matching can be performed even when there is a large lightness unevenness.
[0125]
According to a fourteenth aspect of the present invention, in the specific pattern recognition method according to any one of the eleventh to thirteenth aspects, when it is known that a contrast inversion of light and darkness occurs in the recognition target image, a normalized correlation value as a similarity Since the absolute value of is used, correct matching can be performed even if brightness contrast inversion occurs.
[0126]
According to a fifteenth aspect of the present invention, in the specific pattern recognition method according to the fifth aspect, in the similarity evaluation process, when the data of the connection pattern is expressed using a mathematical expression representing a linear pattern, the connection pattern A plurality of sampling points are set on the connection pattern candidate obtained from the above, and a sampling line of an arbitrary length is set in the normal direction of the connection pattern candidate around each sampling point, and each of all the set sampling lines is set. Since the edge position is obtained and the average value of the distance between the edge position and the connected pattern is used as the similarity, the edge can be extracted simultaneously with the similarity determination, and the contour shape of the pattern can be obtained on the actual image. .
[0127]
According to a sixteenth aspect of the present invention, in the specific pattern recognition method according to the fifteenth aspect, an average value of pixel values is obtained on the left and right of an attention position with the sampling line, an absolute value of a difference between the average pixel values is obtained, Since the absolute value of the difference between the average pixel values is sequentially obtained while moving within the range of the sampling line, and the position where the absolute value is the maximum is used as the edge position, the edge position is extremely incorrect due to local features. The danger of being detected at the position can be avoided.
[0128]
According to a seventeenth aspect of the present invention, in the specific pattern recognition method according to the fifteenth aspect, since each of the connection patterns is applied to the expression of the connection pattern using the least square method based on the edge position, the edge is locally edged. Even when the shape is disturbed, the edge position can be accurately estimated.
[0129]
The invention according to claim 18 is the specific pattern recognition method according to
[0130]
According to a nineteenth aspect of the present invention, in the specific pattern recognition method according to the first aspect, at least one of a feature of inter-image variation of the local pattern and the connection pattern, an optimum processing method for the recognition of the patterns, and a recognition parameter, A database describing the relationship between the local pattern candidate points, a plurality of teaching images are experimentally recognized, and the local pattern candidate point extraction process and model deformation process are performed by referring to the database based on the recognition results. In addition, since at least one of the processing method and the recognition parameter in each process of the similarity evaluation process is determined, usability when the system is used for an object having a time series change is improved.
[0131]
The invention according to claim 20 is the specific pattern recognition method according to
[0132]
According to a twenty-first aspect of the present invention, in the specific pattern recognition method according to the first aspect, when pattern matching and position detection are performed on a digital image continuously input in time series, and the pattern is traced, Since the recognition model is changed based on the result of the pattern matching performed in the above step, it is possible to track an object that causes a deformation other than the similar deformation in time series.
[0133]
According to a twenty-second aspect of the present invention, in the specific pattern recognition method according to the first aspect, when pattern matching and position detection are performed on a digital image continuously input in time series, and the pattern is traced, Based on the results of the position detection performed in
[0134]
The invention according to claim 23 is capable of specifying the position and orientation of a recognition target image having a specific pattern included in a digital image, and includes a recognition reference image serving as a reference corresponding to the recognition target image. An image processing apparatus uses a recognition model composed of at least two local patterns obtained from a digital image, each of which is assigned one direction, and at least one connection pattern connecting the local patterns. A specific pattern recognition program including a processing procedure of a specific pattern recognition method for recognizing a specific pattern of a recognition target image, wherein the local pattern matches each of at least two different local patterns among the local patterns constituting the recognition model A local pattern candidate point that is a position of the pattern candidate is displayed as a digital image including the recognition target image. A local pattern candidate point extraction process in which at least one is extracted from and a direction given to the corresponding local pattern is assigned to the at least one local pattern candidate point, and the local pattern candidate extracted in the local pattern candidate point extraction process By extracting at least one set of local pattern candidate points that match at least two different local patterns from the points, a deformation candidate consisting of each local pattern compensation point of the extracted set is selected and selected When the position, scale, and angle of the recognition model are modified based on the positional relationship between the local pattern compensation points of the deformation candidates, and the entire pattern of the recognition model is superimposed on the recognition target image. Based on the model deformation process for obtaining each deformation parameter of the image and the deformation parameter obtained in the model deformation process, the recognition Since the model includes a similarity evaluation process in which the model is deformed, the deformed recognition model is superimposed on the recognition target image, and the similarity between the deformation candidate and the recognition target image is evaluated. Even in this device, it is possible to perform robust recognition that is not easily influenced by environmental fluctuations such as illumination fluctuations, obstacles, and positioning errors.
[0135]
Since the specific pattern recognition program recording medium according to the twenty-fourth aspect records the specific pattern recognition program according to the twenty-third aspect so as to be readable by the computer, even if the apparatus is other than a dedicated image processing apparatus, the illumination variation And robust recognition that is not easily affected by environmental fluctuations such as obstacles, positioning errors, etc.
[0136]
According to a twenty-fifth aspect of the present invention, there is provided an imaging unit that performs imaging, a quantization unit that obtains a digital image in which brightness values are recorded for each lattice point of a two-dimensional matrix from an image signal captured by the imaging unit, Storage means for storing at least digital image data obtained by the quantization means, the position and orientation of a recognition target image having a specific pattern included in the digital image can be specified, and the recognition It is composed of at least two local patterns obtained from a digital image including a recognition reference image serving as a reference corresponding to the target image, each of which is assigned one direction, and at least one connection pattern connecting these local patterns. A specific pattern recognition apparatus for recognizing a specific pattern of a recognition target image using a recognition model. At least one local pattern candidate point that is a position of a local pattern candidate that matches each of at least two different local patterns among local patterns constituting the model is extracted from the digital image including the recognition target image, and at least one of the local pattern candidate points is extracted. A local pattern candidate point extraction unit that assigns a direction assigned to a corresponding local pattern to one local pattern candidate point, and at least two different local regions from the local pattern candidate point extracted by the local pattern candidate point extraction unit By extracting at least one set of local pattern candidate points that match the pattern, a deformation candidate composed of each local pattern interpolation point of the extracted set is selected, and each local pattern interpolation point of the selected deformation candidate is selected Based on the positional relationship, position, scale, and angle deformations are added to the recognition model. Model deformation means for obtaining respective deformation parameters when superposing the entire pattern of the recognition model on the recognition target image, and deforming the recognition model based on the deformation parameters obtained by the model deformation means, And a similarity evaluation unit that evaluates the similarity between the deformation candidate and the recognition target image and overlays the recognition model on the recognition target image, so that variations in the environment such as illumination variations, obstacles, and positioning errors are included. This makes it possible to achieve robust recognition that is difficult to be influenced by the
[Brief description of the drawings]
FIG. 1 is a configuration diagram of a specific pattern recognition apparatus.
FIG. 2 is a flowchart showing a flow of processing of a specific pattern recognition method executed by the processing device in FIG. 1;
3 is a diagram showing examples of various digital images that can be obtained from the camera and quantizer in FIG. 1. FIG.
FIG. 4 is a diagram illustrating an example of a recognition model generated by a model generation process.
FIG. 5 is a diagram illustrating a contour line extracted from a digital image including a recognition reference image.
6 is a graph showing a change in curvature (reciprocal of radius) of the contour line in FIG. 5;
FIG. 7 is a diagram illustrating a recognition reference image and a plurality of partial regions in a digital image including the recognition reference image.
FIG. 8 is a graph showing the brightness change direction in each partial region in FIG.
FIG. 9 is a diagram illustrating another shape example of a connection pattern.
FIG. 10 is an explanatory diagram of polar coordinate → rectangular coordinate conversion processing;
FIG. 11 is a diagram illustrating an example of an orthogonal transformation image that can be obtained by a polar coordinate → rectangular coordinate transformation process for a digital image including a recognition target image.
FIG. 12 is an explanatory diagram of a matching method when an orthogonal transformation image has a simple striped pattern.
FIG. 13 is an explanatory diagram of a matching method when an orthogonal transformation image has a complicated pattern.
FIG. 14 is a diagram illustrating an example of a recognition target image.
15 is a diagram showing local pattern interpolation points extracted from the recognition target image of FIG. 14 by a local pattern interpolation point extraction process. FIG.
FIG. 16 is an explanatory diagram of a model deformation process.
FIG. 17 is an explanatory diagram of a similarity evaluation method.
FIG. 18 is an explanatory diagram of a first matching method when a connection pattern is mathematical formula data.
FIG. 19 is an explanatory diagram of a second collation method when the connection pattern is mathematical formula data.
FIG. 20 is a diagram showing a change in brightness at an ideal edge.
FIG. 21 is an explanatory diagram of a fourth collation method when the connection pattern is mathematical formula data;
FIG. 22 is an explanatory diagram of an edge position detection method.
FIG. 23 is a diagram illustrating an example of a digital image in a state in which distortion is continuously generated in a time series in a pattern.
FIG. 24 is a diagram illustrating an example of a digital image in a state in which similar deformation is continuously performed in time series.
[Explanation of symbols]
10 Object
11 Camera
12 Quantizer
13 Storage device
14 Image display device
15 Processing device
151 Model generator
152 Local pattern candidate point extraction unit
153 Model deformation part
154 Similarity Evaluation Department
Claims (25)
前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、
この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、
このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程と
を含むことを特徴とする特定パターン認識方法。One direction obtained from a digital image including a recognition reference image serving as a reference corresponding to the recognition target image, the position and orientation of the recognition target image having a specific pattern included in the digital image can be specified The image processing apparatus recognizes a specific pattern of the recognition target image using a recognition model composed of at least two local patterns assigned to each and at least one connected pattern connecting the local patterns. A specific pattern recognition method for
At least one local pattern candidate point that is a position of a local pattern candidate that matches each of at least two different local patterns among the local patterns constituting the recognition model is extracted from the digital image including the recognition target image. , A local pattern candidate point extraction process for assigning the direction given to the corresponding local pattern to the at least one local pattern candidate point;
By extracting at least one set of local pattern candidate points that match at least two different local patterns from the local pattern candidate points extracted in this local pattern candidate point extraction process, each local pattern of the extracted set Select deformation candidates consisting of interpolation points, and add position, scale, and angle deformations to the recognition model based on the positional relationship between the local pattern interpolation points of the selected deformation candidates, and recognize them. A model deformation process for obtaining each deformation parameter when superimposing the entire pattern of the model for recognition on the recognition target image;
Based on the deformation parameters obtained in the model deformation process, the recognition model is deformed, the deformed recognition model is superimposed on the recognition target image, and the similarity between the deformation candidate and the recognition target image is determined. A specific pattern recognition method comprising: a similarity evaluation process to be evaluated.
前記局所パターン候補点抽出過程では、前記認識対象画像を含むデジタル画像から、ある注目点を原点とする極座標を直交座標に変換して、直交変換画像を作成し、この直交変換画像と前記モデル生成過程で作成された直交変換画像とを角度軸方向に平行移動させながら、順次類似度を求め、これらの各類似度から最大類似度を抽出し、この最大類似度が所定の基準よりも大きければ、最大類似度が得られたときの直交変換画像の位置を前記局所パターン候補点の位置とするとともに、その最大類似度を与える移動量をもとに、対応する局所パターンに付与された方向を前記局所パターン候補点に割り当てる
ことを特徴とする請求項1記載の特定パターン認識方法。A model generation process for generating the recognition model is further included. In this model generation process, polar coordinates with the center position of the local pattern as the origin are taken from the digital image including the recognition reference image as an angle with the origin as the center. Convert to an orthogonal coordinate having an angle axis to indicate and a distance axis to indicate a distance from the origin, and create an orthogonal transformation image,
In the local pattern candidate point extraction process, from the digital image including the recognition target image, polar coordinates having a certain point of interest as an origin are converted into orthogonal coordinates to generate an orthogonal conversion image, and the orthogonal conversion image and the model generation are generated. While translating the orthogonal transform image created in the process in the direction of the angle axis, sequentially obtain the similarity, extract the maximum similarity from each of these similarities, and if this maximum similarity is greater than a predetermined reference The position of the orthogonal transformation image when the maximum similarity is obtained is set as the position of the local pattern candidate point, and the direction given to the corresponding local pattern is determined based on the movement amount that gives the maximum similarity. 2. The specific pattern recognition method according to claim 1, wherein the specific pattern recognition point is assigned to the local pattern candidate point.
ことを特徴とする請求項1記載の特定パターン認識方法。A model generation process for generating the recognition model is further included. In this model generation process, polar coordinates with the center position of the local pattern as the origin are taken from the digital image including the recognition reference image as an angle with the origin as the center. Converting to an orthogonal coordinate having an angle axis to indicate and a distance axis indicating a distance from the origin, creating an orthogonal transformation image, projecting the orthogonal transformation image on the angle axis to create one-dimensional waveform data, In the local pattern interpolation point extraction process, from the digital image including the recognition target image, polar coordinates having a certain point of interest as the origin are converted into orthogonal coordinates to create an orthogonal conversion image, and this orthogonal conversion image is used as an angle axis. One-dimensional waveform data is created by projecting, and the one-dimensional waveform data and the waveform data created in the model generation process are translated in the direction of the angle axis, and the similarity is sequentially obtained. The maximum similarity is extracted from each of these similarities, and if the maximum similarity is larger than a predetermined reference, the position of the orthogonal transformation image when the maximum similarity is obtained is the position of the local pattern candidate point. The specific pattern recognition method according to claim 1, wherein a direction given to a corresponding local pattern is assigned to the local pattern candidate point based on a movement amount that gives the maximum similarity.
前記認識用モデルを生成するモデル生成過程として、検出するべきパターンの特徴の解析を行い、この解析結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定する過程をさらに含む
ことを特徴とする請求項1記載の特定パターン認識方法。Create in advance a database describing the relationship between the features of the local patterns and connected patterns, and the optimum processing method and recognition parameters for recognition of these patterns,
As a model generation process for generating the recognition model, a pattern feature to be detected is analyzed, and the local pattern candidate point extraction process, model deformation process and similar are performed by referring to the database based on the analysis result. 2. The specific pattern recognition method according to claim 1, further comprising a step of determining at least one of a processing method and a recognition parameter in each step of the degree evaluation process.
複数の教示画像に対して試験的に認識を行い、この認識結果をもとに前記データベースを参照して、前記局所パターン候補点抽出過程、モデル変形過程および類似度評価過程の各過程における処理方法および認識パラメータのうち少なくとも一方を決定する
ことを特徴とする請求項1記載の特定パターン認識方法。Create in advance a database that describes the relationship between the characteristics of inter-image variation of the local pattern and connected pattern, and the optimum processing method and recognition parameters for recognition of those patterns,
Recognizing a plurality of teaching images on a trial basis, referring to the database based on the recognition results, and processing methods in the local pattern candidate point extraction process, model deformation process, and similarity evaluation process 2. The method for recognizing a specific pattern according to claim 1, wherein at least one of the recognition parameter and the recognition parameter is determined.
前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出過程と、
この局所パターン候補点抽出過程で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形過程と、
このモデル変形過程で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価過程と
を含むことを特徴とする特定パターン認識プログラム。The direction and direction of a recognition target image having a specific pattern included in the digital image can be specified, and is obtained from a digital image including a recognition reference image serving as a reference corresponding to the recognition target image. The image processing device recognizes a specific pattern of the recognition target image using a recognition model composed of at least two local patterns assigned to each and at least one connected pattern connecting the local patterns. A specific pattern recognition program including a processing procedure of a specific pattern recognition method
At least one local pattern candidate point that is a position of a local pattern candidate that matches each of at least two different local patterns among the local patterns constituting the recognition model is extracted from the digital image including the recognition target image. , A local pattern candidate point extraction process for assigning the direction given to the corresponding local pattern to the at least one local pattern candidate point;
By extracting at least one set of local pattern candidate points that match at least two different local patterns from the local pattern candidate points extracted in this local pattern candidate point extraction process, each local pattern of the extracted set Select deformation candidates consisting of interpolation points, and add position, scale, and angle deformations to the recognition model based on the positional relationship between the local pattern interpolation points of the selected deformation candidates, and recognize them. A model deformation process for obtaining each deformation parameter when superimposing the entire pattern of the model for recognition on the recognition target image;
Based on the deformation parameters obtained in the model deformation process, the recognition model is deformed, the deformed recognition model is superimposed on the recognition target image, and the similarity between the deformation candidate and the recognition target image is determined. A specific pattern recognition program including a similarity evaluation process to be evaluated.
前記認識用モデルを構成する局所パターンのうち、少なくとも2つの異なる局所パターンの各々に符合する局所パターン候補の位置である局所パターン候補点を、前記認識対象画像を含むデジタル画像から少なくとも1つ抽出し、その少なくとも1つの局所パターン候補点に、対応する局所パターンに付与された方向を割り当てる局所パターン候補点抽出手段と、
この局所パターン候補点抽出手段で抽出された局所パターン候補点から、少なくとも2つの相異なる局所パターンと符合する局所パターン候補点の組を少なくとも1組抽出することにより、抽出された組の各局所パターン侯補点からなる変形候補を選定し、選定された変形候補の各局所パターン侯補点の位置関係をもとに、前記認識用モデルに、位置、スケール、角度の変形を加えて、その認識用モデルの全体パターンを前記認識対象画像に重ね合わせる際の各変形パラメータを求めるモデル変形手段と、
このモデル変形手段で求められた変形パラメータに基づいて、前記認識用モデルを変形し、この変形した認識用モデルを前記認識対象画像に重ね合わせ、前記変形候補と前記認識対象画像との類似度を評価する類似度評価手段と
を含むことを特徴とする特定パターン認識装置。Imaging means for performing imaging, quantization means for obtaining a digital image in which a brightness value is recorded for each lattice point of the two-dimensional matrix from an image signal captured by the imaging means, and digital obtained by the quantization means Storage means for storing at least image data, which can specify the position and orientation of a recognition target image having a specific pattern included in the digital image, and serves as a reference corresponding to the recognition target image Utilizing a recognition model composed of at least two local patterns obtained from a digital image including a recognition reference image, each of which is assigned one direction, and at least one connection pattern connecting these local patterns A specific pattern recognition apparatus for recognizing a specific pattern of a recognition target image,
At least one local pattern candidate point that is a position of a local pattern candidate that matches each of at least two different local patterns among the local patterns constituting the recognition model is extracted from the digital image including the recognition target image. , A local pattern candidate point extracting means for assigning the direction given to the corresponding local pattern to the at least one local pattern candidate point;
By extracting at least one set of local pattern candidate points that match at least two different local patterns from the local pattern candidate points extracted by the local pattern candidate point extraction means, each local pattern of the extracted set Select deformation candidates consisting of interpolation points, and add position, scale, and angle deformations to the recognition model based on the positional relationship between the local pattern interpolation points of the selected deformation candidates, and recognize them. Model deformation means for obtaining respective deformation parameters when the entire pattern of the model for use is superimposed on the recognition target image;
Based on the deformation parameter obtained by the model deformation means, the recognition model is deformed, the deformed recognition model is superimposed on the recognition target image, and the similarity between the deformation candidate and the recognition target image is determined. A specific pattern recognition apparatus including similarity evaluation means for evaluation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002018853A JP4003465B2 (en) | 2002-01-28 | 2002-01-28 | Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002018853A JP4003465B2 (en) | 2002-01-28 | 2002-01-28 | Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003216931A JP2003216931A (en) | 2003-07-31 |
JP4003465B2 true JP4003465B2 (en) | 2007-11-07 |
Family
ID=27654028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002018853A Expired - Fee Related JP4003465B2 (en) | 2002-01-28 | 2002-01-28 | Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4003465B2 (en) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005078375A (en) * | 2003-08-29 | 2005-03-24 | Sony Corp | Direction recognition device, direction recognition method, direction recognition system, and robot device |
JP2006173027A (en) * | 2004-12-20 | 2006-06-29 | Hitachi High-Technologies Corp | Scanning transmission electron microscope, aberration measuring method, and aberration correction method |
JP4957463B2 (en) | 2007-08-30 | 2012-06-20 | セイコーエプソン株式会社 | Image processing device |
JP5067882B2 (en) | 2008-07-18 | 2012-11-07 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP5301239B2 (en) * | 2008-08-09 | 2013-09-25 | 株式会社キーエンス | Pattern model positioning method, image processing apparatus, image processing program, and computer-readable recording medium in image processing |
JP5015097B2 (en) * | 2008-08-29 | 2012-08-29 | シャープ株式会社 | Image processing apparatus, image processing program, computer-readable recording medium, electronic apparatus, and image processing method |
JP2010097438A (en) * | 2008-10-16 | 2010-04-30 | Keyence Corp | Outline information extraction method using image processing, creation method for pattern model in image processing, positioning method for pattern model in image processing, image processor, image processing program and computer-readable recording medium |
JP5241423B2 (en) * | 2008-10-16 | 2013-07-17 | 株式会社キーエンス | Image data reduction rate determination method in image processing, pattern model positioning method in image processing, pattern model creation method in image processing, image processing apparatus, image processing program, and computer-readable recording medium |
DE102008052928A1 (en) * | 2008-10-23 | 2010-05-06 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Device, method and computer program for detecting a gesture in an image, and device, method and computer program for controlling a device |
JP5210241B2 (en) * | 2009-05-12 | 2013-06-12 | キヤノン株式会社 | Image search apparatus, control method therefor, and program |
JP5305026B2 (en) * | 2009-07-13 | 2013-10-02 | 株式会社Ihi | Component alignment control system |
JP6048873B2 (en) * | 2012-09-04 | 2016-12-21 | 株式会社プレックス | Cloth piece inspection method and cloth piece inspection apparatus |
JP2019202506A (en) * | 2018-05-25 | 2019-11-28 | 株式会社Screenホールディングス | Printing method, printer and granular material |
US11200632B2 (en) | 2018-11-09 | 2021-12-14 | Canon Kabushiki Kaisha | Image processing method and image processing apparatus |
CN114730459B (en) | 2019-11-28 | 2024-02-13 | 三菱电机株式会社 | Workpiece image retrieval device and workpiece image retrieval method |
-
2002
- 2002-01-28 JP JP2002018853A patent/JP4003465B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2003216931A (en) | 2003-07-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4003465B2 (en) | Specific pattern recognition method, specific pattern recognition program, specific pattern recognition program recording medium, and specific pattern recognition apparatus | |
JP4825253B2 (en) | System and method for deformable object recognition | |
US7340089B2 (en) | Geometric pattern matching using dynamic feature combinations | |
US7526140B2 (en) | Model-based localization and measurement of miniature surface mount components | |
US7450765B2 (en) | Increasing accuracy of discrete curve transform estimates for curve matching in higher dimensions | |
Dibeklioglu et al. | 3D facial landmarking under expression, pose, and occlusion variations | |
CN105701766A (en) | Image matching method and device | |
JP2007508633A (en) | Method and image processing device for analyzing object contour image, method and image processing device for detecting object, industrial visual device, smart camera, image display, security system, and computer program product | |
JP2011509398A (en) | Method for processing a three-dimensional image of a tire surface so that it can be used to inspect the tire surface | |
EP2177898A1 (en) | Method for selecting an optimized evaluation feature subset for an inspection of free-form surfaces and method for inspecting a free-form surface | |
CN106981077A (en) | Infrared image and visible light image registration method based on DCE and LSS | |
CN101650784A (en) | Method for matching images by utilizing structural context characteristics | |
US6993177B1 (en) | Gauging based on global alignment and sub-models | |
CN103136760B (en) | A kind of multi-sensor image matching process based on FAST Yu DAISY | |
Liu et al. | Building detection from high-resolution satellite image using probability model | |
Libert et al. | Guidance for evaluating contactless fingerprint acquisition devices | |
CN115311618A (en) | Assembly quality inspection method based on deep learning and object matching | |
CN114549513B (en) | Part identification method, part identification device, quality inspection method, electronic equipment and storage medium | |
CN114863129A (en) | Instrument numerical analysis method, device, equipment and storage medium | |
US8238619B2 (en) | Method of extracting ridge line and valley line from three-dimensional point data | |
CN117911827A (en) | Multi-mode target detection method, device, equipment and storage medium | |
US20170140206A1 (en) | Symbol Detection for Desired Image Reconstruction | |
CN111445480B (en) | Image rotation angle and zoom coefficient measuring method based on novel template | |
CN116543376B (en) | Pointer type instrument reading method and system | |
Tashlinskii et al. | Synthesis of stochastic algorithms for image registration by the criterion of maximum mutual information |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040526 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070412 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070424 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070731 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070813 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100831 Year of fee payment: 3 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110831 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120831 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130831 Year of fee payment: 6 |
|
LAPS | Cancellation because of no payment of annual fees |