Nothing Special   »   [go: up one dir, main page]

JP5752770B2 - 画像処理方法および装置 - Google Patents

画像処理方法および装置 Download PDF

Info

Publication number
JP5752770B2
JP5752770B2 JP2013227733A JP2013227733A JP5752770B2 JP 5752770 B2 JP5752770 B2 JP 5752770B2 JP 2013227733 A JP2013227733 A JP 2013227733A JP 2013227733 A JP2013227733 A JP 2013227733A JP 5752770 B2 JP5752770 B2 JP 5752770B2
Authority
JP
Japan
Prior art keywords
image
patch
image patch
light
value associated
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013227733A
Other languages
English (en)
Other versions
JP2014112362A (ja
Inventor
牧 淳人
淳人 牧
リカルド・ゲラルディ
オリバー・ウッドフォード
フランク・パーベット
ミン−トリ・パーム
ビョルン・ステンガー
サム・ジョンソン
ロベルト・シポッラ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JP2014112362A publication Critical patent/JP2014112362A/ja
Application granted granted Critical
Publication of JP5752770B2 publication Critical patent/JP5752770B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Signal Processing (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明の実施形態は、2つの画像パッチの類似度の計算を含む画像処理方法に関する。
この出願は、2012年11月5日に出願された、英国特許出願番号1219844.6号に基づいて優先権の利益を主張し、全体が参照されることによりここに組み込まれる。
異なる画像の領域間での類似度の計算は、多くの画像解析アプリケーションの基本的役割を果たす。これらのアプリケーションはステレオマッチング、マルチモーダル画像比較および位置合わせ、動き推定、画像位置合わせおよびトラッキングを含む。
一般に、マッチングおよび位置合わせ技術は、異方性放射輝度分布関数(anisotropic radiance distribution functions)、遮へい(occlusions)または異なる取得プロセスにより引き起こされる、非線形照度変化から生ずることがある広範囲の変形(transformations)にロバストである必要がある。異なる取得プロセスの例は、可視的、赤外線、および、X線、核磁気共鳴映像法(MRI)および超音波のような異なる医用画像技術である。
以下では、実施形態は図面を参照して記述される。
図1は、本実施形態に係る画像処理システムを示す。 図2は、第1画像パッチおよび第2画像パッチを示す。 図3は、本実施形態に係る2つの画像パッチ間の類似度を計算する方法を示す。 図4は、2つの画像パッチに関するジョイントヒストグラムの一例を示す。 図5は、ジョイントヒストグラムでの量子化および変位の影響を示す。 図6は、条件付き分散の和の方法と、差分の条件付き分散の和の方法との結果の比較を示す。 図7は、勾配降下探索を用いる人工的な位置合わせタスクでの異なる類似度の性能を比較する結果を示す。 図8は、映像シーケンスのフレーム上でオブジェクトを追跡する際の差分の条件付き分散の和の利用例を示す。 図9は、本実施形態に係る画像パッチ間の類似度を計算する方法を示す。 図10は、本実施形態に係る画像処理装置を示す。 図11は、ステレオ画像ペアの左画像と右画像との間のシフトまたは視差からの奥行きの計算を示す。 図12は、本実施形態に係るステレオ画像ペアからの奥行き画像を生成する方法を示す。 図13は、2つの医用画像キャプチャデバイスを示す。 図14は、本実施形態に係る画像処理システムを示す。 図15は、本実施形態に係るマルチモーダル画像を位置合わせする方法を示す。
本実施形態では、第1画像パッチと第2画像パッチとの間の類似度を計算する方法は、前記第1画像パッチは、前記第1画像パッチの要素とそれぞれ関連する複数の第1明暗値を具備し、第2画像パッチは、前記第2画像パッチの要素とそれぞれ関連する複数の第2明暗値を具備し、前記第1画像パッチおよび前記第2画像パッチは、前記第1画像パッチの各要素が前記第2画像パッチの要素に対応するような、対応するサイズおよび形状を有し、
前記第2画像パッチでの部分領域の集合を決定し、各部分領域は、部分領域について定義される第1明暗値範囲内にある第1明暗値を有する前記第1画像パッチの要素に対応する前記第2画像パッチの要素の前記集合として決定され、
部分領域の前記集合のうちの各部分領域について、部分領域の前記要素の全体で、要素に関連する前記第2明暗値と、前記第1画像パッチの対応する要素に関連する前記第1明暗値との関数の分散を計算し、
前記計算された分散の全ての部分領域の和として、前記類似度を計算することを具備する。
本実施形態では、要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との差分である。
本実施形態では、要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との比である。
本実施形態では、前記第1画像パッチおよび前記第2画像パッチは2次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素は画素である。
本実施形態では、前記第1画像パッチおよび前記第2画像パッチは3次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素はボクセルである。
本実施形態では、第1画像および第2画像から奥行き画像を得る方法は、前記第1画像の複数の画素のそれぞれについて、前記第1画像の対象画素で中心となる第1パッチを定義し、前記第2画像の画素で中心となる複数の第2画像パッチを定義し、本実施形態に係る第2画像パッチと第1画像パッチとの間の類似度を計算する方法を用いて前記複数の第2画像パッチの各第2画像パッチと前記第1画像パッチとの間の類似度を計算し、前記対象画素で中心となる前記第1画像パッチに一致するような最大の類似度を有する前記第2画像パッチを選択し、および前記一致するとして選択された前記第2画像パッチの前記中心における前記第2画像の前記画素と前記対象画素との間の前記差異を決定することによって、前記第1画像および前記第2画像の画素間の複数の差異を計算し、前記複数の差異から奥行き画像を計算することを具備する。
本実施形態では、前記複数の第2画像パッチは、エピポーラ線上の画素で中心となるパッチとして選択される。
本実施形態では、第1画像と第2画像との間の変換を決定する画像位置合わせ方法は前記第2画像の第2画像パッチと前記第1画像の第1画像パッチとの間の類似度を計算することを具備する。
本実施形態では、前記第1画像および前記第2画像は、異なる画像キャプチャモダリティから得られる。
本実施形態では、画像処理装置は、第1画像パッチと第2画像パッチとを示すデータを格納するメモリと、前記第1画像パッチは、前記第1画像パッチの要素とそれぞれ関連する複数の第1明暗値を具備し、第2画像パッチは、前記第2画像パッチの要素とそれぞれ関連する複数の第2明暗値を具備し、前記第1画像パッチおよび前記第2画像パッチは、前記第1画像パッチの各要素が前記第2画像パッチの要素に対応するような、対応するサイズおよび形状を有し、前記第2画像パッチでの部分領域の集合を決定し、各部分領域は、部分領域について定義される第1明暗値範囲内にある第1明暗値を有する前記第1画像パッチの要素に対応する前記第2画像パッチの要素の前記集合として決定され、部分領域の前記集合のうちの各部分領域について、部分領域の前記要素の全体で、要素に関連する前記第2明暗値と、前記第1画像パッチの対応する要素に関連する前記第1明暗値との関数の分散を計算し、前記計算された分散の全ての部分領域の和として、前記第1画像パッチと前記第2画像パッチとの間の前記類似度を計算するプロセッサと、を具備する。
本実施形態では、要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との差分である。
本実施形態では、要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との比である。
本実施形態では、前記第1画像パッチおよび前記第2画像パッチは2次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素は画素である。
本実施形態では、前記第1画像パッチおよび前記第2画像パッチは3次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素はボクセルである。
本実施形態では、画像システムは、あるシーンの第1画像をキャプチャする第1カメラと、前記シーンの第2画像をキャプチャする第2カメラと、前記第1画像の複数の画素のそれぞれについて、前記第1画像の対象画素で中心となる第1パッチを定義し、前記第2画像の複数の画素で中心となる複数の第2画像パッチを定義し、前記複数の第2画像パッチの各第2画像パッチと前記第1画像パッチとの間の類似度を計算し、前記対象画素で中心となる前記第1画像パッチに一致するような最大の類似度を有する第2画像パッチを選択し、および前記一致するとして選択された前記第2画像パッチの前記中心における前記第2画像の前記画素と前記対象画素との間の前記差異を決定することによって、前記第1画像および前記第2画像の画素間の複数の差異を計算し、前記複数の差異から奥行き画像を計算するプロセッサモジュールと、を具備する。
本実施形態では、前記プロセッサは、前記複数の第2画像パッチを、エピポーラ線上の画素で中心となるパッチとして選択することをさらに具備する。
本実施形態では、前記画像システムは、水中映像装置である。
本実施形態では、前記プロセッサは、前記第2画像の第2画像パッチと前記第1画像の第1画像パッチとの間の類似度を計算することにより、前記第1画像と前記第2画像との間の変換を決定することをさらに具備する。
本実施形態では、装置は、異なる画像キャプチャモダリティから前記第2画像および前記第1画像を受信する入力モジュールをさらに具備する。
本実施形態では、コンピュータ読み取り可能な媒体は、プロセッサ上で実行する場合に、前記プロセッサに第1画像パッチと第2画像パッチとの間の類似度を計算する方法を実行させるプロセッサ実行可能な指示を実行する。
本発明の実施形態は、ハードウェアにおいて、または汎用コンピュータにおけるソフトウェア上のどちらかで実装されうる。本発明のさらなる実施形態は、ハードウェアとソフトウェアとの組み合わせにおいて実装されうる。本発明の実施形態も、単一の処理装置または処理装置の分散ネットワークによって、実装されうる。
本発明の実施形態は、ソフトウェアによって実装されうるので、本発明の実施形態は、任意の適切な搬送媒体での汎用コンピュータに提供されるコンピュータコードを包含する。搬送媒体は、フロッピーディスク(登録商標)、CD−ROM、磁気デバイスもしくはプログラム可能なメモリデバイスのような、任意の記憶媒体、または、任意の信号、例えば、電気的、光学的もしくはマイクロ波信号のような任意の一時的媒体を含むことができる。
図1は、本実施形態に係る画像処理システムを示す。
画像処理システム100は、メモリ110およびプロセッサ120を含む。メモリ110は、第1画像パッチ112および第2画像パッチ114を格納する。プロセッサ120は、第1画像パッチ112と第2画像パッチ114との間の類似度を生成するための、画像処理方法を実行するようにプログラムされる。
画像処理システム100は、画像信号を受信するための入力を有する。画像信号は、画像データを含む。入力は、画像キャプチャデバイスからデータを受信してもよい。本実施形態では、入力は、ネットワーク接続からデータを受信してもよい。本実施形態では、データは、異なる画像キャプチャモダリティからの画像を含んでもよい。
図2は、第1画像パッチ112および第2画像パッチ114を示す。第1画像パッチは、多くの画素を有する。図2では、第1画像パッチのi番目の画素は、Xiと名付けられる。第2画像パッチ114もまた、多くの画素を有する。第1画像パッチ112および第2画像パッチ114はともに、同じ画素数を有する。第1画像パッチ112中のそれぞれの画素は、第2画像パッチ114の画素に対応する。図2は、第2画像パッチ114のi番目の画素をYiとして示す。第1画像パッチの画素Xiは、第2画像パッチの画素Yiに対応する。明暗値(intensity value)は各画素に関連づけられる。
上述した画像パッチが同じ形およびサイズであれば、画像パッチは、異なるサイズまたは形状の画像から修正または変換されていてもよい。
図3は、本実施形態に係る第1画像パッチと第2画像パッチとの間の類似度を計算する方法を示すフローチャートである。図3に示される方法は、図2に示す第1画像パッチ112と第2画像パッチ114との間の類似度を計算するために、図1に示されるプロセッサによって実装されてもよい。
ステップS302では、第2画像パッチは、多くの部分領域に分割される。第2画像パッチは、第1画像パッチの画素の明暗度(intensity)に従って領域を定義することにより分割される。第1画像パッチにおいては、各部分領域が、ある値域内の明暗度を有する画素の集合として定義される。第2画像パッチでの部分領域は、第1画像パッチでのある部分領域内の画素に対応する位置を有する、第2画像パッチの画素の集合として定義される。
ステップS304では、第2画像パッチでの各領域について、第2画像パッチの画素と第1画像パッチの対応する画素との間の明暗度の差分が計算される。
ステップS306では、各部分領域上の明暗度の差分の分散が計算される。
ステップS308では、全ての部分領域上の分散の合計が計算され、第1画像パッチと第2画像パッチとの間の類似度として取られる。
図3に関して上述された方法は、差分の条件付き分散の和(Sum of Conditional Variance of Differences : SCVD)を計算していると考えられる。SCVD手法は、条件付き分散の和(Sum of Conditional Variance : SCV)を計算する手法の変形である。
SCV方法およびSCVD方法について詳細に記述する。1組の画像Xおよび画像Yを考えると、条件付き分散の和(SCV)マッチング指標は、Xのある一定の範囲の明暗度を持つ領域X(j)(上述した第1画像に相当する基準画像と呼ばれる)に対応して、Yの画素をn個のばらばらなビン(disjoint bin)Y(j)(ここで、j=1,...,n)に分割して規定する。
マッチング指標の値は、各ビンY(j)内の明暗度の分散を合計することで得られる。
ここで、XおよびY、i=1,...,Nは、XおよびYの画素明暗度をそれぞれ示し、Nは、画素の総数である。合計に現われる条件は、Xの明暗値範囲を一様に分割して得られる。
図4は、画像XおよびYに関するジョイントヒストグラムの一例を示す。SCVの振る舞いは、ジョイントヒストグラムによって特徴付けられうる。図4に示すように、ジョイントヒストグラムは、第1画像の範囲を第2画像へマッピングする、非単射関係として解釈されうる。
ジョイントヒストグラムHXYは、2つの画像の範囲をマッピングする、非単射関係として解釈されうる。図4aは、基準画像のコントラストを線形に減少させた後の結果となるジョイントヒストグラムを示す。図4bは、非線形明暗度マップに関するジョイントヒストグラムを示す。より熱い(より明るい)色は、より頻繁に生じる値に対応する。
各列(行)のゼロでないエントリに寄与した画素の集合は、j番目の条件によって選択された領域のうちの1つに対応する。離散化レベルnbの数は、問題依存であり、バイト精度で量子化された画像に関して、典型的な選択は、通常n=32または64である。より大きな間隔は、より広い収束半径を実現する際に手助けとなり、雑音に対するより多くの復元力を提示することができる。画素が現在のビン境界を超えない限り、マッチング指標は変わらない。一方、狭い範囲はマッチング精度を高め、量子化ステップ中に失われる情報を低減するであろう。
SCVアルゴリズムに従って、基準画像は、SSCV(X,Y)に関する上記の式の分散が計算されるべき部分領域を決定するためにもっぱら用いられる。
ここに記述される実施形態では、差分の条件付き分散に基づく類似度が用いられる。それゆえ、両方の画像に存在する情報が用いられ、より識別力のあるマッチング指標をもたらす。
最初に、差分の分散(VD)は、2つのテンプレート間の明暗差の2次モーメントとして定義される。
差分の分布が一定のとき、差分の分散は最小となる。それは、バイアス不変であり、スケールセンシティブであり、ゼロ平均差分二乗和に比例する。
ゼロ平均二乗和された差分に比例するという事実は、以下によって検証されうる。
ここで、画像の平均は、要素的な平均を示すことが理解される。
2つの画像XおよびYを仮定すると、差分の条件付き分散の和(SCVD)を、それらの差分のパーティション上の分散の合計として定義する。上述のように、部分集合は、ビンX(j)の集合を生成するために基準画像の範囲を限定することにより選択される。記号であらわすと、
差分に意味があるものにするには、2つの信号は直接の関係があるべきである。
マッチング指標はスケールおよびバイアス変化に鈍い必要があるので、以下の式に従ってそれらのうちの1つの符号(sign)を調整することにより、直接の関係を最大化する。
ここで、Γは、Rを{−1,1}にマッピングするステップ関数であることを示す。Φは、隣接するヒストグラムビンの中でE(Y)のペアの間における比較の累積的な結果をエンコードする。その結果、符号は適切に調整される。従って、XとYとからのマッピングに関する要求は、弱順序保存である。すなわち、関数は単調であるが、単射であることは要求されない。オリジナルのSCV方程式の中にないこの制限は、例えば、異なるモードで同じ対象用にキャプチャされた信号間で、ほとんど有効とし、利用可能な情報のよりよい利用を可能にする。
明暗度分布が一様でない場合、Xの明暗度範囲を等しい大きさであるビンX(j)に一様に分割することは、標準以下の性能をもたらす可能性がある。不十分にサンプリングされた明暗度範囲は雑音が多く、それらの分散は信頼性が低い。スペクトルのオーバーサンプリングされた領域は、多くの画素を単一のビンに圧縮して、そのプロセスにおける大量の有益な情報を破棄してしまうことを、逆にもたらす。手順もまた、本質的に非対称であり、包含される画像を交換する場合、一般に異なる結果を作り出す。
本実施形態では、方法は、上に議論された問題を対処するために、2つの非相互に排他的やり方で変形することができる。変形例のそれぞれ1つは、記述した基準アプローチに独立した性能向上を提供する。
図5は、量子化と変位との影響を示す。図5aは、ここでは、並べられた1組の画像に関するヒストグラムHXYを示し、画像とそのグレイスケール反転との間のジョイントヒストグラムが示される。
図5bは、画像の1つに5つの画素変位を備えた同じ組の画像に関するヒストグラムHXYを示す。
図5cは、画像の明暗度範囲が等しくなった場合の、並べられた画像に関するヒストグラムHXYを示す。
図5dは、画像の明暗値範囲が等しくなった場合の、変位された画像に関するヒストグラムHXYを示す。
見て分かるように、図5aおよび5bでは、明暗度スペクトルの低い部分および高い部分に対応するビンは、どんな票(vote)も受け取らず、それゆえ、より少ない領域に画像情報を圧縮する。単一ビン利用を達成するために、ヒストグラム平坦化は、基準画像Xで行われる。図5cは、入力基準画像Xをそのヒストグラム平坦化されたバージョンで置換することで生成されるHXYを示し、全ダイナミックレンジの完全な利用を達成する。
図5から見ることができるように、基準画像を平坦化することは、より大きなエリアに票を広げて、分散計算に作用し、より識別力のある手段に帰着することをもたらす。画像のうちの1つだけが分散を計算するためのパーティションを定義するために用いられるため、SCVとSCVDとの両方は、構造的に非対称である。
2つの量は、基準画像に依存する異なる部分領域上で計算されるので、
一般に、
画像マッチングのタスクに関する限り、片方画像に対して別の画像を基準として選ぶ特別の理由は、存在しない。量子化のプロセスはそれゆえ、S{SCV,SCVD}を二方向に計算することで対照となる。
SCVD(SCV)の特性を仮定すると、一様でない量子化の存在で、一方向は他方より通常はるかに識別力がある。上式は、そのような状況においてうまく曖昧さをなくすことができる。
図6は、上述したSCVアプローチ、SCVDアプローチおよび変形例の比較を示す。
画像位置、方向および変位は、すべてランダムに選択され、選択された基準ウィンドウとテンプレートの間の比較基準は、平行移動(translation)を適用した後に計算された。
テンプレートはマルチモード入力をシミュレートするために反転されていることに留意する。領域のサイズは50×50画素に固定され、最大距離はそのエッジ長の半分、つまり25画素に設定される。
図6は、雑音の影響を除去するため、この手続きを20,000回繰り返して平均して生成された(1回の試行はそれぞれ大体単調である)。見てわかるように、全てのSCVDバージョンは、最小を区別するという点で優れている。ヒストグラム平坦化および対称な変形は、SCVとSCVDとの両方に関し、より急な勾配を得る。
両方の改良を利用する場合、SCVDはほとんど一定の傾斜を示し、これは潜在的な導関数に基づく最適化アルコリズムを用いるために重要な性質である。
図7は、勾配降下探索を用いて、人工的な位置合わせタスクでの異なる類似度の性能を比較する結果を示す。上記のようにランダムな配置と変位とを仮定すると、最も急な勾配の方向に続くコスト関数は最適化される。極小値あるいは許容される繰り返しの最大値に達する場合、手続きを終了する。ここでは、繰り返しの最大値は、50回にセットされた。図7は、平均4000の異なる試行で得られた。見てわかるように、各SCVDバージョンは、変形の同じ集合を用いる同等なSCV手段を打ち負かし、無視できないほどの性能向上を提供する。
図8は、映像シーケンスのフレームに関するオブジェクトを追跡する際のSCVDの利用例を示す。図8aは、映像シーケンスおよびその基準テンプレートの1つのフレームを示す。続くフレームは、測光および幾何学的な変形を有する。図8bは、フレームで四角形を最良にマッチングし、基準をゆがませた領域の両方を示すSCVD手法に関する位置合わせ結果を示す。
図9は、本実施形態に係る画像パッチ間の類似度を計算する方法を示す。上に議論された方法では、差分の条件付き分散が計算される。図9に示される方法では、明暗度の比率の条件付き分散が計算される。
図9に示される方法は、図2に示される第1画像パッチ112と第2画像パッチ114との間の類似度を計算するために、図1に示されるプロセッサ120によって実現されてもよい。
ステップS902では、第2画像パッチは、複数の部分領域に分割される。
第2画像パッチは、第1画像パッチの画素の明暗度に従って領域を定義することを用いることで、分割される。第1画像パッチでは、各部分領域が、値域内の明暗度を有する画素の集合として定義される。第2画像パッチでの部分領域は、第1画像パッチで与えられた部分領域内の画素に対応する位置を有する、第2画像パッチの画素の集合として定義される。
ステップS904では、第2画像パッチの各領域について、第2画像パッチの画素の明暗度と第1画像パッチの対応する画素の明暗度との比率が計算される。ステップS906では、各部分領域での明暗度の比率の分散が計算される。ステップS908では、全ての部分領域での分散の合計が計算され、第1画像パッチと第2画像パッチとの間の類似度として取られる。
図10は本実施形態に係る画像処理装置を示す。装置1000は、2つの画像から奥行き画像を決定するための上述される方法を用いる。装置1000は、左カメラ1020および右カメラ1040を含む。左カメラ1020および右カメラ1040は、異なる位置からほぼ同じシーンの画像をキャプチャするために配置される。
画像処理装置1000は、画像処理システム1060を含み、画像処理装置1060は、メモリ1062およびプロセッサ1068を有する。メモリは、左画像1064および右画像1066を格納する。プロセッサは、左画像1064および右画像1066から奥行き画像を決定する方法を実行する。
図11は、左画像1064と右画像1066との間のシフトまたは相違から、どのように奥行きzを計算することができるかを示す。
左カメラ1020は、画像平面1022および中心軸1024を有する。右カメラ1040には画像平面1042および中心軸1044を有する。左カメラの中心軸1024は、距離sだけ右カメラの中心軸1044から離れている。左カメラ1020および右カメラ1040は、fの焦点距離をそれぞれ有する。カメラは、電荷結合素子(CCD)、または、光子を検知し光子を電気信号に変換する他のデバイスを含んでもよい。
座標(x、y、z)を備える点1010は、距離x’だけ左カメラの中心軸1024から離れる点1026での左カメラの像位置1022上に投影される。点は、距離x’だけ右カメラの中心軸1044から離れる点1046での右カメラの像位置1022上に投影される。
奥行きzは以下のように計算することができる。
上式は、左カメラから座標(x,y,z)での点までに及ぶ線によって形成された相似三角形の比較に由来する。
右カメラから座標(x,y,z)での点までに及ぶ線を同様に考慮し、以下の方程式を導出することができる。
2つの方程式を組み合わせると、
したがって、奥行きは差分x’−x’から得ることができる。
図12は、本実施形態に係るステレオ画像ペアからの奥行き画像を生成する方法を示す。
ステップS1202では、左側画像中の画素に対応する右側画像中の画素の探索が実行される。左側画像中の多くの画素については、探索が、右側画像中で対応する画素のために実行される。この探索は、左側画像中の画素で中心となる第1画像パッチを形成することにより実行される。その後、探索は、最も高い類似度を有する第2画像パッチに関して第2画像で実行される。上に記述されるように、類似度が計算される。いったん最も高い類似度を有する画像パッチが見つかれば、その画像パッチの中心にある画素は、右側画像での点の投影として得られる。
ステップS1204では、2つの画素間の差異はそれらの間の距離として計算される。
いったん差異が左側画像中の複数の画素のために計算されたならば、奥行き画像はステップS1206における差異に由来する。
ステップS1202において実行された探索は、平面にある右画像中の画素を左画像中の画素として制限されてもよい。2台のカメラが整列する場合、これは同じy座標での画素を探索することのみを包含してもよい。カメラの中心およびある特徴点を通過する平面は、エピポーラ平面と呼ばれる。画像平面とのエピポーラ平面の交差はエピポーラ線を定義する。2台のカメラのエピポーラ線が整列する場合、1つの画像における全ての特徴は、第2画像における同じ列の上にあるだろう。
2台のカメラが整列しない場合、探索は傾斜したエピポーラ線に沿って実行されてもよい。傾斜したエピポーラ線の位置は、カメラの相対的な位置に関する情報を用いて決定されてもよい。この情報は、キャリブレーションボードを用いて、1台のカメラからの画像が他方に対して回転する範囲を決定することで、決定されてもよい。
代替的に、2台のカメラが整列しない場合、2つのカメラのうちの1つからの画像は、上述したキャリブレーション情報を用いて変換されてもよい。
本実施形態の画像パッチ間の類似度を計算する方法が、画像において雑音に対する高い耐性を持つので、上述した奥行き計算が水中環境のような騒々しい環境に特に適していると予測される。
水中映像環境は、多くの難題を提示する。光子が水または水の分子中の粒子と出合う場合、水中を移動する間、光線は吸収され散乱する。この効果は波長に依存するので、画像センサによって最後に測定された色に影響を及ぼし、低減されたコントラストをもたらす可能性がある。さらに、光が水からガラスそして空気へカメラ筐体に入るときの屈折は、画像のひずみをもたらす。
上述した影響のため、ステレオ画像マッチングを行ない、かつ奥行き画像を生成するために、雑音への高いロバスト性を備える類似度が、ここに記述された実施形態によって提供されるようなものに要求される。
実施形態では、画像パッチのサイズは、明暗度および差異における局所的変化に依存して変化してもよい。画像パッチサイズは、各画素で変化させてもよいし、差異における不確実性を最小限にする画像パッチサイズが選択されてもよい。
図13は、2つの医用画像キャプチャデバイスを示す。第1画像キャプチャデバイス1310は、第1画像キャプチャモダリティを用いて、患者1350の第1画像1320をキャプチャする。第2画像キャプチャデバイス1330は、第2画像キャプチャモダリティを用いて、患者の第2画像1340をキャプチャする。
例えば、第1画像キャプチャモダリティは、X線でもよいし、第2画像キャプチャモダリティは核磁気共鳴映像法でもよい。
図14は、本実施形態に係る画像処理システムを示す。画像処理装置システム1400は、異なるセンサモダリティで得られる画像を位置合わせする。例えば、図13に示されるように、第1および第2画像キャプチャデバイスの両方が、患者の脚の画像をキャプチャする。
画像処理装置1400は、第1画像1320および第2画像1340を格納するメモリ1410を有する。画像処理装置1400は、第1画像を第2画像に位置合わせする方法を実行するプロセッサ1420を有する。
図15は、マルチモーダル画像を位置合わせするためのシステム1400によって実行される方法を示す。
ステップS1502では、第1画像の領域は第1画像パッチとして選択される。ステップS1504では、第2画像パッチは第2画像から得られる。第2画像パッチは、第2画像の一部を変形するかまたは歪めることによって得られてもよい。ステップS1506では、第1画像パッチと第2画像パッチとの間の類似度は、上述された方法のうちの1つを用いて計算される。ステップS1508では、最大の類似度を有する第2画像パッチが決定されるまで、ステップS1504およびS1506が繰り返される。
ステップS1510では、画像間の位置合わせが決定される。
画像間の位置合わせは、変換行列として決定されてもよい。画像間の位置合わせは、医用におけるデジタル画像と通信(DICOM:Digital Imaging and Communications in Medicine)規格のような標準規格に従ってメタデータとして格納されてもよい。
上述した例は、マルチモーダルセンサからの画像の位置合わせに関するが、方法もまた以下のアプリケーションに適合させてもよい。アトラスマッピング;患者の画像は、格納された医学のアトラス、例えば脳の解剖学的特徴の集合にマッピングされてもよい。ある期間中に得られた患者の画像は、互いにマッピングされてもよい。患者の複数の画像は、一緒に閉じられて(stitch)もよい。
上の記述は、2次元画像に関するが、当業者であれば、記述された方法とシステムが、類似度を決定するために、多くのボクセルを含むパッチが比較されるであろう3次元画像に適用できることが理解される。
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。

Claims (20)

  1. 第1画像パッチと第2画像パッチとの間の類似度を計算する方法であって、
    前記第1画像パッチは、前記第1画像パッチの要素とそれぞれ関連する複数の第1明暗値を具備し、第2画像パッチは、前記第2画像パッチの要素とそれぞれ関連する複数の第2明暗値を具備し、
    前記第1画像パッチおよび前記第2画像パッチは、前記第1画像パッチの各要素が前記第2画像パッチの要素に対応するような、対応するサイズおよび形状を有し、前記第2画像パッチのサイズおよび形状は、前記第1明暗値に従い、
    前記方法は、
    前記第2画像パッチでの部分領域の集合を決定し、各部分領域は、該部分領域について定義される第1明暗値範囲内にある第1明暗値を有する前記第1画像パッチの要素に対応する前記第2画像パッチの要素の前記集合として決定され、
    部分領域の前記集合のうちの各部分領域について、部分領域の前記要素の全体で、要素に関連する前記第2明暗値と、前記第1画像パッチの対応する要素に関連する前記第1明暗値との関数の分散を計算し、
    前記計算された分散の全ての部分領域の和として、前記類似度を計算することを具備する方法。
  2. 要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との差分である請求項1の方法。
  3. 要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との比である請求項1の方法。
  4. 前記第1画像パッチおよび前記第2画像パッチは2次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素は画素である請求項1の方法。
  5. 前記第1画像パッチおよび前記第2画像パッチは3次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素はボクセルである請求項1の方法。
  6. 第1画像および第2画像から奥行き画像を得る方法であって、前記方法は、
    前記第1画像の複数の画素のそれぞれについて、
    前記第1画像の対象画素で中心となる第1パッチを定義し、
    前記第2画像の画素で中心となる複数の第2画像パッチを定義し、
    請求項1の前記方法を用いて前記複数の第2画像パッチの各第2画像パッチと前記第1画像パッチとの間の類似度を計算し、
    前記対象画素で中心となる前記第1画像パッチに一致するような最大の類似度を有する前記第2画像パッチを選択し、および
    前記一致するとして選択された前記第2画像パッチの前記中心における前記第2画像の前記画素と前記対象画素との間の差異を決定することによって、前記第1画像および前記第2画像の画素間の複数の差異を計算し、
    前記複数の差異から奥行き画像を計算することを具備する方法。
  7. 前記複数の第2画像パッチは、エピポーラ線上の画素で中心となるパッチとして選択される請求項6の方法。
  8. 請求項1の前記方法に従い前記第2画像の第2画像パッチと前記第1画像の第1画像パッチとの間の類似度を計算することを具備する第1画像と第2画像との間の変換を決定する画像位置合わせ方法。
  9. 前記第1画像および前記第2画像は、異なる画像キャプチャモデリティから得られる請求項8の画像位置合わせ方法。
  10. 第1画像パッチと第2画像パッチとを示すデータを格納するメモリと、前記第1画像パッチは、前記第1画像パッチの要素とそれぞれ関連する複数の第1明暗値を具備し、第2画像パッチは、前記第2画像パッチの要素とそれぞれ関連する複数の第2明暗値を具備し、前記第1画像パッチおよび前記第2画像パッチは、前記第1画像パッチの各要素が前記第2画像パッチの要素に対応するような、対応するサイズおよび形状を有し、前記第2画像パッチのサイズおよび形状は、前記第1明暗値に従い、
    前記第2画像パッチでの部分領域の集合を決定し、各部分領域は、部分領域について定義される第1明暗値範囲内にある第1明暗値を有する前記第1画像パッチの要素に対応する前記第2画像パッチの要素の前記集合として決定され、
    部分領域の前記集合のうちの各部分領域について、部分領域の前記要素の全体で、要素に関連する前記第2明暗値と、前記第1画像パッチの対応する要素に関連する前記第1明暗値との関数の分散を計算し、
    前記計算された分散の全ての部分領域の和として、前記第1画像パッチと前記第2画像パッチとの間の類似度を計算するプロセッサと、を具備する画像処理装置。
  11. 要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との差分である請求項10の装置。
  12. 要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との前記関数は、前記要素に関連する前記第2明暗値と前記第1画像パッチの対応する要素に関連する前記第1明暗値との比である請求項10の装置。
  13. 前記第1画像パッチおよび前記第2画像パッチは2次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素は画素である請求項10の装置。
  14. 前記第1画像パッチおよび前記第2画像パッチは3次元画像パッチであり、前記第1画像パッチおよび前記第2画像パッチの前記要素はボクセルである請求項10の装置。
  15. あるシーンの第1画像をキャプチャする第1カメラと、
    前記シーンの第2画像をキャプチャする第2カメラと、
    前記第1画像の複数の画素のそれぞれについて、
    前記第1画像の対象画素で中心となる第1パッチを定義し、
    前記第2画像の複数の画素で中心となる複数の第2画像パッチを定義し、
    請求項1の前記方法を用いて前記複数の第2画像パッチの各第2画像パッチと前記第1画像パッチとの間の類似度を計算し、
    前記対象画素で中心となる前記第1画像パッチに一致するような最大の類似度を有する第2画像パッチを選択し、および
    前記一致するとして選択された前記第2画像パッチの前記中心における前記第2画像の前記画素と前記対象画素との間の差異を決定することによって、前記第1画像および前記第2画像の画素間の複数の差異を計算し、
    前記複数の差異から奥行き画像を計算するプロセッサモジュールと、を具備する画像システム。
  16. 前記プロセッサは、前記複数の第2画像パッチを、エピポーラ線上の画素で中心となるパッチとして選択することをさらに具備する請求項15の画像システム。
  17. 請求項15の前記画像システムを具備する水中映像装置。
  18. 前記プロセッサは、前記第2画像の第2画像パッチと前記第1画像の第1画像パッチとの間の類似度を計算することにより、前記第1画像と前記第2画像との間の変換を決定することをさらに具備する請求項10の装置。
  19. 異なる画像キャプチャモダリティから前記第2画像および前記第1画像を受信する入力モジュールをさらに具備する請求項18の装置。
  20. プロセッサ上で実行する場合に、前記プロセッサに請求項1の方法を実行させるプロセッサ実行可能な指示を具備するコンピュータ読み取り可能な媒体。
JP2013227733A 2012-11-05 2013-10-31 画像処理方法および装置 Expired - Fee Related JP5752770B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB1219844.6 2012-11-05
GB1219844.6A GB2507558A (en) 2012-11-05 2012-11-05 Image processing with similarity measure of two image patches

Publications (2)

Publication Number Publication Date
JP2014112362A JP2014112362A (ja) 2014-06-19
JP5752770B2 true JP5752770B2 (ja) 2015-07-22

Family

ID=47429143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013227733A Expired - Fee Related JP5752770B2 (ja) 2012-11-05 2013-10-31 画像処理方法および装置

Country Status (3)

Country Link
US (1) US20160148393A2 (ja)
JP (1) JP5752770B2 (ja)
GB (1) GB2507558A (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10057593B2 (en) * 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10032280B2 (en) 2014-09-19 2018-07-24 Brain Corporation Apparatus and methods for tracking salient features
US10282623B1 (en) * 2015-09-25 2019-05-07 Apple Inc. Depth perception sensor data processing
US10977811B2 (en) * 2017-12-20 2021-04-13 AI Analysis, Inc. Methods and systems that normalize images, generate quantitative enhancement maps, and generate synthetically enhanced images
CN109191496B (zh) * 2018-08-02 2020-10-02 阿依瓦(北京)技术有限公司 一种基于形状匹配的运动预测方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05157528A (ja) * 1991-12-03 1993-06-22 Nippon Steel Corp 腐食形状の3次元解析方法
JPH11167634A (ja) * 1997-12-03 1999-06-22 Omron Corp 画像の領域分割方法、画像の領域分割装置、画像の領域分割プログラムを記録した記録媒体、画像検索方法、画像検索装置および画像検索プログラムを記録した記録媒体
KR100307883B1 (ko) * 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
GB0125774D0 (en) * 2001-10-26 2001-12-19 Cableform Ltd Method and apparatus for image matching
JP4556437B2 (ja) * 2004-02-03 2010-10-06 ソニー株式会社 映像分類装置、映像分類方法、映像分類方法のプログラム及び映像分類方法のプログラムを記録した記録媒体
US7724944B2 (en) * 2004-08-19 2010-05-25 Mitsubishi Electric Corporation Image retrieval method and image retrieval device
US20060098897A1 (en) * 2004-11-10 2006-05-11 Agfa-Gevaert Method of superimposing images
US9366774B2 (en) * 2008-07-05 2016-06-14 Westerngeco L.L.C. Using cameras in connection with a marine seismic survey
JP5358856B2 (ja) * 2009-04-24 2013-12-04 公立大学法人首都大学東京 医用画像処理装置及び方法
US8121400B2 (en) * 2009-09-24 2012-02-21 Huper Laboratories Co., Ltd. Method of comparing similarity of 3D visual objects
US20110075935A1 (en) * 2009-09-25 2011-03-31 Sony Corporation Method to measure local image similarity based on the l1 distance measure
US20110080466A1 (en) * 2009-10-07 2011-04-07 Spatial View Inc. Automated processing of aligned and non-aligned images for creating two-view and multi-view stereoscopic 3d images
US20110164108A1 (en) * 2009-12-30 2011-07-07 Fivefocal Llc System With Selective Narrow FOV and 360 Degree FOV, And Associated Methods
EP2386998B1 (en) * 2010-05-14 2018-07-11 Honda Research Institute Europe GmbH A Two-Stage Correlation Method for Correspondence Search
WO2013029675A1 (en) * 2011-08-31 2013-03-07 Metaio Gmbh Method for estimating a camera motion and for determining a three-dimensional model of a real environment
WO2013078404A1 (en) * 2011-11-22 2013-05-30 The Trustees Of Dartmouth College Perceptual rating of digital image retouching

Also Published As

Publication number Publication date
JP2014112362A (ja) 2014-06-19
US20140125773A1 (en) 2014-05-08
GB2507558A (en) 2014-05-07
US20160148393A2 (en) 2016-05-26
GB201219844D0 (en) 2012-12-19

Similar Documents

Publication Publication Date Title
US10699476B2 (en) Generating a merged, fused three-dimensional point cloud based on captured images of a scene
CN106228507B (zh) 一种基于光场的深度图像处理方法
JP6007178B2 (ja) 3次元撮像システム
CN111145238A (zh) 单目内窥镜图像的三维重建方法、装置及终端设备
JP5752770B2 (ja) 画像処理方法および装置
US20110074932A1 (en) Accurate 3D Object Reconstruction Using a Handheld Device with a Projected Light Pattern
KR101706216B1 (ko) 고밀도 삼차원 영상 재구성 장치 및 방법
KR20140109439A (ko) 잡음에 강한 영상 정합 방법 및 시스템
JP2019530059A (ja) 複数の対象とする領域を独立的に処理する方法
Lopez-Fuentes et al. Revisiting image vignetting correction by constrained minimization of log-intensity entropy
KR20170022736A (ko) 딕셔너리 학습 기반 해상도 향상 장치 및 방법
US20170084033A1 (en) Method and system for calibrating an image acquisition device and corresponding computer program product
US9721348B2 (en) Apparatus and method for raw-cost calculation using adaptive window mask
Thiruselvam et al. Feature‐assisted stereo correlation
US10332259B2 (en) Image processing apparatus, image processing method, and program
WO2021163406A1 (en) Methods and systems for determining calibration quality metrics for a multicamera imaging system
Gan et al. A photogrammetry-based image registration method for multi-camera systems–with applications in images of a tree crop
CN111462246B (zh) 一种结构光测量系统的设备标定方法
KR102195762B1 (ko) 포토그래메트리를 이용한 고품질 3차원 공간 정보 획득 방법
JP2016213535A (ja) カメラキャリブレーション装置、方法及びプログラム
JP2018009927A (ja) 画像処理装置、画像処理方法及びプログラム
US20150153162A1 (en) Method of three-dimensional measurements by stereo-correlation using a parametric representation of the measured object
JP2016156702A (ja) 撮像装置および撮像方法
EP3194886A1 (en) Positional shift amount calculation apparatus and imaging apparatus
Nasiri et al. Using expectation-maximization for exposing image forgeries by revealing inconsistencies in shadow geometry

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20141007

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150421

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150520

LAPS Cancellation because of no payment of annual fees