JP6337504B2 - 画像処理装置、移動体、ロボット、機器制御方法およびプログラム - Google Patents
画像処理装置、移動体、ロボット、機器制御方法およびプログラム Download PDFInfo
- Publication number
- JP6337504B2 JP6337504B2 JP2014032287A JP2014032287A JP6337504B2 JP 6337504 B2 JP6337504 B2 JP 6337504B2 JP 2014032287 A JP2014032287 A JP 2014032287A JP 2014032287 A JP2014032287 A JP 2014032287A JP 6337504 B2 JP6337504 B2 JP 6337504B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- pixel
- value
- parallax
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Landscapes
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Description
まず、図1乃至図6を用いて、SGM法を用いた測距方法の概略について説明する。
図1は、撮像装置から物体物までの距離を導き出す原理を説明する図である。図1を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。なお、以下では、説明を簡略化するため、所定領域(ブロック)のマッチングではなく、画素単位のマッチングの例について説明する。
次に、図2乃至図6を用いて、SGM法を用いた測距方法について説明する。
図3は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図4は、シフト量とコスト値との関係を示すグラフである。図3および図4を参照しながら、コスト値C(p,d)の算出方法について説明する。図3のうち、図3(a)は、基準画像における基準画素を示す概念図を示し、図3(b)は、図3(a)に示す基準画素に対応する比較画像における対応画素の候補となる候補画素を順次シフトしながら(ずらしながら)、候補画素のコスト値を算出する際の概念図である。ここで、対応画素とは、基準画像における基準画素に最も類似する比較画像における画素を示す。また、コスト値とは、基準画像における基準画素に対する、比較画像における各候補画素の非類似度を表す評価値である。すなわち、以下に示すコスト値(および合成コスト値)は、値が小さいほど比較画像における候補画素が基準画素と類似していることを示す。
図5は、合成コストを導出するための概念図である。図6は、シフト量と合成コスト値との関係を示すグラフである。図5および図6を参照しながら、合成コスト値Ls(p,d)の算出方法について説明する。
(式3)
(P=0(d=kの場合)、
P=P1(|d−k|=1の場合)、
P=P2(>P1)(|d−k|>1の場合))
(2)|d−k|=1の場合、P=P1とする。すなわち、Lr(p−r,k)+P(d,k)=Lr(p−r,k)+P1となる。
(3)|d−k|>1の場合、P=P2(>P1)とする。すなわち、Lr(p−r,k)+P(d,k)=Lr(p−r,k)+P2となる。
(視差値導出装置を備えた車両の概略構成)
図7は、第1の実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図7を参照しながら、本実施の形態に係る機器制御システム50を搭載した車両100について説明する。図7のうち、図7(a)は、機器制御システム50を搭載した車両100の側面図であり、図7(b)は、車両100の正面図である。
図8は、第1の実施の形態に係る視差値導出装置の外観の一例を示す図である。図8に示すように、視差値導出装置1は、上述のように、本体2と、本体2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図8に示す撮像部10aを「左」のカメラと称し、撮像部10bを「右」のカメラと称するものとする。
図9は、本実施の形態に係る視差値導出装置のハードウェア構成の一例を示す図である。図9を参照しながら、視差値導出装置1のハードウェア構成について説明する。
図10は、第1の実施の形態に係る視差値導出装置のブロック構成の一例を示す図である。図11は、第1の実施の形態に係る視差値導出装置により撮像された画像の一例を示す図である。図12は、第1の実施の形態において基準画像の画素に対するデンス処理のスキャン動作を示す図である。図13は、第1の実施の形態におけるシフト量と合成コスト値との関係を示すグラフである。図14は、パラボラフィッティングによるサブピクセル推定を説明する図である。図15は、最小二乗法によるサブピクセル推定を説明する図である。図16は、サブピクセル推定を用いたデンス視差画像を示す概念図である。図10乃至図16を参照しながら、視差値導出装置1の要部のブロック構成および各ブロックの動作について説明する。
図17は、第1の実施の形態に係る視差値導出装置のデンス処理によるステレオマッチング処理の動作フローの一例を示す図である。図17を参照しながら、視差値導出装置1のデンス処理に基づく画像処理の動作の流れについて説明する。
視差値導出装置1の画像取得部110は、左のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログ形式の画像データを生成し、その画像データに基づく画像である輝度画像を得る。そして、ステップS2−1へ進む。
視差値導出装置1の画像取得部110は、右のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログ形式の画像データを生成し、その画像データに基づく画像である輝度画像を得る。そして、ステップS2−2へ進む。
視差値導出装置1のフィルタ部210は、撮像部10aにより撮像されて得られたアナログ形式の画像データに対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS3−1へ進む。
視差値導出装置1のフィルタ部210は、撮像部10bにより撮像されて得られたアナログ形式の画像データに対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS3−2へ進む。
フィルタ部210は、ステップS2−1において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における比較画像Iaとして出力する。そして、ステップS4へ進む。
フィルタ部210は、ステップS2−2において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における基準画像Ibとして出力する。そして、ステップS4へ進む。
視差値導出装置1の補正部310は、フィルタ部210から入力した2つの画像(比較画像Ia、基準画像Ib)に対して、撮像部10aと撮像部10bと間の光学的なずれ、および幾何学的なずれを補正し、補正した比較画像Iaおよび基準画像Ibを出力する。視差値導出装置1の第1記憶部350は、補正部310から出力された比較画像Iaおよび基準画像Ibを一時記憶する。視差値導出装置1の第1コスト算出部320は、補正部310から出力された比較画像Iaおよび基準画像Ib、または、第1記憶部350に記憶された比較画像Iaおよび基準画像Ibを入力する。第1コスト算出部320は、基準画像Ibにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Iaにおけるエピポーラ線上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補である候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)の第1コスト値C1(p,d)を算出する。そして、ステップS5へ進む。
視差値導出装置1のコスト合成部330は、基準画像Ibにおける基準画素p(x,y)の周辺の画素を基準画素とした場合のその基準画素についての比較画像Iaにおける画素のコスト値Cを、第1コスト算出部320により算出された候補画素q(x+d,y)のコスト値C(p,d)に集約させて、候補画素q(x+d,y)の合成コスト値Ls(p,d)を算出する。コスト合成部330は、合成コスト値Lsを算出するために、所定のr方向の経路コスト値Lr(p,d)のうち、Lr0、Lr45およびLr90については、比較画像Iaおよび基準画像Ibの全体(すなわち構成する画素値全体)が第1記憶部350に記憶されていなくても算出が可能である。すなわち、コスト合成部330は、補正部310から出力された比較画像Iaおよび基準画像Ibを構成する画素値のうち、直接入力された画素値で第1コスト算出部320により算出された第1コスト値C1に基づいて、Lr0、Lr45およびLr90を算出できる。一方、コスト合成部330は、合成コスト値Lsを算出するために、所定のr方向の経路コスト値Lr(p,d)のうち、Lr135、Lr180、Lr225、Lr270およびLr315については、比較画像Iaおよび基準画像Ibの全体(すなわち構成する画素値全体)が第1記憶部350に記憶されていなければ算出ができない。すなわち、コスト合成部330は、補正部310から出力され、第1記憶部350に記憶された比較画像Iaおよび基準画像Ibを構成する画素値で第1コスト算出部320により算出された第1コスト値C1に基づいて、Lr135、Lr180、Lr225、Lr270およびLr315を算出する。そして、ステップS6へ進む。
視差値導出装置1の第1サブピクセル推定部340は、コスト合成部330により算出された、基準画像Ibにおける基準画素についての比較画像Iaにおける画素の合成コスト値Lsの最小値に対応するシフト量d、およびそれに隣接するシフト量dにおける合成コスト値Lsに基づいて、サブピクセル推定を実行する。第1サブピクセル推定部340は、サブピクセル推定によって求めた近似曲線(図14および図15においては下に凸の2次曲線)の極小値に対応するサブピクセル単位のシフト量dが第1視差値dp1であると推定する。そして、ステップS7へ進む。
視差値導出装置1の第2記憶部360は、第1サブピクセル推定部340によって導出された第1視差値dp1を記憶する。視差値導出装置1の視差画像生成部370は、第2記憶部360に記憶され、デンス処理によって導出された第1視差値dp1によって、基準画像Ibの各画素の輝度値を、その画素に対応する第1視差値dp1で表した画像であるデンス視差画像Ip1を生成する。
図18は、第1の実施の形態に係る視差値導出装置のブロックマッチング処理によるステレオマッチング処理の動作フローの一例を示す図である。図18を参照しながら、視差値導出装置1のブロックマッチング処理に基づく画像処理の動作の流れについて説明する。
視差値導出装置1の画像取得部110は、左のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログ形式の画像データを生成し、その画像データに基づく画像である輝度画像を得る。そして、ステップS12−1へ進む。
視差値導出装置1の画像取得部110は、右のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログ形式の画像データを生成し、その画像データに基づく画像である輝度画像を得る。そして、ステップS12−2へ進む。
視差値導出装置1のフィルタ部210は、撮像部10aにより撮像されて得られたアナログ形式の画像データに対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS13−1へ進む。
視差値導出装置1のフィルタ部210は、撮像部10bにより撮像されて得られたアナログ形式の画像データに対して、ノイズを除去し、デジタル形式の画像データに変換する。そして、ステップS13−2へ進む。
フィルタ部210は、ステップS12−1において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における比較画像Iaとして出力する。そして、ステップS14へ進む。
フィルタ部210は、ステップS12−2において変換したデジタル形式の画像データに基づく画像をステレオマッチング処理における基準画像Ibとして出力する。そして、ステップS14へ進む。
視差値導出装置1の補正部310は、フィルタ部210から入力した2つの画像(比較画像Ia、基準画像Ib)に対して、撮像部10aと撮像部10bと間の光学的なずれ、および幾何学的なずれを補正し、補正した比較画像Iaおよび基準画像Ibを第2コスト算出部321に出力する。視差値導出装置1の第2コスト算出部321は、基準画像Ibにおける基準画素p(x,y)を含む所定領域(ブロック)の輝度値、および、基準画素p(x,y)に基づく比較画像Iaにおけるエピポーラ線上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補である候補画素q(x+d,y)を含むブロックの各輝度値に基づいて、候補画素q(x+d,y)を含むブロックの第2コスト値C2(p,d)を算出する。そして、ステップS15へ進む。
視差値導出装置1の第2サブピクセル推定部341は、第2コスト算出部321により算出された、基準画像Ibにおける基準画素を含むブロックについての比較画像Iaにおける画素のブロックの第2コスト値C2の最小値に対応するシフト量d、およびそれに隣接するシフト量dにおける第2コスト値C2に基づいて、サブピクセル推定を実行する。第2サブピクセル推定部341は、サブピクセル推定によって求めた近似曲線(図14および図15においては下に凸の2次曲線)の極小値に対応するサブピクセル単位のシフト量dが第2視差値dp2であると推定する。そして、ステップS16へ進む。
視差値導出装置1の第2記憶部360は、第2サブピクセル推定部341によって導出された第2視差値dp2を記憶する。視差値導出装置1の視差画像生成部370は、第2記憶部360に記憶され、ブロックマッチング処理によって導出された第2視差値dp2によって、基準画像Ibの各画素の輝度を、その画素に対応する第2視差値dp2で表した画像であるエッジ視差画像Ip2を生成する。
図19は、第1の実施の形態に係る機器制御システムの処理のタイミングチャートを示す図である。図19を参照しながら、本実施の形態に係る機器制御システム50の処理の動作タイミングについて説明する。
第2の実施の形態に係る視差値導出装置および機器制御システムについて、第1の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。本実施の形態に係る視差値導出装置1および機器制御システム50は、構成、ならびに、デンス処理およびブロックマッチング処理の各処理の内容については、第1の実施の形態と同様である。
図20は、第2の実施の形態に係る機器制御システムの処理のタイミングチャートを示す図である。図20を参照しながら、本実施の形態に係る機器制御システム50の処理の動作タイミングについて説明する。
第3の実施の形態に係る視差値導出装置および機器制御システムについて、第1の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。本実施の形態に係る視差値導出装置1および機器制御システム50は、構成、ならびに、デンス処理およびブロックマッチング処理の各処理の内容については、第1の実施の形態と同様である。
図21は、第3の実施の形態に係る機器制御システムの処理のタイミングチャートを示す図である。図21を参照しながら、本実施の形態に係る機器制御システム50の処理の動作タイミングについて説明する。
第4の実施の形態に係る視差値導出装置および機器制御システムについて、第1の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。本実施の形態に係る視差値導出装置1および機器制御システム50は、構成、および、ブロックマッチング処理の内容については、第1の実施の形態と同様である。
図22は、第4の実施の形態において基準画像の画素に対するデンス処理のスキャン動作を示す図である。図22を参照しながら、本実施の形態に係る視差値導出装置1のデンス処理について説明する。
図23は、第4の実施の形態に係る機器制御システムの処理のタイミングチャートを示す図である。図23を参照しながら、本実施の形態に係る機器制御システム50の処理の動作タイミングについて説明する。
第5の実施の形態に係る視差値導出装置および機器制御システムについて、第1の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。本実施の形態に係る視差値導出装置1および機器制御システム50は、構成、および、ブロックマッチング処理の内容については、第1の実施の形態と同様である。
図24は、第5の実施の形態において基準画像の画素に対するデンス処理のスキャン動作を示す図である。図24を参照しながら、本実施の形態に係る視差値導出装置1のデンス処理について説明する。
第6の実施の形態に係る視差値導出装置および機器制御システムについて、第1の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。本実施の形態に係る視差値導出装置1および機器制御システム50は、デンス処理およびブロックマッチング処理の各処理の内容については、第1の実施の形態と同様である。
図25は、第6の実施の形態に係る視差値導出装置のブロック構成の一例を示す図である。図25を参照しながら、視差値導出装置1の要部のブロック構成について説明する。
第7の実施の形態に係る視差値導出装置および機器制御システムについて、第6の実施の形態に係る視差値導出装置および機器制御システムと相違する点を中心に説明する。
図26は、第7の実施の形態に係る視差値導出装置のブロック構成の一例を示す図である。図27は、非エッジ部を検出する動作の一例を示す図である。図26および図27を参照しながら、視差値導出装置1の要部のブロック構成および各ブロックの動作について説明する。
2 本体
3 画像表示装置
5 制御装置
6 ステアリングホイール
7 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 通信I/F
36 CANC
39 バス
50 機器制御システム
100 車両
110 画像取得部
210 フィルタ部
300、300a、300b 視差値演算部
310 補正部
320 第1コスト算出部
321 第2コスト算出部
330 コスト合成部
340 第1サブピクセル推定部
341 第2サブピクセル推定部
350 第1記憶部
360、360a 第2記憶部
370、370a 視差画像生成部
380 検出部
390 選択部
410 認識処理部
510a、510b 撮像装置
511a、511b 撮像レンズ
B 基線長
C コスト値
C1 第1コスト値
C2 第2コスト値
d シフト量
dp 視差値
dp1 第1視差値
dp2 第2視差値
E 物体
EL エピポーラ線
f 焦点距離
FV 有効フレーム信号
Ia 比較画像
Ib 基準画像
Img1〜Img3 画像部
Ip1 デンス視差画像
Ip2 エッジ視差画像
Ip3 混合視差画像
Lr 経路コスト値
Ls 合成コスト値
S、Sa、Sb 点
Th 閾値
Z 距離
Claims (13)
- 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像を取得する取得手段と、
前記基準画像および前記比較画像に基づいてデンス処理を実行し第1視差値を導出するデンス処理手段と、
前記基準画像および前記比較画像に基づいてブロックマッチング処理を実行し第2視差値を導出するマッチング処理手段と、
前記基準画像を構成する各画素が、エッジ部に相当する画素か非エッジ部に相当する画素かを検出し、その検出結果の情報である検出情報を出力する検出手段と、
前記検出情報が、該検出情報に対応する前記基準画像の画素が前記非エッジ部に相当する画素であることを示す場合、該画素に対応する前記第1視差値を出力し、該検出情報に対応する前記基準画像の画素が前記エッジ部に相当する画素であることを示す場合、該画素に対応する前記第2視差値を出力する選択手段と、
前記選択手段により出力された前記第1視差値および前記第2視差値によって視差画像を生成する生成手段と、
を備えた画像処理装置。 - 前記第1視差値を用いて第1被写体に対する認識処理を実行し、前記第2視差値を用いて前記第1被写体よりも状態の変化が大きい第2被写体に対する認識処理を実行する認識処理手段をさらに備えた請求項1に記載の画像処理装置。
- 前記デンス処理手段は、
前記基準画像における第1基準領域の輝度値と、前記第1基準領域に基づく前記比較画像におけるエピポーラ線上で、前記第1基準領域の位置に相当する領域から、画素単位のシフト量でシフトすることにより特定される、前記第1基準領域に対応する前記比較画像の対応領域の候補となる複数の第1候補領域の輝度値と、に基づいて前記複数の第1候補領域それぞれの第1コスト値を算出する第1算出手段と、
前記第1基準領域の周辺の第2基準領域についての前記比較画像における第1コスト値を、前記第1候補領域の第1コスト値に集約させて、前記複数の第1候補領域それぞれの合成コスト値を算出する合成手段と、
前記比較画像における前記複数の第1候補領域の前記合成コスト値のうち第1極値に対応する前記シフト量に基づいて、前記第1視差値を導出する第1導出手段と、
を備えた請求項1または2に記載の画像処理装置。 - 前記マッチング処理手段は、
前記基準画像における第3基準領域の輝度値と、前記第3基準領域に基づく前記比較画像におけるエピポーラ線上で、前記第3基準領域の位置に相当する領域から、画素単位のシフト量でシフトすることにより特定される、前記第3基準領域に対応する前記比較画像の対応領域の候補となる複数の第2候補領域の輝度値と、に基づいて前記複数の第2候補領域それぞれの第2コスト値を算出する第2算出手段と、
前記比較画像における前記複数の第2候補領域の前記第2コスト値のうち第2極値に対応する前記シフト量に基づいて、前記第2視差値を導出する第2導出手段と、
を備えた請求項1〜3のいずれか一項に記載の画像処理装置。 - 前記第1算出手段は、前記基準画像の所定位置から下側部分における前記第1基準領域の輝度値と、前記エピポーラ線上で、前記第1基準領域の位置に相当する領域から、画素単位のシフト量でシフトすることにより特定される、前記複数の第1候補領域の輝度値と、に基づいて前記複数の第1候補領域それぞれの第1コスト値を算出し、
前記合成手段は、前記基準画像の前記所定位置から下側部分における前記第1基準領域の周辺の第2基準領域についての前記比較画像における第1コスト値を、前記第1候補領域の第1コスト値に集約させて、前記複数の第1候補領域それぞれの前記合成コスト値を算出し、
前記第1導出手段は、前記基準画像の前記所定位置から下側部分に対応して前記第1視差値を導出し、
前記生成手段は、前記基準画像の前記所定位置から下側部分に対応した前記第1視差値に基づく視差画像を生成する請求項3に記載の画像処理装置。 - 前記合成手段は、前記第1基準領域の複数の特定方向で隣接する前記第2基準領域についての前記比較画像における第1コスト値を、前記第1候補領域の第1コスト値に集約させて、前記複数の第1候補領域それぞれの前記各特定方向の経路コスト値を算出し、前記各経路コスト値を合計することにより前記合成コスト値を算出する請求項3に記載の画像処理装置。
- 前記デンス処理手段および前記マッチング処理手段は、別々の集積回路によって構成された請求項1〜4のいずれか一項に記載の画像処理装置。
- 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像を取得する取得手段と、
前記基準画像および前記比較画像に基づいてデンス処理を実行し第1視差値を導出するデンス処理手段と、
前記基準画像および前記比較画像に基づいてブロックマッチング処理を実行し第2視差値を導出するマッチング処理手段と、
前記基準画像を構成する各画素が、エッジ部に相当する画素か非エッジ部に相当する画素かを検出し、その検出結果の情報である検出情報を出力する検出手段と、
前記検出情報が、該検出情報に対応する前記基準画像の画素が前記非エッジ部に相当する画素であることを示す場合、該画素に対応する前記第1視差値を出力し、該検出情報に対応する前記基準画像の画素が前記エッジ部に相当する画素であることを示す場合、該画素に対応する前記第2視差値を出力する選択手段と、
前記選択手段により出力された前記第1視差値および前記第2視差値によって視差画像を生成する生成手段と、
を備え、
前記デンス処理手段および前記マッチング処理手段は、別々の集積回路によって構成された画像処理装置。 - 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像を取得する取得手段と、
前記基準画像および前記比較画像に基づいてデンス処理を実行し第1視差値を導出するデンス処理手段と、
前記基準画像および前記比較画像に基づいてブロックマッチング処理を実行し第2視差値を導出するマッチング処理手段と、
前記基準画像を構成する各画素が、エッジ部に相当する画素か非エッジ部に相当する画素かを検出し、その検出結果の情報である検出情報を出力する検出手段と、
前記検出情報が、該検出情報に対応する前記基準画像の画素が前記非エッジ部に相当する画素であることを示す場合、該画素に対応する前記第1視差値を出力し、該検出情報に対応する前記基準画像の画素が前記エッジ部に相当する画素であることを示す場合、該画素に対応する前記第2視差値を出力する選択手段と、
前記選択手段により出力された前記第1視差値および前記第2視差値によって視差画像を生成する生成手段と、
を備え、
前記デンス処理手段および前記マッチング処理手段のうち、一方は集積回路によって構成され、他方はプログラムが実行されることにより実現される画像処理装置。 - 請求項1〜9のいずれか一項に記載の画像処理装置を備えた移動体。
- 請求項1〜9のいずれか一項に記載の画像処理装置を備えたロボット。
- 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像を取得する取得ステップと、
前記基準画像および前記比較画像に基づいてデンス処理を実行し第1視差値を導出するデンス処理ステップと、
前記基準画像および前記比較画像に基づいてブロックマッチング処理を実行し第2視差値を導出するマッチング処理ステップと、
前記基準画像を構成する各画素が、エッジ部に相当する画素か非エッジ部に相当する画素かを検出し、その検出結果の情報である検出情報を出力する検出ステップと、
前記検出情報が、該検出情報に対応する前記基準画像の画素が前記非エッジ部に相当する画素であることを示す場合、該画素に対応する前記第1視差値を出力し、該検出情報に対応する前記基準画像の画素が前記エッジ部に相当する画素であることを示す場合、該画素に対応する前記第2視差値を出力する選択ステップと、
出力した前記第1視差値および前記第2視差値によって視差画像を生成する生成ステップと、
を有する機器制御方法。 - 第1撮像手段が被写体を撮像することにより得られた基準画像、および第2撮像手段が前記被写体を撮像することにより得られた比較画像を取得する取得手段と、
前記基準画像および前記比較画像に基づいてデンス処理を実行し第1視差値を導出するデンス処理手段と、
前記基準画像および前記比較画像に基づいてブロックマッチング処理を実行し第2視差値を導出するマッチング処理手段と、
前記基準画像を構成する各画素が、エッジ部に相当する画素か非エッジ部に相当する画素かを検出し、その検出結果の情報である検出情報を出力する検出手段と、
前記検出情報が、該検出情報に対応する前記基準画像の画素が前記非エッジ部に相当する画素であることを示す場合、該画素に対応する前記第1視差値を出力し、該検出情報に対応する前記基準画像の画素が前記エッジ部に相当する画素であることを示す場合、該画素に対応する前記第2視差値を出力する選択手段と、
前記選択手段により出力された前記第1視差値および前記第2視差値によって視差画像を生成する生成手段と、
をコンピュータに実現させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032287A JP6337504B2 (ja) | 2014-02-21 | 2014-02-21 | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014032287A JP6337504B2 (ja) | 2014-02-21 | 2014-02-21 | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015158749A JP2015158749A (ja) | 2015-09-03 |
JP6337504B2 true JP6337504B2 (ja) | 2018-06-06 |
Family
ID=54182706
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014032287A Active JP6337504B2 (ja) | 2014-02-21 | 2014-02-21 | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6337504B2 (ja) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6810009B2 (ja) * | 2017-09-29 | 2021-01-06 | トヨタ自動車株式会社 | 視差算出装置 |
CN111242990B (zh) * | 2020-01-06 | 2024-01-30 | 西南电子技术研究所(中国电子科技集团公司第十研究所) | 基于连续相位稠密匹配的360°三维重建优化方法 |
EP4094433A4 (en) | 2020-01-22 | 2024-02-21 | Nodar Inc. | NON-RIGID STEREOSCOPIC VISION CAMERA SYSTEM |
CN112347882B (zh) * | 2020-10-27 | 2024-03-22 | 中德(珠海)人工智能研究院有限公司 | 一种智能分拣控制方法和智能分拣控制系统 |
EP4275194A1 (en) * | 2021-01-06 | 2023-11-15 | Nodar Inc. | Methods and systems for providing depth maps with confidence estimates |
US11577748B1 (en) | 2021-10-08 | 2023-02-14 | Nodar Inc. | Real-time perception system for small objects at long range for autonomous vehicles |
WO2023244252A1 (en) | 2022-06-14 | 2023-12-21 | Nodar Inc. | 3d vision system with automatically calibrated stereo vision sensors and lidar sensor |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5106771B2 (ja) * | 2005-11-08 | 2012-12-26 | 株式会社トヨタマップマスター | 路面標示計測装置 |
JP5188429B2 (ja) * | 2009-03-24 | 2013-04-24 | 富士重工業株式会社 | 環境認識装置 |
JP2013073598A (ja) * | 2011-09-29 | 2013-04-22 | Sony Corp | 画像処理装置、画像処理方法、及びプログラム |
-
2014
- 2014-02-21 JP JP2014032287A patent/JP6337504B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015158749A (ja) | 2015-09-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6565188B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6337504B2 (ja) | 画像処理装置、移動体、ロボット、機器制御方法およびプログラム | |
JP5926228B2 (ja) | 自律車両用の奥行き検知方法及びシステム | |
JP6417886B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP6561512B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値生産方法及びプログラム | |
WO2017138245A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6171593B2 (ja) | 視差図からの対象追跡方法及びシステム | |
JP6306735B2 (ja) | ステレオカメラ装置及びステレオカメラ装置を備える車両 | |
JP6589313B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6455164B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
EP3545464A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6543935B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JPWO2017099199A1 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6519138B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム | |
JP2015230703A (ja) | 物体検出装置及び物体検出方法 | |
JP6561511B2 (ja) | 視差値導出装置、移動体、ロボット、視差値生産導出方法、視差値の生産方法及びプログラム | |
JP6387710B2 (ja) | カメラシステム、測距方法、およびプログラム | |
JP6515547B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値生産方法、及びプログラム | |
JP2018146495A (ja) | 物体検出装置、物体検出方法、物体検出プログラム、撮像装置、及び、機器制御システム | |
JP6459482B2 (ja) | 視差値導出装置、機器制御システム、移動体、ロボット、視差値導出方法、およびプログラム | |
JP6561688B2 (ja) | 検出装置、検出方法、撮像装置、機器制御システム、及びプログラム | |
JP6442911B2 (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、及びプログラム | |
KR20190069958A (ko) | 동적 객체 검출 장치 및 방법 | |
JP6701738B2 (ja) | 視差値導出装置、視差値導出方法及びプログラム | |
JP2015195019A (ja) | 視差値導出装置、移動体、ロボット、視差値導出方法、視差値の生産方法及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170207 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171226 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180330 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180410 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180423 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6337504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |