JP2014130086A - Range image sensor, processor and program - Google Patents
Range image sensor, processor and program Download PDFInfo
- Publication number
- JP2014130086A JP2014130086A JP2012288367A JP2012288367A JP2014130086A JP 2014130086 A JP2014130086 A JP 2014130086A JP 2012288367 A JP2012288367 A JP 2012288367A JP 2012288367 A JP2012288367 A JP 2012288367A JP 2014130086 A JP2014130086 A JP 2014130086A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- image
- boundary
- distance
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Measurement Of Optical Distance (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、画素値が距離値である距離画像を生成する距離画像センサ、およびこの距離画像センサに用いる処理装置、コンピュータをこの処理装置として機能させるプログラムに関する。 The present invention relates to a distance image sensor that generates a distance image whose pixel value is a distance value, a processing device used for the distance image sensor, and a program that causes a computer to function as the processing device.
従来から、画素値が距離値である距離画像を生成する距離画像センサが知られている。距離画像を生成する技術としては、三角測量法の原理を用いる技術と、光の飛行時間を計測する技術とが主として用いられている。三角測量法の原理を用いる技術としては、光切断法や位相シフト法のように投受光を行うアクティブ型と、ステレオ画像法のように視差を利用したパッシブ型とが知られている。また、飛行時間を計測する技術としては、所定条件で強度が変化する強度変調光を投光し、投光時と受光時との強度変調光の位相の関係を用いて計測した飛行時間を距離に換算する技術が知られている。 Conventionally, a distance image sensor that generates a distance image whose pixel value is a distance value is known. As a technique for generating a distance image, a technique that uses the principle of triangulation and a technique that measures the time of flight of light are mainly used. As a technique using the principle of the triangulation method, an active type that performs light projection and reception like a light cutting method and a phase shift method, and a passive type that uses parallax like a stereo image method are known. In addition, as a technique for measuring the flight time, the intensity modulated light whose intensity changes under a predetermined condition is projected, and the flight time measured using the phase relationship of the intensity modulated light at the time of light projection and at the time of light reception is measured as a distance. The technology to convert to is known.
この種の距離画像センサは、濃淡画像やカラー画像と比較すると、一般に画素数が少なく低解像度になることが知られている。そのため、距離画像の画素内に物体の境界が位置していると、当該画素の画素値(距離値)は適正な値にならず、実空間に存在する物体の位置を正確に計測できないという問題が生じる。 It is known that this type of distance image sensor generally has a lower number of pixels and lower resolution than a grayscale image or a color image. Therefore, if the boundary of the object is located within the pixel of the distance image, the pixel value (distance value) of the pixel is not an appropriate value, and the position of the object existing in the real space cannot be measured accurately. Occurs.
この種の問題を解決するために、特許文献1には、距離画像に加えて距離画像よりも高解像度であるカラー画像を用いることにより、低解像度である距離画像において誤差が生じる輪郭部分の距離値を推定する技術が記載されている。特許文献1では、輪郭部分の距離値(距離情報)を推定するために、着目画素の周囲の距離値を推算し、カラー画像から抽出した輪郭情報の画素位置と距離画像の着目画素との位置関係を用いて、着目画素の周囲の距離値を補間した値を、着目画素の距離値に用いている。要するに、着目画素の四隅の距離値を線形補間した値を着目画素の距離値に用いている。
In order to solve this type of problem,
また、特許文献1には、対象物からの反射光の強度に応じて距離画像の画素ごとに距離値の信頼度を算出し、信頼度をもとに距離値を補正する技術も記載されている。この技術は、反射光の振幅が小さいほど環境光の影響を受けるから、距離値の信頼度が低下するという理由によって、反射波の振幅に基づいて信頼度が設定されている。また、着目する画素を中心とする複数画素の画素領域を定め、この画素領域について信頼度を重みとする重み付け平均を求め、この結果を、着目する画素の距離値と推定している。
上述したように、特許文献1には、着目する画素の周囲の画素の距離値を用いることによって、着目する画素の距離値を補間する技術が記載されており、輪郭上の距離値が周囲の距離値と線形関係であることを想定していると考えられる。
As described above,
しかしながら、物体と背景との距離差によって輪郭が生じている場合には、輪郭を挟んで距離値が不連続になっているから、特許文献1に記載された技術のような周囲の画素の距離値を用いて補間する技術では、着目する画素の距離値を精度よく求めることはできない。
However, when the contour is generated due to the difference in distance between the object and the background, the distance value is discontinuous across the contour, so the distance between the surrounding pixels as in the technique described in
本発明は、距離画像において距離値が不連続になる部位の輪郭に対応した画素の距離値を精度よく求めることを可能にした距離画像センサを提供することを目的とし、さらに、この距離画像センサに用いる処理装置、コンピュータをこの処理装置として機能させるプログラムを提供することを目的とする。
する。
An object of the present invention is to provide a distance image sensor capable of accurately obtaining a distance value of a pixel corresponding to a contour of a part where the distance value is discontinuous in the distance image, and further, the distance image sensor. It is an object of the present invention to provide a processing apparatus used in the above, and a program that causes a computer to function as the processing apparatus.
To do.
本発明に係る距離画像センサは、対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置と、前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。 A distance image sensor according to the present invention generates a first image generation device that generates a distance image whose pixel value is a distance value for a target space, and a high-definition image that is higher in definition than the distance image for the target space. A second image generation device; a boundary extraction unit that extracts positions of two boundary pixels that sandwich the boundary of an object of interest in the high-definition image; and a pixel that includes the boundary of the object in the distance image as a target pixel A pixel extraction unit for extracting the target pixel and the reference pixel based on the position of the boundary pixel using a pixel adjacent to the target pixel located on the background side as a reference pixel, and a target pixel obtained from the high-definition image Correction that is set in advance for the relationship between the position of the boundary in the range and the density difference at the position of the target pixel and the reference pixel obtained from the high-definition image With, characterized in that it comprises a correcting section for correcting the pixel value of the target pixel included in the pixel extracting portion is extracted.
本発明に係る他の距離画像センサは、対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置と、前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。 Another distance image sensor according to the present invention includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for the target space, and a height higher than the distance image for the target space. A second image generation device that generates a high-definition image that is fine, a boundary extraction unit that extracts positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image, and the object in the distance image A pixel extraction unit that extracts the target pixel and the reference pixel based on the position of the boundary pixel, using the pixel including the boundary as a target pixel, the pixel adjacent to the target pixel and positioned on the background side as a reference pixel, Regarding the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference at the position of the target pixel and the reference pixel obtained from the grayscale image Using the correction value that is Luo beforehand set, characterized by comprising a correction section for correcting the pixel value of the target pixel included in the pixel extracting portion is extracted.
この距離画像センサにおいて、前記距離画像から抽出される前記物体に対応する第1の領域と、前記高精細画像から抽出される前記物体に対応する第2の領域とを抽出する領域抽出部をさらに備え、前記画素抽出部は、前記領域抽出部が抽出した前記第1の領域と前記第2の領域とのパターンマッチングを行うことにより前記境界画素の位置を前記対象画素の位置に対応付けることが好ましい。 In the distance image sensor, an area extracting unit that extracts a first area corresponding to the object extracted from the distance image and a second area corresponding to the object extracted from the high-definition image is further provided. The pixel extraction unit preferably associates the position of the boundary pixel with the position of the target pixel by performing pattern matching between the first region and the second region extracted by the region extraction unit. .
この距離画像センサにおいて、前記画素抽出部は、前記第1の画像生成装置と前記第2の画像生成装置との前記物体に対する視差を用いることにより前記境界画素の位置を前記対象画素の位置に対応付けることが好ましい。 In the distance image sensor, the pixel extraction unit associates the position of the boundary pixel with the position of the target pixel by using a parallax with respect to the object of the first image generation device and the second image generation device. It is preferable.
この距離画像センサにおいて、前記対象空間からの入射光束を複数の経路に分岐することにより、前記対象空間に対する光軸を前記第1の画像生成装置と前記第2の画像生成装置とに共用させる光学要素をさらに備えることが好ましい。 In this distance image sensor, the first image generating device and the second image generating device share an optical axis with respect to the target space by branching the incident light beam from the target space into a plurality of paths. Preferably further elements are provided.
この距離画像センサにおいて、前記第1の画像生成装置と前記第2の画像生成装置とをそれぞれ撮像する撮像素子は、ワンチップとなるように1枚の基板に形成されていることが好ましい。 In this distance image sensor, it is preferable that the image pickup elements for picking up images of the first image generation device and the second image generation device are formed on a single substrate so as to form a single chip.
この距離画像センサにおいて、第1の画像生成装置で生成された距離画像と、前記補正部が補正した距離画像とを比較し、前記補正値の妥当性を評価する評価部をさらに備え、前記評価部は、前記距離画像において背景を除く領域であって、前記補正値を適用した領域と実質的に連結領域を形成し、かつ前記補正値が適用されていない画素から得られる距離値と、前記補正値が適用された画素の距離値との差が所定値以下である場合に、前記補正値を妥当と判断することが好ましい。 The distance image sensor further includes an evaluation unit that compares the distance image generated by the first image generation device with the distance image corrected by the correction unit and evaluates the validity of the correction value. The area is an area excluding the background in the distance image, substantially forming a connected area with the area to which the correction value is applied, and a distance value obtained from a pixel to which the correction value is not applied, It is preferable to determine that the correction value is appropriate when the difference from the distance value of the pixel to which the correction value is applied is equal to or less than a predetermined value.
この距離画像センサにおいて、前記境界抽出部は、前記距離画像において画素値が規定の抽出条件を満たす画素を含む領域において、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出することが好ましい。 In the distance image sensor, the boundary extraction unit extracts pixels corresponding to the object in the target space from the high-definition image in an area including pixels in which the pixel value satisfies a predetermined extraction condition in the distance image. Is preferred.
この距離画像センサにおいて、前記対象空間に前記物体が存在しない状態で得られた前記距離画像を背景距離画像として記憶する背景記憶部をさらに備え、前記境界抽出部は、前記第1の画像生成装置が生成した前記距離画像と前記背景記憶部に記憶された前記背景距離画像との差分画像において画素値が基準値以上であることを前記抽出条件とし、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出することが好ましい。 The distance image sensor further includes a background storage unit that stores the distance image obtained in a state where the object does not exist in the target space as a background distance image, and the boundary extraction unit includes the first image generation device. The extraction condition is that the pixel value is equal to or greater than a reference value in the difference image between the distance image generated by the image and the background distance image stored in the background storage unit, and the object in the target space from the high-definition image It is preferable to extract pixels corresponding to.
本発明に係る処理装置は、対象空間について画素値が距離値である距離画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。 A processing device according to the present invention generates a first image generation device that generates a distance image having a pixel value as a distance value for a target space, and a first image generation device that generates a high-definition image that is higher in definition than the distance image for the target space. 2 is a processing device for obtaining a distance to an object of interest in the target space and extracting the positions of two boundary pixels sandwiching the boundary of the object of interest in the high-definition image. A boundary extraction unit that performs detection, a pixel that includes the boundary of the object in the distance image as a target pixel, a pixel that is adjacent to the target pixel and is positioned on the background side as a reference pixel, and the target pixel and the reference pixel are the boundary pixel A pixel extraction unit that extracts based on the position of the target pixel, a boundary position in a range of the target pixel obtained from the high-definition image, and the target pixel obtained from the high-definition image A correction unit that corrects the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance with respect to the relationship with the density difference at the position with respect to the reference pixel. And
本発明に係る他の処理装置は、対象空間について画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置、および前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と併せて用いられ、前記対象空間において着目する物体までの距離を求める処理装置であって、前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備えることを特徴とする。 Another processing device according to the present invention includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for the target space, and a higher definition than the distance image for the target space. A processing device that is used in conjunction with a second image generation device that generates a high-definition image, and obtains the distance to the object of interest in the target space, and sandwiches the boundary of the object of interest in the high-definition image A boundary extraction unit that extracts positions of two boundary pixels; and a pixel that includes the boundary of the object in the distance image as a target pixel, and a pixel that is adjacent to the target pixel and is positioned on the background side as a reference pixel. A pixel extraction unit that extracts a pixel and the reference pixel based on a position of the boundary pixel; a boundary position in a range of a target pixel obtained from the high-definition image; and the gray image Correction for correcting the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance for the relationship between the density difference at the position of the target pixel and the reference pixel obtained from And a section.
本発明に係るプログラムは、コンピュータを、上述した処理装置として機能させる。 The program according to the present invention causes a computer to function as the processing device described above.
本発明の構成によれば、物体と背景との距離差などによって境界が生じている場合に、距離画像より高精細である高精細画像を用いて境界を抽出し、第1の画像生成装置が距離画像とともに生成した濃淡画像において境界を含む対象画素と対象画素に隣接する背景側の画素である基準画素との濃度差の関係に対して設定されている補正値を用いることにより、距離画像において距離値が不連続になる境界に対応した画素の距離値を補正するので、距離値が不連続である部位の距離値を精度よく求めることが可能になるという利点を有する。 According to the configuration of the present invention, when a boundary is generated due to a distance difference between the object and the background, the boundary is extracted using a high-definition image having a higher definition than the distance image, and the first image generation apparatus By using the correction value set for the relationship between the density difference between the target pixel including the boundary in the grayscale image generated together with the distance image and the reference pixel that is the background side pixel adjacent to the target pixel, Since the distance value of the pixel corresponding to the boundary where the distance value becomes discontinuous is corrected, there is an advantage that the distance value of the part where the distance value is discontinuous can be obtained with high accuracy.
以下に説明する距離画像センサは、画素値が距離値である距離画像および濃度値である濃淡画像を生成する第1の画像生成装置と、距離画像より高精細である高精細画像を生成する第2の画像生成装置とを備える。 The distance image sensor described below includes a first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value, and a first image generation device that generates a high-definition image that is higher in definition than the distance image. 2 image generation devices.
第1の画像生成装置は、各画素ごとに距離値および濃度値が得られる構成であって、画素ピッチが等しい距離画像と濃淡画像とを生成する。第2の画像生成装置が生成する高精細画像は、濃淡画像またはカラー画像であり、第1の画像生成装置が生成する距離画像が100×100画素程度であるのに対して、640×480画素〜1280×1024画素程度の範囲から解像度が選択される。 The first image generating apparatus is configured to obtain a distance value and a density value for each pixel, and generates a distance image and a grayscale image having the same pixel pitch. The high-definition image generated by the second image generation device is a grayscale image or a color image, and the distance image generated by the first image generation device is about 100 × 100 pixels, whereas it is 640 × 480 pixels. The resolution is selected from a range of about 1280 × 1024 pixels.
したがって、第1の画像生成装置と第2の画像生成装置との視野がほぼ等しく設定されていれば、高精細画像は、画像の水平方向および垂直方向について、距離画像に対して数倍〜十数倍程度の分解能を持つ。第1の画像生成装置および第2の画像生成装置は、それぞれ独立した撮像素子を備える。 Therefore, if the visual fields of the first image generation device and the second image generation device are set to be approximately equal, the high-definition image is several times to ten times the distance image in the horizontal direction and the vertical direction of the image. It has several times the resolution. The first image generation device and the second image generation device each include an independent image sensor.
撮像素子は、対象空間を写像する二次元格子の格子点上に画素が配置され、レンズを備えた受光光学系を通して対象空間から受光する。したがって、撮像素子の画素には、受光光学系を通して対象空間を見込む方向が対応付けられる。すなわち、第1の画像生成装置および第2の画像生成装置が生成する画像において、位置(x,y)の画素値は、位置(x,y)の画素から受光光学系を通して対象空間を見込む方向(θ,φ)に関する情報を持つ。 The imaging element has pixels arranged on lattice points of a two-dimensional lattice that maps the target space, and receives light from the target space through a light receiving optical system including a lens. Therefore, the direction of looking into the target space through the light receiving optical system is associated with the pixels of the image sensor. That is, in the images generated by the first image generation device and the second image generation device, the pixel value at the position (x, y) is the direction in which the target space is viewed from the pixel at the position (x, y) through the light receiving optical system. Contains information on (θ, φ).
ここに、xは画像の水平方向の画素の位置を表し、yは画像の垂直方向の画素の位置を表す。また、θは位置(x,y)の画素から受光光学系を通して見込む方向が受光光学系の光軸に対してなす角度を表し、φはxy平面においてx軸に対してなす角度を表す。いま、距離画像において、位置(x,y)の画素の画素値(距離値)をdとすると、x=d・sinθ・cosφ、y=d・sinθ・sinφになる。 Here, x represents the position of the pixel in the horizontal direction of the image, and y represents the position of the pixel in the vertical direction of the image. In addition, θ represents an angle formed by the direction viewed from the pixel at the position (x, y) through the light receiving optical system with respect to the optical axis of the light receiving optical system, and φ represents an angle formed with respect to the x axis in the xy plane. Now, in the distance image, if the pixel value (distance value) of the pixel at the position (x, y) is d, x = d · sin θ · cos φ and y = d · sin θ · sin φ.
第1の画像生成装置は、撮像素子が対象空間から受光した光を用いて距離画像および濃淡画像を生成する。撮像素子を用いて距離情報を抽出するために広く採用されている技術には、三角測量法の原理を用いる技術と、光の飛行時間を計測する技術とがある。 The first image generation device generates a distance image and a grayscale image using light received from the target space by the image sensor. Technologies widely used for extracting distance information using an image sensor include a technology that uses the principle of triangulation and a technology that measures the time of flight of light.
光の飛行時間を計測して距離画像を生成する場合、対象空間に投光する発光源が必須であってアクティブ型の構成になる。一方、三角測量の原理を採用して距離画像を生成する技術は、発光源を用いるアクティブ型の構成と、ステレオビジョンの技術によるパッシブ型の構成とが知られている。本実施形態で説明する第1の画像生成装置は、どの構成であってもよいが、以下では、光の飛行時間を計測することにより距離画像を生成する構成を想定する。 When a distance image is generated by measuring the time of flight of light, a light emission source that projects light into the target space is essential and an active type configuration is obtained. On the other hand, as a technique for generating a distance image using the principle of triangulation, an active configuration using a light source and a passive configuration using a stereo vision technique are known. The first image generation apparatus described in the present embodiment may have any configuration, but a configuration in which a distance image is generated by measuring the time of flight of light is assumed below.
光の飛行時間を利用して距離を計測する技術を採用する場合、第1の画像生成装置を構成する撮像素子には、発光源から対象空間に投光した信号光のほかに、自然光や照明光のような環境光が入射する。したがって、第1の画像生成装置に用いる撮像素子は、信号光と環境光とを明確に区別するために、第2の画像生成装置に用いる撮像素子よりも大きいダイナミックレンジが必要である。つまり、第1の画像生成装置に用いる撮像素子の画素の面積は、第2の画像生成装置に用いる撮像素子の画素の面積よりも大きくする必要がある。 When employing a technique for measuring distance using the time of flight of light, the image sensor that constitutes the first image generation device includes natural light or illumination in addition to the signal light projected from the light source to the target space. Ambient light such as light is incident. Therefore, the image sensor used in the first image generation device needs a larger dynamic range than the image sensor used in the second image generation device in order to clearly distinguish the signal light and the ambient light. That is, the area of the pixel of the image sensor used for the first image generation device needs to be larger than the area of the pixel of the image sensor used for the second image generation device.
上述したように、第1の画像生成装置の画素の面積は第2の画像生成装置の画素の面積よりも大きくなる。したがって、第1の画像生成装置と第2の画像生成装置とに用いる撮像素子のサイズが同程度であると、第1の画像生成装置に用いる撮像素子の解像度は、第2の画像生成装置に用いる撮像素子の解像度よりも低解像度になる。言い換えると、第1の画像生成装置で生成される距離画像および濃淡画像は、第2の画像生成装置で生成される高精細画像よりも低解像度になる。たとえば、第1の画像生成装置が生成する距離画像および濃淡画像が1万画素程度である場合、第2の画像生成装置に同程度のサイズの撮像素子を用いたとしても、第2の画像生成装置が生成する高精細画像は数十万画素以上になる。 As described above, the pixel area of the first image generating device is larger than the pixel area of the second image generating device. Therefore, when the sizes of the image sensors used for the first image generation apparatus and the second image generation apparatus are approximately the same, the resolution of the image sensor used for the first image generation apparatus is the same as that of the second image generation apparatus. The resolution is lower than the resolution of the image sensor used. In other words, the distance image and the grayscale image generated by the first image generation device have a lower resolution than the high-definition image generated by the second image generation device. For example, when the distance image and the grayscale image generated by the first image generation device are about 10,000 pixels, the second image generation is performed even if an image sensor having the same size is used for the second image generation device. A high-definition image generated by the apparatus is several hundred thousand pixels or more.
以下、本実施形態の構成を図面に基づいて具体的に説明する。図1に示すように、第1の画像生成装置10は、対象空間に投光する発光源11と、対象空間からの光を受光する撮像素子12とを備える。発光源11は投光光学系とともに用いられ、撮像素子12は受光光学系とともに用いられる。投光光学系と受光光学系とは兼用されていてもよい。
Hereinafter, the configuration of the present embodiment will be specifically described with reference to the drawings. As shown in FIG. 1, the first
発光源11は、発光制御部13から出力される変調信号により時間経過に伴って発光量が変化するように駆動される。変調信号は、正弦波、三角波、鋸歯状波、矩形波のような周期性を有する信号を用いるほか、オン期間とオフ期間とが単位期間の整数倍でランダムに変化する矩形波信号を用いることも可能である。以下では、説明を簡単にするために、変調信号は一定周期(10−7秒程度)の正弦波ないし矩形波とする。発光源11は、発光ダイオードあるいはレーザダイオードを備え、変調信号で駆動されることにより、正弦波状に強度が変化する強度変調光を対象空間に信号光として投光する。発光源11から投光される光は、可視光領域でもよいが、通常は赤外領域が採用される。
The
いま、変調信号を正弦波とし、90度ずつの位相で正弦波の1周期を4つの区間に分割し、撮像素子12のいずれかの画素で区間ごとに受光した受光量をA0,A1,A2,A3とする。つまり、撮像素子12のいずれかの画素で受光した受光量について、変調信号の位相が0〜90度の区間の受光量をA0、90〜180度の区間の受光量をA1、180〜270度の区間の受光量をA2、270〜360度の区間の受光量をA3とする。なお、変調信号の位相を90度ずつの区間に区切ることは必須ではなく、たとえば、90度周期で一定時間ずつの区間を設けるなど、受光量A0,A1,A2,A3を求める区間は適宜に設定することが可能である。
Now, the modulation signal is a sine wave, one cycle of the sine wave is divided into four sections at a phase of 90 degrees, and the received light amount received by each pixel of the
発光源11が変調信号で駆動されてから撮像素子12で信号光の反射光を受光するまでの位相差ψは、三角関数の計算から、ψ=tan−1{(A2−A0)/(A3−A1)}として求められる。位相差ψがわかれば、変調信号の周波数と位相差ψとから、信号光の投光から受光までの飛行時間が求められ、飛行時間と光速とから光が飛行した距離が求められる。なお、発光源11が変調信号で駆動された後、発光源11が強度変調光を対象空間に投光するまでの遅延時間は無視している。
From the calculation of the trigonometric function, ψ = tan −1 {(A 2 −A 0) / (A 3) -A1)}. If the phase difference ψ is known, the flight time from signal light projection to light reception is determined from the frequency of the modulation signal and the phase difference ψ, and the distance the light has traveled is determined from the flight time and the speed of light. Note that the delay time from when the
上述したように撮像素子12は、変調信号に同期して設定された区間ごとの受光量A0,A1,A2,A3を求める必要がある。そのため、撮像素子12は、変調信号に同期する復調信号を発光制御部13から受けて受光期間を制御する。TVカメラとして用いられている一般的な構成のCCDイメージセンサやCMOSイメージセンサを撮像素子12に用いる場合、復調信号を受けて電子シャッタと同様の動作により受光期間を調節することが可能である。
As described above, the
また、撮像素子12は、受光期間を調節するために専用に配置された電極を備えていてもよい。たとえば、撮像素子12は、1つの区間において対象空間から受光している期間に、他の少なくとも1つの区間に受光した受光量に相当する電荷を保持する動作を可能にする構成であってもよい。いま、撮像素子12が受光量A0と受光量A2とに相当する電荷を交互に保持する期間と、受光量A1と受光量A3とに相当する電荷を交互に保持する期間とを持つように駆動される場合を想定する。
Further, the
この構成は、撮像素子12から電荷を読み出す動作を1回行うだけで、2区間分の電荷を読み出すことを可能にする。また、この構成の撮像素子12は、2区間の受光量に相当する電荷を交互に保持するから、変調信号の複数周期にわたって各区間の電荷を蓄積することが可能であり、比較的大きい受光出力を取り出すことが可能になる。なお、この構成は一例であって、1区間分の電荷を読み出す動作や4区間分の電荷を蓄積して読み出す動作など、撮像素子12を駆動する態様は適宜に選択される。
This configuration makes it possible to read out charges for two sections with only one operation of reading out charges from the
第1の画像生成装置10は、撮像素子12から読み出された受光出力を用いて上述した計算を行う演算部14を備える。演算部14は、受光量A0,A1,A2,A3に相当する電荷を用いて上述した計算を行い、位相差ψ、投光から受光までの飛行時間、対象空間における物体までの距離などの所望の値を求める。このように、第1の画像生成装置10は、演算部14が撮像素子12の画素ごとに対象空間における物体までの距離を算出し、画素値を距離値とした距離画像を生成する。第1の画像生成装置10の具体構成は周知であるから詳述しない。
The first
第1の画像生成装置10は、画素ごとに強度変調光の受光量A0,A1,A2,A3の平均値を求める機能も備える。つまり、演算部14は、撮像素子12から読み出された受光出力の平均することにより、投光した光の強度の影響を除去した濃度値を画素ごとに算出し、この濃淡値を画素値とする濃淡画像を生成する。
The first
なお、発光制御部13は、変調信号により発光源11を駆動する動作と、発光源11を駆動しない動作とを行うようにしてもよい。この場合、演算部14は、発光源11が駆動されていない期間に求められる環境光のみの成分に対応した濃度値を用い、発光源11が駆動されている期間の濃度値に含まれる環境光の成分を除去する演算を行う。この動作により、環境光の影響が軽減され、演算部14から出力される画素値は、信号光の反射成分に対応することになる。
Note that the light
上述したように、第1の画像生成装置10は距離画像と濃淡画像とを生成し、第1の画像生成装置10の画素は、それぞれ距離値および濃度値を持つことになる。すなわち、対象空間において、第1の画像生成装置10の画素に対応する領域ごとに、距離値および濃度値が求められる。
As described above, the first
第2の画像生成装置20は、CCDイメージセンサやCMOSイメージセンサを用いた撮像素子21を備え、受光光学系(図示せず)を通して対象空間を撮像する。また、第2の画像生成装置20は、後述する処理装置30に与える高精細画像(濃淡画像)を生成するために、撮像素子21の出力をデジタル信号に変換するA/D変換部(図示せず)を備える。第1の画像生成装置10の撮像素子12と、第2の画像生成装置20の撮像素子21とは、個別のデバイスでもよいが、1枚の基板に形成してワンチップのデバイスとして構成されていることが望ましい。撮像素子12と撮像素子21とがワンチップのデバイスである場合、撮像素子12と撮像素子21との位置関係が製造時に決定され、両者の位置精度が保証されるからである。
The second
第1の画像生成装置10の演算部14で生成された距離画像および濃淡画像と、第2の画像生成装置20から出力される高精細画像とは、処理装置30に入力される。処理装置30は、プログラムに従って動作するデバイスとインターフェイス部を構成するデバイスとを主なハードウェア要素として備える。プログラムに従って動作するデバイスの一例には、個別のデバイスであるマイクロプロセッサおよびメモリを組み合わせる構成、プロセッサとメモリとをワンチップに備えるマイコンなどがある。また、この種のデバイスは、DSP(Digital Signal Processor)、あるいはFPGA(Field- Programmable Gate Array)が用いられる場合もある。
The distance image and the grayscale image generated by the
ところで、第1の画像生成装置10が生成する距離画像および濃淡画像は対象空間を画素を単位として区切っているから、対象空間に存在する物体の境界が1画素内に含まれる場合、当該画素内に物体からの光と背景からの光とが同時に入射する。濃淡画像では、1画素に物体からの光と背景からの光とが同時に入射すると、当該画素の画素値は両者の受光量の平均に対応する濃度になる。
By the way, since the distance image and the grayscale image generated by the first
第1の画像生成装置10がアクティブ型の構成である場合、1画素に静止した物体からの光と背景からの光とが同時に入射すると、当該画素の画素値は、物体と背景との中間の距離値になる。また、第1の画像生成装置10がステレオビジョンの技術を用いたパッシブ型の構成である場合、当該画素の画素値は不定になるか、あるいは演算部14の処理に依存して決定される。
When the first
なお、1フレームの画像が得られる間に物体が移動すると、距離画像において物体の境界が通過した画素の画素値は異常値になる可能性があるが、ここでは、実質的に静止している物体の距離画像が生成される場合を想定する。 Note that if the object moves while an image of one frame is obtained, the pixel value of the pixel that has passed through the boundary of the object in the distance image may become an abnormal value, but here it is substantially stationary. Assume that a distance image of an object is generated.
本実施形態は、第1の画像生成装置10が飛行時間の計測によって物体までの距離値を求める技術を採用しているから、静止した物体の境界と背景とを含む画素の画素値は、物体と背景との中間の距離値になる。また、受光量の関係を用いて距離値を算出しているから、第1の画像生成装置10は、撮像素子12が受光する強度変調光(信号光)の光量が環境光の光量に対して相対的に多いほうが、画素値は物体の実際の距離値に近付くと考えられる。
In the present embodiment, since the first
そこで、距離画像の生成時に生じる可能性がある事象を想定し、背景からの光量を変化させるために背景の反射率を3段階に変化させ、距離を計測する物体の幅を4段階に変化させて距離画像と濃淡画像とを生成する実験を行った。距離を計測した4個の物体は、受光光学系から等距離の位置に配置し、距離画像において2〜5画素の範囲を占めるように選定した。具体的には、それぞれの物体の幅は、7.5mm、10.5mm、14.0mm、17.5mmの4種類とし、物体までの距離は2mとした。幅が7.5mm、10.5mm、14.0mmの3種類の物体については、距離画像の水平方向において、隣接する画素の中心と各物体の中心とが一致するように位置を調整した。また、幅が17.5mmの物体は、距離画像の水平方向において、1つの画素の中心と物体の中心とが一致するように位置を調整した。背景の反射率は、60%、20%、5%から選択した。 Therefore, assuming an event that may occur at the time of distance image generation, change the reflectance of the background in three steps to change the amount of light from the background, and change the width of the object whose distance is measured in four steps. Experiments were performed to generate a distance image and a grayscale image. The four objects whose distances were measured were arranged at equidistant positions from the light receiving optical system, and were selected so as to occupy a range of 2 to 5 pixels in the distance image. Specifically, the width of each object was four types of 7.5 mm, 10.5 mm, 14.0 mm, and 17.5 mm, and the distance to the object was 2 m. The positions of three types of objects having a width of 7.5 mm, 10.5 mm, and 14.0 mm were adjusted so that the centers of adjacent pixels coincided with the centers of the objects in the horizontal direction of the distance image. Further, the position of an object having a width of 17.5 mm was adjusted so that the center of one pixel coincides with the center of the object in the horizontal direction of the distance image. The background reflectance was selected from 60%, 20%, and 5%.
図2、図3には値が比較的大きく変化している領域が4個ずつ存在している。これらの領域は、右から順に上述した幅の物体に対する計測結果を示している。図2は第1の画像生成装置10から出力された距離値を示し、図3は第1の画像生成装置10から出力された濃度値を示している。さらに、図4は第2の画像生成装置20から出力された高精細画像の画素値を示している。各図において、特性(1)は背景の反射率が60%の場合、特性(2)は背景の反射率が20%の場合、特性(3)は背景の反射率が5%の場合を示している。上述した説明から明らかなように、図2に示す距離画像と図3に示す濃淡画像とは同じ解像度であり、図4に示す高精細画像は図2、図3に示す画像よりも高解像度である。なお、図示例において、高精細画像は、画像の水平方向において、距離画像および濃淡画像に対して約4倍の個数の画素を備えている。
In FIG. 2 and FIG. 3, there are four regions where the values change relatively large. These areas indicate measurement results for the above-mentioned width object in order from the right. FIG. 2 shows the distance value output from the first
図3からわかるように、背景の反射率が高くなると、濃淡画像内において物体と背景との濃度差が現れにくくなるが、背景の反射率が比較的低いと、物体と背景との濃度差が明確に現れる。一方、図2からわかるように、物体の境界付近の距離値は、背景の反射率の影響を受け、反射率が高くなると、距離値が実際よりも大きくなる傾向が見られる。そのため、距離画像において物体が占める画素数が少なく、かつ背景の反射率が高いと、物体が実際の距離よりも遠方に位置するように誤認されることになる。 As can be seen from FIG. 3, when the reflectance of the background is high, the density difference between the object and the background is less likely to appear in the grayscale image. However, when the reflectance of the background is relatively low, the density difference between the object and the background is small. Appear clearly. On the other hand, as can be seen from FIG. 2, the distance value near the boundary of the object is influenced by the reflectance of the background, and when the reflectance increases, the distance value tends to become larger than the actual value. For this reason, if the number of pixels occupied by the object in the distance image is small and the reflectance of the background is high, the object is erroneously recognized as being located farther than the actual distance.
以上のことから、距離画像において1つの画素に物体からの光と背景からの光とが混入すると距離値に誤差が生じ、背景からの光量が物体からの光量に対して相対的に多くなるほど距離画像の画素値の誤差が大きくなると言える。ここで、1画素に物体からの光と背景からの光とが混入するのは、主として物体の境界付近に対応する画素である。したがって、距離画像において物体の境界に対応する画素を抽出し、当該画素の画素値に適宜の補正を行えば、距離画像の画素値を真値に近付けられると考えられる。 From the above, if light from the object and light from the background are mixed in one pixel in the distance image, an error occurs in the distance value, and the distance increases as the light quantity from the background increases relative to the light quantity from the object. It can be said that the error of the pixel value of the image becomes large. Here, light from the object and light from the background are mixed into one pixel mainly in the vicinity of the boundary of the object. Therefore, it is considered that the pixel value of the distance image can be brought close to the true value by extracting the pixel corresponding to the boundary of the object in the distance image and appropriately correcting the pixel value of the pixel.
処理装置30は、対象空間において着目する物体の境界に相当する画素を距離画像から抽出し、当該画素の画素値に適切な補正を施すことにより、真値に近い画素値を求める機能を有する。そのため、処理装置30は、第1の画像生成装置10が生成した距離画像に加えて、第2の画像生成装置20が生成した高精細画像から得られる情報を用いる。
The
処理装置30は、図1に示すように、第1の画像生成装置10が接続されるインターフェイス部(以下、「I/F部」という)31と、第2の画像生成装置20が接続されるI/F部32とを備える。
As shown in FIG. 1, the
処理装置30は、第2の画像生成装置20から出力される高精細画像から得られる情報を用いて距離画像において物体の境界を含む画素を抽出するために、物体の境界を挟む2個の境界画素を濃淡画像から抽出する境界抽出部33を備える。境界抽出部33は、物体の境界に交差する方向において、境界を挟む2個の画素を境界画素として高精細画像から抽出する。高精細画像の画素値が濃度値である場合、境界抽出部33は、濃淡画像の2値化あるいは微分により境界画素を抽出する。高精細画像がカラー画像である場合、色によって境界画素を抽出することも可能である。
The
物体の境界は、物体の外形を表す輪郭線を想定している。物体の境界に交差する方向としては、直交する方向が望ましい。2個の境界画素は境界を挟んでいるから、一方の境界画素の画素値は物体からの光量に相当し、他方の境界画素の画素値は背景からの光量に相当する。境界抽出部33が抽出した境界画素の位置に関する情報は画素抽出部34に引き渡される。画素抽出部34は、境界画素の位置に基づいて、距離画像において物体の境界を含む画素を対象画素として抽出し、対象画素に隣接し背景側に位置する画素を基準画素として抽出する。境界画素は、物体の境界線に沿って複数個が抽出される。したがって、対象画素および基準画素は、境界画素と同様に複数個ずつ抽出される。
The boundary of the object is assumed to be a contour line representing the outer shape of the object. The direction that intersects the boundary of the object is preferably an orthogonal direction. Since the two boundary pixels sandwich the boundary, the pixel value of one boundary pixel corresponds to the amount of light from the object, and the pixel value of the other boundary pixel corresponds to the amount of light from the background. Information regarding the position of the boundary pixel extracted by the
処理装置30は、対象画素の画素値を補正する補正部35を備える。補正部35は、第1の画像生成装置10が生成した濃淡画像における画素値(濃度値)の関係に応じて設定されている補正値を、基準画素の画素値(距離値)と対象画素の画素値(距離値)との関係に適用することにより、対象画素の画素値を補正する。補正部35による補正演算は、図5に示す関係で設定された補正値を用いて行われる。
The
図示例は、第1の画像生成装置10から出力される距離画像の画素値(距離値)をD1(=Db−d1)とし、距離値の真値をD0(=Db−d0)とするとき、補正値をαとして、d0=α・d1という関係が得られると仮定している。ここに、Dbは背景(壁など)までの距離である。また、d0は距離D0に物体が存在するときの壁から物体までの距離であり、d1は距離画像の画素値D1に物体が存在すると仮定したときの壁から物体までの距離である。上述した基準画素は画素値がDbである画素に相当し、対象画素は画素値がD1である画素に相当する。
In the illustrated example, the pixel value (distance value) of the distance image output from the first
図5の横軸は基準画素と対象画素との位置の濃度差であり、縦軸は補正値αを表している。言い換えると、図5は、第1の画像生成装置10が生成した濃淡画像において、物体の境界を含む対象画素と物体の境界を含まずに背景となる基準画素とに相当する位置の画素の濃度差に対する補正値αの関係を表している。対象画素と基準画素との画素ピッチは一定であるから、図5の横軸は、対象画素と基準画素との位置における濃度勾配と言い換えてもよい。
The horizontal axis in FIG. 5 represents the density difference between the reference pixel and the target pixel, and the vertical axis represents the correction value α. In other words, FIG. 5 shows the density of the pixel at the position corresponding to the target pixel including the boundary of the object and the reference pixel which does not include the boundary of the object and is the background in the grayscale image generated by the first
図5の特性(A)〜(D)は、濃淡画像において物体が占める領域の水平方向の幅の違いに対応している。特性(A)は最小の幅(7.5mm)に対応し、特性(D)は最大の幅(17.5mm)に対応する。 The characteristics (A) to (D) in FIG. 5 correspond to the difference in the horizontal width of the region occupied by the object in the grayscale image. Characteristic (A) corresponds to the minimum width (7.5 mm) and characteristic (D) corresponds to the maximum width (17.5 mm).
上述したように、各物体は、距離画像の水平方向において画素に対して対称になるように配置されている。そのため、図3に示す例は、すべての幅の物体について、物体に対応する部位が左右対称になっている。ここで、物体を距離画像の水平方向において移動させるとすれば、移動の過程において、物体の境界を含む対象画素の範囲で物体の境界の位置が変化し、対象画素の中で背景と物体とが占める割合が変化する。そのため、図3に示す特性は左右非対称になり、対象画素に占める背景と物体との割合の変化に伴って対象画素の位置の濃度値が変化する。このことから、特性(A)〜(D)に対応する物体の幅は、距離画像において物体の境界を含む対象画素に入射する光に関して、背景からの光と物体からの光との比率を反映していると言える。 As described above, each object is arranged so as to be symmetric with respect to the pixel in the horizontal direction of the distance image. Therefore, in the example shown in FIG. 3, the parts corresponding to the objects are symmetrical with respect to the objects of all widths. Here, if the object is moved in the horizontal direction of the distance image, the position of the boundary of the object changes in the range of the target pixel including the boundary of the object in the process of movement, and the background and the object in the target pixel are changed. The proportion of occupies changes. Therefore, the characteristic shown in FIG. 3 is asymmetrical, and the density value at the position of the target pixel changes with a change in the ratio of the background to the object in the target pixel. From this, the width of the object corresponding to the characteristics (A) to (D) reflects the ratio of the light from the background and the light from the object with respect to the light incident on the target pixel including the boundary of the object in the distance image. I can say that.
図5によれば、対象画素において物体が占める割合が少ないほど(背景からの光量が多いほど)補正値αが大きくなることがわかる。また、図5によれば、対象画素と基準画素との位置の濃度差が小さいほど(濃度勾配が小さいほど)補正値αが大きくなることがわかる。この知見により、補正値αは、対象画素の範囲内での境界の位置Pと、対象画素と基準画素との位置の濃度差aとを用いて、α=f(P,a)と表されると言える。濃度差aが大きいことは、背景の反射率が相対的に低いことを意味するから、図2に示した距離画像において、背景の反射率が低い場合に画素値が真値に近付いていることと合致する。 As can be seen from FIG. 5, the correction value α increases as the proportion of the object in the target pixel decreases (as the amount of light from the background increases). Further, according to FIG. 5, it can be seen that the correction value α increases as the density difference between the target pixel and the reference pixel is smaller (the density gradient is smaller). With this knowledge, the correction value α is expressed as α = f (P, a) using the boundary position P within the range of the target pixel and the density difference a between the target pixel and the reference pixel. I can say. A large density difference a means that the reflectance of the background is relatively low. Therefore, in the distance image shown in FIG. 2, when the reflectance of the background is low, the pixel value approaches the true value. Matches.
図5の関係に基づいて補正値αを決定するには、対象画素と基準画素との位置の濃度差aに加えて、対象画素の範囲内での境界の位置Pを求める必要がある。上述したように、画素抽出部34は距離画像において対象画素と基準画素とを抽出しており、距離画像の画素と高精細画像の画素との位置関係は既知である。このことを利用し、画素抽出部34は、対象画素と視野が重なる高精細画像の複数個の画素と、境界画素との位置関係に基づいて、対象画素において物体の境界の位置Pを求める。また、画素抽出部34は、対象画素と基準画素との濃度差aを、第1の画像生成装置10が出力した濃淡画像から求める。
In order to determine the correction value α based on the relationship shown in FIG. 5, in addition to the density difference “a” between the target pixel and the reference pixel, it is necessary to obtain the boundary position P within the range of the target pixel. As described above, the
画素抽出部34は、求めた位置Pと濃度差aとを補正部35に与え、補正部35は、図5に示した補正値αと位置Pと濃度差aとの関係に基づいて、補正値αを決定する。さらに、補正部35は、求めた補正値αを用いて距離値を補正し、対象画素における距離値の真値を求める。
The
なお、本実施形態において、画素値の補正演算は、d0=α・d1という関係を用いて行っているが、他の関係を用いて行うことが可能であり、たとえば、d0=α1・d1+α2(α1,α2は補正値)という形式であってもよい。あるいはまた、D1=α3・D1(α3は補正値)という形式を採用することも可能である。 In this embodiment, the pixel value correction calculation is performed using the relationship d0 = α · d1, but can be performed using other relationships, for example, d0 = α1 · d1 + α2 ( α1 and α2 may be in the form of correction values. Alternatively, it is possible to adopt a format of D1 = α3 · D1 (α3 is a correction value).
以上説明したように、画素抽出部34は、第1の画像生成装置10が出力した距離画像および濃淡画像と第2の画像生成装置20が出力した高精細画像とを用いて、対象画素と基準画素との位置の濃度差aと、対象画素における物体の境界の位置Pとを求める。さらに、補正部35は、図5のような関係から補正値αを決定し、この補正値αを適用することにより、対象画素の画素値(距離値)を補正し、着目する物体について真値に近い距離値を出力することが可能になる。
As described above, the
ところで、境界画素は高精細画像から抽出され、対象画素および基準画素は境界画素の位置に基づいて距離画像から抽出される。したがって、高精細画像と距離画像との画素の位置を対応付けることが必要である。この対応付けは画素抽出部34が行う。画素抽出部34は、以下に説明する技術を単独または組み合わせて用いることにより、高精細画像と距離画像との画素の位置の対応付けを行う。
By the way, the boundary pixel is extracted from the high-definition image, and the target pixel and the reference pixel are extracted from the distance image based on the position of the boundary pixel. Therefore, it is necessary to associate pixel positions of the high-definition image and the distance image. This association is performed by the
第1の技術は、対象空間において着目する物体の境界の情報は、高精細画像と距離画像とにおいて共通しているという仮定に基づいている。処理装置30は、高精細画像と距離画像とから物体の位置を抽出するために領域抽出部36を備える。
The first technique is based on the assumption that information on the boundary of the object of interest in the target space is common to the high-definition image and the distance image. The
領域抽出部36は、距離画像から抽出される物体に対応する第1の領域と、高精細画像から抽出される物体に対応する第2の領域とを抽出する。第1の領域および第2の領域の抽出には、二値化処理、微分処理のいずれかを用いる。二値化処理は、画素値を適宜の閾値で二値化することを意味し、微分処理は、着目する画素に隣接する画素(たとえば、8近傍の画素)を用いて画素値の勾配の大きさ求める演算処理を意味する。なお、微分処理は、Sobelフィルタなどを適用するエッジ強調処理であってもよい。
The
画素抽出部34は、領域抽出部36が抽出した物体の境界(輪郭線、区画線など)を用いて、第1の領域と第2の領域との境界の形状についてパターンマッチングを行う。つまり、第1の領域と第2の領域との一致度を評価し、一致度が最大になるように、第1の領域と第2の領域と座標値の対応付けを行う。第1の領域と第2の領域との一致度の評価には、第1の領域の境界上の画素と第2の領域の境界上の画素との距離を用いる。画素抽出部34は、第1の領域と第2の領域とのそれぞれの境界上の画素について水平方向の差分と垂直方向の差分との二乗和の平方根を、第1の領域と第2の領域との距離として算出する。さらに、画素抽出部34は、求めた距離が最小になるように、第1の領域と第2の領域との座標値を対応付ける。
The
高精細画像と距離画像との画素の位置を対応付けるために、第1の技術はパターンマッチングを用いているが、第2の技術は、第1の画像生成装置10と第2の画像生成装置20との視差を用いて画素の対応付けを行う。この技術は、着目する物体の近傍に、当該物体と同程度の距離であることが保証されている他の物体が存在する場合に適用される。このような関係の物体としては、後述するように、着目する物体が人の指であって、他の物体が手の平である場合などが該当する。
In order to associate the pixel positions of the high-definition image and the distance image, the first technique uses pattern matching, but the second technique uses the first
たとえば、タッチパネルに接触させる指の動きに操作内容を対応付けたジェスチャ操作と同様の操作を、タッチパネルに対する指の接触位置の時間変化ではなく、対象空間における指の位置の時間変化に対応付ける場合を想定する。この場合、距離画像により指の位置を検出する必要がある。しかしながら、指は幅方向において距離画像に占める画素数が比較的少ないから、第1の画像生成装置10から指までの距離が比較的大きい場合には、距離画像において指に対応する領域の画素値は大きな誤差を生じる可能性がある。すなわち、距離画像において指に対応する領域は、画素値の補正が必要になると考えられる。一方、対象空間において指は単独で存在しているわけではなく、手の平のように距離画像に占める画素数が比較的大きい領域と一体に移動する。
For example, assume that the same operation as a gesture operation in which operation content is associated with the movement of a finger touching the touch panel is associated with the time change of the finger position in the target space instead of the time change of the finger contact position with respect to the touch panel. To do. In this case, it is necessary to detect the position of the finger from the distance image. However, since the finger occupies a relatively small number of pixels in the distance image in the width direction, if the distance from the first
上述した第2の技術を採用する場合は、このことを利用し、距離画像から手の平と認識される領域について、濃淡画像と距離画像との視差を求め、この視差を距離画像において指と認識される領域に適用する。すなわち、画素抽出部34は、濃淡画像と距離画像とにおいて、手の平に相当する部位の視差と、指に相当する部位の視差とが等しいとみなし、手の平に対して得られた視差を指に適用する。
When the second technique described above is employed, this is used to obtain the parallax between the grayscale image and the distance image for the area recognized as a palm from the distance image, and this parallax is recognized as a finger in the distance image. Applies to the area That is, the
ここに、画素抽出部34は、手の平を認識するにあたり、たとえば、距離画像において背景を除いて3×3画素以上を含むブロックを設定し、ブロック内の画素値のばらつきが1%以内である場合に、当該ブロックを手の平に対応するとみなす。このようなブロックが得られると、当該ブロックと実質的に連結領域を形成している画素は、視差が等しいとみなし、画素抽出部34は、距離画像において連結領域に含まれる画素の画素値を補正する。実質的な連結領域は、距離画像においてブロック内の画素から始めて隣接する画素との画素値の差が所定値以下である範囲の画素群、距離画像において背景である画素を除去する二値化を行った後、背景以外として残された連結領域の画素群のいずれかのことである。
Here, when the
上述のようにして視差がわかれば、距離画像と高精細画像との画素の位置合わせを正確に行うことが可能になり、パターンマッチングを行うことなく、距離画像と高精細画像とにおける物体の位置の座標を対応付けることが可能になる。つまり、パターンマッチングを行う場合よりも計算量を低減できる可能性がある。 If the parallax is known as described above, it is possible to accurately perform the pixel alignment of the distance image and the high-definition image, and the position of the object in the distance image and the high-definition image without performing pattern matching. Can be associated with each other. That is, there is a possibility that the amount of calculation can be reduced as compared with the case of performing pattern matching.
第2の技術は、視差の演算が必要になっているが、距離画像と高精細画像との視野が一致していれば、視差の計算が不要である。したがって、図6に示すように、対象空間からの入射光束を複数の経路に分岐する光学要素40を付加することが望ましい。この種の光学要素40は、ハーフミラーを用いたビームスプリッタが代表例であるが、ダイクロイックミラーを用いて波長により経路を分岐させるなどを採用してもよい。
The second technique requires calculation of parallax, but if the field of view of the distance image and the high-definition image match, calculation of parallax is not necessary. Therefore, as shown in FIG. 6, it is desirable to add an
光学要素40は、第1の画像生成装置10と第2の画像生成装置20とが対象空間に対する光軸を共用するように配置される。つまり、第1の画像生成装置10と第2の画像生成装置20とは、光学要素40を介して、対象空間の同じ視野を見込むから、距離画像と濃淡画像との画素の対応付けが不要になる。
The
ところで、上述した動作例において、補正部35は、対象画素の範囲での物体の境界の位置Pと、対象画素と基準画素との位置の濃度差aとを用いて補正値αを決定しているから、決定した補正値αの妥当性は検証されていない。もちろん、補正部35は、図5に示した関係に基づいて補正値αを決定しているから、距離画像の画素値の誤差が改善されるが、さらに画素値の精度を高めるには、補正値αの検証が必要になる。
Incidentally, in the above-described operation example, the
そこで、図7に示すように、第1の画像生成装置10の演算部14から出力された距離画像と、処理装置30の補正部35が補正した後の距離画像とを比較し、補正値αの妥当性を評価する評価部37を備えることが望ましい。評価部37は、距離画像において背景を除く領域であって、補正値αを適用した領域と実質的に連結領域を形成しかつ補正値αが適用されていない画素の有無を判断し、そのような画素があれば、当該画素の距離値と補正値αが適用された距離値とを比較する。
Therefore, as shown in FIG. 7, the distance image output from the
評価部37は、比較結果が、予定された誤差範囲内であれば補正値αを妥当と判定し、誤差範囲を超える場合は誤差範囲内となるように補正値αを修正する。ここに、実質的な連結領域は、距離画像において補正値αが適用された画素から始めて隣接する画素との画素値の差が所定値以下である範囲の画素群、距離画像において背景である画素を除去する二値化を行った後、背景以外として残された連結領域の画素群のいずれかのことである。
The
なお、補正値αを適用しない画素は、たとえば、背景を除いた3×3画素以上のブロックに含まれる画素の画素値のばらつきが1%以内となる領域に含まれる画素などである。上述のように、ジェスチャ操作を行う場合に、着目する物体を指とすれば、指に連続する物体としての手の平には補正値αを適用せず、指に対しては補正値αを適用することになる。したがって、評価部37において指の領域に適用した補正値αを評価し、適正な補正値αを用いて指までの距離を精度よく求めることが可能になる。
Note that the pixels to which the correction value α is not applied are, for example, pixels included in a region where variations in pixel values of pixels included in a block of 3 × 3 pixels or more excluding the background are within 1%. As described above, when performing a gesture operation, if the object of interest is a finger, the correction value α is not applied to the palm as an object continuous to the finger, and the correction value α is applied to the finger. It will be. Therefore, the
以上説明したように、本実施形態では、水平方向と垂直方向とのいずれかの方向において、着目する物体が距離画像に占める画素数が少ない場合に、補正部35は着目する物体における対象画素の画素値を補正する。ここで、着目する物体が指である場合について、距離画像から抽出した対象画素の補正を行った場合と行わなかった場合とについて画素値を比較したところ、図8に示す結果が得られた。図8の横軸は距離であり、縦軸は垂直方向の画素数を表す。ここで、垂直方向の40〜45、60〜65の画素領域は背景(壁など)を表す。また、垂直方向の45〜50の画素領域は腕、50〜55の画素領域は手の平、55〜60の画素領域は指を表している。腕と手の平との画素領域は、補正が行われなかった領域であり、指に対応する画素領域についてのみ補正が行われた。つまり、補正がなければ、垂直方向55〜60の画素領域のうち指先に相当する画素領域は、手の平の画素領域に対して15cm程度遠ざかっているが(特性(A)参照)、補正後にはほぼ手の平の距離に一致する結果が得られている(特性(B)参照)。
As described above, in the present embodiment, when the number of pixels that the object of interest occupies in the distance image is small in either the horizontal direction or the vertical direction, the
以上から、手の平については、実質的に距離の誤差が発生せず、指については、距離の誤差が生じるが、補正値αを適用することによって、距離の誤差が解消されるという結果が得られた。すなわち、本実施形態の有効性が検証された。 From the above, it is found that a distance error does not substantially occur for the palm and a distance error occurs for the finger, but the distance error is eliminated by applying the correction value α. It was. That is, the effectiveness of this embodiment was verified.
上述した動作例では、距離値を用いて着目する物体を背景と分離しているが、あらかじめ着目する物体を背景と分離しておけば、以後の計算量が低減されると考えられる。着目する物体を背景と分離するには、着目する物体の特性を利用した抽出条件を用いる技術と、背景の特性を利用した抽出条件を用いる技術とが単独または組み合わせて用いられる。距離画像において着目する物体を背景から分離する処理は、処理装置30において最前段に設けられた境界抽出部33が行う。
In the operation example described above, the object of interest is separated from the background using the distance value. However, if the object of interest is separated from the background in advance, it is considered that the amount of calculation thereafter is reduced. In order to separate the object of interest from the background, a technique using an extraction condition using the characteristics of the object of interest and a technique using an extraction condition using the characteristics of the background are used alone or in combination. The processing for separating the object of interest from the background in the distance image is performed by the
いま、着目する物体が手であり、手は胴体の前方に突き出されている場合を想定する。このような状態では、境界抽出部33は、着目する物体の特性を利用する場合、第1の画像生成装置10からの距離範囲と、胴体から手までの距離とを抽出条件に用いればよい。たとえば、着目する物体の距離範囲は1.5m以内、胴体から手までの距離は30cm以上という抽出条件を用い、距離画像において規定した面積以上を示す連結領域を胴体と判断するというルールを適用すると、距離画像において手の領域を抽出できる。着目する物体が異なれば、抽出条件を変えることにより、着目する物体が抽出される。
It is assumed that the object of interest is a hand and the hand is projected forward of the torso. In such a state, the
一方、背景の特性を利用して着目する物体を抽出する場合、処理装置30には、図9に示すように、対象空間に物体が存在しない状態で得られた距離画像を背景距離画像として記憶する背景記憶部38が設けられる。境界抽出部33は、第1の画像生成装置10から出力される距離画像と、背景記憶部38に記憶された背景距離画像との差分画像を生成する機能を有し、差分画像において画素値が基準値以上であることを抽出条件として、着目する物体を背景から分離できる。
On the other hand, when an object of interest is extracted using the characteristics of the background, the
上述したように、境界抽出部33は、距離画像において着目する物体に相当する画素が含まれる領域を背景から分離する。その結果、以後の処理において対象となる画素数が低減されることになり、計算量の低減が可能になる。
As described above, the
なお、高精細画像が濃淡画像である場合に濃度値に対する閾値を用いる技術は、カラー画像に対して色あるいは輝度を用いる技術で置換可能である。高精細画像としてカラー画像を採用すると、物体に対する境界画素を色で分離可能になるから、距離画像における対象画素と基準画像とを容易に決定できる場合がある。 It should be noted that when the high-definition image is a grayscale image, the technique that uses the threshold value for the density value can be replaced with a technique that uses color or luminance for the color image. When a color image is adopted as a high-definition image, boundary pixels with respect to an object can be separated by color, so that the target pixel and the reference image in the distance image may be easily determined.
また、上述したように、補正値αを求めるには、対象画素と基準画素との位置の濃度差aが必要であるが、濃度差aは、第1の画像生成装置10から濃淡画像を出力せずに求めることが可能である。すなわち、第2の画像生成装置20が出力する高精細画像から、対象画素と基準画素との位置に相当する画素の画素値を求め、対象画素と基準画素とにそれぞれ対応する画素値の平均値の差を、濃度差として用いることが可能である。
Further, as described above, in order to obtain the correction value α, the density difference a between the target pixel and the reference pixel is necessary, and the density difference a is output from the first
10 第1の画像生成装置
12 撮像素子
20 第2の画像生成装置
21 撮像素子
30 処理装置
33 境界抽出部
34 画素抽出部
35 補正部
36 領域抽出部
37 評価部
38 背景記憶部
40 光学要素
DESCRIPTION OF
Claims (12)
前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、
前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする距離画像センサ。 A first image generation device that generates a distance image in which a pixel value is a distance value for a target space;
A second image generation device that generates a high-definition image that is higher-definition than the distance image for the target space;
A boundary extraction unit that extracts the positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction set in advance for the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference between the target pixel and the reference pixel obtained from the high-definition image A distance image sensor comprising: a correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit using a value.
前記対象空間について前記距離画像より高精細である高精細画像を生成する第2の画像生成装置と、
前記高精細画像において着目する物体の境界を挟む2個の境界画素の位置を抽出する境界抽出部と、
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする距離画像センサ。 A first image generating device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for a target space;
A second image generation device that generates a high-definition image that is higher-definition than the distance image for the target space;
A boundary extraction unit that extracts the positions of two boundary pixels that sandwich the boundary of the object of interest in the high-definition image;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction value set in advance for the relationship between the position of the boundary within the range of the target pixel obtained from the high-definition image and the density difference at the position of the target pixel and the reference pixel obtained from the grayscale image A distance image sensor, comprising: a correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit.
前記画素抽出部は、前記領域抽出部が抽出した前記第1の領域と前記第2の領域とのパターンマッチングを行うことにより前記境界画素の位置を前記対象画素の位置に対応付ける
ことを特徴とする請求項1又は2記載の距離画像センサ。 An area extracting unit that extracts a first area corresponding to the object extracted from the distance image and a second area corresponding to the object extracted from the high-definition image;
The pixel extracting unit associates the position of the boundary pixel with the position of the target pixel by performing pattern matching between the first region and the second region extracted by the region extracting unit. The distance image sensor according to claim 1 or 2.
ことを特徴とする請求項1又は2記載の距離画像センサ。 The pixel extraction unit associates the position of the boundary pixel with the position of the target pixel by using a parallax with respect to the object of the first image generation device and the second image generation device. Item 3. The distance image sensor according to item 1 or 2.
ことを特徴とする請求項1又は2記載の距離画像センサ。 An optical element for sharing the optical axis with respect to the target space by the first image generation device and the second image generation device by branching the incident light flux from the target space into a plurality of paths; The distance image sensor according to claim 1 or 2, characterized in that
ことを特徴とする請求項1〜5のいずれか1項に記載の距離画像センサ。 6. The imaging device for imaging each of the first image generation device and the second image generation device is formed on a single substrate so as to be a single chip. The distance image sensor according to any one of the preceding claims.
前記評価部は、前記距離画像において背景を除く領域であって、前記補正値を適用した領域と実質的に連結領域を形成し、かつ前記補正値が適用されていない画素から得られる距離値と、前記補正値が適用された画素の距離値との差が所定値以下である場合に、前記補正値を妥当と判断する
ことを特徴とする請求項1〜6のいずれか1項に記載の距離画像センサ。 An evaluation unit that compares the distance image generated by the first image generation device with the distance image corrected by the correction unit and evaluates the validity of the correction value;
The evaluation unit is an area excluding the background in the distance image, and substantially forms a connected area with an area to which the correction value is applied, and a distance value obtained from a pixel to which the correction value is not applied. 7. The correction value is determined to be valid when a difference from a distance value of a pixel to which the correction value is applied is equal to or less than a predetermined value. Distance image sensor.
ことを特徴とする請求項1〜7のいずれか1項に記載の距離画像センサ。 The boundary extraction unit extracts pixels corresponding to the object in the target space from the high-definition image in a region including pixels whose pixel values satisfy a predetermined extraction condition in the distance image. The distance image sensor according to any one of 1 to 7.
前記境界抽出部は、前記第1の画像生成装置が生成した前記距離画像と前記背景記憶部に記憶された前記背景距離画像との差分画像において画素値が基準値以上であることを前記抽出条件とし、前記高精細画像から前記対象空間における前記物体に対応する画素を抽出する
ことを特徴とする請求項8記載の距離画像センサ。 A background storage unit that stores the distance image obtained in a state where the object does not exist in the target space as a background distance image;
The extraction condition is that the boundary extraction unit has a pixel value greater than or equal to a reference value in a difference image between the distance image generated by the first image generation device and the background distance image stored in the background storage unit. The distance image sensor according to claim 8, wherein a pixel corresponding to the object in the target space is extracted from the high-definition image.
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、前記高精細画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする処理装置。 In combination with a first image generation device that generates a distance image having a pixel value that is a distance value for the target space, and a second image generation device that generates a high-definition image that is higher in definition than the distance image for the target space. A boundary extraction unit for extracting a position of two boundary pixels sandwiching a boundary of an object of interest in the high-definition image, and a processing device for obtaining a distance to the object of interest in the target space;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
Correction set in advance for the relationship between the position of the boundary in the range of the target pixel obtained from the high-definition image and the density difference between the target pixel and the reference pixel obtained from the high-definition image A correction unit that corrects a pixel value of the target pixel extracted by the pixel extraction unit using a value.
前記距離画像において前記物体の境界を含む画素を対象画素とし、前記対象画素に隣接し背景側に位置する画素を基準画素として、前記対象画素および前記基準画素を前記境界画素の位置に基づいて抽出する画素抽出部と、
前記高精細画像から求められる対象画素の範囲での境界の位置と、対象画素の範囲での境界の位置と、前記濃淡画像から求められる前記対象画素と前記基準画素との位置における濃度差との関係に対してあらかじめ設定されている補正値を用いて、前記画素抽出部が抽出した前記対象画素の画素値を補正する補正部とを備える
ことを特徴とする処理装置。 A first image generation device that generates a distance image whose pixel value is a distance value and a grayscale image that is a density value for a target space, and a second that generates a high-definition image that is higher in definition than the distance image for the target space A processing device for obtaining a distance to a target object in the target space, and extracting positions of two boundary pixels sandwiching a boundary of the target object in the high-definition image. A boundary extraction unit;
Extracting the target pixel and the reference pixel based on the position of the boundary pixel using the pixel including the boundary of the object in the distance image as a target pixel, a pixel adjacent to the target pixel and positioned on the background side as a reference pixel A pixel extraction unit to
The position of the boundary in the range of the target pixel determined from the high-definition image, the position of the boundary in the range of the target pixel, and the density difference at the position of the target pixel and the reference pixel determined from the grayscale image A correction unit that corrects the pixel value of the target pixel extracted by the pixel extraction unit using a correction value set in advance for the relationship.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012288367A JP2014130086A (en) | 2012-12-28 | 2012-12-28 | Range image sensor, processor and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012288367A JP2014130086A (en) | 2012-12-28 | 2012-12-28 | Range image sensor, processor and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014130086A true JP2014130086A (en) | 2014-07-10 |
Family
ID=51408589
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012288367A Pending JP2014130086A (en) | 2012-12-28 | 2012-12-28 | Range image sensor, processor and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2014130086A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016170076A (en) * | 2015-03-13 | 2016-09-23 | オムロン株式会社 | Object detector, method for detecting object, and object detection program |
JP2018066571A (en) * | 2016-10-17 | 2018-04-26 | 株式会社トプコン | Laser scanner |
CN110716210A (en) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | Distance measuring device with distance correction function |
US20220067768A1 (en) * | 2020-08-28 | 2022-03-03 | Telenav, Inc. | Navigation system with high definition mapping mechanism and method of operation thereof |
WO2023106129A1 (en) * | 2021-12-06 | 2023-06-15 | ソニーグループ株式会社 | Information processing device and information processing method |
-
2012
- 2012-12-28 JP JP2012288367A patent/JP2014130086A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016170076A (en) * | 2015-03-13 | 2016-09-23 | オムロン株式会社 | Object detector, method for detecting object, and object detection program |
JP2018066571A (en) * | 2016-10-17 | 2018-04-26 | 株式会社トプコン | Laser scanner |
CN110716210A (en) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | Distance measuring device with distance correction function |
CN110716210B (en) * | 2018-07-12 | 2024-01-30 | 发那科株式会社 | Distance measuring device with distance correction function |
US20220067768A1 (en) * | 2020-08-28 | 2022-03-03 | Telenav, Inc. | Navigation system with high definition mapping mechanism and method of operation thereof |
WO2023106129A1 (en) * | 2021-12-06 | 2023-06-15 | ソニーグループ株式会社 | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3517997B1 (en) | Method and system for detecting obstacles by autonomous vehicles in real-time | |
US9041588B2 (en) | Object detection device and object detection method | |
JP5472538B2 (en) | Distance measuring device and environmental map generating device | |
US8917929B2 (en) | Image processing apparatus, method, program, and recording medium | |
US10275857B2 (en) | Depth image enhancement method | |
WO2014073322A1 (en) | Object detection device and object detection method | |
JP6707022B2 (en) | Stereo camera | |
JP6457278B2 (en) | Object detection apparatus and object detection method | |
EP3102908B1 (en) | Structured light matching of a set of curves from two cameras | |
US10643343B2 (en) | Structured light matching of a set of curves from three cameras | |
WO2012175731A1 (en) | Depth measurement quality enhancement | |
WO2011104706A1 (en) | A system and method for providing 3d imaging | |
US11099009B2 (en) | Imaging apparatus and imaging method | |
JP2014130086A (en) | Range image sensor, processor and program | |
WO2022050279A1 (en) | Three-dimensional measurement device | |
US11803982B2 (en) | Image processing device and three-dimensional measuring system | |
JP2018085059A (en) | Information processing device, imaging apparatus, device control system, information processing method and program | |
US12125226B2 (en) | Image processing device, three-dimensional measurement system, and image processing method | |
JP2014070936A (en) | Error pixel detecting apparatus, error pixel detecting method, and error pixel detecting program | |
JP7152506B2 (en) | Imaging device | |
US20130241882A1 (en) | Optical touch system and optical touch position detecting method | |
JP2007233487A (en) | Pedestrian detection method, device, and program | |
JP6379646B2 (en) | Information processing apparatus, measurement method, and program | |
JP2018146495A (en) | Object detection apparatus, object detection method, object detection program, imaging apparatus, and equipment control system | |
CN113189601B (en) | Hybrid depth estimation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20150312 |