JP2006031171A - Pseudo three-dimensional data generation method, apparatus, program and recording medium - Google Patents
Pseudo three-dimensional data generation method, apparatus, program and recording medium Download PDFInfo
- Publication number
- JP2006031171A JP2006031171A JP2004206251A JP2004206251A JP2006031171A JP 2006031171 A JP2006031171 A JP 2006031171A JP 2004206251 A JP2004206251 A JP 2004206251A JP 2004206251 A JP2004206251 A JP 2004206251A JP 2006031171 A JP2006031171 A JP 2006031171A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- depth value
- ratio
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Image Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影対象の画像から擬似的な3次元データを生成する方法および装置、並びにコンピュータにその方法を実行させるためのプログラム、そのプログラムを記憶したコンピュータ読み取り可能な記録媒体に関する。 The present invention relates to a method and apparatus for generating pseudo three-dimensional data from an image to be photographed, a program for causing a computer to execute the method, and a computer-readable recording medium storing the program.
物体の3次元データを入力するために、従来から様々な方法が用いられている。3次元データ入力方法はパッシブ法とアクティブ法に大別することができ、例えばパッシブ法の代表例としてステレオ法、アクティブ法の代表例として光切断法がある。 Conventionally, various methods are used to input three-dimensional data of an object. Three-dimensional data input methods can be broadly classified into a passive method and an active method. For example, a stereo method is a representative example of the passive method, and a light cutting method is a typical example of the active method.
ステレオ法は2台の撮影装置をある間隔で配置し、同一の撮影対象に対する両者の画像内における投影位置の違い、すなわち対応点の差から三角測量の原理によって撮影対象の位置を求める方法である。光切断法はスリット光投影装置と撮影装置をある間隔で配置し、撮影対象に投影したスリット光が撮影装置の画像内に投影される位置から三角測量の原理によって撮影対象の位置を求める方法である。 The stereo method is a method in which two photographing devices are arranged at a certain interval, and the position of the photographing object is obtained by the principle of triangulation from the difference in projection position in both images with respect to the same photographing object, that is, the difference between corresponding points. . The light cutting method is a method in which the slit light projection device and the photographing device are arranged at a certain interval, and the position of the photographing target is obtained by the principle of triangulation from the position where the slit light projected on the photographing target is projected in the image of the photographing device. is there.
一方、被写体に照明光を照射し奥行き値を得る技術としては、被写体に対して少なくとも被写体上の位置によって明るさが変化する照明(例えば、左から右に明るさが増加するような照明)を照射して、各光強度ごとの反射光を検出し、三角測量の原理を用いて奥行き値を求める方法がある。しかし、この技術では、奥行き値の算出に三角測量の原理を用いるため、カメラと照明装置との間に一定の距離を設ける必要があり、装置の小型化は困難である(特許文献1参照)。 On the other hand, as a technique for obtaining a depth value by irradiating a subject with illumination light, illumination whose brightness changes at least depending on the position on the subject (for example, illumination whose brightness increases from left to right) is used. There is a method of irradiating, detecting reflected light for each light intensity, and obtaining a depth value using the principle of triangulation. However, in this technique, since the principle of triangulation is used for calculating the depth value, it is necessary to provide a certain distance between the camera and the illumination device, and it is difficult to reduce the size of the device (see Patent Document 1). .
また、上記と類似の技術として、被写体に対して光強度が時間とともに変化する強度変調照明光を照射して、その反射光の強度から、光の伝搬時間によって被写体までの距離を算出するいわゆるTime of flightの原理を用いて奥行き値を求める方法がある。しかし、この技術では、強度変調照明光を投影するための特殊な照明装置と強度変調照明光の変化を捉えるための高速シャッターを備えたカメラとが必要であり、装置の低コスト化には向いていない(特許文献2参照)。 In addition, as a technique similar to the above, so-called Time is calculated by irradiating a subject with intensity-modulated illumination light whose light intensity changes with time, and calculating the distance to the subject from the intensity of the reflected light based on the light propagation time. There is a method for obtaining a depth value by using the principle of of flight. However, this technology requires a special illumination device for projecting intensity-modulated illumination light and a camera equipped with a high-speed shutter for capturing changes in intensity-modulated illumination light, which is suitable for reducing the cost of the device. (See Patent Document 2).
さらに、被写体の擬似奥行き値を得る技術としては、X線CT装置などを用いて得られた被写体の離散的な奥行き値ごとの分割画像に対して、分割画像作成に用いた透過画像の濃淡値から隣接する分割画像に滑らかにつながるよう奥行き値を擬似的に算出する方法がある。しかし、この技術では、X線CT装置などによって予め被写体の離散的な奥行き値ごとに分割された透過画像が得られていることが前提であり、医療などの特殊な用途以外への適用は困難である(特許文献3参照)。
近年、デジタルカメラの普及にともない、撮影対象の2次元画像を取り込み、処理できるようになった。デジタルカメラ等で取得できる画像は奥行きをもたない2次元画像であるが、3次元画像の入力が可能になれば画像の活用の幅が広がり、その利用分野が増大する。しかしながらパッシブ法やアクティブ法はともに三角測量の原理を用いているため、撮影装置やスリット光投影装置などの装置間に距離を設けることが必要であり小型化が難しい。また、特許文献1、2、3に記載された方法によっても、小型化や低コスト化が必要なアプリケーションには適用が困難である。 In recent years, with the widespread use of digital cameras, it has become possible to capture and process two-dimensional images to be photographed. An image that can be acquired by a digital camera or the like is a two-dimensional image having no depth, but if a three-dimensional image can be input, the range of utilization of the image is widened and the field of use is increased. However, since both the passive method and the active method use the principle of triangulation, it is necessary to provide a distance between apparatuses such as an imaging apparatus and a slit light projection apparatus, and it is difficult to reduce the size. Also, the methods described in Patent Documents 1, 2, and 3 are difficult to apply to applications that require downsizing and cost reduction.
これらの問題を解決するため、本発明の発明者は、異なる照明状態において撮影した複数の画像の画素値の差分または除算の結果を所定の閾値と比較することにより、撮影対象の各部分の奥行き値を遠近分離する方法および装置を発明した。しかし、差分により遠近分離を行う場合、撮影対象の各部分の反射率に違いがあると正しく遠近分離を行えないという問題がある。また、除算により遠近分離を行う場合、例えば影により撮影対象に当たる光量が一定でなくなると正しく遠近分離を行えないという問題がある。 In order to solve these problems, the inventor of the present invention compares the difference between pixel values of a plurality of images photographed in different illumination states or the result of division with a predetermined threshold value, thereby obtaining the depth of each part to be photographed. Invented a method and apparatus for separating values from perspective. However, when performing perspective separation based on the difference, there is a problem that perspective separation cannot be performed correctly if there is a difference in the reflectance of each part to be imaged. Further, when performing perspective separation by division, there is a problem that perspective separation cannot be performed correctly if, for example, the amount of light hitting the object to be imaged is not constant due to shadows.
本発明は上記の課題を鑑みて発明されたものであり、撮影対象の画像から擬似的な3次元データを生成する方法、装置を提供することを目的とする。さらに、これらの方法をコンピュータに実行させるためのプログラム、および該プログラムを記憶した記憶媒体を提供することを目的とする。 The present invention has been invented in view of the above problems, and an object of the present invention is to provide a method and apparatus for generating pseudo three-dimensional data from an image to be photographed. Furthermore, it aims at providing the program for making a computer perform these methods, and the storage medium which memorize | stored this program.
本発明の一態様による、撮影対象の画像から擬似的な3次元データを生成する方法は、第1の照明状態において撮影した第1の画像と、前記第1の照明状態より明るい第2の照明状態において撮影した第2の画像とを取得する画像取得過程と、前記第1の画像の画素値を、前記第2の画像の対応する画素の画素値で除算することにより奥行き値を算出する奥行き値算出過程とを含むことを特徴とする。 According to one aspect of the present invention, a method for generating pseudo three-dimensional data from an image to be photographed includes a first image photographed in a first illumination state and a second illumination brighter than the first illumination state. An image acquisition process for acquiring a second image taken in a state, and a depth value for calculating a depth value by dividing a pixel value of the first image by a pixel value of a corresponding pixel of the second image And a value calculation process.
第1の画像の画素値を、それより明るい照明状態で撮影した第2の画像の除算することにより、0から1の範囲で連続的に変化する奥行き比率を求めることができる。 By dividing the pixel value of the first image by the second image captured in a brighter illumination state, a depth ratio that continuously changes in the range of 0 to 1 can be obtained.
本発明の他の態様による擬似的3次元データ生成方法は、さらに、奥行き値算出前に画像の解像度を低下させる解像度低下過程を含んでもよい。また、奥行き値算出後に奥行き値の分布範囲を調整するコントラスト改善過程を含んでもよい。 The pseudo three-dimensional data generation method according to another aspect of the present invention may further include a resolution reduction process for reducing the resolution of the image before calculating the depth value. Further, it may include a contrast improvement process for adjusting the distribution range of the depth value after the depth value is calculated.
本発明の一態様によれば、撮影対象の画像から滑らかな立体感を持ったレリーフ状の奥行きを作成することができる。 According to one embodiment of the present invention, a relief-like depth having a smooth stereoscopic effect can be created from an image to be captured.
本発明の他の態様によれば、奥行き値を算出する前に画像の解像度を下げるので、計算量を削減できる。また、除算におけるS/N比を改善することができる。 According to another aspect of the present invention, the amount of calculation can be reduced because the resolution of the image is lowered before the depth value is calculated. In addition, the S / N ratio in division can be improved.
本発明のさらに他の態様によれば、奥行き値の分布範囲を調整するので、より強い立体感を与える擬似的な3次元データを作成することができる。 According to still another aspect of the present invention, since the distribution range of the depth value is adjusted, pseudo three-dimensional data that gives a stronger stereoscopic effect can be created.
本発明のさらに他の態様によれば、算出した奥行き値を平滑化するので、奥行きを滑らかにし、自然な立体感を与える擬似的な3次元データを作成することができる。 According to still another aspect of the present invention, since the calculated depth value is smoothed, it is possible to create pseudo three-dimensional data that smoothes the depth and gives a natural stereoscopic effect.
また、本発明のさらに他の態様によれば、撮影手段と照明手段の距離を隣接させても良いため、小型化することが可能な装置を提供することができる。 According to still another aspect of the present invention, since the distance between the photographing unit and the illuminating unit may be adjacent to each other, an apparatus that can be miniaturized can be provided.
以下、本発明を実施するための最良の形態について、図面を参照しながら詳しく説明する。 Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
図1は、本発明の一実施形態による擬似的3次元データ生成方法を説明するための図である。図1には、3つの画像が示されている。(A)照明無し画像は、撮影対象にフラッシュ等の照明を当てないで撮影した画像である。(B)照明有り画像は、撮影対象にフラッシュ等の照明を当てて撮影した画像である。(C)奥行きマップは、(A)照明無し画像と(B)照明有り画像に、本発明の一態様である擬似的3次元データ生成方法を適用することにより算出した撮影対象の奥行き値の比率(以下、「奥行き比率」とも呼ぶ)を、輝度と対応させることにより画像として示したものである。各画像の対応する画素の画素値には、
1−(照明無し画像÷照明有り画像)=奥行き比率
という関係がある。
FIG. 1 is a diagram for explaining a pseudo three-dimensional data generation method according to an embodiment of the present invention. In FIG. 1, three images are shown. (A) An unilluminated image is an image photographed without illuminating a subject such as a flash. (B) An image with illumination is an image captured by applying illumination such as a flash to a subject to be imaged. (C) Depth map is the ratio of the depth value of the object to be imaged calculated by applying the pseudo three-dimensional data generation method according to one aspect of the present invention to (A) an image without illumination and (B) an image with illumination (Hereinafter also referred to as “depth ratio”) is shown as an image by associating with luminance. The pixel value of the corresponding pixel in each image is
1− (non-illuminated image ÷ illuminated image) = depth ratio
なお、以下の説明において、画像の画素値は、撮影対象の輝度に比例するものと仮定し、撮影対象の輝度が高ければ画像の画素値は大きく、撮影対象の輝度が低ければ画像の画素値は小さいものとする。この仮定は説明を簡潔にするためのものであり、これと異なる仮定をしてもよく、本発明の技術的範囲を限定するものとして捉えてはならない。 In the following description, it is assumed that the pixel value of the image is proportional to the luminance of the shooting target. If the luminance of the shooting target is high, the pixel value of the image is large, and if the luminance of the shooting target is low, the pixel value of the image Shall be small. This assumption is for the sake of brevity and may be different from this assumption and should not be taken as limiting the technical scope of the present invention.
撮影対象の画像において、フラッシュ等の照明がまったく届かない部分(すなわち、撮影手段・照明手段(図14参照)から最も遠い部分)では、(A)照明無し画像の画素値と(B)照明有り画像の画素値とは等しくなるから、(照明無し画像÷照明有り画像)=1の関係が成り立つ。したがって、
奥行き比率=1−(照明無し画像÷照明有り画像)=1−1
=0
となる。一方、フラッシュ等の照明がよく届く部分(すなわち、撮影手段・照明手段から最も近い部分)については、(A)照明無し画像の画素値より(B)照明有り画像の画素値の方が大きくなるから、(照明無し画像÷照明有り画像)≒0の関係が成り立つ。したがって、
奥行き比率=1−(照明無し画像÷照明有り画像)≒1−0
≒1
となる。したがって、奥行き比率の最大値は1、最小値は0であり、それぞれ撮影対象の撮影手段から最も近い部分と最も遠い部分とに対応する。
In an image to be photographed, in a portion where illumination such as a flash does not reach at all (that is, a portion farthest from photographing means / illuminating means (see FIG. 14)), (A) a pixel value of an image without illumination and (B) illumination Since it is equal to the pixel value of the image, the relationship of (non-illuminated image ÷ illuminated image) = 1 holds. Therefore,
Depth ratio = 1- (non-illuminated image / illuminated image) = 1-1
= 0
It becomes. On the other hand, for a portion where illumination such as a flash is well reached (that is, a portion closest to the photographing means / illuminating means), the pixel value of the image with illumination (B) is larger than the pixel value of the image without illumination (A). Therefore, the relationship of (non-illuminated image ÷ illuminated image) ≈0 holds. Therefore,
Depth ratio = 1- (non-illuminated image ÷ illuminated image) ≈1-0
≒ 1
It becomes. Therefore, the maximum value of the depth ratio is 1 and the minimum value is 0, which respectively correspond to the closest part and the farthest part from the imaging means to be imaged.
奥行き比率は
奥行き比率=照明無し画像÷照明有り画像
と定義してもよい。この場合も、奥行き値の比率の最大値は1、最小値は0であるが、それぞれ撮影対象の撮影手段から最も遠い部分と最も近い部分とに対応することとなる。
Depth ratio is
It may be defined as depth ratio = non-illuminated image ÷ illuminated image. In this case as well, the maximum value of the ratio of depth values is 1 and the minimum value is 0, but these correspond to the portion farthest from the photographing means to be photographed and the portion closest thereto.
図2は、この場合に照明有り画像の画素値と奥行き値の比率との関係を示すグラフである。照明有り画像の画素値が小さいとき、奥行き値の比率は1に近づき、照明有り画像の画素値が大きいとき、奥行き値の比率は0に近づくことが分かる。 FIG. 2 is a graph showing the relationship between the pixel value of the illuminated image and the ratio of the depth value in this case. It can be seen that the depth value ratio approaches 1 when the pixel value of the illuminated image is small, and the depth value ratio approaches 0 when the pixel value of the illuminated image is large.
以下の説明では、奥行き比率を
奥行き比率=1−(照明無し画像÷照明有り画像)
として説明するが、いずれの定義を採用するにしても、本発明の効果が得られることには注意すべきである。この場合、奥行き値の比率が1に近い撮影対象の部分は撮影手段・照明手段に近く、奥行き値の比率が0に近い撮影対象の部分は撮影手段・照明手段から遠いことを示している。
In the following description, the depth ratio is
Depth ratio = 1-(Unilluminated image / Illuminated image)
However, it should be noted that the effect of the present invention can be obtained regardless of which definition is adopted. In this case, the portion of the subject to be photographed whose depth value ratio is close to 1 is close to the photographing means / illuminating means, and the portion of the subject to be photographed whose depth value ratio is close to 0 is far from the photographing means / illuminating means.
なお、撮影手段・照明手段については、後で説明する(図14参照)。 The photographing means / illuminating means will be described later (see FIG. 14).
図3は、本発明の一実施形態による擬似的3次元データ生成方法を説明するためのフローチャートである。 FIG. 3 is a flowchart for explaining a pseudo three-dimensional data generation method according to an embodiment of the present invention.
ステップS110において、撮影手段から照明無し画像(A)と照明有り画像(B)を入力する。両画像とも(x×y)ピクセルの画素を有するものとする。なお、照明無し画像(A)は、必ずしも照明手段による照明が無い状態で撮影した画像でなくてもよく、照明有り画像(B)よりも明るくない照明状態で撮影した画像であればよい。 In step S110, an image without illumination (A) and an image with illumination (B) are input from the photographing means. Both images shall have (x × y) pixels. The unilluminated image (A) does not necessarily have to be an image captured in the absence of illumination by the illumination means, and may be an image captured in an illumination state that is not brighter than the illuminated image (B).
ステップS120において、各画素を指定するパラメータiと入力された画像の画素数を示すパラメータS´とを初期化する。 In step S120, a parameter i specifying each pixel and a parameter S ′ indicating the number of pixels of the input image are initialized.
ステップS130において、パラメータiで指定された画素の奥行き比率Ciを
奥行き比率Ci=1-(Ai/Bi)
により算出する。ここでAi、Biは、それぞれ照明無し画像(A)と照明有り画像(B)のパラメータiで指定された対応する画素の画素値を示す。なお、他の実施形態においては、奥行き値の比率Ciを
奥行き比率Ci=(Ai/Bi)
により算出してもよいことは、上述のとおりである。ここで、2進法で表現した場合、Ai/Biと1-(Ai/Bi)は補数の関係にあり、ビットごとの反転演算により一方から他方を算出することができる。
In step S130, the depth ratio Ci of the pixel designated by the parameter i is set.
Depth ratio Ci = 1- (Ai / Bi)
Calculated by Here, Ai and Bi indicate the pixel values of the corresponding pixels specified by the parameter i of the unilluminated image (A) and the illuminated image (B), respectively. In other embodiments, the depth value ratio Ci is set to
Depth ratio Ci = (Ai / Bi)
As described above, it may be calculated by. Here, when expressed in the binary system, Ai / Bi and 1- (Ai / Bi) have a complement relationship, and the other can be calculated from one by the inversion operation for each bit.
ステップS140において、パラメータiをインクリメントし、ステップS150において、すべての画素について奥行き値の比率Ciが算出されたかどうか(i<S´)を判断する。もし奥行き比率Ciがまだ算出されていない画素があるとき(ステップS150においてYES)、ステップS130に戻る。すべての画素について奥行き比率Ciが算出されているとき(ステップS150においてNO)、処理を終了する。 In step S140, the parameter i is incremented, and in step S150, it is determined whether or not the depth value ratio Ci has been calculated for all pixels (i <S '). If there is a pixel whose depth ratio Ci has not yet been calculated (YES in step S150), the process returns to step S130. When the depth ratio Ci has been calculated for all pixels (NO in step S150), the process ends.
この結果、パラメータCiには対応するピクセルiの奥行き値の比率が入っている。このパラメータCiを「画像」とみなして表示した結果が、図1に示した(C)奥行き値の図である。 As a result, the parameter Ci contains the ratio of the depth value of the corresponding pixel i. The result of displaying the parameter Ci as an “image” is the (C) depth value shown in FIG.
計算負荷を減少させるため、奥行き比率を算出する前に、画像の解像度を低下させてもよい。解像度を下げることにより、計算量を減らすことができる。また、撮影対象の移動などにより、異なる照明状態で撮影した画像の画素間にずれが生じた場合にも、画像と比べて奥行き比率の解像度を粗くできるので、ずれた領域の奥行きマップの輪郭線をぼかして、ずれを少なく見せる効果がある。 In order to reduce the calculation load, the resolution of the image may be reduced before calculating the depth ratio. By reducing the resolution, the amount of calculation can be reduced. In addition, even when a shift occurs between pixels in an image shot under different lighting conditions due to movement of the shooting target, etc., the depth ratio resolution can be made coarser than in the image. This has the effect of blurring and making the shift appear less.
また、画素の平均値をとることにより解像度を低下させれば、ローパスフィルタを適用した場合と同様に、S/N比を向上させる効果を得ることができる。 Further, if the resolution is lowered by taking the average value of the pixels, the effect of improving the S / N ratio can be obtained as in the case where the low-pass filter is applied.
なお、解像度を低下させる処理と画素の平均値をとる処理は、必要に応じて実行すればよい。 Note that the process of reducing the resolution and the process of obtaining the average value of the pixels may be executed as necessary.
図4は、本発明の一実施形態による奥行きマップのコントラストの改善を説明するための図である。図4に示した(C)奥行きマップは、図1に示した(C)奥行きマップそのものである。図4(C)奥行きマップを見ると、全体として暗く、「画像」としてコントラストが悪いことが分かる。この(C)奥行きマップは、本来、撮影対象の奥行きの比率を表しているので、「画像」としてコントラストが悪いということは、撮影対象の奥行き比率が最大範囲(0〜1)の間で広く分布していないことを意味する。このコントラストが悪い「画像」のコントラストを改善することにより、撮影対象の奥行き比率を最大範囲(0〜1)で広く分布させることができる。この結果得られるのが図4(D)コントラストを改善した奥行きマップである。奥行き比率のヒストグラムを用いてさらに説明する。 FIG. 4 is a diagram for explaining the improvement of the contrast of the depth map according to an embodiment of the present invention. The (C) depth map shown in FIG. 4 is the (C) depth map shown in FIG. From the depth map of FIG. 4C, it can be seen that the image is dark as a whole and the contrast as an “image” is poor. This (C) depth map originally represents the ratio of the depth of the object to be imaged, so that “contrast” as an “image” means that the depth ratio of the object to be imaged is wide within the maximum range (0 to 1). Means not distributed. By improving the contrast of the “image” having a low contrast, the depth ratio of the photographing target can be widely distributed in the maximum range (0 to 1). As a result, FIG. 4D shows a depth map with improved contrast. This will be further described using a depth ratio histogram.
図5(A)には、図4の(C)奥行きマップと(D)コントラストを改善した奥行きマップのヒストグラムが示されている。図5(A)から、図4(C)奥行きマップの奥行き比率は狭い範囲に集中していることが分かる。比率をxで表し、ヒストグラムをf(x)で表す。このヒストグラムf(x)はtminとtmaxの間に分布している。f(x)を0と1の間に広く分布するように、横方向に拡大してやればよい。図5(A)から、図4(D)コントラストを改善した奥行きマップのヒストグラムにおいて、f(x)がg(x)に変換されることにより、その分布範囲が広がっていることが分かる。ここで、f(x)のtminがg(x)の0に対応するように変換され、f(x)のtmaxがg(x)の1に対応するように変換されている。 FIG. 5A shows a histogram of (C) depth map and (D) depth map with improved contrast in FIG. From FIG. 5A, it can be seen that the depth ratio of the depth map of FIG. 4C is concentrated in a narrow range. The ratio is represented by x, and the histogram is represented by f (x). This histogram f (x) is distributed between t min and t max . What is necessary is just to expand f (x) in the horizontal direction so that it is widely distributed between 0 and 1. From FIG. 5A, it can be seen that in FIG. 4D, in the histogram of the depth map with improved contrast, the distribution range is expanded by converting f (x) to g (x). Here, t ( min ) of f (x) is converted to correspond to 0 of g (x), and tmax of f (x) is converted to correspond to 1 of g (x).
上記の変換は、f(x)を変換式
g(x)=max×(f(x)-tmin)÷(tmax-tmin) (1)
により変換することにより達成できる。ここで、maxは奥行き比率の最大値であり、100%の場合1.0である。
The above conversion converts f (x)
g (x) = max × ( f (x) -t min) ÷ (t max -t min) (1)
Can be achieved by conversion. Here, max is the maximum value of the depth ratio, and is 1.0 when 100%.
図6は、図5(A)を用いて説明した、本発明の一実施形態によるコントラスト改善をともなう擬似的3次元データ生成方法を説明するためのフローチャートである。 FIG. 6 is a flowchart for explaining a pseudo three-dimensional data generation method with contrast improvement according to an embodiment of the present invention described with reference to FIG.
ステップS210において、撮影手段から照明無し画像(A)と照明有り画像(B)を入力する。両画像とも(x×y)ピクセルの画素を有するものとする。なお、図3に関連して説明したように、照明無し画像(A)は、必ずしも照明手段による照明が無い状態で撮影した画像でなくてもよく、照明有り画像(B)よりも明るくない照明状態で撮影した画像であればよい。 In step S210, an image without illumination (A) and an image with illumination (B) are input from the photographing means. Both images have (x × y) pixels. As described with reference to FIG. 3, the non-illuminated image (A) does not necessarily have to be an image photographed without illumination by the illumination means, and is not brighter than the illuminated image (B). Any image captured in a state may be used.
ステップS220において、変換後に最大値に割り当てる比率を表すパラメータtmaxと、同じく最小値に割り当てる比率を示すパラメータtminを初期化する。また、各画素を指定するパラメータiと入力された画像の画素数を示すパラメータS´を初期化する。 In step S220, a parameter t max indicating the ratio assigned to the maximum value after conversion and a parameter t min indicating the ratio assigned to the minimum value are initialized. Also, a parameter i for designating each pixel and a parameter S ′ indicating the number of pixels of the input image are initialized.
ステップS230において、パラメータiで指定された画素の奥行き値の比率Ciを
奥行き比率Ci=1-(Ai/Bi)
により算出する。ここでAi、Biは、それぞれ照明無し画像(A)と照明有り画像(B)のパラメータiで指定された対応する画素を示す。なお、他の実施形態においては、奥行き比率Ciを
奥行き比率Ci=(Ai/Bi)
により算出してもよいことは、上述のとおりである。ここで、2進法で表現した場合、Ai/Biと1-(Ai/Bi)は補数の関係にあり、ビットごとの反転演算により一方から他方を算出することができる。
In step S230, the ratio Ci of the depth value of the pixel designated by the parameter i is set.
Depth ratio Ci = 1- (Ai / Bi)
Calculated by Here, Ai and Bi indicate the corresponding pixels specified by the parameter i of the unilluminated image (A) and the illuminated image (B), respectively. In other embodiments, the depth ratio Ci is set to
Depth ratio Ci = (Ai / Bi)
As described above, it may be calculated by. Here, when expressed in the binary system, Ai / Bi and 1- (Ai / Bi) have a complement relationship, and the other can be calculated from one by the inversion operation for each bit.
ステップS240において、パラメータiをインクリメントする。 In step S240, the parameter i is incremented.
ステップS250において、奥行き比率Ciが現在のtmaxより大きいか判断する。もしCiが現在のtmaxより大きいときは(ステップS250においてYES)、ステップS260において、tmaxをCiで更新してから次のステップS270に進む。もしCiが現在のtmaxより大きくないときは(ステップS250においてNO)、tmaxを更新することなく次のステップS270に進む。 In step S250, it is determined whether the depth ratio Ci is greater than the current tmax . If Ci is larger than the current t max (YES in step S250), t max is updated with Ci in step S260, and then the process proceeds to next step S270. If Ci is not larger than the current t max (NO in step S250), the process proceeds to the next step S270 without updating t max .
ステップS270において、奥行き値の比率Ciが現在のtminより小さいか判断する。もしCiが現在のtminより小さいときは(ステップS270においてYES)、ステップS280において、tminをCiで更新してから次のステップS290に進む。もしCiが現在のtminより小さくないときは(ステップS270においてNO)、tminを更新することなく次のステップS290に進む。 In step S270, it is determined whether the depth value ratio Ci is smaller than the current t min . If Ci is smaller than the current t min (YES in step S270), t min is updated with Ci in step S280, and then the process proceeds to next step S290. If Ci is not smaller than the current t min (NO in step S270), the process proceeds to the next step S290 without updating t min .
ステップS290において、すべての画素について奥行き値の比率Ciが算出されたかどうかを判断する。もし奥行き値の比率Ciがまだ算出されていない画素があるとき(ステップS290においてYES)、ステップS230に戻る。全ての画素について奥行き値の比率Ciが算出されているとき(ステップS290においてNO)、次のステップS300に進む。 In step S290, it is determined whether or not the depth value ratio Ci has been calculated for all pixels. If there is a pixel whose depth value ratio Ci has not yet been calculated (YES in step S290), the process returns to step S230. When the depth value ratio Ci is calculated for all the pixels (NO in step S290), the process proceeds to the next step S300.
以上のステップにより、すべての画素について奥行き値の比率Ciが算出されるとともに、パラメータtmaxとtminには、比率Ciの最大値と最小値が入っている。このCiに対して上記の変換式(1)を適用して、コントラストを改善した奥行きマップを得ることができる。 Through the above steps, the depth value ratio Ci is calculated for all the pixels, and the parameters t max and t min contain the maximum value and the minimum value of the ratio Ci. A depth map with improved contrast can be obtained by applying the conversion formula (1) to Ci.
ステップS300において、画素を特定するパラメータiを再び初期化する。 In step S300, the parameter i specifying the pixel is initialized again.
ステップS310において、Ciに対して上記の変換式(1)を適用し、その結果をCiとする。この操作により、max=1である場合、各画素iの比率Ciは0から1の間に分布するようになる。例えば、tmax=0.6、tmin=0.3であると仮定する。比率Ci=0.3、0.5、0.6の画素iは
Ci=1×(Ci-0.3)÷(0.6-0.3)
により、新しいCi=0、0.67、1にそれぞれ変換される。
In step S310, the conversion formula (1) is applied to Ci, and the result is Ci. By this operation, when max = 1, the ratio Ci of each pixel i is distributed between 0 and 1. For example, assume that t max = 0.6 and t min = 0.3. Pixel i with ratio Ci = 0.3, 0.5, 0.6 is
Ci = 1 × (Ci-0.3) ÷ (0.6-0.3)
Thus, new Ci values are converted to 0, 0.67, and 1, respectively.
ステップS320において、パラメータiをインクリメントし、ステップS330において、すべての画素について奥行き値の比率Ciの変換が終了したかどうかを判断する。もし奥行き値の比率Ciがまだ変換されていない画素があるとき(ステップS330においてYES)、ステップS310に戻る。全ての画素について奥行き値の比率Ciが変換されているとき(ステップS330においてNO)、処理を終了する。 In step S320, the parameter i is incremented, and in step S330, it is determined whether or not the conversion of the depth value ratio Ci has been completed for all the pixels. If there is a pixel whose depth value ratio Ci has not yet been converted (YES in step S330), the process returns to step S310. When the depth value ratio Ci is converted for all the pixels (NO in step S330), the process ends.
なお、図5(A)において、f(x)の最大値tmaxと最小値tminがそれぞれ1と0になるようにヒストグラムf(x)を拡大する例を示した。これ以外にもさまざまな拡大の仕方が考えられる。例えば、図5(B)に示したように、tmaxとtminがそれぞれ1以上、0以下になるまで拡大し、1以上の部分を1に、0以下の部分を0に丸めてもよい。これにより、奥行き比率の中心部を強調するすることができる。 FIG. 5A shows an example in which the histogram f (x) is enlarged so that the maximum value t max and the minimum value t min of f (x) become 1 and 0, respectively. There are various other ways of expansion. For example, as shown in FIG. 5B, it is possible to enlarge until t max and t min are 1 or more and 0 or less, respectively, and round 1 or more to 1 and 0 or less to 0. . Thereby, the center part of the depth ratio can be emphasized.
この奥行きマップのコントラスト改善方法は、図5(A)のf(x)のように、奥行き値の比率が狭い範囲にひとかたまりになっている場合に有効である。しかし、奥行きマップの比率が複数の範囲に分離している場合には、コントラストの改善効果が十分得られないという問題がある。 This depth map contrast improving method is effective when the ratio of depth values is a group within a narrow range, as shown by f (x) in FIG. However, when the ratio of the depth map is separated into a plurality of ranges, there is a problem that a sufficient contrast improvement effect cannot be obtained.
図7は、奥行きマップのヒストグラムが複数の範囲に分離している場合を説明するための図である。図7(A)に示した奥行きマップにおいて、破線の楕円で囲んだ部分71だけが白くなり、この部分だけ奥行き比率が1に近い(撮影手段・照明手段に近いことを表す)ことが分かる。この画像の奥行き比率のヒストグラムは、図7(B)のように、2つの山73、75をもっている。 FIG. 7 is a diagram for explaining a case where the histogram of the depth map is separated into a plurality of ranges. In the depth map shown in FIG. 7A, it can be seen that only a portion 71 surrounded by a broken-line ellipse is white, and only this portion has a depth ratio close to 1 (representing that it is close to the photographing means / illuminating means). The depth ratio histogram of this image has two peaks 73 and 75 as shown in FIG.
図8は、図7の奥行きマップのコントラストを、図6を参照して説明したコントラスト改善方法で改善した場合のヒストグラムを示す図である。図8(A)は、図7(B)に示したのと同じヒストグラムである。この奥行きマップに図6を参照して説明したコントラスト改善方法を適用した場合、その結果得られる奥行きマップのヒストグラムは図8(B)のようになる。図8(B)を見ると、図8(A)にあった2つの山73と75が、図8(B)の2つの山83と85にそれぞれ変換されており、コントラスト改善の効果は多少認められるが、2つの山83と85の間には依然としていずれの画素にも割り当てられていない奥行き比率があり、コントラストが十分改善されているとはいえない。この問題を解決するために、特性曲線を利用する。 FIG. 8 is a diagram showing a histogram when the contrast of the depth map of FIG. 7 is improved by the contrast improving method described with reference to FIG. FIG. 8A is the same histogram as shown in FIG. When the contrast improving method described with reference to FIG. 6 is applied to the depth map, the resulting depth map histogram is as shown in FIG. In FIG. 8B, the two peaks 73 and 75 shown in FIG. 8A are converted into the two peaks 83 and 85 shown in FIG. 8B, respectively. As can be seen, there is a depth ratio between the two peaks 83 and 85 that is not yet assigned to any pixel, and the contrast is not sufficiently improved. In order to solve this problem, a characteristic curve is used.
図9は特性曲線によるコントラスト改善方法について説明するための図である。図9(A)は、コントラスト改善方法の対象となる奥行きマップのヒストグラムf(x)を示す。その下の図9(B)には、ヒストグラムf(x)を積分した曲線である奥行き比率の特性曲線h(x)が描かれている。図9(B)の右側の図9(C)には45°線が描かれている。その上の図9(D)には、特性曲線によりコントラストが改善された奥行きマップのヒストグラムg(y)を示す。 FIG. 9 is a diagram for explaining a contrast improvement method using a characteristic curve. FIG. 9A shows a histogram f (x) of a depth map to be subjected to the contrast improvement method. In FIG. 9B below, a characteristic curve h (x) of the depth ratio, which is a curve obtained by integrating the histogram f (x), is drawn. In FIG. 9C on the right side of FIG. 9B, a 45 ° line is drawn. FIG. 9D above shows a histogram g (y) of the depth map in which the contrast is improved by the characteristic curve.
各図の関係を説明する。変換前の奥行きマップにおいては、奥行き比率x0を有する画素はf(x0)個ある(図9(A)の点P0に対応する)。点P0に対応する特性曲線上の点P1により、変換後の比率y0を決定する。図9(B)において、点P1の座標は(x0,y0)とする(y0=h(x0)である)。図9(C)において、点P1に対応する45°線上の点P2により、変換後の比率y0を保ったまま、上方向に折り返す。変換前の画素数f(x0)と変換後の比率y0とにより、図9(D)において、対応する点P3が決まる。変換前のその他の点も同様に図9(D)上の点に対応させることにより、変換後の奥行きマップのヒストグラムg(y)が求まる。 The relationship between each figure will be described. In the depth map before conversion, there are f (x 0 ) pixels having a depth ratio x 0 (corresponding to the point P 0 in FIG. 9A). The converted ratio y 0 is determined by the point P 1 on the characteristic curve corresponding to the point P 0 . In FIG. 9B, the coordinates of the point P 1 are (x 0 , y 0 ) (y 0 = h (x 0 )). In FIG. 9C, a point P 2 on the 45 ° line corresponding to the point P 1 is folded upward while maintaining the converted ratio y 0 . The corresponding point P 3 in FIG. 9D is determined by the number of pixels f (x 0 ) before conversion and the ratio y 0 after conversion. Similarly, other points before conversion correspond to the points on FIG. 9D, and the histogram g (y) of the depth map after conversion is obtained.
ここで、図9(C)において、原点を通る45°の直線の替わりに、単調増加の連続関数を用いて変換前の比率xを変換後の比率yに変換してもよい。 Here, in FIG. 9C, the ratio x before conversion may be converted to the ratio y after conversion using a continuous function of monotonous increase instead of the 45 ° straight line passing through the origin.
図10は、図9を参照して説明した本発明の一実施形態によるコントラスト改善方法を含む、擬似的3次元データ生成方法を説明するためのフローチャートである。 FIG. 10 is a flowchart for explaining a pseudo three-dimensional data generation method including a contrast improvement method according to an embodiment of the present invention described with reference to FIG.
ステップS410において、撮影手段から照明無し画像(A)と照明有り画像(B)を入力する。両画像とも(x×y)ピクセルの画素を有するものとする。なお、図3に関連して説明したように、照明無し画像(A)は、必ずしも照明手段による照明が無い状態で撮影した画像でなくてもよく、照明有り画像(B)よりも明るくない照明状態で撮影した画像であればよい。 In step S410, an unilluminated image (A) and an illuminated image (B) are input from the photographing means. Both images have (x × y) pixels. As described with reference to FIG. 3, the non-illuminated image (A) does not necessarily have to be an image photographed without illumination by the illumination means, and is not brighter than the illuminated image (B). Any image captured in a state may be used.
ステップS420において、変換後に最大値に割り当てる比率を表すパラメータtmaxと、同じく最小値に割り当てる比率を示すパラメータtminを初期化する。また、各画素を指定するパラメータiと入力された画像の画素数を示すパラメータS´を初期化する。また、比率jを有する画素の数pjを初期化する。 In step S420, a parameter t max indicating the ratio assigned to the maximum value after conversion and a parameter t min indicating the ratio assigned to the minimum value are initialized. Also, a parameter i for designating each pixel and a parameter S ′ indicating the number of pixels of the input image are initialized. Also, the number p j of pixels having the ratio j is initialized.
ステップS430において、パラメータiで指定された画素の奥行き値の比率Ciを
奥行き値の比率Ci=1-(Ai/Bi)
により算出する。ここでAi、Biは、それぞれ照明無し画像(A)と照明有り画像(B)のパラメータiで指定された対応する画素を示す。なお、他の実施形態においては、奥行き値の比率Ciを
奥行き値の比率Ci=(Ai/Bi)
により算出してもよいことは、上述のとおりである。ここで、2進法で表現した場合、Ai/Biと1-(Ai/Bi)は補数の関係にあり、ビットごとの反転演算により一方から他方を算出することができる。
In step S430, the ratio Ci of the depth value of the pixel designated by the parameter i is set.
Depth value ratio Ci = 1- (Ai / Bi)
Calculated by Here, Ai and Bi indicate the corresponding pixels specified by the parameter i of the unilluminated image (A) and the illuminated image (B), respectively. In other embodiments, the depth value ratio Ci is set to
Depth value ratio Ci = (Ai / Bi)
As described above, it may be calculated by. Here, when expressed in binary, Ai / Bi and 1- (Ai / Bi) have a complement relationship, and the other can be calculated from one by the inversion operation for each bit.
ステップS440において、比率Ciを有する画素の数pCiをインクリメントし、ステップS450において画素を特定するパラメータiをインクリメントする。 In step S440, the number p Ci of pixels having the ratio Ci is incremented, and in step S450, the parameter i specifying the pixel is incremented.
ステップS460において、全ての画素のついて奥行き比率Ciが算出されたかどうかを判断する。もし奥行き値の比率Ciがまだ算出されていない画素があるとき(ステップS460においてYES)、ステップS430に戻る。すべての画素について奥行き比率Ciが算出されているとき(ステップS460においてNO)、次のステップS470に進む。 In step S460, it is determined whether or not the depth ratio Ci has been calculated for all the pixels. If there is a pixel whose depth value ratio Ci has not yet been calculated (YES in step S460), the process returns to step S430. When the depth ratio Ci is calculated for all pixels (NO in step S460), the process proceeds to the next step S470.
以上のステップにより、すべての画素について奥行き比率が計算されるとともに、比率Ciを有する画素の数(ヒストグラム)がpCiで計算される。 Through the above steps, the depth ratio is calculated for all the pixels, and the number of pixels having the ratio Ci (histogram) is calculated by p Ci .
次にステップS470において、奥行き比率j(0≦j≦1)を初期化する。 Next, in step S470, the depth ratio j (0 ≦ j ≦ 1) is initialized.
ステップS480において、0からjの現在の値までpj(=pCi)を足し合わせ、全画素数S´で除算した結果をpjとする。この操作が、図11(A)から(B)においてf(x)を積分し特性曲線h(x)を求める操作に対応する。全画素数S´で除算したのは、最大値が1になるように正規化するためである。pjが変換後の奥行き比率となる。 In step S480, p j (= p Ci ) is added from 0 to the current value of j , and the result of division by the total number of pixels S ′ is defined as p j . This operation corresponds to the operation of integrating f (x) in FIGS. 11A to 11B to obtain the characteristic curve h (x). The reason for dividing by the total number of pixels S ′ is to normalize the maximum value to be 1. p j is the depth ratio after conversion.
ステップS490において、パラメータjのすべての範囲についてステップS480が終了したか判断する。もしまだなら(ステップS490においてYES)、ステップS500においてjをΔjだけ増加させてから、ステップS480に戻り、新しいjについてステップS480とS490を繰り返す。もしパラメータjのすべての範囲についてステップS480が終了していれば(ステップS490においてNO)、次のステップS510に進む。 In step S490, it is determined whether step S480 has been completed for all ranges of parameter j. If not (YES in step S490), j is increased by Δj in step S500, and then the process returns to step S480, and steps S480 and S490 are repeated for the new j. If step S480 has been completed for all ranges of parameter j (NO in step S490), the process proceeds to next step S510.
以上のステップS470からS500により、奥行き値0〜jについてすべてのpを足し合わせ、奥行き値jまでの画素数を求めている。その結果を全画素数S´で除算することにより、変換後の奥行き比率を求めている。 Through the above steps S470 to S500, all p's are added for depth values 0 to j, and the number of pixels up to the depth value j is obtained. The depth ratio after conversion is obtained by dividing the result by the total number of pixels S ′.
ステップS510において、画素を特定するためのパラメータiを初期化する。 In step S510, a parameter i for specifying a pixel is initialized.
ステップS520において、比率Ciを変換後の正規化した画素数pCiで置き換える。この操作により、図9(D)に示した変換後のヒストグラムが求まる。 In step S520, the ratio Ci is replaced with the normalized pixel count p Ci after conversion. By this operation, the converted histogram shown in FIG. 9D is obtained.
ステップS530において、パラメータiをインクリメントし、ステップS540において、すべての画素についてステップS520の置き換えが終了したかどうか(i<S´)を判断する。もし終了していなければ(ステップS540においてYES)、ステップS520に戻る。もし終了していれば(ステップS540においてNO)、処理は終了する。 In step S530, the parameter i is incremented. In step S540, it is determined whether or not the replacement of step S520 has been completed for all pixels (i <S ′). If not completed (YES in step S540), the process returns to step S520. If completed (NO in step S540), the process ends.
図11は、図7に示した奥行きマップのコントラストを、図10を参照して説明した特性曲線を用いたコントラスト改善方法を用いて、改善した結果を説明するための図である。図11(A)は、改善前の奥行きマップのヒストグラムである。図11(B)は、改善後の奥行きマップのヒストグラムである。特性曲線を用いたコントラスト改善方法を導入することにより、改善後の奥行きマップは、比率のほぼ全範囲を用いるようにコントラストが改善されていることが分かる。 FIG. 11 is a diagram for explaining a result of improving the contrast of the depth map shown in FIG. 7 using the contrast improvement method using the characteristic curve described with reference to FIG. FIG. 11A is a histogram of the depth map before improvement. FIG. 11B is a histogram of the depth map after improvement. By introducing the contrast improvement method using the characteristic curve, it can be seen that the improved depth map improves the contrast so that almost the entire range of the ratio is used.
図12は、本発明の一実施形態による奥行きマップの平滑化について説明するための図である。図12(A)は、平滑化前の奥行きマップである。この奥行きマップにおいては、撮影対象であるぬいぐるみの目玉の部分が黒くなり、その奥行き比率が周辺部と比較して急激に変化してしまっていることがわかる。そこで奥行きマップにローパスフィルタを適用して平滑化することにより、この問題を解消することができる。図12(B)は、ローパスフィルとを適用して平滑化した奥行きマップである。撮影対象であるぬいぐるみの目玉部分に生じていた奥行き比率の急激な変化が解消されていることがわかる。 FIG. 12 is a diagram for explaining smoothing of a depth map according to an embodiment of the present invention. FIG. 12A is a depth map before smoothing. In this depth map, it can be seen that the stuffed eyeball portion to be photographed becomes black, and the depth ratio changes abruptly as compared with the peripheral portion. Therefore, this problem can be solved by applying a low-pass filter to the depth map for smoothing. FIG. 12B is a depth map smoothed by applying low-pass fill. It can be seen that the abrupt change in the depth ratio that occurred in the eyeball portion of the stuffed animal that is the subject of photography has been eliminated.
図13は、平滑化処理で用いたローパスフィルタの係数の一例を示す図である。ここでは、ローパスフィルタとして、処理対象の画素を中心としたフィルタサイズ(7×7)の範囲内の全ての画素の画素値に係数としてフィルタサイズの逆数(1/49)を掛けて足し合わせる、単純移動平均フィルタを適用した。フィルタサイズは任意に変更可能であり、また、平滑化の効果を持つ他のフィルタを適用してもよい。平滑化の効果を持つ他のフィルタの例としては、フィルタ内の各マトリクスに随時重み付けを行う加重移動平均フィルタや、正規分布に従った重み付けを行うガウシアンフィルタなどがある。 FIG. 13 is a diagram illustrating an example of the coefficients of the low-pass filter used in the smoothing process. Here, as the low-pass filter, the pixel values of all the pixels within the range of the filter size (7 × 7) centering on the pixel to be processed are multiplied by the reciprocal (1/49) of the filter size as a coefficient, and added. A simple moving average filter was applied. The filter size can be arbitrarily changed, and another filter having a smoothing effect may be applied. Examples of other filters having a smoothing effect include a weighted moving average filter that weights each matrix in the filter as needed, and a Gaussian filter that performs weighting according to a normal distribution.
図14は、本発明の一実施形態による擬似的3次元データ生成装置を示すブロック図である。図14に示した擬似的3次元データ生成装置600は、処理手段610と、撮影手段650と、照明手段660とを含む。照明手段660は撮影手段650に接続されており、撮影手段650は処理手段610に接続されている。 FIG. 14 is a block diagram illustrating a pseudo three-dimensional data generation apparatus according to an embodiment of the present invention. The pseudo three-dimensional data generation apparatus 600 illustrated in FIG. 14 includes a processing unit 610, an imaging unit 650, and an illumination unit 660. The illumination unit 660 is connected to the imaging unit 650, and the imaging unit 650 is connected to the processing unit 610.
処理手段610は、画像記憶手段620と、演算手段630と、制御手段640とを含む。画像記憶手段620は、2つのフレームメモリ621、622を含み、撮影手段650が撮影した撮影対象の画像データを取り込み、保持する。演算手段630は、画像演算手段631と奥行き値算出手段632を含み、異なる照明状態において撮影された撮影対象の画像を比較することにより、撮影対象の擬似的な奥行き比率を算出する。制御手段640は、上記各手段を制御する。画像演算手段631は、例えば、画像記憶手段620に記憶されている撮影対象の画像の解像度を下げる処理をして、解像度を下げた画像を奥行き値算出手段632に送る。奥行き値算出手段632は、画像演算手段631から入力された画像に基づき、上に説明した擬似的3次元データ生成方法を適用することにより、撮影対象の擬似的3次元データを生成する。 The processing unit 610 includes an image storage unit 620, a calculation unit 630, and a control unit 640. The image storage unit 620 includes two frame memories 621 and 622, and captures and holds image data to be photographed by the photographing unit 650. The calculation unit 630 includes an image calculation unit 631 and a depth value calculation unit 632, and calculates a pseudo depth ratio of the shooting target by comparing images of the shooting target shot in different illumination states. The control means 640 controls each of the above means. For example, the image calculation unit 631 performs processing for reducing the resolution of the image to be captured stored in the image storage unit 620 and sends the image with the reduced resolution to the depth value calculation unit 632. The depth value calculation unit 632 generates pseudo three-dimensional data to be imaged by applying the pseudo three-dimensional data generation method described above based on the image input from the image calculation unit 631.
撮影手段650は、撮影対象により反射された光を捉え、電気信号に変換する固体撮像素子651と、固体撮像素子651が捉えたアナログの電気信号をデジタルの電気信号に変換するA/D変換手段652とを含む。 The imaging unit 650 captures light reflected by the imaging target and converts it into an electrical signal, and an A / D conversion unit converts an analog electrical signal captured by the solid-state imaging device 651 into a digital electrical signal. 652.
なお、本発明の処理手段610は、コンピュータとその上で動作するプログラムによっても実現可能であり、プログラムはコンピュータで読み取ることができる記録媒体に記録することができる。また、コンピュータをネットワークに接続することにより、ネットワーク上のサーバ等から、このプログラムをダウンロードすることも可能である。 The processing means 610 of the present invention can also be realized by a computer and a program that runs on the computer, and the program can be recorded on a recording medium that can be read by the computer. It is also possible to download this program from a server or the like on the network by connecting the computer to the network.
以上、本発明者によってなされた発明を、前記実施例に基づき具体的に説明したが、本発明は、前記実施例に限定されるものではなく、その要旨を逸脱しない範囲において種々変更可能であることは勿論である。 As mentioned above, the invention made by the present inventor has been specifically described based on the above embodiments. However, the present invention is not limited to the above embodiments, and various modifications can be made without departing from the scope of the invention. Of course.
600…擬似的3次元データ生成装置
610…処理手段
620…画像記憶手段
621、622…フレームメモリ
630…演算手段
631…画像演算手段
632…奥行き比率算出手段
640…制御手段
650…撮影手段
651…固体撮像素子
652…A/D変換手段
660…照明手段
600 ... Pseudo three-dimensional data generation device 610 ... Processing means 620 ... Image storage means 621, 622 ... Frame memory 630 ... Calculating means 631 ... Image calculating means 632 ... Depth ratio calculating means 640 ... Control means 650 ... Shooting means 651 ... Solid Image sensor 652 ... A / D conversion means 660 ... illumination means
Claims (20)
第1の照明状態において撮影した第1の画像と、前記第1の照明状態より明るい第2の照明状態において撮影した第2の画像とを取得する画像取得過程と、
前記第1の画像の画素値を、前記第2の画像の対応する画素の画素値で除算することにより奥行き値を算出する奥行き値算出過程と
を含むことを特徴とする方法。 A method of generating pseudo three-dimensional data from an image to be captured,
An image acquisition process for acquiring a first image captured in a first illumination state and a second image captured in a second illumination state brighter than the first illumination state;
A depth value calculating step of calculating a depth value by dividing a pixel value of the first image by a pixel value of a corresponding pixel of the second image.
前記奥行き値算出過程において、前記第1の画像の画素値を前記第2の画像の対応する画素の画素値で除算した結果を奥行き値の比率とすることを特徴とする方法。 The method of claim 1, comprising:
In the depth value calculating step, a result of dividing a pixel value of the first image by a pixel value of a corresponding pixel of the second image is used as a depth value ratio.
前記奥行き値算出過程において、前記第1の画像の画素値を前記第2の画像の対応する画素の画素値で除算した結果の補数を奥行き値の比率とすることを特徴とする方法。 The method of claim 1, comprising:
In the depth value calculating step, a complement of a result obtained by dividing a pixel value of the first image by a pixel value of a corresponding pixel of the second image is used as a depth value ratio.
第1の照明状態において前記撮影対象を撮影することにより第1の画像を取得し、前記第1の照明状態より明るい第2の照明状態において前記撮影対象を撮影することにより第2の画像を取得する撮影手段と、
前記撮影手段が取得した前記第1と第2の画像を記憶する画像記憶手段と、
前記画像記憶手段が記憶した前記第1の画像の画素値を、前記第2の画像の対応する画素の画素値で除算することにより奥行き値を算出する奥行き値算出手段と
を備えることを特徴とする装置。 An apparatus for generating pseudo three-dimensional data from an image to be captured,
A first image is obtained by photographing the photographing subject in the first illumination state, and a second image is obtained by photographing the photographing subject in a second illumination state brighter than the first illumination state. Photographing means to
Image storage means for storing the first and second images acquired by the photographing means;
Depth value calculating means for calculating a depth value by dividing the pixel value of the first image stored by the image storage means by the pixel value of the corresponding pixel of the second image. Device to do.
前記奥行き値算出手段は、前記第1の画像の画素値を前記第2の画像の対応する画素の画素値で除算した結果を奥行き値の比率とすることを特徴とする装置。 The apparatus of claim 9, comprising:
The depth value calculation means uses the result of dividing the pixel value of the first image by the pixel value of the corresponding pixel of the second image as a depth value ratio.
前記奥行き値算出手段は、前記第1の画像の画素値を前記第2の画像の対応する画素の画素値で除算した結果の補数を奥行き値の比率とすることを特徴とする装置。 The apparatus of claim 9, comprising:
The depth value calculating means uses the complement of the result of dividing the pixel value of the first image by the pixel value of the corresponding pixel of the second image as the ratio of depth values.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206251A JP2006031171A (en) | 2004-07-13 | 2004-07-13 | Pseudo three-dimensional data generation method, apparatus, program and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004206251A JP2006031171A (en) | 2004-07-13 | 2004-07-13 | Pseudo three-dimensional data generation method, apparatus, program and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006031171A true JP2006031171A (en) | 2006-02-02 |
Family
ID=35897478
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004206251A Pending JP2006031171A (en) | 2004-07-13 | 2004-07-13 | Pseudo three-dimensional data generation method, apparatus, program and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006031171A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102547322A (en) * | 2010-12-22 | 2012-07-04 | 株式会社东芝 | Map converting method and map converting apparatus |
JP2012231405A (en) * | 2011-04-27 | 2012-11-22 | Toshiba Corp | Depth-adjustable three-dimensional video display device |
JP2013055629A (en) * | 2011-08-10 | 2013-03-21 | Toshiba Corp | Video output device and video output method |
KR101329069B1 (en) * | 2011-01-24 | 2013-11-14 | 가부시키가이샤 제이브이씨 켄우드 | Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device |
WO2018167997A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
-
2004
- 2004-07-13 JP JP2004206251A patent/JP2006031171A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102547322A (en) * | 2010-12-22 | 2012-07-04 | 株式会社东芝 | Map converting method and map converting apparatus |
JP2012134881A (en) * | 2010-12-22 | 2012-07-12 | Toshiba Corp | Map conversion method, map conversion device, and map conversion program |
TWI485646B (en) * | 2010-12-22 | 2015-05-21 | Toshiba Kk | Map converting method, map converting apparatus, and computer program product for map conversion |
US9154764B2 (en) | 2010-12-22 | 2015-10-06 | Kabushiki Kaisha Toshiba | Map converting method, map converting apparatus, and computer program product for map conversion |
KR101329069B1 (en) * | 2011-01-24 | 2013-11-14 | 가부시키가이샤 제이브이씨 켄우드 | Depth estimation data generating device, computer readable recording medium having depth estimation data generating program recorded thereon, and pseudo-stereo image display device |
JP2012231405A (en) * | 2011-04-27 | 2012-11-22 | Toshiba Corp | Depth-adjustable three-dimensional video display device |
JP2013055629A (en) * | 2011-08-10 | 2013-03-21 | Toshiba Corp | Video output device and video output method |
WO2018167997A1 (en) * | 2017-03-14 | 2018-09-20 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
JP2018151932A (en) * | 2017-03-14 | 2018-09-27 | オムロン株式会社 | Driver state estimation device and driver state estimation method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11948282B2 (en) | Image processing apparatus, image processing method, and storage medium for lighting processing on image using model data | |
CN111028189B (en) | Image processing method, device, storage medium and electronic equipment | |
US10997696B2 (en) | Image processing method, apparatus and device | |
CN108335279B (en) | Image fusion and HDR imaging | |
US9330446B2 (en) | Method and apparatus for processing image | |
JP5319415B2 (en) | Image processing apparatus and image processing method | |
JP5398156B2 (en) | WHITE BALANCE CONTROL DEVICE, ITS CONTROL METHOD, AND IMAGING DEVICE | |
JP6218389B2 (en) | Image processing apparatus and image processing method | |
CN108898567A (en) | Image denoising method, apparatus and system | |
CN110728648A (en) | Image fusion method and device, electronic equipment and readable storage medium | |
JP6074254B2 (en) | Image processing apparatus and control method thereof | |
CN108335272B (en) | Method and device for shooting picture | |
KR20160050671A (en) | Apparatus and method detecting motion mask | |
JP2008259161A (en) | Target tracing device | |
CN116612015A (en) | Model training method, image mole pattern removing method and device and electronic equipment | |
US9338354B2 (en) | Motion blur estimation and restoration using light trails | |
JP3938122B2 (en) | Pseudo three-dimensional image generation apparatus, generation method, program therefor, and recording medium | |
JP2020102059A (en) | Image processor | |
JP2006031171A (en) | Pseudo three-dimensional data generation method, apparatus, program and recording medium | |
JP2022045567A (en) | Imaging control device, imaging control method, and program | |
JP5616989B2 (en) | Image processing apparatus and threshold setting processing program | |
JP2015076676A (en) | Image processing apparatus, image processing method, and program | |
CN111586309A (en) | Image acquisition method and device for underwater automatic light supplement | |
JP6554009B2 (en) | IMAGE PROCESSING APPARATUS, CONTROL METHOD THEREOF, PROGRAM, AND RECORDING MEDIUM | |
CN115546042B (en) | Video processing method and related equipment thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071204 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20080401 |