Nothing Special   »   [go: up one dir, main page]

JP2000253422A - Method for generating three-dimensionall image from two-dimensional image - Google Patents

Method for generating three-dimensionall image from two-dimensional image

Info

Publication number
JP2000253422A
JP2000253422A JP11055705A JP5570599A JP2000253422A JP 2000253422 A JP2000253422 A JP 2000253422A JP 11055705 A JP11055705 A JP 11055705A JP 5570599 A JP5570599 A JP 5570599A JP 2000253422 A JP2000253422 A JP 2000253422A
Authority
JP
Japan
Prior art keywords
boundary
pixel
pixels
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11055705A
Other languages
Japanese (ja)
Inventor
Toru Sugiyama
徹 杉山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP11055705A priority Critical patent/JP2000253422A/en
Publication of JP2000253422A publication Critical patent/JP2000253422A/en
Pending legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain a three-dimensional(3D) image having no breakdown by generating pixels around a boundary between a subject image and a background image by interpolating them in a time base direction and generating pixels other than that around the boundary by interpolating them in a space axis direction in the case of generating a 3D image from a two-dimensional(2D) image. SOLUTION: A 2D video signal and depth information are stored in memories 102, 103 for plural frames and a subject boundary detection part 106 detects a boundary between a subject image and a background image. In the case of generating parallax information around the boundary, a corresponding pixel retrieving part 109, a corresponding pixel calculation part 107 and an interpolating image generation part 110 are constituted so as to generate pixels for obtaining parallax by retrieving them from the front/rear frame of the 2D video signal and obtaining interpolated pixels by pixel operation, and in the case of generating parallax information except the neighborhood of the boundary, constituted so as to obtain interpolated pixels by pixel operation in the frame of the 2D video signal.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、2次元映像から
の立体映像生成方法に関するもので、特に2次元映像の
奥行き情報が与えられた場合に、立体映像を生成する時
に必要な映像の補間処理に工夫を行ったものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a method for generating a three-dimensional image from a two-dimensional image, and more particularly to an interpolation process of an image necessary for generating a three-dimensional image when depth information of the two-dimensional image is given. It is something that was devised.

【0002】[0002]

【従来の技術】現在民生用の立体ディスプレイの開発が
進む一方で民生用の立体映像用ソフトの量は少なく、立
体映像を表示するためには新規に立体映像を制作する必
要がある。
2. Description of the Related Art While the development of consumer stereoscopic displays is currently progressing, the amount of software for consumer stereoscopic images is small, and it is necessary to newly produce stereoscopic images in order to display stereoscopic images.

【0003】そこで従来の2次元映像の資産を活かす方
法として、従来の2次元映像を立体映像に変換する方法
が提案されている。2次元映像を立体映像に変換する立
体映像生成装置については、例えば特開平8−1495
17号に開示されている。
Therefore, as a method of utilizing the assets of the conventional two-dimensional video, a method of converting the conventional two-dimensional video into a three-dimensional video has been proposed. A three-dimensional image generating apparatus for converting a two-dimensional image into a three-dimensional image is described in, for example,
No. 17.

【0004】この視差映像を生成する方法は、現フレー
ムの映像を一方の眼に呈示し、所定フレーム遅延した映
像を他方の眼に呈示するものである。2次元動映像上で
被写体が水平方向に移動している場合、この移動分が視
差となり立体的に知覚される。しかし、被写体が変形し
ている場合には変形量が不要な視差として知覚されてし
まうという問題がある。
In this method of generating a parallax image, an image of a current frame is presented to one eye, and an image delayed by a predetermined frame is presented to the other eye. When the subject is moving in the horizontal direction on the two-dimensional moving image, this movement becomes parallax and is perceived stereoscopically. However, when the subject is deformed, there is a problem that the amount of deformation is perceived as unnecessary parallax.

【0005】別の視差映像を生成する方法として、2次
元映像を空間軸方向で補間して拡大縮小することにより
視差映像を生成するものがある。しかし空間軸方向に被
写体像と背景像との境界付近を補間処理すると、被写体
と背景とが混ざりあって不自然な像となることがある。
As another method of generating a parallax image, there is a method of generating a parallax image by interpolating a two-dimensional image in a spatial axis direction and enlarging / reducing the image. However, if interpolation processing is performed near the boundary between the subject image and the background image in the spatial axis direction, the subject and the background may be mixed and an unnatural image may be formed.

【0006】又、視差映像を生成する別の方法として、
現フレームの映像を一方の眼に呈示し、所定フレーム遅
延した映像を他方の眼に呈示する方法がある。2次元動
映像上で被写体が水平方向に移動している場合、この移
動分が視差となり立体的に知覚される。しかし、被写体
が変形している場合には変形量が不要な視差として知覚
されてしまうという問題がある。
Another method for generating a parallax image is as follows.
There is a method of presenting an image of the current frame to one eye and presenting an image delayed by a predetermined frame to the other eye. When the subject is moving in the horizontal direction on the two-dimensional moving image, this movement becomes parallax and is perceived stereoscopically. However, when the subject is deformed, there is a problem that the amount of deformation is perceived as unnecessary parallax.

【0007】[0007]

【発明が解決しようとする課題】以上述べてきたよう
に、映像の空間軸方向での補間により視差映像を生成す
る場合には被写体の境界部分で不適当となる。またフレ
ーム遅延した映像を視差映像とする場合には被写体がフ
レーム間で変形している場合に不適当となる。またフレ
ーム遅延した映像を視差映像として使用する場合、映像
内に任意の視差を設定できないため融通性がない。
As described above, when a parallax image is generated by interpolating the image in the spatial axis direction, it is inappropriate at the boundary of the subject. In addition, when the image delayed by the frame is used as the parallax image, the image is inappropriate when the subject is deformed between frames. In addition, when a frame-delayed video is used as a parallax video, there is no flexibility because an arbitrary parallax cannot be set in the video.

【0008】そこでこの発明は、2次元映像信号から立
体映像信号を生成する場合に、画素補間処理方法を工夫
し、例えば背景像と被写体像の境界のように、奥行き感
を必要とする部分の立体感を向上し得る2次元映像から
の立体映像生成方法を提供することを目的とする。
Accordingly, the present invention devises a pixel interpolation processing method when a stereoscopic video signal is generated from a two-dimensional video signal, for example, for a portion requiring a sense of depth, such as a boundary between a background image and a subject image. An object of the present invention is to provide a method for generating a stereoscopic image from a two-dimensional image that can improve the stereoscopic effect.

【0009】[0009]

【課題を解決するための手段】上記問題を解決するため
に本発明では、2次元映像信号とその奥行き情報が与え
られ、前記奥行き情報に従って前記2次元映像信号を左
用又は右用の立体映像信号に変換処理する際、被写体像
の境界を検出し、境界付近の視差用情報を生成する場合
には前記2次元映像信号の前方後方フレームからの補間
演算によって生成し、境界近傍以外に視差用情報を生成
する場合には前記2次元映像信号のフレーム内での補間
演算によって生成し、生成した視差用情報を前記2次元
映像信号に加えるようにしている。
According to the present invention, a two-dimensional video signal and its depth information are provided, and the two-dimensional video signal is converted into a left or right stereoscopic video signal according to the depth information. When the conversion processing is performed, the boundary of the subject image is detected, and when generating the parallax information near the boundary, the parallax information is generated by interpolation from the front and rear frames of the two-dimensional video signal. Is generated by an interpolation operation within a frame of the two-dimensional video signal, and the generated parallax information is added to the two-dimensional video signal.

【0010】これによって被写体の境界付近での像が不
自然な像となるのを防ぐ。また被写体像の内部はフレー
ム内から補間することによって、フレーム間での像の変
化による影響を防ぐことが可能となる。
This prevents the image near the boundary of the subject from becoming an unnatural image. Further, by interpolating the inside of the subject image from within the frame, it is possible to prevent the influence of the image change between frames.

【0011】[0011]

【発明の実施の形態】以下、図面を参照して本発明の実
施の形態を説明する。
Embodiments of the present invention will be described below with reference to the drawings.

【0012】図1は本発明の第1の実施の形態を示す構
成図である。入力部11には圧縮された2次元映像信号
が供給され、2次元映像信号復号部12に導かれる。こ
こで復号された2次元映像信号は、奥行き推定部13に
供給される。奥行き推定部13は、例えば被写体像と背
景像との奥行き情報を得るものである。奥行き情報を求
める方法としては、各種方法がある。
FIG. 1 is a configuration diagram showing a first embodiment of the present invention. The input unit 11 is supplied with the compressed two-dimensional video signal, and is guided to the two-dimensional video signal decoding unit 12. The two-dimensional video signal decoded here is supplied to the depth estimating unit 13. The depth estimating unit 13 obtains, for example, depth information of a subject image and a background image. There are various methods for obtaining depth information.

【0013】まず背景像を識別し、背景像と被写体像と
の判別を行う。次に背景像の平均動きベクトルを求め、
次に被写体像の動きベクトルを求める。次に背景像の平
均動きベクトルと被写体像の動きベクトルから、被写体
像の相対動きベクトルを求める。次に相対動きベクトル
のスカラー量を求め、スカラー量を奥行き情報に変換す
る。スカラー量が大きいほど奥行きは手前であると判定
する。
First, the background image is identified, and the background image and the subject image are discriminated. Next, find the average motion vector of the background image,
Next, a motion vector of the subject image is obtained. Next, a relative motion vector of the subject image is obtained from the average motion vector of the background image and the motion vector of the subject image. Next, the scalar amount of the relative motion vector is obtained, and the scalar amount is converted into depth information. It is determined that the depth is closer to the front as the scalar amount increases.

【0014】背景像と被写体像の判別方法としては、コ
ントラスが閾値より低い部分を背景像とし、それ以外の
部分を被写体像として判別する。動きベクトルを求める
方法としては、例えばMPEGの規格で定められている
方法を利用する。
As a method of discriminating between the background image and the subject image, a portion where the contrast is lower than the threshold is determined as the background image, and the other portions are determined as the subject image. As a method for obtaining a motion vector, for example, a method defined in the MPEG standard is used.

【0015】上記のように得られた奥行き情報は、奥行
き情報メモリ103に入力され、また復号された2次元
映像信号は、映像メモリ102に入力される。
The depth information obtained as described above is input to a depth information memory 103, and the decoded two-dimensional video signal is input to a video memory 102.

【0016】立体映像生成部101は、映像メモリ10
2、奥行き情報メモリ103、映像メモリインターフェ
ース(映像メモリI/F)104、奥行き情報メモリインタ
ーフェース(奥行き情報メモリI/F)105、被写体境
界抽出部106、対応画素算出部107、動きベクトル
検出部108、対応画素検索部109、補間映像生成部
110より構成される。
The three-dimensional image generation unit 101 includes the image memory 10
2. Depth information memory 103, video memory interface (video memory I / F) 104, depth information memory interface (depth information memory I / F) 105, subject boundary extraction unit 106, corresponding pixel calculation unit 107, motion vector detection unit 108 , A corresponding pixel search unit 109, and an interpolated video generation unit 110.

【0017】次に各ブロックの動作の詳細について説明
する。
Next, the operation of each block will be described in detail.

【0018】立体映像生成装置101には2次元映像信
号とその映像に対応する奥行き情報が入力する。2次元
映像信号は映像メモリ102に、奥行き情報は奥行き情
報メモリ103に、複数フレーム分それぞれ格納され
る。ここで例えば図2(A),(B)のように5フレー
ム分格納された後、3フレーム目がそれぞれ読み出され
る。
The three-dimensional image generator 101 receives a two-dimensional image signal and depth information corresponding to the image. The two-dimensional video signal is stored in the video memory 102, and the depth information is stored in the depth information memory 103 for a plurality of frames. Here, for example, after five frames are stored as shown in FIGS. 2A and 2B, the third frame is read out.

【0019】2次元映像は、映像メモリインターフェー
ス104を介して被写体境界抽出部106へ入力され、
奥行き情報は、奥行き情報メモリインターフェース10
5を介して対応画素算出部107へ入力される。
The two-dimensional video is input to the subject boundary extraction unit 106 via the video memory interface 104,
The depth information is stored in the depth information memory interface 10.
5 to the corresponding pixel calculation unit 107.

【0020】被写体境界抽出部106では、2次元映像
上の被写体像の境界(輪郭)を検出する。抽出した被写
体像の境界の例を図3に示す。被写体像の境界の求め方
としては、 1枚の静止映像から求める方法として、1次
微分、2次微分フィルタを用いてエッジを抽出する方
法、K平均クラスタリング法などの領域分割・統合処理
により境界を抽出する方法などがある。連続した複数の
フレームから求める方法としては、動きベクトルを求
め、ベクトルの方向、大きさの空間的変化から被写体像
の境界を求めても良い。本発明の場合、2次元映像上の
奥行き情報が既知なため、奥行き情報の空間的変化から
被写体像の境界を求めても良い。また以上述べた手法を
組み合わせて使用しても良い。抽出した被写体像の境界
情報は対応画素算出部107に供給する。
The subject boundary extraction unit 106 detects the boundary (contour) of the subject image on the two-dimensional video. FIG. 3 shows an example of the boundary of the extracted subject image. The boundary of the subject image can be obtained from a single still image by extracting edges using primary differentiation and secondary differentiation filters, and by dividing and integrating regions such as K-means clustering. And the like. As a method for obtaining from a plurality of continuous frames, a motion vector may be obtained, and a boundary of the subject image may be obtained from a spatial change in the direction and magnitude of the vector. In the case of the present invention, since the depth information on the two-dimensional video is known, the boundary of the subject image may be obtained from the spatial change of the depth information. Further, the above-described methods may be used in combination. The extracted boundary information of the subject image is supplied to the corresponding pixel calculation unit 107.

【0021】対応画素算出部107では、奥行き情報に
従って、生成する視差(立体)映像信号の画素と2次元
映像信号の画素との位置関係を算出する。立体映像信号
は左用或いは右用のいずれかを予め特定しておく。
The corresponding pixel calculator 107 calculates the positional relationship between the pixels of the generated parallax (stereoscopic) video signal and the pixels of the two-dimensional video signal according to the depth information. For the stereoscopic video signal, one for the left or the right is specified in advance.

【0022】この位置関係を図4を用いて説明する。図
4において、白丸○は入力する2次元映像の水平ライン
上の画素を、指定された奥行き情報に基づいて奥行き方
向へ配置したものである。黒丸はディスプレィ面の奥行
き情報での画素配置である。この黒丸の画素(発光部)
から白丸○の画素が知覚されるように、黒丸の画素によ
る映像を生成する必要がある。このため白丸○から黒丸
の画素を補間演算によって生成する。
This positional relationship will be described with reference to FIG. In FIG. 4, white circles indicate pixels on the horizontal line of the input two-dimensional video arranged in the depth direction based on the designated depth information. Black circles indicate pixel arrangements based on depth information on the display surface. Pixel of this black circle (light-emitting part)
Therefore, it is necessary to generate an image using black circle pixels so that the white circle ○ pixel is perceived. For this reason, the pixels from the white circles to the black circles are generated by interpolation.

【0023】補間演算を行う際、同一被写体内の場合に
は空間的に隣接する画素を使用する。被写体像の境界部
分においては現フレームには存在しない背景部分の画素
を表示する必要があるため対応する画素を前方および後
方のフレームから検索し使用する。
When performing the interpolation operation, spatially adjacent pixels are used in the case of the same subject. At the boundary of the subject image, it is necessary to display the pixels of the background portion that do not exist in the current frame. Therefore, corresponding pixels are searched for from the front and rear frames and used.

【0024】例えば黒丸7'の画素を生成する場合を述べ
る。
For example, a case where the pixel of the black circle 7 'is generated will be described.

【0025】この説明図を図5に示す。7'の画素に隣接
する画素は、8と9に相当する。8,9の画素は同一被写体
と判断されるため、8,9の画素の線形補間によって生成
する。 このため対応画素算出部では7'の画素を生成す
るための情報として、隣接画素のアドレス(この場合8
と9)と、それぞれ画素の7'からの距離(aとb)あるいは
距離の比 (a/b)とを補間映像生成部110に出力する。
FIG. 5 shows this explanatory diagram. Pixels adjacent to the 7 'pixel correspond to 8 and 9. Since the pixels 8 and 9 are determined to be the same subject, they are generated by linear interpolation of the pixels 8 and 9. For this reason, the corresponding pixel calculation unit uses the address of the adjacent pixel (in this case, 8
And 9) and the distance (a and b) or the ratio of the distance (a / b) from the pixel 7 ′ to the interpolated video generation unit 110, respectively.

【0026】次に、9'の画素を生成する場合を述べる。
この説明図を図6に示す。9'の画素の隣接画素は9、10
であるが、9と10の画素間に被写体の境界が存在するた
め、 9と10の画素は違う被写体の画素と判断される。こ
のため9'の画素を9と10から生成しない。例えば、9に対
し背景に位置し、10と同一被写体である9pの画素があれ
ば、9pと10の画素との線形補間によって9'の画素を生成
することができる。このように前後のフレームの画素を
用いることで、より破綻の無い映像を得ることができ
る。
Next, a case where the 9 'pixel is generated will be described.
This explanatory diagram is shown in FIG. Pixels adjacent to 9 'pixel are 9, 10
However, since a subject boundary exists between the pixels 9 and 10, the pixels 9 and 10 are determined to be pixels of different subjects. For this reason, the 9 'pixel is not generated from 9 and 10. For example, if there is a 9p pixel that is located in the background with respect to 9 and is the same subject as 10, a 9 ′ pixel can be generated by linear interpolation between 9p and 10 pixels. By using the pixels of the preceding and succeeding frames in this manner, it is possible to obtain a video with less failure.

【0027】そのためには、9pの画素を検索する必要が
ある。しかしこの9pの画素は現フレームには存在しない
ため前後のフレームから9pの画素を検索する必要があ
る。対応画素算出部107は、9と10の間の画素を検索
するように対応画素検索部109に通知する。対応画素
検索部109では被写体の境界部分の視差を得るために
必要な画素を前方後方フレームから検索する。
For that purpose, it is necessary to search for 9p pixels. However, since this 9p pixel does not exist in the current frame, it is necessary to search for the 9p pixel from the previous and next frames. The corresponding pixel calculation unit 107 notifies the corresponding pixel search unit 109 to search for a pixel between 9 and 10. The corresponding pixel search unit 109 searches the front and rear frames for pixels necessary to obtain parallax at the boundary of the subject.

【0028】本発明では前方後方フレームに画素が存在
するかどうかを判断するために動きベクトルを利用す
る。動きベクトルと視差映像との関係を図7に示す。
In the present invention, a motion vector is used to determine whether a pixel exists in the front and rear frames. FIG. 7 shows the relationship between the motion vector and the parallax image.

【0029】図7において、701は現フレーム、70
2は前フレーム、703は後フレームを示す。背景に対
して被写体像704は右方向に相対的に移動し、被写体
像705は左方向に相対的に移動するものとする。被写
体像704は、前フレーム、現フレーム、後フレームと
次第に右方向へ移動している。また被写体像705は、
前フレーム、現フレーム、後フレームと次第に右方向へ
移動している。
In FIG. 7, reference numeral 701 denotes a current frame;
2 indicates a previous frame, and 703 indicates a subsequent frame. The subject image 704 moves relatively to the right with respect to the background, and the subject image 705 moves relatively to the left. The subject image 704 gradually moves to the right in the preceding frame, the current frame, and the subsequent frame. The subject image 705 is
The previous frame, the current frame, and the subsequent frame are gradually moving rightward.

【0030】このとき被写体像704,705が背景像
に対して手前に位置するように視差映像信号を生成する
ことを考える。
At this time, it is considered that the parallax video signal is generated such that the subject images 704 and 705 are located in front of the background image.

【0031】右眼映像の場合、被写体像704と705
を背景に対して左側にずらし視差映像を生成する必要が
ある。左側にずらすことにより背景部分の707と70
8の領域が生じる。この部分を前方後方フレームから補
間する。背景領域707に関しては、被写体像704が
背景像に対して右方向に移動しているため前フレームか
ら補間する。
In the case of a right eye image, subject images 704 and 705
Needs to be shifted to the left with respect to the background to generate a parallax image. By shifting to the left, the background parts 707 and 70
Eight areas result. This part is interpolated from the front and rear frames. As for the background region 707, the subject image 704 is moved rightward with respect to the background image, so interpolation is performed from the previous frame.

【0032】一方背景領域708に関しては、被写体像
705が背景像に対して左方向に移動しているため後フ
レームから補間する。左眼映像の場合、被写体像704
と705を背景像に対して右側にずらし視差映像を生成
する必要がある。右側にずらすことにより背景部分の7
10と711の領域が生じる。背景領域710に関して
は後フレームから補間する。背景領域711に関しては
前フレームから補間する。
On the other hand, with respect to the background area 708, since the subject image 705 is moving leftward with respect to the background image, interpolation is performed from the subsequent frame. In the case of the left eye image, the subject image 704
And 705 must be shifted to the right with respect to the background image to generate a parallax image. By shifting to the right, the background part 7
Areas 10 and 711 occur. The background area 710 is interpolated from the subsequent frame. The background area 711 is interpolated from the previous frame.

【0033】次に対応画素検索部109の動作を説明す
る。対応画素検索部109では対応する画素が前後フレ
ームに存在するかどうかを判断するのに動きベクトルを
利用する。このためまず動きベクトル検出部108にて
被写体像と背景像の境界での動きベクトルを求める。こ
の場合の動きベクトルとは境界両側に位置する前景領域
の動きベクトルと背景領域の動きベクトルである。
Next, the operation of the corresponding pixel search unit 109 will be described. The corresponding pixel search unit 109 uses the motion vector to determine whether the corresponding pixel exists in the previous and next frames. Therefore, the motion vector at the boundary between the subject image and the background image is first obtained by the motion vector detection unit 108. The motion vectors in this case are the motion vector of the foreground area and the motion vector of the background area located on both sides of the boundary.

【0034】動きベクトルの求め方としては例えばブロ
ックマッチング法を用いる。ただしここで、従来の動き
ベクトル検出に使用する矩形状のマクロブロック形状で
は、被写体像の境界付近でエラーが生じる可能性が高
い。このためマクロブロックの形状を、被写体像の境界
形状を考慮して決定する。例えば図8のように、指定さ
れた画素を中心として同一領域の一定数の画素がブロッ
クに含まれるようにブロック形状を決定する。ブロック
マッチングの方法としてはブロックの平行移動のマッチ
ングにより動きベクトルを求めても良いし、ブロックの
フレーム間での変形を考慮してアフィン変換を採りいれ
たマッチングにより動きベクトルを求めても良い。求め
た動きベクトルは対応画素検索部109に出力する。
For obtaining the motion vector, for example, a block matching method is used. However, in the case of the rectangular macroblock shape used for the conventional motion vector detection, there is a high possibility that an error occurs near the boundary of the subject image. Therefore, the shape of the macro block is determined in consideration of the boundary shape of the subject image. For example, as shown in FIG. 8, the block shape is determined so that a certain number of pixels in the same area around the designated pixel are included in the block. As a method of block matching, a motion vector may be obtained by matching of parallel movement of a block, or a motion vector may be obtained by matching employing an affine transformation in consideration of deformation between frames of a block. The obtained motion vector is output to the corresponding pixel search unit 109.

【0035】対応画素検索部109では、前景の動きベ
クトルと背景の動きベクトルおよび境界形状から視差部
分に対応した画素のアドレスとフレームとを検索し出力
する。この原理を図9〜図14に示す。
The corresponding pixel search unit 109 searches and outputs the address and frame of the pixel corresponding to the parallax portion from the foreground motion vector, the background motion vector, and the boundary shape. This principle is shown in FIGS.

【0036】図9は画像の水平方向での画素配置を示
し、黒丸は前景領域に属する画素を示し、白丸○は背景
領域に属する画素を示し、現フレーム、1フレーム後、
2フレーム後での対応する画素の関係を示したものであ
る。ここで画素aとbの間に被写体像の境界が存在すると
する。前景領域の動きベクトルは0.5画素左方向、背
景領域の動きベクトルは1.0画素右方向であり、相対
動きベクトル(前景-背景)は 1.5画素左方向とする。
動きベクトルがフレーム間で一定の場合、1フレーム
後、2フレーム後と比較したとき、画素aは動きベクト
ルが0.5画素左方向なので、1フレーム後ではcの位
置、2フレーム後ではgの位置となる。
FIG. 9 shows the pixel arrangement in the horizontal direction of the image, in which black circles indicate pixels belonging to the foreground area, white circles indicate pixels belonging to the background area, and the current frame, one frame later,
The relationship between corresponding pixels after two frames is shown. Here, it is assumed that the boundary of the subject image exists between the pixels a and b. The motion vector of the foreground area is 0.5 pixels left, the motion vector of the background area is 1.0 pixels right, and the relative motion vector (foreground-background) is 1.5 pixels left.
When the motion vector is constant between the frames, the pixel a has a motion vector of 0.5 pixel leftward when compared with the frame after 1 frame and after 2 frames, so the position of c after 1 frame and the position of g after 2 frames Position.

【0037】画素 bは動きベクトルが1.0画素右方向
なので、1フレーム後ではfの位置、2フレーム後ではkの
位置となる。
Since the motion vector of pixel b is 1.0 pixel to the right, it is at position f after one frame and at position k after two frames.

【0038】境界は画素aとbの間のどこかに存在するの
で、境界の存在する可能性のある範囲は斜線部で示すよ
うになる。ここで現フレームには存在せず 1フレーム後
で存在する背景領域の画素としてe、2フレーム後で存
在する背景領域の画素としてh,i,jがある。dに関し
ては斜線の範囲内にあるので、その画素が前景領域のも
のか、背景領域のものか不定である。図9より前景の相
対動きベクトルの向きが前景側を向いているとき、後方
フレームに画素 a、b間の視差生成に必要な背景領域の
画素が存在することがわかる。またその画素数は相対ベ
クトルとフレーム数に依存する。
Since the boundary exists somewhere between the pixels a and b, the range where the boundary may exist is indicated by the hatched portion. Here, e is a pixel in the background area that is not present in the current frame but exists one frame later, and h, i, and j is a pixel in the background area that is present two frames later. Since d is within the range of oblique lines, it is undefined whether the pixel belongs to the foreground area or the background area. FIG. 9 shows that when the direction of the relative motion vector of the foreground is toward the foreground, pixels in the background area necessary for generating parallax between the pixels a and b exist in the rear frame. The number of pixels depends on the relative vector and the number of frames.

【0039】図10は、前景領域の動きベクトルは1.
0画素右方向、背景領域の動きベクトルは0.5画素左
方向であり、相対動きベクトル(前景-背景)は1.5画
素右方向の場合である。画素aは動きベクトルが右方向
に1.0画素なので、1フレーム前ではcの位置、2フレ
ーム前ではgの位置になる。画素bは動きベクトルが
0.5画素左なので、1フレーム前ではfの位置、2フレ
ーム前ではkの位置になる。
FIG. 10 shows that the motion vector of the foreground area is 1.
The motion vector of the background region is 0 pixel right direction and the motion vector of the background region is 0.5 pixel left direction, and the relative motion vector (foreground-background) is 1.5 pixel right direction. The pixel a has a motion vector of 1.0 pixel to the right, so it is located at a position c before one frame and at a position g two frames before. Since the motion vector of pixel b is 0.5 pixel to the left, it is at the position of f one frame before and at the position of k two frames before.

【0040】ここで現フレームには存在せず1フレーム
前で存在する背景領域の画素としてd、e、2フレーム前
で存在する背景領域の画素としてh、i、jがある。図1
0より前景の相対動きベクトルの向きが背景側を向いて
いるとき、前方フレームに画素a、b間の視差生成に必要
な背景領域の画素が存在することがわかる。
Here, there are d and e as pixels in the background area that exist one frame before but not in the current frame, and h, i and j as pixels in the background area that exist two frames before. FIG.
When the relative motion vector of the foreground is oriented toward the background from 0, it can be seen that there are pixels in the background area necessary for generating parallax between the pixels a and b in the front frame.

【0041】フレーム間の画素関係を水平垂直の2次元
で示したものを図11,図12に示す。図11で,黒丸
は前景領域、白丸○は背景領域に属する画素を示す。こ
こで前景領域の画素aと背景領域の画素bは図中に示す動
きベクトルをもつとき、画素aとbは1フレーム後ではcと
dに、2フレーム後ではeとfにそれぞれ対応する。斜線部
は境界の存在する範囲を示す。ここで現フレームには存
在せず1および2フレーム後に存在する背景領域の画素を
太線の○で示す。
FIGS. 11 and 12 show two-dimensional horizontal and vertical pixel relationships between frames. In FIG. 11, a black circle indicates a pixel belonging to the foreground area, and a white circle indicates a pixel belonging to the background area. Here, when the pixel a in the foreground area and the pixel b in the background area have the motion vector shown in the figure, the pixels a and b become c after one frame.
It corresponds to d, and to e and f after two frames. The shaded area indicates the range where the boundary exists. Here, the pixels in the background area that do not exist in the current frame but exist after the first and second frames are indicated by thick circles.

【0042】1フレーム後のdの左方向、2フレーム後のf
の左方向に現フレームには存在しない背景領域の画素が
存在するので、後方フレームに画素a、b間の視差情報生
成に必要な背景領域の画素が存在することがわかる。
Leftward of d after one frame, f after two frames
Since there are pixels in the background area that do not exist in the current frame to the left, it can be seen that there are pixels in the background area necessary for generating disparity information between the pixels a and b in the subsequent frame.

【0043】図12は図11とは境界形状が違う場合を
示す。各動きベクトルは図11の場合と同様である。図
12の境界形状の場合、1フレーム後のdの左方向、2フ
レーム後の fの左方向は前景領域あるい境界の存在する
範囲となってしまうため後方フレームに画素a、b間の視
差生成に必要な背景領域の画素が存在しない。このため
画素が存在するかどうかは、相対動きベクトルの水平成
分だけでなく、境界形状が関与することがわかる。
FIG. 12 shows a case where the boundary shape is different from that of FIG. Each motion vector is the same as in FIG. In the case of the boundary shape in FIG. 12, the left direction of d after one frame and the left direction of f after two frames become the foreground area or the range where the boundary exists. There are no pixels in the background area required for generation. Therefore, it can be seen that whether or not a pixel exists depends not only on the horizontal component of the relative motion vector but also on the boundary shape.

【0044】図13(A),(B)では現フレームの境
界付近画素aとbに対応する画素が、tフレーム後にそれ
ぞれcとdの位置になる場合を示す。ここでdの位置は画
素配置の間となる。このため視差情報生成に必要な画素
e、fも画素の間となるため、eはgとhから、 fはiとjか
ら画素間の距離mとnを参照して補間して生成することが
できる。
FIGS. 13A and 13B show the case where the pixels corresponding to the pixels a and b near the boundary of the current frame are located at positions c and d after t frames, respectively. Here, the position of d is between pixel arrangements. Therefore, the pixels required to generate parallax information
Since e and f are also between pixels, e can be generated by interpolating from g and h, and f can be interpolated from i and j by referring to distances m and n between pixels.

【0045】図9乃至図13に示した例を考慮して視差
生成に必要な画素を検索するフローを次に示す。
A flow for searching for a pixel required for generating parallax in consideration of the examples shown in FIGS. 9 to 13 will be described below.

【0046】図14においてステップ1401では前景動き
ベクトルから背景動きベクトルを減算することで相対動
きベクトルを算出する。ステップ1402では相対動きベク
トルの向きが前景方向(前景の動きベクトルの向く方
法)かを判断する。前景方向の場合ステップ1403に進
み、ステップ1403にて映像メモリ102から所定数後のフ
レームを視差情報生成用の検索対象フレームとして選択
する。相対動きベクトルの向きが背景方向(背景の動き
ベクトルの向く方向)の場合ステップ1404に進み、ステ
ップ1404にて映像メモリ102から所定数前のフレームを
視差情報生成用の検索対象フレームとして選択する。
In FIG. 14, in step 1401, a relative motion vector is calculated by subtracting a background motion vector from a foreground motion vector. In step 1402, it is determined whether or not the direction of the relative motion vector is the foreground direction (the method in which the foreground motion vector is oriented). In the case of the foreground direction, the process proceeds to step 1403, and in step 1403, a frame after a predetermined number from the video memory 102 is selected as a search target frame for generating disparity information. When the direction of the relative motion vector is the background direction (the direction in which the background motion vector is directed), the process proceeds to step 1404, and in step 1404, a predetermined number of previous frames are selected from the video memory 102 as search target frames for generating disparity information.

【0047】ステップ1405では現フレームで境界の背景
側に位置した画素が、検索対象フレーム上でどこに移動
するかを求める。この変位量は背景の動きベクトルに所
定フレーム数を乗算した値となる。ステップ1406では現
フレームでの境界の存在範囲が検索対象フレーム上でど
こに移動するかを求める。この変位量は前景の動きベク
トルに所定数を乗算した値となる。
In step 1405, it is determined where the pixel located on the background side of the boundary in the current frame moves on the search target frame. This displacement amount is a value obtained by multiplying the background motion vector by a predetermined number of frames. In step 1406, it is determined where the existing range of the boundary in the current frame moves on the search target frame. This displacement amount is a value obtained by multiplying the foreground motion vector by a predetermined number.

【0048】ステップ1407では検索対象フレーム上に視
差情報生成に必要な画素が存在するかを判断する。ステ
ップ1405と1406にて算出した検索対象フレーム上での境
界背景側の画素位置と境界位置から、検索対象フレーム
上で境界背景側の画素位置から境界に向かって水平方向
に背景領域に属する画素があるかを検索し、存在する場
合には対応する画素のアドレスを出力する(ステップ140
8)。
In step 1407, it is determined whether or not a pixel required for generating disparity information exists on the search target frame. From the pixel position and the boundary position on the boundary background side on the search target frame calculated in steps 1405 and 1406, the pixels belonging to the background region in the horizontal direction from the pixel position on the boundary background side to the boundary on the search target frame Is searched for, and if present, the address of the corresponding pixel is output (step 140
8).

【0049】例えば図11において検索対象フレームを
2フレーム後とし、境界背景側の画素位置をfとすると
g,h,i,jのアドレスを出力することになる。対応
する画素が画素の間に位置する場合には隣接画素のアド
レスとそのアドレスとの距離を出力する。図13の場
合,対応する画素がeとfに位置するので、それぞれg、h
のアドレス、i,jのアドレスおよび距離m、nを出力す
る。検索した結果、検索対象フレーム上で視差情報生成
に必要な背景領域に属する画素がない場合にはその旨を
出力する(ステップ1409)。
For example, in FIG.
Two frames later, and if the pixel position on the boundary background side is f, addresses g, h, i, and j will be output. If the corresponding pixel is located between the pixels, the address of the adjacent pixel and the distance between the addresses are output. In the case of FIG. 13, since the corresponding pixels are located at e and f, respectively, g and h
, The addresses of i and j and the distances m and n are output. As a result of the search, if there is no pixel belonging to the background area necessary for generating the disparity information on the search target frame, the fact is output (step 1409).

【0050】図15,図16では視差情報生成に必要な
画素の検索の第2の方法を示す。図1では 1つの検索対
象フレームから視差生成に必要な画素を検索したが、映
像がフレーム間で変形すること、動きベクトルにもエラ
ーが含まれることを考えると、現フレームに時間軸で近
いフレームから視差情報生成に必要な画素を検索するの
が望ましい。この検索方法の説明図を図15に示す。図
15において被写体の境界形状および各動きベクトルは
図11と同様である。図15上で太線の○は、1フレー
ム後の図上では、現フレームで存在せず1フレーム後に
存在する背景領域の画素、2フレーム後の図上では、1フ
レーム後で存在せず2フレーム後に存在する背景領域の
画素を示す。
FIGS. 15 and 16 show a second method of searching for pixels necessary for generating parallax information. In FIG. 1, pixels required for parallax generation are searched from one search target frame.However, considering that an image is deformed between frames and an error is included in a motion vector, a frame close to the current frame in a time axis is considered. It is desirable to search for a pixel necessary for generating disparity information from. FIG. 15 illustrates this search method. In FIG. 15, the boundary shape of the subject and each motion vector are the same as in FIG. In FIG. 15, a thick circle indicates a pixel in the background area that does not exist in the current frame but exists one frame later in the figure one frame later, and two frames that do not exist one frame later in the figure two frames later. The pixel of the background area that exists later is shown.

【0051】視差情報生成に必要な画素は現フレームに
近いフレームから選択することを考えると1フレーム後
でのg、h、i、jの画素、2フレーム後でのk、l、mの画
素となる。
Considering that pixels necessary for generating disparity information are selected from a frame close to the current frame, g, h, i, and j pixels after one frame, and k, l, and m pixels after two frames Becomes

【0052】図16に視差情報生成に必要な画素の検索
の第2の方法のフローを示す。図14の例との違いは所
定数後または所定数前のフレームを検索対象フレームと
するのでなく、1フレーム後または1フレーム前を検索対
象フレームとして用いる点にある。検索対象フレーム上
に視差情報生成に必要な画素が存在する場合、そのアド
レスを出力する。視差情報生成に必要な画素のアドレス
を出力した後、再度検索対象フレームを現在より1フレ
ーム後または1フレーム前に更新する。ここで前検索対
象フレームには存在せず、現検索対象フレーム上に存在
する、視差情報生成に必要な画素を出力する。更新数が
所定数にいたるまで前記処理を繰り返す。
FIG. 16 shows a flow of a second method of searching for pixels necessary for generating disparity information. The difference from the example of FIG. 14 is that one frame after or one frame before is used as a search target frame instead of a frame after or after a predetermined number as a search target frame. If a pixel required for generating disparity information exists on the search target frame, the address of the pixel is output. After outputting the address of the pixel necessary for generating the disparity information, the search target frame is updated again one frame later or one frame earlier than the current frame. Here, pixels that are not present in the previous search target frame but are present in the current search target frame and are required for generating disparity information are output. The above processing is repeated until the number of updates reaches a predetermined number.

【0053】検索した画素のアドレスは対応画素算出部
107に出力する。対応画素算出部107では視差生成
に必要な画素が現フレーム上でどこに位置するかを求め
る。図17は、この説明のために示している。図17
は、前フレームに視差情報生成に必要な画素が存在する
場合で、黒丸が現フレームの画素を奥行き情報にしたが
って配置したもの、×印が前フレームの画素を奥行き情
報に従って配置したものである。 cは検索の結果、指定
された視差情報生成に必要な画素を示す。現フレーム上
で aに相当する画素が前フレームでbの位置にあると
き、aとbの変位量を用いて、前フレーム上でのcが現フ
レーム上でどこに位置するかを求めることができる。図
17ではcの画素が現フレーム上ではdの位置になること
を示す。
The address of the searched pixel is output to the corresponding pixel calculating section 107. The corresponding pixel calculation unit 107 determines where a pixel required for generating parallax is located on the current frame. FIG. 17 is shown for this explanation. FIG.
Is a case where pixels required for generating disparity information exist in the previous frame. A black circle indicates that pixels of the current frame are arranged according to the depth information, and a cross indicates that pixels of the previous frame are arranged according to the depth information. c indicates a pixel required for generating the specified parallax information as a result of the search. When the pixel corresponding to a on the current frame is at the position b in the previous frame, the displacement amount of a and b can be used to determine where c on the previous frame is located on the current frame. . FIG. 17 shows that the pixel c is located at the position d on the current frame.

【0054】視差情報生成に必要な画素の現フレームで
上の位置を求めた後、隣接画素が同一被写体像に属する
場合と同様に、視差情報(画像)の画素を生成するため
の情報として同一被写体内隣接画素のアドレスおよびフ
レーム位置、それぞれの画素との距離を求め、補間映像
生成部110に出力する(説明図5および図6)。
After the upper position in the current frame of the pixel required for generating the parallax information is obtained, the same as the information for generating the pixel of the parallax information (image), as in the case where the adjacent pixels belong to the same subject image. The address and the frame position of the adjacent pixel in the subject and the distance from each pixel are obtained and output to the interpolated video generation unit 110 (explanatory FIGS. 5 and 6).

【0055】視差情報生成に必要な画素が存在しなかっ
た場合は、視差情報生成に必要な画素を同一被写体内の
近傍の画素によって置き換え、その画素を隣接画素とし
て補間映像生成部110に出力する。この説明図を図1
8に示す。
If there is no pixel required for generating the parallax information, the pixel required for generating the parallax information is replaced by a neighboring pixel in the same subject, and the pixel is output to the interpolation image generating unit 110 as an adjacent pixel. . This explanatory diagram is shown in FIG.
FIG.

【0056】補間映像生成部110では対応画素算出部
107から入力する画素アドレスと距離に従って線形補
間により視差画像の各画素を生成する。例えば視差画像
の画素zを生成するのに隣接画素の値それぞれがxとy、
zとの距離がそれぞれaとbのとき、 z={x×b/(a+b)}+{y×a/(a+b)} により求める。
The interpolated video generation unit 110 generates each pixel of the parallax image by linear interpolation according to the pixel address and the distance input from the corresponding pixel calculation unit 107. For example, to generate a pixel z of a parallax image, the values of adjacent pixels are x and y, respectively.
When the distance to z is a and b, respectively, z = {x × b / (a + b)} + {y × a / (a + b)}.

【0057】しかし視差情報生成に必要な画素が存在し
なかった場合は、同一被写体内の近傍の画素によって置
き換える。
However, if there is no pixel necessary for generating parallax information, it is replaced by a nearby pixel in the same subject.

【0058】図19に本発明の第2の実施の形態の構成
図を示す。図1と同一部分は同一符号で示す。第1の実
施の形態との違いは相対動きベクトル平均算出部190
2にて相対動きベクトル(前景領域の動きベクトル-背景
領域の動きベクトル)の水平成分の平均を算出し、その
値を参照して映像メモリおよび奥行き情報メモリに格納
するフレームを制御する点にある。
FIG. 19 shows a configuration diagram of the second embodiment of the present invention. 1 are indicated by the same reference numerals. The difference from the first embodiment is that the relative motion vector average calculation unit 190
In step 2, the average of the horizontal components of the relative motion vector (the motion vector of the foreground area-the motion vector of the background area) is calculated, and the frame stored in the video memory and the depth information memory is controlled with reference to the calculated value. .

【0059】第2の実施の形態を図20を用いて説明す
る。相対動きベクトルの水平成分が小さい場合、時間的
に隣接するフレーム間では視差情報生成に必要な画素が
存在する可能性は低い。このため映像メモリおよび奥行
き情報メモリに格納するフレーム間隔を広くする。一
方、相対動きベクトルの水平成分が大きい場合、時間的
に隣接するフレーム間で視差情報生成に必要な画素が存
在する可能性が高い。このため映像メモリおよび奥行き
情報メモリに格納するフレーム間隔を短くする。これに
より映像メモリおよび奥行き情報メモリに一定数のフレ
ーム数しか格納できない場合、視差情報生成に適したフ
レームを選択して格納することが可能となる。
The second embodiment will be described with reference to FIG. When the horizontal component of the relative motion vector is small, it is unlikely that there is a pixel required for generating disparity information between temporally adjacent frames. For this reason, the interval between frames stored in the video memory and the depth information memory is increased. On the other hand, when the horizontal component of the relative motion vector is large, there is a high possibility that pixels required for generating disparity information exist between temporally adjacent frames. Therefore, the interval between frames stored in the video memory and the depth information memory is shortened. Accordingly, when only a certain number of frames can be stored in the video memory and the depth information memory, it is possible to select and store a frame suitable for generating disparity information.

【0060】図21に本発明の第3の実施の形態の構成
図を示す。図1と同一部分は同一符号で示す。第1の実
施の形態との違いは奥行き情報差分平均算出部2102
にて奥行き情報の差分の平均を算出し、その値を参照し
て映像メモリおよび奥行き情報メモリに格納するフレー
ムを制御する点にある。
FIG. 21 shows a configuration diagram of the third embodiment of the present invention. 1 are indicated by the same reference numerals. The difference from the first embodiment is that the depth information difference average calculation unit 2102
Is to calculate the average of the difference between the depth information and control the frames stored in the video memory and the depth information memory with reference to the calculated value.

【0061】第3の実施の形態を図22を用いて説明す
る。奥行き情報の差分が大きい場合(図22(C))、
視差画像生成に必要とされる視差領域の面積も大きい。
このため映像メモリおよび奥行き情報メモリに格納する
フレーム間隔を広くし、視差生成に必要な画素が多く含
まれるようにする。一方、奥行き情報の差分が小さい場
合(図22(A))、視差画像生成に必要とされる視差
領域の面積も小さい。このため映像メモリおよび奥行き
情報メモリに格納するフレーム間隔を短くする。奥行き
情報の差分が小さい場合、視差生成に必要な画素を時間
的に近いフレームから補間することで、被写体のフレー
ム間での変形の影響を抑える。これにより映像メモリお
よび奥行き情報メモリに一定数のフレーム数しか格納で
きない場合、視差情報生成に適したフレームを選択して
格納することが可能となる。
A third embodiment will be described with reference to FIG. When the difference between the depth information is large (FIG. 22C),
The area of the parallax region required for generating the parallax image is also large.
For this reason, the frame interval stored in the video memory and the depth information memory is widened so that a large number of pixels required for generating parallax are included. On the other hand, when the difference of the depth information is small (FIG. 22A), the area of the parallax region required for generating the parallax image is also small. Therefore, the interval between frames stored in the video memory and the depth information memory is shortened. When the difference of the depth information is small, the influence of the deformation between the frames of the subject is suppressed by interpolating the pixels required for generating the parallax from the temporally close frames. Accordingly, when only a certain number of frames can be stored in the video memory and the depth information memory, it is possible to select and store a frame suitable for generating disparity information.

【0062】図23に本発明の第4の実施の形態の構成
図を示す。図1と同一部分は同一符号で示す。第1の実
施の形態との違いは被写体境界算出部2302の動作に
ある。被写体境界算出部2302では境界の位置だけで
なく、境界の存在する範囲(境界の幅)も算出する。境界
の存在する範囲は境界付近の空間周波数成分を参照して
決定する。
FIG. 23 shows a configuration diagram of the fourth embodiment of the present invention. 1 are indicated by the same reference numerals. The difference from the first embodiment lies in the operation of the subject boundary calculation unit 2302. The subject boundary calculation unit 2302 calculates not only the position of the boundary but also the range where the boundary exists (the width of the boundary). The range where the boundary exists is determined with reference to the spatial frequency components near the boundary.

【0063】図24に境界付近の空間周波数と境界の存
在する範囲との関係を示す。境界付近の空間周波数成分
が低い場合、その近傍の画素は、2つの領域の混じり合
った値となることが予想される。このため視差画像を補
間して生成する際、この画素を用いるのは不適当であ
る。そのため境界付近の空間周波数成分が低い場合は境
界の存在する範囲を広く(図24(D)の斜線部分)、
境界付近の空間周波数成分が高い場合は境界の存在する
範囲を狭くする(図24(B)の斜線部分)。境界の存
在する範囲内にある画素は視差情報生成の補間演算に用
いないことによって、2つの領域の混じり合った画素は
視差画像生成に用いないようにする。
FIG. 24 shows the relationship between the spatial frequency near the boundary and the range where the boundary exists. When the spatial frequency component near the boundary is low, the pixels in the vicinity are expected to have a mixed value of the two regions. Therefore, it is inappropriate to use this pixel when generating a parallax image by interpolation. Therefore, when the spatial frequency component near the boundary is low, the range where the boundary exists is widened (the hatched portion in FIG. 24D),
When the spatial frequency component near the boundary is high, the range where the boundary exists is narrowed (the hatched portion in FIG. 24B). Pixels in the range where the boundary exists are not used for interpolation calculation for generating disparity information, so that pixels in which two regions are mixed are not used for generating disparity images.

【0064】[0064]

【発明の効果】以上詳述したように、この発明によれば
2次元映像から立体映像を生成するにあたって、被写体
境界近傍の画素を生成する際には時間軸方向で、境界近
傍以外の画素を生成する際には空間軸方向で補間して生
成することによって、破綻のない立体映像を提供するこ
とが可能となる。
As described above in detail, according to the present invention,
When generating a stereoscopic image from a two-dimensional image, by generating pixels near the subject boundary in the time axis direction, and generating pixels other than the vicinity of the boundary by interpolating in the spatial axis direction, It is possible to provide a stereoscopic image without failure.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の第1の実施の形態を示す構成図。FIG. 1 is a configuration diagram showing a first embodiment of the present invention.

【図2】 映像メモリ、奥行き情報メモリの動作を示す
説明図。
FIG. 2 is an explanatory diagram showing operations of a video memory and a depth information memory.

【図3】 2次元映像から被写体の境界を抽出した例を
示す図。
FIG. 3 is a diagram showing an example of extracting a subject boundary from a two-dimensional video.

【図4】 2次元映像を指定された奥行き情報で配置し
たもの、およびディスプレィ面での画素配置との関係を
示す図。
FIG. 4 is a diagram showing a relationship between a two-dimensional image arranged with designated depth information and a pixel arrangement on a display surface.

【図5】 被写体の境界付近以外の画素を補間して視差
映像を生成する場合の説明図。
FIG. 5 is a diagram illustrating a case where a parallax image is generated by interpolating pixels other than those near the boundary of a subject.

【図6】 被写体の境界付近の画素を補間して視差映像
を生成する場合の説明図。
FIG. 6 is a diagram illustrating a case where a parallax image is generated by interpolating pixels near a boundary of a subject.

【図7】 動きベクトルと視差領域との関係を示す説明
図。
FIG. 7 is an explanatory diagram showing a relationship between a motion vector and a parallax region.

【図8】 ブロックマッチングに用いるブロックの形状
の例を示す図。
FIG. 8 is a diagram showing an example of the shape of a block used for block matching.

【図9】 動きベクトルと被写体境界のフレーム間での
関係を水平方向で示した例を示す図。
FIG. 9 is a diagram showing an example in which the relationship between a motion vector and a frame of a subject boundary is shown in a horizontal direction.

【図10】 動きベクトルと被写体境界のフレーム間で
の関係を水平方向で示した例を示す図。
FIG. 10 is a diagram showing an example in which the relationship between a motion vector and a frame of a subject boundary is shown in a horizontal direction.

【図11】 動きベクトルと被写体境界のフレーム間で
の関係を2次元方向で示した例を示す図。
FIG. 11 is a diagram showing an example in which a relationship between a motion vector and a frame of a subject boundary is shown in a two-dimensional direction.

【図12】 動きベクトルと被写体境界のフレーム間で
の関係を2次元方向で示した例を示す図。
FIG. 12 is a diagram showing an example in which a relationship between a motion vector and a frame of a subject boundary is shown in a two-dimensional direction.

【図13】 動きベクトルと被写体境界のフレーム間で
の関係を2次元方向で示した例を示す図。
FIG. 13 is a diagram showing an example in which a relationship between a motion vector and a frame of a subject boundary is shown in a two-dimensional direction.

【図14】 視差生成に必要な画素を検索する方法を示
すフローチャート。
FIG. 14 is a flowchart illustrating a method for searching for a pixel required for generating parallax.

【図15】 動きベクトルと被写体境界のフレーム間で
の関係を2次元方向で示した例を示す図。
FIG. 15 is a diagram showing an example in which a relationship between a motion vector and a frame of a subject boundary is shown in a two-dimensional direction.

【図16】 視差生成に必要な画素を検索する方法を示
すフローチャート。
FIG. 16 is a flowchart illustrating a method for searching for a pixel required for generating parallax.

【図17】 検索した画素を現フレーム上に 3次元的に
配置する方法を示す説明図。
FIG. 17 is an explanatory diagram showing a method of arranging searched pixels three-dimensionally on a current frame.

【図18】 視差生成に必要な画素がなかった場合の補
間処理を示す説明図。
FIG. 18 is an explanatory diagram illustrating interpolation processing when there is no pixel required for generating parallax.

【図19】 本発明の第2の実施の形態を示す構成図。FIG. 19 is a configuration diagram showing a second embodiment of the present invention.

【図20】 相対動きベクトルの大きさに従ってメモリ
に格納するフレームを制御する方法を示す説明図。
FIG. 20 is an explanatory diagram showing a method of controlling a frame stored in a memory according to the magnitude of a relative motion vector.

【図21】 本発明の第3の実施の形態を示す構成図。FIG. 21 is a configuration diagram showing a third embodiment of the present invention.

【図22】 奥行き情報の差分の大きさに従ってメモリ
に格納するフレームを制御する方法を示す説明図。
FIG. 22 is an explanatory diagram showing a method of controlling a frame stored in a memory according to the magnitude of a difference in depth information.

【図23】 本発明の第4の実施の形態を示す構成図。FIG. 23 is a configuration diagram showing a fourth embodiment of the present invention.

【図24】 被写体の境界近傍の空間周波数成分に従っ
て境界の存在する範囲を制御する方法を示す説明図
FIG. 24 is an explanatory diagram showing a method of controlling a range where a boundary exists according to a spatial frequency component near the boundary of the subject;

【符号の説明】[Explanation of symbols]

101…立体映像生成装置、102…映像メモリ、10
3…奥行き情報メモリ、104…映像メモリインターフ
ェース、105…奥行き情報メモリインターフェース、
106…被写体境界抽出部、107…対応画素算出部、
108…動きベクトル算出部、109…対応画素検索
部、110…補間映像生成部、201…映像メモリ、2
02…奥行き情報メモリ、1901…立体映像生成装
置、1902…相対動きベクトル平均算出部、1903
…映像メモリインターフェース、1904…奥行き情報
メモリインターフェース、2101…立体映像生成装
置、2102…奥行き情報差分平均算出部、2103…
映像メモリインターフェース、2104…奥行き情報メ
モリインターフェース、2301…立体映像生成装置、
2302…被写体境界抽出部。
101: stereoscopic image generation device, 102: video memory, 10
3: depth information memory, 104: video memory interface, 105: depth information memory interface
106: subject boundary extraction unit, 107: corresponding pixel calculation unit,
108: motion vector calculation unit, 109: corresponding pixel search unit, 110: interpolation video generation unit, 201: video memory, 2
02: depth information memory; 1901: stereoscopic video generation device; 1902: relative motion vector average calculation unit; 1903
... video memory interface, 1904 ... depth information memory interface, 2101 ... stereoscopic video generation device, 2102 ... depth information difference average calculation unit, 2103 ...
Video memory interface, 2104 depth information memory interface, 2301 stereoscopic video generation device,
2302 ... A subject boundary extraction unit.

Claims (8)

【特許請求の範囲】[Claims] 【請求項1】 2次元映像信号から立体映像信号を生成
する場合に、前記2次元映像信号の奥行き情報が与えら
れるとき、 前記2次元映像信号と前記奥行き情報とを複数フレーム
分メモリに格納し、 2次元映像信号中の少なくとも被写体像と背景像との境
界を検出し、 前記境界近傍の視差情報を生成する場合には、視差を得
るための画素を前記2次元映像信号の前方及び又は後方
フレームから検索し画素演算により補間画素を得ること
で生成し、 境界近傍以外の視差情報を生成する場合には、前記2次
元映像信号のフレーム内の画素演算により補間画素を得
ることで生成することを特徴とする2次元映像からの立
体映像生成方法。
When generating a stereoscopic video signal from a two-dimensional video signal, when depth information of the two-dimensional video signal is given, the two-dimensional video signal and the depth information are stored in a memory for a plurality of frames. Detecting a boundary between at least a subject image and a background image in a two-dimensional video signal, and generating parallax information near the boundary, a pixel for obtaining parallax is positioned before and / or after the two-dimensional video signal. In the case where the interpolated pixel is generated by obtaining an interpolated pixel by searching from a frame and performing pixel operation, and when generating disparity information other than the vicinity of the boundary, the interpolated pixel is generated by obtaining an interpolated pixel by performing a pixel operation in the frame of the two-dimensional video signal A method for generating a three-dimensional image from a two-dimensional image characterized by the following.
【請求項2】 前記境界近傍の視差をつける場合におい
て、 視差情報を得るための画素を前方後方フレームから検索
する方法は、 現在フレームと前方及び又は後方フレームとを比較する
ことで、前記境界の両側で前景領域側に位置する画素と
背景領域側に位置する画素とのそれぞれの動きベクトル
を推定し、 前景領域側に位置する画素の動きベクトルから背景領域
側に位置する画素の動きベクトルを引いた相対動きベク
トルを求め、 相対動きベクトルの向きが前景方向を向いている場合に
は、現在フレームで境界の両側に位置する画素が後方フ
レーム上でどこに移動するかを求め、後方フレームにお
いてその画素の間に位置し、かつ背景側に属する画素を
視差に相当する画素とし、 相対動きベクトルの向きが背景方向を向いている場合に
は、現在フレームで境界の両側に位置する画素が前方フ
レーム上でどこに移動するかを求め、前方フレームにお
いてその画素の間に位置し、かつ背景側に属する画素を
視差に相当する画素とすることを特徴とする請求項1記
載の2次元映像からの立体映像生成方法。
2. A method for retrieving pixels for obtaining disparity information from a front and rear frame when disparity is provided in the vicinity of the boundary, comprising: comparing a current frame with a front and / or rear frame to obtain a Estimate the respective motion vectors of the pixels located on the foreground area side and the pixels located on the background area side on both sides, and subtract the motion vector of the pixel located on the background area side from the motion vector of the pixel located on the foreground area side. If the direction of the relative motion vector is directed to the foreground direction, it is determined where the pixels located on both sides of the boundary in the current frame move on the rear frame, and the pixel is determined in the rear frame. And the pixel belonging to the background side is a pixel corresponding to the parallax, and when the direction of the relative motion vector is in the background direction, It is determined where the pixels located on both sides of the boundary in the current frame move on the front frame, and pixels located between the pixels in the front frame and belonging to the background side are regarded as pixels corresponding to parallax. The method for generating a three-dimensional image from a two-dimensional image according to claim 1.
【請求項3】 前記境界の両側の前景領域側の動きベク
トルと背景領域側の動きベクトルを求める際に、ブロッ
クマッチング法を用いるが、そのブロック形状を被写体
の境界形状を従って決定し、同一ブロックには同一領域
の画素のみが含まれるようにブロック形状を決定するこ
とを特徴とする請求項2記載の2次元映像からの立体映
像生成方法。
3. A block matching method is used for obtaining a motion vector on the foreground area side and a motion vector on the background area side on both sides of the boundary, and the block shape is determined according to the boundary shape of the subject, and the same block is determined. 3. The method according to claim 2, wherein the block shape is determined so that only the pixels in the same area are included.
【請求項4】 前記境界近傍の画素に視差をつける場合
に、視差に相当する画素が前方及び又は後方フレームに
複数存在する場合には、現在のフレームに時間的に最も
近いフレーム上の画素を用いることを特徴とする請求項
2記載の2次元映像からの立体映像生成方法。
4. When giving parallax to a pixel near the boundary, if a plurality of pixels corresponding to the parallax exist in front and / or rear frames, a pixel on a frame which is temporally closest to the current frame is determined. The method for generating a three-dimensional image from a two-dimensional image according to claim 2, wherein the method is used.
【請求項5】 前記境界近傍の画素に視差をつける場合
に、視差に相当する画素が前方後方フレームに存在しな
い場合には、前記境界に接する画素のうち、奥行き情報
方向で背景側に位置する画素を視差に相当する画素とし
て代用し、前記視差情報を生成することを特徴とする請
求項2記載の2次元映像からの立体映像生成方法。
5. When a pixel corresponding to the parallax is not present in the front and rear frames when parallax is applied to the pixel near the boundary, the pixel adjacent to the boundary is located on the background side in the depth information direction among the pixels in contact with the boundary. The method according to claim 2, wherein the parallax information is generated by substituting pixels as pixels corresponding to parallax.
【請求項6】 前記2次元映像信号と奥行き情報を複数
フレーム分メモリに格納するとき、格納するフレーム間
隔は、前記相対動きベクトルの水平成分の大きさに従
い、大きさが小さいほどフレーム間隔を大きくすること
を特徴とする請求項2記載の2次元映像からの立体映像
生成方法。
6. When storing the two-dimensional video signal and the depth information in a memory for a plurality of frames, a frame interval to be stored depends on a horizontal component of the relative motion vector. The method for generating a three-dimensional image from a two-dimensional image according to claim 2, wherein
【請求項7】 前記2次元映像と奥行き情報を複数フレ
ーム分メモリに格納するとき、格納するフレーム間隔
は、画素間での奥行き情報の差の大きさに従い、奥行き
情報の差が大きいほどフレーム間隔を大きくすることを
特徴とする請求項2記載の2次元映像からの立体映像生
成方法。
7. When storing the two-dimensional image and the depth information in a memory for a plurality of frames, the frame interval to be stored depends on the size of the depth information difference between pixels. 3. The method for generating a three-dimensional image from a two-dimensional image according to claim 2, wherein:
【請求項8】 被写体像の境界と考える範囲に位置する
画素は立体映像を生成する際の補間演算には使用せず、
被写体像の境界と考える範囲は、被写体像の境界近傍の
空間周波数成分に従い、空間周波数成分が低くなるほど
被写体像の境界を考える範囲を広くすることを特徴とす
る請求項2記載の2次元映像からの立体映像生成方法。
8. A pixel located in a range considered as a boundary of a subject image is not used for an interpolation operation when generating a stereoscopic image.
3. The two-dimensional image according to claim 2, wherein the range considered as the boundary of the subject image follows the spatial frequency component near the boundary of the subject image, and the range in which the boundary of the subject image is considered becomes wider as the spatial frequency component becomes lower. 3D image generation method.
JP11055705A 1999-03-03 1999-03-03 Method for generating three-dimensionall image from two-dimensional image Pending JP2000253422A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11055705A JP2000253422A (en) 1999-03-03 1999-03-03 Method for generating three-dimensionall image from two-dimensional image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11055705A JP2000253422A (en) 1999-03-03 1999-03-03 Method for generating three-dimensionall image from two-dimensional image

Publications (1)

Publication Number Publication Date
JP2000253422A true JP2000253422A (en) 2000-09-14

Family

ID=13006315

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11055705A Pending JP2000253422A (en) 1999-03-03 1999-03-03 Method for generating three-dimensionall image from two-dimensional image

Country Status (1)

Country Link
JP (1) JP2000253422A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003009181A (en) * 2001-06-27 2003-01-10 Sony Corp Image processor, image processing method, recording medium and its program
JP2003241137A (en) * 2002-02-18 2003-08-27 Fuji Photo Film Co Ltd Display device
JP2008527561A (en) * 2005-01-12 2008-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Depth perception
JP2009296272A (en) * 2008-06-04 2009-12-17 Sony Corp Image encoding device and image encoding method
GB2465072A (en) * 2008-11-07 2010-05-12 Honeywell Int Inc Combining range information with images to produce new images of different perspective
JP2010130495A (en) * 2008-11-28 2010-06-10 Toshiba Corp Device and method for output of three-dimensional information
WO2011096252A1 (en) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 Image processing system, image processing method, and program
WO2011155697A3 (en) * 2010-06-08 2012-02-02 에스케이텔레콤 주식회사 Method and device for converting three-dimensional image using depth map information
WO2012039340A1 (en) * 2010-09-22 2012-03-29 コニカミノルタホールディングス株式会社 Image processing device, image processing method, and program
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
JP2013223008A (en) * 2012-04-13 2013-10-28 Canon Inc Image processing device and method
KR101327791B1 (en) 2007-09-11 2013-11-20 삼성전자주식회사 Apparatus and method for matching color image and depth image each other
JP2013545200A (en) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド Depth estimation based on global motion
WO2013186881A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method and 3d-image generation system
JP2014515197A (en) * 2011-01-13 2014-06-26 サムスン エレクトロニクス カンパニー リミテッド Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
KR101483659B1 (en) * 2008-07-11 2015-01-16 삼성디스플레이 주식회사 Method for displaying 3 dimensional image, and display device for performing the same
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
CN105654548A (en) * 2015-12-24 2016-06-08 华中科技大学 Multi-starting-point incremental three-dimensional reconstruction method based on large-scale disordered images

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4729812B2 (en) * 2001-06-27 2011-07-20 ソニー株式会社 Image processing apparatus and method, recording medium, and program
JP2003009181A (en) * 2001-06-27 2003-01-10 Sony Corp Image processor, image processing method, recording medium and its program
JP2003241137A (en) * 2002-02-18 2003-08-27 Fuji Photo Film Co Ltd Display device
JP2008527561A (en) * 2005-01-12 2008-07-24 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Depth perception
KR101327791B1 (en) 2007-09-11 2013-11-20 삼성전자주식회사 Apparatus and method for matching color image and depth image each other
JP4591548B2 (en) * 2008-06-04 2010-12-01 ソニー株式会社 Image coding apparatus and image coding method
US8369630B2 (en) 2008-06-04 2013-02-05 Sony Corporation Image encoding device and image encoding method with distance information
JP2009296272A (en) * 2008-06-04 2009-12-17 Sony Corp Image encoding device and image encoding method
KR101483659B1 (en) * 2008-07-11 2015-01-16 삼성디스플레이 주식회사 Method for displaying 3 dimensional image, and display device for performing the same
GB2465072A (en) * 2008-11-07 2010-05-12 Honeywell Int Inc Combining range information with images to produce new images of different perspective
US8334893B2 (en) 2008-11-07 2012-12-18 Honeywell International Inc. Method and apparatus for combining range information with an optical image
JP2010130495A (en) * 2008-11-28 2010-06-10 Toshiba Corp Device and method for output of three-dimensional information
JP5327339B2 (en) * 2010-02-02 2013-10-30 コニカミノルタ株式会社 Image processing system, image processing method, and program
WO2011096252A1 (en) * 2010-02-02 2011-08-11 コニカミノルタホールディングス株式会社 Image processing system, image processing method, and program
US9013559B2 (en) 2010-02-02 2015-04-21 Konica Minolta Holdings, Inc. System, method and program for capturing images from a virtual viewpoint
CN103081476A (en) * 2010-06-08 2013-05-01 Sk普兰尼特有限公司 Method and device for converting three-dimensional image using depth map information
CN103081476B (en) * 2010-06-08 2016-08-10 Sk普兰尼特有限公司 The method and apparatus utilizing depth map information conversion 3-D view
WO2011155697A3 (en) * 2010-06-08 2012-02-02 에스케이텔레콤 주식회사 Method and device for converting three-dimensional image using depth map information
KR101385514B1 (en) * 2010-06-08 2014-04-16 주식회사 에스칩스 Method And Apparatus for Transforming Stereoscopic Image by Using Depth Map Information
JP5601375B2 (en) * 2010-09-22 2014-10-08 コニカミノルタ株式会社 Image processing apparatus, image processing method, and program
WO2012039340A1 (en) * 2010-09-22 2012-03-29 コニカミノルタホールディングス株式会社 Image processing device, image processing method, and program
US9123115B2 (en) 2010-11-23 2015-09-01 Qualcomm Incorporated Depth estimation based on global motion and optical flow
JP2013545200A (en) * 2010-11-23 2013-12-19 クゥアルコム・インコーポレイテッド Depth estimation based on global motion
US9171372B2 (en) 2010-11-23 2015-10-27 Qualcomm Incorporated Depth estimation based on global motion
JP2012134655A (en) * 2010-12-20 2012-07-12 Toshiba Corp Image processing device, image processing method, and image display device
JP2014515197A (en) * 2011-01-13 2014-06-26 サムスン エレクトロニクス カンパニー リミテッド Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
JP2013223008A (en) * 2012-04-13 2013-10-28 Canon Inc Image processing device and method
WO2013186881A1 (en) * 2012-06-13 2013-12-19 株式会社エム・ソフト 3d-image generation method and 3d-image generation system
CN105654548A (en) * 2015-12-24 2016-06-08 华中科技大学 Multi-starting-point incremental three-dimensional reconstruction method based on large-scale disordered images

Similar Documents

Publication Publication Date Title
JP2000253422A (en) Method for generating three-dimensionall image from two-dimensional image
JP5153940B2 (en) System and method for image depth extraction using motion compensation
EP2291825B1 (en) System and method for depth extraction of images with forward and backward depth prediction
Tsai et al. Dense disparity estimation with a divide-and-conquer disparity space image technique
US20020106120A1 (en) Method of analyzing in real time the correspondence of image characteristics in corresponding video images
CN102124745A (en) Apparatus and method for converting 2D image signals into 3D image signals
JP6173218B2 (en) Multi-view rendering apparatus and method using background pixel expansion and background-first patch matching
Ohm An object-based system for stereoscopic viewpoint synthesis
KR100745691B1 (en) Binocular or multi-view stereo matching apparatus and its method using occlusion area detection
US8803947B2 (en) Apparatus and method for generating extrapolated view
KR20060133764A (en) Intermediate vector interpolation method and 3d display apparatus
US9661307B1 (en) Depth map generation using motion cues for conversion of monoscopic visual content to stereoscopic 3D
US8289376B2 (en) Image processing method and apparatus
US9158994B2 (en) Apparatus and method for real-time capable disparity estimation for virtual view rendering suitable for multi-threaded execution
US20110080463A1 (en) Image processing apparatus, method, and recording medium
Gong Enforcing temporal consistency in real-time stereo estimation
JP2001359119A (en) Stereoscopic video image generating method
Cho et al. Temporal incoherence-free video retargeting using foreground aware extrapolation
KR20040078690A (en) Estimating a motion vector of a group of pixels by taking account of occlusion
WO2016129430A1 (en) Depth estimation device, depth estimation method, and depth estimation program
KR20160085708A (en) Method and apparatus for generating superpixels for multi-view images
JP2004356747A (en) Method and apparatus for matching image
US9106926B1 (en) Using double confirmation of motion vectors to determine occluded regions in images
US20120206442A1 (en) Method for Generating Virtual Images of Scenes Using Trellis Structures
JP2014052855A (en) Image processor, control method thereof, and control program