Nothing Special   »   [go: up one dir, main page]

JP2003319417A - Stereoscopic image generating device, stereoscopic image display device, and their methods - Google Patents

Stereoscopic image generating device, stereoscopic image display device, and their methods

Info

Publication number
JP2003319417A
JP2003319417A JP2002123952A JP2002123952A JP2003319417A JP 2003319417 A JP2003319417 A JP 2003319417A JP 2002123952 A JP2002123952 A JP 2002123952A JP 2002123952 A JP2002123952 A JP 2002123952A JP 2003319417 A JP2003319417 A JP 2003319417A
Authority
JP
Japan
Prior art keywords
image
eye
eye image
stereoscopic
encoded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002123952A
Other languages
Japanese (ja)
Other versions
JP4173684B2 (en
Inventor
Tomoko Aono
友子 青野
Toshio Nomura
敏男 野村
Hiroyuki Katada
裕之 堅田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2002123952A priority Critical patent/JP4173684B2/en
Publication of JP2003319417A publication Critical patent/JP2003319417A/en
Application granted granted Critical
Publication of JP4173684B2 publication Critical patent/JP4173684B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a stereoscopic image generating device that can generate high-accuracy data for stereoscopic images, and to provide a stereoscopic image display device that displays the data for stereoscopic images. <P>SOLUTION: The image generating sections 102 and 103 for left and right eyes of the stereoscopic image generating device generate images of a prescribed format by sampling picture elements, by thinning out images photographed by means of cameras 101a and 101b in the horizontal direction, and calculating the color information on the picture elements by changing the calculating method of the color information in accordance with the positions of the sampled picture elements. Therefore, the image generating device can generate the high- accuracy data for stereoscopic images. In addition, since the multiplexing section 105 of the image generating device multiplexes decoded images for left and right eyes with the information on a color information calculating method, the user of this device can easily judge which calculating method can generate color information resulting in the most legible stereoscopic image, by displaying stereoscopic images in a data displaying section 112 for stereoscopic image. <P>COPYRIGHT: (C)2004,JPO

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、立体画像用の左眼
用画像および右眼用画像を作成して表示する技術に関
し、特に、左眼用画像および右眼用画像のフォーマット
変換を行なって符号化を行なう立体画像作成装置、符号
化データを復号してフォーマット変換を行った後に立体
画像を表示する立体画像表示装置およびそれらの方法に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for creating and displaying a left-eye image and a right-eye image for a stereoscopic image, and particularly, by performing format conversion of the left-eye image and the right-eye image. The present invention relates to a stereoscopic image creating apparatus that performs encoding, a stereoscopic image display apparatus that displays stereoscopic images after decoding encoded data and performing format conversion, and methods thereof.

【0002】[0002]

【従来の技術】近年、立体画像を表示する技術が盛んに
研究されている。その1つとして、ユーザの左眼と右眼
との視差を利用して立体画像を作成し、表示する立体画
像装置を挙げることができる。
2. Description of the Related Art In recent years, techniques for displaying stereoscopic images have been actively studied. One of them is a stereoscopic image device that creates and displays a stereoscopic image using the parallax between the left and right eyes of the user.

【0003】図6は、従来の立体画像装置における画像
データの作成方法を説明するための図である。この立体
画像装置は、立体画像を作成する立体画像作成装置と、
立体画像作成装置によって作成された立体画像を表示す
る立体画像表示装置とに分けられる。
FIG. 6 is a diagram for explaining a method of creating image data in a conventional stereoscopic image device. This stereoscopic image device is a stereoscopic image creating device for creating a stereoscopic image,
It is divided into a stereoscopic image display device that displays a stereoscopic image created by the stereoscopic image creation device.

【0004】立体画像作成装置は、画像データ作成時に
2台のカメラで左眼用と右眼用との画像を各々撮影す
る。そして、図6(a)に示すように、1画素毎に画素
を間引いて、左眼用画像および右眼用画像の水平方向の
サイズを各々1/2にする。次に、水平方向に半分のサ
イズになった左眼用画像と右眼用画像とを各々符号化
し、これらの符号化データを多重化し、多重化データを
伝送、または記録媒体に記録する。
The stereoscopic image creating apparatus takes images for the left eye and the right eye respectively with two cameras when creating image data. Then, as shown in FIG. 6A, pixels are thinned out for each pixel to reduce the horizontal size of the left-eye image and the right-eye image to ½. Next, the left-eye image and the right-eye image that are half the size in the horizontal direction are encoded, the encoded data are multiplexed, and the multiplexed data is transmitted or recorded in a recording medium.

【0005】立体画像表示装置は、立体画像作成装置に
よって作成された多重化データを受信または記録媒体か
ら読出し、左眼用画像と右眼用画像とを各々再生する。
そして、図6(b)に示すように、左眼用画像(L)と
右眼用画像(R)とを1画素ずつ水平方向に交互に並べ
たり、図6(c)に示すように、1ライン毎に垂直方向
に交互に並べたりして、立体表示用の画像を作成する。
立体画像表示装置は、レンチキュラ方式、パララクスバ
リア方式、シャッタ(時分割)方式等を用いて、ユーザ
の左眼には左眼用の画像だけが見え、ユーザの右眼には
右眼用の画像だけが見えるようにすることで、ユーザに
画像を立体として見せることができる。
The stereoscopic image display device receives or reads the multiplexed data created by the stereoscopic image creation device from the recording medium, and reproduces the left-eye image and the right-eye image, respectively.
Then, as shown in FIG. 6B, the left-eye image (L) and the right-eye image (R) are alternately arranged in the horizontal direction one pixel at a time, or as shown in FIG. An image for stereoscopic display is created by alternately arranging each line in the vertical direction.
The stereoscopic image display device uses a lenticular method, a parallax barrier method, a shutter (time division) method, or the like, and only the left-eye image can be seen by the user's left eye and the right-eye image by the user's right eye. By making only the image visible, the user can see the image as a stereoscopic image.

【0006】このような立体画像装置の一例としては、
特開平11−18111号公報に開示された立体映像伝
送装置を挙げることができる。この特開平11−181
11号公報に開示された立体映像伝送装置においては、
圧縮回路が左眼用画像および右眼用画像をそれぞれ1画
素毎に間引き処理を行なって、画像を水平走査線方向に
圧縮する。
As an example of such a stereoscopic image device,
An example is the stereoscopic video transmission device disclosed in Japanese Patent Laid-Open No. 11-18111. This Japanese Patent Laid-Open No. 11-181
In the stereoscopic video transmission device disclosed in Japanese Patent No. 11,
The compression circuit thins out the image for the left eye and the image for the right eye pixel by pixel, and compresses the image in the horizontal scanning line direction.

【0007】たとえば、図6(d)に示すように、撮影
した画像の左から偶数番目のRGB画素値のみを抽出し
て、左眼用画像と右眼用画像とを作成する。また、図6
(e)に示すように、左眼用画像と右眼用画像とのRG
Bのうち、画素のG値をRB値に対して1画素分ずらし
て間引くことによって、左眼用画像と右眼用画像とを作
成している。ここで、図6(d)および図6(e)に示
すR、G、Bの後に付加されている数字は、1ライン上
でのR、G、Bの各座標を示している。
For example, as shown in FIG. 6 (d), only the even-numbered RGB pixel values from the left of the photographed image are extracted to create a left-eye image and a right-eye image. In addition, FIG.
As shown in (e), RG of the image for the left eye and the image for the right eye
Among B, the G value of the pixel is shifted by 1 pixel with respect to the RB value and thinned out to create the image for the left eye and the image for the right eye. Here, the numbers added after R, G, and B shown in FIGS. 6D and 6E indicate the coordinates of R, G, and B on one line.

【0008】[0008]

【発明が解決しようとする課題】しかし、画像、特に動
画像を伝送、または記録媒体に記録する場合には、画像
のデータ量が非常に大きいため符号化処理を施すのが一
般的である。一般的な符号化アルゴリズムであるMPE
G(Moving Picture Experts Group)−1、MPEG−
2、MPEG−4、およびデジタルビデオカメラで使わ
れるDV方式の圧縮は、全て入力画像データとしてYU
Vデータが用いられる。
However, when transmitting an image, particularly a moving image, or recording it on a recording medium, it is common to perform an encoding process because the data amount of the image is very large. MPE which is a general coding algorithm
G (Moving Picture Experts Group) -1, MPEG-
2, DV-4 compression used in MPEG-4 and digital video cameras are all YU as input image data.
V data is used.

【0009】また、カメラで撮影された画像もRGBデ
ータであるとは限らず、YUVデータであることが多
い。さらには、YUVデータのフォーマットは、4:
4:4、4:2:2、4:2:0、4:1:1等のよう
に1種類ではないため、入力画像がYUVデータであっ
てもフォーマットが異なり、従来の立体画像表示装置が
正しく立体画像を表示するためには適切なフォーマット
変換が必要な場合があるといった問題点があった。
Further, the image taken by the camera is not always RGB data, but is often YUV data. Furthermore, the format of YUV data is 4:
Since there is not one type such as 4: 4, 4: 2: 2, 4: 2: 0, 4: 1: 1, etc., the format is different even if the input image is YUV data, and the conventional stereoscopic image display device is used. However, there is a problem that an appropriate format conversion may be necessary to display a stereoscopic image correctly.

【0010】本発明は、上記問題点を解決するためにな
されたものであり、第1の目的は、精度の高い立体画像
用データを作成することが可能な立体画像作成装置およ
びその方法を提供することである。
The present invention has been made to solve the above problems, and a first object thereof is to provide a stereoscopic image creating apparatus and method capable of creating highly accurate stereoscopic image data. It is to be.

【0011】第2の目的は、色情報が最適となるように
立体画像用データを補間して表示することが可能な立体
画像表示装置およびその方法を提供することである。
A second object is to provide a stereoscopic image display apparatus and method capable of interpolating and displaying stereoscopic image data so that color information becomes optimum.

【0012】[0012]

【課題を解決するための手段】本発明のある局面に従え
ば、輝度情報と色情報とが分離された入力画像から立体
画像用データを作成する立体画像作成装置であって、左
眼用画像を作成するための左眼用画像作成手段と、右眼
用画像を作成するための右眼用画像作成手段と、左眼用
画像作成手段によって作成された左眼用画像および右眼
用画像作成手段によって作成された右眼用画像を符号化
するための符号化手段と、符号化手段によって符号化さ
れた左眼用画像および右眼用画像を多重化するための多
重化手段とを含み、左眼用画像作成手段および右眼用画
像作成手段は、入力画像を水平方向に間引きながら画素
をサンプリングし、サンプリングされた画素の位置に応
じて色情報の計算方法を変更し、当該画素の色情報を計
算して所定フォーマットの画像を作成する。
According to one aspect of the present invention, there is provided a stereoscopic image creating apparatus for creating stereoscopic image data from an input image in which luminance information and color information are separated, and a left eye image. Image creating means for creating a left eye image, a right eye image creating means for creating a right eye image, a left eye image and a right eye image created by the left eye image creating means Encoding means for encoding the image for the right eye created by means, including a multiplexing means for multiplexing the image for the left eye and the image for the right eye encoded by the encoding means, The image forming means for the left eye and the image forming means for the right eye sample pixels while thinning out the input image in the horizontal direction, change the calculation method of color information according to the positions of the sampled pixels, and change the color of the pixel. Calculate the information and To create the image of Tsu door.

【0013】サンプリングされた画素の位置に応じて色
情報の計算方法を変更し、画素の色情報が計算されるの
で、精度の高い立体画像用データを作成することが可能
となる。
Since the color information calculation method is changed by changing the color information calculation method according to the position of the sampled pixel, it is possible to create highly accurate stereoscopic image data.

【0014】好ましくは、多重化手段は、符号化手段に
よって符号化された左眼用画像および右眼用画像と、所
定フォーマットに関する情報とを多重化する。
Preferably, the multiplexing means multiplexes the left-eye image and the right-eye image encoded by the encoding means and the information regarding the predetermined format.

【0015】したがって、立体画像表示装置に立体画像
を表示させることによって、ユーザはどのフォーマット
で作成された立体画像が立体に見えやすいか等を容易に
判断することが可能となる。
Therefore, by displaying the stereoscopic image on the stereoscopic image display device, the user can easily determine in which format the stereoscopic image created is likely to be stereoscopic.

【0016】好ましくは、多重化手段は、符号化手段に
よって符号化された左眼用画像および右眼用画像と、色
情報の計算方法に関する情報とを多重化する。
Preferably, the multiplexing means multiplexes the left-eye image and the right-eye image coded by the coding means and the information regarding the color information calculation method.

【0017】したがって、立体画像表示装置に立体画像
を表示させることによって、ユーザはどの計算方法で色
情報が作成された立体画像が立体に見えやすいか等を容
易に判断することが可能となる。
Therefore, by displaying the stereoscopic image on the stereoscopic image display device, the user can easily determine by which calculation method the stereoscopic image for which the color information is created is likely to be stereoscopic.

【0018】好ましくは、多重化手段は、符号化手段に
よって符号化された左眼用画像および右眼用画像と、左
眼用画像および右眼用画像の色情報の補間方法に関する
情報とを多重化する。
Preferably, the multiplexing means multiplexes the left-eye image and the right-eye image coded by the coding means and the information on the interpolation method of the color information of the left-eye image and the right-eye image. Turn into.

【0019】したがって、立体画像表示装置が色情報の
補間方法に関する情報を抽出することによって、色情報
が最適となるように立体画像用データを補間して、より
立体として見えやすい画像を表示することが可能とな
る。
Therefore, the stereoscopic image display device extracts information about the interpolation method of the color information to interpolate the stereoscopic image data so that the color information becomes optimum, and display an image more visible as a stereoscopic image. Is possible.

【0020】好ましくは、多重化手段は、符号化手段に
よって符号化された左眼用画像および右眼用画像と、サ
ンプリングした画素の位置に関する情報とを多重化す
る。
Preferably, the multiplexing means multiplexes the image for the left eye and the image for the right eye encoded by the encoding means and the information on the positions of the sampled pixels.

【0021】したがって、立体画像表示装置がサンプリ
ングした画素に関する情報を抽出することによって、色
情報が最適となるように立体画像用データを補間して表
示することや、どの左眼用画像と右眼用画像との組合せ
が立体に見えやすいか等をユーザが決定する際の利便性
を向上させることが可能となる。
Therefore, by extracting the information on the pixels sampled by the stereoscopic image display device, the stereoscopic image data is interpolated and displayed so that the color information is optimized, and which left-eye image and right-eye image is displayed. It is possible to improve the convenience when the user decides whether or not the combination with the use image easily looks three-dimensional.

【0022】本発明の別の局面に従えば、輝度情報と色
情報とが分離された左眼用画像および右眼用画像を合成
して表示する立体画像表示装置であって、多重化された
データを逆多重化して、符号化された左眼用画像と、符
号化された右眼用画像と、左眼用画像および右眼用画像
の色情報の補間方法とを抽出するための逆多重化手段
と、逆多重化手段によって抽出された符号化された左眼
用画像および符号化された右眼用画像を復号するための
復号手段と、逆多重化手段によって抽出された左眼用画
像および右眼用画像の色情報の補間方法を参照して、復
号手段によって復号された左眼用画像および右眼用画像
の色情報を補間して所定フォーマットの画像に変換する
ためのフォーマット変換手段と、フォーマット変換手段
によって変換された左眼用画像および右眼用画像を合成
するための合成手段と、合成手段によって合成された画
像に応じて立体画像を表示するための表示手段とを含
む。
According to another aspect of the present invention, there is provided a stereoscopic image display device for combining and displaying an image for the left eye and an image for the right eye in which luminance information and color information are separated, and which is multiplexed. Demultiplexing for demultiplexing data to extract the encoded left-eye image, the encoded right-eye image, and the interpolation method of the color information of the left-eye image and the right-eye image Demultiplexing means, decoding means for decoding the encoded left-eye image and the encoded right-eye image extracted by the demultiplexing means, and the left-eye image extracted by the demultiplexing means And a format conversion means for interpolating the color information of the left-eye image and the right-eye image decoded by the decoding means to convert the color information into a predetermined format image And converted by the format conversion means Comprising synthesizing means for synthesizing the eye image and the right eye image, in accordance with the synthesized image by synthesizing means and display means for displaying a stereoscopic image.

【0023】フォーマット変換手段は、色情報の補間方
法を参照して、左眼用画像および右眼用画像の色情報を
補間して所定フォーマットの画像に変換するので、色情
報が最適となるように立体画像用データを補間して表示
することが可能となる。
The format converting means interpolates the color information of the left-eye image and the right-eye image and converts it into an image of a predetermined format with reference to the color information interpolation method, so that the color information is optimized. It is possible to interpolate and display the stereoscopic image data.

【0024】本発明のさらに別の局面に従えば、立体画
像表示装置は、輝度情報と色情報とが分離された左眼用
画像および右眼用画像を合成して表示する立体画像表示
装置であって、多重化されたデータを逆多重化して、符
号化された左眼用画像と、符号化された右眼用画像と、
左眼用画像および右眼用画像のサンプリングした画素の
位置に関する情報とを抽出するための逆多重化手段と、
逆多重化手段によって抽出された符号化された左眼用画
像および符号化された右眼用画像を復号するための復号
手段と、逆多重化手段によって抽出された左眼用画像お
よび右眼用画像のサンプリングした画素の位置に関する
情報を参照して、復号手段によって復号された左眼用画
像および右眼用画像を水平方向に拡大して所定フォーマ
ットの画像に変換するためのフォーマット変換手段と、
フォーマット変換手段によって変換された左眼用画像お
よび右眼用画像を合成するための合成手段と、合成手段
によって合成された画像に応じて立体画像を表示するた
めの表示手段とを含む。
According to still another aspect of the present invention, the stereoscopic image display device is a stereoscopic image display device for synthesizing and displaying a left-eye image and a right-eye image in which luminance information and color information are separated. Then, by demultiplexing the multiplexed data, the encoded image for the left eye, the encoded image for the right eye,
Demultiplexing means for extracting information regarding the positions of sampled pixels of the left-eye image and the right-eye image,
Decoding means for decoding the encoded left-eye image and the encoded right-eye image extracted by the demultiplexing means, and the left-eye image and the right-eye image extracted by the demultiplexing means With reference to the information on the position of the sampled pixel of the image, a format conversion unit for horizontally expanding the image for the left eye and the image for the right eye decoded by the decoding unit and converting the image into a predetermined format image,
It includes a synthesizing unit for synthesizing the left-eye image and the right-eye image converted by the format converting unit, and a display unit for displaying a stereoscopic image according to the image combined by the synthesizing unit.

【0025】フォーマット変換手段は、サンプリングし
た画素の位置に関する情報を参照して、左眼用画像およ
び右眼用画像を水平方向に拡大して所定フォーマットの
画像に変換し画素データを配置するため、立体画像作成
装置と立体画像表示装置とで生じる位相のずれを防ぐこ
とが可能となる。
The format conversion means refers to the information on the positions of the sampled pixels, horizontally expands the left-eye image and the right-eye image, converts them into images of a predetermined format, and arranges pixel data. It is possible to prevent a phase shift between the stereoscopic image creating device and the stereoscopic image display device.

【0026】本発明のさらに別の局面に従えば、輝度情
報と色情報とが分離された入力画像から立体画像用デー
タを作成する立体画像作成方法であって、左眼用画像を
作成するステップと、右眼用画像を作成するステップ
と、作成された左眼用画像および右眼用画像を符号化す
るステップと、符号化された左眼用画像および右眼用画
像を多重化するステップとを含み、左眼用画像を作成す
るステップおよび右眼用画像を作成するステップは、入
力画像を水平方向に間引きながら画素をサンプリング
し、サンプリングされた画素の位置に応じて色情報の計
算方法を変更し、当該画素の色情報を計算して所定フォ
ーマットの画像を作成するステップを含む。
According to still another aspect of the present invention, there is provided a stereoscopic image creating method for creating stereoscopic image data from an input image in which luminance information and color information are separated, the step of creating a left eye image. A step of creating a right-eye image, a step of encoding the created left-eye image and right-eye image, and a step of multiplexing the encoded left-eye image and right-eye image Including the step of creating the image for the left eye and the step of creating the image for the right eye, sampling pixels while thinning out the input image in the horizontal direction, and calculating the color information according to the positions of the sampled pixels. Changing and calculating the color information of the pixel to create an image in a predetermined format.

【0027】サンプリングされた画素の位置に応じて色
情報の計算方法を変更し、画素の色情報が計算されるの
で、精度の高い立体画像用データを作成することが可能
となる。
Since the color information calculation method is changed by changing the color information calculation method in accordance with the sampled pixel position, it is possible to create highly accurate stereoscopic image data.

【0028】本発明のさらに別の局面に従えば、輝度情
報と色情報とが分離された左眼用画像および右眼用画像
を合成して表示する立体画像表示方法であって、多重化
されたデータを逆多重化して、符号化された左眼用画像
と、符号化された右眼用画像と、左眼用画像および右眼
用画像の色情報の補間方法とを抽出するステップと、抽
出された符号化された左眼用画像および符号化された右
眼用画像を復号するステップと、抽出された左眼用画像
および右眼用画像の色情報の補間方法を参照して、復号
された左眼用画像および右眼用画像の色情報を補間して
所定フォーマットの画像に変換するステップと、所定フ
ォーマットに変換された左眼用画像および右眼用画像を
合成するステップと、合成された画像に応じて立体画像
を表示するステップとを含む。
According to still another aspect of the present invention, there is provided a stereoscopic image display method for synthesizing and displaying a left-eye image and a right-eye image in which luminance information and color information are separated, which are multiplexed. Demultiplexing the data, the encoded left-eye image, the encoded right-eye image, a step of extracting the interpolation method of the color information of the left-eye image and the right-eye image, Decoding with reference to the step of decoding the extracted encoded left-eye image and the encoded right-eye image, and the interpolation method of the color information of the extracted left-eye image and right-eye image, A step of interpolating the color information of the left-eye image and the right-eye image that have been converted into an image of a predetermined format, and a step of combining the left-eye image and the right-eye image converted into the predetermined format, Step to display a stereoscopic image according to the captured image. Including the door.

【0029】色情報の補間方法を参照して、左眼用画像
および右眼用画像の色情報を補間して所定フォーマット
の画像に変換するので、色情報が最適となるように立体
画像用データを補間して表示することが可能となる。
Since the color information of the left-eye image and the right-eye image is interpolated and converted into an image of a predetermined format by referring to the color information interpolation method, the stereoscopic image data is optimized so that the color information is optimized. Can be interpolated and displayed.

【0030】本発明のさらに別の局面に従えば、輝度情
報と色情報とが分離された左眼用画像および右眼用画像
を合成して表示する立体画像表示方法であって、多重化
されたデータを逆多重化して、符号化された左眼用画像
と、符号化された右眼用画像と、左眼用画像および右眼
用画像のサンプリングした画素の位置に関する情報とを
抽出するステップと、抽出された符号化された左眼用画
像および符号化された右眼用画像を復号するステップ
と、抽出された左眼用画像および右眼用画像のサンプリ
ングした画素の位置に関する情報を参照して、復号され
た左眼用画像および右眼用画像を水平方向に拡大して所
定フォーマットの画像に変換するステップと、所定フォ
ーマットに変換された左眼用画像および右眼用画像を合
成するステップと、合成された画像に応じて立体画像を
表示するステップとを含む。
According to still another aspect of the present invention, there is provided a stereoscopic image display method for combining and displaying a left-eye image and a right-eye image in which luminance information and color information are separated, which are multiplexed. Demultiplexing the data and extracting the encoded left-eye image, the encoded right-eye image, and information regarding the positions of the sampled pixels of the left-eye image and the right-eye image And a step of decoding the extracted encoded left-eye image and the encoded right-eye image, and information regarding the positions of the sampled pixels of the extracted left-eye image and right-eye image Then, the step of horizontally enlarging the decoded left-eye image and right-eye image to convert into a predetermined format image, and combining the left-eye image and right-eye image converted into the predetermined format Steps, And displaying a stereoscopic image according to made the image.

【0031】サンプリングした画素の位置に関する情報
を参照して、左眼用画像および右眼用画像を水平方向に
拡大して所定フォーマットの画像に変換し画素データを
配置するため、立体画像作成装置と立体画像表示装置と
で生じる位相のずれを防ぐことが可能となる。
By referring to the information on the positions of the sampled pixels, the left-eye image and the right-eye image are enlarged in the horizontal direction, converted into images of a predetermined format, and the pixel data is arranged. It is possible to prevent a phase shift that occurs in the stereoscopic image display device.

【0032】[0032]

【発明の実施の形態】(第1の実施の形態)図1は、本
発明の第1の実施の形態における立体画像装置の概略構
成を示すブロック図である。この立体画像装置は、立体
画像作成装置(以下、立体画像用データ作成部と呼
ぶ。)111と、立体画像表示装置(以下、立体画像用
データ表示部と呼ぶ。)112とを含む。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS (First Embodiment) FIG. 1 is a block diagram showing a schematic configuration of a stereoscopic image device according to a first embodiment of the present invention. The stereoscopic image device includes a stereoscopic image creating device (hereinafter, referred to as a stereoscopic image data creating unit) 111 and a stereoscopic image display device (hereinafter, referred to as a stereoscopic image data display unit) 112.

【0033】立体画像用データ作成部111は、カメラ
101aおよび101bと、左眼用画像作成部102
と、右眼用画像作成部103と、エンコーダ104aお
よび104bと、多重化部105とを含む。カメラ10
1aは、左眼用の画像を撮影する。また、カメラ101
bは、右眼用の画像を撮影する。
The stereoscopic image data creation unit 111 includes the cameras 101a and 101b and the left-eye image creation unit 102.
And a right-eye image creating unit 103, encoders 104a and 104b, and a multiplexing unit 105. Camera 10
1a captures an image for the left eye. Also, the camera 101
b captures an image for the right eye.

【0034】左眼用画像作成部102は、カメラ101
aによって撮影された左眼用の画像データを、エンコー
ダ104aがエンコード可能なフォーマットに変換す
る。同様にして、右眼用画像作成部103は、カメラ1
01bによって撮影された右眼用の画像データを、エン
コーダ104bがエンコード可能なフォーマットに変換
する。
The image forming unit 102 for the left eye is connected to the camera 101.
The image data for the left eye captured by a is converted into a format that can be encoded by the encoder 104a. Similarly, the right-eye image creating unit 103 uses the camera 1
The image data for the right eye captured by 01b is converted into a format that can be encoded by the encoder 104b.

【0035】エンコーダ104aは、MPEG−1、M
PEG−2、MPEG−4、DV圧縮方式等のアルゴリ
ズムを利用して、カメラ101aによって撮影された画
像をエンコードする。エンコーダ104bは、エンコー
ダ104aと同様のアルゴリズムを利用して、カメラ1
01bによって撮影された画像をエンコードする。
The encoder 104a uses MPEG-1, M
An image captured by the camera 101a is encoded using an algorithm such as PEG-2, MPEG-4, or DV compression method. The encoder 104b uses the same algorithm as the encoder 104a, and uses the camera 1
The image taken by 01b is encoded.

【0036】多重化部105は、エンコーダ104aに
よってエンコードされた左眼用画像の符号化データ、エ
ンコーダ104bによってエンコードされた右眼用画像
の符号化データ、および各種制御情報を多重化する。多
重化部105によって多重化されたデータは、立体画像
用データ表示部112に送信されたり、記録メディアに
記録されたりする。
The multiplexing unit 105 multiplexes the coded data of the left-eye image encoded by the encoder 104a, the coded data of the right-eye image encoded by the encoder 104b, and various control information. The data multiplexed by the multiplexing unit 105 is transmitted to the stereoscopic image data display unit 112 or recorded on a recording medium.

【0037】また、立体画像用データ表示部112は、
逆多重化部106と、デコーダ107aおよび107b
と、フォーマット変換部108aおよび108bと、合
成部109と、表示部110とを含む。
Further, the stereoscopic image data display section 112 is
Demultiplexer 106 and decoders 107a and 107b
And format conversion units 108a and 108b, a combining unit 109, and a display unit 110.

【0038】逆多重化部106は、立体画像用データ作
成部111から受信した多重化データや、記録メディア
から読出した多重化データを逆多重化し、左眼用画像の
符号化データ、右眼用画像の符号化データおよび各種制
御情報を抽出する。抽出された左眼用画像の符号化デー
タはデコーダ107aに転送され、右眼用画像の符号化
データはデコーダ107bに転送され、制御情報はフォ
ーマット変換部108aおよび108bに転送される。
The demultiplexing unit 106 demultiplexes the multiplexed data received from the stereoscopic image data creating unit 111 and the multiplexed data read from the recording medium, and encodes the left-eye image data and the right-eye image data. The encoded data of the image and various control information are extracted. The encoded data of the extracted image for the left eye is transferred to the decoder 107a, the encoded data of the image for the right eye is transferred to the decoder 107b, and the control information is transferred to the format conversion units 108a and 108b.

【0039】デコーダ107aは、エンコーダ104a
に対応しており、MPEG−1、MPEG−2、MPE
G−4、DV圧縮方式等のアルゴリズムを利用して、逆
多重化部106から受けた左眼用画像の符号化データを
復号する。デコーダ107bは、エンコーダ104bに
対応しており、デコーダ107aと同様のアルゴリズム
を利用して、逆多重化部106から受けた右眼用画像の
符号化データを復号する。
The decoder 107a is the encoder 104a.
It supports MPEG-1, MPEG-2, MPE
The encoded data of the image for the left eye received from the demultiplexing unit 106 is decoded by using an algorithm such as G-4 or DV compression method. The decoder 107b corresponds to the encoder 104b, and uses the same algorithm as the decoder 107a to decode the encoded data of the right-eye image received from the demultiplexing unit 106.

【0040】フォーマット変換部108aは、逆多重化
部106から受けた制御情報を参照して、デコーダ10
7aによって復号された左眼用画像を、表示部110が
表示可能なフォーマットに変換する。同様に、フォーマ
ット変換部108bは、逆多重化部106から受けた制
御情報を参照して、デコーダ107bによって復号され
た右眼用画像を、表示部110が表示可能なフォーマッ
トに変換する。
The format conversion unit 108a refers to the control information received from the demultiplexing unit 106 and refers to the decoder 10
The image for the left eye decoded by 7a is converted into a format that can be displayed by the display unit 110. Similarly, the format conversion unit 108b refers to the control information received from the demultiplexing unit 106, and converts the right-eye image decoded by the decoder 107b into a format that can be displayed by the display unit 110.

【0041】合成部109は、フォーマット変換部10
8aによってフォーマット変換された左眼用画像と、フ
ォーマット変換部108bによってフォーマット変換さ
れた右眼用画像とを合成し、立体画像用データを作成す
る。
The synthesizing section 109 includes a format converting section 10
The image for the left eye whose format has been converted by 8a and the image for the right eye whose format has been converted by the format conversion unit 108b are combined to create stereoscopic image data.

【0042】表示部110は、LCD(Liquid Crystal
Display)モジュールなどによって構成され、レンチキ
ュラ方式、パララクスバリア方式、シャッタ(時分割)
方式などを用いて、立体画像を表示する。
The display unit 110 is an LCD (Liquid Crystal).
Display) module, etc., lenticular system, parallax barrier system, shutter (time division)
A stereoscopic image is displayed using a method or the like.

【0043】図2および図3は、各種画像フォーマット
の一例を示す図である。各画素の上の数値はその画素の
左端からの座標を表しており、本明細書では画素の位置
を画像の左端からの座標で表すことにする。また、特に
断らない限り、U成分とV成分とをまとめてC(クロマ
成分)と表すことにする。なお、図2においては、Yと
Cとの関係が全てのラインで同じなので、1ラインのみ
を記載している。
2 and 3 are views showing examples of various image formats. The numerical value above each pixel represents the coordinate from the left end of the pixel, and in this specification, the position of the pixel is represented by the coordinate from the left end of the image. Also, unless otherwise specified, the U component and the V component are collectively expressed as C (chroma component). In FIG. 2, only one line is shown because the relationship between Y and C is the same for all lines.

【0044】図2(a)は、YUV4:2:2フォーマ
ットを示す図であり、Yに対してCを水平方向に1/2
に削減したものである。図2(d)は、YUV4:1:
1フォーマットを示す図であり、Yに対してCを水平方
向に1/4に削減したものである。図3(a)はYUV
4:2:0(MPEG−2用)フォーマットを示す図で
あり、Yに対してCを水平方向に1/2、垂直方向に1
/2に削減したものである。
FIG. 2A is a diagram showing the YUV 4: 2: 2 format, in which C is ½ of Y in the horizontal direction.
It has been reduced to. FIG. 2D shows YUV4: 1 :.
1 is a diagram showing one format, in which C is reduced to 1/4 in the horizontal direction with respect to Y. FIG. Figure 3 (a) shows YUV
FIG. 3 is a diagram showing a 4: 2: 0 (for MPEG-2) format, in which C is ½ in the horizontal direction and 1 in the vertical direction with respect to Y.
It was reduced to / 2.

【0045】図2(a)および図2(d)に示すよう
に、YUV4:2:2フォーマットやYUV4:1:1
フォーマットにおいては、各ライン上でYとCとが同じ
位置でサンプリングされている。しかし、図3(a)に
示すように、YUV4:2:0(MPEG−2用)フォ
ーマットにおいては、Cを垂直方向にも間引くために、
YとCとの垂直方向のサンプリング位置は異なってい
る。ここで、図3(a)の左端の数値は、その画素の画
像の上端からの座標を示す数値である。
As shown in FIGS. 2A and 2D, the YUV 4: 2: 2 format and the YUV 4: 1: 1 format are used.
In the format, Y and C are sampled at the same position on each line. However, as shown in FIG. 3A, in the YUV 4: 2: 0 (for MPEG-2) format, in order to thin out C in the vertical direction,
The vertical sampling positions of Y and C are different. Here, the numerical value at the left end of FIG. 3A is a numerical value indicating the coordinates of the pixel from the upper end of the image.

【0046】図2(a)と図3(a)とを比較すればわ
かるように、水平方向のYとCとの関係では、YUV
4:2:2フォーマットとYUV4:2:0(MPEG
−2用)フォーマットとが同じである。本発明において
は水平方向の処理しか関係しないため、以下の説明では
YUV4:2:2フォーマットの中にYUV4:2:0
(MPEG−2用)フォーマットを含めることにする。
As can be seen by comparing FIG. 2A and FIG. 3A, the relationship between Y and C in the horizontal direction is YUV.
4: 2: 2 format and YUV 4: 2: 0 (MPEG
(For -2) format is the same. Since only horizontal processing is involved in the present invention, in the following description, YUV4: 2: 0 is included in the YUV4: 2: 2 format.
We will include the format (for MPEG-2).

【0047】本実施の形態においては、カメラ101a
および101bが、YUV4:2:2フォーマットのデ
ータを出力する場合のものである。左眼用画像作成部1
02および右眼用画像作成部103は、図2(a)に示
す画像データが入力されると、この画像データに対して
水平方向に1/2の間引きを行なう。間引きを行なった
後の画像データもYUV4:2:2フォーマットである
場合には、図2(b)または図2(c)に示すものとな
る。また、間引きを行なった後の画像データがYUV
4:1:1フォーマットである場合には、図2(e)ま
たは図2(f)に示すものとなる。
In the present embodiment, the camera 101a
And 101b are for outputting data in YUV 4: 2: 2 format. Left eye image creation unit 1
02 and the right-eye image creating unit 103, when the image data shown in FIG. 2A is input, thin the image data by 1/2 in the horizontal direction. When the image data after thinning is also in the YUV 4: 2: 2 format, the data is as shown in FIG. 2B or 2C. Also, the image data after thinning out is YUV.
In the case of the 4: 1: 1 format, the format is as shown in FIG. 2 (e) or FIG. 2 (f).

【0048】ここで、間引き処理をする前の座標iの画
素のYをY(i)、座標iの画素のCをC(i)と表す
ことにする。図2(b)においては、Y(0)、Y
(2)、Y(4)、Y(6)、Y(8)…が存在すると
共に、C(0)、C(4)、C(8)…が存在する。ま
た、図2(c)においては、Y(1)、Y(3)、Y
(5)、Y(7)、Y(9)…が存在すると共に、C
(1)、C(5)、C(9)…が存在する。
Here, Y of the pixel at the coordinate i before the thinning process is represented as Y (i), and C of the pixel at the coordinate i is represented as C (i). In FIG. 2B, Y (0), Y
(2), Y (4), Y (6), Y (8) ... Are present, as well as C (0), C (4), C (8). Further, in FIG. 2C, Y (1), Y (3), Y
(5), Y (7), Y (9) ... Are present and C
(1), C (5), C (9), ... Are present.

【0049】図2(b)と図2(c)との違いは、偶数
番目の画素をサンプリングするか、奇数番目の画素をサ
ンプリングするかの違いである。左眼用画像と右眼用画
像との組合わせにおいて、左眼用画像として図2(b)
に示す画像を使い、右眼用画像として図2(c)に示す
画像を使うようにしてもよい。また、左眼用画像として
図2(c)に示す画像を使い、右眼用画像として図2
(b)に示す画像を使うようにしてもよい。
The difference between FIG. 2B and FIG. 2C is the difference between sampling even-numbered pixels and odd-numbered pixels. In the combination of the image for the left eye and the image for the right eye, FIG.
2C may be used, and the image shown in FIG. 2C may be used as the image for the right eye. In addition, the image shown in FIG. 2C is used as the image for the left eye, and the image for the right eye is shown in FIG.
The image shown in (b) may be used.

【0050】また、左眼用画像および右眼用画像の双方
とも図2(b)に示す画像を使ってもよいし、双方とも
図2(c)に示す画像を使ってもよい。左眼用画像と右
眼用画像との組み合わせの選択は自由である。本発明の
実施の形態2以降についても同様である。
Further, both the left-eye image and the right-eye image may use the image shown in FIG. 2 (b), or both may use the image shown in FIG. 2 (c). The combination of the left-eye image and the right-eye image can be freely selected. The same applies to the second and subsequent embodiments of the present invention.

【0051】また、間引いた後の画像として、図2
(b)に示す画像を使う場合には、YおよびCともサン
プリング前の同じ位置のデータをそのまま使えばよい。
間引いた後の画像として、図2(c)に示す画像を使う
場合にも、Yはサンプリング前の同じ位置のデータをそ
のまま使えばよい。しかし、間引いた後の画像として、
図2(c)に示す画像を使う場合には、Cに関してはサ
ンプリング前後で位置が異なり、サンプリング前の同じ
位置のデータが存在しない。したがって、図2(c)に
示す画像のCは、サンプリング前のC(0)、C
(2)、C(4)、C(6)、C(8)…からC
(1)、C(5)、C(9)…を計算する必要がある。
Further, as an image after thinning, FIG.
When using the image shown in (b), the data at the same position before sampling may be used as it is for both Y and C.
When the image shown in FIG. 2C is used as the image after thinning, the data at the same position before sampling may be used as Y as it is. However, as an image after thinning out,
When the image shown in FIG. 2C is used, the position of C differs before and after sampling, and there is no data at the same position before sampling. Therefore, C of the image shown in FIG. 2C is C (0), C before sampling.
From (2), C (4), C (6), C (8) ... to C
(1), C (5), C (9) ... need to be calculated.

【0052】たとえば、図2(a)に示す画像のCをC
aと表し、図2(c)に示す画像のCをCcと表すと、
CaとCcとの関係は次に示す式(1)〜(3)のいず
れかとなる。
For example, C in the image shown in FIG.
2a and C of the image shown in FIG. 2C is represented by Cc,
The relationship between Ca and Cc is one of the following expressions (1) to (3).

【0053】 Cc(i*4+1)=Ca(i*4) …(1) Cc(i*4+1)=Ca(i*4+2) …(2) Cc(i*4+1)=(Ca(i*4)+Ca(i*4+2))/2 …(3) ここで、Ca(i)は図2(a)に示す画像の座標iの
画素のC、Cc(i)は図2(c)に示す画像の座標i
の画素のCを表している。式(1)、式(2)または式
(3)のように、図2(c)に示す画像のCの位置に対
応する画素の、サンプリング前の近傍の画素値を使って
計算することになる。すなわち、式(1)は左隣のCの
画素値を用いる場合、式(2)は右隣のCの画素値を用
いる場合、式(3)は両隣のCの平均画素値を用いる場
合を示している。
Cc (i * 4 + 1) = Ca (i * 4) (1) Cc (i * 4 + 1) = Ca (i * 4 + 2) (2) Cc (i * 4 + 1) = (Ca (i * 4) ) + Ca (i * 4 + 2)) / 2 (3) Here, Ca (i) is C of the pixel at the coordinate i of the image shown in FIG. 2A, and Cc (i) is shown in FIG. 2C. Image coordinate i
Represents the C of the pixel. As in Expression (1), Expression (2), or Expression (3), calculation is performed using pixel values in the vicinity of the pixel corresponding to the position C of the image shown in FIG. 2C before sampling. Become. That is, the formula (1) uses the pixel value of the C on the left side, the formula (2) uses the pixel value of the C on the right side, and the formula (3) uses the average pixel value of the C on both sides. Shows.

【0054】同様に、左眼用画像作成部102および右
眼用画像作成部103がYUV4:1:1フォーマット
で画像を作成する場合も、左眼用画像と右眼用画像との
組み合わせの選択は自由である。間引いた後の画像とし
て、図2(e)に示す画像を使う場合には、YおよびC
ともサンプリング前の同じ位置のデータをそのまま使え
ばよい。間引いた後の画像として、図2(f)に示す画
像を使う場合にも、Yはサンプリング前の同じ位置のデ
ータをそのまま使えばよい。しかし、間引いた後の画像
として、図2(f)に示す画像を使う場合には、画素の
Cに関してはサンプリング前後で位置が異なるため、サ
ンプリング前の同じ位置のデータが存在しない。従っ
て、図2(f)に示す画像のCについては、サンプリン
グ前のC(0)、C(2)、C(4)、C(6)、C
(8)…から、C(1)、C(9)…を計算する必要が
ある。
Similarly, when the left-eye image creating unit 102 and the right-eye image creating unit 103 create images in the YUV 4: 1: 1 format, selection of a combination of the left-eye image and the right-eye image Is free. When the image shown in FIG. 2E is used as the image after thinning, Y and C are used.
In both cases, the data at the same position before sampling may be used as it is. When the image shown in FIG. 2 (f) is used as the image after thinning, the data at the same position before sampling may be used as Y as it is. However, when the image shown in FIG. 2F is used as the image after thinning, the position of C of the pixel is different before and after sampling, and therefore, data at the same position before sampling does not exist. Therefore, for C of the image shown in FIG. 2F, C (0), C (2), C (4), C (6), C before sampling
It is necessary to calculate C (1), C (9) ... From (8).

【0055】たとえば、図2(a)に示す画像のCをC
aと表し、図2(f)に示す画像のCをCfと表すと、
CaとCfとの関係は次に示す式(4)〜(6)のいず
れかとなる。
For example, C in the image shown in FIG.
If a is expressed as a and C of the image shown in FIG. 2 (f) is expressed as Cf,
The relationship between Ca and Cf is one of the expressions (4) to (6) shown below.

【0056】 Cf(i*8+1)=Ca(i*8) …(4) Cf(i*8+1)=Ca(i*8+2) …(5) Cf(i*8+1)=(Ca(i*8)+Ca(i*8+2))/2 …(6) ここで、Ca(i)は図2(a)に示す画像の座標iの
画素のC、Cf(i)は図2(f)に示す画像の座標i
の画素のCを表している。式(4)、式(5)または式
(6)に示すように、図2(f)のCの位置に対応する
画素の、サンプリング前の近傍の画素値を使って計算す
ることになる。すなわち、式(4)は左隣のCの画素値
を用いる場合、式(5)は右隣のCの画素値を用いる場
合、式(6)は両隣のCの平均画素値を用いる場合を示
している。
Cf (i * 8 + 1) = Ca (i * 8) (4) Cf (i * 8 + 1) = Ca (i * 8 + 2) (5) Cf (i * 8 + 1) = (Ca (i * 8) ) + Ca (i * 8 + 2)) / 2 (6) Here, Ca (i) is C of the pixel at the coordinate i of the image shown in FIG. 2 (a), and Cf (i) is shown in FIG. 2 (f). Image coordinate i
Represents the C of the pixel. As shown in Expression (4), Expression (5), or Expression (6), the pixel value in the vicinity of the pixel corresponding to the position of C in FIG. That is, the equation (4) uses the pixel value of the C on the left side, the equation (5) uses the pixel value of the C on the right side, and the equation (6) uses the average pixel value of the C on both sides. Shows.

【0057】2台のカメラ101aおよび101bで撮
影した画像を、各々左眼用画像と右眼用画像とに変換す
るために、図2(b)および図2(c)に示す画像(Y
UV4:1:1フォーマットの場合には、図2(e)お
よび図2(f)に示す画像)のいずれを選択するかにつ
いては、ユーザが状況に応じて選択する。そして、いず
れを選択したかを示すフラグが多重化部105に出力さ
れる。多重化部105は、このフラグを制御情報として
左眼用画像の符号化データおよび右眼用画像の符号化デ
ータに多重化する。
In order to convert the images taken by the two cameras 101a and 101b into a left-eye image and a right-eye image, respectively, the images (Y) shown in FIGS. 2B and 2C are displayed.
In the case of the UV4: 1: 1 format, the user selects which of the images shown in FIG. 2 (e) and FIG. 2 (f) is to be selected according to the situation. Then, a flag indicating which is selected is output to multiplexing section 105. The multiplexing unit 105 multiplexes this flag into the coded data of the left-eye image and the coded data of the right-eye image as control information.

【0058】光軸を並行にして撮影する場合には、左眼
用画像として図2(b)に示す画像(YUV4:1:1
フォーマットの場合には、図2(e)に示す画像)、右
眼用画像として図2(c)に示す画像(YUVフォーマ
ット4:1:1の場合には、図2(f)に示す画像)を
選択すると、高い精度の画像が得られる。
When the optical axes are taken in parallel, the image (YUV4: 1: 1) shown in FIG. 2B is used as the image for the left eye.
2 (e) in the case of the format) and the image shown in FIG. 2 (c) as the image for the right eye (the image shown in FIG. 2 (f) in the case of YUV format 4: 1: 1). ) Is selected, a highly accurate image is obtained.

【0059】また、左眼用画像および右眼用画像とも、
図2(b)に示す画像(YUV4:1:1フォーマット
の場合には、図2(e)に示す画像)を選択すると、処
理が簡単である。このように、ユーザがその都度、状況
にあった画像を選択するようにすればよい。
Further, both the image for the left eye and the image for the right eye,
If the image shown in FIG. 2B (the image shown in FIG. 2E in the case of YUV4: 1: 1 format) is selected, the process is simple. In this way, the user may select the image suitable for the situation each time.

【0060】以上説明したように、本実施の形態におけ
る立体画像装置においては、カメラ101aおよび10
1bが撮影した画像がYUV4:2:2フォーマットの
場合に、左眼用画像作成部102および右眼用画像作成
部103が左眼用画像および右眼用画像を作成するとき
に、間引き処理を行なって作成される画像の色情報の位
置に合わせて色情報を計算するようにしたので、精度の
高い立体画像を作成することが可能となった。
As described above, in the stereoscopic image device according to the present embodiment, the cameras 101a and 10a are provided.
When the image captured by 1b is in the YUV 4: 2: 2 format, thinning processing is performed when the left-eye image creating unit 102 and the right-eye image creating unit 103 create the left-eye image and the right-eye image. Since the color information is calculated according to the position of the color information of the image that is created in-line, it is possible to create a highly accurate stereoscopic image.

【0061】また、画像がどのYUVフォーマットに相
当するかを示す情報およびどの位置の画素を符号化した
かを示す情報を含んだ制御情報を、左眼用画像の符号化
データおよび右眼用画像の符号化データに多重化するよ
うにしたので、立体画像用データ表示部112が立体画
像を表示するときに、どの組合わせの画像が立体に見え
やすいか等をユーザが決定する際の利便性を向上させる
ことが可能となった。また、どの組合せが立体に見えや
すいかの情報を立体画像用データ作成部111にフィー
ドバックすることによって、左眼用画像作成部102お
よび右眼用画像作成部103における左眼用画像および
右眼用画像の選択を容易に行なうことが可能となる。
Further, the control information including the information indicating which YUV format the image corresponds to and the information indicating at which position the pixel has been encoded are the encoded data of the image for the left eye and the image for the right eye. Therefore, when the stereoscopic image data display unit 112 displays a stereoscopic image, it is convenient for the user to determine which combination of images is more likely to be stereoscopically viewed. It has become possible to improve. In addition, by feeding back to the stereoscopic image data creation unit 111 information indicating which combination is likely to look stereoscopic, the left-eye image and the right-eye image in the left-eye image creation unit 102 and the right-eye image creation unit 103 are displayed. It becomes possible to easily select an image.

【0062】(第2の実施の形態)本発明の第2の実施
の形態における立体画像装置の概略構成は、図1に示す
第1の実施の形態における立体画像装置の概略構成と同
様である。したがって、重複する構成および機能の詳細
な説明は繰返さない。
(Second Embodiment) The schematic configuration of the stereoscopic image device according to the second embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. . Therefore, detailed description of overlapping configurations and functions will not be repeated.

【0063】本実施の形態においては、カメラ101a
および101bが、YUV4:1:1フォーマットの画
像データを出力する場合のものである。左眼用画像作成
部102および右眼用画像作成部103は、図2(d)
に示す画像データが入力されると、この画像データに対
して水平方向に1/2の間引きを行なう。間引きを行な
った後の画像データもYUV4:1:1フォーマットで
ある場合には、図2(e)または図2(f)に示すもの
となる。
In the present embodiment, the camera 101a
And 101b are for outputting image data in YUV 4: 1: 1 format. The left-eye image creating unit 102 and the right-eye image creating unit 103 are shown in FIG.
When the image data shown in (1) is input, 1/2 of the image data is thinned out in the horizontal direction. When the image data after thinning is also in the YUV 4: 1: 1 format, the data is as shown in FIG. 2 (e) or FIG. 2 (f).

【0064】間引いた後の画像として、図2(e)に示
す画像を使う場合には、YおよびCともサンプリング前
の同じ位置のデータをそのまま使えばよい。間引いた後
の画像として、図2(f)に示す画像を使う場合にも、
Yはサンプリング前の同じ位置のデータをそのまま使え
ばよい。しかし、間引いた後の画像として、図2(f)
に示す画像を使う場合には、Cに関してはサンプリング
前後で位置が異なり、サンプリング前の同じ位置のデー
タが存在しない。したがって、図2(f)に示す画像の
Cは、サンプリング前のC(0)、C(4)、C(8)
…からC(1)、C(9)…を計算する必要がある。
When the image shown in FIG. 2 (e) is used as the image after thinning, the data at the same position before sampling may be used as it is for both Y and C. When using the image shown in FIG. 2 (f) as the image after thinning,
For Y, the data at the same position before sampling may be used as it is. However, the image after thinning out is shown in FIG.
In the case of using the image shown in, the position of C differs before and after sampling, and there is no data at the same position before sampling. Therefore, C of the image shown in FIG. 2F is C (0), C (4), C (8) before sampling.
It is necessary to calculate C (1), C (9), ...

【0065】たとえば、図2(d)に示す画像のCをC
dと表し、図2(f)に示す画像のCをCfと表すと、
CdとCfとの関係は次に示す式(7)〜式(9)のい
ずれかとなる。
For example, C in the image shown in FIG.
2d, and C of the image shown in FIG. 2F is represented by Cf,
The relationship between Cd and Cf is one of the following expressions (7) to (9).

【0066】 Cf(i*8+1)=Cd(i*8) …(7) Cf(i*8+1)=Cd(i*8+4) …(8) Cf(i*8+1)=Cd(i*8)*W1+Cd(i*8+4)*W2 …(9) ここで、Cd(i)は図2(d)に示す画像の座標iの
画素のC、Cf(i)は図2(f)に示す画像の座標i
の画素のCを表している。また、W1およびW2は重み
係数であり、W1+W2=1である。式(7)、式
(8)または式(9)のように、図2(f)に示す画像
のCの位置に対応する画素の、サンプリング前の近傍の
画素値を使って計算することになる。すなわち、式
(7)は左隣のCの画素値を用いる場合、式(8)は右
隣のCの画素値を用いる場合、式(9)は両隣のCの平
均画素値を用いる場合である。
Cf (i * 8 + 1) = Cd (i * 8) (7) Cf (i * 8 + 1) = Cd (i * 8 + 4) (8) Cf (i * 8 + 1) = Cd (i * 8) * W1 + Cd (i * 8 + 4) * W2 (9) Here, Cd (i) is C of the pixel at the coordinate i of the image shown in FIG. 2 (d), and Cf (i) is the image shown in FIG. 2 (f). Coordinate i
Represents the C of the pixel. Further, W1 and W2 are weighting factors, and W1 + W2 = 1. As in Expression (7), Expression (8), or Expression (9), calculation is performed using pixel values in the vicinity of the pixel corresponding to the position C of the image shown in FIG. Become. That is, the formula (7) is for the case of using the pixel value of the C on the left side, the formula (8) is for using the pixel value of the C of the right side, and the formula (9) is for using the average pixel value of the C on both sides. is there.

【0067】YUV4:1:1フォーマットの場合はも
ともとCの情報が少なく、水平方向に1/2に間引くと
情報量がさらに少なくなるので、間引いた後の画像が図
2(e)に示す画像の場合でも、Cに関してはサンプリ
ング前の近傍画素の重み付和等を計算した方が画質はよ
くなる。
In the case of the YUV 4: 1: 1 format, the amount of information of C is originally small, and the amount of information is further reduced by thinning out to 1/2 in the horizontal direction. Therefore, the image after thinning is the image shown in FIG. 2 (e). Even in the case of C, the image quality is better when the weighted sum of neighboring pixels before sampling is calculated for C.

【0068】2台のカメラ101aおよび101bで撮
影した画像を、各々左眼用画像と右眼用画像とに変換す
るために、図2(e)および図2(f)に示す画像のい
ずれを選択するかについては、ユーザが状況に応じて選
択する。そして、いずれを選択したかを示すフラグが多
重化部105に出力される。多重化部105は、このフ
ラグを制御情報として左眼用画像の符号化データおよび
右眼用画像の符号化データに多重化する。
In order to convert the images photographed by the two cameras 101a and 101b into a left-eye image and a right-eye image, respectively, one of the images shown in FIGS. 2 (e) and 2 (f) is used. The user makes a selection depending on the situation. Then, a flag indicating which is selected is output to multiplexing section 105. The multiplexing unit 105 multiplexes this flag into the coded data of the left-eye image and the coded data of the right-eye image as control information.

【0069】光軸を並行にして撮影する場合には、左眼
用画像として図2(e)に示す画像、右眼用画像として
図2(f)に示す画像を選択すると、高い精度の画像が
得られる。また、左眼用画像および右眼用画像とも、図
2(e)に示す画像を選択すると、処理が簡単である。
このように、ユーザがその都度、状況にあった画像を選
択するようにすればよい。
When the optical axes are taken in parallel, if the image shown in FIG. 2 (e) is selected as the image for the left eye and the image shown in FIG. 2 (f) is selected as the image for the right eye, a highly accurate image is obtained. Is obtained. Further, for both the left-eye image and the right-eye image, selecting the image shown in FIG. 2 (e) simplifies the processing.
In this way, the user may select the image suitable for the situation each time.

【0070】以上説明したように、本実施の形態におけ
る立体画像装置においては、カメラ101aおよび10
1bが撮影した画像がYUV4:1:1フォーマットの
場合に、左眼用画像作成部102および右眼用画像作成
部103が左眼用画像および右眼用画像を作成するとき
に、間引き処理を行なって作成される画像の色情報の位
置に合わせて色情報を計算するようにしたので、精度の
高い立体画像を作成することが可能となった。
As described above, in the stereoscopic image device according to this embodiment, the cameras 101a and 10a are provided.
When the image captured by 1b is in the YUV 4: 1: 1 format, the thinning process is performed when the left-eye image creating unit 102 and the right-eye image creating unit 103 create the left-eye image and the right-eye image. Since the color information is calculated according to the position of the color information of the image that is created in-line, it is possible to create a highly accurate stereoscopic image.

【0071】また、画像がどのYUVフォーマットに相
当するかを示す情報およびどの位置の画素を符号化した
かを示す情報を含んだ制御情報を、左眼用画像の符号化
データおよび右眼用画像の符号化データに多重化するよ
うにしたので、立体画像用データ表示部112が立体画
像を表示するときに、どの組合わせの画像が立体に見え
やすいか等をユーザが決定する際の利便性を向上させる
ことが可能となった。また、どの組合せが立体に見えや
すいかの情報を立体画像用データ作成部111にフィー
ドバックすることによって、左眼用画像作成部102お
よび右眼用画像作成部103における左眼用画像および
右眼用画像の選択を容易に行なうことが可能となる等、
第1の実施の形態において説明した効果と同様の効果を
得ることが可能となった。
Further, the control information including the information indicating which YUV format the image corresponds to and the information indicating at which position the pixel has been encoded are the encoded data of the image for the left eye and the image for the right eye. Therefore, when the stereoscopic image data display unit 112 displays a stereoscopic image, it is convenient for the user to determine which combination of images is more likely to be stereoscopically viewed. It has become possible to improve. In addition, by feeding back to the stereoscopic image data creation unit 111 information indicating which combination is likely to look stereoscopic, the left-eye image and the right-eye image in the left-eye image creation unit 102 and the right-eye image creation unit 103 are displayed. It becomes easy to select images, etc.
It is possible to obtain the same effect as the effect described in the first embodiment.

【0072】(第3の実施の形態)本発明の第3の実施
の形態における立体画像装置の概略構成は、図1に示す
第1の実施の形態における立体画像装置の概略構成と同
様である。したがって、重複する構成および機能の詳細
な説明は繰返さない。
(Third Embodiment) The schematic configuration of the stereoscopic image device according to the third embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. . Therefore, detailed description of overlapping configurations and functions will not be repeated.

【0073】本実施の形態において、カメラ101aお
よび101bが、YUV4:2:0(MPEG−1用)
フォーマットのデータを出力する場合のものである。左
眼用画像作成部102および右眼用画像作成部103
は、図3(b)に示す画像データが入力されると、この
画像データに対して水平方向に1/2の間引きを行な
う。間引きを行なった後の画像データもYUV4:2:
0フォーマットである場合には、図3(c)または図3
(d)に示すものとなる。
In this embodiment, the cameras 101a and 101b are YUV 4: 2: 0 (for MPEG-1).
This is for outputting format data. Left eye image creation unit 102 and right eye image creation unit 103
When the image data shown in FIG. 3B is input, the image data is thinned out to 1/2 in the horizontal direction. The image data after thinning is also YUV 4: 2:
In case of 0 format, the format shown in FIG.
It becomes what is shown in (d).

【0074】また、間引いた後の画像として、図3
(c)および図3(d)のいずれに示す画像を使う場合
にも、Yはサンプリング前の同じ位置のデータをそのま
ま使えばよい。しかし、Cに関してはサンプリング前後
で位置が異なり、サンプリング前の同じ位置のデータが
存在しない。
As an image after thinning, FIG.
When using the image shown in either (c) or FIG. 3 (d), the data at the same position before sampling may be used as Y as it is. However, the position of C differs before and after sampling, and there is no data at the same position before sampling.

【0075】したがって、図3(c)に示す画像のC
は、サンプリング前のC(0_1)、C(2_3)、C
(4_5)、C(6_7)、C(8_9)…からC
(1)、C(5)、C(9)…を計算する必要がある。
ここで、C(i_(i+1))は座標iと座標(i+
1)の中間位置を意味する。
Therefore, C of the image shown in FIG.
Is C (0_1), C (2_3), C before sampling
From (4_5), C (6_7), C (8_9) ... to C
(1), C (5), C (9) ... need to be calculated.
Here, C (i_ (i + 1)) is the coordinate i and the coordinate (i +
It means the intermediate position of 1).

【0076】たとえば、図3(b)に示す画像のCをC
bと表し、図3(c)に示す画像のCをCcと表すと、
CbとCcとの関係は次に示す式(10)〜(12)の
いずれかとなる。
For example, C in the image shown in FIG.
When represented by b and C of the image shown in FIG. 3C is represented by Cc,
The relationship between Cb and Cc is one of the following expressions (10) to (12).

【0077】 Cc(i*4+1)=Cb((i*4)_(i*4+1))…(10) Cc(i*4+1)=Cb((i*4+2)_(i*4+3))…(11) Cc(i*4+1)=Cb((i*4)_(i*4+1))*W1+Cb( (i*4+2)_(i*4+3))*W2 …(12) ここで、Cc(i)は図3(c)の座標iのCを表して
いる。また、W1およびW2は重み係数であり、W1+
W2=1である。
Cc (i * 4 + 1) = Cb ((i * 4) _ (i * 4 + 1)) ... (10) Cc (i * 4 + 1) = Cb ((i * 4 + 2) _ (i * 4 + 3)) ... (11) Cc (i * 4 + 1) = Cb ((i * 4) _ (i * 4 + 1)) * W1 + Cb ((i * 4 + 2) _ (i * 4 + 3)) * W2 (12) where Cc ( i) represents C at the coordinate i in FIG. W1 and W2 are weighting factors, and W1 +
W2 = 1.

【0078】また、図3(d)に示す画像のCは、サン
プリング前のC(0_1)、C(2_3)、C(4_
5)、C(6_7)、C(8_9)…からC(2)、C
(6)、C(10)…を計算する必要がある。
C of the image shown in FIG. 3D is C (0_1), C (2_3), C (4_) before sampling.
5), C (6_7), C (8_9) ... to C (2), C
(6), C (10) ... need to be calculated.

【0079】たとえば、図3(b)に示す画像のCをC
bと表し、図3(d)に示す画像のCをCdと表すと、
CbとCdとの関係は次に示す式(13)〜(15)の
いずれかとなる。
For example, C in the image shown in FIG.
3b and C of the image shown in FIG. 3D is represented as Cd,
The relationship between Cb and Cd is one of the following expressions (13) to (15).

【0080】 Cd(i*4+2)=Cb((i*4)_(i*4+1)) …(13) Cd(i*4+2)=Cb((i*4+2)_(i*4+3))…(14) Cd(i*4+2)=Cb((i*4)_(i*4+1))*W1+Cb( (i*4+2)_(i*4+3))*W2 …(15) ここで、Cd(i)は図3(d)の座標iのCを表して
いる。W1およびW2は重み係数であり、W1+W2=
1である。
Cd (i * 4 + 2) = Cb ((i * 4) _ (i * 4 + 1)) (13) Cd (i * 4 + 2) = Cb ((i * 4 + 2) _ (i * 4 + 3)) ... (14) Cd (i * 4 + 2) = Cb ((i * 4) _ (i * 4 + 1)) * W1 + Cb ((i * 4 + 2) _ (i * 4 + 3)) * W2 (15) where Cd ( i) represents C at the coordinate i in FIG. W1 and W2 are weighting factors, and W1 + W2 =
It is 1.

【0081】式(10)〜(15)に示すように、図3
(b)のCの位置に対応する画素の、サンプリング前の
近傍の画素値を使って計算することになる。すなわち、
式(10)および式(13)は左隣のCの画素値を用い
る場合、式(11)および式(14)は右隣のCの画素
値を用いる場合、式(12)および式(15)は両隣の
Cの平均画素値を用いる場合である。
As shown in equations (10) to (15), FIG.
The calculation is performed by using the pixel value of the pixel corresponding to the position C in (b) before sampling. That is,
Equations (10) and (13) use the pixel value of C on the left side, and equations (11) and (14) use the pixel value of C on the right side of equations (12) and (15). ) Is a case where the average pixel value of C on both sides is used.

【0082】2台のカメラ101aおよび101bで撮
影した画像を、各々左眼用画像と右眼用画像とに変換す
るために、図3(c)および図3(d)に示す画像のい
ずれを選択するかについては、ユーザが状況に応じて選
択する。そして、いずれを選択したかを示すフラグが多
重化部105に出力される。多重化部105は、このフ
ラグを制御情報として左眼用画像の符号化データおよび
右眼用画像の符号化データに多重化する。
In order to convert the images captured by the two cameras 101a and 101b into a left-eye image and a right-eye image, respectively, one of the images shown in FIGS. 3 (c) and 3 (d) is used. The user makes a selection depending on the situation. Then, a flag indicating which is selected is output to multiplexing section 105. The multiplexing unit 105 multiplexes this flag into the coded data of the left-eye image and the coded data of the right-eye image as control information.

【0083】光軸を並行にして撮影する場合には、左眼
用画像として図3(c)に示す画像、右眼用画像として
図3(d)に示す画像を選択すると、高い精度の画像が
得られる。また、左眼用画像および右眼用画像とも、図
3(c)を選択すると、処理が簡単である。このよう
に、ユーザがその都度、状況にあった画像を選択するよ
うにすればよい。
In the case where the optical axes are taken in parallel, if the image shown in FIG. 3 (c) is selected as the image for the left eye and the image shown in FIG. 3 (d) is selected as the image for the right eye, a highly accurate image is obtained. Is obtained. Further, for both the left-eye image and the right-eye image, the process is easy if FIG. 3C is selected. In this way, the user may select the image suitable for the situation each time.

【0084】以上説明したように、本実施の形態におけ
る立体画像装置においては、カメラ101aおよび10
1bが撮影した画像がYUV4:2:0(MPEG−1
用)フォーマットの場合に、左眼用画像作成部102お
よび右眼用画像作成部103が左眼用画像および右眼用
画像を作成するときに、間引き処理を行なって作成され
る画像の色情報の位置に合わせて色情報を計算するよう
にしたので、精度の高い立体画像を作成することが可能
となった。
As described above, in the stereoscopic image device according to the present embodiment, the cameras 101a and 10a are provided.
The image captured by 1b is YUV 4: 2: 0 (MPEG-1
(For use) format, when the left-eye image creating unit 102 and the right-eye image creating unit 103 create the left-eye image and the right-eye image, the color information of the image created by performing the thinning-out process. Since the color information is calculated according to the position of, it becomes possible to create a highly accurate stereoscopic image.

【0085】また、画像がどのYUVフォーマットに相
当するかを示す情報およびどの位置の画素を符号化した
かを示す情報を含んだ制御情報を、左眼用画像の符号化
データおよび右眼用画像の符号化データに多重化するよ
うにしたので、立体画像用データ表示部112が立体画
像を表示するときに、どの組合わせの画像が立体に見え
やすいか等をユーザが決定する際の利便性を向上させる
ことが可能となった。また、どの組合せが立体に見えや
すいかの情報を立体画像用データ作成部111にフィー
ドバックすることによって、左眼用画像作成部102お
よび右眼用画像作成部103における左眼用画像および
右眼用画像の選択を容易に行なうことが可能となる等、
第1の実施の形態において説明した効果と同様の効果を
得ることが可能となった。
Further, the control information including the information indicating which YUV format the image corresponds to and the information indicating at which position the pixel is coded are the coded data of the left eye image and the right eye image. Therefore, when the stereoscopic image data display unit 112 displays a stereoscopic image, it is convenient for the user to determine which combination of images is more likely to be stereoscopically viewed. It has become possible to improve. In addition, by feeding back to the stereoscopic image data creation unit 111 information indicating which combination is likely to look stereoscopic, the left-eye image and the right-eye image in the left-eye image creation unit 102 and the right-eye image creation unit 103 are displayed. It becomes easy to select images, etc.
It is possible to obtain the same effect as the effect described in the first embodiment.

【0086】なお、本発明の第1の実施の形態から第3
の実施の形態を通じて、立体画像用データ作成部111
と立体画像用データ表示部112とで通信をする場合
は、左眼用画像と右眼用画像との組合せを立体画像用デ
ータ作成部111で変更して、立体画像用データ表示部
112で最も立体に見えやすい組合せがわかった時点
で、その組合わせを立体画像用データ表示部112から
フィードバックしてもらい、いずれを選択したかを示す
フラグを多重化部105で多重化してもよい。
Incidentally, the first to third embodiments of the present invention
Through the embodiment of FIG.
When communicating between the stereoscopic image data display unit 112 and the stereoscopic image data display unit 112, the combination of the left-eye image and the right-eye image is changed by the stereoscopic image data creation unit 111 so that the stereoscopic image data display unit 112 selects the most. When a combination that makes it easy to see a stereoscopic image is found, the combination may be fed back from the stereoscopic image data display unit 112, and a flag indicating which one has been selected may be multiplexed by the multiplexing unit 105.

【0087】(第4の実施の形態)本発明の第4の実施
の形態における立体画像装置の概略構成は、図1に示す
第1の実施の形態における立体画像装置の概略構成と同
様である。したがって、重複する構成および機能の詳細
な説明は繰返さない。
(Fourth Embodiment) The schematic configuration of the stereoscopic image device according to the fourth embodiment of the present invention is the same as the schematic configuration of the stereoscopic image device according to the first embodiment shown in FIG. . Therefore, detailed description of overlapping configurations and functions will not be repeated.

【0088】本実施の形態においては、表示部110が
レンチキュラ方式やパララクスバリア方式に対応してい
る場合のものである。デコーダ107aおよび107b
から図2(b)に示すYUV4:2:2フォーマットの
画像データが出力され、フォーマット変換部108aお
よび108bがその画像データを、YUV4:4:4フ
ォーマットの画像データに拡張する。
In the present embodiment, the display section 110 is compatible with the lenticular system and the parallax barrier system. Decoders 107a and 107b
2B output image data in YUV 4: 2: 2 format, and the format conversion units 108a and 108b expand the image data to image data in YUV 4: 4: 4 format.

【0089】図4は、第4の実施の形態におけるフォー
マット変換部108aおよび108bの補間処理を説明
するための図である。図4(a)に示すように、デコー
ダ107aおよび107bからの出力データは、座標
2、座標6…における画素のCを含まない。図4(c)
は、この画素のCを補間した一例を示している。
FIG. 4 is a diagram for explaining the interpolation processing of the format conversion units 108a and 108b in the fourth embodiment. As shown in FIG. 4A, the output data from the decoders 107a and 107b does not include the C of the pixel at the coordinates 2, 6 ... Figure 4 (c)
Shows an example in which C of this pixel is interpolated.

【0090】たとえば、図4(c)に示す画像のCをC
cと表し、図4(a)に示す画像のCをCaと表すと、
CcとCaとの関係は次に示す式(16)〜(18)の
いずれかとなる。なお、式(16)および式(17)は
近傍の画素値をそのままコピーする場合を示しており、
式(18)は複数の画素値の重み付和を計算する場合を
示している。
For example, C in the image shown in FIG.
c and C of the image shown in FIG. 4A is represented by Ca,
The relationship between Cc and Ca is one of the expressions (16) to (18) shown below. Equations (16) and (17) show the case where neighboring pixel values are copied as they are,
Expression (18) shows a case where a weighted sum of a plurality of pixel values is calculated.

【0091】 Cc(4*i+2)=Ca(4*i) …(16) Cc(4*i+2)=Ca(4*i+4) …(17) Cc(4*i+2)=W1*Ca(4*i)+W2*Ca(4*i+4) …(18) ここで、Cc(i)は図4(c)に示す画像の座標iの
画素のC、Ca(i)は図4(a)に示す画像の座標i
の画素のCを表している。また、W1およびW2は重み
係数であり、W1+W2=1である。
Cc (4 * i + 2) = Ca (4 * i) (16) Cc (4 * i + 2) = Ca (4 * i + 4) (17) Cc (4 * i + 2) = W1 * Ca (4 * i) + W2 * Ca (4 * i + 4) (18) Here, Cc (i) is C of the pixel at the coordinate i of the image shown in FIG. 4 (c), and Ca (i) is shown in FIG. 4 (a). Image coordinate i
Represents the C of the pixel. Further, W1 and W2 are weighting factors, and W1 + W2 = 1.

【0092】また、デコーダ107aおよび107bか
ら図2(c)に示すYUV4:2:2フォーマットの画
像データが出力される場合、式(16)〜式(18)は
以下のようになる。
When the YUV 4: 2: 2 format image data shown in FIG. 2C is output from the decoders 107a and 107b, equations (16) to (18) are as follows.

【0093】 Cd(4*i+3)=Cc(4*i+1) …(19) Cd(4*i+3)=Cc(4*i+5) …(20) Cd(4*i+3)=W1*Cc(4*i+1)+W2*Cc(4*i+5) …(21) ここで、Cd(i)は図4(d)に示す画像の座標iの
画素のC、Cc(i)は図2(c)に示す画像の座標i
の画素のCを表している。また、W1およびW2は重み
係数であり、W1+W2=1である。式(16)および
式(19)は左隣のCの画素値を用いる場合、式(1
7)および式(20)は右隣のCの画素値を用いる場
合、式(18)および式(21)は両隣のCの平均画素
値を用いる場合を示している。
Cd (4 * i + 3) = Cc (4 * i + 1) (19) Cd (4 * i + 3) = Cc (4 * i + 5) (20) Cd (4 * i + 3) = W1 * Cc (4 * i + 1) + W2 * Cc (4 * i + 5) (21) where Cd (i) is C of the pixel at the coordinate i of the image shown in FIG. 4 (d), and Cc (i) is shown in FIG. 2 (c). Image coordinate i
Represents the C of the pixel. Further, W1 and W2 are weighting factors, and W1 + W2 = 1. When using the pixel value of C on the left side of the equations (16) and (19), the equation (1)
7) and equation (20) show the case where the pixel value of C on the right is used, and equations (18) and (21) show the case where the average pixel value of C on both sides is used.

【0094】次に、デコーダ107aおよび107bか
ら図2(e)に示すYUV4:1:1フォーマットの画
像データが出力され、フォーマット変換部108aおよ
び108bがYUV4:4:4フォーマットの画像デー
タに拡張する場合について説明する。
Next, the image data in the YUV 4: 1: 1 format shown in FIG. 2E is output from the decoders 107a and 107b, and the format conversion units 108a and 108b expand the image data in the YUV 4: 4: 4 format. The case will be described.

【0095】図4(b)に示すように、デコーダ107
aおよび107bの出力データは座標2、座標4、座標
6…における画素のCを含まない。図4(c)は、この
画素のCを補間した一例を示している。
As shown in FIG. 4B, the decoder 107
The output data of a and 107b do not include the C of the pixel at coordinates 2, coordinates 4, coordinates 6 ... FIG. 4C shows an example in which C of this pixel is interpolated.

【0096】たとえば、図4(c)に示す画像のCをC
cと表し、図4(b)に示す画像のCをCbと表すと、
CcとCbとの関係は次に示す式(22)〜式(24)
のいずれかとなる。なお、式(22)および式(23)
は近傍の画素値をそのままコピーする場合を示してお
り、式(24)は複数の画素値の重み付和を計算する場
合を示している。
For example, C in the image shown in FIG.
c and C of the image shown in FIG. 4B is represented as Cb,
The relationship between Cc and Cb is expressed by the following equations (22) to (24).
Will be either. Note that equations (22) and (23)
Shows the case where the neighboring pixel values are copied as they are, and Expression (24) shows the case where the weighted sum of a plurality of pixel values is calculated.

【0097】 Cc(8*i+2*k)=Cb(8*i) …(22) Cc(8*i+2*k)=Cb(8*i+8) …(23) Cc(8*i+2*k)=W1*Cb(8*i)+W2*Cb(8*i+8) …(24) ここで、Cc(i)は図4(c)に示す画像の座標iの
画素のC、Cb(i)は図4(b)に示す画像の座標i
の画素のCを表している。また、W1およびW2は重み
係数であり、W1+W2=1、k=1、2、3である。
Cc (8 * i + 2 * k) = Cb (8 * i) (22) Cc (8 * i + 2 * k) = Cb (8 * i + 8) (23) Cc (8 * i + 2 * k) = W1 * Cb (8 * i) + W2 * Cb (8 * i + 8) (24) Here, Cc (i) is the pixel C at the coordinate i of the image shown in FIG. 4C, and Cb (i) is the figure. Coordinate i of the image shown in FIG.
Represents the C of the pixel. Further, W1 and W2 are weighting coefficients, and W1 + W2 = 1 and k = 1, 2, and 3.

【0098】また、デコーダ107aおよび107bか
ら図2(f)に示すYUV4:1:1フォーマットの画
像データが出力される場合、式(22)〜式(24)は
以下のようになる。
When the YUV 4: 1: 1 format image data shown in FIG. 2 (f) is output from the decoders 107a and 107b, equations (22) to (24) are as follows.

【0099】 Cd(8*i+2*k+1)=Cf(8*i+1) …(25) Cd(8*i+2*k+1)=Cf(8*i+9) …(26) Cd(8*i+2*k+1)=W1*Cf(8*i+1)+W2*Cf( 8*i+9) …(27) ここで、Cd(i)は図4(d)に示す画像の座標iの
画素のC、Cf(i)は図2(f)に示す画像の座標i
の画素のCを表している。また、W1およびW2は重み
係数であり、W1+W2=1、k=1、2、3である。
Cd (8 * i + 2 * k + 1) = Cf (8 * i + 1) (25) Cd (8 * i + 2 * k + 1) = Cf (8 * i + 9) (26) Cd (8 * i + 2 * k + 1) = W1 * Cf (8 * i + 1) + W2 * Cf (8 * i + 9) (27) where Cd (i) is the pixel C at the coordinate i of the image shown in FIG. 4D, and Cf (i) is the figure. Coordinate i of the image shown in 2 (f)
Represents the C of the pixel. Further, W1 and W2 are weighting coefficients, and W1 + W2 = 1 and k = 1, 2, and 3.

【0100】補間画素の計算方法の選び方は、どの計算
方法を選択した時に立体として見えやすいかが判断基準
となる。図1の表示部110の特性に大きく依存する場
合には、立体画像用データ表示部112で一意に決まっ
ていればよい。また、ユーザの個人差に大きく依存する
場合は、立体画像用データ表示部112内でユーザが補
間方法を選択するようにしてもよい。
The method for selecting the interpolation pixel calculation method is based on which calculation method is selected to make it easier to see a stereoscopic image. If the characteristics of the display unit 110 in FIG. 1 are largely dependent, the stereoscopic image data display unit 112 may be uniquely determined. Further, when the user's individual difference greatly depends, the user may select the interpolation method in the stereoscopic image data display unit 112.

【0101】また、最適な補間方法が、立体画像用デー
タ作成部111が作成するデータに依存する場合には、
最適な補間方法を示す情報を多重化部105であらかじ
め多重化しておく。そして、立体画像用データ表示部1
12内の逆多重化部106でこの情報を取り出し、これ
に従ってフォーマット変換部108aおよび108bが
補間方法を選択するようにしてもよい。
When the optimum interpolation method depends on the data created by the stereoscopic image data creation unit 111,
Information indicating the optimum interpolation method is multiplexed in advance by the multiplexing unit 105. Then, the stereoscopic image data display unit 1
The demultiplexing unit 106 in 12 may take out this information, and the format conversion units 108a and 108b may select the interpolation method accordingly.

【0102】合成部109は、YUV4:4:4フォー
マットに変換した画像データを、図4(e)に示すよう
に、左眼用画像と右眼用画像とを1画素列ずつ水平方向
に交互に並べて、表示用の画像を作成する。この表示用
画像を表示部110に表示することで、ユーザは立体画
像を見ることができる。
As shown in FIG. 4 (e), the synthesizing section 109 alternates the image data converted into the YUV 4: 4: 4 format in the horizontal direction with the image for the left eye and the image for the right eye one pixel row at a time. Create an image for display by arranging. By displaying the display image on the display unit 110, the user can see the stereoscopic image.

【0103】以上説明したように、本実施の形態におけ
る立体画像装置においては、フォーマット変換部108
aおよび108bがYUV4:2:2フォーマットの画
像データまたはYUV4:1:1フォーマットの画像デ
ータを補間して、YUV4:4:4フォーマットの画像
データを生成するようにしたので、表示部110がレン
チキュラ方式やパララクスバリア方式に対応している場
合に、精度の高い立体画像を表示することが可能となっ
た。
As described above, in the stereoscopic image device according to this embodiment, the format conversion unit 108
Since a and 108b are adapted to interpolate YUV 4: 2: 2 format image data or YUV 4: 1: 1 format image data to generate YUV 4: 4: 4 format image data, the display unit 110 displays the lenticular. It became possible to display a highly accurate stereoscopic image when the system or the parallax barrier system was supported.

【0104】また、どのように色情報を補間するかを示
す制御情報を、左眼用画像の符号化データおよび右眼用
画像の符号化データに多重化するようにしたので、立体
画像用データ表示部112が立体画像を表示するとき
に、色情報が最適となるように画像を補間することが可
能となった。
Further, since the control information indicating how to interpolate the color information is multiplexed with the coded data of the left-eye image and the coded data of the right-eye image, the stereoscopic image data is obtained. When the display unit 112 displays a stereoscopic image, the image can be interpolated so that the color information becomes optimum.

【0105】(第5の実施の形態)本発明の第5の実施
の形態における立体画像装置の概略構成は、図1に示す
第1の実施の形態における立体画像装置の概略構成と同
様である。したがって、重複する構成および機能の詳細
な説明は繰返さない。
(Fifth Embodiment) A schematic configuration of a stereoscopic image device according to a fifth embodiment of the present invention is similar to that of the stereoscopic image device according to the first embodiment shown in FIG. . Therefore, detailed description of overlapping configurations and functions will not be repeated.

【0106】本実施の形態においては、表示部110が
シャッタ(時分割)方式に対応している場合のものであ
る。
In the present embodiment, the display unit 110 corresponds to the shutter (time division) system.

【0107】図5は、第5の実施の形態におけるフォー
マット変換部108aおよび108bの補間処理を説明
するための図である。図5(d)に示すように、垂直方
向に1ラインずつ左眼用画像と右眼用画像とを交互に並
べるため、デコーダ107aおよび107bの出力デー
タを垂直方向に1/2に間引き、水平方向には2倍に拡
大する(左眼用画像および右眼用画像を作成する前のサ
イズに戻す)ことが必要である。
FIG. 5 is a diagram for explaining the interpolation processing of the format conversion units 108a and 108b in the fifth embodiment. As shown in FIG. 5D, since the left-eye image and the right-eye image are arranged alternately line by line in the vertical direction, the output data of the decoders 107a and 107b are vertically thinned to 1/2 and horizontally output. It is necessary to double the size in the direction (return to the size before the left-eye image and the right-eye image are created).

【0108】したがって、フォーマット変換部108a
および108bは、第4の実施の形態において説明した
のと同様の方法で、YUV4:4:4フォーマットの画
像データとなるようにCを補間する以外に、YUVとも
に垂直方向に1/2に間引き、さらに水平方向に2倍に
拡大する処理が新たに必要である。
Therefore, the format converter 108a
And 108b, in the same manner as described in the fourth embodiment, except that C is interpolated so as to obtain image data of YUV 4: 4: 4 format, and YUV is thinned out to 1/2 in the vertical direction. In addition, a process to double the size in the horizontal direction is newly required.

【0109】図5(a)は、図2(b)または図2
(e)に示す画像データを第4の実施の形態と同様の方
法でYUV4:4:4フォーマットの画像データに変換
した場合を示しており、図4(c)に対応している。ま
た、図5(b)は、図2(c)または図2(f)に示す
画像データを第4の実施の形態と同様の方法でYUV
4:4:4フォーマットの画像データに変換した場合を
示しており、図4(d)に対応している。
FIG. 5 (a) corresponds to FIG. 2 (b) or FIG.
The case where the image data shown in (e) is converted into the image data in the YUV 4: 4: 4 format by the same method as in the fourth embodiment is shown, and corresponds to FIG. 4 (c). Further, in FIG. 5B, the image data shown in FIG. 2C or 2F is subjected to YUV in the same manner as in the fourth embodiment.
It shows a case where the image data is converted into a 4: 4: 4 format image data, and corresponds to FIG.

【0110】ここで、図2(b)および図2(e)は、
左眼用画像作成部102および右眼用画像作成部103
が、偶数番目の画素をサンプリングして作成されたもの
である。また、図2(c)および図2(f)は、左眼用
画像作成部102および右眼用画像作成部103が奇数
番目の画素をサンプリングして作成されたものである。
このいずれのサンプリング方法を選択したかを示すフラ
グが、多重化部105で符号化データの中に多重化され
る。
Here, FIG. 2B and FIG.
Left eye image creation unit 102 and right eye image creation unit 103
Is created by sampling even-numbered pixels. 2C and 2F are created by the left-eye image creating unit 102 and the right-eye image creating unit 103 sampling odd-numbered pixels.
A flag indicating which of the sampling methods has been selected is multiplexed in the encoded data by the multiplexing unit 105.

【0111】そのため、第4の実施の形態においてCが
補間された画素を、フォーマット変換部108aおよび
108bがこのフラグにしたがって配置する。すなわ
ち、図4(c)の場合には図5(a)に示すように各画
素を配置し、図4(d)の場合には図5(b)に示すよ
うに各画素を配置することによって、YおよびCともに
水平方向に補間する画素を計算する。これによって、立
体画像データ作成部111と立体画像データ表示部11
2とで位相がずれるのを防ぐことができる。
Therefore, the pixels in which C is interpolated in the fourth embodiment are arranged by the format conversion units 108a and 108b according to this flag. That is, in the case of FIG. 4C, the pixels are arranged as shown in FIG. 5A, and in the case of FIG. 4D, the pixels are arranged as shown in FIG. 5B. Then, the pixels for which Y and C are interpolated in the horizontal direction are calculated. Accordingly, the stereoscopic image data creation unit 111 and the stereoscopic image data display unit 11
It is possible to prevent the phase difference between 2 and.

【0112】以上は、YUV4:2:2フォーマットま
たはYUV4:1:1フォーマットについての説明であ
ったが、図3(c)および図3(d)に示すようなYU
V4:2:0(MPEG−1用)フォーマットの場合も
同様である。
The above description is for the YUV 4: 2: 2 format or the YUV 4: 1: 1 format, but the YU as shown in FIGS. 3C and 3D is used.
The same applies to the case of the V4: 2: 0 (for MPEG-1) format.

【0113】なお、以上の説明において、まず画像デー
タをYUV4:4:4フォーマットに変換した後、垂直
方向に間引き、水平方向に拡大して左眼用画像および右
眼用画像を作成したが、処理の順番はこれに限らず、例
えば、水平方向に拡大した後、垂直方向の間引きをする
ような順序であってもよい。
In the above description, the image data is first converted to the YUV 4: 4: 4 format, then thinned out in the vertical direction and enlarged in the horizontal direction to create the image for the left eye and the image for the right eye. The order of processing is not limited to this, and for example, the order may be such that horizontal expansion is performed and then vertical thinning is performed.

【0114】合成部110は、このようにして作成され
た画像を図5(d)に示すように、左眼用画像(L)と
右眼用画像(R)とを垂直方向に1ラインずつ交互に配
置して、立体表示用画像を作成する。
As shown in FIG. 5D, the synthesizing unit 110 makes the left-eye image (L) and the right-eye image (R) line by line in the vertical direction, as shown in FIG. 5D. Images are arranged alternately to create a stereoscopic display image.

【0115】以上説明したように、本実施の形態におけ
る立体画像装置においては、フォーマット変換部108
aおよび108bがYUV4:4:4フォーマットの画
像データとなるように補間した後、YUVを垂直方向に
1/2に間引き、さらに水平方向に2倍に拡大するよう
にしたので、表示部110がシャッタ(時分割)方式に
対応している場合に、精度の高い立体画像を表示するこ
とが可能となった。
As described above, in the stereoscopic image device according to this embodiment, the format conversion section 108 is used.
Since a and 108b are interpolated so as to be image data of YUV 4: 4: 4 format, YUV is decimated to 1/2 in the vertical direction and further doubled in the horizontal direction. It becomes possible to display a highly accurate stereoscopic image when the shutter (time division) system is supported.

【0116】また、サンプリングした画素の位置を示す
制御情報を、左眼用画像の符号化データおよび右眼用画
像の符号化データに多重化するようにしたので、立体画
像用データ表示部112が立体画像を表示するときに、
色情報が最適となるように画像を補間することができる
とともに、立体画像データ作成部111と立体画像デー
タ表示部112とで位相がずれるのを防止することが可
能となった。
Since the control information indicating the positions of the sampled pixels is multiplexed with the coded data of the left-eye image and the coded data of the right-eye image, the stereoscopic image data display unit 112 is When displaying a stereoscopic image,
It is possible to interpolate the image so that the color information is optimum and prevent the stereoscopic image data creation unit 111 and the stereoscopic image data display unit 112 from being out of phase.

【0117】なお、以上の実施の形態においては、2眼
視の場合について説明したが、これに限らずN眼視(N
≧2)の場合にも同様である。
In the above embodiments, the case of binocular vision has been described, but the present invention is not limited to this, and the N-eye vision (N
The same applies to the case of ≧ 2).

【0118】今回開示された実施の形態は、すべての点
で例示であって制限的なものではないと考えられるべき
である。本発明の範囲は上記した説明ではなくて特許請
求の範囲によって示され、特許請求の範囲と均等の意味
および範囲内でのすべての変更が含まれることが意図さ
れる。
The embodiments disclosed this time must be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

【0119】[0119]

【発明の効果】本発明のある局面によれば、サンプリン
グされた画素の位置に応じて色情報の計算方法を変更
し、画素の色情報が計算されるので、精度の高い立体画
像用データを作成することが可能となった。
According to one aspect of the present invention, since the color information calculation method is changed according to the position of the sampled pixel to calculate the pixel color information, highly accurate stereoscopic image data can be obtained. It is now possible to create.

【0120】また、符号化された左眼用画像および右眼
用画像と、所定フォーマットに関する情報とが多重化さ
れるので、立体画像表示装置に立体画像を表示させるこ
とによって、ユーザはどのフォーマットで作成された立
体画像が立体に見えやすいか等を容易に判断することが
可能となった。
Further, since the encoded left-eye image and right-eye image are multiplexed with the information regarding the predetermined format, the user can select which format by displaying the stereoscopic image on the stereoscopic image display device. It has become possible to easily judge whether the created stereoscopic image looks stereoscopic.

【0121】また、符号化された左眼用画像および右眼
用画像と、色情報の計算方法に関する情報とが多重化さ
れるので、立体画像表示装置に立体画像を表示させるこ
とによって、ユーザはどの計算方法で色情報が作成され
た立体画像が立体に見えやすいか等を容易に判断するこ
とが可能となった。
Since the encoded left-eye image and right-eye image and the information regarding the color information calculation method are multiplexed, the user can display the stereoscopic image on the stereoscopic image display device. It has become possible to easily judge by which calculation method the stereoscopic image in which the color information is created is likely to be stereoscopic.

【0122】また、符号化された左眼用画像および右眼
用画像と、左眼用画像および右眼用画像の色情報の補間
方法に関する情報とが多重化されるので、立体画像表示
装置が色情報の補間方法に関する情報を抽出することに
よって、色情報が最適となるように立体画像用データを
補間してより立体に見えやすい画像を表示することが可
能となった。
Since the coded left-eye image and right-eye image and the information regarding the interpolation method of the color information of the left-eye image and the right-eye image are multiplexed, the stereoscopic image display device By extracting the information about the interpolation method of the color information, it becomes possible to interpolate the stereoscopic image data so as to optimize the color information and display an image that is more stereoscopically visible.

【0123】また、符号化された左眼用画像および右眼
用画像と、サンプリングした画素の位置に関する情報と
が多重化されるので、立体画像表示装置が画素のサンプ
リングした位置を示す情報に従って画素を配置でき、立
体画像作成装置と立体画像表示装置とで位相のずれを防
ぐことが可能となった。
Further, since the encoded left-eye image and right-eye image and information regarding the positions of the sampled pixels are multiplexed, the three-dimensional image display device displays the pixels according to the information indicating the sampled positions of the pixels. Can be arranged, and it has become possible to prevent a phase shift between the stereoscopic image creating apparatus and the stereoscopic image display apparatus.

【0124】本発明の別の局面によれば、フォーマット
変換手段が、色情報の補間方法を参照して、左眼用画像
および右眼用画像の色情報を補間して所定フォーマット
の画像に変換するので、色情報が最適となるように立体
画像用データを補間してより立体に見えやすい画像を表
示することが可能となった。
According to another aspect of the present invention, the format conversion means refers to the color information interpolation method and interpolates the color information of the left-eye image and the right-eye image to convert it into an image of a predetermined format. Therefore, it becomes possible to interpolate the stereoscopic image data so that the color information becomes optimal and display an image that is more stereoscopically visible.

【0125】本発明のさらに別の局面によれば、フォー
マット変換手段が、サンプリングした画素の位置に関す
る情報を参照して、左眼用画像および右眼用画像を水平
方向に拡大して所定フォーマットの画像に変換するの
で、立体画像作成装置と立体画像表示装置とで位相のず
れを防ぐことが可能となった。
According to still another aspect of the present invention, the format conversion means refers to the information on the positions of the sampled pixels to horizontally expand the image for the left eye and the image for the right eye to obtain a predetermined format. Since the image is converted into an image, it is possible to prevent the phase shift between the stereoscopic image creating device and the stereoscopic image display device.

【図面の簡単な説明】[Brief description of drawings]

【図1】 本発明の第1の実施の形態における立体画像
装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram showing a schematic configuration of a stereoscopic image device according to a first embodiment of the present invention.

【図2】 YUV4:2:2フォーマットおよびYUV
4:1:1フォーマットの一例を示す図である。
FIG. 2: YUV 4: 2: 2 format and YUV
It is a figure which shows an example of a 4: 1: 1 format.

【図3】 YUV4:2:0フォーマットの一例を示す
図である。
FIG. 3 is a diagram showing an example of a YUV 4: 2: 0 format.

【図4】 第4の実施の形態におけるフォーマット変換
部108aおよび108bの補間処理を説明するための
図である。
FIG. 4 is a diagram for explaining an interpolation process of format conversion units 108a and 108b in the fourth embodiment.

【図5】 第5の実施の形態におけるフォーマット変換
部108aおよび108bの補間処理を説明するための
図である。
FIG. 5 is a diagram for explaining an interpolation process of format conversion units 108a and 108b in the fifth embodiment.

【図6】 従来の立体画像装置における画像データの作
成方法を説明するための図である。
FIG. 6 is a diagram for explaining a method of creating image data in a conventional stereoscopic image device.

【符号の説明】[Explanation of symbols]

101a,101b カメラ、102 左眼用画像作成
部、103 右眼用画像作成部、104a,104b
エンコーダ、105 多重化部、106 逆多重化部、
107a,107b デコーダ、108a,108b
フォーマット変換部、109 合成部、110 表示
部、111 立体画像用データ作成部、112 立体画
像用データ表示部。
101a, 101b camera, 102 left-eye image creating unit, 103 right-eye image creating unit, 104a, 104b
Encoder, 105 multiplexer, 106 demultiplexer,
107a, 107b Decoders, 108a, 108b
Format conversion unit, 109 composition unit, 110 display unit, 111 stereoscopic image data creation unit, 112 stereoscopic image data display unit.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 堅田 裕之 大阪府大阪市阿倍野区長池町22番22号 シ ャープ株式会社内 Fターム(参考) 2H059 AA07 AA18 AA35 AA38 5C061 AB04 AB08 AB12 AB17    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Hiroyuki Katata             22-22 Nagaikecho, Abeno-ku, Osaka-shi, Osaka             Inside the company F term (reference) 2H059 AA07 AA18 AA35 AA38                 5C061 AB04 AB08 AB12 AB17

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 輝度情報と色情報とが分離された入力画
像から立体画像用データを作成する立体画像作成装置で
あって、 左眼用画像を作成するための左眼用画像作成手段と、 右眼用画像を作成するための右眼用画像作成手段と、 前記左眼用画像作成手段によって作成された左眼用画像
および前記右眼用画像作成手段によって作成された右眼
用画像を符号化するための符号化手段と、 前記符号化手段によって符号化された左眼用画像および
右眼用画像を多重化するための多重化手段とを含み、 前記左眼用画像作成手段および前記右眼用画像作成手段
は、入力画像を水平方向に間引きながら画素をサンプリ
ングし、該サンプリングされた画素の位置に応じて色情
報の計算方法を変更し、当該画素の色情報を計算して所
定フォーマットの画像を作成する、立体画像作成装置。
1. A stereoscopic image creating apparatus for creating stereoscopic image data from an input image in which luminance information and color information are separated, and left-eye image creating means for creating a left-eye image, A right-eye image creating means for creating a right-eye image, a left-eye image created by the left-eye image creating means, and a right-eye image created by the right-eye image creating means Encoding means for encoding, including a multiplexing means for multiplexing the left-eye image and the right-eye image encoded by the encoding means, the left-eye image creating means and the right The eye image creating unit samples pixels while thinning out the input image in the horizontal direction, changes the color information calculation method according to the positions of the sampled pixels, calculates the color information of the pixels, and then calculates a predetermined format. Image of To, the stereoscopic image generating apparatus.
【請求項2】 前記多重化手段は、前記符号化手段によ
って符号化された左眼用画像および右眼用画像と、前記
所定フォーマットに関する情報とを多重化する、請求項
1記載の立体画像作成装置。
2. The stereoscopic image creation according to claim 1, wherein the multiplexing unit multiplexes the left-eye image and the right-eye image encoded by the encoding unit and the information regarding the predetermined format. apparatus.
【請求項3】 前記多重化手段は、前記符号化手段によ
って符号化された左眼用画像および右眼用画像と、前記
色情報の計算方法に関する情報とを多重化する、請求項
1または2記載の立体画像作成装置。
3. The multiplexing unit multiplexes the left-eye image and the right-eye image encoded by the encoding unit and information regarding a method of calculating the color information. The three-dimensional image creation device described.
【請求項4】 前記多重化手段は、前記符号化手段によ
って符号化された左眼用画像および右眼用画像と、前記
左眼用画像および前記右眼用画像の色情報の補間方法に
関する情報とを多重化する、請求項1記載の立体画像作
成装置。
4. The information relating to the interpolation method of the color information of the left-eye image and the right-eye image, the left-eye image and the right-eye image encoded by the encoding means, and the multiplexing means. The stereoscopic image creating apparatus according to claim 1, wherein the and are multiplexed.
【請求項5】 前記多重化手段は、前記符号化手段によ
って符号化された左眼用画像および右眼用画像と、前記
サンプリングした画素の位置に関する情報とを多重化す
る、請求項1記載の立体画像作成装置。
5. The method according to claim 1, wherein the multiplexing unit multiplexes the left-eye image and the right-eye image encoded by the encoding unit and the information regarding the positions of the sampled pixels. 3D image creation device.
【請求項6】 輝度情報と色情報とが分離された左眼用
画像および右眼用画像を合成して表示する立体画像表示
装置であって、 多重化されたデータを逆多重化して、符号化された左眼
用画像と、符号化された右眼用画像と、左眼用画像およ
び右眼用画像の色情報の補間方法とを抽出するための逆
多重化手段と、 前記逆多重化手段によって抽出された符号化された左眼
用画像および符号化された右眼用画像を復号するための
復号手段と、 前記逆多重化手段によって抽出された前記左眼用画像お
よび前記右眼用画像の色情報の補間方法を参照して、前
記復号手段によって復号された左眼用画像および右眼用
画像の色情報を補間して所定フォーマットの画像に変換
するためのフォーマット変換手段と、 前記フォーマット変換手段によって変換された左眼用画
像および右眼用画像を合成するための合成手段と、 前記合成手段によって合成された画像に応じて立体画像
を表示するための表示手段とを含む、立体画像表示装
置。
6. A stereoscopic image display device for synthesizing and displaying an image for the left eye and an image for the right eye, in which luminance information and color information are separated, wherein the multiplexed data is demultiplexed to obtain a code. Demultiplexing means for extracting the encoded left-eye image, the encoded right-eye image, the interpolation method of the color information of the left-eye image and the right-eye image, and the demultiplexing Decoding means for decoding the encoded left-eye image and the encoded right-eye image extracted by the means, the left-eye image and the right-eye for the demultiplexing means extracted A format conversion unit for interpolating the color information of the left-eye image and the right-eye image decoded by the decoding unit to convert the image into a predetermined format image by referring to an interpolation method of image color information, and Converted by format conversion means Comprising synthesizing means for synthesizing an image and a right-eye image for the left eye, and display means for displaying a stereoscopic image according to the synthesized image by said synthesizing means, three-dimensional image display device.
【請求項7】 輝度情報と色情報とが分離された左眼用
画像および右眼用画像を合成して表示する立体画像表示
装置であって、 多重化されたデータを逆多重化して、符号化された左眼
用画像と、符号化された右眼用画像と、左眼用画像およ
び右眼用画像のサンプリングした画素の位置に関する情
報とを抽出するための逆多重化手段と、 前記逆多重化手段によって抽出された符号化された左眼
用画像および符号化された右眼用画像を復号するための
復号手段と、 前記逆多重化手段によって抽出された前記左眼用画像お
よび前記右眼用画像のサンプリングした画素の位置に関
する情報を参照して、前記復号手段によって復号された
左眼用画像および右眼用画像を水平方向に拡大して所定
フォーマットの画像に変換するためのフォーマット変換
手段と、 前記フォーマット変換手段によって変換された左眼用画
像および右眼用画像を合成するための合成手段と、 前記合成手段によって合成された画像に応じて立体画像
を表示するための表示手段とを含む、立体画像表示装
置。
7. A stereoscopic image display device for synthesizing and displaying a left-eye image and a right-eye image in which luminance information and color information are separated, wherein the multiplexed data is demultiplexed to obtain a code. Demultiplexing means for extracting the encoded left-eye image, the encoded right-eye image, and information regarding the positions of the sampled pixels of the left-eye image and the right-eye image, the inverse Decoding means for decoding the encoded left-eye image and the encoded right-eye image extracted by the multiplexing means, the left-eye image and the right extracted by the demultiplexing means A format conversion for horizontally enlarging the left-eye image and the right-eye image decoded by the decoding means and converting them into an image of a predetermined format with reference to information on the positions of sampled pixels of the eye image means A combining unit for combining the left-eye image and the right-eye image converted by the format converting unit, and a display unit for displaying a stereoscopic image according to the image combined by the combining unit. Including a stereoscopic image display device.
【請求項8】 輝度情報と色情報とが分離された入力画
像から立体画像用データを作成する立体画像作成方法で
あって、 左眼用画像を作成するステップと、 右眼用画像を作成するステップと、 前記作成された左眼用画像および右眼用画像を符号化す
るステップと、 前記符号化された左眼用画像および右眼用画像を多重化
するステップとを含み、 前記左眼用画像を作成するステップおよび前記右眼用画
像を作成するステップは、入力画像を水平方向に間引き
ながら画素をサンプリングし、該サンプリングされた画
素の位置に応じて色情報の計算方法を変更し、当該画素
の色情報を計算して所定フォーマットの画像を作成する
ステップを含む、立体画像作成方法。
8. A stereoscopic image creating method for creating stereoscopic image data from an input image in which luminance information and color information are separated, the step of creating an image for the left eye and an image for the right eye. Step, including a step of encoding the created left-eye image and right-eye image, including a step of multiplexing the encoded left-eye image and right-eye image, the left eye In the step of creating an image and the step of creating the image for the right eye, pixels are sampled while the input image is thinned out in the horizontal direction, and the calculation method of color information is changed according to the position of the sampled pixel. A stereoscopic image creating method, comprising: calculating color information of pixels to create an image in a predetermined format.
【請求項9】 輝度情報と色情報とが分離された左眼用
画像および右眼用画像を合成して表示する立体画像表示
方法であって、 多重化されたデータを逆多重化して、符号化された左眼
用画像と、符号化された右眼用画像と、前記左眼用画像
および前記右眼用画像の色情報の補間方法とを抽出する
ステップと、 前記抽出された符号化された左眼用画像および符号化さ
れた右眼用画像を復号するステップと、 前記抽出された左眼用画像および右眼用画像の色情報の
補間方法を参照して、前記復号された左眼用画像および
右眼用画像の色情報を補間して所定フォーマットの画像
に変換するステップと、 前記所定フォーマットに変換された左眼用画像および右
眼用画像を合成するステップと、 前記合成された画像に応じて立体画像を表示するステッ
プとを含む、立体画像表示方法。
9. A stereoscopic image display method for synthesizing and displaying an image for the left eye and an image for the right eye, in which luminance information and color information are separated, wherein the multiplexed data is demultiplexed to obtain a code. Image for the left eye, the image for the right eye that has been encoded, a step of extracting the interpolation method of the color information of the image for the left eye and the image for the right eye, the extracted encoded And a step of decoding the left eye image and the encoded right eye image, with reference to the interpolation method of the color information of the extracted left eye image and right eye image, the decoded left eye For interpolating color information of the image for right eye and the image for right eye to convert the image into an image of a predetermined format, a step of combining the left eye image and the right eye image converted to the predetermined format, A step to display a stereoscopic image according to the image. Including the door, three-dimensional image display method.
【請求項10】 輝度情報と色情報とが分離された左眼
用画像および右眼用画像を合成して表示する立体画像表
示方法であって、 多重化されたデータを逆多重化して、符号化された左眼
用画像と、符号化された右眼用画像と、左眼用画像およ
び右眼用画像のサンプリングした画素の位置に関する情
報とを抽出するステップと、 前記抽出された符号化された左眼用画像および符号化さ
れた右眼用画像を復号するステップと、 前記抽出された左眼用画像および右眼用画像のサンプリ
ングした画素の位置に関する情報を参照して、前記復号
された左眼用画像および右眼用画像を水平方向に拡大し
て所定フォーマットの画像に変換するステップと、 前記所定フォーマットに変換された左眼用画像および右
眼用画像を合成するステップと、 前記合成された画像に応じて立体画像を表示するステッ
プとを含む、立体画像表示方法。
10. A stereoscopic image display method for synthesizing and displaying an image for the left eye and an image for the right eye in which luminance information and color information are separated, wherein the multiplexed data is demultiplexed to obtain a code. The image for the left eye that has been encoded, the image for the right eye that has been encoded, a step of extracting information regarding the positions of the sampled pixels of the image for the left eye and the image for the right eye, and the extracted encoded A step of decoding the left-eye image and the encoded right-eye image, and referring to the information regarding the positions of the sampled pixels of the extracted left-eye image and right-eye image, the decoded A step of horizontally expanding the image for the left eye and the image for the right eye to convert the image into a predetermined format image, a step of combining the left eye image and the right eye image converted into the predetermined format, and the combining It It was and displaying a stereoscopic image according to the image, the stereoscopic image display method.
JP2002123952A 2002-04-25 2002-04-25 Stereoscopic image creation device Expired - Fee Related JP4173684B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002123952A JP4173684B2 (en) 2002-04-25 2002-04-25 Stereoscopic image creation device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002123952A JP4173684B2 (en) 2002-04-25 2002-04-25 Stereoscopic image creation device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2007163778A Division JP4657258B2 (en) 2007-06-21 2007-06-21 Stereoscopic image display apparatus and method

Publications (2)

Publication Number Publication Date
JP2003319417A true JP2003319417A (en) 2003-11-07
JP4173684B2 JP4173684B2 (en) 2008-10-29

Family

ID=29539096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002123952A Expired - Fee Related JP4173684B2 (en) 2002-04-25 2002-04-25 Stereoscopic image creation device

Country Status (1)

Country Link
JP (1) JP4173684B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7115320B2 (en) * 2002-03-07 2006-10-03 Toray Industries, Inc. Polyester film and gas-barrier polyester film
JP2008500790A (en) * 2004-05-21 2008-01-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for transmitting / receiving 3D stereoscopic digital broadcast using 3D stereoscopic video additional data
WO2011039920A1 (en) * 2009-09-29 2011-04-07 パナソニック株式会社 Three-dimensional image processing device and control method therefor
JP2011528889A (en) * 2008-07-20 2011-11-24 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Encoder optimization of stereoscopic video distribution system
JP2012049813A (en) * 2010-08-26 2012-03-08 Toshiba Corp Image output device and image output method
CN102478757A (en) * 2010-11-25 2012-05-30 英业达股份有限公司 Stereoscopic image generation device and stereoscopic image generation method
JP2012138856A (en) * 2010-12-27 2012-07-19 Toshiba Corp Video transmitter and three-dimensional video transmission program
KR101483052B1 (en) * 2013-07-11 2015-01-16 연세대학교 산학협력단 Apparatus for coding/decoding 3d video and method thereof
US9066078B2 (en) 2011-10-13 2015-06-23 Samsung Electronics Co., Ltd. Display controller and related method of operation

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7115320B2 (en) * 2002-03-07 2006-10-03 Toray Industries, Inc. Polyester film and gas-barrier polyester film
JP4828535B2 (en) * 2004-05-21 2011-11-30 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for transmitting / receiving 3D stereoscopic digital broadcast using 3D stereoscopic video additional data
JP2008500790A (en) * 2004-05-21 2008-01-10 エレクトロニクス アンド テレコミュニケーションズ リサーチ インスチチュート Apparatus and method for transmitting / receiving 3D stereoscopic digital broadcast using 3D stereoscopic video additional data
US8885721B2 (en) 2008-07-20 2014-11-11 Dolby Laboratories Licensing Corporation Encoder optimization of stereoscopic video delivery systems
JP2011528889A (en) * 2008-07-20 2011-11-24 ドルビー・ラボラトリーズ・ライセンシング・コーポレーション Encoder optimization of stereoscopic video distribution system
CN102342114A (en) * 2009-09-29 2012-02-01 松下电器产业株式会社 Three-demensional image processing apparatus and method of controlling the same
JP2011077729A (en) * 2009-09-29 2011-04-14 Panasonic Corp Three-dimensional image processor and method of controlling the same
US8441527B2 (en) 2009-09-29 2013-05-14 Panasonic Corporation Three-dimensional image processing apparatus and method of controlling the same
WO2011039920A1 (en) * 2009-09-29 2011-04-07 パナソニック株式会社 Three-dimensional image processing device and control method therefor
JP2012049813A (en) * 2010-08-26 2012-03-08 Toshiba Corp Image output device and image output method
US8330799B2 (en) 2010-08-26 2012-12-11 Kabushiki Kaisha Toshiba Image output apparatus and image output method
CN102478757A (en) * 2010-11-25 2012-05-30 英业达股份有限公司 Stereoscopic image generation device and stereoscopic image generation method
JP2012138856A (en) * 2010-12-27 2012-07-19 Toshiba Corp Video transmitter and three-dimensional video transmission program
US9066078B2 (en) 2011-10-13 2015-06-23 Samsung Electronics Co., Ltd. Display controller and related method of operation
KR101483052B1 (en) * 2013-07-11 2015-01-16 연세대학교 산학협력단 Apparatus for coding/decoding 3d video and method thereof

Also Published As

Publication number Publication date
JP4173684B2 (en) 2008-10-29

Similar Documents

Publication Publication Date Title
JP5127633B2 (en) Content playback apparatus and method
JP4126663B2 (en) 3D image visual effect confirmation device and 3D image visual effect confirmation method
US8687043B2 (en) Method of generating stereoscopic image signal and method of scaling the same
US8384766B2 (en) Apparatus for processing a stereoscopic image stream
JP4693900B2 (en) Image processing device
JP5482254B2 (en) Reception device, transmission device, communication system, display control method, program, and data structure
JP6095067B2 (en) Stereoscopic video encoding apparatus, stereoscopic video decoding apparatus, stereoscopic video encoding method, stereoscopic video decoding method, stereoscopic video encoding program, and stereoscopic video decoding program
JP2004274125A (en) Image processing apparatus and method
JP4251864B2 (en) Image data creating apparatus and image data reproducing apparatus for reproducing the data
JP2010273333A (en) Three-dimensional image combining apparatus
JP4252105B2 (en) Image data creation device and image data reproduction device
JP2004264882A (en) Image data generating device and image data reproducing device for reproducing data thereof
TW201251467A (en) Video encoder, video encoding method, video encoding program, video reproduction device, video reproduction method, and video reproduction program
JP4657258B2 (en) Stereoscopic image display apparatus and method
WO2012111755A1 (en) Image processing device and image processing method
JP2004207772A (en) Stereoscopic image display apparatus, recording method, and transmission method
JP4173684B2 (en) Stereoscopic image creation device
KR20110082531A (en) Image processing apparatus and method, and image reproducing apparatus, method and program
JP2005184377A (en) Image conversion apparatus and image recording apparatus using it
JP2003319416A (en) Stereoscopic image encoding device and stereoscopic image decoding device
JP2011077599A (en) Transmitting device, receiving device, communication system, and program
WO2011114745A1 (en) Video playback device
WO2004030377A1 (en) Three-dimensional image display device, recording method, and transmission method
US20110285819A1 (en) Video signal processing apparatus and video signal processing method
KR101107153B1 (en) Video data conversion method and apparatus for 3d tv

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050225

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070507

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071002

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080422

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080529

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20080701

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080805

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110822

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120822

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130822

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees