JP5585266B2 - Image display device, image supply device, and image processing method - Google Patents
Image display device, image supply device, and image processing method Download PDFInfo
- Publication number
- JP5585266B2 JP5585266B2 JP2010164601A JP2010164601A JP5585266B2 JP 5585266 B2 JP5585266 B2 JP 5585266B2 JP 2010164601 A JP2010164601 A JP 2010164601A JP 2010164601 A JP2010164601 A JP 2010164601A JP 5585266 B2 JP5585266 B2 JP 5585266B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- eye
- luminance
- luminance expansion
- expansion processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
Description
本発明は、光源が発した光を変調する変調部を有する画像表示装置、この画像表示装置に画像データを供給する画像供給装置、及び、画像処理方法に関する。 The present invention relates to an image display apparatus having a modulation unit that modulates light emitted from a light source, an image supply apparatus that supplies image data to the image display apparatus, and an image processing method.
従来、画像を立体的に表現することを目的として、入力された右目用画像データと、この左目用画像データとに基づいて、右目用の画像と左目用の画像とをスクリーンに交互に投射する画像表示装置が知られている(例えば、特許文献1参照)。
また、従来、スクリーンに画像を投射する画像表示装置において、スクリーンに投射される画像のダイナミックレンジを拡大しコントラスト感を向上すべく、画像データに対して輝度の伸張処理を施すものが知られている(例えば、特許文献2参照)。
Conventionally, for the purpose of expressing an image three-dimensionally, a right-eye image and a left-eye image are alternately projected on a screen based on the input right-eye image data and the left-eye image data. An image display device is known (see, for example, Patent Document 1).
Conventionally, in an image display device that projects an image on a screen, a device that performs a luminance expansion process on the image data in order to expand the dynamic range of the image projected on the screen and improve the contrast is known. (For example, refer to Patent Document 2).
ここで、特許文献1に係る画像表示装置のように、右目用の画像と左目用の画像とを交互に投射する画像表示装置において、右目用画像データ及び左目用画像データに対して特許文献2のような輝度の伸張処理を実行する場合を想定する。
この場合、右目用画像データ、及び、この右目用画像データに対応する左目用画像データは、画像を立体的に表現すべく、右目と左目との視差を反映して生成されたデータである、という特徴を踏まえて、効果的に輝度伸張処理を施したいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、右目用画像データと左目用画像データとの間における視差を踏まえて、これら画像データに効果的に輝度伸張処理を施すことを目的とする。
Here, in an image display device that alternately projects an image for the right eye and an image for the left eye, such as the image display device according to
In this case, the image data for the right eye and the image data for the left eye corresponding to the image data for the right eye are data generated by reflecting the parallax between the right eye and the left eye in order to express the image in three dimensions. Based on the above characteristics, there is a need for effective luminance extension processing.
The present invention has been made in view of the above-described circumstances, and an object thereof is to effectively perform luminance expansion processing on image data based on parallax between right-eye image data and left-eye image data. To do.
上記目的を達成するために、本発明は、画像表示装置において、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データに基づき、画像を表示する画像表示部と、を備えることを特徴とする。
この構成によれば、輝度伸張処理部は、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, according to the present invention, in an image display device, an image feature amount related to luminance of image data is calculated based on right-eye image data and left-eye image data constituting stereoscopic image data. A feature amount calculating section; and an expansion coefficient calculating section for calculating an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data based on the image feature amount calculated by the feature amount calculating section. The right-eye image data and the left-eye image data based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit. A luminance expansion processing unit that performs luminance expansion processing; and an image display unit that displays an image based on the right-eye image data and the left-eye image data subjected to the luminance expansion processing; Characterized in that it obtain.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. The processing unit can perform effective luminance expansion processing based on parallax.
ここで、上記発明の画像表示装置であって、前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる画像データを区分して形成された基準領域のそれぞれについて、各前記基準領域における視差を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
この構成によれば、輝度伸張処理部は、右目用画像データ、及び、左目用画像データに対して、従来のように、一様の伸張係数に基づいて、画像データ全体に輝度伸張処理を施すのではなく、画像データを区分して形成された基準領域のそれぞれにおける視差を反映して、各基準領域に対応する画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
Here, in the image display device according to the invention, the luminance expansion processing unit forms image data to be subjected to luminance expansion processing from the right-eye image data and the left-eye image data. For each of the reference areas, the image data corresponding to each reference area is subjected to luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit using the parallax in each reference area. Also good.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on the entire image data based on the uniform expansion coefficient, as in the past, for the right-eye image data and the left-eye image data. Instead of reflecting the parallax in each of the reference areas formed by dividing the image data, and applying the luminance expansion processing to the image data corresponding to each reference area, the luminance expansion processing unit takes into account the parallax It is possible to perform a typical luminance expansion process.
また、上記発明の画像表示装置であって、前記輝度伸張処理部は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる一方の画像データの前記基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を算出し、算出した視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、「一方の画像データにおける1の基準領域と、他方の画像データにおいて当該1の基準領域に対応する領域との間の離間量」とは、右目用画像データと、左目用画像データとを同一の座標系に展開したときに、1の基準領域と、当該1の基準領域に対応する領域との間の座標上の距離に相当する値のことである。
また、「他方の画像データにおいて当該1の基準領域に対応する領域」とは、他方の画像データにおいて、一方の画像データの基準領域が示す画像の視差が反映された画像が位置する領域、のことである。
一方の画像データを区分して形成された基準領域のうちの1の基準領域、及び、他方の画像データにおいて当該1の基準領域に対応する領域の間における離間量と、当該1の基準領域における視差の大きさには以下のような関係がある。すなわち、右目用画像データ、及び、左目用画像データでは、これら画像データによって表現すべき立体画像に含まれる1のオブジェクトに係る画像について、当該立体画像に対応する仮想空間内で当該1のオブジェクトがより手前側に存在すればするほど(=視差が大きければ大きいほど)、右目用画像データにおける当該オブジェクトを示す領域と、左目用画像データにおける当該オブジェクトを示す領域との離間量が大きくなる。従って、一方の画像データの1の基準領域と、他方の画像データにおいて当該1の基準領域に対応する領域との間の離間量と、当該1の基準領域における視差の大きさとは、正の相関関係があり、離間量が大きいほど、視差が大きい関係にある。なお、上記の説明は、右目用画像データ、及び、左目用画像データによって表現すべき立体画像における仮想空間内で、オブジェクトは、遠近の判断の基準として仮想的に設定される基準面よりも手前側に存在しているものとする。
これを踏まえ、上述した構成によれば、輝度伸張処理部は、上述した離間量と正の相関関係を有する視差値を算出し、算出した視差値を利用して、各基準領域に対応する画像データに対して輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit is configured to each of the reference regions of one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. For the other image data, a separation amount with each of the regions corresponding to the reference region is detected, a disparity value having a positive correlation with the detected separation amount is calculated, and the calculated disparity value is used. The image data corresponding to each reference area may be subjected to luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit.
Here, the “amount of separation between one reference area in one image data and an area corresponding to the one reference area in the other image data” refers to right-eye image data, left-eye image data, and Is a value corresponding to a coordinate distance between one reference area and an area corresponding to the one reference area.
In addition, the “region corresponding to the one reference region in the other image data” is a region in which the image in which the parallax of the image indicated by the reference region of one image data is reflected is located in the other image data. That is.
One reference area of the reference areas formed by dividing one image data, and the distance between areas corresponding to the one reference area in the other image data, and the one reference area The magnitude of parallax has the following relationship. That is, in the image data for the right eye and the image data for the left eye, for the image related to one object included in the stereoscopic image to be expressed by these image data, the one object is in the virtual space corresponding to the stereoscopic image. The closer to the front side (= the larger the parallax), the larger the distance between the region indicating the object in the right-eye image data and the region indicating the object in the left-eye image data. Therefore, the amount of separation between one reference area of one image data and the area corresponding to the one reference area in the other image data and the magnitude of the parallax in the one reference area are positively correlated. There is a relationship, and the larger the separation amount, the larger the parallax. In the above description, the object is in front of the reference plane virtually set as the reference for perspective determination in the virtual space in the stereoscopic image to be represented by the right-eye image data and the left-eye image data. It is assumed to exist on the side.
Based on this, according to the above-described configuration, the luminance expansion processing unit calculates a parallax value having a positive correlation with the above-described separation amount, and uses the calculated parallax value to generate an image corresponding to each reference region. Since the luminance expansion processing is performed on the data, the luminance expansion processing unit can perform effective luminance expansion processing based on parallax.
また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のうち、算出した視差値が所定の閾値を上回っている前記基準領域に対応する画像データに対して、輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データによって表現される立体画像は、背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに対して重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域に係る画像データに対して輝度伸張処理を施すため、輝度伸張処理部により、背景画像ではなく、ある程度の立体感をもって表現されるべき画像に係る画像データに対して重点的に輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the invention, the luminance expansion processing unit includes the reference region in which the calculated parallax value exceeds a predetermined threshold among the reference regions of the image data to be subjected to luminance expansion processing. Luminance expansion processing may be performed on the image data corresponding to.
Here, the stereoscopic image represented by the right-eye image data and the left-eye image data is composed of a background image indicating the background and an image expressed with a certain amount of stereoscopic effect on the background image. There is a case. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform luminance expansion processing on image data related to the above.
Based on this, according to the above configuration, the luminance expansion processing unit has a probability that the parallax value is higher than a predetermined threshold and is an area related to an image that should be expressed with a certain degree of stereoscopic effect rather than an area related to the background image. In order to perform the luminance expansion processing on the image data related to the reference area having a high level, the luminance expansion processing unit emphasizes the luminance on the image data on the image that should be expressed with a certain degree of stereoscopic effect, not on the background image. An expansion process can be performed.
また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、算出した視差値がより大きい前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データにより表現される立体画像では、より手前に存在するように表現されるオブジェクトに係る画像ほど、立体感や迫力が強調された重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、視差値がより大きい基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各基準領域に対応する画像データに輝度伸張処理を施すため、より手前に存在するように表現されるオブジェクトに係る画像の画像データほど、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit increases the luminance of the reference region having a larger calculated parallax value for each of the reference regions of the image data to be subjected to the luminance expansion processing. After correcting the expansion coefficient so as to increase the expansion rate, the image data corresponding to each reference area may be subjected to luminance expansion processing.
Here, in the stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object expressed so as to exist closer to the front is an important image in which the stereoscopic effect and power are emphasized. There is a tendency, and when performing the luminance expansion processing, there is a need to perform the luminance expansion processing on the image data of the image related to such an object based on the expansion coefficient having a higher luminance expansion ratio. .
Based on this, according to the above configuration, the luminance expansion processing unit corrects the expansion coefficient so that the luminance expansion rate becomes higher in the reference region having a larger parallax value, and then the image data corresponding to each reference region. Therefore, the image data of the image related to the object expressed so as to exist in the foreground can be subjected to the luminance expansion processing based on the expansion coefficient having a higher luminance expansion rate.
また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、同程度の視差値を有する前記基準領域の頻度を検出し、より頻度が高い前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データにより表現される立体画像では、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像ほど、当該立体画像において重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、同程度の視差値を有する基準領域の頻度を検出し、頻度が高い基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各基準領域に対応する画像データに輝度伸張処理を施すため、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像の画像データほど、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit detects the frequency of the reference region having a similar parallax value for each of the reference regions of the image data to be subjected to luminance expansion processing. Then, the luminance expansion processing may be performed on the image data corresponding to each reference region after correcting the expansion coefficient so that the higher the frequency of the reference region, the higher the luminance expansion rate.
Here, in the stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object in which there are more objects expressed so that the positions in the depth direction are approximately the same. There is a tendency to be an important image in a stereoscopic image, and when performing luminance expansion processing, luminance expansion processing is performed on image data of an image related to such an object based on an expansion coefficient having a higher luminance expansion rate. There is a need to apply.
Based on this, according to the above configuration, the luminance expansion processing unit detects the frequency of the reference area having the same degree of parallax value, and sets the expansion coefficient so that the higher the frequency of the reference area, the higher the luminance expansion rate. In order to perform luminance expansion processing on the image data corresponding to each reference area after correction, the image data of an image related to an object in which there are more objects expressed so that the positions in the depth direction are approximately the same. Therefore, it is possible to perform the luminance expansion processing based on the expansion coefficient having a higher luminance expansion rate.
また、上記発明の画像表示装置であって、光源が発した光を変調する変調部を備え、前記輝度伸張処理部は、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データを前記変調部に出力し、前記輝度伸張処理部による輝度伸張処理に対応して、前記光源が発した光を調光する調光部を備えてもよい。
この構成によれば、変調部を介して投射される画像について、画像の見かけ上の明るさを維持しつつ、画像のダイナミックレンジを拡大してコントラスト感を向上することができる。
The image display device according to the invention includes a modulation unit that modulates light emitted from a light source, and the luminance expansion processing unit includes the right-eye image data and the left-eye image subjected to the luminance expansion processing. A light control unit may be provided that outputs data to the modulation unit and controls light emitted from the light source in accordance with the luminance expansion processing performed by the luminance expansion processing unit.
According to this configuration, with respect to the image projected via the modulation unit, it is possible to increase the dynamic range of the image and improve the contrast while maintaining the apparent brightness of the image.
また、上記目的を達成するために、本発明は、画像表示装置に画像データを供給する画像供給装置であって、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、を備えることを特徴とする。
この構成によれば、輝度伸張処理部は、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, the present invention provides an image supply device that supplies image data to an image display device, and is based on right-eye image data and left-eye image data constituting stereoscopic image data. A feature amount calculation unit that calculates an image feature amount related to the luminance of the image data, and luminance expansion applied to the right-eye image data and the left-eye image data based on the image feature amount calculated by the feature amount calculation unit A parallax between the right-eye image data and the left-eye image data with respect to the expansion coefficient calculation unit that calculates an expansion coefficient for processing, the right-eye image data, and the left-eye image data; and A luminance expansion processing unit that performs luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. The processing unit can perform effective luminance expansion processing based on parallax.
また、上記目的を達成するために、本発明は、画像処理方法であって、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出し、算出した画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出し、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び算出した伸張係数に基づいて輝度伸張処理を施すことを特徴とする。
この画像処理方法によれば、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, the present invention is an image processing method, which is an image feature related to brightness of image data based on right-eye image data and left-eye image data constituting stereoscopic image data. A right-eye image data, and a left-eye image; a right-eye image data; and a left-eye image; a right-eye image data; and a left-eye image; A luminance expansion process is performed on the data based on a parallax between the right-eye image data and the left-eye image data and a calculated expansion coefficient.
According to this image processing method, luminance expansion processing is performed on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. Thus, it is possible to perform a luminance expansion process.
本発明によれば、右目用画像データと左目用画像との間における視差を踏まえて、これら画像データに効果的に輝度伸張処理を施すことができる。 According to the present invention, it is possible to effectively perform luminance expansion processing on image data based on parallax between the image data for the right eye and the image for the left eye.
<第1実施形態>
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した第1の実施形態に係る画像表示装置1の機能的構成を示す図である。
この図1に示す画像表示装置1は、スクリーン5に3D(立体)映像を投射するプロジェクターであり、光源装置110と、光源装置110が発した光を変調する変調部としてのライトバルブ130と、ライトバルブ130で変調された光を集光及び拡散してスクリーン5に投射する投射光学系140と、を備えて構成される。
画像表示装置1は、右目用の画像と左目用の画像とを交互にスクリーン5に投射することにより、時分割方式で立体画像をスクリーン5に投射する。この投射画像を見る人は、例えば液晶シャッターを備えた眼鏡型のフィルターを装用することで、立体的な画像を見ることができる。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a functional configuration of an
The
The
光源装置110は、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)等の光源を備えている。また、光源装置110は、光源が発した光をライトバルブ130に導くリフレクター及び補助リフレクターを備えていてもよく、光の光学特性を高めるためのレンズ群(図示略)や偏光板等を備えたものであってもよい。
光源装置110は、光源が発した光がライトバルブ130に至る経路上で、光量を減光させる調光素子120を備えている。調光素子120は、例えば、光源装置110が発した光を遮る減光板と、この減光板の位置または角度を所定の減光率に合わせて調整する駆動回路とを備えて構成され、光を遮る位置に減光板を進出させることによって減光する。調光素子120は、減光板に代えて液晶シャッターで構成することも可能であり、この場合、液晶シャッターの全体または一部の透過率を調整することで減光する。
The
The
ライトバルブ130は、RGBの各色に対応した3枚の透過型液晶パネルにより構成され、後述する輝度伸張処理部50により輝度伸張処理が施された画像データを、垂直同期信号(Vsync)に同期して透過型液晶パネル上に描画する。
投射光学系140は、ライトバルブ130で変調されたRGB3色の変調光を合成するプリズム、プリズムで合成された投射画像をスクリーン5に結像させるレンズ群等を備えている。
これら光源装置110、ライトバルブ130、及び投射光学系140を含む画像の表示に係る各構成部は全体として、本発明の画像表示部に相当するが、画像を表示することが可能であれば、その一部または全部を上記のような各種の機能部によって代替できる。
The
The projection
Each component related to image display including the
また、画像表示装置1は、内蔵する記憶装置が記憶する映像ソース(図示略)、または、パーソナルコンピューターや各種映像プレーヤー等の外部の画像供給装置(図示略)から入力される立体映像信号に基づいて画像を投射する。
画像表示装置1は、画像表示装置1全体を制御する制御部10、上記映像ソースまたは外部の画像供給装置から入力される立体映像信号をもとに、右目用画像データと左目用画像データとを交互に出力する画像入力部20、画像入力部20から入力された右目用画像データ及び左目用画像データに基づいて、画像特徴量を求める特徴量算出部30、特徴量算出部30が求めた画像特徴量に基づいて輝度伸張率(伸張係数)を算出する輝度伸張率算出部40(伸張係数算出部)、輝度伸張率算出部40が算出した輝度伸張率に従って輝度伸張処理を施す輝度伸張処理部50、特徴量算出部30が求めた画像特徴量から減光率を算出する減光率算出部60、及び、減光率算出部60が算出した減光率に基づいて調光素子120を駆動して減光させる減光処理部70を備えている。
画像表示装置1は、上記の各機能部によって、投射する画像の適応調光処理を行う。すなわち、光源装置110が発する光を減光するとともに、ライトバルブ130が描画する画像の階調を伸張させる処理を行い、これによりダイナミックレンジの拡大、コントラスト感の向上を図る。
The
The
The
図2は、画像表示装置1の動作を示すフローチャートであり、上述した画像表示装置1の各部により実行される適応調光処理における処理手順を示している。以下、この図2のフローチャートと図1を参照して、適応調光処理の詳細について説明する。
FIG. 2 is a flowchart showing the operation of the
画像入力部20は、フレームパッキング方式や、サイドバイサイド方式、トップアンドボトム方式等の各種の立体映像フォーマットに対応している。画像入力部20は、立体映像信号が入力されると(ステップS11)、入力された立体映像信号から右目用画像データと左目用画像データとをそれぞれ生成し、入力された順に特徴量算出部30及び輝度伸張処理部50へ出力する(ステップS12)。
本実施形態では、画像入力部20によって生成される右目用画像データ、及び、左目用画像データのそれぞれは、ビットマップ形式のデータであり、データ上でドットマトリクス状に配置された各画素について、画素ごとにRGB系の色成分を階調値(例えば、0−255段階の階調値)として保持したものである。
入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、画像入力部20は、入力信号から右目用画像データと左目用画像データとをそれぞれ切り出し、切り出した画像データをライトバルブ130の表示解像度に合わせて伸張する処理を行って、伸張後の画像データを出力する。
ここで、画像入力部20から特徴量算出部30及び輝度伸張処理部50には、右目用画像データと左目用画像データとが、右目用画像データが先になるように、交互に出力される。また、画像入力部20は、出力中の画像データが右目用画像データと左目用画像データのどちらであるかを示すRL識別信号と、右目用画像データと左目用画像データとの各々の垂直同期信号VSyncとを出力する。入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、この入力信号に含まれる垂直同期信号は一つのフレームに一つである。この場合、画像入力部20は、入力信号から右目用画像データと左目用画像データとをそれぞれ切り出すとともに、切り出した右目用画像データと左目用画像データとのそれぞれの描画開始タイミングを示す垂直同期信号VSyncを生成して出力する。
The
In the present embodiment, each of the right-eye image data and the left-eye image data generated by the
When the format of the input stereoscopic video signal is the side-by-side format or the top-and-bottom format, the
Here, the
制御部10は、画像入力部20から入力されるRL識別信号及び垂直同期信号VSyncに基づいて画像表示装置1の各部を制御する。
特徴量算出部30には、画像入力部20が出力する右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとが入力される。特徴量算出部30は、RL識別信号及び垂直同期信号VSyncに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データと左目用画像データとをそれぞれ取得する。そして、特徴量算出部30は、取得した両方の画像データの各々について、画像特徴量を算出する(ステップS13)。特徴量算出部30が算出する画像特徴量は、例えば、画像データ全体の最大輝度値(白ピーク値WP)、輝度値の平均値であるAPL(Average Picture Level)、最小輝度値(黒ピーク値BP)、輝度ヒストグラムである。特徴量算出部30は、算出した画像特徴量を輝度伸張率算出部40及び減光率算出部60に出力する。
The
The feature
図3は、本実施形態における処理対象の画像データの構成を模式的に示す図である。本実施形態では右目用画像データと左目用画像データのサイズ及び解像度は等しいので、右目用画像データも左目用画像データも同様に処理される。
特徴量算出部30は、例えば1920画素×1080画素の処理対象の画像データ(右目用画像データと左目用画像データのいずれか)を、図3に示すように横16個×縦9個の144個の画素ブロック200−1〜200−144に区分する。各画素ブロック200−1〜200−144のサイズは縦120画素、横120画素である。
特徴量算出部30は、画素ブロックを構成する各画素の輝度値を平均した値を当該画素ブロックの代表輝度値として求め、この代表輝度値を画素ブロック毎にRAM等に記憶する。ここで、上述したように、右目用画像データでは、画素ごとにRGBの色成分を階調値として保持しているが、ある1つの画素の輝度は、例えば、RGBの階調値の最大値を採用してもよいし、0.299×R信号値、0.587×G信号値、0.144×B信号値の合計値を採用してもよい。また、代表輝度値は、平均輝度値には限定されず、例えば、各画素ブロックの中央付近の画素の輝度値(代表値)を採用してもよい。特徴量算出部30は、一つの画像データを構成する各画素ブロックの代表輝度値の最大値を、画像データの白ピーク値WPとし、最小値を黒ピーク値BPとし、当該代表輝度値の平均値をAPLとする。また、画像データの各画素ブロックの代表輝度値の分布から輝度ヒストグラムを生成する。
FIG. 3 is a diagram schematically showing a configuration of image data to be processed in the present embodiment. In the present embodiment, since the size and resolution of the right-eye image data and the left-eye image data are the same, both the right-eye image data and the left-eye image data are processed in the same manner.
For example, the feature
The feature
特徴量算出部30は、一つの立体画像を構成する一組の右目用画像データと左目用画像データとの各々について、上記のように画像データの白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムを求め、その後に、右目用画像データと左目用画像データとの代表値を求める(ステップS14)。代表値を決定する方法は、画像特徴量ごとに予め定められている。
(A)白ピーク値の場合
白ピーク値WPの代表値は、右目用画像データの白ピーク値WPと左目用画像データの白ピーク値WPのうち大きい方、すなわち明るい方の値を代表値とする。これを数式で表すと、下記式(1)のようになる。
WP0=Max(WPR、WPL)…(1)
ここで、WP0は白ピーク値の代表値、WPRは右目用画像データの白ピーク値であり、WPLは左目用画像データの白ピーク値である。
これは、調光処理においては、画像データ中で最も輝度の高い部分の輝度を基準とすることが適しているからである。例えば、白ピーク値WPの代表値を暗い方にした場合、右目用画像データ又は左目用画像データにおいて、最も高輝度の部分が輝度伸張により白飛びする可能性がある。
The feature
(A) White peak value The representative value of the white peak value WP is the larger of the white peak value WP of the right eye image data and the white peak value WP of the left eye image data, that is, the brighter value. To do. This can be expressed by the following equation (1).
WP 0 = Max (WP R , WP L ) (1)
Here, WP 0 is the representative value of the white peak value, WP R is the white peak value of the right-eye image data, and WP L is the white peak value of the left-eye image data.
This is because, in the light control processing, it is suitable to use the luminance of the highest luminance portion in the image data as a reference. For example, when the representative value of the white peak value WP is set to the darker side, in the right-eye image data or the left-eye image data, there is a possibility that the highest luminance portion will be blown out by luminance expansion.
(B)APLの場合
APLの代表値は、右目用画像データのAPLと左目用画像データのAPLの平均値とする。これを数式で表すと、下記式(2)のようになる。
APL0=Avg(APLR、APLL)…(2)
ここで、APL0はAPLの代表値、APLRは右目用画像データのAPLであり、APLLは左目用画像データのAPLである。
APLは本質的に輝度の平均値であるため、2つの画像データのAPLもまた平均値を求めることが適している。
(C)黒ピーク値の場合
黒ピーク値BPの代表値は、右目用画像データの黒ピーク値BPと左目用画像データの黒ピーク値BPのうち小さい方、すなわち暗い方の値を代表値とする。これを数式で表すと、下記式(3)のようになる。
BP0=Min(BPR、BPL)…(3)
ここで、BP0は黒ピーク値の代表値、BPRは右目用画像データの黒ピーク値であり、BPLは左目用画像データの黒ピーク値である。
黒ピーク値BPは画像データにおいて最も輝度が小さい部分の輝度であるから、対象となる画像データが2つであれば、これら2つの画像で最も暗い部分の輝度を代表値として採用することが、画像データのコントラストに適した輝度伸張処理を行うことができるため、好適である。
(D)輝度ヒストグラムの場合
輝度ヒストグラムの代表値は、右目用画像データの輝度ヒストグラムと左目用画像データの輝度ヒストグラムの平均を代表値とする。これを数式で表すと、下記式(4)のようになる。
Hist0(X)={HistR(X)+HistL(X)}/2…(4)
ここで、Hist0(X)は輝度ヒストグラムの代表値、HistR(X)は右目用画像データの輝度ヒストグラムを表し、HistL(X)は左目用画像データの輝度ヒストグラムを表す。階調値10bitの画像データの場合、X=0〜1023である。
この式(4)によれば、輝度の各階級の平均値が代表値となる。
(B) In the case of APL The representative value of APL is the average value of the APL of the image data for the right eye and the APL of the image data for the left eye. This is expressed by the following formula (2).
APL 0 = Avg (APL R , APL L ) (2)
Here, APL 0 is the representative value of APL, APL R is the APL of the image data for the right eye, and APL L is the APL of the image data for the left eye.
Since APL is essentially an average value of luminance, it is suitable that the APL of two image data also obtains an average value.
(C) In the case of the black peak value The representative value of the black peak value BP is the smaller of the black peak value BP of the right-eye image data and the black peak value BP of the left-eye image data, that is, the darker value. To do. This is expressed by the following formula (3).
BP 0 = Min (BP R , BP L ) (3)
Here, BP 0 is the representative value of the black peak value, BP R is the black peak value of the right-eye image data, and BP L is the black peak value of the left-eye image data.
Since the black peak value BP is the luminance of the portion with the lowest luminance in the image data, if there are two target image data, the luminance of the darkest portion of these two images may be adopted as a representative value. This is preferable because luminance expansion processing suitable for the contrast of image data can be performed.
(D) In the case of the luminance histogram The representative value of the luminance histogram is the average of the luminance histogram of the right-eye image data and the luminance histogram of the left-eye image data. This is expressed by the following equation (4).
Hist 0 (X) = {Hist R (X) + Hist L (X)} / 2 (4)
Here, Hist 0 (X) represents the representative value of the luminance histogram, Hist R (X) represents the luminance histogram of the right-eye image data, and Hist L (X) represents the luminance histogram of the left-eye image data. In the case of image data having a gradation value of 10 bits, X = 0 to 1023.
According to this equation (4), the average value of each class of luminance is the representative value.
このように、特徴量算出部30は、右目用画像データと左目用画像データとの各々について各種の画像特徴量を求め、求めた画像特徴量の代表値を、画像特徴量の種類または属性に対応した方法で求めるので、2つの画像データの画像特徴量から、輝度伸張処理に最適な値を求めることができる。そして、この画像特徴量の代表値が、輝度伸張率算出部40及び減光率算出部60に出力される。
As described above, the feature
なお、特徴量算出部30は、図3に示したように画像データの全体について画像特徴量を求めるだけでなく、画像データの一部領域のみを対象として画像特徴量を求めてもよい。例えば、入力された画像データとライトバルブ130の表示解像度の関係で、画像データの周縁部に黒領域が発生する場合には、画像データの周縁部を除いた領域で画像特徴量を求めたり、画像データの周縁部の画素ブロックよりも中央部の画素ブロックが重要になるよう重み付けをして、この重みを加味して画像特徴量を求めたりしてもよい。
また、上述した例では、右目用画像データと左目用画像データとの各々について複数の画像特徴量を求め、求めた画像特徴量の代表値を、画像特徴量の種類または属性に対応した方法で求め、求めた代表値を出力する構成であったが、右目用画像データ、及び、左目用画像データのうちいずれか一方の画像データの画像特徴量を求め、求めた画像特徴量を出力する構成であってもよい。
さらには、画像データを画素ブロックに分割しないで、画像データ全体の各画素の輝度値のうち最大値を、画像データの白ピーク値WPとし、最小値を黒ピーク値BPとし、当該輝度値の平均値をAPLとし、各画素の輝度値の分布から輝度ヒストグラムを生成してもよい。
Note that the feature
In the above-described example, a plurality of image feature amounts are obtained for each of the right-eye image data and the left-eye image data, and the representative values of the obtained image feature amounts are obtained by a method corresponding to the type or attribute of the image feature amount. The configuration is such that the obtained representative value is obtained, but the image feature amount of any one of the image data for the right eye and the image data for the left eye is obtained, and the obtained image feature amount is output. It may be.
Further, without dividing the image data into pixel blocks, the maximum value among the luminance values of each pixel of the entire image data is the white peak value WP of the image data, the minimum value is the black peak value BP, The average value may be APL, and a luminance histogram may be generated from the distribution of luminance values of each pixel.
輝度伸張率算出部40は、特徴量算出部30から入力される画像特徴量の代表値に基づいて、輝度伸張率を算出する(ステップS15)。
図4は、輝度伸張率を求めるためのLUT210を模式的に示す図である。この図4に例示するLUT210では、白ピーク値WPとAPLに対応して輝度伸張率が定義されている。
特徴量算出部30は、LUT210を参照し、画像入力部20から入力された白ピーク値WPとAPLの値に対応してLUT210に定義されている輝度伸張率を取得することで、輝度伸張率を求める。白ピーク値WPとAPLの値が、輝度伸張率が定義された格子点から外れている場合、画像入力部20は、白ピーク値WPとAPLの値の周囲の3点または4点の格子点に定義された輝度伸張率をもとに、補間演算を行って、輝度伸張率を算出する。このようにして特徴量算出部30は輝度伸張率を求め、求めた輝度伸張率を、輝度伸張処理部50に出力する。
特徴量算出部30は、図4に示すLUT210に限らず、白ピーク値WP、黒ピーク値BP、及びAPLに対応して輝度伸張率を定義した3次元のLUTを用いても良いし、黒ピーク値BPと白ピーク値WPまたは黒ピーク値BPとAPLを用いた2次元LUTを用いてもよく、白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、輝度伸張率を求めても良い。
The luminance expansion
FIG. 4 is a diagram schematically showing an
The feature
The feature
輝度伸張処理部50は、画像入力部20から入力される右目用画像データ及び左目用画像データの階調を、輝度伸張率算出部40によって求められた輝度伸張率に基づいて、伸張する(ステップS16)。
この輝度伸張処理部50の動作については、後に詳述する。
The luminance
The operation of the luminance
一方、減光率算出部60は、特徴量算出部30から入力される画像特徴量の代表値に基づいて、減光率を算出する(ステップS17)。減光率の算出は、例えば、図4を参照して説明した輝度伸張率と同様に、白ピーク値WP、APL、黒ピーク値BPのうちの2以上に対応して減光率が定義されたLUT(図示略)を用い、このLUTを参照することで減光率を算出できる。すなわち、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPに対応してLUTに定義されている減光率を取得する。また、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPが、減光率が定義された格子点から外れている場合、周囲の3点または4点の格子点に定義された減光率をもとに補間演算を行って、減光率を算出する。このようにして減光率算出部60は減光率を求め、求めた減光率を、減光処理部70に出力する。なお、減光率算出部60は、2次元LUTに限らず、3次元のLUTを用いても良いし、白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、減光率を求めても良い。
そして、減光率算出部60は、算出した減光率kaとなるように調光素子120を駆動するための駆動信号を生成し、減光処理部70に出力する(ステップS18)。
On the other hand, the light attenuation
Then, the dimming
ここで、制御部10の制御により、輝度伸張処理部50によって輝度伸張の処理が施された画像データがライトバルブ130に入力され、垂直同期信号VSyncに同期して描画されるとともに、このタイミングに同期して、減光処理部70により、減光率算出部60から入力された駆動信号に従って調光素子120が制御され、調光が行われる(ステップS19)。
画像入力部20に入力される立体映像信号が60フレーム/秒である場合、画像入力部20は、120フレーム/秒で右目用画像データと左目用画像データとを交互に出力する。これら右目用画像データと左目用画像データとは対になって一フレームの立体画像データを構成する。このような高速で画像を投射する場合、調光処理に伴う演算によってライトバルブ130の描画を遅延させないため、輝度伸張率と減光率の算出と調光処理とがシフトすることがある。すなわち、第nフレームの立体画像データを構成する右目用画像データと左目用画像データについて、輝度伸張率算出部40により輝度伸張率が算出され、減光率算出部60により減光率が算出された場合、この輝度伸張率と減光率に基づく調光処理は、第n+1フレームから適用される。この場合には、輝度伸張率と減光率とを算出した対象の画像データと、この輝度伸張率と減光率に基づく調光処理が施される画像データとが異なるが、この画像データのずれは1フレームに留まっているため、このシフトに起因して違和感が生じる可能性は極めて低く、調光処理によるコントラスト感の向上、ダイナミックレンジの拡大による品位向上の効果が期待できる。
Here, under the control of the
When the stereoscopic video signal input to the
次いで、本実施形態における視差の概念について説明する。
以下の説明において、「右目用画像データと、左目用画像データとが対応している」とは、これら画像データが、1の画像を立体的に表現すべく、右目と左目の視差を反映して生成されたデータであるということである。より具体的には、入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、立体映像信号から切り出されて生成された一対の右目用画像データと左目用画像データとが、対応する画像データに該当し、また、右目用画像データに係る立体映像信号と、左目用画像データに係る立体映像信号とが順次入力される方式の場合、本実施形態では、1の右目用画像データと、当該1の右目用画像データの次に入力された左目用画像データとが、対応する画像データに該当するものとする。
Next, the concept of parallax in the present embodiment will be described.
In the following description, “the image data for the right eye and the image data for the left eye correspond” means that these image data reflect the parallax of the right eye and the left eye so as to represent one image in three dimensions. That is, the data is generated. More specifically, when the format of the input stereoscopic video signal is a side-by-side format or a top-and-bottom format, a pair of right-eye image data and left-eye image data generated by being cut out from the stereoscopic video signal are: In the case of a system that corresponds to corresponding image data and that sequentially inputs a stereoscopic video signal related to right-eye image data and a stereoscopic video signal related to left-eye image data, in the present embodiment, one right-eye image It is assumed that the data and the left-eye image data input next to the one right-eye image data correspond to the corresponding image data.
図5は、本実施形態における視差について説明するための図である。
図5では、右目用画像データ、及び、左目用画像データによって立体的に表現される画像(以下、「合成立体画像」という)に係る仮想空間(合成立体画像によって表現される奥行きをもった仮想的な空間)を上から見た様子を模式的に示している。
合成立体画像でより手前側に存在するように表現されるオブジェクトについては、仮想空間内でより手前側に配置され、一方、合成立体画像でより奥側に存在するように表現されるオブジェクトについては、仮想空間内でより奥側に配置される。例えば、図5の仮想空間では、オブジェクトM1の方が、オブジェクトM2よりも手前側に配置されているため、合成立体画像では、オブジェクトM1に係る画像の方が、オブジェクトM2に係る画像よりも手前側に存在するように表現される。なお、本実施形態では、全てのオブジェクトは、仮想空間内で、遠近の基準となる基準面よりも手前側に配置されることを前提としているものとする。
また、図5において、符号P1は、仮想空間を視認する左目の位置に対応する左目ポイントを示し、符号P2は、仮想空間を視認する右目の位置に対応する右目ポイントを示している。周知のとおり、左目ポイントP1に位置する左目と、右目ポイントP2に位置する右目との視差を利用して、右目用画像データ、及び、左目用画像データのそれぞれが生成される。
FIG. 5 is a diagram for explaining parallax in the present embodiment.
In FIG. 5, a virtual space (a virtual with a depth expressed by a composite stereoscopic image) related to an image (hereinafter referred to as a “composite stereoscopic image”) that is stereoscopically represented by the right-eye image data and the left-eye image data. A typical view of a typical space) is shown from above.
For objects that are represented as being closer to the front side in the composite stereoscopic image, for objects that are placed closer to the front side in the virtual space, while being represented to be present in the deeper side in the composite stereoscopic image In the virtual space, it is arranged at the back side. For example, in the virtual space of FIG. 5, the object M1 is arranged in front of the object M2, so that in the synthesized stereoscopic image, the image related to the object M1 is closer to the front than the image related to the object M2. It is expressed to exist on the side. In the present embodiment, it is assumed that all objects are arranged in front of a reference plane that is a perspective reference in the virtual space.
In FIG. 5, the symbol P <b> 1 indicates the left eye point corresponding to the position of the left eye that visually recognizes the virtual space, and the symbol P <b> 2 indicates the right eye point corresponding to the position of the right eye that visually recognizes the virtual space. As is well known, right-eye image data and left-eye image data are generated using the parallax between the left eye located at the left eye point P1 and the right eye located at the right eye point P2.
図5に示すように、左目ポイントP1とオブジェクトM1とを結ぶ仮想直線SL1、及び、右目ポイントP2とオブジェクトM1とを結ぶ仮想直線SR1は、オブジェクトM1において角度αの視差対応角θ1をもって交わり、また、仮想直線SL1と基準面との交点KL1、及び、仮想直線SR1と基準面との交点KR1の間には、ギャップT1が形成される。
同様に、左目ポイントP1とオブジェクトM2とを結ぶ仮想直線SL2、及び、右目ポイントP2とオブジェクトM2とを結ぶ仮想直線SR2は、オブジェクトM2において角度βの視差対応角θ2をもって交わり、また、仮想直線SL2と基準面との交点KL2、及び、仮想直線SR2と基準面との交点KR2の間には、ギャップT2が形成される。
視差対応角θ1、θ2、及び、ギャップT1、T2は、左目ポイントP1と、右目ポイントP2との位置的な相違に起因して現出する値であり、仮想空間内におけるオブジェクトの位置がより手前側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTが大きな値となり、逆に、仮想空間内におけるオブジェクトの位置がより奥側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTがより小さな値となる。
As shown in FIG. 5, a virtual straight line SL1 connecting the left eye point P1 and the object M1 and a virtual straight line SR1 connecting the right eye point P2 and the object M1 intersect with each other at a parallax corresponding angle θ1 of the angle α in the object M1. A gap T1 is formed between the intersection KL1 between the virtual straight line SL1 and the reference plane and the intersection KR1 between the virtual straight line SR1 and the reference plane.
Similarly, a virtual straight line SL2 connecting the left eye point P1 and the object M2 and a virtual straight line SR2 connecting the right eye point P2 and the object M2 intersect with each other at the parallax corresponding angle θ2 of the angle β in the object M2, and the virtual straight line SL2 A gap T2 is formed between the intersection KL2 between the reference plane and the intersection KR2 between the virtual straight line SR2 and the reference plane.
The parallax correspondence angles θ1 and θ2 and the gaps T1 and T2 are values that appear due to the positional difference between the left eye point P1 and the right eye point P2, and the position of the object in the virtual space is closer to the front. The closer to the side, the larger the parallax-corresponding
そして、本実施形態では、これら視差対応角θや、ギャップTを概念的に表したものが「視差」に相当する。すなわち、本実施形態における視差とは、左目ポイントP1と右目ポイントP2との位置的な相違に起因して、仮想空間内において手前にあるオブジェクトほど相対的に大きく、一方、奥にあるオブジェクトほど相対的に小さくなる値を概念的に示す値である。
従って、以下の説明において、例えば、右目画像データに含まれる1のオブジェクトに係る画像と、他のオブジェクトに係る画像について、「1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも視差が大きい」と表現する場合、合成立体画像における仮想空間内で、1のオブジェクトの方が、他のオブジェクトよりも手前側に配置されていることを意味し、かつ、合成立体画像において、1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも手前に存在するように表現されることを意味する。
視差の大きさは、右目用画像データ、及び、左目用画像データに、以下のように反映される。
In the present embodiment, the parallax-corresponding angle θ and the conceptual representation of the gap T correspond to “parallax”. That is, the parallax in the present embodiment is relatively larger as the object located in the front in the virtual space due to the positional difference between the left eye point P1 and the right eye point P2, while the object located in the back is relatively larger. It is a value that conceptually indicates a value that becomes smaller.
Therefore, in the following description, for example, for an image related to one object and an image related to another object included in the right-eye image data, “the image related to one object is more than the image related to the other object. When the expression “parallax is large”, it means that one object is arranged in front of other objects in the virtual space in the composite stereoscopic image, and in the composite stereoscopic image, 1 This means that the image related to the object is expressed so as to exist in front of the image related to the other object.
The magnitude of the parallax is reflected in the right-eye image data and the left-eye image data as follows.
図6は、右目用画像データ、及び、左目用画像データを模式的に示す図である。
図6では、右目用画像データ、及び、左目用画像データは、同一の座標系に、互いに対応するように展開されているものとする。すなわち、座標系において、右目用画像データの四隅と、左目用画像データの四隅とが重なるように展開され、右目用画像データに含まれる1の画素に定義される座標と、左目用画像データにおいて、右目用画像データにおける当該1の画素と同一の位置に配置された他の画素に定義される座標とが同一となっている。
上述したように、右目用画像データ、及び、左目用画像データは、データ上で各画素がドットマトリクス状に配置されたデータであるため、これら画像データを座標系に展開することにより、これら画像データの各画素の座標は、座標系において原点として定義された位置からの相対的な位置によって一意に定義される。
図6の右目用画像データ、及び、左目用画像データにおいて、画像データM´1は、図4のオブジェクトM1に対応する画像データであり、画像データM´2は、図4のオブジェクトM2に対応する画像データである。
図6に示すように、右目用画像データにおける画像データM´1と、左目用画像データにおける画像データM´1とは、離間量R1分、ずらして配置される。同様に、これら画像データにおいて、画像データM´2は、離間量R2分、ずらして配置される。
この離間量R1、R2は、オブジェクトM1、M2の視差に対応した値であり、仮想空間内でオブジェクトがより手前に配置されていればいるほど(=視差が大きいほど)、大きな値となり、逆に、仮想空間内でオブジェクトがより奥に配置されていればいるほど(=視差が小さいほど)、小さな値となる。
すなわち、仮想空間内でより手前に配置されており、合成立体画像においてより手前側に存在するように表現すべきオブジェクトほど、換言すれば、視差の大きなオブジェクトほど、右目用画像データ、及び、左目用画像データにおいて、当該オブジェクトに係る画像に対応する離間量Rが大きくなり、逆に、仮想空間内でより奥に配置されており、合成立体画像においてより奥側に存在するように表現すべきオブジェクトほど、換言すれば、視差の小さなオブジェクトほど、右目用画像データ、及び、左目用画像データにおいて、当該オブジェクトに係る画像に対応する離間量Rが小さくなる。
FIG. 6 is a diagram schematically illustrating the right-eye image data and the left-eye image data.
In FIG. 6, it is assumed that the image data for the right eye and the image data for the left eye are developed so as to correspond to each other in the same coordinate system. That is, in the coordinate system, the four corners of the right-eye image data and the four corners of the left-eye image data are expanded so as to overlap, and the coordinates defined for one pixel included in the right-eye image data and the left-eye image data The coordinates defined in other pixels arranged at the same position as the one pixel in the right-eye image data are the same.
As described above, since the image data for the right eye and the image data for the left eye are data in which each pixel is arranged in a dot matrix on the data, by developing these image data in the coordinate system, the image data The coordinates of each pixel of data are uniquely defined by the relative position from the position defined as the origin in the coordinate system.
In the image data for right eye and the image data for left eye in FIG. 6, the image data M′1 is image data corresponding to the object M1 in FIG. 4, and the image data M′2 corresponds to the object M2 in FIG. Image data to be processed.
As shown in FIG. 6, the image data M′1 in the right-eye image data and the image data M′1 in the left-eye image data are arranged so as to be shifted by a separation amount R1. Similarly, in these image data, the image data M′2 is shifted and arranged by the separation amount R2.
The separation amounts R1 and R2 are values corresponding to the parallax of the objects M1 and M2, and become larger as the object is placed closer to the front in the virtual space (= the larger the parallax), and vice versa. In addition, the smaller the object is located in the virtual space (= the smaller the parallax), the smaller the value.
That is, an object that is arranged closer to the front in the virtual space and should be expressed to be present on the nearer side in the composite stereoscopic image, in other words, an object with a larger parallax, the image data for the right eye and the left eye In the image data for use, the separation amount R corresponding to the image related to the object is large, and conversely, it should be expressed so that it is arranged deeper in the virtual space and is present in the deeper side in the composite stereoscopic image. In other words, in other words, in the right-eye image data and the left-eye image data, the separation amount R corresponding to the image related to the object becomes smaller as the object has a smaller parallax.
次いで、輝度伸張処理部50について詳述する。
図7は、輝度伸張処理部50の機能的構成を示すブロック図である。
輝度伸張処理部50は、画像入力部20から入力される右目用画像データ及び左目用画像データの階調を、輝度伸張率算出部40によって求められた輝度伸張率に基づいて、伸張するものであり、図7に示すように、基準領域座標算出部51と、視差値算出部52と、輝度伸張処理実行部53と、を備えている。
Next, the luminance
FIG. 7 is a block diagram illustrating a functional configuration of the luminance
The luminance
図8は、基準領域座標算出部51の動作を示すフローチャートである。
まず、基準領域座標算出部51は、画像入力部20から入力された右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データ、及び、左目用画像データのそれぞれを取得する(ステップS21)。
次いで、基準領域座標算出部51は、取得した右目用画像データ、及び、左目用画像データを所定の座標系に展開すると共に、これら画像データのそれぞれを、基準領域300に応じて区分する(ステップS22)。
図3を参照し、基準領域座標算出部51は、例えば、上述した画素ブロックと同様にして、1920画素×1080画素の右目用画像データ、及び、左目用画像データのそれぞれを、横16個×縦9個の144個の基準領域300−1〜300−144に区分する。この場合、基準領域300−1〜300−144のそれぞれのサイズは縦120画素、横120画素である。
次いで、基準領域座標算出部51は、右目用画像データ、左目用画像データ、及び、これら画像データにおける基準領域300のそれぞれを定義する座標に係る情報を、視差値算出部52、及び、輝度伸張処理実行部53に出力する(ステップS23)。
FIG. 8 is a flowchart showing the operation of the reference area coordinate calculation unit 51.
First, the reference area coordinate calculation unit 51 is inputting from the
Next, the reference area coordinate calculation unit 51 develops the acquired right-eye image data and left-eye image data into a predetermined coordinate system, and classifies each of these image data according to the reference area 300 (step). S22).
Referring to FIG. 3, the reference area coordinate calculation unit 51 converts, for example, 1920 × 1080 pixel right-eye image data and left-eye image data to 16 × It is divided into ninety-four vertical reference regions 300-1 to 300-144. In this case, the sizes of the reference areas 300-1 to 300-144 are 120 pixels vertically and 120 pixels horizontally.
Next, the reference area coordinate calculation unit 51 obtains the right eye image data, the left eye image data, and information related to coordinates defining each of the reference areas 300 in the image data, the parallax
図9は、視差値算出部52の動作を示すフローチャートである。
視差値算出部52は、基準領域座標算出部51から入力された右目用画像データ、左目用画像データを所定の座標系に展開する(ステップS31)。
次いで、視差値算出部52は、基準領域座標算出部51から入力された右目用画像データを区分して形成された基準領域300の座標に係る情報に基づいて、基準領域300のうちの1つの基準領域300を処理対象の基準領域として特定し、処理対象の基準領域として特定した基準領域300に対応する画像データ(以下、適宜、「基準領域画像データ」という)を取得する(ステップS32)。例えば、ステップS32において、視差値算出部52は、基準領域300−1を処理対象の基準領域とした場合、基準領域300−1によって規定される領域における画像データ(基準領域画像データ)を取得する。
次いで、視差値算出部52は、ステップS32で取得した基準領域画像データをテンプレート画像として、左目用画像データに対してテンプレートマッチング処理を行うことにより、左目用画像データにおいて、当該基準領域画像データに対応する画像データが位置する領域の座標を取得する(ステップS33)。
以下、ステップS33における動作について詳述する。
FIG. 9 is a flowchart showing the operation of the parallax
The parallax
Next, the parallax
Next, the parallax
Hereinafter, the operation in step S33 will be described in detail.
図10は、ステップS33の動作の説明に利用する図である。
ステップS33において、まず、視差値算出部52は、左目用画像データを展開した所定の座標系に、ステップS32で取得した基準領域画像データを配置する。その際、視差値算出部52は、所定の座標系において、基準領域画像データの右目用画像データにおける配置位置に、当該基準領域画像データを配置する。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、画素ブロック200−1(図3参照)に対応する基準領域画像データである場合、左目用画像データが展開された所定の座標系において、右目用画像データにおける画素ブロック200−1の位置(図10における領域X−0に対応する位置)に、基準領域画像データを配置する。
次いで、視差値算出部52は、基準領域画像データと、当該基準領域画像データが配置された領域における左目用画像データの画像データと、の類似度を算出する。本実施形態では、類似度は、正規化相互関数を用いて算出される−1〜1の範囲の値であり、その値が1に近いほど、類似度が高い。
次いで、視差値算出部52は、左目用画像データが展開された座標系において、テンプレート画像たる基準領域画像データを、画素1つ分、右方向(図10において矢印Y1で示す方向)にずらし、上述した方法と同様にして、基準領域画像データと、当該基準領域画像データが配置された領域における左目用画像データの画像データと、の類似度を算出する。
FIG. 10 is a diagram used for explaining the operation in step S33.
In step S33, first, the parallax
Next, the parallax
Next, the parallax
このようにして、視差値算出部52は、基準領域画像データを、画素1つ分、右方向にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、基準領域画像データが左目用画像データの右端に至るまで繰り返し行う。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、領域X−0に対応する基準領域画像データである場合、視差値算出部52は、基準領域画像データが、領域X−1に至るまで、上述した動作を繰り返し行う。
次いで、視差値算出部52は、算出した類似度のそれぞれを比較し、左目用画像データにおいて、類似度の算出対象となった領域のうち、類似度が最も高かった領域を特定し、当該領域を定義する座標を取得する。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、領域X−0に対応する基準領域画像データである場合において、当該基準領域画像データと、領域X−2に対応する左目用画像データとの類似度が最も高かった場合、視差値算出部52は、この領域X−2を定義する座標を取得する。
以上のようにして、ステップS33において、視差値算出部52は、左目用画像データにおいて、ステップS32で取得した基準領域画像データに対応する画像データが位置する領域の座標を取得する。
In this way, the parallax
Next, the parallax
As described above, in step S33, the parallax
ここで、図5、及び、図6を用いて説明したように、ある1つのオブジェクトに係る画像の画像データについて、右目用画像データにおいて当該画像の画像データが配置される位置と、左目用画像データにおいて当該画像の画像データが配置される位置とでは、視差を反映した離間量R分のずれが生じる。
そして、基準領域画像データと、ステップS33で特定された左目用画像データの領域に対応する画像データとのそれぞれは、類似度が最も高い画像データ、すなわち、最も「似ている」画像を示す画像データということであり、これらは、同一のオブジェクトに係る画像について、視差を反映して離間量R分ずらして形成された画像データのそれぞれである。
Here, as described with reference to FIGS. 5 and 6, regarding the image data of an image related to a certain object, the position where the image data of the image is arranged in the image data for the right eye, and the image for the left eye In the data, there is a deviation of the separation amount R reflecting the parallax from the position where the image data of the image is arranged.
Each of the reference area image data and the image data corresponding to the area of the image data for the left eye specified in step S33 has the highest similarity, that is, an image indicating the most “similar” image. It is data, and these are each image data formed by shifting the separation amount R by reflecting the parallax with respect to the image relating to the same object.
本実施形態では、類似度として、正規化相互関数を用いた類似度を採用している。これは、同一のオブジェクトに係る画像データであっても、右目用画像データと左目用画像データとでは、右目と左目との視差を反映して(右目でオブジェクトを見たときの見え方と、左目でオブジェクトを見たときの見え方との違いを反映して)、そのデータの内容が異なっており、これを考慮して、類似という観点から、適切に、左目用画像データにおける基準領域画像データに対応する領域を検出するためである。なお、基準領域画像データに対応する画像データが位置する領域の検出は、正規化相互関数を用いた類似度を利用した方法のみならず、例えば、基準領域画像データを2値化すると共に、左目用画像データを2値化し、これら画像データを用いてテンプレートマッチング処理を行うようにしてもよい。
また、本実施形態では、基準領域画像データを、画素1つ分、「右方向」にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、基準領域画像データが、左目用画像データの右端に至るまで繰り返し行うことにより、基準領域に対応する領域の検出を実行する。これは、図5を参照して、本実施形態のように全てのオブジェクトが仮想空間内で基準面よりも手前側に配置されることが前提となっている場合、図6に示すように、1のオブジェクトに係る画像の画像データの右目用画像データにおける位置は、必ず、当該1のオブジェクトに係る画像の画像データの左目用画像データにおける位置の、水平方向(右目と左目とを結ぶ直線が延びる方向に対応する方向)における「左」となるからであり、上述した動作によって基準領域に対応する領域の検出を行うことにより、不必要に類似度を算出することを防止でき、処理効率の向上を図ることができるからである。
In this embodiment, a similarity using a normalized mutual function is adopted as the similarity. This reflects the parallax between the right eye and the left eye in the image data for the right eye and the image data for the left eye even when the image data is related to the same object (how the object looks when viewed with the right eye, Reflecting the difference in appearance when the object is viewed with the left eye), the content of the data is different, and considering this, the reference area image in the image data for the left eye is appropriately This is because an area corresponding to the data is detected. The detection of the region where the image data corresponding to the reference region image data is located is not limited to a method using the similarity using a normalized mutual function. For example, the reference region image data is binarized and the left eye The image data may be binarized and the template matching process may be performed using these image data.
In the present embodiment, the operation of calculating the similarity between the reference area image data and the left-eye image data after shifting the reference area image data by “one pixel” in the “right direction” By repeatedly performing the region image data until it reaches the right end of the image data for the left eye, the region corresponding to the reference region is detected. With reference to FIG. 5, when it is assumed that all objects are arranged in front of the reference plane in the virtual space as in this embodiment, as shown in FIG. The position in the image data for the right eye of the image data of the image relating to one object is always the horizontal direction (the straight line connecting the right eye and the left eye) of the position in the image data for the left eye of the image data of the image relating to the one object. This is because it is “left” in the direction corresponding to the extending direction), and by detecting the region corresponding to the reference region by the above-described operation, it is possible to prevent unnecessary calculation of the similarity and to improve the processing efficiency. This is because improvement can be achieved.
さて、前掲図9に戻り、視差値算出部52は、基準領域画像データが右目用画像データにおいて配置されていた領域の中心の座標と、左目用画像データにおいて類似度が最も高かった領域の中心の座標との距離である離間量Rを算出する(ステップS34)。図10を参照し、領域X−2が最も類似度が高いとすると、視差値算出部32は、離間量Rとして、この領域X−2の中心と、領域X−0の中心との距離を算出する。
次いで、視差値算出部52は、算出した離間量Rを、そのまま、ステップS32で処理対象とした基準領域300の視差値として算出する(ステップS35)。なお、本実施形態では、離間量Rをそのまま視差値としているが、視差値は、離間量Rと正の相関関係を有する値であればよい。すなわち、視差値は、離間量Rと正の相関関係を有することにより、視差の大きさと正の相関関係を有した値であればよい。
Returning to FIG. 9, the parallax
Next, the parallax
視差値算出部52は、右目用画像データに形成された全ての基準領域300に対して、ステップS32〜ステップS35に係る処理を行い、全ての基準領域300の視差値を算出する。
さらに、視差値算出部52は、左目用画像データに形成された全ての基準領域300に対しても、ステップS32〜ステップS35に対応する処理を行い、左目用画像データにおける全ての基準領域300の視差値を算出する。その際、ステップS33に対応する処理の実行にあたり、視差値算出部52は、左目用画像データに形成された基準領域300に係る基準領域画像データを、右目用画像データが展開された座標系において、画素1つ分、「左方向」にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、当該基準領域画像データが、右目用画像データの左端に至るまで繰り返し行うことにより、基準領域に対応する領域の検出を実行する。これにより、処理効率の向上を図る。
このようにして、右目用画像データ、及び、左目用画像データに形成された全ての基準領域300の視差値を算出した後、視差値算出部52は、全ての基準領域300の視差値を示す情報を、輝度伸張処理実行部53に出力する(ステップS36)
The parallax
Further, the parallax
Thus, after calculating the parallax values of all the reference areas 300 formed in the right-eye image data and the left-eye image data, the parallax
図11は、輝度伸張処理実行部53の動作を示すフローチャートである。
輝度伸張処理実行部53は、視差値算出部52から入力された情報に基づいて、右目用画像データに形成された基準領域300のうち、視差値が所定の閾値を上回っている基準領域300を特定する。同様に、輝度伸張処理実行部53は、視差値算出部52から入力された情報に基づいて、左目用画像データに形成された基準領域300のうち、視差値が所定の閾値を上回っている基準領域300を特定する(ステップS41)。
次いで、輝度伸張処理実行部53は、右目用画像データのうち、ステップS41で特定された基準領域300(視差値が所定の閾値を上回っている基準領域300)に対応する(含まれる)画像データに対して、輝度伸張率算出部40によって求められた輝度伸張率による輝度伸張処理を実行し、同様に、左目用画像データのうち、ステップS41で特定された基準領域300(視差値が所定の閾値を上回っている基準領域300)に対応する画像データに対して、輝度伸張率算出部40によって求められた輝度伸張率による輝度伸張処理を実行する(ステップS42)。ここでは、特徴量算出部30から輝度伸張処理部50に入力される画像データの色情報をR、G、B、輝度伸張後の色情報をR’、B’、G’、輝度伸張率をkgとすると、R’=kg×R、G’=kg×G、B’=kg×Bとなるように、輝度伸張処理が実行される。
すなわち、ステップS42では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っている基準領域300に対しては、輝度伸張が行われるものの、視差値が所定の閾値を下回っている基準領域300に対しては、輝度伸張が行われない。
次いで、輝度伸張処理実行部53は、伸張処理を施した後の右目用画像データ、及び、左目用画像データのそれぞれをライトバルブ130の交互に出力する(ステップS43)。
FIG. 11 is a flowchart showing the operation of the luminance expansion
Based on the information input from the parallax
Next, the luminance expansion
That is, in step S42, for each of the right-eye image data and the left-eye image data, although the luminance expansion is performed on the reference region 300 in which the parallax value exceeds a predetermined threshold, the parallax value is predetermined. The luminance expansion is not performed on the reference region 300 that is below the threshold value.
Next, the luminance expansion
このように、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っている基準領域300に対しては、輝度伸張が行われるものの、視差値が所定の閾値を下回っている基準領域300に対しては、輝度伸張が行われない。これは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データによって表現される合成立体画像は、無限遠としての背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行い、一方、視差値が所定の閾値を下回っており、背景画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行わず、当該ニーズに適切に応えている。
なお、所定の閾値は、背景画像と、ある程度の立体感を持って表現される画像とを判別する基準である、という観点から、事前のシミュレーション、テストを通して適切に定められる。
As described above, in the present embodiment, although the luminance expansion is performed on the reference area 300 in which the parallax value exceeds the predetermined threshold for each of the right-eye image data and the left-eye image data, the parallax is performed. The luminance expansion is not performed on the reference region 300 whose value is below a predetermined threshold value. This is due to the following reason.
That is, the composite stereoscopic image represented by the right-eye image data and the left-eye image data includes a background image indicating a background as infinity, and an image expressed with a certain degree of stereoscopic effect on the background image. May be configured. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform a luminance expansion process on image data related to the above.
In view of this, in the present embodiment, the parallax value exceeds a predetermined threshold value for each of the right-eye image data and the left-eye image data, and is expressed with a certain degree of three-dimensionality rather than a region related to the background image. For the reference region 300 having a high probability that is a region related to the power image, the luminance extension is performed. On the other hand, for the reference region 300 having a high probability of being a region related to the background image, the parallax value is below a predetermined threshold value. It does not perform luminance expansion and responds appropriately to the needs.
Note that the predetermined threshold value is appropriately determined through prior simulation and testing from the viewpoint that it is a reference for discriminating between a background image and an image expressed with a certain degree of stereoscopic effect.
以上説明したように、本実施形態に係る画像表示装置1は、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部30と、特徴量算出部により算出された画像特徴量に基づいて、右目用画像データ及び左目用画像データに施す輝度伸張処理に係る輝度伸張率を算出する輝度伸張率算出部40(伸張係数算出部)と、右目用画像データと左目用画像データとの視差、及び、輝度伸張率算出部40により算出された輝度伸張率に基づいて、画像データに輝度伸張処理を施す輝度伸張処理部50と、を備えている。
より具体的には、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる画像データを区分して形成された基準領域300のそれぞれについて、各基準領域300における視差を反映して、輝度伸張率算出部40により算出された輝度伸張率に基づいて、各領域に対応する画像データに輝度伸張処理を施す。
これによれば、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データに対して、従来のように、一様の伸張係数に基づいて、画像データ全体に輝度伸張処理を施すのではなく、画像データを区分して形成された基準領域300のそれぞれにおける視差を反映して、各基準領域300に対応する画像データに輝度伸張処理を施すため、輝度伸張処理部50により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
As described above, the
More specifically, the luminance
According to this, the luminance
また、本実施形態では、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる一方の画像データの基準領域300のそれぞれについて、他方の画像データにおける基準領域300に対応する領域のそれぞれとの離間量Rを検出すると共に、検出した離間量Rと正の相関関係を有する視差値を算出し、算出した視差値を利用して、輝度伸張率算出部40により算出された輝度伸張率に基づいて、各基準領域300に対応する画像データに輝度伸張処理を施す。
これによれば、輝度伸張処理部50は、離間量Rと正の相関関係を有する視差値を算出し、算出した視差値を利用して輝度伸張処理を行う。そして、輝度伸張処理の実行に際して利用される視差値は、離間量Rと正の相関関係を有すると同時に、1の基準領域300における視差の大きさと正の相関関係を有する値であるため、視差値を利用して輝度伸張処理を施すことにより、視差(視差の大きさ)を適切に反映した上で輝度伸張処理を実行することができる。
Further, in the present embodiment, the luminance
According to this, the luminance
また、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のうち、算出した視差値が所定の閾値を上回っている基準領域300について、輝度伸張処理を施す。
ここで、右目用画像データ、及び、左目用画像データによって表現される合成立体画像は、無限遠としての背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行い、一方、視差値が所定の閾値を下回っており、背景画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行わず、当該ニーズに適切に応えている。
In the present embodiment, the luminance
Here, the composite stereoscopic image expressed by the image data for the right eye and the image data for the left eye is a background image indicating the background as infinity, and an image expressed with a certain degree of stereoscopic effect on the background image. May be configured. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform a luminance expansion process on image data related to the above.
In view of this, in the present embodiment, the parallax value exceeds a predetermined threshold value for each of the right-eye image data and the left-eye image data, and is expressed with a certain degree of three-dimensionality rather than a region related to the background image. For the reference region 300 having a high probability that is a region related to the power image, the luminance extension is performed. On the other hand, for the reference region 300 having a high probability of being a region related to the background image, the parallax value is below a predetermined threshold value. It does not perform luminance expansion and responds appropriately to the needs.
また、本実施形態では、輝度伸張処理部50による輝度伸張処理に対応して、光源装置110が発した光を調光する調光素子120を備えている。
これによれば、スクリーン5に投射される画像について、画像の見かけ上の明るさを維持しつつ、画像のダイナミックレンジを拡大してコントラスト感を向上することができる。
Further, in the present embodiment, a
According to this, with respect to the image projected on the
<第2実施形態>
次いで、第2実施形態について説明する。
本実施形態では、上述した第1実施形態と、輝度伸張処理実行部53の動作が異なっている。
本実施形態に係る輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データの基準領域300のそれぞれについて、視差値がより大きい基準領域ほど、より輝度伸張率が高い値となるように、輝度伸張率を補正した上で、基準領域300に対応する画像データに輝度伸張処理を施す。
具体的には、輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データに形成された基準領域300のそれぞれについて、各基準領域300に対応する画像データに輝度伸張処理を施す際の輝度伸張率(以下、「補正輝度伸張率」という)を以下の式(5)によって算出する。
T=kg×D/Dmax・・・(5)
ここで、Tは、補正輝度伸張率を表し、kgは、輝度伸張率算出部40から輝度伸張処理部50に入力された輝度伸張率を表し、Dは、算出した補正輝度伸張率が適用される基準領域300の視差値を表し、Dmaxは、輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値のそれぞれのうち、その値が最大の視差値(以下、「最大視差値」という)を表している。
そして、輝度伸張処理実行部53は、輝度伸張処理の対象となっている画像データに形成された基準領域300の全てについて、上述した式(5)を利用して補正輝度伸張率を算出した後、基準領域300のそれぞれに対して、各基準領域300に適用される補正輝度伸張率に基づいて輝度伸張処理を行う。
Second Embodiment
Next, a second embodiment will be described.
In the present embodiment, the operation of the luminance expansion
The luminance expansion
Specifically, the luminance expansion
T = kg × D / Dmax (5)
Here, T represents the corrected luminance expansion rate, kg represents the luminance expansion rate input from the luminance expansion
Then, the luminance expansion
ここで、ある1の基準領域300に適用される補正輝度伸張率を、式(5)を用いて算出する場合について考える。
この場合において、式(5)の「D/Dmax」は、最大視差値(輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値のそれぞれのうち、その値が最大の視差値)に対する、当該1の基準領域300の視差値の割合である。従って、当該1の基準領域300の視差値が、最大視差値である場合、「D/Dmax」の値は、「1」となり、当該1の基準領域300の視差値が最大視差値に比して相対的に低い値であればあるほど、それに応じて、「D/Dmax」の値も小さくなる。
そして、式(5)では、輝度伸張率算出部40が算出した輝度伸張率(kg)に対して、「D/Dmax」を乗じることにより補正輝度伸張率(T)を算出している。このため、当該1の基準領域300の視差値が最大視差値である場合、補正輝度伸張率(T)=輝度伸張率(kg)となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)がそのまま用いられて輝度伸張処理が行われることとなる。
一方、当該1の基準領域300の視差値が最大視差値に比して相対的に低い値であればあるほど、最大視差値に対する視差値の割合に応じて、補正輝度伸張率(T)は、輝度伸張率(kg)に比して相対的に低い値となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)が、最大視差値に対する視差値の割合に応じて、その値が低くなるように補正された上で、輝度伸張処理が行われることとなる。
すなわち、本実施形態では、視差値が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される。
Here, consider a case where the corrected luminance expansion rate applied to a certain reference region 300 is calculated using equation (5).
In this case, “D / Dmax” in Expression (5) is the maximum parallax value (the value of the parallax values of the reference area 300 formed in the image data to be subjected to the luminance expansion processing is the maximum). Is the ratio of the parallax value of the one reference area 300 to the (parallax value). Therefore, when the parallax value of the one reference region 300 is the maximum parallax value, the value of “D / Dmax” is “1”, and the parallax value of the one reference region 300 is compared with the maximum parallax value. The lower the value, the smaller the value of “D / Dmax” accordingly.
In equation (5), the corrected luminance expansion rate (T) is calculated by multiplying the luminance expansion rate (kg) calculated by the luminance expansion
On the other hand, as the parallax value of the one reference region 300 is relatively lower than the maximum parallax value, the corrected luminance expansion rate (T) is increased according to the ratio of the parallax value to the maximum parallax value. The value is relatively low compared to the luminance expansion rate (kg). In this case, for the image data corresponding to the one reference region 300, the luminance expansion rate (kg) calculated by the luminance expansion
In other words, in the present embodiment, the luminance expansion rate calculated by the luminance expansion
本実施形態で、以上のようにして輝度伸張率が補正された上で輝度伸張処理が施されるのは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データにより表現される合成立体画像では、より手前に存在するように表現されるオブジェクトに係る画像ほど、立体感や迫力が強調された重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。そして、上記のように、視差値が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される構成とすることにより、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
In the present embodiment, the luminance expansion processing is performed after correcting the luminance expansion rate as described above for the following reason.
That is, in the composite stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object expressed so as to exist in the foreground is an important image in which stereoscopic effect and power are emphasized. There is a tendency, and when performing the luminance expansion processing, there is a need to perform the luminance expansion processing on the image data of the image related to such an object based on the expansion coefficient having a higher luminance expansion ratio. . As described above, for the reference region 300 having the largest parallax value, the luminance expansion rate calculated by the luminance expansion
以上説明したように、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、視差値がより大きい基準領域300ほど、より輝度伸張率が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
これにより、上述したように、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となり、輝度伸張処理部による視差を踏まえた効果的な輝度伸張処理を実現できる。
As described above, in the present embodiment, the luminance
As a result, as described above, it is possible to perform luminance expansion processing based on an expansion coefficient having a higher luminance expansion ratio on the image data of an image related to an object that is expressed so as to exist on the near side. Thus, effective luminance expansion processing based on parallax by the luminance expansion processing unit can be realized.
<第3実施形態>
次いで、第3実施形態について説明する。
本実施形態では、上述した第1実施形態と、輝度伸張処理実行部53の動作が異なっている。
本実施形態に係る輝度伸張処理実行部53は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の頻度を検出し、より頻度が高い基準領域300ほど、より輝度伸張率が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
具体的には、まず、輝度伸張処理実行部53は、視差値算出部52から入力された右目用画像データの基準領域300の視差値に基づいて、視差値の上限値と下限値を取得し、この上限値と下限値との間を所定の範囲ごとに区分する。次いで、輝度伸張処理実行部53は、区分した範囲毎に、各範囲の視差値を有する基準領域300の個数を検出する。例えば、輝度伸張処理実行部53は、値A1≦視差値<値A2の基準領域300の個数は20個であり、値A2≦視差値<値A3の基準領域300の個数は15個であるといったことを検出する。
そして、輝度伸張処理実行部53は、検出結果に基づいて、所定の範囲に区分された視差値を階級、当該範囲の視差値を有する基準領域300の個数(頻度)を度数とするヒストグラムを生成する。ここで生成されたヒストグラムを参照することにより、ある1の基準領域300について、当該基準領域300の視差値と同じ範囲に属する視差値を有する基準領域300が、右目用画像データの中にいくつ存在しているのかを検出することが可能となる。すなわち、当該ヒストグラムを参照することにより、基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の右目用画像データにおける頻度を検出できる。
同様にして、輝度伸張処理実行部53は、視差値算出部52から入力された左目用画像データの基準領域300の視差値に基づいて、所定の範囲に区分された視差値を階級、当該範囲の視差値を有する基準領域300の個数(頻度)を度数とするヒストグラムを生成する。
なお、以下の説明において、「基準領域300の視差値の頻度」という場合は、当該基準領域300の視差値と同じ範囲に属する視差値を有する基準領域300の個数のことをいうものとする。
<Third Embodiment>
Next, a third embodiment will be described.
In the present embodiment, the operation of the luminance expansion
The luminance expansion
Specifically, first, the luminance expansion
Then, based on the detection result, the luminance expansion
Similarly, the luminance expansion
In the following description, “frequency of the parallax value of the reference area 300” refers to the number of reference areas 300 having a parallax value belonging to the same range as the parallax value of the reference area 300.
次いで、輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データに形成された基準領域300のそれぞれについて、各基準領域300に対応する画像データに輝度伸張処理を施す際の輝度伸張率(以下、「補正輝度伸張率」という)を以下の式(6)によって算出する。
T=kg×F/Fmax・・・(6)
ここで、Tは、補正輝度伸張率を表し、kgは、輝度伸張率算出部40から輝度伸張処理部50に入力された輝度伸張率を表し、Fは、算出した補正輝度伸張率が適用される基準領域300の視差値の頻度を表し、Fmaxは、輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値の頻度の最大値(以下、「最大頻度」という)を表している。
そして、輝度伸張処理実行部53は、輝度伸張処理の対象となっている画像データに形成された基準領域300の全てについて、上述した式(6)を利用して補正輝度伸張率を算出した後、基準領域300のそれぞれに対して、各基準領域300に適用される補正輝度伸張率に基づいて輝度伸張処理を行う。
Next, the luminance expansion
T = kg × F / Fmax (6)
Here, T represents the corrected luminance expansion rate, kg represents the luminance expansion rate input from the luminance expansion
Then, the luminance expansion
ここで、ある1の基準領域300に適用される補正輝度伸張率を、式(6)を用いて算出する場合について考える。
この場合において、式(6)の「F/Fmax」は、最大頻度(輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値の頻度の最大値)に対する、当該1の基準領域300の視差値の頻度の割合である。従って、当該1の基準領域300の視差値の頻度が、最大頻度である場合、「F/Fmax」の値は、「1」となり、当該1の基準領域300の視差値の頻度が最大頻度に比して相対的に低い値であればあるほど、それに応じて、「F/Fmax」の値も小さくなる。
そして、式(6)では、輝度伸張率算出部40が算出した輝度伸張率(kg)に対して、「F/Fmax」を乗じることにより補正輝度伸張率(T)を算出している。このため、当該1の基準領域300の視差値の頻度が最大頻度である場合、補正輝度伸張率(T)=輝度伸張率(kg)となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)がそのまま用いられて輝度伸張処理が行われることとなる。
一方、当該1の基準領域300の視差値の頻度が最大頻度に比して相対的に低い値であればあるほど、最大頻度に対する視差値の頻度の割合に応じて、補正輝度伸張率(T)は、輝度伸張率(kg)に比して相対的に低い値となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)が、最大頻度に対する視差値の頻度の割合に応じて、その値が低くなるように補正された上で、輝度伸張処理が行われることとなる。
すなわち、本実施形態では、視差値の頻度が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値の頻度が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される。
Here, consider a case where the corrected luminance expansion rate applied to a certain reference region 300 is calculated using Expression (6).
In this case, “F / Fmax” in Expression (6) is the 1 for the maximum frequency (the maximum frequency of the parallax values of the reference region 300 formed in the image data that is the target of the luminance expansion processing). The frequency ratio of the parallax values of the reference area 300 of FIG. Therefore, when the frequency of the parallax value of the one reference region 300 is the maximum frequency, the value of “F / Fmax” is “1”, and the frequency of the parallax value of the one reference region 300 is the maximum frequency. The lower the value, the smaller the value of “F / Fmax” accordingly.
In Expression (6), the corrected luminance expansion rate (T) is calculated by multiplying the luminance expansion rate (kg) calculated by the luminance expansion
On the other hand, the lower the parallax value frequency of the one reference region 300 is, the lower the value of the parallax value frequency relative to the maximum frequency, the more the corrected luminance expansion rate (T ) Is a relatively low value compared to the luminance expansion rate (kg). In this case, for the image data corresponding to the one reference region 300, the luminance expansion rate (kg) calculated by the luminance expansion
In other words, in the present embodiment, the luminance expansion rate calculated by the luminance expansion
本実施形態で、以上のようにして輝度伸張率が補正された上で輝度伸張処理が施されるのは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データにより表現される合成立体画像では、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像ほど、当該立体画像において重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。そして、本実施形態では、視差値の頻度が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値の頻度が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される構成とすることにより、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことを可能とし、当該ニーズに対して適切に応えている。
In the present embodiment, the luminance expansion processing is performed after correcting the luminance expansion rate as described above for the following reason.
That is, in the composite stereoscopic image expressed by the right-eye image data and the left-eye image data, the image related to the object in which there are more objects expressed so as to have the same position in the depth direction, There is a tendency to be an important image in a stereoscopic image, and when performing luminance expansion processing, luminance expansion processing is performed on image data of an image related to such an object based on an expansion coefficient having a higher luminance expansion rate. There is a need to apply. In this embodiment, the luminance expansion rate calculated by the luminance expansion
以上説明したように、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の頻度を検出し、より頻度が高い基準領域300ほど、よりその値が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
これによれば、上述したように、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となり、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
As described above, in this embodiment, the luminance
According to this, as described above, the luminance expansion processing is performed on the image data of the image related to the object expressed so as to exist on the near side based on the expansion coefficient having a higher luminance expansion ratio. Thus, the luminance expansion processing unit can perform effective luminance expansion processing based on parallax.
なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、画像入力部20が、入力された立体映像信号から右目用画像データと左目用画像データとを生成し、これらの右目用画像データと左目用画像データとを交互に出力する構成としたが、本発明はこれに限定されるものではない。例えば、輝度伸張処理部50において右目用画像データと左目用画像データとを交互にライトバルブ130に出力してもよい。
また、上述した各機能部は、画像表示装置1の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。
The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, the
Moreover, each function part mentioned above shows the functional structure of the
また、本実施形態では、画像表示装置1が特徴量算出部30や、輝度伸張率算出部40、輝度伸張処理部50等の各種の機能部を備え、これら機能部が、画像特徴量の算出や、輝度伸張率の算出、輝度伸張処理等を実行する構成を例に挙げて説明したが、パーソナルコンピューター等の画像表示装置1とは別体として構成される画像供給装置が、各種の機能部を備え、右目用画像データ、及び、左目用画像データに輝度伸張処理を施し、これら画像データを当該画像処理装置からプロジェクターに供給する構成としてもよい。すなわち、特徴量算出部30や、輝度伸張率算出部40、輝度伸張処理部50等の各種の機能部の機能は、画像表示装置1自体に持たせても良く、また、画像表示装置1に画像データを供給する画像供給装置に持たせてもよい。
In the present embodiment, the
また、上述した画像表示装置1は、透過型のライトバルブ130を用いて画像をスクリーン5に投射するタイプの装置であったが、反射型液晶パネルを用いたプロジェクターであってもよいし、デジタルミラーデバイスを用いたDMD方式のプロジェクターであってもよい。また、3つのライトバルブによりカラー画像を投射する3LCD方式のプロジェクターに限らず、1つの液晶ライトバルブを用いてRGBに対応する画像を時分割表示してカラー画像を投射するプロジェクター、カラーホイールを備えた単板DMD方式のプロジェクター、及び、3DMD方式のプロジェクターのいずれにも本発明を適用可能である。また、光源としては、上述したが、キセノンランプのほか、超高圧水銀ランプや、LEDランプ等、各種の光源を用いることができる。また、上述した画像表示装置1は、投射面の正面側に配置されて投射面の正面に投射光を投射するタイプの画像表示装置1であってもよく、また、投射面の背面側に配置されて投射面の背面に投射光を投射するタイプの画像表示装置1であってもよい。すなわち、本発明は、光源が発した光を変調する機能を有する画像表示装置に、広く、適用可能である。
In addition, the
さらに、本発明の画像表示装置1は、上述したようなスクリーン5に立体(3D)映像を投射するプロジェクターに限定されず、液晶表示パネルに立体(3D)の画像/映像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に立体(3D)の画像/映像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに立体(3D)の画像/映像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが画像表示部に相当する。
Furthermore, the
10…制御部、20…画像入力部、30…特徴量算出部、32…視差値算出部、40…輝度伸張率算出部(伸張係数算出部)、50…輝度伸張処理部、51…基準領域座標算出部、52…視差値算出部、53…輝度伸張処理実行部、60…減光率算出部、70…減光処理部、110…光源装置(光源、画像表示部)、120…調光素子(調光部)、130…ライトバルブ(変調部、画像表示部)、140…投射光学系(画像表示部)、300…基準領域。
DESCRIPTION OF
Claims (8)
前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、
前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、
前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データに基づき、画像を表示する画像表示部と、を備え、
前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像表示装置。 A feature amount calculation unit that calculates an image feature amount related to the brightness of the image data based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data;
Based on the image feature amount calculated by the feature amount calculation unit, an expansion coefficient calculation unit that calculates an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data;
Luminance based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit with respect to the right-eye image data and the left-eye image data A luminance expansion processing unit for performing expansion processing;
An image display unit that displays an image based on the right-eye image data and the left-eye image data subjected to the luminance expansion processing ,
The luminance expansion processing unit is configured to perform the reference in the other image data for each of a plurality of reference regions in one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. Detecting a separation amount with each of the regions corresponding to the region, and using a disparity value having a positive correlation with the detected separation amount, based on the expansion coefficient calculated by the expansion coefficient calculation unit, An image display device that performs luminance expansion processing on image data corresponding to the reference region .
前記輝度伸張処理部は、前記基準領域のそれぞれについて前記離間量を検出することを特徴とする請求項1に記載の画像表示装置。 The reference area is formed by dividing image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data ,
The image display device according to claim 1, wherein the luminance expansion processing unit detects the separation amount for each of the reference regions.
輝度伸張処理の対象となる画像データの前記基準領域のうち、視差値が所定の閾値を上回っている前記基準領域に対応する画像データに対して、輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。 The luminance expansion processing unit
Of the reference area of the image data to be subjected to the luminance expansion process claims visual difference values for the image data corresponding to the reference area exceeds the predetermined threshold value, and characterized by applying the luminance expansion process Item 3. The image display device according to Item 1 or 2 .
輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、視差値がより大きい前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。 The luminance expansion processing unit
For each of the reference region of the image data to be subjected to the luminance expansion process, the more visual difference value is greater than the reference area, the expansion coefficient as more luminance expansion rate is higher in terms of corrected, to each of said reference region the image display apparatus according to claim 1 or 2, characterized by applying the luminance expansion process on corresponding image data.
輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、同程度の視差値を有する前記基準領域の頻度を検出し、より頻度が高い前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。 The luminance expansion processing unit
The frequency of the reference area having the same parallax value is detected for each of the reference areas of the image data to be subjected to the luminance expansion processing, and the luminance expansion ratio is higher for the reference area having a higher frequency. in the expansion coefficient on corrected, the image display apparatus according to claim 1 or 2, characterized by applying the luminance expansion processing on the image data corresponding to each of said reference region.
前記輝度伸張処理部は、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データを前記変調部に出力し、
前記輝度伸張処理部による輝度伸張処理に対応して、前記光源が発した光を調光する調光部を備えること、を特徴とする請求項1乃至5のいずれかに記載の画像表示装置。 A modulation unit for modulating the light emitted from the light source;
The luminance expansion processing unit outputs the right-eye image data and the left-eye image data subjected to the luminance expansion processing to the modulation unit,
Corresponding to the luminance expansion process by the luminance expansion processing unit, an image display apparatus according to any one of claims 1 to 5 wherein the light source may comprise a dimmer for dimming the light emitted, characterized by.
立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、
前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、を備え、
前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像供給装置。 An image supply device for supplying image data to an image display device,
A feature amount calculation unit that calculates an image feature amount related to the brightness of the image data based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data;
Based on the image feature amount calculated by the feature amount calculation unit, an expansion coefficient calculation unit that calculates an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data;
Luminance based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit with respect to the right-eye image data and the left-eye image data A luminance expansion processing unit for performing expansion processing ,
The luminance expansion processing unit is configured to perform the reference in the other image data for each of a plurality of reference regions in one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. Detecting a separation amount with each of the regions corresponding to the region, and using a disparity value having a positive correlation with the detected separation amount, based on the expansion coefficient calculated by the expansion coefficient calculation unit, An image supply apparatus that performs luminance expansion processing on image data corresponding to the reference area .
算出した画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出し、
前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像処理方法。 Based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data, an image feature amount related to the luminance of the image data is calculated,
Based on the calculated image feature amount, calculates an expansion coefficient related to the luminance expansion processing applied to the right-eye image data and the left-eye image data,
Of each of the image data for the right eye and the image data for the left eye , each of a plurality of reference areas in one image data to be subjected to luminance expansion processing, each of the areas corresponding to the reference area in the other image data And a luminance expansion process on the image data corresponding to each of the reference regions based on the calculated expansion coefficient using a parallax value having a positive correlation with the detected separation amount. An image processing method characterized by applying the image processing method.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010164601A JP5585266B2 (en) | 2010-07-22 | 2010-07-22 | Image display device, image supply device, and image processing method |
US13/187,122 US9350982B2 (en) | 2010-07-22 | 2011-07-20 | Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010164601A JP5585266B2 (en) | 2010-07-22 | 2010-07-22 | Image display device, image supply device, and image processing method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2012028965A JP2012028965A (en) | 2012-02-09 |
JP2012028965A5 JP2012028965A5 (en) | 2013-08-15 |
JP5585266B2 true JP5585266B2 (en) | 2014-09-10 |
Family
ID=45781396
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010164601A Expired - Fee Related JP5585266B2 (en) | 2010-07-22 | 2010-07-22 | Image display device, image supply device, and image processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5585266B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5861324B2 (en) | 2011-08-30 | 2016-02-16 | セイコーエプソン株式会社 | Projector and projector control method |
JP6014343B2 (en) * | 2012-03-23 | 2016-10-25 | ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. | Image processing apparatus and image processing method |
JP2014003465A (en) | 2012-06-19 | 2014-01-09 | Seiko Epson Corp | Image display device and control method therefor |
JP6175810B2 (en) | 2013-03-06 | 2017-08-09 | セイコーエプソン株式会社 | Image processing apparatus, projector, and image processing method |
JP6201358B2 (en) | 2013-03-22 | 2017-09-27 | セイコーエプソン株式会社 | Image processing apparatus, projector, and image processing method |
JP6213211B2 (en) | 2013-12-18 | 2017-10-18 | セイコーエプソン株式会社 | Projector and projector control method |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007110360A (en) * | 2005-10-13 | 2007-04-26 | Ntt Comware Corp | Stereoscopic image processing apparatus and program |
JP2010020241A (en) * | 2008-07-14 | 2010-01-28 | Sony Corp | Display apparatus, method of driving display apparatus, drive-use integrated circuit, driving method employed by drive-use integrated circuit, and signal processing method |
JP2010152521A (en) * | 2008-12-24 | 2010-07-08 | Toshiba Corp | Apparatus and method for performing stereographic processing to image |
JP2011250229A (en) * | 2010-05-28 | 2011-12-08 | Sony Corp | Video signal processing apparatus, video signal processing method, and computer program |
-
2010
- 2010-07-22 JP JP2010164601A patent/JP5585266B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2012028965A (en) | 2012-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9350982B2 (en) | Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image | |
US8520038B2 (en) | Image display apparatus, image display method, and image supply apparatus | |
JP5585266B2 (en) | Image display device, image supply device, and image processing method | |
US9380284B2 (en) | Image processing method, image processing device and recording medium | |
JP5585265B2 (en) | Image display device, image supply device, and image processing method | |
US20170324944A1 (en) | Video display apparatus, video display system, and video display method | |
JP2013514003A (en) | Zero-dimensional dimming of 3D display | |
KR102175813B1 (en) | Three dimensional image display device and method of processing image | |
JPWO2019229906A1 (en) | Image display system | |
JP2012028964A5 (en) | ||
US20140198104A1 (en) | Stereoscopic image generating method, stereoscopic image generating device, and display device having same | |
JP2012028965A5 (en) | ||
US10992927B2 (en) | Stereoscopic image display apparatus, display method of liquid crystal display, and non-transitory computer-readable recording medium storing program of liquid crystal display | |
JP2012104921A (en) | Video signal processing device, video signal processing method, and computer program | |
US9516300B2 (en) | Image processing apparatus, image processing method, and program | |
JP6069854B2 (en) | Video display device and video display method | |
KR20140004393A (en) | Display apparatus and control method thereof | |
JP2005250978A (en) | Three-dimensional picture processor and three-dimensional picture processing method | |
KR20140088465A (en) | Display method and display apparatus | |
JP2014032338A (en) | Image display device and image display method | |
JP2015149547A (en) | Image processing method, image processing apparatus, and electronic apparatus | |
JP5828400B2 (en) | Video display device and video display method | |
JP2014150401A (en) | Display apparatus and program | |
JP2012151641A (en) | Stereoscopic image display device, control method of stereoscopic image display device, and stereoscopic image display system | |
CN106291932A (en) | A kind of virtual implementing helmet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130703 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130703 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140205 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140624 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140707 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5585266 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |