Nothing Special   »   [go: up one dir, main page]

JP5585266B2 - Image display device, image supply device, and image processing method - Google Patents

Image display device, image supply device, and image processing method Download PDF

Info

Publication number
JP5585266B2
JP5585266B2 JP2010164601A JP2010164601A JP5585266B2 JP 5585266 B2 JP5585266 B2 JP 5585266B2 JP 2010164601 A JP2010164601 A JP 2010164601A JP 2010164601 A JP2010164601 A JP 2010164601A JP 5585266 B2 JP5585266 B2 JP 5585266B2
Authority
JP
Japan
Prior art keywords
image data
eye
luminance
luminance expansion
expansion processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2010164601A
Other languages
Japanese (ja)
Other versions
JP2012028965A5 (en
JP2012028965A (en
Inventor
達彦 昇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2010164601A priority Critical patent/JP5585266B2/en
Priority to US13/187,122 priority patent/US9350982B2/en
Publication of JP2012028965A publication Critical patent/JP2012028965A/en
Publication of JP2012028965A5 publication Critical patent/JP2012028965A5/ja
Application granted granted Critical
Publication of JP5585266B2 publication Critical patent/JP5585266B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、光源が発した光を変調する変調部を有する画像表示装置、この画像表示装置に画像データを供給する画像供給装置、及び、画像処理方法に関する。   The present invention relates to an image display apparatus having a modulation unit that modulates light emitted from a light source, an image supply apparatus that supplies image data to the image display apparatus, and an image processing method.

従来、画像を立体的に表現することを目的として、入力された右目用画像データと、この左目用画像データとに基づいて、右目用の画像と左目用の画像とをスクリーンに交互に投射する画像表示装置が知られている(例えば、特許文献1参照)。
また、従来、スクリーンに画像を投射する画像表示装置において、スクリーンに投射される画像のダイナミックレンジを拡大しコントラスト感を向上すべく、画像データに対して輝度の伸張処理を施すものが知られている(例えば、特許文献2参照)。
Conventionally, for the purpose of expressing an image three-dimensionally, a right-eye image and a left-eye image are alternately projected on a screen based on the input right-eye image data and the left-eye image data. An image display device is known (see, for example, Patent Document 1).
Conventionally, in an image display device that projects an image on a screen, a device that performs a luminance expansion process on the image data in order to expand the dynamic range of the image projected on the screen and improve the contrast is known. (For example, refer to Patent Document 2).

特開2009−232308号公報JP 2009-232308 A 特開2002−31846号公報JP 2002-31846 A

ここで、特許文献1に係る画像表示装置のように、右目用の画像と左目用の画像とを交互に投射する画像表示装置において、右目用画像データ及び左目用画像データに対して特許文献2のような輝度の伸張処理を実行する場合を想定する。
この場合、右目用画像データ、及び、この右目用画像データに対応する左目用画像データは、画像を立体的に表現すべく、右目と左目との視差を反映して生成されたデータである、という特徴を踏まえて、効果的に輝度伸張処理を施したいとするニーズがある。
本発明は、上述した事情に鑑みてなされたものであり、右目用画像データと左目用画像データとの間における視差を踏まえて、これら画像データに効果的に輝度伸張処理を施すことを目的とする。
Here, in an image display device that alternately projects an image for the right eye and an image for the left eye, such as the image display device according to Patent Document 1, the image data for right eye and the image data for left eye are disclosed in Patent Document 2. Assume that the luminance expansion process is executed.
In this case, the image data for the right eye and the image data for the left eye corresponding to the image data for the right eye are data generated by reflecting the parallax between the right eye and the left eye in order to express the image in three dimensions. Based on the above characteristics, there is a need for effective luminance extension processing.
The present invention has been made in view of the above-described circumstances, and an object thereof is to effectively perform luminance expansion processing on image data based on parallax between right-eye image data and left-eye image data. To do.

上記目的を達成するために、本発明は、画像表示装置において、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データに基づき、画像を表示する画像表示部と、を備えることを特徴とする。
この構成によれば、輝度伸張処理部は、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, according to the present invention, in an image display device, an image feature amount related to luminance of image data is calculated based on right-eye image data and left-eye image data constituting stereoscopic image data. A feature amount calculating section; and an expansion coefficient calculating section for calculating an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data based on the image feature amount calculated by the feature amount calculating section. The right-eye image data and the left-eye image data based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit. A luminance expansion processing unit that performs luminance expansion processing; and an image display unit that displays an image based on the right-eye image data and the left-eye image data subjected to the luminance expansion processing; Characterized in that it obtain.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. The processing unit can perform effective luminance expansion processing based on parallax.

ここで、上記発明の画像表示装置であって、前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる画像データを区分して形成された基準領域のそれぞれについて、各前記基準領域における視差を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
この構成によれば、輝度伸張処理部は、右目用画像データ、及び、左目用画像データに対して、従来のように、一様の伸張係数に基づいて、画像データ全体に輝度伸張処理を施すのではなく、画像データを区分して形成された基準領域のそれぞれにおける視差を反映して、各基準領域に対応する画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
Here, in the image display device according to the invention, the luminance expansion processing unit forms image data to be subjected to luminance expansion processing from the right-eye image data and the left-eye image data. For each of the reference areas, the image data corresponding to each reference area is subjected to luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit using the parallax in each reference area. Also good.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on the entire image data based on the uniform expansion coefficient, as in the past, for the right-eye image data and the left-eye image data. Instead of reflecting the parallax in each of the reference areas formed by dividing the image data, and applying the luminance expansion processing to the image data corresponding to each reference area, the luminance expansion processing unit takes into account the parallax It is possible to perform a typical luminance expansion process.

また、上記発明の画像表示装置であって、前記輝度伸張処理部は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる一方の画像データの前記基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を算出し、算出した視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、「一方の画像データにおける1の基準領域と、他方の画像データにおいて当該1の基準領域に対応する領域との間の離間量」とは、右目用画像データと、左目用画像データとを同一の座標系に展開したときに、1の基準領域と、当該1の基準領域に対応する領域との間の座標上の距離に相当する値のことである。
また、「他方の画像データにおいて当該1の基準領域に対応する領域」とは、他方の画像データにおいて、一方の画像データの基準領域が示す画像の視差が反映された画像が位置する領域、のことである。
一方の画像データを区分して形成された基準領域のうちの1の基準領域、及び、他方の画像データにおいて当該1の基準領域に対応する領域の間における離間量と、当該1の基準領域における視差の大きさには以下のような関係がある。すなわち、右目用画像データ、及び、左目用画像データでは、これら画像データによって表現すべき立体画像に含まれる1のオブジェクトに係る画像について、当該立体画像に対応する仮想空間内で当該1のオブジェクトがより手前側に存在すればするほど(=視差が大きければ大きいほど)、右目用画像データにおける当該オブジェクトを示す領域と、左目用画像データにおける当該オブジェクトを示す領域との離間量が大きくなる。従って、一方の画像データの1の基準領域と、他方の画像データにおいて当該1の基準領域に対応する領域との間の離間量と、当該1の基準領域における視差の大きさとは、正の相関関係があり、離間量が大きいほど、視差が大きい関係にある。なお、上記の説明は、右目用画像データ、及び、左目用画像データによって表現すべき立体画像における仮想空間内で、オブジェクトは、遠近の判断の基準として仮想的に設定される基準面よりも手前側に存在しているものとする。
これを踏まえ、上述した構成によれば、輝度伸張処理部は、上述した離間量と正の相関関係を有する視差値を算出し、算出した視差値を利用して、各基準領域に対応する画像データに対して輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit is configured to each of the reference regions of one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. For the other image data, a separation amount with each of the regions corresponding to the reference region is detected, a disparity value having a positive correlation with the detected separation amount is calculated, and the calculated disparity value is used. The image data corresponding to each reference area may be subjected to luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit.
Here, the “amount of separation between one reference area in one image data and an area corresponding to the one reference area in the other image data” refers to right-eye image data, left-eye image data, and Is a value corresponding to a coordinate distance between one reference area and an area corresponding to the one reference area.
In addition, the “region corresponding to the one reference region in the other image data” is a region in which the image in which the parallax of the image indicated by the reference region of one image data is reflected is located in the other image data. That is.
One reference area of the reference areas formed by dividing one image data, and the distance between areas corresponding to the one reference area in the other image data, and the one reference area The magnitude of parallax has the following relationship. That is, in the image data for the right eye and the image data for the left eye, for the image related to one object included in the stereoscopic image to be expressed by these image data, the one object is in the virtual space corresponding to the stereoscopic image. The closer to the front side (= the larger the parallax), the larger the distance between the region indicating the object in the right-eye image data and the region indicating the object in the left-eye image data. Therefore, the amount of separation between one reference area of one image data and the area corresponding to the one reference area in the other image data and the magnitude of the parallax in the one reference area are positively correlated. There is a relationship, and the larger the separation amount, the larger the parallax. In the above description, the object is in front of the reference plane virtually set as the reference for perspective determination in the virtual space in the stereoscopic image to be represented by the right-eye image data and the left-eye image data. It is assumed to exist on the side.
Based on this, according to the above-described configuration, the luminance expansion processing unit calculates a parallax value having a positive correlation with the above-described separation amount, and uses the calculated parallax value to generate an image corresponding to each reference region. Since the luminance expansion processing is performed on the data, the luminance expansion processing unit can perform effective luminance expansion processing based on parallax.

また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のうち、算出した視差値が所定の閾値を上回っている前記基準領域に対応する画像データに対して、輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データによって表現される立体画像は、背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに対して重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域に係る画像データに対して輝度伸張処理を施すため、輝度伸張処理部により、背景画像ではなく、ある程度の立体感をもって表現されるべき画像に係る画像データに対して重点的に輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the invention, the luminance expansion processing unit includes the reference region in which the calculated parallax value exceeds a predetermined threshold among the reference regions of the image data to be subjected to luminance expansion processing. Luminance expansion processing may be performed on the image data corresponding to.
Here, the stereoscopic image represented by the right-eye image data and the left-eye image data is composed of a background image indicating the background and an image expressed with a certain amount of stereoscopic effect on the background image. There is a case. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform luminance expansion processing on image data related to the above.
Based on this, according to the above configuration, the luminance expansion processing unit has a probability that the parallax value is higher than a predetermined threshold and is an area related to an image that should be expressed with a certain degree of stereoscopic effect rather than an area related to the background image. In order to perform the luminance expansion processing on the image data related to the reference area having a high level, the luminance expansion processing unit emphasizes the luminance on the image data on the image that should be expressed with a certain degree of stereoscopic effect, not on the background image. An expansion process can be performed.

また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、算出した視差値がより大きい前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データにより表現される立体画像では、より手前に存在するように表現されるオブジェクトに係る画像ほど、立体感や迫力が強調された重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、視差値がより大きい基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各基準領域に対応する画像データに輝度伸張処理を施すため、より手前に存在するように表現されるオブジェクトに係る画像の画像データほど、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit increases the luminance of the reference region having a larger calculated parallax value for each of the reference regions of the image data to be subjected to the luminance expansion processing. After correcting the expansion coefficient so as to increase the expansion rate, the image data corresponding to each reference area may be subjected to luminance expansion processing.
Here, in the stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object expressed so as to exist closer to the front is an important image in which the stereoscopic effect and power are emphasized. There is a tendency, and when performing the luminance expansion processing, there is a need to perform the luminance expansion processing on the image data of the image related to such an object based on the expansion coefficient having a higher luminance expansion ratio. .
Based on this, according to the above configuration, the luminance expansion processing unit corrects the expansion coefficient so that the luminance expansion rate becomes higher in the reference region having a larger parallax value, and then the image data corresponding to each reference region. Therefore, the image data of the image related to the object expressed so as to exist in the foreground can be subjected to the luminance expansion processing based on the expansion coefficient having a higher luminance expansion rate.

また、上記発明の画像表示装置であって、前記輝度伸張処理部は、輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、同程度の視差値を有する前記基準領域の頻度を検出し、より頻度が高い前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施してもよい。
ここで、右目用画像データ、及び、左目用画像データにより表現される立体画像では、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像ほど、当該立体画像において重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。
これを踏まえ、上記構成によれば、輝度伸張処理部は、同程度の視差値を有する基準領域の頻度を検出し、頻度が高い基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各基準領域に対応する画像データに輝度伸張処理を施すため、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像の画像データほど、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
Further, in the image display device according to the above invention, the luminance expansion processing unit detects the frequency of the reference region having a similar parallax value for each of the reference regions of the image data to be subjected to luminance expansion processing. Then, the luminance expansion processing may be performed on the image data corresponding to each reference region after correcting the expansion coefficient so that the higher the frequency of the reference region, the higher the luminance expansion rate.
Here, in the stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object in which there are more objects expressed so that the positions in the depth direction are approximately the same. There is a tendency to be an important image in a stereoscopic image, and when performing luminance expansion processing, luminance expansion processing is performed on image data of an image related to such an object based on an expansion coefficient having a higher luminance expansion rate. There is a need to apply.
Based on this, according to the above configuration, the luminance expansion processing unit detects the frequency of the reference area having the same degree of parallax value, and sets the expansion coefficient so that the higher the frequency of the reference area, the higher the luminance expansion rate. In order to perform luminance expansion processing on the image data corresponding to each reference area after correction, the image data of an image related to an object in which there are more objects expressed so that the positions in the depth direction are approximately the same. Therefore, it is possible to perform the luminance expansion processing based on the expansion coefficient having a higher luminance expansion rate.

また、上記発明の画像表示装置であって、光源が発した光を変調する変調部を備え、前記輝度伸張処理部は、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データを前記変調部に出力し、前記輝度伸張処理部による輝度伸張処理に対応して、前記光源が発した光を調光する調光部を備えてもよい。
この構成によれば、変調部を介して投射される画像について、画像の見かけ上の明るさを維持しつつ、画像のダイナミックレンジを拡大してコントラスト感を向上することができる。
The image display device according to the invention includes a modulation unit that modulates light emitted from a light source, and the luminance expansion processing unit includes the right-eye image data and the left-eye image subjected to the luminance expansion processing. A light control unit may be provided that outputs data to the modulation unit and controls light emitted from the light source in accordance with the luminance expansion processing performed by the luminance expansion processing unit.
According to this configuration, with respect to the image projected via the modulation unit, it is possible to increase the dynamic range of the image and improve the contrast while maintaining the apparent brightness of the image.

また、上記目的を達成するために、本発明は、画像表示装置に画像データを供給する画像供給装置であって、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、を備えることを特徴とする。
この構成によれば、輝度伸張処理部は、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, the present invention provides an image supply device that supplies image data to an image display device, and is based on right-eye image data and left-eye image data constituting stereoscopic image data. A feature amount calculation unit that calculates an image feature amount related to the luminance of the image data, and luminance expansion applied to the right-eye image data and the left-eye image data based on the image feature amount calculated by the feature amount calculation unit A parallax between the right-eye image data and the left-eye image data with respect to the expansion coefficient calculation unit that calculates an expansion coefficient for processing, the right-eye image data, and the left-eye image data; and A luminance expansion processing unit that performs luminance expansion processing based on the expansion coefficient calculated by the expansion coefficient calculation unit.
According to this configuration, the luminance expansion processing unit performs luminance expansion processing on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. The processing unit can perform effective luminance expansion processing based on parallax.

また、上記目的を達成するために、本発明は、画像処理方法であって、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出し、算出した画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出し、前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び算出した伸張係数に基づいて輝度伸張処理を施すことを特徴とする。
この画像処理方法によれば、右目用画像データと左目用画像データとの間の視差、及び算出された伸張係数に基づいて、各画像データに輝度伸張処理を施すため、視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
In order to achieve the above object, the present invention is an image processing method, which is an image feature related to brightness of image data based on right-eye image data and left-eye image data constituting stereoscopic image data. A right-eye image data, and a left-eye image; a right-eye image data; and a left-eye image; a right-eye image data; and a left-eye image; A luminance expansion process is performed on the data based on a parallax between the right-eye image data and the left-eye image data and a calculated expansion coefficient.
According to this image processing method, luminance expansion processing is performed on each image data based on the parallax between the right-eye image data and the left-eye image data and the calculated expansion coefficient. Thus, it is possible to perform a luminance expansion process.

本発明によれば、右目用画像データと左目用画像との間における視差を踏まえて、これら画像データに効果的に輝度伸張処理を施すことができる。   According to the present invention, it is possible to effectively perform luminance expansion processing on image data based on parallax between the image data for the right eye and the image for the left eye.

第1実施形態に係る画像表示装置の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of the image display apparatus which concerns on 1st Embodiment. 適応調光処理における画像表示装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the image display apparatus in an adaptive light control process. 画素ブロックが形成された画像データを模式的に示す図である。It is a figure which shows typically the image data in which the pixel block was formed. 輝度伸張率を求めるためのLUTを模式的に示す図である。It is a figure which shows typically the LUT for calculating | requiring a luminance expansion rate. 視差を説明するため合成立体画像に対応する仮想空間を上から見た図。The figure which looked at the virtual space corresponding to a synthetic | combination stereo image from the top in order to demonstrate parallax. 右目用画像データ、及び、左目用画像データを模式的に示す図である。It is a figure which shows typically the image data for right eyes, and the image data for left eyes. 輝度伸張処理部の機能的構成を示すブロック図である。It is a block diagram which shows the functional structure of a brightness expansion process part. 基準領域座標算出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a reference | standard area | region coordinate calculation part. 視差値算出部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a parallax value calculation part. 左目用画像データを模式的に示す図である。It is a figure which shows the image data for left eyes typically. 輝度伸張処理実行部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a brightness expansion process execution part.

<第1実施形態>
以下、図面を参照して本発明の実施形態について説明する。
図1は、本発明を適用した第1の実施形態に係る画像表示装置1の機能的構成を示す図である。
この図1に示す画像表示装置1は、スクリーン5に3D(立体)映像を投射するプロジェクターであり、光源装置110と、光源装置110が発した光を変調する変調部としてのライトバルブ130と、ライトバルブ130で変調された光を集光及び拡散してスクリーン5に投射する投射光学系140と、を備えて構成される。
画像表示装置1は、右目用の画像と左目用の画像とを交互にスクリーン5に投射することにより、時分割方式で立体画像をスクリーン5に投射する。この投射画像を見る人は、例えば液晶シャッターを備えた眼鏡型のフィルターを装用することで、立体的な画像を見ることができる。
<First Embodiment>
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram showing a functional configuration of an image display apparatus 1 according to the first embodiment to which the present invention is applied.
The image display device 1 shown in FIG. 1 is a projector that projects a 3D (stereoscopic) image on a screen 5, and includes a light source device 110, a light valve 130 as a modulation unit that modulates light emitted from the light source device 110, A projection optical system 140 that condenses and diffuses the light modulated by the light valve 130 and projects the light onto the screen 5.
The image display device 1 projects a three-dimensional image on the screen 5 in a time division manner by alternately projecting a right-eye image and a left-eye image onto the screen 5. A person who sees this projection image can see a three-dimensional image by wearing a glasses-type filter equipped with a liquid crystal shutter, for example.

光源装置110は、キセノンランプや、超高圧水銀ランプ、LED(Light Emitting Diode)等の光源を備えている。また、光源装置110は、光源が発した光をライトバルブ130に導くリフレクター及び補助リフレクターを備えていてもよく、光の光学特性を高めるためのレンズ群(図示略)や偏光板等を備えたものであってもよい。
光源装置110は、光源が発した光がライトバルブ130に至る経路上で、光量を減光させる調光素子120を備えている。調光素子120は、例えば、光源装置110が発した光を遮る減光板と、この減光板の位置または角度を所定の減光率に合わせて調整する駆動回路とを備えて構成され、光を遮る位置に減光板を進出させることによって減光する。調光素子120は、減光板に代えて液晶シャッターで構成することも可能であり、この場合、液晶シャッターの全体または一部の透過率を調整することで減光する。
The light source device 110 includes a light source such as a xenon lamp, an ultra-high pressure mercury lamp, or an LED (Light Emitting Diode) . The light source device 110 may include a reflector and an auxiliary reflector that guide light emitted from the light source to the light valve 130, and includes a lens group (not shown), a polarizing plate, and the like for enhancing the optical characteristics of the light. It may be a thing.
The light source device 110 includes a light control element 120 that reduces the amount of light on a path where light emitted from the light source reaches the light valve 130. The light control element 120 includes, for example, a light reduction plate that blocks light emitted from the light source device 110, and a drive circuit that adjusts the position or angle of the light reduction plate according to a predetermined light reduction rate. It is dimmed by advancing the light-reducing plate to the blocking position. The light control element 120 can also be constituted by a liquid crystal shutter instead of the light reducing plate, and in this case, the light is reduced by adjusting the transmittance of the whole or a part of the liquid crystal shutter.

ライトバルブ130は、RGBの各色に対応した3枚の透過型液晶パネルにより構成され、後述する輝度伸張処理部50により輝度伸張処理が施された画像データを、垂直同期信号(Vsync)に同期して透過型液晶パネル上に描画する。
投射光学系140は、ライトバルブ130で変調されたRGB3色の変調光を合成するプリズム、プリズムで合成された投射画像をスクリーン5に結像させるレンズ群等を備えている。
これら光源装置110、ライトバルブ130、及び投射光学系140を含む画像の表示に係る各構成部は全体として、本発明の画像表示部に相当するが、画像を表示することが可能であれば、その一部または全部を上記のような各種の機能部によって代替できる。
The light valve 130 is composed of three transmissive liquid crystal panels corresponding to each color of RGB, and synchronizes the image data subjected to the luminance expansion processing by the luminance expansion processing unit 50 described later with a vertical synchronization signal (Vsync). Then draw on the transmissive LCD panel.
The projection optical system 140 includes a prism that synthesizes RGB three-color modulated light modulated by the light valve 130, a lens group that forms a projection image synthesized by the prism on the screen 5, and the like.
Each component related to image display including the light source device 110, the light valve 130, and the projection optical system 140 corresponds to the image display unit of the present invention as a whole, but if an image can be displayed, Some or all of them can be replaced by various functional units as described above.

また、画像表示装置1は、内蔵する記憶装置が記憶する映像ソース(図示略)、または、パーソナルコンピューターや各種映像プレーヤー等の外部の画像供給装置(図示略)から入力される立体映像信号に基づいて画像を投射する。
画像表示装置1は、画像表示装置1全体を制御する制御部10、上記映像ソースまたは外部の画像供給装置から入力される立体映像信号をもとに、右目用画像データと左目用画像データとを交互に出力する画像入力部20、画像入力部20から入力された右目用画像データ及び左目用画像データに基づいて、画像特徴量を求める特徴量算出部30、特徴量算出部30が求めた画像特徴量に基づいて輝度伸張率(伸張係数)を算出する輝度伸張率算出部40(伸張係数算出部)、輝度伸張率算出部40が算出した輝度伸張率に従って輝度伸張処理を施す輝度伸張処理部50、特徴量算出部30が求めた画像特徴量から減光率を算出する減光率算出部60、及び、減光率算出部60が算出した減光率に基づいて調光素子120を駆動して減光させる減光処理部70を備えている。
画像表示装置1は、上記の各機能部によって、投射する画像の適応調光処理を行う。すなわち、光源装置110が発する光を減光するとともに、ライトバルブ130が描画する画像の階調を伸張させる処理を行い、これによりダイナミックレンジの拡大、コントラスト感の向上を図る。
The image display device 1 is also based on a video source (not shown) stored in a built-in storage device or a stereoscopic video signal input from an external image supply device (not shown) such as a personal computer or various video players. Project an image.
The image display apparatus 1 uses the control unit 10 that controls the entire image display apparatus 1, and the right-eye image data and the left-eye image data based on a stereoscopic video signal input from the video source or an external image supply apparatus. An image input unit 20 that outputs alternately, a feature amount calculation unit 30 that calculates an image feature amount based on the image data for the right eye and the image data for the left eye that are input from the image input unit 20, and the image that the feature amount calculation unit 30 determines A luminance expansion rate calculation unit 40 (expansion coefficient calculation unit) that calculates a luminance expansion rate (expansion coefficient) based on the feature amount, and a luminance expansion processing unit that performs luminance expansion processing according to the luminance expansion rate calculated by the luminance expansion rate calculation unit 40 50, a dimming rate calculating unit 60 that calculates the dimming rate from the image feature amount obtained by the feature amount calculating unit 30, and the dimming element 120 is driven based on the dimming rate calculated by the dimming rate calculating unit 60. Then dimmed And a light reduction processing unit 70.
The image display device 1 performs adaptive dimming processing of the image to be projected by each of the above function units. In other words, the light emitted from the light source device 110 is reduced, and the gradation of the image drawn by the light valve 130 is extended, thereby increasing the dynamic range and improving the contrast.

図2は、画像表示装置1の動作を示すフローチャートであり、上述した画像表示装置1の各部により実行される適応調光処理における処理手順を示している。以下、この図2のフローチャートと図1を参照して、適応調光処理の詳細について説明する。   FIG. 2 is a flowchart showing the operation of the image display device 1 and shows a processing procedure in the adaptive light control processing executed by each unit of the image display device 1 described above. The details of the adaptive dimming process will be described below with reference to the flowchart of FIG. 2 and FIG.

画像入力部20は、フレームパッキング方式や、サイドバイサイド方式、トップアンドボトム方式等の各種の立体映像フォーマットに対応している。画像入力部20は、立体映像信号が入力されると(ステップS11)、入力された立体映像信号から右目用画像データと左目用画像データとをそれぞれ生成し、入力された順に特徴量算出部30及び輝度伸張処理部50へ出力する(ステップS12)。
本実施形態では、画像入力部20によって生成される右目用画像データ、及び、左目用画像データのそれぞれは、ビットマップ形式のデータであり、データ上でドットマトリクス状に配置された各画素について、画素ごとにRGB系の色成分を階調値(例えば、0−255段階の階調値)として保持したものである。
入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、画像入力部20は、入力信号から右目用画像データと左目用画像データとをそれぞれ切り出し、切り出した画像データをライトバルブ130の表示解像度に合わせて伸張する処理を行って、伸張後の画像データを出力する。
ここで、画像入力部20から特徴量算出部30及び輝度伸張処理部50には、右目用画像データと左目用画像データとが、右目用画像データが先になるように、交互に出力される。また、画像入力部20は、出力中の画像データが右目用画像データと左目用画像データのどちらであるかを示すRL識別信号と、右目用画像データと左目用画像データとの各々の垂直同期信号VSyncとを出力する。入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、この入力信号に含まれる垂直同期信号は一つのフレームに一つである。この場合、画像入力部20は、入力信号から右目用画像データと左目用画像データとをそれぞれ切り出すとともに、切り出した右目用画像データと左目用画像データとのそれぞれの描画開始タイミングを示す垂直同期信号VSyncを生成して出力する。
The image input unit 20 supports various 3D video formats such as a frame packing method, a side-by-side method, and a top-and-bottom method. When a stereoscopic video signal is input (step S11), the image input unit 20 generates right-eye image data and left-eye image data from the input stereoscopic video signal, and the feature amount calculation unit 30 in the input order. And output to the luminance expansion processing unit 50 (step S12).
In the present embodiment, each of the right-eye image data and the left-eye image data generated by the image input unit 20 is bitmap format data, and for each pixel arranged in a dot matrix on the data, For each pixel, RGB color components are held as gradation values (for example, gradation values of 0 to 255 levels).
When the format of the input stereoscopic video signal is the side-by-side format or the top-and-bottom format, the image input unit 20 cuts out the right-eye image data and the left-eye image data from the input signal, and outputs the cut-out image data as a light valve. The image data is decompressed in accordance with the display resolution of 130, and the decompressed image data is output.
Here, the image input unit 20 outputs the right eye image data and the left eye image data alternately to the feature amount calculation unit 30 and the luminance expansion processing unit 50 so that the right eye image data comes first. . The image input unit 20 also performs vertical synchronization of the RL identification signal indicating whether the image data being output is right-eye image data or left-eye image data, and right-eye image data and left-eye image data. The signal VSync is output. When the format of the input stereoscopic video signal is a side-by-side format or a top-and-bottom format, one vertical synchronization signal is included in this input signal. In this case, the image input unit 20 cuts out the right-eye image data and the left-eye image data from the input signal, and the vertical synchronization signal indicating the drawing start timing of the cut-out right-eye image data and left-eye image data. Generate and output VSync.

制御部10は、画像入力部20から入力されるRL識別信号及び垂直同期信号VSyncに基づいて画像表示装置1の各部を制御する。
特徴量算出部30には、画像入力部20が出力する右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとが入力される。特徴量算出部30は、RL識別信号及び垂直同期信号VSyncに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データと左目用画像データとをそれぞれ取得する。そして、特徴量算出部30は、取得した両方の画像データの各々について、画像特徴量を算出する(ステップS13)。特徴量算出部30が算出する画像特徴量は、例えば、画像データ全体の最大輝度値(白ピーク値WP)、輝度値の平均値であるAPL(Average Picture Level)、最小輝度値(黒ピーク値BP)、輝度ヒストグラムである。特徴量算出部30は、算出した画像特徴量を輝度伸張率算出部40及び減光率算出部60に出力する。
The control unit 10 controls each unit of the image display device 1 based on the RL identification signal and the vertical synchronization signal VSync input from the image input unit 20.
The feature amount calculation unit 30 receives the right-eye image data and the left-eye image data output from the image input unit 20, the RL identification signal, and the vertical synchronization signal VSync. Based on the RL identification signal and the vertical synchronization signal VSync, the feature amount calculation unit 30 identifies whether the image data being input from the image input unit 20 is right-eye image data or left-eye image data, and right-eye image data and left-eye image data. Image data is obtained. Then, the feature amount calculation unit 30 calculates an image feature amount for each of both acquired image data (step S13). The image feature amount calculated by the feature amount calculation unit 30 is, for example, the maximum luminance value (white peak value WP) of the entire image data , APL (Average Picture Level) that is an average value of luminance values, and minimum luminance value (black peak value). BP), a luminance histogram. The feature amount calculation unit 30 outputs the calculated image feature amount to the luminance expansion rate calculation unit 40 and the dimming rate calculation unit 60.

図3は、本実施形態における処理対象の画像データの構成を模式的に示す図である。本実施形態では右目用画像データと左目用画像データのサイズ及び解像度は等しいので、右目用画像データも左目用画像データも同様に処理される。
特徴量算出部30は、例えば1920画素×1080画素の処理対象の画像データ(右目用画像データと左目用画像データのいずれか)を、図3に示すように横16個×縦9個の144個の画素ブロック200−1〜200−144に区分する。各画素ブロック200−1〜200−144のサイズは縦120画素、横120画素である。
特徴量算出部30は、画素ブロックを構成する各画素の輝度値を平均した値を当該画素ブロックの代表輝度値として求め、この代表輝度値を画素ブロック毎にRAM等に記憶する。ここで、上述したように、右目用画像データでは、画素ごとにRGBの色成分を階調値として保持しているが、ある1つの画素の輝度は、例えば、RGBの階調値の最大値を採用してもよいし、0.299×R信号値、0.587×G信号値、0.144×B信号値の合計値を採用してもよい。また、代表輝度値は、平均輝度値には限定されず、例えば、各画素ブロックの中央付近の画素の輝度値(代表値)を採用してもよい。特徴量算出部30は、一つの画像データを構成する各画素ブロックの代表輝度値の最大値を、画像データの白ピーク値WPとし、最小値を黒ピーク値BPとし、当該代表輝度値の平均値をAPLとする。また、画像データの各画素ブロックの代表輝度値の分布から輝度ヒストグラムを生成する。
FIG. 3 is a diagram schematically showing a configuration of image data to be processed in the present embodiment. In the present embodiment, since the size and resolution of the right-eye image data and the left-eye image data are the same, both the right-eye image data and the left-eye image data are processed in the same manner.
For example, the feature amount calculation unit 30 processes image data of 1920 pixels × 1080 pixels (either right-eye image data or left-eye image data) as shown in FIG. The pixel blocks are divided into 200-1 to 200-144. The size of each pixel block 200-1 to 200-144 is 120 pixels vertically and 120 pixels horizontally.
The feature amount calculation unit 30 obtains a value obtained by averaging the luminance values of the pixels constituting the pixel block as a representative luminance value of the pixel block, and stores the representative luminance value in the RAM or the like for each pixel block. Here, as described above, in the right-eye image data, the RGB color components are held as gradation values for each pixel, but the luminance of a certain pixel is, for example, the maximum value of the RGB gradation values. Or a total value of 0.299 × R signal value, 0.587 × G signal value, and 0.144 × B signal value may be employed. In addition, the representative luminance value is not limited to the average luminance value, and for example, the luminance value (representative value) of a pixel near the center of each pixel block may be adopted. The feature amount calculation unit 30 sets the maximum value of the representative luminance value of each pixel block constituting one image data as the white peak value WP of the image data, sets the minimum value as the black peak value BP, and averages the representative luminance values. The value is APL. Also, a luminance histogram is generated from the distribution of representative luminance values of each pixel block of the image data.

特徴量算出部30は、一つの立体画像を構成する一組の右目用画像データと左目用画像データとの各々について、上記のように画像データの白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムを求め、その後に、右目用画像データと左目用画像データとの代表値を求める(ステップS14)。代表値を決定する方法は、画像特徴量ごとに予め定められている。
(A)白ピーク値の場合
白ピーク値WPの代表値は、右目用画像データの白ピーク値WPと左目用画像データの白ピーク値WPのうち大きい方、すなわち明るい方の値を代表値とする。これを数式で表すと、下記式(1)のようになる。
WP0=Max(WPR、WPL)…(1)
ここで、WP0は白ピーク値の代表値、WPRは右目用画像データの白ピーク値であり、WPLは左目用画像データの白ピーク値である。
これは、調光処理においては、画像データ中で最も輝度の高い部分の輝度を基準とすることが適しているからである。例えば、白ピーク値WPの代表値を暗い方にした場合、右目用画像データ又は左目用画像データにおいて、最も高輝度の部分が輝度伸張により白飛びする可能性がある。
The feature amount calculation unit 30 performs the white peak value WP, the black peak value BP, APL, and the white peak value BP of the image data as described above for each of a set of right-eye image data and left-eye image data constituting one stereoscopic image. Then, a luminance histogram is obtained, and then representative values of the right-eye image data and the left-eye image data are obtained (step S14). A method for determining the representative value is predetermined for each image feature amount.
(A) White peak value The representative value of the white peak value WP is the larger of the white peak value WP of the right eye image data and the white peak value WP of the left eye image data, that is, the brighter value. To do. This can be expressed by the following equation (1).
WP 0 = Max (WP R , WP L ) (1)
Here, WP 0 is the representative value of the white peak value, WP R is the white peak value of the right-eye image data, and WP L is the white peak value of the left-eye image data.
This is because, in the light control processing, it is suitable to use the luminance of the highest luminance portion in the image data as a reference. For example, when the representative value of the white peak value WP is set to the darker side, in the right-eye image data or the left-eye image data, there is a possibility that the highest luminance portion will be blown out by luminance expansion.

(B)APLの場合
APLの代表値は、右目用画像データのAPLと左目用画像データのAPLの平均値とする。これを数式で表すと、下記式(2)のようになる。
APL0=Avg(APLR、APLL)…(2)
ここで、APL0はAPLの代表値、APLRは右目用画像データのAPLであり、APLLは左目用画像データのAPLである。
APLは本質的に輝度の平均値であるため、2つの画像データのAPLもまた平均値を求めることが適している。
(C)黒ピーク値の場合
黒ピーク値BPの代表値は、右目用画像データの黒ピーク値BPと左目用画像データの黒ピーク値BPのうち小さい方、すなわち暗い方の値を代表値とする。これを数式で表すと、下記式(3)のようになる。
BP0=Min(BPR、BPL)…(3)
ここで、BP0は黒ピーク値の代表値、BPRは右目用画像データの黒ピーク値であり、BPLは左目用画像データの黒ピーク値である。
黒ピーク値BPは画像データにおいて最も輝度が小さい部分の輝度であるから、対象となる画像データが2つであれば、これら2つの画像で最も暗い部分の輝度を代表値として採用することが、画像データのコントラストに適した輝度伸張処理を行うことができるため、好適である。
(D)輝度ヒストグラムの場合
輝度ヒストグラムの代表値は、右目用画像データの輝度ヒストグラムと左目用画像データの輝度ヒストグラムの平均を代表値とする。これを数式で表すと、下記式(4)のようになる。
Hist0(X)={HistR(X)+HistL(X)}/2…(4)
ここで、Hist0(X)は輝度ヒストグラムの代表値、HistR(X)は右目用画像データの輝度ヒストグラムを表し、HistL(X)は左目用画像データの輝度ヒストグラムを表す。階調値10bitの画像データの場合、X=0〜1023である。
この式(4)によれば、輝度の各階級の平均値が代表値となる。
(B) In the case of APL The representative value of APL is the average value of the APL of the image data for the right eye and the APL of the image data for the left eye. This is expressed by the following formula (2).
APL 0 = Avg (APL R , APL L ) (2)
Here, APL 0 is the representative value of APL, APL R is the APL of the image data for the right eye, and APL L is the APL of the image data for the left eye.
Since APL is essentially an average value of luminance, it is suitable that the APL of two image data also obtains an average value.
(C) In the case of the black peak value The representative value of the black peak value BP is the smaller of the black peak value BP of the right-eye image data and the black peak value BP of the left-eye image data, that is, the darker value. To do. This is expressed by the following formula (3).
BP 0 = Min (BP R , BP L ) (3)
Here, BP 0 is the representative value of the black peak value, BP R is the black peak value of the right-eye image data, and BP L is the black peak value of the left-eye image data.
Since the black peak value BP is the luminance of the portion with the lowest luminance in the image data, if there are two target image data, the luminance of the darkest portion of these two images may be adopted as a representative value. This is preferable because luminance expansion processing suitable for the contrast of image data can be performed.
(D) In the case of the luminance histogram The representative value of the luminance histogram is the average of the luminance histogram of the right-eye image data and the luminance histogram of the left-eye image data. This is expressed by the following equation (4).
Hist 0 (X) = {Hist R (X) + Hist L (X)} / 2 (4)
Here, Hist 0 (X) represents the representative value of the luminance histogram, Hist R (X) represents the luminance histogram of the right-eye image data, and Hist L (X) represents the luminance histogram of the left-eye image data. In the case of image data having a gradation value of 10 bits, X = 0 to 1023.
According to this equation (4), the average value of each class of luminance is the representative value.

このように、特徴量算出部30は、右目用画像データと左目用画像データとの各々について各種の画像特徴量を求め、求めた画像特徴量の代表値を、画像特徴量の種類または属性に対応した方法で求めるので、2つの画像データの画像特徴量から、輝度伸張処理に最適な値を求めることができる。そして、この画像特徴量の代表値が、輝度伸張率算出部40及び減光率算出部60に出力される。   As described above, the feature amount calculation unit 30 obtains various image feature amounts for each of the right-eye image data and the left-eye image data, and uses the obtained representative value of the image feature amount as the type or attribute of the image feature amount. Since it is obtained by a corresponding method, an optimum value for the luminance expansion processing can be obtained from the image feature amounts of the two image data. Then, the representative value of the image feature amount is output to the luminance expansion rate calculation unit 40 and the dimming rate calculation unit 60.

なお、特徴量算出部30は、図3に示したように画像データの全体について画像特徴量を求めるだけでなく、画像データの一部領域のみを対象として画像特徴量を求めてもよい。例えば、入力された画像データとライトバルブ130の表示解像度の関係で、画像データの周縁部に黒領域が発生する場合には、画像データの周縁部を除いた領域で画像特徴量を求めたり、画像データの周縁部の画素ブロックよりも中央部の画素ブロックが重要になるよう重み付けをして、この重みを加味して画像特徴量を求めたりしてもよい。
また、上述した例では、右目用画像データと左目用画像データとの各々について複数の画像特徴量を求め、求めた画像特徴量の代表値を、画像特徴量の種類または属性に対応した方法で求め、求めた代表値を出力する構成であったが、右目用画像データ、及び、左目用画像データのうちいずれか一方の画像データの画像特徴量を求め、求めた画像特徴量を出力する構成であってもよい。
さらには、画像データを画素ブロックに分割しないで、画像データ全体の各画素の輝度値のうち最大値を、画像データの白ピーク値WPとし、最小値を黒ピーク値BPとし、当該輝度値の平均値をAPLとし、各画素の輝度値の分布から輝度ヒストグラムを生成してもよい。
Note that the feature quantity calculation unit 30 may obtain not only the image feature quantity for the entire image data as shown in FIG. 3 but also the image feature quantity for only a partial region of the image data. For example, when a black region occurs in the peripheral portion of the image data due to the relationship between the input image data and the display resolution of the light valve 130, an image feature amount is obtained in the region excluding the peripheral portion of the image data, Weighting may be performed so that the central pixel block is more important than the peripheral pixel block of the image data, and the image feature amount may be obtained in consideration of the weight.
In the above-described example, a plurality of image feature amounts are obtained for each of the right-eye image data and the left-eye image data, and the representative values of the obtained image feature amounts are obtained by a method corresponding to the type or attribute of the image feature amount. The configuration is such that the obtained representative value is obtained, but the image feature amount of any one of the image data for the right eye and the image data for the left eye is obtained, and the obtained image feature amount is output. It may be.
Further, without dividing the image data into pixel blocks, the maximum value among the luminance values of each pixel of the entire image data is the white peak value WP of the image data, the minimum value is the black peak value BP, The average value may be APL, and a luminance histogram may be generated from the distribution of luminance values of each pixel.

輝度伸張率算出部40は、特徴量算出部30から入力される画像特徴量の代表値に基づいて、輝度伸張率を算出する(ステップS15)。
図4は、輝度伸張率を求めるためのLUT210を模式的に示す図である。この図4に例示するLUT210では、白ピーク値WPとAPLに対応して輝度伸張率が定義されている。
特徴量算出部30は、LUT210を参照し、画像入力部20から入力された白ピーク値WPとAPLの値に対応してLUT210に定義されている輝度伸張率を取得することで、輝度伸張率を求める。白ピーク値WPとAPLの値が、輝度伸張率が定義された格子点から外れている場合、画像入力部20は、白ピーク値WPとAPLの値の周囲の3点または4点の格子点に定義された輝度伸張率をもとに、補間演算を行って、輝度伸張率を算出する。このようにして特徴量算出部30は輝度伸張率を求め、求めた輝度伸張率を、輝度伸張処理部50に出力する。
特徴量算出部30は、図4に示すLUT210に限らず、白ピーク値WP、黒ピーク値BP、及びAPLに対応して輝度伸張率を定義した3次元のLUTを用いても良いし、黒ピーク値BPと白ピーク値WPまたは黒ピーク値BPとAPLを用いた2次元LUTを用いてもよく、白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、輝度伸張率を求めても良い。
The luminance expansion rate calculation unit 40 calculates the luminance expansion rate based on the representative value of the image feature amount input from the feature amount calculation unit 30 (step S15).
FIG. 4 is a diagram schematically showing an LUT 210 for obtaining the luminance expansion rate. In the LUT 210 illustrated in FIG. 4, the luminance expansion rate is defined corresponding to the white peak values WP and APL.
The feature amount calculation unit 30 refers to the LUT 210 and acquires the luminance expansion rate defined in the LUT 210 corresponding to the white peak value WP and the APL value input from the image input unit 20, thereby obtaining the luminance expansion rate. Ask for. When the white peak value WP and the APL value are out of the lattice points where the luminance expansion rate is defined, the image input unit 20 determines the three or four lattice points around the white peak value WP and the APL value. The luminance expansion rate is calculated by performing an interpolation operation based on the luminance expansion rate defined in (1). In this way, the feature amount calculation unit 30 calculates the luminance expansion rate, and outputs the calculated luminance expansion rate to the luminance expansion processing unit 50.
The feature quantity calculation unit 30 is not limited to the LUT 210 shown in FIG. 4, and may use a three-dimensional LUT that defines a luminance expansion rate corresponding to the white peak value WP, the black peak value BP, and the APL. A two-dimensional LUT using the peak value BP and the white peak value WP or the black peak value BP and APL may be used, and the calculation is based on one or more of the white peak value WP, the black peak value BP, APL, and the luminance histogram. The luminance expansion rate may be obtained by processing.

輝度伸張処理部50は、画像入力部20から入力される右目用画像データ及び左目用画像データの階調を、輝度伸張率算出部40によって求められた輝度伸張率に基づいて、伸張する(ステップS16)。
この輝度伸張処理部50の動作については、後に詳述する。
The luminance expansion processing unit 50 expands the gradation of the right-eye image data and the left-eye image data input from the image input unit 20 based on the luminance expansion rate obtained by the luminance expansion rate calculating unit 40 (step S16).
The operation of the luminance expansion processing unit 50 will be described in detail later.

一方、減光率算出部60は、特徴量算出部30から入力される画像特徴量の代表値に基づいて、減光率を算出する(ステップS17)。減光率の算出は、例えば、図4を参照して説明した輝度伸張率と同様に、白ピーク値WP、APL、黒ピーク値BPのうちの2以上に対応して減光率が定義されたLUT(図示略)を用い、このLUTを参照することで減光率を算出できる。すなわち、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPに対応してLUTに定義されている減光率を取得する。また、減光率算出部60は、画像入力部20から入力された白ピーク値WP、APL、或いは黒ピーク値BPが、減光率が定義された格子点から外れている場合、周囲の3点または4点の格子点に定義された減光率をもとに補間演算を行って、減光率を算出する。このようにして減光率算出部60は減光率を求め、求めた減光率を、減光処理部70に出力する。なお、減光率算出部60は、2次元LUTに限らず、3次元のLUTを用いても良いし、白ピーク値WP、黒ピーク値BP、APL、及び輝度ヒストグラムのうち1つ以上に基づく演算処理により、減光率を求めても良い。
そして、減光率算出部60は、算出した減光率kaとなるように調光素子120を駆動するための駆動信号を生成し、減光処理部70に出力する(ステップS18)。
On the other hand, the light attenuation rate calculation unit 60 calculates the light attenuation rate based on the representative value of the image feature amount input from the feature amount calculation unit 30 (step S17). Calculation of extinction ratio, for example, similarly to the luminance expansion rate as described with reference, white peak value WP, APL, the extinction ratio in response to two or more of the black peak value BP is defined to 4 The light attenuation rate can be calculated by using the LUT (not shown) and referring to this LUT. That is, the light attenuation rate calculation unit 60 acquires the light attenuation rate defined in the LUT corresponding to the white peak value WP, APL, or black peak value BP input from the image input unit 20. Further, when the white peak value WP, APL, or black peak value BP input from the image input unit 20 is out of the lattice point where the light attenuation rate is defined, the light attenuation rate calculation unit 60 The light attenuation rate is calculated by performing an interpolation operation based on the light attenuation rate defined for the point or the four lattice points. In this way, the light attenuation rate calculation unit 60 obtains the light attenuation rate and outputs the obtained light attenuation rate to the light attenuation processing unit 70. The light attenuation rate calculation unit 60 is not limited to a two-dimensional LUT, and may use a three-dimensional LUT, or may be based on one or more of a white peak value WP, a black peak value BP, an APL, and a luminance histogram. The dimming rate may be obtained by arithmetic processing.
Then, the dimming rate calculation unit 60 generates a drive signal for driving the dimming element 120 so that the calculated dimming rate ka is obtained, and outputs the drive signal to the dimming processing unit 70 (step S18).

ここで、制御部10の制御により、輝度伸張処理部50によって輝度伸張の処理が施された画像データがライトバルブ130に入力され、垂直同期信号VSyncに同期して描画されるとともに、このタイミングに同期して、減光処理部70により、減光率算出部60から入力された駆動信号に従って調光素子120が制御され、調光が行われる(ステップS19)。
画像入力部20に入力される立体映像信号が60フレーム/秒である場合、画像入力部20は、120フレーム/秒で右目用画像データと左目用画像データとを交互に出力する。これら右目用画像データと左目用画像データとは対になって一フレームの立体画像データを構成する。このような高速で画像を投射する場合、調光処理に伴う演算によってライトバルブ130の描画を遅延させないため、輝度伸張率と減光率の算出と調光処理とがシフトすることがある。すなわち、第nフレームの立体画像データを構成する右目用画像データと左目用画像データについて、輝度伸張率算出部40により輝度伸張率が算出され、減光率算出部60により減光率が算出された場合、この輝度伸張率と減光率に基づく調光処理は、第n+1フレームから適用される。この場合には、輝度伸張率と減光率とを算出した対象の画像データと、この輝度伸張率と減光率に基づく調光処理が施される画像データとが異なるが、この画像データのずれは1フレームに留まっているため、このシフトに起因して違和感が生じる可能性は極めて低く、調光処理によるコントラスト感の向上、ダイナミックレンジの拡大による品位向上の効果が期待できる。
Here, under the control of the control unit 10, the image data subjected to the luminance expansion processing by the luminance expansion processing unit 50 is input to the light valve 130, drawn in synchronization with the vertical synchronization signal VSync, and at this timing. In synchronization, the dimming processing unit 70 controls the dimming element 120 according to the drive signal input from the dimming rate calculating unit 60, and dimming is performed (step S19).
When the stereoscopic video signal input to the image input unit 20 is 60 frames / second, the image input unit 20 alternately outputs right-eye image data and left-eye image data at 120 frames / second. These right-eye image data and left-eye image data are paired to form one frame of stereoscopic image data. When an image is projected at such a high speed, the calculation of the light valve 130 is not delayed by the calculation associated with the dimming process, so the calculation of the luminance expansion rate and the dimming rate and the dimming process may shift. That is, for the right-eye image data and the left-eye image data constituting the n-th frame stereoscopic image data, the luminance expansion rate is calculated by the luminance expansion rate calculation unit 40, and the dimming rate is calculated by the dimming rate calculation unit 60. In this case, the dimming process based on the luminance expansion rate and the dimming rate is applied from the (n + 1) th frame. In this case, the target image data for which the luminance expansion rate and the light reduction rate are calculated are different from the image data subjected to the light control processing based on the luminance expansion rate and the light attenuation rate. Since the shift is limited to one frame, the possibility of an uncomfortable feeling due to this shift is extremely low, and an effect of improving the contrast feeling by the dimming process and improving the quality by expanding the dynamic range can be expected.

次いで、本実施形態における視差の概念について説明する。
以下の説明において、「右目用画像データと、左目用画像データとが対応している」とは、これら画像データが、1の画像を立体的に表現すべく、右目と左目の視差を反映して生成されたデータであるということである。より具体的には、入力された立体映像信号のフォーマットがサイドバイサイド方式またはトップアンドボトム方式である場合、立体映像信号から切り出されて生成された一対の右目用画像データと左目用画像データとが、対応する画像データに該当し、また、右目用画像データに係る立体映像信号と、左目用画像データに係る立体映像信号とが順次入力される方式の場合、本実施形態では、1の右目用画像データと、当該1の右目用画像データの次に入力された左目用画像データとが、対応する画像データに該当するものとする。
Next, the concept of parallax in the present embodiment will be described.
In the following description, “the image data for the right eye and the image data for the left eye correspond” means that these image data reflect the parallax of the right eye and the left eye so as to represent one image in three dimensions. That is, the data is generated. More specifically, when the format of the input stereoscopic video signal is a side-by-side format or a top-and-bottom format, a pair of right-eye image data and left-eye image data generated by being cut out from the stereoscopic video signal are: In the case of a system that corresponds to corresponding image data and that sequentially inputs a stereoscopic video signal related to right-eye image data and a stereoscopic video signal related to left-eye image data, in the present embodiment, one right-eye image It is assumed that the data and the left-eye image data input next to the one right-eye image data correspond to the corresponding image data.

図5は、本実施形態における視差について説明するための図である。
図5では、右目用画像データ、及び、左目用画像データによって立体的に表現される画像(以下、「合成立体画像」という)に係る仮想空間(合成立体画像によって表現される奥行きをもった仮想的な空間)を上から見た様子を模式的に示している。
合成立体画像でより手前側に存在するように表現されるオブジェクトについては、仮想空間内でより手前側に配置され、一方、合成立体画像でより奥側に存在するように表現されるオブジェクトについては、仮想空間内でより奥側に配置される。例えば、図5の仮想空間では、オブジェクトM1の方が、オブジェクトM2よりも手前側に配置されているため、合成立体画像では、オブジェクトM1に係る画像の方が、オブジェクトM2に係る画像よりも手前側に存在するように表現される。なお、本実施形態では、全てのオブジェクトは、仮想空間内で、遠近の基準となる基準面よりも手前側に配置されることを前提としているものとする。
また、図5において、符号P1は、仮想空間を視認する左目の位置に対応する左目ポイントを示し、符号P2は、仮想空間を視認する右目の位置に対応する右目ポイントを示している。周知のとおり、左目ポイントP1に位置する左目と、右目ポイントP2に位置する右目との視差を利用して、右目用画像データ、及び、左目用画像データのそれぞれが生成される。
FIG. 5 is a diagram for explaining parallax in the present embodiment.
In FIG. 5, a virtual space (a virtual with a depth expressed by a composite stereoscopic image) related to an image (hereinafter referred to as a “composite stereoscopic image”) that is stereoscopically represented by the right-eye image data and the left-eye image data. A typical view of a typical space) is shown from above.
For objects that are represented as being closer to the front side in the composite stereoscopic image, for objects that are placed closer to the front side in the virtual space, while being represented to be present in the deeper side in the composite stereoscopic image In the virtual space, it is arranged at the back side. For example, in the virtual space of FIG. 5, the object M1 is arranged in front of the object M2, so that in the synthesized stereoscopic image, the image related to the object M1 is closer to the front than the image related to the object M2. It is expressed to exist on the side. In the present embodiment, it is assumed that all objects are arranged in front of a reference plane that is a perspective reference in the virtual space.
In FIG. 5, the symbol P <b> 1 indicates the left eye point corresponding to the position of the left eye that visually recognizes the virtual space, and the symbol P <b> 2 indicates the right eye point corresponding to the position of the right eye that visually recognizes the virtual space. As is well known, right-eye image data and left-eye image data are generated using the parallax between the left eye located at the left eye point P1 and the right eye located at the right eye point P2.

図5に示すように、左目ポイントP1とオブジェクトM1とを結ぶ仮想直線SL1、及び、右目ポイントP2とオブジェクトM1とを結ぶ仮想直線SR1は、オブジェクトM1において角度αの視差対応角θ1をもって交わり、また、仮想直線SL1と基準面との交点KL1、及び、仮想直線SR1と基準面との交点KR1の間には、ギャップT1が形成される。
同様に、左目ポイントP1とオブジェクトM2とを結ぶ仮想直線SL2、及び、右目ポイントP2とオブジェクトM2とを結ぶ仮想直線SR2は、オブジェクトM2において角度βの視差対応角θ2をもって交わり、また、仮想直線SL2と基準面との交点KL2、及び、仮想直線SR2と基準面との交点KR2の間には、ギャップT2が形成される。
視差対応角θ1θ2、及び、ギャップT1、T2は、左目ポイントP1と、右目ポイントP2との位置的な相違に起因して現出する値であり、仮想空間内におけるオブジェクトの位置がより手前側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTが大きな値となり、逆に、仮想空間内におけるオブジェクトの位置がより奥側であればあるほど、当該オブジェクトに係る視差対応角θ、及び、ギャップTがより小さな値となる。
As shown in FIG. 5, a virtual straight line SL1 connecting the left eye point P1 and the object M1 and a virtual straight line SR1 connecting the right eye point P2 and the object M1 intersect with each other at a parallax corresponding angle θ1 of the angle α in the object M1. A gap T1 is formed between the intersection KL1 between the virtual straight line SL1 and the reference plane and the intersection KR1 between the virtual straight line SR1 and the reference plane.
Similarly, a virtual straight line SL2 connecting the left eye point P1 and the object M2 and a virtual straight line SR2 connecting the right eye point P2 and the object M2 intersect with each other at the parallax corresponding angle θ2 of the angle β in the object M2, and the virtual straight line SL2 A gap T2 is formed between the intersection KL2 between the reference plane and the intersection KR2 between the virtual straight line SR2 and the reference plane.
The parallax correspondence angles θ1 and θ2 and the gaps T1 and T2 are values that appear due to the positional difference between the left eye point P1 and the right eye point P2, and the position of the object in the virtual space is closer to the front. The closer to the side, the larger the parallax-corresponding angle θ 1 and the gap T related to the object, and conversely, the closer the position of the object in the virtual space is to the far side, the disparity related to the object The corresponding angle θ 1 and the gap T are smaller values.

そして、本実施形態では、これら視差対応角θや、ギャップTを概念的に表したものが「視差」に相当する。すなわち、本実施形態における視差とは、左目ポイントP1と右目ポイントP2との位置的な相違に起因して、仮想空間内において手前にあるオブジェクトほど相対的に大きく、一方、奥にあるオブジェクトほど相対的に小さくなる値を概念的に示す値である。
従って、以下の説明において、例えば、右目画像データに含まれる1のオブジェクトに係る画像と、他のオブジェクトに係る画像について、「1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも視差が大きい」と表現する場合、合成立体画像における仮想空間内で、1のオブジェクトの方が、他のオブジェクトよりも手前側に配置されていることを意味し、かつ、合成立体画像において、1のオブジェクトに係る画像の方が、他のオブジェクトに係る画像よりも手前に存在するように表現されることを意味する。
視差の大きさは、右目用画像データ、及び、左目用画像データに、以下のように反映される。
In the present embodiment, the parallax-corresponding angle θ and the conceptual representation of the gap T correspond to “parallax”. That is, the parallax in the present embodiment is relatively larger as the object located in the front in the virtual space due to the positional difference between the left eye point P1 and the right eye point P2, while the object located in the back is relatively larger. It is a value that conceptually indicates a value that becomes smaller.
Therefore, in the following description, for example, for an image related to one object and an image related to another object included in the right-eye image data, “the image related to one object is more than the image related to the other object. When the expression “parallax is large”, it means that one object is arranged in front of other objects in the virtual space in the composite stereoscopic image, and in the composite stereoscopic image, 1 This means that the image related to the object is expressed so as to exist in front of the image related to the other object.
The magnitude of the parallax is reflected in the right-eye image data and the left-eye image data as follows.

図6は、右目用画像データ、及び、左目用画像データを模式的に示す図である。
図6では、右目用画像データ、及び、左目用画像データは、同一の座標系に、互いに対応するように展開されているものとする。すなわち、座標系において、右目用画像データの四隅と、左目用画像データの四隅とが重なるように展開され、右目用画像データに含まれる1の画素に定義される座標と、左目用画像データにおいて、右目用画像データにおける当該1の画素と同一の位置に配置された他の画素に定義される座標とが同一となっている。
上述したように、右目用画像データ、及び、左目用画像データは、データ上で各画素がドットマトリクス状に配置されたデータであるため、これら画像データを座標系に展開することにより、これら画像データの各画素の座標は、座標系において原点として定義された位置からの相対的な位置によって一意に定義される。
図6の右目用画像データ、及び、左目用画像データにおいて、画像データM´1は、図4のオブジェクトM1に対応する画像データであり、画像データM´2は、図4のオブジェクトM2に対応する画像データである。
図6に示すように、右目用画像データにおける画像データM´1と、左目用画像データにおける画像データM´1とは、離間量R1分、ずらして配置される。同様に、これら画像データにおいて、画像データM´2は、離間量R2分、ずらして配置される。
この離間量R1、R2は、オブジェクトM1、M2の視差に対応した値であり、仮想空間内でオブジェクトがより手前に配置されていればいるほど(=視差が大きいほど)、大きな値となり、逆に、仮想空間内でオブジェクトがより奥に配置されていればいるほど(=視差が小さいほど)、小さな値となる。
すなわち、仮想空間内でより手前に配置されており、合成立体画像においてより手前側に存在するように表現すべきオブジェクトほど、換言すれば、視差の大きなオブジェクトほど、右目用画像データ、及び、左目用画像データにおいて、当該オブジェクトに係る画像に対応する離間量Rが大きくなり、逆に、仮想空間内でより奥に配置されており、合成立体画像においてより奥側に存在するように表現すべきオブジェクトほど、換言すれば、視差の小さなオブジェクトほど、右目用画像データ、及び、左目用画像データにおいて、当該オブジェクトに係る画像に対応する離間量Rが小さくなる。
FIG. 6 is a diagram schematically illustrating the right-eye image data and the left-eye image data.
In FIG. 6, it is assumed that the image data for the right eye and the image data for the left eye are developed so as to correspond to each other in the same coordinate system. That is, in the coordinate system, the four corners of the right-eye image data and the four corners of the left-eye image data are expanded so as to overlap, and the coordinates defined for one pixel included in the right-eye image data and the left-eye image data The coordinates defined in other pixels arranged at the same position as the one pixel in the right-eye image data are the same.
As described above, since the image data for the right eye and the image data for the left eye are data in which each pixel is arranged in a dot matrix on the data, by developing these image data in the coordinate system, the image data The coordinates of each pixel of data are uniquely defined by the relative position from the position defined as the origin in the coordinate system.
In the image data for right eye and the image data for left eye in FIG. 6, the image data M′1 is image data corresponding to the object M1 in FIG. 4, and the image data M′2 corresponds to the object M2 in FIG. Image data to be processed.
As shown in FIG. 6, the image data M′1 in the right-eye image data and the image data M′1 in the left-eye image data are arranged so as to be shifted by a separation amount R1. Similarly, in these image data, the image data M′2 is shifted and arranged by the separation amount R2.
The separation amounts R1 and R2 are values corresponding to the parallax of the objects M1 and M2, and become larger as the object is placed closer to the front in the virtual space (= the larger the parallax), and vice versa. In addition, the smaller the object is located in the virtual space (= the smaller the parallax), the smaller the value.
That is, an object that is arranged closer to the front in the virtual space and should be expressed to be present on the nearer side in the composite stereoscopic image, in other words, an object with a larger parallax, the image data for the right eye and the left eye In the image data for use, the separation amount R corresponding to the image related to the object is large, and conversely, it should be expressed so that it is arranged deeper in the virtual space and is present in the deeper side in the composite stereoscopic image. In other words, in other words, in the right-eye image data and the left-eye image data, the separation amount R corresponding to the image related to the object becomes smaller as the object has a smaller parallax.

次いで、輝度伸張処理部50について詳述する。
図7は、輝度伸張処理部50の機能的構成を示すブロック図である。
輝度伸張処理部50は、画像入力部20から入力される右目用画像データ及び左目用画像データの階調を、輝度伸張率算出部40によって求められた輝度伸張率に基づいて、伸張するものであり、図7に示すように、基準領域座標算出部51と、視差値算出部52と、輝度伸張処理実行部53と、を備えている。
Next, the luminance expansion processing unit 50 will be described in detail.
FIG. 7 is a block diagram illustrating a functional configuration of the luminance expansion processing unit 50.
The luminance expansion processing unit 50 expands the gradations of the right-eye image data and the left-eye image data input from the image input unit 20 based on the luminance expansion rate obtained by the luminance expansion rate calculation unit 40. Yes, as shown in FIG. 7, a reference area coordinate calculation unit 51, a parallax value calculation unit 52, and a luminance expansion process execution unit 53 are provided.

図8は、基準領域座標算出部51の動作を示すフローチャートである。
まず、基準領域座標算出部51は、画像入力部20から入力された右目用画像データ及び左目用画像データと、RL識別信号と、垂直同期信号VSyncとに基づいて、画像入力部20から入力中の画像データが右目用画像データか左目用画像データかを識別し、右目用画像データ、及び、左目用画像データのそれぞれを取得する(ステップS21)。
次いで、基準領域座標算出部51は、取得した右目用画像データ、及び、左目用画像データを所定の座標系に展開すると共に、これら画像データのそれぞれを、基準領域300に応じて区分する(ステップS22)。
図3を参照し、基準領域座標算出部51は、例えば、上述した画素ブロックと同様にして、1920画素×1080画素の右目用画像データ、及び、左目用画像データのそれぞれを、横16個×縦9個の144個の基準領域300−1〜300−144に区分する。この場合、基準領域300−1〜300−144のそれぞれのサイズは縦120画素、横120画素である。
次いで、基準領域座標算出部51は、右目用画像データ、左目用画像データ、及び、これら画像データにおける基準領域300のそれぞれを定義する座標に係る情報を、視差値算出部52、及び、輝度伸張処理実行部53に出力する(ステップS23)。
FIG. 8 is a flowchart showing the operation of the reference area coordinate calculation unit 51.
First, the reference area coordinate calculation unit 51 is inputting from the image input unit 20 based on the right-eye image data and the left-eye image data input from the image input unit 20, the RL identification signal, and the vertical synchronization signal VSync. Are identified as right-eye image data or left-eye image data, and each of right-eye image data and left-eye image data is acquired (step S21).
Next, the reference area coordinate calculation unit 51 develops the acquired right-eye image data and left-eye image data into a predetermined coordinate system, and classifies each of these image data according to the reference area 300 (step). S22).
Referring to FIG. 3, the reference area coordinate calculation unit 51 converts, for example, 1920 × 1080 pixel right-eye image data and left-eye image data to 16 × It is divided into ninety-four vertical reference regions 300-1 to 300-144. In this case, the sizes of the reference areas 300-1 to 300-144 are 120 pixels vertically and 120 pixels horizontally.
Next, the reference area coordinate calculation unit 51 obtains the right eye image data, the left eye image data, and information related to coordinates defining each of the reference areas 300 in the image data, the parallax value calculation unit 52, and the luminance extension. It outputs to the process execution part 53 (step S23).

図9は、視差値算出部52の動作を示すフローチャートである。
視差値算出部52は、基準領域座標算出部51から入力された右目用画像データ、左目用画像データを所定の座標系に展開する(ステップS31)。
次いで、視差値算出部52は、基準領域座標算出部51から入力された右目用画像データを区分して形成された基準領域300の座標に係る情報に基づいて、基準領域300のうちの1つの基準領域300を処理対象の基準領域として特定し、処理対象の基準領域として特定した基準領域300に対応する画像データ(以下、適宜、「基準領域画像データ」という)を取得する(ステップS32)。例えば、ステップS32において、視差値算出部52は、基準領域300−1を処理対象の基準領域とした場合、基準領域300−1によって規定される領域における画像データ(基準領域画像データ)を取得する。
次いで、視差値算出部52は、ステップS32で取得した基準領域画像データをテンプレート画像として、左目用画像データに対してテンプレートマッチング処理を行うことにより、左目用画像データにおいて、当該基準領域画像データに対応する画像データが位置する領域の座標を取得する(ステップS33)。
以下、ステップS33における動作について詳述する。
FIG. 9 is a flowchart showing the operation of the parallax value calculation unit 52.
The parallax value calculation unit 52 expands the right-eye image data and the left-eye image data input from the reference region coordinate calculation unit 51 into a predetermined coordinate system (step S31).
Next, the parallax value calculation unit 52 selects one of the reference regions 300 based on information on the coordinates of the reference region 300 formed by dividing the right-eye image data input from the reference region coordinate calculation unit 51. The reference area 300 is specified as the reference area to be processed, and image data corresponding to the reference area 300 specified as the reference area to be processed (hereinafter referred to as “reference area image data” as appropriate) is acquired (step S32). For example, in step S <b> 32, the parallax value calculation unit 52 acquires image data (reference area image data) in an area defined by the reference area 300-1 when the reference area 300-1 is a reference area to be processed. .
Next, the parallax value calculation unit 52 performs template matching processing on the left-eye image data using the reference region image data acquired in step S32 as a template image, so that the left-eye image data is converted into the reference region image data. The coordinates of the area where the corresponding image data is located are acquired (step S33).
Hereinafter, the operation in step S33 will be described in detail.

図10は、ステップS33の動作の説明に利用する図である。
ステップS33において、まず、視差値算出部52は、左目用画像データを展開した所定の座標系に、ステップS32で取得した基準領域画像データを配置する。その際、視差値算出部52は、所定の座標系において、基準領域画像データの右目用画像データにおける配置位置に、当該基準領域画像データを配置する。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、画素ブロック200−1(図3参照)に対応する基準領域画像データである場合、左目用画像データが展開された所定の座標系において、右目用画像データにおける画素ブロック200−1の位置(図10における領域X−0に対応する位置)に、基準領域画像データを配置する。
次いで、視差値算出部52は、基準領域画像データと、当該基準領域画像データが配置された領域における左目用画像データの画像データと、の類似度を算出する。本実施形態では、類似度は、正規化相互関数を用いて算出される−1〜1の範囲の値であり、その値が1に近いほど、類似度が高い。
次いで、視差値算出部52は、左目用画像データが展開された座標系において、テンプレート画像たる基準領域画像データを、画素1つ分、右方向(図10において矢印Y1で示す方向)にずらし、上述した方法と同様にして、基準領域画像データと、当該基準領域画像データが配置された領域における左目用画像データの画像データと、の類似度を算出する。
FIG. 10 is a diagram used for explaining the operation in step S33.
In step S33, first, the parallax value calculation unit 52 arranges the reference area image data acquired in step S32 in a predetermined coordinate system in which the left-eye image data is developed. At that time, the parallax value calculation unit 52 arranges the reference area image data at the arrangement position of the reference area image data in the right-eye image data in a predetermined coordinate system. For example, referring to FIG. 10, when the reference area image data acquired in step S32 is the reference area image data corresponding to the pixel block 200-1 (see FIG. 3), the predetermined left image data is developed. In the coordinate system, the reference area image data is arranged at the position of the pixel block 200-1 in the right-eye image data (position corresponding to the area X-0 in FIG. 10).
Next, the parallax value calculation unit 52 calculates the degree of similarity between the reference area image data and the image data of the left-eye image data in the area where the reference area image data is arranged. In this embodiment, the similarity is a value in a range of −1 to 1 calculated using a normalized mutual function, and the similarity is higher as the value is closer to 1.
Next, the parallax value calculation unit 52 shifts the reference area image data, which is a template image, in the coordinate system in which the left-eye image data is developed, by one pixel in the right direction (the direction indicated by the arrow Y1 in FIG. 10). Similar to the method described above, the similarity between the reference area image data and the image data of the image data for the left eye in the area where the reference area image data is arranged is calculated.

このようにして、視差値算出部52は、基準領域画像データを、画素1つ分、右方向にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、基準領域画像データが左目用画像データの右端に至るまで繰り返し行う。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、領域X−0に対応する基準領域画像データである場合、視差値算出部52は、基準領域画像データが、領域X−1に至るまで、上述した動作を繰り返し行う。
次いで、視差値算出部52は、算出した類似度のそれぞれを比較し、左目用画像データにおいて、類似度の算出対象となった領域のうち、類似度が最も高かった領域を特定し、当該領域を定義する座標を取得する。例えば、図10を参照して、ステップS32で取得した基準領域画像データが、領域X−0に対応する基準領域画像データである場合において、当該基準領域画像データと、領域X−2に対応する左目用画像データとの類似度が最も高かった場合、視差値算出部52は、この領域X−2を定義する座標を取得する。
以上のようにして、ステップS33において、視差値算出部52は、左目用画像データにおいて、ステップS32で取得した基準領域画像データに対応する画像データが位置する領域の座標を取得する。
In this way, the parallax value calculation unit 52 calculates the similarity between the reference region image data and the left-eye image data after shifting the reference region image data to the right by one pixel. Is repeated until the reference area image data reaches the right end of the left-eye image data. For example, referring to FIG. 10, when the reference area image data acquired in step S32 is reference area image data corresponding to the area X-0, the parallax value calculation unit 52 determines that the reference area image data is the area X The above-described operation is repeated until -1.
Next, the parallax value calculation unit 52 compares the calculated similarities, identifies a region having the highest similarity among the regions for which the similarity is calculated in the image data for the left eye, Get the coordinates that define. For example, referring to FIG. 10, when the reference region image data acquired in step S32 is reference region image data corresponding to region X-0, the reference region image data and region X-2 are associated. When the degree of similarity with the left-eye image data is the highest, the parallax value calculation unit 52 acquires coordinates that define the region X-2.
As described above, in step S33, the parallax value calculation unit 52 acquires the coordinates of the region where the image data corresponding to the reference region image data acquired in step S32 is located in the left-eye image data.

ここで、図5、及び、図6を用いて説明したように、ある1つのオブジェクトに係る画像の画像データについて、右目用画像データにおいて当該画像の画像データが配置される位置と、左目用画像データにおいて当該画像の画像データが配置される位置とでは、視差を反映した離間量R分のずれが生じる。
そして、基準領域画像データと、ステップS33で特定された左目用画像データの領域に対応する画像データとのそれぞれは、類似度が最も高い画像データ、すなわち、最も「似ている」画像を示す画像データということであり、これらは、同一のオブジェクトに係る画像について、視差を反映して離間量R分ずらして形成された画像データのそれぞれである。
Here, as described with reference to FIGS. 5 and 6, regarding the image data of an image related to a certain object, the position where the image data of the image is arranged in the image data for the right eye, and the image for the left eye In the data, there is a deviation of the separation amount R reflecting the parallax from the position where the image data of the image is arranged.
Each of the reference area image data and the image data corresponding to the area of the image data for the left eye specified in step S33 has the highest similarity, that is, an image indicating the most “similar” image. It is data, and these are each image data formed by shifting the separation amount R by reflecting the parallax with respect to the image relating to the same object.

本実施形態では、類似度として、正規化相互関数を用いた類似度を採用している。これは、同一のオブジェクトに係る画像データであっても、右目用画像データと左目用画像データとでは、右目と左目との視差を反映して(右目でオブジェクトを見たときの見え方と、左目でオブジェクトを見たときの見え方との違いを反映して)、そのデータの内容が異なっており、これを考慮して、類似という観点から、適切に、左目用画像データにおける基準領域画像データに対応する領域を検出するためである。なお、基準領域画像データに対応する画像データが位置する領域の検出は、正規化相互関数を用いた類似度を利用した方法のみならず、例えば、基準領域画像データを2値化すると共に、左目用画像データを2値化し、これら画像データを用いてテンプレートマッチング処理を行うようにしてもよい。
また、本実施形態では、基準領域画像データを、画素1つ分、「右方向」にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、基準領域画像データが、左目用画像データの右端に至るまで繰り返し行うことにより、基準領域に対応する領域の検出を実行する。これは、図5を参照して、本実施形態のように全てのオブジェクトが仮想空間内で基準面よりも手前側に配置されることが前提となっている場合、図6に示すように、1のオブジェクトに係る画像の画像データの右目用画像データにおける位置は、必ず、当該1のオブジェクトに係る画像の画像データの左目用画像データにおける位置の、水平方向(右目と左目とを結ぶ直線が延びる方向に対応する方向)における「左」となるからであり、上述した動作によって基準領域に対応する領域の検出を行うことにより、不必要に類似度を算出することを防止でき、処理効率の向上を図ることができるからである。
In this embodiment, a similarity using a normalized mutual function is adopted as the similarity. This reflects the parallax between the right eye and the left eye in the image data for the right eye and the image data for the left eye even when the image data is related to the same object (how the object looks when viewed with the right eye, Reflecting the difference in appearance when the object is viewed with the left eye), the content of the data is different, and considering this, the reference area image in the image data for the left eye is appropriately This is because an area corresponding to the data is detected. The detection of the region where the image data corresponding to the reference region image data is located is not limited to a method using the similarity using a normalized mutual function. For example, the reference region image data is binarized and the left eye The image data may be binarized and the template matching process may be performed using these image data.
In the present embodiment, the operation of calculating the similarity between the reference area image data and the left-eye image data after shifting the reference area image data by “one pixel” in the “right direction” By repeatedly performing the region image data until it reaches the right end of the image data for the left eye, the region corresponding to the reference region is detected. With reference to FIG. 5, when it is assumed that all objects are arranged in front of the reference plane in the virtual space as in this embodiment, as shown in FIG. The position in the image data for the right eye of the image data of the image relating to one object is always the horizontal direction (the straight line connecting the right eye and the left eye) of the position in the image data for the left eye of the image data of the image relating to the one object. This is because it is “left” in the direction corresponding to the extending direction), and by detecting the region corresponding to the reference region by the above-described operation, it is possible to prevent unnecessary calculation of the similarity and to improve the processing efficiency. This is because improvement can be achieved.

さて、前掲図9に戻り、視差値算出部52は、基準領域画像データが右目用画像データにおいて配置されていた領域の中心の座標と、左目用画像データにおいて類似度が最も高かった領域の中心の座標との距離である離間量Rを算出する(ステップS34)。図10を参照し、領域X−2が最も類似度が高いとすると、視差値算出部32は、離間量Rとして、この領域X−2の中心と、領域X−0の中心との距離を算出する。
次いで、視差値算出部52は、算出した離間量Rを、そのまま、ステップS32で処理対象とした基準領域300の視差値として算出する(ステップS35)。なお、本実施形態では、離間量Rをそのまま視差値としているが、視差値は、離間量Rと正の相関関係を有する値であればよい。すなわち、視差値は、離間量Rと正の相関関係を有することにより、視差の大きさと正の相関関係を有した値であればよい。
Returning to FIG. 9, the parallax value calculation unit 52 determines the center coordinates of the area where the reference area image data is arranged in the right-eye image data and the center of the area where the similarity is the highest in the left-eye image data. A separation amount R, which is a distance from the coordinates, is calculated (step S34). Referring to FIG. 10, when the region X-2 has the highest similarity, the parallax value calculation unit 32 sets the distance between the center of the region X-2 and the center of the region X-0 as the separation amount R. calculate.
Next, the parallax value calculation unit 52 calculates the calculated separation amount R as it is as the parallax value of the reference region 300 to be processed in step S32 (step S35). In the present embodiment, the separation amount R is used as the parallax value as it is, but the parallax value may be a value having a positive correlation with the separation amount R. That is, the parallax value may be a value having a positive correlation with the magnitude of the parallax by having a positive correlation with the separation amount R.

視差値算出部52は、右目用画像データに形成された全ての基準領域300に対して、ステップS32〜ステップS35に係る処理を行い、全ての基準領域300の視差値を算出する。
さらに、視差値算出部52は、左目用画像データに形成された全ての基準領域300に対しても、ステップS32〜ステップS35に対応する処理を行い、左目用画像データにおける全ての基準領域300の視差値を算出する。その際、ステップS33に対応する処理の実行にあたり、視差値算出部52は、左目用画像データに形成された基準領域300に係る基準領域画像データを、右目用画像データが展開された座標系において、画素1つ分、「左方向」にずらした後、基準領域画像データと、左目用画像データとの類似度を算出する、という動作を、当該基準領域画像データが、右目用画像データの左端に至るまで繰り返し行うことにより、基準領域に対応する領域の検出を実行する。これにより、処理効率の向上を図る。
このようにして、右目用画像データ、及び、左目用画像データに形成された全ての基準領域300の視差値を算出した後、視差値算出部52は、全ての基準領域300の視差値を示す情報を、輝度伸張処理実行部53に出力する(ステップS36)
The parallax value calculation unit 52 performs the process according to steps S32 to S35 on all the reference areas 300 formed in the right-eye image data, and calculates the parallax values of all the reference areas 300.
Further, the parallax value calculation unit 52 performs the processing corresponding to step S32 to step S35 on all the reference regions 300 formed in the left-eye image data, so that all the reference regions 300 in the left-eye image data are processed. A parallax value is calculated. At that time, in executing the processing corresponding to step S33, the parallax value calculation unit 52 uses the reference area image data related to the reference area 300 formed in the left-eye image data in the coordinate system in which the right-eye image data is developed. The operation of calculating the degree of similarity between the reference area image data and the left eye image data after shifting by one pixel “leftward” is performed on the left end of the right eye image data. By repeatedly performing the steps up to, detection of a region corresponding to the reference region is executed. As a result, the processing efficiency is improved.
Thus, after calculating the parallax values of all the reference areas 300 formed in the right-eye image data and the left-eye image data, the parallax value calculation unit 52 indicates the parallax values of all the reference areas 300. Information is output to the luminance expansion processing execution unit 53 (step S36).

図11は、輝度伸張処理実行部53の動作を示すフローチャートである。
輝度伸張処理実行部53は、視差値算出部52から入力された情報に基づいて、右目用画像データに形成された基準領域300のうち、視差値が所定の閾値を上回っている基準領域300を特定する。同様に、輝度伸張処理実行部53は、視差値算出部52から入力された情報に基づいて、左目用画像データに形成された基準領域300のうち、視差値が所定の閾値を上回っている基準領域300を特定する(ステップS41)。
次いで、輝度伸張処理実行部53は、右目用画像データのうち、ステップS41で特定された基準領域300(視差値が所定の閾値を上回っている基準領域300)に対応する(含まれる)画像データに対して、輝度伸張率算出部40によって求められた輝度伸張率による輝度伸張処理を実行し、同様に、左目用画像データのうち、ステップS41で特定された基準領域300(視差値が所定の閾値を上回っている基準領域300)に対応する画像データに対して、輝度伸張率算出部40によって求められた輝度伸張率による輝度伸張処理を実行する(ステップS42)。ここでは、特徴量算出部30から輝度伸張処理部50に入力される画像データの色情報をR、G、B、輝度伸張後の色情報をR’、B’、G’、輝度伸張率をkgとすると、R’=kg×R、G’=kg×G、B’=kg×Bとなるように、輝度伸張処理が実行される。
すなわち、ステップS42では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っている基準領域300に対しては、輝度伸張が行われるものの、視差値が所定の閾値を下回っている基準領域300に対しては、輝度伸張が行われない。
次いで、輝度伸張処理実行部53は、伸張処理を施した後の右目用画像データ、及び、左目用画像データのそれぞれをライトバルブ130の交互に出力する(ステップS43)。
FIG. 11 is a flowchart showing the operation of the luminance expansion processing execution unit 53.
Based on the information input from the parallax value calculation unit 52, the luminance expansion processing execution unit 53 selects a reference region 300 in which the parallax value exceeds a predetermined threshold among the reference regions 300 formed in the right-eye image data. Identify. Similarly, the luminance expansion process execution unit 53 is based on the information input from the parallax value calculation unit 52, and the reference in which the parallax value exceeds a predetermined threshold in the reference region 300 formed in the left-eye image data. The area 300 is specified (step S41).
Next, the luminance expansion processing execution unit 53 corresponds to (includes) the image data corresponding to (included in) the reference region 300 (the reference region 300 in which the parallax value exceeds a predetermined threshold value) identified in step S41 in the right-eye image data. Then, a luminance expansion process is performed using the luminance expansion ratio obtained by the luminance expansion ratio calculation unit 40. Similarly, in the left-eye image data, the reference region 300 specified in step S41 (with a parallax value of a predetermined value) is executed. A luminance expansion process using the luminance expansion ratio obtained by the luminance expansion ratio calculation unit 40 is executed on the image data corresponding to the reference area 300) exceeding the threshold (step S42). Here, the color information of the image data input from the feature amount calculation unit 30 to the luminance expansion processing unit 50 is R, G, B, the color information after luminance expansion is R ′, B ′, G ′, and the luminance expansion rate is Assuming that kg, the luminance expansion processing is executed so that R ′ = kg × R, G ′ = kg × G, and B ′ = kg × B.
That is, in step S42, for each of the right-eye image data and the left-eye image data, although the luminance expansion is performed on the reference region 300 in which the parallax value exceeds a predetermined threshold, the parallax value is predetermined. The luminance expansion is not performed on the reference region 300 that is below the threshold value.
Next, the luminance expansion processing execution unit 53 alternately outputs the right-eye image data and the left-eye image data after the expansion processing (Step S43).

このように、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っている基準領域300に対しては、輝度伸張が行われるものの、視差値が所定の閾値を下回っている基準領域300に対しては、輝度伸張が行われない。これは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データによって表現される合成立体画像は、無限遠としての背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行い、一方、視差値が所定の閾値を下回っており、背景画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行わず、当該ニーズに適切に応えている。
なお、所定の閾値は、背景画像と、ある程度の立体感を持って表現される画像とを判別する基準である、という観点から、事前のシミュレーション、テストを通して適切に定められる。
As described above, in the present embodiment, although the luminance expansion is performed on the reference area 300 in which the parallax value exceeds the predetermined threshold for each of the right-eye image data and the left-eye image data, the parallax is performed. The luminance expansion is not performed on the reference region 300 whose value is below a predetermined threshold value. This is due to the following reason.
That is, the composite stereoscopic image represented by the right-eye image data and the left-eye image data includes a background image indicating a background as infinity, and an image expressed with a certain degree of stereoscopic effect on the background image. May be configured. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform a luminance expansion process on image data related to the above.
In view of this, in the present embodiment, the parallax value exceeds a predetermined threshold value for each of the right-eye image data and the left-eye image data, and is expressed with a certain degree of three-dimensionality rather than a region related to the background image. For the reference region 300 having a high probability that is a region related to the power image, the luminance extension is performed. On the other hand, for the reference region 300 having a high probability of being a region related to the background image, the parallax value is below a predetermined threshold value. It does not perform luminance expansion and responds appropriately to the needs.
Note that the predetermined threshold value is appropriately determined through prior simulation and testing from the viewpoint that it is a reference for discriminating between a background image and an image expressed with a certain degree of stereoscopic effect.

以上説明したように、本実施形態に係る画像表示装置1は、立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部30と、特徴量算出部により算出された画像特徴量に基づいて、右目用画像データ及び左目用画像データに施す輝度伸張処理に係る輝度伸張率を算出する輝度伸張率算出部40(伸張係数算出部)と、右目用画像データと左目用画像データとの視差、及び、輝度伸張率算出部40により算出された輝度伸張率に基づいて、画像データに輝度伸張処理を施す輝度伸張処理部50と、を備えている。
より具体的には、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる画像データを区分して形成された基準領域300のそれぞれについて、各基準領域300における視差を反映して、輝度伸張率算出部40により算出された輝度伸張率に基づいて、各領域に対応する画像データに輝度伸張処理を施す。
これによれば、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データに対して、従来のように、一様の伸張係数に基づいて、画像データ全体に輝度伸張処理を施すのではなく、画像データを区分して形成された基準領域300のそれぞれにおける視差を反映して、各基準領域300に対応する画像データに輝度伸張処理を施すため、輝度伸張処理部50により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。
As described above, the image display device 1 according to the present embodiment calculates the image feature amount related to the brightness of the image data based on the right-eye image data and the left-eye image data that constitute the stereoscopic image data. A feature amount calculation unit 30 and a luminance expansion rate calculation unit 40 that calculates a luminance expansion rate related to the luminance expansion processing applied to the right-eye image data and the left-eye image data based on the image feature amount calculated by the feature amount calculation unit. Based on the parallax between the (expansion coefficient calculating unit), the right-eye image data and the left-eye image data, and the luminance expansion rate calculated by the luminance expansion rate calculating unit 40, luminance expansion is performed on the image data. And a processing unit 50.
More specifically, the luminance expansion processing unit 50 performs each of the reference regions 300 formed by dividing the image data to be subjected to the luminance expansion processing among the right-eye image data and the left-eye image data. Reflecting the parallax in each reference region 300, the image data corresponding to each region is subjected to luminance expansion processing based on the luminance expansion rate calculated by the luminance expansion rate calculating unit 40.
According to this, the luminance expansion processing unit 50 performs the luminance expansion processing on the entire image data based on the uniform expansion coefficient as in the past with respect to the right-eye image data and the left-eye image data. Instead of reflecting the parallax in each of the reference areas 300 formed by dividing the image data, the luminance expansion processing unit 50 applies the parallax to the image data corresponding to each reference area 300. It is possible to perform effective luminance expansion processing based on this.

また、本実施形態では、輝度伸張処理部50は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となる一方の画像データの基準領域300のそれぞれについて、他方の画像データにおける基準領域300に対応する領域のそれぞれとの離間量Rを検出すると共に、検出した離間量Rと正の相関関係を有する視差値を算出し、算出した視差値を利用して、輝度伸張率算出部40により算出された輝度伸張率に基づいて、各基準領域300に対応する画像データに輝度伸張処理を施す。
これによれば、輝度伸張処理部50は、離間量Rと正の相関関係を有する視差値を算出し、算出した視差値を利用して輝度伸張処理を行う。そして、輝度伸張処理の実行に際して利用される視差値は、離間量Rと正の相関関係を有すると同時に、1の基準領域300における視差の大きさと正の相関関係を有する値であるため、視差値を利用して輝度伸張処理を施すことにより、視差(視差の大きさ)を適切に反映した上で輝度伸張処理を実行することができる。
Further, in the present embodiment, the luminance expansion processing unit 50 performs the other image for each of the reference regions 300 of one image data to be subjected to the luminance expansion processing among the right-eye image data and the left-eye image data. A separation amount R with each of the regions corresponding to the reference region 300 in the data is detected, a disparity value having a positive correlation with the detected separation amount R is calculated, and luminance expansion is performed using the calculated disparity value Based on the luminance expansion rate calculated by the rate calculation unit 40, the image data corresponding to each reference area 300 is subjected to luminance expansion processing.
According to this, the luminance expansion processing unit 50 calculates a parallax value having a positive correlation with the separation amount R, and performs luminance expansion processing using the calculated parallax value. Since the parallax value used when executing the luminance expansion processing has a positive correlation with the separation amount R and has a positive correlation with the magnitude of the parallax in one reference region 300, the parallax value By performing the luminance expansion processing using the value, it is possible to execute the luminance expansion processing while appropriately reflecting the parallax (parallax magnitude).

また、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のうち、算出した視差値が所定の閾値を上回っている基準領域300について、輝度伸張処理を施す。
ここで、右目用画像データ、及び、左目用画像データによって表現される合成立体画像は、無限遠としての背景を示す背景画像と、この背景画像上においてある程度の立体感を持って表現される画像とによって構成される場合がある。この場合、背景画像よりも、ある程度の立体感を持って表現される画像の方が重要である傾向があり、画像データに輝度伸張処理を施す場合は、当該立体感を持って表現される画像に係る画像データに重点的に輝度伸張処理を施したいとするニーズがある。
これを踏まえ、本実施形態では、右目用画像データ、及び、左目用画像データのそれぞれについて、視差値が所定の閾値を上回っており、背景画像に係る領域ではなくある程度の立体感をもって表現されるべき画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行い、一方、視差値が所定の閾値を下回っており、背景画像に係る領域である蓋然性が高い基準領域300については、輝度伸張を行わず、当該ニーズに適切に応えている。
In the present embodiment, the luminance expansion processing unit 50 performs luminance expansion processing on the reference region 300 in which the calculated parallax value exceeds a predetermined threshold among the reference regions 300 of the image data to be subjected to the luminance expansion processing. Apply.
Here, the composite stereoscopic image expressed by the image data for the right eye and the image data for the left eye is a background image indicating the background as infinity, and an image expressed with a certain degree of stereoscopic effect on the background image. May be configured. In this case, there is a tendency that an image expressed with a certain degree of stereoscopic effect is more important than a background image, and when the image data is subjected to luminance expansion processing, the image expressed with the corresponding stereoscopic effect. There is a need to perform a luminance expansion process on image data related to the above.
In view of this, in the present embodiment, the parallax value exceeds a predetermined threshold value for each of the right-eye image data and the left-eye image data, and is expressed with a certain degree of three-dimensionality rather than a region related to the background image. For the reference region 300 having a high probability that is a region related to the power image, the luminance extension is performed. On the other hand, for the reference region 300 having a high probability of being a region related to the background image, the parallax value is below a predetermined threshold value. It does not perform luminance expansion and responds appropriately to the needs.

また、本実施形態では、輝度伸張処理部50による輝度伸張処理に対応して、光源装置110が発した光を調光する調光素子120を備えている。
これによれば、スクリーン5に投射される画像について、画像の見かけ上の明るさを維持しつつ、画像のダイナミックレンジを拡大してコントラスト感を向上することができる。
Further, in the present embodiment, a dimming element 120 for dimming light emitted from the light source device 110 is provided corresponding to the luminance expansion processing by the luminance expansion processing unit 50.
According to this, with respect to the image projected on the screen 5, it is possible to increase the dynamic range of the image and improve the contrast while maintaining the apparent brightness of the image.

<第2実施形態>
次いで、第2実施形態について説明する。
本実施形態では、上述した第1実施形態と、輝度伸張処理実行部53の動作が異なっている。
本実施形態に係る輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データの基準領域300のそれぞれについて、視差値がより大きい基準領域ほど、より輝度伸張率が高い値となるように、輝度伸張率を補正した上で、基準領域300に対応する画像データに輝度伸張処理を施す。
具体的には、輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データに形成された基準領域300のそれぞれについて、各基準領域300に対応する画像データに輝度伸張処理を施す際の輝度伸張率(以下、「補正輝度伸張率」という)を以下の式(5)によって算出する。
T=kg×D/Dmax・・・(5)
ここで、Tは、補正輝度伸張率を表し、kgは、輝度伸張率算出部40から輝度伸張処理部50に入力された輝度伸張率を表し、Dは、算出した補正輝度伸張率が適用される基準領域300の視差値を表し、Dmaxは、輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値のそれぞれのうち、その値が最大の視差値(以下、「最大視差値」という)を表している。
そして、輝度伸張処理実行部53は、輝度伸張処理の対象となっている画像データに形成された基準領域300の全てについて、上述した式(5)を利用して補正輝度伸張率を算出した後、基準領域300のそれぞれに対して、各基準領域300に適用される補正輝度伸張率に基づいて輝度伸張処理を行う。
Second Embodiment
Next, a second embodiment will be described.
In the present embodiment, the operation of the luminance expansion processing execution unit 53 is different from that in the first embodiment described above.
The luminance expansion processing execution unit 53 according to the present embodiment has a higher parallax value for each of the reference regions 300 of the image data targeted for luminance expansion processing among the right-eye image data and the left-eye image data. The luminance expansion rate is corrected so that the larger the reference region, the higher the luminance expansion rate, and the luminance expansion processing is performed on the image data corresponding to the reference region 300.
Specifically, the luminance expansion processing execution unit 53 performs the processing for each of the reference regions 300 formed in the image data to be subjected to the luminance expansion processing among the right-eye image data and the left-eye image data. A luminance expansion rate (hereinafter referred to as “corrected luminance expansion rate”) when performing luminance expansion processing on image data corresponding to the reference region 300 is calculated by the following equation (5).
T = kg × D / Dmax (5)
Here, T represents the corrected luminance expansion rate, kg represents the luminance expansion rate input from the luminance expansion rate calculation unit 40 to the luminance expansion processing unit 50, and D represents the calculated corrected luminance expansion rate. Dmax is a parallax value having the maximum value among the parallax values of the reference area 300 formed in the image data to be subjected to luminance expansion processing (hereinafter, “ The maximum parallax value).
Then, the luminance expansion processing execution unit 53 calculates the corrected luminance expansion ratio using the above-described equation (5) for all the reference regions 300 formed in the image data that is the target of the luminance expansion processing. The luminance expansion processing is performed on each of the reference areas 300 based on the corrected luminance expansion ratio applied to each reference area 300.

ここで、ある1の基準領域300に適用される補正輝度伸張率を、式(5)を用いて算出する場合について考える。
この場合において、式(5)の「D/Dmax」は、最大視差値(輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値のそれぞれのうち、その値が最大の視差値)に対する、当該1の基準領域300の視差値の割合である。従って、当該1の基準領域300の視差値が、最大視差値である場合、「D/Dmax」の値は、「1」となり、当該1の基準領域300の視差値が最大視差値に比して相対的に低い値であればあるほど、それに応じて、「D/Dmax」の値も小さくなる。
そして、式(5)では、輝度伸張率算出部40が算出した輝度伸張率(kg)に対して、「D/Dmax」を乗じることにより補正輝度伸張率(T)を算出している。このため、当該1の基準領域300の視差値が最大視差値である場合、補正輝度伸張率(T)=輝度伸張率(kg)となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)がそのまま用いられて輝度伸張処理が行われることとなる。
一方、当該1の基準領域300の視差値が最大視差値に比して相対的に低い値であればあるほど、最大視差値に対する視差値の割合に応じて、補正輝度伸張率(T)は、輝度伸張率(kg)に比して相対的に低い値となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)が、最大視差値に対する視差値の割合に応じて、その値が低くなるように補正された上で、輝度伸張処理が行われることとなる。
すなわち、本実施形態では、視差値が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される。
Here, consider a case where the corrected luminance expansion rate applied to a certain reference region 300 is calculated using equation (5).
In this case, “D / Dmax” in Expression (5) is the maximum parallax value (the value of the parallax values of the reference area 300 formed in the image data to be subjected to the luminance expansion processing is the maximum). Is the ratio of the parallax value of the one reference area 300 to the (parallax value). Therefore, when the parallax value of the one reference region 300 is the maximum parallax value, the value of “D / Dmax” is “1”, and the parallax value of the one reference region 300 is compared with the maximum parallax value. The lower the value, the smaller the value of “D / Dmax” accordingly.
In equation (5), the corrected luminance expansion rate (T) is calculated by multiplying the luminance expansion rate (kg) calculated by the luminance expansion rate calculating unit 40 by “D / Dmax”. Therefore, when the parallax value of the one reference area 300 is the maximum parallax value, the corrected luminance expansion rate (T) = luminance expansion rate (kg). In this case, the luminance expansion process is performed on the image data corresponding to the one reference region 300 using the luminance expansion rate (kg) calculated by the luminance expansion rate calculation unit 40 as it is.
On the other hand, as the parallax value of the one reference region 300 is relatively lower than the maximum parallax value, the corrected luminance expansion rate (T) is increased according to the ratio of the parallax value to the maximum parallax value. The value is relatively low compared to the luminance expansion rate (kg). In this case, for the image data corresponding to the one reference region 300, the luminance expansion rate (kg) calculated by the luminance expansion rate calculation unit 40 is determined according to the ratio of the parallax value to the maximum parallax value. The luminance expansion process is performed after the value is corrected to be low.
In other words, in the present embodiment, the luminance expansion rate calculated by the luminance expansion rate calculation unit 40 is used as it is for the reference region 300 having the largest parallax value, while the parallax value is The luminance expansion process is performed after the luminance expansion rate is corrected so as to decrease as the value decreases.

本実施形態で、以上のようにして輝度伸張率が補正された上で輝度伸張処理が施されるのは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データにより表現される合成立体画像では、より手前に存在するように表現されるオブジェクトに係る画像ほど、立体感や迫力が強調された重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。そして、上記のように、視差値が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される構成とすることにより、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となる。
In the present embodiment, the luminance expansion processing is performed after correcting the luminance expansion rate as described above for the following reason.
That is, in the composite stereoscopic image expressed by the image data for the right eye and the image data for the left eye, the image related to the object expressed so as to exist in the foreground is an important image in which stereoscopic effect and power are emphasized. There is a tendency, and when performing the luminance expansion processing, there is a need to perform the luminance expansion processing on the image data of the image related to such an object based on the expansion coefficient having a higher luminance expansion ratio. . As described above, for the reference region 300 having the largest parallax value, the luminance expansion rate calculated by the luminance expansion rate calculation unit 40 is used as it is, and the luminance expansion processing is performed. The image data of the image related to the object expressed so as to exist on the nearer side by adopting a configuration in which the luminance expansion process is performed after the luminance expansion rate is corrected so as to become smaller. On the other hand, it is possible to perform luminance expansion processing based on an expansion coefficient having a higher luminance expansion rate.

以上説明したように、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、視差値がより大きい基準領域300ほど、より輝度伸張率が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
これにより、上述したように、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となり、輝度伸張処理部による視差を踏まえた効果的な輝度伸張処理を実現できる。
As described above, in the present embodiment, the luminance expansion processing unit 50 increases the luminance expansion ratio of the reference region 300 having a larger parallax value for each of the reference regions 300 of the image data to be subjected to the luminance expansion processing. After correcting the luminance expansion rate so as to increase, the luminance expansion processing is performed on the image data corresponding to each reference region 300.
As a result, as described above, it is possible to perform luminance expansion processing based on an expansion coefficient having a higher luminance expansion ratio on the image data of an image related to an object that is expressed so as to exist on the near side. Thus, effective luminance expansion processing based on parallax by the luminance expansion processing unit can be realized.

<第3実施形態>
次いで、第3実施形態について説明する。
本実施形態では、上述した第1実施形態と、輝度伸張処理実行部53の動作が異なっている。
本実施形態に係る輝度伸張処理実行部53は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の頻度を検出し、より頻度が高い基準領域300ほど、より輝度伸張率が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
具体的には、まず、輝度伸張処理実行部53は、視差値算出部52から入力された右目用画像データの基準領域300の視差値に基づいて、視差値の上限値と下限値を取得し、この上限値と下限値との間を所定の範囲ごとに区分する。次いで、輝度伸張処理実行部53は、区分した範囲毎に、各範囲の視差値を有する基準領域300の個数を検出する。例えば、輝度伸張処理実行部53は、値A1≦視差値<値A2の基準領域300の個数は20個であり、値A2≦視差値<値A3の基準領域300の個数は15個であるといったことを検出する。
そして、輝度伸張処理実行部53は、検出結果に基づいて、所定の範囲に区分された視差値を階級、当該範囲の視差値を有する基準領域300の個数(頻度)を度数とするヒストグラムを生成する。ここで生成されたヒストグラムを参照することにより、ある1の基準領域300について、当該基準領域300の視差値と同じ範囲に属する視差値を有する基準領域300が、右目用画像データの中にいくつ存在しているのかを検出することが可能となる。すなわち、当該ヒストグラムを参照することにより、基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の右目用画像データにおける頻度を検出できる。
同様にして、輝度伸張処理実行部53は、視差値算出部52から入力された左目用画像データの基準領域300の視差値に基づいて、所定の範囲に区分された視差値を階級、当該範囲の視差値を有する基準領域300の個数(頻度)を度数とするヒストグラムを生成する。
なお、以下の説明において、「基準領域300の視差値の頻度」という場合は、当該基準領域300の視差値と同じ範囲に属する視差値を有する基準領域300の個数のことをいうものとする。
<Third Embodiment>
Next, a third embodiment will be described.
In the present embodiment, the operation of the luminance expansion processing execution unit 53 is different from that in the first embodiment described above.
The luminance expansion processing execution unit 53 according to the present embodiment detects the frequency of the reference region 300 having the same parallax value for each of the reference regions 300 of the image data to be subjected to the luminance expansion processing, and the frequency is higher. The luminance expansion rate is corrected so that the luminance expansion rate of the reference area 300 becomes higher, and the luminance expansion processing is performed on the image data corresponding to each reference area 300.
Specifically, first, the luminance expansion processing execution unit 53 acquires the upper limit value and the lower limit value of the parallax value based on the parallax value of the reference region 300 of the right-eye image data input from the parallax value calculation unit 52. The upper limit value and the lower limit value are divided for each predetermined range. Next, the luminance expansion processing execution unit 53 detects the number of reference regions 300 having a parallax value in each range for each divided range. For example, the luminance expansion processing execution unit 53 indicates that the number of reference areas 300 with value A1 ≦ parallax value <value A2 is 20, and the number of reference areas 300 with value A2 ≦ parallax value <value A3 is 15. Detect that.
Then, based on the detection result, the luminance expansion processing execution unit 53 generates a histogram in which the parallax values divided into a predetermined range are classified into classes, and the number (frequency) of the reference regions 300 having the parallax values in the range is represented as the frequency. To do. By referring to the histogram generated here, with respect to a certain reference region 300, there are a number of reference regions 300 having disparity values that belong to the same range as the disparity value of the reference region 300 in the right-eye image data. It is possible to detect whether or not That is, by referring to the histogram, it is possible to detect the frequency in the right eye image data of the reference region 300 having the same degree of parallax value for each of the reference regions 300.
Similarly, the luminance expansion processing execution unit 53 classifies the parallax values divided into a predetermined range based on the parallax value of the reference region 300 of the image data for left eye input from the parallax value calculation unit 52, and the range. A histogram is generated with the number (frequency) of the reference areas 300 having the parallax values as the frequency.
In the following description, “frequency of the parallax value of the reference area 300” refers to the number of reference areas 300 having a parallax value belonging to the same range as the parallax value of the reference area 300.

次いで、輝度伸張処理実行部53は、右目用画像データ、及び、左目用画像データのうち、輝度伸張処理の対象となっている画像データに形成された基準領域300のそれぞれについて、各基準領域300に対応する画像データに輝度伸張処理を施す際の輝度伸張率(以下、「補正輝度伸張率」という)を以下の式(6)によって算出する。
T=kg×F/Fmax・・・(6)
ここで、Tは、補正輝度伸張率を表し、kgは、輝度伸張率算出部40から輝度伸張処理部50に入力された輝度伸張率を表し、Fは、算出した補正輝度伸張率が適用される基準領域300の視差値の頻度を表し、Fmaxは、輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値の頻度の最大値(以下、「最大頻度」という)を表している。
そして、輝度伸張処理実行部53は、輝度伸張処理の対象となっている画像データに形成された基準領域300の全てについて、上述した式(6)を利用して補正輝度伸張率を算出した後、基準領域300のそれぞれに対して、各基準領域300に適用される補正輝度伸張率に基づいて輝度伸張処理を行う。
Next, the luminance expansion processing execution unit 53 performs each reference region 300 for each of the reference regions 300 formed in the image data to be subjected to the luminance expansion processing among the right-eye image data and the left-eye image data. The luminance expansion rate (hereinafter referred to as “corrected luminance expansion rate”) when performing the luminance expansion processing on the image data corresponding to is calculated by the following equation (6).
T = kg × F / Fmax (6)
Here, T represents the corrected luminance expansion rate, kg represents the luminance expansion rate input from the luminance expansion rate calculation unit 40 to the luminance expansion processing unit 50, and F represents the calculated corrected luminance expansion rate. Fmax represents the maximum frequency of the parallax values of the reference area 300 formed in the image data that is the target of the luminance expansion processing (hereinafter referred to as “maximum frequency”). Represents.
Then, the luminance expansion processing execution unit 53 calculates the corrected luminance expansion ratio using the above-described equation (6) for all the reference regions 300 formed in the image data that is the target of the luminance expansion processing. The luminance expansion processing is performed on each of the reference areas 300 based on the corrected luminance expansion ratio applied to each reference area 300.

ここで、ある1の基準領域300に適用される補正輝度伸張率を、式(6)を用いて算出する場合について考える。
この場合において、式(6)の「F/Fmax」は、最大頻度(輝度伸張処理の対象となっている画像データに形成された基準領域300の視差値の頻度の最大値)に対する、当該1の基準領域300の視差値の頻度の割合である。従って、当該1の基準領域300の視差値の頻度が、最大頻度である場合、「F/Fmax」の値は、「1」となり、当該1の基準領域300の視差値の頻度が最大頻度に比して相対的に低い値であればあるほど、それに応じて、「F/Fmax」の値も小さくなる。
そして、式(6)では、輝度伸張率算出部40が算出した輝度伸張率(kg)に対して、「F/Fmax」を乗じることにより補正輝度伸張率(T)を算出している。このため、当該1の基準領域300の視差値の頻度が最大頻度である場合、補正輝度伸張率(T)=輝度伸張率(kg)となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)がそのまま用いられて輝度伸張処理が行われることとなる。
一方、当該1の基準領域300の視差値の頻度が最大頻度に比して相対的に低い値であればあるほど、最大頻度に対する視差値の頻度の割合に応じて、補正輝度伸張率(T)は、輝度伸張率(kg)に比して相対的に低い値となる。この場合、当該1の基準領域300に対応する画像データに対しては、輝度伸張率算出部40により算出された輝度伸張率(kg)が、最大頻度に対する視差値の頻度の割合に応じて、その値が低くなるように補正された上で、輝度伸張処理が行われることとなる。
すなわち、本実施形態では、視差値の頻度が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値の頻度が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される。
Here, consider a case where the corrected luminance expansion rate applied to a certain reference region 300 is calculated using Expression (6).
In this case, “F / Fmax” in Expression (6) is the 1 for the maximum frequency (the maximum frequency of the parallax values of the reference region 300 formed in the image data that is the target of the luminance expansion processing). The frequency ratio of the parallax values of the reference area 300 of FIG. Therefore, when the frequency of the parallax value of the one reference region 300 is the maximum frequency, the value of “F / Fmax” is “1”, and the frequency of the parallax value of the one reference region 300 is the maximum frequency. The lower the value, the smaller the value of “F / Fmax” accordingly.
In Expression (6), the corrected luminance expansion rate (T) is calculated by multiplying the luminance expansion rate (kg) calculated by the luminance expansion rate calculating unit 40 by “F / Fmax”. For this reason, when the frequency of the parallax value of the one reference region 300 is the maximum frequency, the corrected luminance expansion rate (T) = the luminance expansion rate (kg). In this case, the luminance expansion process is performed on the image data corresponding to the one reference region 300 using the luminance expansion rate (kg) calculated by the luminance expansion rate calculation unit 40 as it is.
On the other hand, the lower the parallax value frequency of the one reference region 300 is, the lower the value of the parallax value frequency relative to the maximum frequency, the more the corrected luminance expansion rate (T ) Is a relatively low value compared to the luminance expansion rate (kg). In this case, for the image data corresponding to the one reference region 300, the luminance expansion rate (kg) calculated by the luminance expansion rate calculation unit 40 depends on the ratio of the frequency of the parallax value to the maximum frequency. The luminance expansion processing is performed after the value is corrected to be low.
In other words, in the present embodiment, the luminance expansion rate calculated by the luminance expansion rate calculation unit 40 is used as it is for the reference region 300 having the highest frequency of parallax values, and the luminance expansion processing is performed. As the frequency of the value decreases, the luminance expansion rate is corrected, and the luminance expansion processing is performed.

本実施形態で、以上のようにして輝度伸張率が補正された上で輝度伸張処理が施されるのは、以下の理由による。
すなわち、右目用画像データ、及び、左目用画像データにより表現される合成立体画像では、奥行き方向における位置が同程度となるように表現されるオブジェクトが他により多く存在するオブジェクトに係る画像ほど、当該立体画像において重要な画像である傾向があり、輝度伸張処理を施す際に、このようなオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施したいとするニーズがある。そして、本実施形態では、視差値の頻度が最も大きい基準領域300に対しては、輝度伸張率算出部40により算出された輝度伸張率がそのまま用いられて輝度伸張処理が施され、一方、視差値の頻度が小さくなるに従って、当該輝度伸張率が低くなるように補正された上で、輝度伸張処理が施される構成とすることにより、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことを可能とし、当該ニーズに対して適切に応えている。
In the present embodiment, the luminance expansion processing is performed after correcting the luminance expansion rate as described above for the following reason.
That is, in the composite stereoscopic image expressed by the right-eye image data and the left-eye image data, the image related to the object in which there are more objects expressed so as to have the same position in the depth direction, There is a tendency to be an important image in a stereoscopic image, and when performing luminance expansion processing, luminance expansion processing is performed on image data of an image related to such an object based on an expansion coefficient having a higher luminance expansion rate. There is a need to apply. In this embodiment, the luminance expansion rate calculated by the luminance expansion rate calculation unit 40 is used as it is for the reference region 300 having the highest frequency of the parallax value, and the luminance expansion processing is performed. As the frequency of the value decreases, the luminance expansion rate is corrected so that the luminance expansion rate is reduced, and then the luminance expansion processing is performed. The image data of the image can be subjected to the luminance expansion processing based on the expansion coefficient having a higher luminance expansion rate, and appropriately meets the needs.

以上説明したように、本実施形態では、輝度伸張処理部50は、輝度伸張処理の対象となる画像データの基準領域300のそれぞれについて、同程度の視差値を有する基準領域300の頻度を検出し、より頻度が高い基準領域300ほど、よりその値が高くなるように輝度伸張率を補正した上で、各基準領域300に対応する画像データに輝度伸張処理を施す。
これによれば、上述したように、より手前側に存在するように表現されるオブジェクトに係る画像の画像データに対して、より高い輝度伸張率を有する伸張係数に基づいて輝度伸張処理を施すことが可能となり、輝度伸張処理部により視差を踏まえた効果的な輝度伸張処理を施すことが可能となる。

As described above, in this embodiment, the luminance expansion processing unit 50 detects the frequency of the reference region 300 having the same degree of parallax value for each of the reference regions 300 of the image data to be subjected to the luminance expansion processing. The luminance expansion rate is corrected so that the higher the frequency of the reference region 300 is, the higher the value is, and the luminance expansion processing is performed on the image data corresponding to each reference region 300.
According to this, as described above, the luminance expansion processing is performed on the image data of the image related to the object expressed so as to exist on the near side based on the expansion coefficient having a higher luminance expansion ratio. Thus, the luminance expansion processing unit can perform effective luminance expansion processing based on parallax.

なお、上述した実施の形態は、あくまでも本発明の一態様を示すものであり、本発明の範囲内で任意に変形および応用が可能である。
例えば、画像入力部20が、入力された立体映像信号から右目用画像データと左目用画像データとを生成し、これらの右目用画像データと左目用画像データとを交互に出力する構成としたが、本発明はこれに限定されるものではない。例えば、輝度伸張処理部50において右目用画像データと左目用画像データとを交互にライトバルブ130に出力してもよい。
また、上述した各機能部は、画像表示装置1の機能的構成を示すものであって、具体的な実装形態は特に制限されない。つまり、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。
The above-described embodiment is merely an aspect of the present invention, and can be arbitrarily modified and applied within the scope of the present invention.
For example, the image input unit 20 generates right-eye image data and left-eye image data from the input stereoscopic video signal, and outputs the right-eye image data and the left-eye image data alternately. However, the present invention is not limited to this. For example, the luminance expansion processing unit 50 may output the right-eye image data and the left-eye image data to the light valve 130 alternately.
Moreover, each function part mentioned above shows the functional structure of the image display apparatus 1, Comprising: A specific mounting form is not restrict | limited in particular. That is, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to adopt a configuration in which the functions of a plurality of function units are realized by one processor executing a program.

また、本実施形態では、画像表示装置1が特徴量算出部30や、輝度伸張率算出部40、輝度伸張処理部50等の各種の機能部を備え、これら機能部が、画像特徴量の算出や、輝度伸張率の算出、輝度伸張処理等を実行する構成を例に挙げて説明したが、パーソナルコンピューター等の画像表示装置1とは別体として構成される画像供給装置が、各種の機能部を備え、右目用画像データ、及び、左目用画像データに輝度伸張処理を施し、これら画像データを当該画像処理装置からプロジェクターに供給する構成としてもよい。すなわち、特徴量算出部30や、輝度伸張率算出部40、輝度伸張処理部50等の各種の機能部の機能は、画像表示装置1自体に持たせても良く、また、画像表示装置1に画像データを供給する画像供給装置に持たせてもよい。   In the present embodiment, the image display apparatus 1 includes various functional units such as the feature amount calculation unit 30, the luminance expansion rate calculation unit 40, and the luminance expansion processing unit 50, and these functional units calculate image feature amounts. In addition, the configuration for executing the calculation of the luminance expansion ratio, the luminance expansion processing, and the like has been described as an example. However, the image supply device configured separately from the image display device 1 such as a personal computer has various functional units. The image processing apparatus may be configured to perform luminance expansion processing on the right-eye image data and the left-eye image data and supply the image data from the image processing apparatus to the projector. That is, the functions of various functional units such as the feature amount calculation unit 30, the luminance expansion rate calculation unit 40, and the luminance expansion processing unit 50 may be provided in the image display device 1 itself. An image supply device that supplies image data may be provided.

また、上述した画像表示装置1は、透過型のライトバルブ130を用いて画像をスクリーン5に投射するタイプの装置であったが、反射型液晶パネルを用いたプロジェクターであってもよいし、デジタルミラーデバイスを用いたDMD方式のプロジェクターであってもよい。また、3つのライトバルブによりカラー画像を投射する3LCD方式のプロジェクターに限らず、1つの液晶ライトバルブを用いてRGBに対応する画像を時分割表示してカラー画像を投射するプロジェクター、カラーホイールを備えた単板DMD方式のプロジェクター、及び、3DMD方式のプロジェクターのいずれにも本発明を適用可能である。また、光源としては、上述したが、キセノンランプのほか、超高圧水銀ランプや、LEDランプ等、各種の光源を用いることができる。また、上述した画像表示装置1は、投射面の正面側に配置されて投射面の正面に投射光を投射するタイプの画像表示装置1であってもよく、また、投射面の背面側に配置されて投射面の背面に投射光を投射するタイプの画像表示装置1であってもよい。すなわち、本発明は、光源が発した光を変調する機能を有する画像表示装置に、広く、適用可能である。   In addition, the image display device 1 described above is a type of device that projects an image onto the screen 5 using the transmissive light valve 130, but may be a projector that uses a reflective liquid crystal panel, or a digital device. A DMD projector using a mirror device may be used. The projector is not limited to a 3LCD projector that projects a color image by three light valves, and includes a projector and a color wheel that project a color image by displaying time-division images corresponding to RGB using a single liquid crystal light valve. The present invention can be applied to both a single-plate DMD projector and a 3DMD projector. As the light source, as described above, various light sources such as an ultra-high pressure mercury lamp and an LED lamp can be used in addition to the xenon lamp. Moreover, the image display apparatus 1 mentioned above may be the image display apparatus 1 of the type arrange | positioned on the front side of a projection surface, and projects a projection light on the front surface of a projection surface, and is arrange | positioned on the back side of a projection surface. Then, the image display device 1 of the type that projects the projection light onto the back surface of the projection surface may be used. That is, the present invention is widely applicable to image display devices having a function of modulating light emitted from a light source.

さらに、本発明の画像表示装置1は、上述したようなスクリーン5に立体(3D)映像を投射するプロジェクターに限定されず、液晶表示パネルに立体(3D)の画像/映像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に立体(3D)の画像/映像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに立体(3D)の画像/映像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが画像表示部に相当する。   Furthermore, the image display device 1 of the present invention is not limited to the projector that projects a stereoscopic (3D) image on the screen 5 as described above, but a liquid crystal monitor that displays a stereoscopic (3D) image / video on a liquid crystal display panel or Liquid crystal television, or a monitor device or television receiver that displays a three-dimensional (3D) image / video on a PDP (plasma display panel), organic light-emitting diode (OLED), organic electro-luminescence (OEL), etc. Various display devices such as a monitor device for displaying a stereoscopic (3D) image / video on an EL display panel or a self-luminous display device such as a television receiver are also included in the image display device of the present invention. In this case, a liquid crystal display panel, a plasma display panel, and an organic EL display panel correspond to the image display unit.

10…制御部、20…画像入力部、30…特徴量算出部、32…視差値算出部、40…輝度伸張率算出部(伸張係数算出部)、50…輝度伸張処理部、51…基準領域座標算出部、52…視差値算出部、53…輝度伸張処理実行部、60…減光率算出部、70…減光処理部、110…光源装置(光源、画像表示部)、120…調光素子(調光部)、130…ライトバルブ(変調部、画像表示部)、140…投射光学系(画像表示部)、300…基準領域。   DESCRIPTION OF SYMBOLS 10 ... Control part, 20 ... Image input part, 30 ... Feature-value calculation part, 32 ... Parallax value calculation part, 40 ... Luminance expansion rate calculation part (expansion coefficient calculation part), 50 ... Luminance expansion process part, 51 ... Reference | standard area | region Coordinate calculation unit, 52 ... parallax value calculation unit, 53 ... luminance extension processing execution unit, 60 ... dimming rate calculation unit, 70 ... dimming processing unit, 110 ... light source device (light source, image display unit), 120 ... dimming Element (light control unit), 130... Light valve (modulation unit, image display unit), 140... Projection optical system (image display unit), 300.

Claims (8)

立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、
前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、
前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データに基づき、画像を表示する画像表示部と、を備え
前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像表示装置。
A feature amount calculation unit that calculates an image feature amount related to the brightness of the image data based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data;
Based on the image feature amount calculated by the feature amount calculation unit, an expansion coefficient calculation unit that calculates an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data;
Luminance based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit with respect to the right-eye image data and the left-eye image data A luminance expansion processing unit for performing expansion processing;
An image display unit that displays an image based on the right-eye image data and the left-eye image data subjected to the luminance expansion processing ,
The luminance expansion processing unit is configured to perform the reference in the other image data for each of a plurality of reference regions in one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. Detecting a separation amount with each of the regions corresponding to the region, and using a disparity value having a positive correlation with the detected separation amount, based on the expansion coefficient calculated by the expansion coefficient calculation unit, An image display device that performs luminance expansion processing on image data corresponding to the reference region .
前記基準領域は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる画像データを区分して形成され
前記輝度伸張処理部は、前記基準領域のそれぞれについて前記離間量を検出することを特徴とする請求項1に記載の画像表示装置。
The reference area is formed by dividing image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data ,
The image display device according to claim 1, wherein the luminance expansion processing unit detects the separation amount for each of the reference regions.
前記輝度伸張処理部は、
輝度伸張処理の対象となる画像データの前記基準領域のうち、視差値が所定の閾値を上回っている前記基準領域に対応する画像データに対して、輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。
The luminance expansion processing unit
Of the reference area of the image data to be subjected to the luminance expansion process claims visual difference values for the image data corresponding to the reference area exceeds the predetermined threshold value, and characterized by applying the luminance expansion process Item 3. The image display device according to Item 1 or 2 .
前記輝度伸張処理部は、
輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、視差値がより大きい前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。
The luminance expansion processing unit
For each of the reference region of the image data to be subjected to the luminance expansion process, the more visual difference value is greater than the reference area, the expansion coefficient as more luminance expansion rate is higher in terms of corrected, to each of said reference region the image display apparatus according to claim 1 or 2, characterized by applying the luminance expansion process on corresponding image data.
前記輝度伸張処理部は、
輝度伸張処理の対象となる画像データの前記基準領域のそれぞれについて、同程度の視差値を有する前記基準領域の頻度を検出し、より頻度が高い前記基準領域ほど、より輝度伸張率が高くなるように伸張係数を補正した上で、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする請求項1または2に記載の画像表示装置。
The luminance expansion processing unit
The frequency of the reference area having the same parallax value is detected for each of the reference areas of the image data to be subjected to the luminance expansion processing, and the luminance expansion ratio is higher for the reference area having a higher frequency. in the expansion coefficient on corrected, the image display apparatus according to claim 1 or 2, characterized by applying the luminance expansion processing on the image data corresponding to each of said reference region.
光源が発した光を変調する変調部を備え、
前記輝度伸張処理部は、前記輝度伸張処理が施された前記右目用画像データ及び前記左目用画像データを前記変調部に出力し、
前記輝度伸張処理部による輝度伸張処理に対応して、前記光源が発した光を調光する調光部を備えること、を特徴とする請求項1乃至のいずれかに記載の画像表示装置。
A modulation unit for modulating the light emitted from the light source;
The luminance expansion processing unit outputs the right-eye image data and the left-eye image data subjected to the luminance expansion processing to the modulation unit,
Corresponding to the luminance expansion process by the luminance expansion processing unit, an image display apparatus according to any one of claims 1 to 5 wherein the light source may comprise a dimmer for dimming the light emitted, characterized by.
画像表示装置に画像データを供給する画像供給装置であって、
立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出する特徴量算出部と、
前記特徴量算出部により算出された画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出する伸張係数算出部と、
前記右目用画像データ、及び、前記左目用画像データに対して、前記右目用画像データと前記左目用画像データとの間の視差、及び前記伸張係数算出部により算出された伸張係数に基づいて輝度伸張処理を施す輝度伸張処理部と、を備え
前記輝度伸張処理部は、前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、前記伸張係数算出部により算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像供給装置。
An image supply device for supplying image data to an image display device,
A feature amount calculation unit that calculates an image feature amount related to the brightness of the image data based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data;
Based on the image feature amount calculated by the feature amount calculation unit, an expansion coefficient calculation unit that calculates an expansion coefficient related to a luminance expansion process applied to the right-eye image data and the left-eye image data;
Luminance based on the parallax between the right-eye image data and the left-eye image data and the expansion coefficient calculated by the expansion coefficient calculation unit with respect to the right-eye image data and the left-eye image data A luminance expansion processing unit for performing expansion processing ,
The luminance expansion processing unit is configured to perform the reference in the other image data for each of a plurality of reference regions in one image data to be subjected to luminance expansion processing among the right-eye image data and the left-eye image data. Detecting a separation amount with each of the regions corresponding to the region, and using a disparity value having a positive correlation with the detected separation amount, based on the expansion coefficient calculated by the expansion coefficient calculation unit, An image supply apparatus that performs luminance expansion processing on image data corresponding to the reference area .
立体画像データを構成する右目用画像データ、及び、左目用画像データに基づいて、画像データの輝度に係る画像特徴量を算出し、
算出した画像特徴量に基づいて、前記右目用画像データ及び前記左目用画像データに施す輝度伸張処理に係る伸張係数を算出し、
前記右目用画像データ、及び、前記左目用画像データのうち、輝度伸張処理の対象となる一方の画像データにおける複数の基準領域のそれぞれについて、他方の画像データにおける前記基準領域に対応する領域のそれぞれとの離間量を検出すると共に、検出した離間量と正の相関関係を有する視差値を利用して、算出された伸張係数に基づいて、各前記基準領域に対応する画像データに輝度伸張処理を施すことを特徴とする画像処理方法。
Based on the image data for the right eye and the image data for the left eye constituting the stereoscopic image data, an image feature amount related to the luminance of the image data is calculated,
Based on the calculated image feature amount, calculates an expansion coefficient related to the luminance expansion processing applied to the right-eye image data and the left-eye image data,
Of each of the image data for the right eye and the image data for the left eye , each of a plurality of reference areas in one image data to be subjected to luminance expansion processing, each of the areas corresponding to the reference area in the other image data And a luminance expansion process on the image data corresponding to each of the reference regions based on the calculated expansion coefficient using a parallax value having a positive correlation with the detected separation amount. An image processing method characterized by applying the image processing method.
JP2010164601A 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method Expired - Fee Related JP5585266B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2010164601A JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method
US13/187,122 US9350982B2 (en) 2010-07-22 2011-07-20 Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010164601A JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Publications (3)

Publication Number Publication Date
JP2012028965A JP2012028965A (en) 2012-02-09
JP2012028965A5 JP2012028965A5 (en) 2013-08-15
JP5585266B2 true JP5585266B2 (en) 2014-09-10

Family

ID=45781396

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010164601A Expired - Fee Related JP5585266B2 (en) 2010-07-22 2010-07-22 Image display device, image supply device, and image processing method

Country Status (1)

Country Link
JP (1) JP5585266B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5861324B2 (en) 2011-08-30 2016-02-16 セイコーエプソン株式会社 Projector and projector control method
JP6014343B2 (en) * 2012-03-23 2016-10-25 ハンファテクウィン株式会社Hanwha Techwin Co.,Ltd. Image processing apparatus and image processing method
JP2014003465A (en) 2012-06-19 2014-01-09 Seiko Epson Corp Image display device and control method therefor
JP6175810B2 (en) 2013-03-06 2017-08-09 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6201358B2 (en) 2013-03-22 2017-09-27 セイコーエプソン株式会社 Image processing apparatus, projector, and image processing method
JP6213211B2 (en) 2013-12-18 2017-10-18 セイコーエプソン株式会社 Projector and projector control method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007110360A (en) * 2005-10-13 2007-04-26 Ntt Comware Corp Stereoscopic image processing apparatus and program
JP2010020241A (en) * 2008-07-14 2010-01-28 Sony Corp Display apparatus, method of driving display apparatus, drive-use integrated circuit, driving method employed by drive-use integrated circuit, and signal processing method
JP2010152521A (en) * 2008-12-24 2010-07-08 Toshiba Corp Apparatus and method for performing stereographic processing to image
JP2011250229A (en) * 2010-05-28 2011-12-08 Sony Corp Video signal processing apparatus, video signal processing method, and computer program

Also Published As

Publication number Publication date
JP2012028965A (en) 2012-02-09

Similar Documents

Publication Publication Date Title
US9350982B2 (en) Image display device, image supply device, and image processing method with brightness expanding processing for improved contrast sensitivity in a 3D image
US8520038B2 (en) Image display apparatus, image display method, and image supply apparatus
JP5585266B2 (en) Image display device, image supply device, and image processing method
US9380284B2 (en) Image processing method, image processing device and recording medium
JP5585265B2 (en) Image display device, image supply device, and image processing method
US20170324944A1 (en) Video display apparatus, video display system, and video display method
JP2013514003A (en) Zero-dimensional dimming of 3D display
KR102175813B1 (en) Three dimensional image display device and method of processing image
JPWO2019229906A1 (en) Image display system
JP2012028964A5 (en)
US20140198104A1 (en) Stereoscopic image generating method, stereoscopic image generating device, and display device having same
JP2012028965A5 (en)
US10992927B2 (en) Stereoscopic image display apparatus, display method of liquid crystal display, and non-transitory computer-readable recording medium storing program of liquid crystal display
JP2012104921A (en) Video signal processing device, video signal processing method, and computer program
US9516300B2 (en) Image processing apparatus, image processing method, and program
JP6069854B2 (en) Video display device and video display method
KR20140004393A (en) Display apparatus and control method thereof
JP2005250978A (en) Three-dimensional picture processor and three-dimensional picture processing method
KR20140088465A (en) Display method and display apparatus
JP2014032338A (en) Image display device and image display method
JP2015149547A (en) Image processing method, image processing apparatus, and electronic apparatus
JP5828400B2 (en) Video display device and video display method
JP2014150401A (en) Display apparatus and program
JP2012151641A (en) Stereoscopic image display device, control method of stereoscopic image display device, and stereoscopic image display system
CN106291932A (en) A kind of virtual implementing helmet

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130703

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130703

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140205

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140707

R150 Certificate of patent or registration of utility model

Ref document number: 5585266

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees