Nothing Special   »   [go: up one dir, main page]

JP5354252B2 - 3D display manufacturing system, 3D display system, and 3D display system manufacturing method - Google Patents

3D display manufacturing system, 3D display system, and 3D display system manufacturing method Download PDF

Info

Publication number
JP5354252B2
JP5354252B2 JP2008125391A JP2008125391A JP5354252B2 JP 5354252 B2 JP5354252 B2 JP 5354252B2 JP 2008125391 A JP2008125391 A JP 2008125391A JP 2008125391 A JP2008125391 A JP 2008125391A JP 5354252 B2 JP5354252 B2 JP 5354252B2
Authority
JP
Japan
Prior art keywords
lens
light modulator
spatial light
coordinate system
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008125391A
Other languages
Japanese (ja)
Other versions
JP2009276410A (en
Inventor
俊介 吉田
グリベール ロベルト ロペス
澄男 矢野
直己 井ノ上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
National Institute of Information and Communications Technology
Original Assignee
National Institute of Information and Communications Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by National Institute of Information and Communications Technology filed Critical National Institute of Information and Communications Technology
Priority to JP2008125391A priority Critical patent/JP5354252B2/en
Publication of JP2009276410A publication Critical patent/JP2009276410A/en
Application granted granted Critical
Publication of JP5354252B2 publication Critical patent/JP5354252B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a three-dimensional display manufacturing system that presents an appropriate three-dimensional image without requiring strict alignment between a light controller array and a space light modulator, and to provide a three-dimensional display system and a method of manufacturing the three-dimensional display system. <P>SOLUTION: When the three-dimensional display system 10 is manufactured, the displacement of a lens array 22 relative to the space light modulator 21 is detected by a measurement operation part 102 based on an image photographed by a photographing device 101, and parameters concerning the displacement are stored in a storage section 6. When the stereoscopic display system 10 is operated (used), the space light modulator 21 is controlled by a display control section 5 based on the parameters stored in the storage section 6. This makes it possible to present an appropriate three-dimensional image even if the lens array 22 is displaced relative to the space light modulator 21. <P>COPYRIGHT: (C)2010,JPO&amp;INPIT

Description

本発明は、立体画像を提示する立体ディスプレイを備えた立体ディスプレイ製造システム、立体ディスプレイシステムおよび立体ディスプレイシステムの製造方法に関する。   The present invention relates to a stereoscopic display manufacturing system including a stereoscopic display for presenting a stereoscopic image, a stereoscopic display system, and a manufacturing method of the stereoscopic display system.

立体画像を提示する立体ディスプレイとして、立体視ディスプレイがある。立体視ディスプレイは、視体積(視点を頂点として画像提示面を断面に持つ錐体)に含まれる物体を画像提示面に射影し、その画像提示面を通じて見えるであろう画像を両眼に提示することにより画像を立体視させる。   There is a stereoscopic display as a stereoscopic display for presenting a stereoscopic image. The stereoscopic display projects an object included in the visual volume (a cone having a viewpoint as a vertex and an image presentation surface in a cross section) onto the image presentation surface, and presents an image that can be seen through the image presentation surface to both eyes. Thus, the image is stereoscopically viewed.

特に、インテグラル・フォトグラフィ(IP)は、裸眼で立体画像を観察可能にする技術の一つである。インテグラル・フォトグラフィでは、光線制御子として複数の凸レンズからなるレンズアレイをLCD(液晶ディスプレイ)等の空間光変調器上に配置し、各凸レンズ下の焦点位置に立体画像を再現するための要素画像を提示する。各要素画像の各画素から発する光は、凸レンズの効果により特定の方向にのみ向かうように放射される。空間光変調器上に配置されたレンズアレイは有機的に作用して離散的な光線の空間を作るため、任意視点からの視体積に応じた光線状態が再現される。
特開2006−287592号公報
In particular, integral photography (IP) is one of the technologies that enables stereoscopic images to be observed with the naked eye. In integral photography, a lens array consisting of a plurality of convex lenses as a light controller is placed on a spatial light modulator such as an LCD (liquid crystal display), and elements for reproducing a stereoscopic image at the focal position under each convex lens. Present an image. The light emitted from each pixel of each element image is emitted so as to be directed only in a specific direction by the effect of the convex lens. Since the lens array disposed on the spatial light modulator functions organically to create a discrete light beam space, a light beam state corresponding to the viewing volume from an arbitrary viewpoint is reproduced.
JP 2006-287592 A

上記のインテグラル・フォトグラフィにおいて、各要素画像の各画素から発する光が正確に特定の方向に向かうようにするためには、各画素の位置と光線制御子の位置とが厳密に対応する必要がある。空間光変調器の各画素と光線制御子との間で位置ずれが生じると、空間光変調器の各画素から発する光が、想定された方向と異なる方向に向かう。その場合、意図しない立体画像が提示される。   In the above integral photography, in order for the light emitted from each pixel of each element image to be directed in a specific direction, the position of each pixel needs to correspond exactly to the position of the light controller. There is. When a positional deviation occurs between each pixel of the spatial light modulator and the light beam controller, light emitted from each pixel of the spatial light modulator is directed in a direction different from the assumed direction. In that case, an unintended stereoscopic image is presented.

空間光変調器としてLCDを用いる場合、各画素の一辺の長さが例えば数百μmとなる。すなわち、数百μm以下(例えば数十μm)の精度で空間光変調器と光線制御子との位置合わせを行う必要がある。この位置合わせを手作業で行うことは不可能であり、専用の装置等が必要になる。それにより、製造コストが増大する。   When an LCD is used as the spatial light modulator, the length of one side of each pixel is, for example, several hundred μm. That is, it is necessary to align the spatial light modulator and the light beam controller with an accuracy of several hundred μm or less (for example, several tens of μm). This alignment cannot be performed manually, and a dedicated device or the like is required. Thereby, the manufacturing cost increases.

特許文献1には、レンティキュラレンズアレイとLCDとの位置関係に基づいて、高速で立体視画像を生成する方法が示されている。この方法では、レンティキュラレンズアレイおよびLCDの製造時における詳細な仕様(LCDの画素ピッチ、レンズピッチ等)が既知であることが前提となる。また、レンティキュラレンズアレイとLCDとの位置関係については、観察者が試行錯誤によって微調整を行う必要があり、多大な時間および労力を要する。   Patent Document 1 discloses a method for generating a stereoscopic image at high speed based on the positional relationship between the lenticular lens array and the LCD. In this method, it is assumed that detailed specifications (LCD pixel pitch, lens pitch, etc.) at the time of manufacturing the lenticular lens array and the LCD are known. Further, regarding the positional relationship between the lenticular lens array and the LCD, it is necessary for the observer to make fine adjustments by trial and error, which requires a great deal of time and labor.

本発明の目的は、光線制御子アレイと空間光変調器との厳密な位置合わせを必要とせずに適正な立体画像を提示することが可能な立体ディスプレイ製造システム、立体ディスプレイシステムおよび立体ディスプレイシステムの製造方法を提供することである。   An object of the present invention is to provide a stereoscopic display manufacturing system, a stereoscopic display system, and a stereoscopic display system capable of presenting an appropriate stereoscopic image without requiring exact alignment between the light controller array and the spatial light modulator. It is to provide a manufacturing method.

)第の発明に係る立体ディスプレイ製造システムは、要素表示面により構成される立体ディスプレイと、立体ディスプレイの製造時に補正用画像を表示するように要素表示面を制御する補正用画像制御手段と、補正用画像が表示された状態の要素表示面を撮影する撮影手段と、撮影手段により得られた撮影画像に基づいて修正データを算出する修正データ算出手段と、修正データ算出手段により算出された修正データを記憶する記憶手段と、立体画像を提示するための立体画像データに基づいて立体画像を提示するように要素表示面を制御する立体画像制御手段とを備え、要素表示面は、光を発生する複数の画素により構成される空間光変調器と、複数の光線制御子からなり、空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを含み、補正用画像制御手段は、空間光変調器の複数の画素のうち第1の方向に沿った1または複数の画素列を順に点灯させるとともに第1の方向に垂直な第2の方向に沿った1または複数の画素列を順に点灯させることにより要素表示面に複数種類の補正用画像を順に表示させ、撮影手段は、各補正用画像が要素表示面に表示されるごとに要素表示面を撮影し、修正データ算出手段は、撮影手段と空間光変調器との位置関係および撮影手段による複数種類の撮影画像上で空間光変調器の各画素に対応する最も光度が高い位置に基づいて、光線制御子アレイの各光線制御子の実際の位置を算出し、空間光変調器に対する光線制御子アレイの予め設定された位置と空間光変調器に対する光線制御子アレイの実際の位置とのずれ量を修正データとして算出し、立体画像制御手段は、立体画像の提示動作時に、記憶手段に記憶された修正データを用いて立体画像データを作成し、作成した立体画像データに基づいて立体画像を提示するように空間光変調器を制御するものである。
この立体ディスプレイ製造システムにおいては、立体ディスプレイの製造時に、要素表示面が補正用画像制御手段により制御され、空間光変調器の複数の画素のうち第1の方向に沿った1または複数の画素列が順に点灯するとともに第1の方向に垂直な第2の方向に沿った1または複数の画素列が順に点灯する。それにより、要素表示面に複数種類の補正用画像が順に表示される。第1の方向に沿った1または複数の画素列が点灯するごとに要素表示面が撮影手段により撮影される。また、第2の方向に沿った1または複数の画素列が点灯するごとに要素表示面が撮影手段により撮影される。それにより、複数種類の撮影画像が得られる。これらの撮影画像には、点灯する空間光変調器の画素から発せられる光の分布が現れる。
撮影手段と空間光変調器との位置関係および撮影手段による複数種類の撮影画像上で空間光変調器の各画素に対応する最も光度が高い位置に基づいて、光線制御子アレイの各光線制御子の実際の位置が算出される。上記のようにして得られた複数種類の撮影画像を用いることにより、第1の方向および第2の方向における各光線制御子の実際の位置を効率良く特定することができる。算出された各光線制御子の実際の位置に基づいて、空間光変調器に対する光線制御子アレイの予め設定された位置と空間光変調器に対する光線制御子アレイの実際の位置とのずれ量が修正データ算出手段により修正データとして算出される。算出された修正データは、記憶手段により記憶される。
立体ディスプレイによる立体画像の提示動作時には、記憶手段に記憶された修正データを用いて立体画像データが立体画像制御手段により作成される。そして、作成された立体画像データに基づいて立体画像を提示するように空間光変調器が立体画像制御手段により制御される。
このように、光線制御子アレイの予め設定された位置と実際の位置とのずれ量に応じて立体画像を提示するための立体画像データが作成される。したがって、光線制御子アレイと空間光変調器との厳密な位置合わせを行う必要がなく、光線制御子アレイの位置が予め設定された位置からずれている場合でも、適正な立体画像を提示することができる。
( 1 ) A three-dimensional display manufacturing system according to a first aspect of the present invention is a three-dimensional display constituted by an element display surface, and a correction image control means for controlling the element display surface so as to display a correction image when manufacturing the three-dimensional display , A photographing unit that photographs the element display surface in a state in which the correction image is displayed, a correction data calculating unit that calculates correction data based on a captured image obtained by the photographing unit, and a correction data calculating unit. Storage means for storing the corrected data, and stereoscopic image control means for controlling the element display surface so as to present a stereoscopic image based on the stereoscopic image data for presenting the stereoscopic image. A spatial light modulator composed of a plurality of pixels that generate light and a plurality of light controllers, and controls the direction of light generated from each pixel of the spatial light modulator And a correction image control unit that sequentially turns on one or a plurality of pixel columns along the first direction among the plurality of pixels of the spatial light modulator and is perpendicular to the first direction. A plurality of types of correction images are sequentially displayed on the element display surface by sequentially lighting one or a plurality of pixel rows along the second direction, and the photographing unit displays each correction image on the element display surface. Each of the element display surfaces is photographed, and the correction data calculation means has the most luminous intensity corresponding to each pixel of the spatial light modulator on the positional relationship between the photographing means and the spatial light modulator and on a plurality of types of captured images by the photographing means. Based on the high position, the actual position of each light controller in the light controller array is calculated and the preset position of the light controller array relative to the spatial light modulator and the actual position of the light controller array relative to the spatial light modulator. The position of The stereoscopic image control means creates stereoscopic image data using the correction data stored in the storage means during the stereoscopic image presentation operation, and the stereoscopic image data is calculated based on the created stereoscopic image data. The spatial light modulator is controlled so as to present
In this stereoscopic display manufacturing system, at the time of manufacturing the stereoscopic display, the element display surface is controlled by the correction image control means, and one or a plurality of pixel rows along the first direction among the plurality of pixels of the spatial light modulator. Are lit in order and one or more pixel columns along a second direction perpendicular to the first direction are lit in order. Thereby, a plurality of types of correction images are sequentially displayed on the element display surface. Every time one or more pixel columns along the first direction are lit, the element display surface is photographed by the photographing means. In addition, the element display surface is photographed by the photographing unit every time one or a plurality of pixel columns along the second direction are turned on. Thereby, a plurality of types of captured images are obtained. In these captured images, a distribution of light emitted from the pixels of the spatial light modulator that is turned on appears.
Based on the positional relationship between the imaging means and the spatial light modulator and the position with the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images by the imaging means, each light controller of the light controller array Is calculated. By using a plurality of types of captured images obtained as described above, the actual position of each light beam controller in the first direction and the second direction can be efficiently identified. Based on the calculated actual position of each light controller, the amount of deviation between the preset position of the light controller array relative to the spatial light modulator and the actual position of the light controller array relative to the spatial light modulator is corrected. It is calculated as correction data by the data calculation means. The calculated correction data is stored by the storage means.
At the time of a stereoscopic image presentation operation on the stereoscopic display, stereoscopic image data is created by the stereoscopic image control means using the correction data stored in the storage means. Then, the spatial light modulator is controlled by the stereoscopic image control means so as to present a stereoscopic image based on the generated stereoscopic image data.
In this way, stereoscopic image data for presenting a stereoscopic image is created in accordance with the amount of deviation between the preset position of the light beam controller array and the actual position. Therefore, it is not necessary to perform precise alignment between the light controller array and the spatial light modulator, and an appropriate stereoscopic image can be presented even when the position of the light controller array is deviated from a preset position. Can do.

)光線制御子アレイの予め設定された位置を基準にX軸、Y軸およびZ軸が定められた座標系を第1の座標系とし、光線制御子アレイの実際の位置を基準にX軸、Y軸およびZ軸が定められた座標系を第2の座標系とし、第1の座標系のX軸方向、Y軸方向、Z軸方向およびZ軸周りの回転方向における第1の座標系と第2の座標系とのずれ量をそれぞれ示す変数を第1、第2、第3および第4のパラメータとした場合、光線制御子アレイの各光線制御子の位置が第1、第2、第3および第4のパラメータを用いて第1の座標系における理論座標で表され、修正データ算出手段は、撮影手段と空間光変調器との位置関係および撮影手段による複数種類の撮影画像上で空間光変調器の各画素に対応する最も光度が高い位置に基づいて、光線制御子アレイの各光線制御子の第1の座標系における座標を実測座標として算出し、各光線制御子の実測座標と理論座標との関係に基づいて第1、第2、第3および第4のパラメータの値を修正データとして算出してもよい。 ( 2 ) A coordinate system in which the X axis, the Y axis, and the Z axis are determined based on a preset position of the light controller array is defined as a first coordinate system, and the actual position of the light controller array is used as a reference. The coordinate system in which the axes, the Y-axis, and the Z-axis are defined is the second coordinate system, and the first coordinates in the X-axis direction, the Y-axis direction, the Z-axis direction, and the rotation direction around the Z-axis of the first coordinate system When the variables indicating the amounts of deviation between the system and the second coordinate system are the first, second, third, and fourth parameters, the positions of the respective light controllers in the light controller array are the first and second. The correction data calculation means is based on the positional relationship between the imaging means and the spatial light modulator, and on a plurality of types of captured images obtained by the imaging means, using the third and fourth parameters. The light based on the position with the highest luminous intensity corresponding to each pixel of the spatial light modulator The coordinates in the first coordinate system of each light controller in the controller array are calculated as actual coordinates, and the first, second, third, and fourth coordinates are calculated based on the relationship between the actual coordinates and the theoretical coordinates of each light controller. The parameter value may be calculated as correction data.

この場合、第1の座標系と第2の座標系とのずれ量をそれぞれ示す第1、第2、第3および第4のパラメータの値が、理論座標と実測座標との関係に基づいて算出される。第1の座標系は、光線制御子アレイの予め設定された位置を基準にX軸、Y軸およびZ軸が定められる。第2の座標系は、光線制御子アレイの実際の位置を基準にX軸、Y軸およびZ軸が定められる。 In this case, the values of the first, second, third, and fourth parameters indicating the amount of deviation between the first coordinate system and the second coordinate system are calculated based on the relationship between the theoretical coordinates and the actually measured coordinates. Is done. In the first coordinate system, the X axis, the Y axis, and the Z axis are determined based on a preset position of the light beam controller array. The second coordinate system, X-axis the actual position of the optical plate array standards, Y-axis and Z-axis is defined.

これにより、算出された第1、第2、第3および第4のパラメータの値を修正データとして用いて立体画像データを作成することにより、適正な立体画像を確実に提示することができる。   Thus, by creating stereoscopic image data using the calculated values of the first, second, third, and fourth parameters as correction data, it is possible to reliably present an appropriate stereoscopic image.

)第の発明に係る立体ディスプレイシステムの製造方法において、立体ディスプレイシステムは、要素表示面により構成される立体ディスプレイと、修正データを記憶する記憶手段と、立体画像を提示するための立体画像データに基づいて立体画像を提示するように要素表示面を制御する立体画像制御手段とを含み、要素表示面は、光を発生する複数の画素により構成される空間光変調器と、複数の光線制御子からなり空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを有し、立体画像制御手段は、立体画像の提示動作時に、記憶手段に記憶された修正データを用いて立体画像データを作成し、作成した立体画像データに基づいて立体画像を提示するように空間光変調器を制御し、製造方法は、空間光変調器の複数の画素のうち第1の方向に沿った1または複数の画素列を順に点灯させるとともに第1の方向に垂直な第2の方向に沿った1または複数の画素列を順に点灯させることにより要素表示面に複数種類の補正用画像を順に表示させる工程と、各補正用画像が要素表示面に表示されるごとに要素表示面を撮影手段により撮影することにより複数種類の撮影画像を得る工程と、撮影手段と空間光変調器との位置関係および撮影手段による複数種類の撮影画像上で空間光変調器の各画素に対応する最も光度が高い位置に基づいて、光線制御子アレイの各光線制御子の実際の位置を算出し、空間光変調器に対する光線制御子アレイの予め設定された位置と空間光変調器に対する光線制御子アレイの実際の位置とのずれ量を修正データとして算出する工程と、修正データを記憶手段に記憶させる工程とを備えるものである。
この製造方法においては、空間光変調器の複数の画素のうち第1の方向に沿った1または複数の画素列が順に点灯するとともに第1の方向に垂直な第2の方向に沿った1または複数の画素列が順に点灯することにより、要素表示面に複数種類の補正用画像が順に表示される。第1の方向に沿った1または複数の画素列が点灯するごとに要素表示面が撮影手段により撮影される。また、第2の方向に沿った1または複数の画素列が点灯するごとに要素表示面が撮影手段により撮影される。それにより、複数種類の撮影画像が得られる。これらの撮影画像には、点灯する空間光変調器の画素から発せられる光の分布が現れる。
撮影手段と空間光変調器との位置関係および撮影手段による複数種類の撮影画像上で空間光変調器の各画素に対応する最も光度が高い位置に基づいて、光線制御子アレイの各光線制御子の実際の位置が算出される。上記のようにして得られた複数種類の撮影画像を用いることにより、第1の方向および第2の方向における各光線制御子の実際の位置を効率良く特定することができる。算出された各光線制御子の実際の位置に基づいて、空間光変調器に対する光線制御子アレイの予め設定された位置と空間光変調器に対する光線制御子アレイの実際の位置とのずれ量が修正データとして算出される。算出された修正が、記憶手段により記憶される。
この場合、立体ディスプレイによる立体画像の提示動作時に、記憶手段に記憶された修正データを用いて立体画像制御手段が立体画像データを作成し、作成した立体画像データに基づいて立体画像を提示するように空間光変調器を制御することができる。
これにより、光線制御子アレイの予め設定された位置と実際の位置とのずれ量に応じて立体画像を提示するための立体画像データを作成することができる。したがって、光線制御子アレイと空間光変調器との厳密な位置合わせを行う必要がなく、光線制御子アレイの位置が予め設定された位置からずれている場合でも、立体ディスプレイにより適正な立体画像を提示することが可能になる。
( 3 ) In the method for manufacturing a stereoscopic display system according to the second invention, the stereoscopic display system includes a stereoscopic display configured by an element display surface, storage means for storing correction data, and a stereoscopic display for presenting a stereoscopic image. Stereoscopic image control means for controlling the element display surface to present a stereoscopic image based on the image data, the element display surface comprising a spatial light modulator composed of a plurality of pixels that generate light, and a plurality of And a light beam controller array for controlling the direction of light generated from each pixel of the spatial light modulator. The stereoscopic image control means is stored in the storage means during the stereoscopic image presentation operation. Stereo image data is created using the corrected data, and the spatial light modulator is controlled to present a stereo image based on the created stereo image data. Sequentially lighting one or more pixel columns along the first direction among the plurality of pixels of the container, and sequentially lighting one or more pixel columns along the second direction perpendicular to the first direction. A step of sequentially displaying a plurality of types of correction images on the element display surface, and each time the correction images are displayed on the element display surface, a plurality of types of captured images are obtained by photographing the element display surface with the photographing means. Based on the process, the positional relationship between the imaging means and the spatial light modulator, and the position with the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images by the imaging means, The actual position of the light controller is calculated, and the deviation amount between the preset position of the light controller array with respect to the spatial light modulator and the actual position of the light controller array with respect to the spatial light modulator is calculated as correction data. And a step of storing the correction data in the storage means.
In this manufacturing method, one or more pixel columns along the first direction among the plurality of pixels of the spatial light modulator are sequentially turned on and 1 or 2 along the second direction perpendicular to the first direction. A plurality of types of correction images are sequentially displayed on the element display surface by sequentially lighting the plurality of pixel columns. Every time one or more pixel columns along the first direction are lit, the element display surface is photographed by the photographing means. In addition, the element display surface is photographed by the photographing unit every time one or a plurality of pixel columns along the second direction are turned on. Thereby, a plurality of types of captured images are obtained. In these captured images, a distribution of light emitted from the pixels of the spatial light modulator that is turned on appears.
Based on the positional relationship between the imaging means and the spatial light modulator and the position with the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images by the imaging means, each light controller of the light controller array Is calculated. By using a plurality of types of captured images obtained as described above, the actual position of each light beam controller in the first direction and the second direction can be efficiently identified. Based on the calculated actual position of each light controller, the amount of deviation between the preset position of the light controller array relative to the spatial light modulator and the actual position of the light controller array relative to the spatial light modulator is corrected. Calculated as data. The calculated correction is stored by the storage means.
In this case, at the time of the stereoscopic image presentation operation by the stereoscopic display, the stereoscopic image control means creates the stereoscopic image data using the correction data stored in the storage means, and presents the stereoscopic image based on the created stereoscopic image data. It is possible to control the spatial light modulator.
Thereby, it is possible to create stereoscopic image data for presenting a stereoscopic image in accordance with the amount of deviation between the preset position of the light beam controller array and the actual position. Therefore, it is not necessary to perform precise alignment between the light controller array and the spatial light modulator, and even when the position of the light controller array is deviated from a preset position, an appropriate three-dimensional image can be displayed on the three-dimensional display. It becomes possible to present.

本発明によれば、光線制御子アレイと空間光変調器との厳密な位置合わせを行う必要がなく、光線制御子アレイの位置が予め設定された位置からずれている場合でも、適正な立体画像を提示することができる。   According to the present invention, it is not necessary to perform precise alignment between the light controller array and the spatial light modulator, and even when the position of the light controller array is deviated from a preset position, an appropriate stereoscopic image can be obtained. Can be presented.

(1)立体ディスプレイの構成
図1は本発明の一実施の形態に係る立体ディスプレイシステムにおける立体ディスプレイを示す模式的外観図である。
(1) Configuration of 3D Display FIG. 1 is a schematic external view showing a 3D display in a 3D display system according to an embodiment of the present invention.

図1に示すように、立体ディスプレイ1は、複数の四角形の要素表示面2を結合することにより箱形に構成される。本実施の形態では、立体ディスプレイ1は、正方形の6枚の要素表示面2により立方体に構成される。要素表示面2で囲まれる仮想空間の球状領域(以下、仮想球と呼ぶ)Sに立体画像3が提示される。   As shown in FIG. 1, the stereoscopic display 1 is configured in a box shape by combining a plurality of rectangular element display surfaces 2. In the present embodiment, the three-dimensional display 1 is configured in a cube by six square element display surfaces 2. A stereoscopic image 3 is presented in a spherical area (hereinafter referred to as a virtual sphere) S of a virtual space surrounded by the element display surface 2.

図2は立体ディスプレイ1を構成する要素表示面2を示す模式的平面図である。図3は立体ディスプレイ1を構成する要素表示面2を示す模式的断面図である。   FIG. 2 is a schematic plan view showing the element display surface 2 constituting the stereoscopic display 1. FIG. 3 is a schematic cross-sectional view showing the element display surface 2 constituting the stereoscopic display 1.

図2および図3に示すように、要素表示面2は、平面状の空間光変調器21および平面状のレンズアレイ22の積層構造により構成される。   As shown in FIGS. 2 and 3, the element display surface 2 is configured by a laminated structure of a planar spatial light modulator 21 and a planar lens array 22.

空間光変調器21は、マトリクス状に色を提示することができるマトリクス表示素子からなる。この空間光変調器21は、マトリクス状に配列された複数の画素を有する。空間光変調器21として、例えば液晶ディスプレイ(LCD)、プラズマディスプレイ、有機エレクトロルミネッセンス(EL)ディスプレイ、無機ELディスプレイ、発光ダイオード(LED)アレイ、電界放出ディスプレイ(FED)または写真等を用いることができる。   The spatial light modulator 21 includes a matrix display element that can present colors in a matrix. The spatial light modulator 21 has a plurality of pixels arranged in a matrix. As the spatial light modulator 21, for example, a liquid crystal display (LCD), a plasma display, an organic electroluminescence (EL) display, an inorganic EL display, a light emitting diode (LED) array, a field emission display (FED), or a photograph can be used. .

レンズアレイ22は、光線の方向を制御することができる複数の凸レンズ(以下、単にレンズと呼ぶ)220からなり、空間光変調器21から様々な方向へ向かう光の状態を再現させる機能を有する。レンズアレイ22の複数のレンズ220は、マトリクス状に配置される。   The lens array 22 includes a plurality of convex lenses (hereinafter simply referred to as “lenses”) 220 capable of controlling the direction of light, and has a function of reproducing the state of light from the spatial light modulator 21 in various directions. The plurality of lenses 220 of the lens array 22 are arranged in a matrix.

レンズアレイ22の各レンズ220により空間光変調器21の複数の画素からの光線の方向が制御される。各レンズ220には、それぞれ画素群が割り当てられる。各レンズ220は、割り当てられた画素群のみからの光線の方向を制御することができるように配置される。   The direction of the light beam from the plurality of pixels of the spatial light modulator 21 is controlled by each lens 220 of the lens array 22. Each lens 220 is assigned a pixel group. Each lens 220 is arranged so that the direction of light rays from only the assigned pixel group can be controlled.

レンズアレイ22により制御可能な光線の数および光線の方向は、各レンズ220に割り当てられた画素の数、レンズ220と画素との距離、およびレンズ220の焦点距離等のレンズ220の光学的な設計等により決まる。   The number of rays that can be controlled by the lens array 22 and the direction of the rays depends on the optical design of the lens 220, such as the number of pixels assigned to each lens 220, the distance between the lens 220 and the pixel, and the focal length of the lens 220. It depends on etc.

図3に示すように、レンズアレイ22のレンズ220は、空間光変調器21の画素Pm1,Pm2,Pm3,Pm4から種々の方向へ向かう光をそれぞれ点線で示す方向に制御する。   As shown in FIG. 3, the lenses 220 of the lens array 22 control the light traveling in various directions from the pixels Pm1, Pm2, Pm3, and Pm4 of the spatial light modulator 21 in directions indicated by dotted lines.

なお、光線制御子として、レンズアレイ22の代わりに複数のピンホールが規則的に形成されたピンホールアレイ、または回折格子アレイ等を用いてもよい。また、用途を限定すれば、レンティキュラレンズまたはパララックスバリア等を用いることもできる。   As the light beam controller, a pinhole array in which a plurality of pinholes are regularly formed, a diffraction grating array, or the like may be used instead of the lens array 22. In addition, a lenticular lens, a parallax barrier, or the like can be used if the application is limited.

ここで、図4を用いてレンズ220による光の制御機能とピンホールによる光の制御機能との共通点を説明する。図4(a)は、レンズ220による光の制御機能を示し、図4(b)はピンホールによる光の制御機能を示す。   Here, common points of the light control function by the lens 220 and the light control function by the pinhole will be described with reference to FIG. 4A shows a light control function by the lens 220, and FIG. 4B shows a light control function by a pinhole.

図4(a)に示すように、レンズ220と空間光変調器21との距離は、レンズ220の焦点距離fと等しくなるように調整される。この場合、画素Pm1から発せられる複数の光は、レンズ220を通過することにより、画素Pm1とレンズ220の主点(光学中心)220aとを結ぶ直線に平行な方向に制御される。また、画素Pm2から発せられる複数の光は、レンズ220を通過することにより、画素Pm2とレンズ220の主点220aとを結ぶ直線に平行な方向に制御される。   As shown in FIG. 4A, the distance between the lens 220 and the spatial light modulator 21 is adjusted to be equal to the focal length f of the lens 220. In this case, a plurality of lights emitted from the pixel Pm1 are controlled in a direction parallel to a straight line connecting the pixel Pm1 and the principal point (optical center) 220a of the lens 220 by passing through the lens 220. A plurality of lights emitted from the pixel Pm 2 are controlled in a direction parallel to a straight line connecting the pixel Pm 2 and the principal point 220 a of the lens 220 by passing through the lens 220.

図4(b)に示すように、レンズアレイ22の代わりにピンホールPHが形成されたピンホールアレイを用いる場合には、画素Pm1から発せられる複数の光のうち、ピンホールPHを通る光のみが外部に射出される。また、画素Pm2から発せられる複数の光のうち、ピンホールPHを通る光のみが外部に射出される。したがって、ピンホールPHの位置が図4(a)のレンズ220の主点220aの位置と共通であれば、各画素から発せられる光は、レンズ220を用いた場合と同じ方向に向かう。   As shown in FIG. 4B, in the case of using a pinhole array in which a pinhole PH is formed instead of the lens array 22, only light passing through the pinhole PH among a plurality of lights emitted from the pixel Pm1. Is injected outside. In addition, among the plurality of lights emitted from the pixel Pm2, only the light passing through the pinhole PH is emitted to the outside. Therefore, if the position of the pinhole PH is the same as the position of the principal point 220a of the lens 220 in FIG. 4A, the light emitted from each pixel goes in the same direction as when the lens 220 is used.

ただし、ピンホールPHを通過して外部に向かう光の量は、レンズ220を通過して外部に向かう光の量に比べて少ない。そのため、より明るい立体画像を提示するためにはレンズアレイ22を用いることが好ましい。   However, the amount of light that passes through the pinhole PH and goes to the outside is smaller than the amount of light that passes through the lens 220 and goes to the outside. Therefore, it is preferable to use the lens array 22 in order to present a brighter stereoscopic image.

なお、図4においては、レンズ220およびピンホールPHによる光の制御機能について概念的に説明を行った。実際の光線制御は上記のような理想的な光線制御と若干異なるので注意を要する。   In FIG. 4, the light control function by the lens 220 and the pinhole PH has been conceptually described. Note that actual light control is slightly different from the ideal light control as described above.

(2)立体画像データの作成方法
次に、立体ディスプレイ1に立体画像3を提示するための立体画像データの作成方法について説明する。図5は立体画像3を提示するための立体画像データの作成方法を説明するための図である。
(2) Method for Creating Stereo Image Data Next, a method for creating stereo image data for presenting the stereo image 3 on the stereo display 1 will be described. FIG. 5 is a diagram for explaining a method of creating stereoscopic image data for presenting the stereoscopic image 3.

要素表示面2の内側の仮想球内に視覚されるべき立体形状30を定義する。この立体形状30は立体形状データにより表される。立体形状30の表面の任意の点において、任意の方向へ向かう光線を考える。要素表示面2と立体形状30との間の位置関係はデータの定義により一意に求まる。   A solid shape 30 to be visualized is defined in a virtual sphere inside the element display surface 2. This three-dimensional shape 30 is represented by three-dimensional shape data. A light ray traveling in an arbitrary direction at an arbitrary point on the surface of the three-dimensional shape 30 is considered. The positional relationship between the element display surface 2 and the three-dimensional shape 30 is uniquely determined by data definition.

各光線が要素表示面2と交差する際の交点の位置(座標)、光線と要素表示面2との角度、および色を求める。また、各光線がどの要素表示面2のどの位置で交差するかを求める。最終的に、レンズアレイ22により上記の角度の方向へ向かう光線を再現するように、空間光変調器21の各画素に交点の色を表示するための立体画像データを作成する。   The position (coordinate) of the intersection when each light ray intersects the element display surface 2, the angle between the light ray and the element display surface 2, and the color are obtained. Further, it is determined at which position on which element display surface 2 each light ray intersects. Finally, stereoscopic image data for displaying the color of the intersection point on each pixel of the spatial light modulator 21 is created so that the light beam traveling in the direction of the angle is reproduced by the lens array 22.

理想的には、立体形状30の全表面から全方向に向かう光線について上記の交点の位置、角度および色を求め、各要素表示面2に表示すべき画像を表す立体画像データを作成する。実際には、要素表示面1で囲まれる空間の仮想球を複数のボクセルに離散化するとともに、各ボクセルから発せられる光線の方向を離散化する。本実施の形態では、各ボクセルから発せられる光線の方向は、レンズアレイ22により離散化された方向に制御される。   Ideally, the position, angle, and color of the above intersection are obtained for light rays traveling in all directions from the entire surface of the three-dimensional shape 30, and three-dimensional image data representing an image to be displayed on each element display surface 2 is created. Actually, the virtual sphere in the space surrounded by the element display surface 1 is discretized into a plurality of voxels, and the direction of light rays emitted from each voxel is discretized. In the present embodiment, the direction of light emitted from each voxel is controlled by the lens array 22 so as to be discretized.

要素表示面2の内側の仮想球の1つのボクセルが立体形状30の一部であれば、そのボクセルから離散化された方向に向かう光線を求める。このようにして、立体形状30の表面上の複数のボクセルの各々から離散化された複数の方向に向かう光線と要素表示面2との交点を求めるとともに、光線と要素表示面2との角度、およびボクセルの色を求め、それらの交点、角度および色に基づいて立体画像データを作成する。   If one voxel of the phantom sphere inside the element display surface 2 is a part of the three-dimensional shape 30, a light ray directed from the voxel in a discretized direction is obtained. In this way, the intersections between the light beams traveling in a plurality of directions discretized from each of the plurality of voxels on the surface of the three-dimensional shape 30 and the element display surface 2 are obtained, and the angle between the light beam and the element display surface 2; Then, voxel colors are obtained, and stereoscopic image data is created based on the intersections, angles, and colors.

例えば、図5に示すように、立体形状30の表面上の1つのボクセルb1から発せられる光線は、レンズアレイ22のレンズ220により点線の矢印の方向に向かうように制御される。これらの光線と要素表示面2との交点の画素にボクセルb1の色を表示させるように立体画像データを作成する。   For example, as shown in FIG. 5, a light beam emitted from one voxel b <b> 1 on the surface of the three-dimensional shape 30 is controlled by a lens 220 of the lens array 22 so as to be directed in the direction of a dotted arrow. Stereoscopic image data is created so that the color of the voxel b1 is displayed on the pixel at the intersection of these rays and the element display surface 2.

また、立体形状30の表面上の他のボクセルb2から発せられる光線は、レンズアレイ22のレンズ220により実線の矢印の方向に向かうように制御される。これらの光線と要素表示面2との交点の画素にボクセルb2の色を表示させるように立体画像データを作成する。   In addition, light rays emitted from other voxels b2 on the surface of the three-dimensional shape 30 are controlled by the lenses 220 of the lens array 22 so as to be directed in the direction of solid arrows. Stereoscopic image data is created so that the color of the voxel b2 is displayed at the pixel at the intersection of these rays and the element display surface 2.

上記の説明は、理解を容易にするために行ったが、実際には、レンズアレイ22の各レンズ220と空間光変調器21の画素数との関係により再現可能な光線が制限されるため、上記の説明とは逆のアルゴリズムが用いられる。すなわち、レンズアレイ22の各レンズ220により再現可能な光線を空間光変調器21の画素を経由して逆に辿り、提示すべき立体形状30との交点のボクセルの色を求め、その色を画素に表示させる色と決定する。   The above description has been made for ease of understanding, but in practice, the reproducible rays are limited by the relationship between each lens 220 of the lens array 22 and the number of pixels of the spatial light modulator 21. The reverse algorithm to that described above is used. That is, the light ray reproducible by each lens 220 of the lens array 22 is traced back through the pixels of the spatial light modulator 21 to obtain the color of the voxel at the intersection with the three-dimensional shape 30 to be presented. Determine the color to be displayed.

レンズアレイ22のレンズ220により再現可能な一本の光線が立体形状30の複数のボクセルと交差する場合には、より要素表示面2に近いボクセルの色が画素に表示すべき色と決定される。観察者から見て奥に位置する点は手前に位置する点により隠されるからである。例えば、図5に示すように、レンズアレイ22のレンズ220により再現可能な一本の光線が立体形状30の複数のボクセルb2,b3と交差する場合には、より要素表示面2に近いボクセルb3の色を画素に表示すべき色と決定する。   When one light beam reproducible by the lens 220 of the lens array 22 intersects a plurality of voxels of the three-dimensional shape 30, the color of the voxel closer to the element display surface 2 is determined as the color to be displayed on the pixel. . This is because a point located in the back as viewed from the observer is hidden by a point located in front. For example, as shown in FIG. 5, when one light beam reproducible by the lens 220 of the lens array 22 intersects with a plurality of voxels b2 and b3 of the three-dimensional shape 30, the voxel b3 closer to the element display surface 2 is obtained. Is determined as the color to be displayed on the pixel.

このようにして、立体形状30の表面上の各ボクセルの色を要素表示面1の複数の画素に表示させるための立体画像データが作成される。立体画像データに基づいて空間光変調器21の複数の画素に画像を表示させることにより、結果的に立体形状30からの光線が再現される。   In this way, stereoscopic image data for displaying the color of each voxel on the surface of the stereoscopic shape 30 on a plurality of pixels on the element display surface 1 is created. By displaying an image on a plurality of pixels of the spatial light modulator 21 based on the stereoscopic image data, as a result, light rays from the stereoscopic shape 30 are reproduced.

図6は立体画像データに基づいて立体ディスプレイ1の空間光変調器21に表示される画像を説明するための図である。   FIG. 6 is a diagram for explaining an image displayed on the spatial light modulator 21 of the stereoscopic display 1 based on the stereoscopic image data.

例えば、観察点V1から立体形状を見た場合の画像が空間光変調器21の画素“A”に表示される。また、観察点V2から立体形状を見た場合の画像が空間光変調器21の画素“B”に表示される。それにより、観察者は眼を観察点V1から観察点V2に移動させた場合に、立体形状を異なる角度から見ることができる。   For example, an image when the stereoscopic shape is viewed from the observation point V1 is displayed on the pixel “A” of the spatial light modulator 21. In addition, an image when the stereoscopic shape is viewed from the observation point V2 is displayed on the pixel “B” of the spatial light modulator 21. Thereby, the observer can see the three-dimensional shape from different angles when the eye is moved from the observation point V1 to the observation point V2.

(3)立体ディスプレイシステムおよび立体ディスプレイ製造システム
立体ディスプレイシステムおよび立体ディスプレイ製造システムの構成について説明する。
(3) Stereoscopic display system and stereoscopic display manufacturing system The configurations of the stereoscopic display system and the stereoscopic display manufacturing system will be described.

図7は、立体ディスプレイシステムおよび立体ディスプレイ製造システムの構成を示すブロック図である。図7に示すように、立体ディスプレイシステム10は、立体ディスプレイ1、表示制御部5および記憶部6により構成される。立体ディスプレイ製造システムは、立体ディスプレイシステム10、撮影装置101および計測演算部102により構成される。撮影装置101および計測演算部102は、立体ディスプレイシステム10の製造時に用いられ、立体ディスプレイシステム10の使用時には必要ではない。   FIG. 7 is a block diagram illustrating a configuration of a stereoscopic display system and a stereoscopic display manufacturing system. As shown in FIG. 7, the stereoscopic display system 10 includes a stereoscopic display 1, a display control unit 5, and a storage unit 6. The stereoscopic display manufacturing system includes a stereoscopic display system 10, an imaging device 101, and a measurement calculation unit 102. The imaging device 101 and the measurement calculation unit 102 are used when the stereoscopic display system 10 is manufactured, and are not necessary when the stereoscopic display system 10 is used.

撮影装置101は、CMOS(相補性金属酸化膜半導体)デジタルカメラ、CCDカメラ、フィルムカメラ、面輝度計またはセンサ等からなる。撮影装置101は、立体ディスプレイ1の要素表示面2を撮影する。以下、撮影装置101により撮影された画像を撮影画像と呼ぶ。   The photographing apparatus 101 includes a CMOS (complementary metal oxide semiconductor) digital camera, a CCD camera, a film camera, a surface luminance meter, a sensor, or the like. The photographing apparatus 101 photographs the element display surface 2 of the stereoscopic display 1. Hereinafter, an image photographed by the photographing apparatus 101 is referred to as a photographed image.

記憶部6は、ハードディスクまたはメモリカード等のデータ記憶媒体からなり、仮想球内に提示すべき立体画像の形状を表す立体形状データ、立体ディスプレイ1の基本属性および撮影装置101の基本属性等を記憶する。ここで、立体ディスプレイ1の基本属性は、空間光変調器21の画素の大きさ、間隔および配置、レンズアレイ22のレンズ220の直径、間隔、配置、画角および焦点距離、ならびにレンズアレイ22と空間光変調器21との理想的な位置関係等を含む。また、撮影装置101の基本属性とは、撮影装置101の解像度、画角、焦点距離、位置および姿勢等を含む。   The storage unit 6 includes a data storage medium such as a hard disk or a memory card, and stores stereoscopic shape data representing the shape of a stereoscopic image to be presented in the virtual sphere, basic attributes of the stereoscopic display 1, basic attributes of the photographing apparatus 101, and the like. To do. Here, the basic attributes of the stereoscopic display 1 are the size, interval and arrangement of the pixels of the spatial light modulator 21, the diameter, interval, arrangement, field angle and focal length of the lens 220 of the lens array 22, and the lens array 22. The ideal positional relationship with the spatial light modulator 21 is included. Further, the basic attributes of the photographing apparatus 101 include the resolution, field angle, focal length, position, posture, and the like of the photographing apparatus 101.

計測演算部102および表示制御部5は、CPU(中央演算処理装置)、および半導体メモリ等の記憶装置をそれぞれ含む。計測演算部102は、撮影装置101の撮影画像および記憶部6に記憶される種々の情報に基づいて後述の演算処理を行う。表示制御部5は、計測演算部102の演算結果および記憶部6に記憶される種々の情報に基づいて空間光変調器21の制御を行う。計測演算部102および表示制御部5の動作の詳細は後述する。   The measurement calculation unit 102 and the display control unit 5 each include a CPU (Central Processing Unit) and a storage device such as a semiconductor memory. The measurement calculation unit 102 performs a calculation process described later based on the captured image of the imaging apparatus 101 and various information stored in the storage unit 6. The display control unit 5 controls the spatial light modulator 21 based on the calculation result of the measurement calculation unit 102 and various information stored in the storage unit 6. Details of operations of the measurement calculation unit 102 and the display control unit 5 will be described later.

立体ディスプレイシステム10の表示制御部5および記憶部6は、立体ディスプレイ1内に設けられてもよく、あるいは立体ディスプレイ1の外部に設けられてもよい。計測演算部102は、例えばパーソナルコンピュータにより構成することができる。また、表示制御部5および記憶部6は、例えばパーソナルコンピュータにより構成することができる。   The display control unit 5 and the storage unit 6 of the stereoscopic display system 10 may be provided in the stereoscopic display 1 or may be provided outside the stereoscopic display 1. The measurement calculation unit 102 can be configured by a personal computer, for example. Moreover, the display control part 5 and the memory | storage part 6 can be comprised by a personal computer, for example.

本実施の形態では、立体ディスプレイシステム10の製造時に、撮影装置101の撮影画像に基づいて空間光変調器21に対するレンズアレイ22の位置ずれが検出され、位置ずれに関する後述のパラメータが記憶部6に記憶される。そして、立体ディスプレイシステム10の動作(使用)時に、記憶部6に記憶されたパラメータに基づいて表示制御部5により空間光変調器21が制御される。それにより、レンズアレイ22が空間光変調器21に対して位置ずれしている場合にも、適正な立体画像を提示することができる。以下、その詳細について説明する。   In the present embodiment, when the stereoscopic display system 10 is manufactured, the positional deviation of the lens array 22 with respect to the spatial light modulator 21 is detected based on the photographed image of the photographing apparatus 101, and parameters described later regarding the positional deviation are stored in the storage unit 6. Remembered. Then, the spatial light modulator 21 is controlled by the display control unit 5 based on the parameters stored in the storage unit 6 when the stereoscopic display system 10 is operated (used). Thereby, even when the lens array 22 is displaced with respect to the spatial light modulator 21, an appropriate stereoscopic image can be presented. The details will be described below.

(4)撮影装置による要素表示面の撮影
(4−1)観察点と光度との関係
観察点と光度との関係について説明する。図8は、観察点と光度との関係について説明するための模式図である。ここで、光度とは、各観測点で得られる光の強さをいう。
(4) Imaging of element display surface by imaging device (4-1) Relationship between observation point and luminous intensity The relationship between the observation point and luminous intensity will be described. FIG. 8 is a schematic diagram for explaining the relationship between the observation point and the luminous intensity. Here, the luminous intensity is the intensity of light obtained at each observation point.

図8(a)には、空間光変調器21の画素Pm1〜Pm4、レンズ220および観察点V11〜V17の位置関係が示される。図8(b)には、画素Pm1,Pm3から発せられる光から得られる光度の分布が示される。なお、図8(b)においては、画素Pm1から発せられる光から得られる光度が点線で示され、画素Pm3から発せられる光から得られる光度が一点鎖線で示される。   FIG. 8A shows the positional relationship between the pixels Pm1 to Pm4, the lens 220, and the observation points V11 to V17 of the spatial light modulator 21. FIG. 8B shows the luminous intensity distribution obtained from the light emitted from the pixels Pm1 and Pm3. In FIG. 8B, the luminous intensity obtained from the light emitted from the pixel Pm1 is indicated by a dotted line, and the luminous intensity obtained from the light emitted from the pixel Pm3 is indicated by a one-dot chain line.

図8(a)および図8(b)に示すように、画素Pm1から発せられる光から得られる光度は、画素Pm1とレンズ220の主点220aとを結ぶ直線上にある観察点V16において最も高くなる。同様に、画素Pm3から発せられる光から得られる光度は、画素Pm3とレンズ220の主点220aとを結ぶ直線上にある観察点V12において最も高くなる。   As shown in FIGS. 8A and 8B, the luminous intensity obtained from the light emitted from the pixel Pm1 is highest at the observation point V16 on the straight line connecting the pixel Pm1 and the principal point 220a of the lens 220. Become. Similarly, the luminous intensity obtained from the light emitted from the pixel Pm3 is highest at the observation point V12 on the straight line connecting the pixel Pm3 and the principal point 220a of the lens 220.

このように、空間光変調器21の各画素から発せられる光から得られる光度は、観察点によって変化し、各画素とレンズ220の主点220aとを結ぶ直線上において最も大きくなる。   Thus, the luminous intensity obtained from the light emitted from each pixel of the spatial light modulator 21 varies depending on the observation point, and becomes the largest on a straight line connecting each pixel and the main point 220a of the lens 220.

(4−2)撮影装置とレンズとの位置関係
図9は、撮影装置101、レンズアレイ22および空間光変調器21の位置関係を示す模式図である。図9においては、撮影装置101の視野が仮想平面VPで示される。仮想平面VPは、撮影装置101の撮影画像に対応している。仮想平面VPを通って撮影装置101の撮影中心点Pcに向かう光が、撮影装置101の撮影画像上に現れる。
(4-2) Positional Relationship Between Imaging Device and Lens FIG. 9 is a schematic diagram showing a positional relationship among the imaging device 101, the lens array 22, and the spatial light modulator 21. In FIG. 9, the field of view of the photographing apparatus 101 is indicated by a virtual plane VP. The virtual plane VP corresponds to a photographed image of the photographing apparatus 101. Light traveling through the virtual plane VP toward the photographing center point Pc of the photographing apparatus 101 appears on the photographed image of the photographing apparatus 101.

撮影装置101の撮影中心点Pcは、外部からの光を受ける中心点であり、例えば撮影装置101としてカメラを用いる場合、カメラレンズの光学中心が撮影中心点Pcとなる。   The photographing center point Pc of the photographing apparatus 101 is a central point that receives light from the outside. For example, when a camera is used as the photographing apparatus 101, the optical center of the camera lens becomes the photographing center point Pc.

図9において、空間光変調器21の1つの画素Pm11のみを点灯させたときに、撮影装置101の撮影画像に高い光度を有する光点が現れたとする。この場合、撮影装置101の撮影中心点Pc、画素Pm11に対応するレンズ220の主点220a、および空間光変調器21の画素Pm11が共通の直線上にあると考えられる。撮影装置101の撮影画像上の光点は、画素Pm11と撮影中心点Pcとを結ぶ直線と仮想平面VPとの交差点Piに相当する。以下、撮影装置101の撮影画像上の光点に相当する仮想平面VP上の点を仮想光点と呼ぶ。   In FIG. 9, it is assumed that when only one pixel Pm11 of the spatial light modulator 21 is turned on, a light spot having a high luminous intensity appears in the captured image of the imaging apparatus 101. In this case, it is considered that the photographing center point Pc of the photographing apparatus 101, the main point 220a of the lens 220 corresponding to the pixel Pm11, and the pixel Pm11 of the spatial light modulator 21 are on a common straight line. The light spot on the photographed image of the photographing apparatus 101 corresponds to the intersection Pi between the straight line connecting the pixel Pm11 and the photographing center point Pc and the virtual plane VP. Hereinafter, a point on the virtual plane VP corresponding to a light spot on the photographed image of the photographing apparatus 101 is referred to as a virtual light spot.

これにより、撮影装置101の撮影中心点Pcの位置と、撮影装置101の撮影画像上における光点(仮想平面VP上の仮想光点Pi)の位置および画素Pm11の位置の少なくとも一方とが求まれば、画素Pm11に対応するレンズ220の実際の位置を求めることができる。   Thereby, the position of the photographing center point Pc of the photographing apparatus 101 and at least one of the position of the light spot (virtual light spot Pi on the virtual plane VP) and the position of the pixel Pm11 on the photographed image of the photographing apparatus 101 are obtained. For example, the actual position of the lens 220 corresponding to the pixel Pm11 can be obtained.

(4−3)撮影画像上の光点の光度について
図10は、撮影装置101の撮影画像上における光度の分布について説明するための図である。図10(a)には、撮影装置101、レンズ220および空間光変調器21の位置関係が示される。図10(b)には、空間光変調器21の各画素を点灯させた際に撮影装置101の撮影画像上に現れる光度の分布を示す図である。図10(b)において、縦軸は光度を示し、横軸は撮影画像上の座標を示す。
(4-3) Luminous Intensity of Light Spot on Photographed Image FIG. 10 is a diagram for explaining the distribution of luminous intensity on the photographed image of the photographing apparatus 101. FIG. 10A shows the positional relationship between the imaging device 101, the lens 220, and the spatial light modulator 21. FIG. 10B is a diagram illustrating a light intensity distribution that appears on a captured image of the image capturing apparatus 101 when each pixel of the spatial light modulator 21 is turned on. In FIG. 10B, the vertical axis indicates the luminous intensity, and the horizontal axis indicates the coordinates on the captured image.

図10(a)において、画素Pm11,Pm21は、撮影装置101の撮影中心点Pcとレンズ220の主点220aとを結ぶ直線上にあり、画素Pm9,Pm10,Pm12,Pm13,Pm19,Pm20,Pm22,Pm23は、撮影装置101の撮影中心点Pcとレンズ220の主点220aとを結ぶ直線からずれた位置にある。   In FIG. 10A, the pixels Pm11 and Pm21 are on a straight line connecting the photographing center point Pc of the photographing apparatus 101 and the principal point 220a of the lens 220, and the pixels Pm9, Pm10, Pm12, Pm13, Pm19, Pm20, and Pm22. , Pm23 are located at positions deviated from a straight line connecting the photographing center point Pc of the photographing apparatus 101 and the principal point 220a of the lens 220.

この場合、図10(b)に示すように、画素Pm9,Pm10,Pm12,Pm13を点灯させたときに得られる光度より、画素Pm11を点灯させたときに得られる光度が高くなる。これにより、1つのレンズ220に対応する複数の画素のうち、最も高い光度が得られる1つの画素Pm11が特定される。   In this case, as shown in FIG. 10B, the light intensity obtained when the pixel Pm11 is turned on is higher than the light intensity obtained when the pixels Pm9, Pm10, Pm12, and Pm13 are turned on. Accordingly, one pixel Pm11 that can obtain the highest luminous intensity among the plurality of pixels corresponding to one lens 220 is specified.

同様に、画素Pm19,Pm20,Pm22,Pm23を点灯させたときに得られる光度より、画素Pm21を点灯させたときに得られる光度が高くなる。これにより、1つのレンズ220に対応する複数の画素のうち、最も高い光度が得られる1つの画素Pm21が特定される。   Similarly, the light intensity obtained when the pixel Pm21 is turned on is higher than the light intensity obtained when the pixels Pm19, Pm20, Pm22, and Pm23 are turned on. Thereby, one pixel Pm21 from which the highest luminous intensity is obtained among the plurality of pixels corresponding to one lens 220 is specified.

さらに、全ての画素を1つずつ順に点灯させてその光度を測定することにより、全てのレンズ220に関して最も高い光度が得られる画素をそれぞれ1つずつ特定することができる。これにより、全てのレンズ220の実際の位置を求めることができる。   Furthermore, by lighting all the pixels one by one in order and measuring the light intensity, it is possible to specify one pixel at a time for obtaining the highest light intensity for all the lenses 220. Thereby, the actual positions of all the lenses 220 can be obtained.

(5)座標系
(5−1)各座標系の定義
ここで、撮影装置座標系、撮影画像座標系、LCD座標系、レンズ座標系およびワールド座標系を定義する。図11は、撮影装置座標系、撮影画像座標系、LCD座標系、レンズ座標系およびワールド座標系の関係について説明するための模式図である。
(5) Coordinate system (5-1) Definition of each coordinate system Here, an imaging device coordinate system, a captured image coordinate system, an LCD coordinate system, a lens coordinate system, and a world coordinate system are defined. FIG. 11 is a schematic diagram for explaining the relationship among the imaging device coordinate system, the captured image coordinate system, the LCD coordinate system, the lens coordinate system, and the world coordinate system.

撮影装置座標系Ccは、撮影装置101を基準に定められる。図11において、撮影装置101の撮影中心点Pcに撮影装置座標系Ccの原点Ocが定められる。また、撮影装置101が向けられた方向にZc軸が定められ、Zc軸に垂直な面上で互いに直交する方向にXc軸およびYc軸が定められる。撮影装置101の位置および姿勢は、Tsaiのアルゴリズム等によって求めることができる。   The photographing apparatus coordinate system Cc is determined based on the photographing apparatus 101. In FIG. 11, the origin Oc of the photographing apparatus coordinate system Cc is determined at the photographing center point Pc of the photographing apparatus 101. Further, the Zc axis is determined in the direction in which the photographing apparatus 101 is directed, and the Xc axis and the Yc axis are determined in directions orthogonal to each other on a plane perpendicular to the Zc axis. The position and orientation of the photographing apparatus 101 can be obtained by Tsai's algorithm or the like.

撮影画像座標系Ciは、仮想平面VPを基準に定められる。図11において、仮想平面VPの一頂点に撮影画像座標系Ciの原点Oiが定められ、仮想平面VPの互いに直交する一辺および他辺に沿う方向にXi軸およびYi軸が定められる。撮影画像座標系Ciは、撮影装置座標系Ccから撮影装置101の基本属性(焦点距離、画角および解像度等)を用いて一義的に求めることができる。また、仮想平面VP上に現れる仮想光点の位置は、撮影画像座標系Ciにおける座標で容易に表すことができる。   The captured image coordinate system Ci is determined based on the virtual plane VP. In FIG. 11, the origin Oi of the captured image coordinate system Ci is defined at one vertex of the virtual plane VP, and the Xi axis and the Yi axis are defined in directions along one side and the other side of the virtual plane VP that are orthogonal to each other. The photographed image coordinate system Ci can be uniquely obtained from the photographing apparatus coordinate system Cc using basic attributes (focal length, angle of view, resolution, etc.) of the photographing apparatus 101. Further, the position of the virtual light spot appearing on the virtual plane VP can be easily expressed by coordinates in the captured image coordinate system Ci.

LCD座標系Clは、空間光変調器21を基準に定められる。図11において、空間光変調器21の一頂点にLCD座標系Clの原点Olが定められる。また、空間光変調器21の互いに直交する一辺および他辺に沿う方向にXl軸およびYl軸が定められ、その面に垂直な方向にZl軸が定められる。   The LCD coordinate system Cl is determined based on the spatial light modulator 21. In FIG. 11, the origin Ol of the LCD coordinate system Cl is determined at one vertex of the spatial light modulator 21. In addition, the Xl axis and the Yl axis are determined in a direction along one side and the other side orthogonal to each other of the spatial light modulator 21, and the Zl axis is determined in a direction perpendicular to the surface.

本実施の形態では、Xl軸およびYl軸に沿って空間光変調器21の各画素が配置される。空間光変調器21の各画素の位置は、LCD座標系Clにおける座標で容易に表すことができる。   In the present embodiment, each pixel of the spatial light modulator 21 is arranged along the Xl axis and the Yl axis. The position of each pixel of the spatial light modulator 21 can be easily expressed by coordinates in the LCD coordinate system Cl.

レンズ座標系Ceは、レンズアレイ22を基準に定められる。図11において、レンズアレイ22の一面上にレンズ座標系Ceの原点Oeが定められる。また、レンズアレイ22の一面上で互いに直交方向にXe軸およびYe軸が定められ、その面に垂直な方向にZe軸が定められる。   The lens coordinate system Ce is determined based on the lens array 22. In FIG. 11, the origin Oe of the lens coordinate system Ce is determined on one surface of the lens array 22. Further, an Xe axis and a Ye axis are defined in a direction orthogonal to each other on one surface of the lens array 22, and a Ze axis is defined in a direction perpendicular to the surface.

本実施の形態では、Xe軸およびYe軸に沿ってレンズアレイ22のレンズ220が配置される。レンズアレイ22の各レンズ220の位置は、レンズ座標系Ceで容易に表すことができる。   In the present embodiment, the lenses 220 of the lens array 22 are arranged along the Xe axis and the Ye axis. The position of each lens 220 of the lens array 22 can be easily expressed in the lens coordinate system Ce.

ワールド座標系Cwは、全ての座標系の基準として設定される。本実施の形態では、空間光変調器21とレンズアレイ22とが予め定められた理想的な位置関係にある状態でのレンズ座標系Ceに一致するようにワールド座標系Cwが定義される。空間光変調器21に対してレンズアレイ22が理想的な位置関係にある場合、レンズ座標系Ceの原点Oe、Xe軸、Ye軸およびZe軸が、ワールド座標系Cwの原点Ow、Xw軸、Yw軸およびZw軸に対応する。ここで、空間光変調器21とレンズアレイ22との理想的な位置関係とは、例えば設計上での空間光変調器21とレンズアレイ22との位置関係である。   The world coordinate system Cw is set as a reference for all coordinate systems. In the present embodiment, the world coordinate system Cw is defined so as to coincide with the lens coordinate system Ce in a state where the spatial light modulator 21 and the lens array 22 are in a predetermined ideal positional relationship. When the lens array 22 is in an ideal positional relationship with respect to the spatial light modulator 21, the origin Oe, Xe axis, Ye axis, and Ze axis of the lens coordinate system Ce are the origin Ow, Xw axis of the world coordinate system Cw, It corresponds to the Yw axis and the Zw axis. Here, the ideal positional relationship between the spatial light modulator 21 and the lens array 22 is, for example, the positional relationship between the spatial light modulator 21 and the lens array 22 in design.

なお、実際には、レンズアレイ22は厳密に理想的な位置に配置されないことが多いため、レンズ座標系Ceとワールド座標系Cwとの間にはずれが生じる。   Actually, since the lens array 22 is often not strictly positioned at an ideal position, a deviation occurs between the lens coordinate system Ce and the world coordinate system Cw.

(5−2)ワールド座標系への変換
(5−2−1)レンズ座標系
図12は、レンズ座標系Ceおよびワールド座標系Cwの関係を説明するための模式図である。図12に示すように、ワールド座標系Cwに対するレンズ座標系Ceのずれ量は、パラメータe,e,e,eθで表される。パラメータe、e、eは、ワールド座標系Cwの原点Owに対するレンズ座標系Ceの原点OeのXw軸方向のずれ量、Yw軸方向のずれ量およびZw軸方向のずれ量を表す。また、パラメータeθは、ワールド座標系CwのXw軸およびYw軸に対するレンズ座標系CeのXe軸およびYe軸の傾斜角を表す。ここで、空間光変調器21とレンズアレイ22との平行関係を保つことは比較的容易であるため、ワールド座標系CwのZw軸と、レンズ座標系CeのZe軸とが平行であるとすることができる。
(5-2) Conversion to World Coordinate System (5-2-1) Lens Coordinate System FIG. 12 is a schematic diagram for explaining the relationship between the lens coordinate system Ce and the world coordinate system Cw. As shown in FIG. 12, the deviation amount of the lens coordinate system Ce with respect to the world coordinate system Cw, the parameters e x, e y, represented by e z, e theta. The parameters e x , e y , and e z represent the amount of deviation in the Xw axis direction, the amount of deviation in the Yw axis direction, and the amount of deviation in the Zw axis direction of the origin Oe of the lens coordinate system Ce with respect to the origin Ow of the world coordinate system Cw. Also, the parameters e theta, represents the angle of inclination of the Xe axis and Ye axis of the lens coordinate system Ce respect Xw axis and Yw axis of the world coordinate system Cw. Here, since it is relatively easy to maintain the parallel relationship between the spatial light modulator 21 and the lens array 22, it is assumed that the Zw axis of the world coordinate system Cw and the Ze axis of the lens coordinate system Ce are parallel. be able to.

この場合、レンズ座標系Ceとワールド座標系Cwとの関係が次式(1)で表される。ここで、Fはe,e,e,eθを変数とする関数である。 In this case, the relationship between the lens coordinate system Ce and the world coordinate system Cw is expressed by the following equation (1). Here, F is a function having e x , e y , e z , and e θ as variables.

Figure 0005354252
Figure 0005354252

関数Fにより、次式(2)で表されるように、(x,y,z)で表されるワールド座標系Cwの座標を、パラメータe,e,e,eθを用いることにより、(x,y,z)で表されるレンズ座標系Ceの座標に変換することができる。 As represented by the following equation (2), the coordinates of the world coordinate system Cw represented by (x w , y w , z w ) are expressed by parameters F x , e y , e z , e θ by the function F. Can be converted into the coordinates of the lens coordinate system Ce represented by (x e , y e , z e ).

Figure 0005354252
Figure 0005354252

さらに、式(2)から算出される逆関数F−1により、レンズ座標系Ceの座標からワールド座標系Cwの座標に変換することができる。これにより、レンズアレイ22の各レンズ220の位置は、パラメータe,e,e,eθを用いてレンズ座標系Ceの座標からワールド座標系Cwの座標に変換することができる。 Furthermore, the coordinates of the lens coordinate system Ce can be converted to the coordinates of the world coordinate system Cw by the inverse function F −1 calculated from the equation (2). Thereby, the position of each lens 220 of the lens array 22 can be converted from the coordinates of the lens coordinate system Ce to the coordinates of the world coordinate system Cw using the parameters e x , e y , e z , and e θ .

なお、パラメータeで表されるずれ量は、上記のように、パラメータe,e,eθで表されるずれ量に比べて実際には発生しにくい。したがって、以下においては、説明の簡略化のため、e=0とする。 Incidentally, the deviation amount represented by the parameter e z, as described above, the parameter e x, actually less likely to occur as compared with the amount of deviation represented by e y, e theta. Therefore, in the following, e z = 0 is set for simplification of description.

(5−2−2)他の座標系
上記のように、ワールド座標系Cwは、空間光変調器21に対して予め定められたレンズアレイ22の理想的な位置を基準に定められる。そのため、LCD座標系Clとワールド座標系Cwとは一義的な関係を有し、LCD座標系Clをワールド座標系Cwに一義的に変換することができる。したがって、空間光変調器21の各画素の位置は、撮影画像座標系Ciの座標からワールド座標系Cwの座標に一義的に変換することができる。
(5-2-2) Other Coordinate Systems As described above, the world coordinate system Cw is determined based on an ideal position of the lens array 22 that is predetermined with respect to the spatial light modulator 21. Therefore, the LCD coordinate system Cl and the world coordinate system Cw have a unique relationship, and the LCD coordinate system Cl can be uniquely converted to the world coordinate system Cw. Therefore, the position of each pixel of the spatial light modulator 21 can be uniquely converted from the coordinates of the captured image coordinate system Ci to the coordinates of the world coordinate system Cw.

また、上記のように、Tsaiのアルゴリズム等によって撮影装置101の位置および姿勢が求められる。撮影装置101と空間光変調器21との位置関係は一定であるので、撮影装置座標系CcとLCD座標系Clとは一義的な関係を有する。それにより、撮影装置座標系Ccをワールド座標系Cwに一義的に変換することができる。   Further, as described above, the position and orientation of the photographing apparatus 101 are obtained by the Tsai algorithm or the like. Since the positional relationship between the imaging device 101 and the spatial light modulator 21 is constant, the imaging device coordinate system Cc and the LCD coordinate system Cl have a unique relationship. Thereby, the imaging device coordinate system Cc can be uniquely converted to the world coordinate system Cw.

撮影画像座標系Ciは、上記のように撮影装置座標系Ccから一義的に求めることができる。それにより、撮影画像座標系Ciをワールド座標系Cwに一義的に変換することができる。したがって、仮想平面VP上の仮想光点の位置は、撮影画像座標系Ciの座標からワールド座標系Cwの座標に一義的に変換することができる。   The captured image coordinate system Ci can be uniquely obtained from the imaging apparatus coordinate system Cc as described above. Thereby, the captured image coordinate system Ci can be uniquely converted into the world coordinate system Cw. Therefore, the position of the virtual light spot on the virtual plane VP can be uniquely converted from the coordinates of the captured image coordinate system Ci to the coordinates of the world coordinate system Cw.

(6)計測演算部および表示制御部の動作
計測演算部102および表示制御部5の動作について説明する。図13〜図15は、計測演算部102の動作を示すフローチャートであり、図16は、表示制御部5の動作を示すフローチャートである。
(6) Operations of Measurement Calculation Unit and Display Control Unit Operations of the measurement calculation unit 102 and the display control unit 5 will be described. 13 to 15 are flowcharts illustrating the operation of the measurement calculation unit 102, and FIG. 16 is a flowchart illustrating the operation of the display control unit 5.

まず、計測演算部102の動作について説明する。計測演算部102の動作は、立体ディスプレイシステム10の製造時に実行される。   First, the operation of the measurement calculation unit 102 will be described. The operation of the measurement calculation unit 102 is performed when the stereoscopic display system 10 is manufactured.

図13に示すように、計測演算部102は、最初に撮影装置101の撮影画像に基づいてレンズ座標算出処理を行う(ステップS1)。次に、計測演算部102は、パラメータ算出処理を行う(ステップS2)。これにより、上記のパラメータe,e,e,eθの値が算出される。算出されたパラメータe,e,e,eθの値は、記憶部6に記憶される。これらのパラメータe,e,e,eθの値が修正データとして用いられる。 As shown in FIG. 13, the measurement calculation unit 102 first performs lens coordinate calculation processing based on the captured image of the imaging apparatus 101 (step S1). Next, the measurement calculation unit 102 performs a parameter calculation process (step S2). As a result, the values of the parameters e x , e y , e z , and e θ are calculated. The calculated parameters e x , e y , e z , and e θ are stored in the storage unit 6. The values of these parameters e x , e y , e z , e θ are used as correction data.

ステップS1のレンズ座標算出処理の詳細について説明する。図14に示すように、計測演算部102は、記憶部6から立体ディスプレイ1の基本属性および撮影装置101の基本属性を読み出す(ステップS11)。次に、計測演算部102は、レンズアレイ22のレンズ220の直径、間隔および配置、ならびに撮影装置101の位置および姿勢等に基づいて、撮影装置101の撮影画像上における各レンズ220の位置を暫定的に決定する(ステップS12)。   Details of the lens coordinate calculation processing in step S1 will be described. As illustrated in FIG. 14, the measurement calculation unit 102 reads the basic attributes of the stereoscopic display 1 and the basic attributes of the imaging device 101 from the storage unit 6 (step S11). Next, the measurement calculation unit 102 provisionally sets the position of each lens 220 on the captured image of the imaging apparatus 101 based on the diameter, interval, and arrangement of the lenses 220 of the lens array 22 and the position and orientation of the imaging apparatus 101. (Step S12).

次に、計測演算部102は、表示制御部5に画素点灯信号を与える(ステップS13)。画素点灯信号に応答して、表示制御部5が空間光変調器21の1つの画素を点灯させる。この場合、点灯させる画素は、画素点灯信号により指定される。   Next, the measurement calculation part 102 gives a pixel lighting signal to the display control part 5 (step S13). In response to the pixel lighting signal, the display control unit 5 lights one pixel of the spatial light modulator 21. In this case, the pixel to be lit is designated by the pixel lighting signal.

次に、計測演算部102は、撮影装置101に撮影信号を与える(ステップS14)。撮影信号に応答して、撮影装置101が立体ディスプレイ1の要素表示面2を撮影する。この場合、撮影装置101の撮影画像上には、ステップS13で点灯させた画素から発せられる光による光度の分布が現れる。   Next, the measurement calculation unit 102 gives a photographing signal to the photographing apparatus 101 (step S14). In response to the photographing signal, the photographing apparatus 101 photographs the element display surface 2 of the stereoscopic display 1. In this case, a light intensity distribution due to light emitted from the pixels lit in step S <b> 13 appears on the photographed image of the photographing apparatus 101.

次に、計測演算部102は、撮影装置101の撮影画像上に現れる光度の分布を光度分布データとして取得する(ステップS15)。次に、計測演算部102は、全ての画素について光度分布データを取得したか否かを判定する(ステップS16)。全ての画素について光度分布データを取得していない場合、計測演算部102は、ステップS13の処理に戻り、点灯させていない画素のうち1つの画素を点灯させる。   Next, the measurement calculation unit 102 acquires the luminous intensity distribution appearing on the captured image of the imaging apparatus 101 as luminous intensity distribution data (step S15). Next, the measurement calculation unit 102 determines whether or not the light intensity distribution data has been acquired for all the pixels (step S16). When the light intensity distribution data is not acquired for all the pixels, the measurement calculation unit 102 returns to the process of step S13 and turns on one pixel among the pixels that are not turned on.

ステップS13〜S16の処理が繰り返されることにより、空間光変調器21の画素が順に1つずつ点灯し、各画素の点灯ごとに撮影装置101により要素表示面2が撮影される。それにより、全ての画素のついての光度分布データが取得される。なお、点灯させる画素の順番は、例えば画素の配列に沿って予め設定されてもよく、あるいはランダムであってもよい。   By repeating the processes of steps S13 to S16, the pixels of the spatial light modulator 21 are sequentially turned on one by one, and the element display surface 2 is photographed by the photographing apparatus 101 every time the pixels are turned on. Thereby, light intensity distribution data for all the pixels is acquired. Note that the order of the pixels to be lit may be set in advance, for example, along the arrangement of the pixels, or may be random.

全ての画素について光度分布データを取得した場合、計測演算部102は、取得した光度分布データに基づいて、レンズアレイ22の1つのレンズ220に対応する複数の画素のうち最も高い光度が得られた画素を特定する(ステップS17)。   When the light intensity distribution data is acquired for all the pixels, the measurement calculation unit 102 obtains the highest light intensity among the plurality of pixels corresponding to one lens 220 of the lens array 22 based on the acquired light intensity distribution data. A pixel is specified (step S17).

なお、撮影装置101の撮影画像上で最も光度が高い位置を特定する方法として、各撮影画像の光度分布を重ね合わせて積算分布の重心を求める方法、光度の総和を求めた際のピークを用いる方法、または光点が計算対象となる位置に出現する確率から重み付けを行って積算する方法等がある。   Note that, as a method of specifying the position with the highest luminous intensity on the photographed image of the photographing apparatus 101, a method of obtaining the center of gravity of the integrated distribution by superimposing the luminous intensity distributions of the respective photographed images, and a peak when the sum of the luminous intensity is obtained is used. For example, there is a method, or a method of performing weighting based on a probability that a light spot appears at a position to be calculated, and the like.

次に、計測演算部102は、その画素の位置および撮影装置101の撮影中心点Pcの位置に基づいて、1つのレンズ220の主点220aの座標(以下、レンズ座標と呼ぶ)をワールド座標系Cwで算出する(ステップS18)。   Next, the measurement calculation unit 102 determines the coordinates of the principal point 220a of one lens 220 (hereinafter referred to as lens coordinates) based on the position of the pixel and the position of the photographing center point Pc of the photographing apparatus 101 in the world coordinate system. Calculate with Cw (step S18).

具体的には、ステップS11において、空間光変調器21の各画素の位置および撮影装置101の撮影中心点Pcの位置が、立体ディスプレイ1および撮影装置101の基本属性として記憶部6から読み出される。各画素の位置および撮影装置101の撮影中心点Pcの位置は、ワールド座標系Cwの座標で表すことができる。   Specifically, in step S <b> 11, the position of each pixel of the spatial light modulator 21 and the position of the photographing center point Pc of the photographing apparatus 101 are read from the storage unit 6 as basic attributes of the stereoscopic display 1 and the photographing apparatus 101. The position of each pixel and the position of the photographing center point Pc of the photographing apparatus 101 can be represented by the coordinates of the world coordinate system Cw.

レンズ220の主点220aは、ステップS17で特定された画素と撮影装置101の撮影中心点Pcとを結ぶ直線上にある。また、本実施の形態ではe=0であるので、Zw軸方向におけるレンズ座標は特定される。これにより、ワールド座標系Cwにおいて、ステップS17で特定された画素の座標および撮影装置101の撮影中心点Pcの座標からレンズ座標を求めることができる。 The principal point 220a of the lens 220 is on a straight line connecting the pixel specified in step S17 and the photographing center point Pc of the photographing apparatus 101. In the present embodiment, since e z = 0, the lens coordinates in the Zw axis direction are specified. Thereby, in the world coordinate system Cw, the lens coordinates can be obtained from the coordinates of the pixel specified in step S17 and the coordinates of the photographing center point Pc of the photographing apparatus 101.

なお、レンズ座標は、撮影装置101の撮影中心点Pcの位置と撮影画像上に現れる光点の位置とに基づいて次のようにして求めることもできる。まず、撮影画像上に現れる光点の位置から仮想平面VP上における仮想光点Piの位置を求めることができる。上記のように、仮想光点Piの位置は、ワールド座標系Cwの座標で表すことができる。   The lens coordinates can also be obtained as follows based on the position of the photographing center point Pc of the photographing apparatus 101 and the position of the light spot appearing on the photographed image. First, the position of the virtual light spot Pi on the virtual plane VP can be obtained from the position of the light spot appearing on the captured image. As described above, the position of the virtual light spot Pi can be represented by the coordinates of the world coordinate system Cw.

レンズ220の主点220aは、ステップS17で特定された画素に対応する仮想光点Piと撮影装置101の撮影中心点Pcとを結ぶ直線上にある。それにより、ワールド座標系Cwにおいて、ステップS17で特定された画素に対応する仮想光点Piの座標および撮影装置101の撮影中心点Pcの座標からレンズ座標を求めることができる。   The principal point 220a of the lens 220 is on a straight line connecting the virtual light spot Pi corresponding to the pixel specified in step S17 and the photographing center point Pc of the photographing apparatus 101. Thereby, in the world coordinate system Cw, the lens coordinates can be obtained from the coordinates of the virtual light spot Pi corresponding to the pixel specified in step S17 and the coordinates of the photographing center point Pc of the photographing apparatus 101.

以下の説明において、ステップS18で算出されるワールド座標系Cwのレンズ座標をP で表す。また、各レンズ220に対応して1〜n(nは全てのレンズ220の数)の番号を付し、ステップS18で算出されるi番(1≦i≦n)のレンズ220のレンズ座標をiP で表す。 In the following description, the lens coordinates of the world coordinate system Cw calculated in step S18 are represented by P e w . Further, numbers 1 to n (n is the number of all the lenses 220) are assigned to the respective lenses 220, and the lens coordinates of the i-th (1 ≦ i ≦ n) lens 220 calculated in step S18 are indicated. Expressed as iP e w .

次に、計測演算部102は、全てのレンズ220についてレンズ座標P を算出したか否かを判定する(ステップS19)。全てのレンズ220についてレンズ座標P を算出していない場合、計測演算部102は、ステップS17の処理に戻る。 Next, measurement computation unit 102 determines whether the calculated lens coordinate P e w for all lens 220 (step S19). When the lens coordinates P e w have not been calculated for all the lenses 220, the measurement calculation unit 102 returns to the process of step S17.

ステップS17〜S19の処理が繰り返されることにより、空間光変調器21の全てのレンズ220のレンズ座標P が算出される。なお、レンズ座標を算出するレンズ220の順番は、例えばレンズ220の配列に沿って予め設定されてもよく、あるいはランダムであってもよい。 By the process of step S17~S19 are repeated, the lens coordinates P e w of all the lenses 220 of the spatial light modulator 21 is calculated. The order of the lenses 220 for calculating the lens coordinates may be set in advance along the arrangement of the lenses 220, or may be random, for example.

全てのレンズ220についてレンズ座標P を算出すると、計測演算部102は、レンズ座標算出処理を終了する。 When the lens coordinates P e w are calculated for all the lenses 220, the measurement calculation unit 102 ends the lens coordinate calculation process.

続いて、図13のステップS2のパラメータ算出処理について説明する。図15に示すように、計測演算部102は、レンズ220の配置および間隔等に基づいて、レンズ座標系Ceにおける各レンズ220のレンズ座標をそれぞれ取得する(ステップS31)。なお、レンズ220の配置および間隔は、図14のステップS11で記憶部6から読み出した立体ディスプレイ1の基本属性に含まれる。   Next, the parameter calculation process in step S2 of FIG. 13 will be described. As shown in FIG. 15, the measurement calculation unit 102 acquires the lens coordinates of each lens 220 in the lens coordinate system Ce based on the arrangement and interval of the lenses 220 (step S31). The arrangement and interval of the lenses 220 are included in the basic attributes of the stereoscopic display 1 read from the storage unit 6 in step S11 of FIG.

以下の説明において、ステップS31で取得されるレンズ座標系Ceのレンズ座標をP で表す。また、ステップS31で算出されるi番のレンズ220のレンズ座標をiP で表す。 In the following description, the lens coordinates of the lens coordinate system Ce acquired in step S31 are represented by P l e . Further, the lens coordinates of the i-th lens 220 calculated in step S31 are represented by iP l e .

次に、計測演算部102は、記憶部6に記憶されるレンズアレイ22のずれ量を初期化する(ステップS32)。具体的には、前回のパラメータ算出処理で算出されたパラメータe,e,e,eθの値が所定の初期値に戻される。 Next, the measurement calculation unit 102 initializes the shift amount of the lens array 22 stored in the storage unit 6 (step S32). Specifically, the values of the parameters e x , e y , e z , e θ calculated in the previous parameter calculation process are returned to predetermined initial values.

次に、計測演算部102は、レンズアレイ22のずれ量の許容範囲を設定する(ステップS33)。立体ディスプレイ1の製造時に、手作業でレンズアレイ22の位置合わせを行う場合、実際に発生するレンズアレイ22のずれ量は一定の範囲内に限られる。ステップS33において、手作業でレンズアレイ22の位置合わせを行った場合に発生するずれ量の許容範囲が設定される。例えば、ずれ量の許容範囲は、レンズアレイ22のレンズピッチ以下に設定される。ここで、レンズピッチとは、隣接するレンズ220の主点220a間の距離をいう。   Next, the measurement calculation unit 102 sets an allowable range of the deviation amount of the lens array 22 (step S33). When the position of the lens array 22 is manually adjusted when the stereoscopic display 1 is manufactured, the amount of deviation of the lens array 22 that actually occurs is limited to a certain range. In step S33, an allowable range for the amount of deviation that occurs when the lens array 22 is manually aligned is set. For example, the allowable range of the deviation amount is set to be equal to or smaller than the lens pitch of the lens array 22. Here, the lens pitch refers to the distance between the principal points 220a of the adjacent lenses 220.

次に、計測演算部102は、パラメータe,e,e,eθを用いて、レンズ座標系Ceにおける各レンズ座標P をワールド座標系Cwにおけるレンズ座標P に変換する(上記式(2)参照。ステップS34)。ここで、レンズ座標P は、(x,y,z)で表され、レンズ座標P は、(x,y,z)で表される。 Next, the measurement calculation unit 102 converts the lens coordinates P l e in the lens coordinate system Ce into the lens coordinates P l w in the world coordinate system Cw using the parameters e x , e y , e z , and e θ. (Refer to said Formula (2). Step S34). Here, the lens coordinates P l e are represented by (x e , y e , z e ), and the lens coordinates P l w are represented by (x w , y w , z w ).

続いて、計測演算部102は、各レンズ220のレンズ座標P およびレンズ座標P に基づいて、パラメータe,e,e,eθの値を求める。例えば、最小二乗法を用いてずれ量を表すパラメータe,e,e,eθの妥当な値を求める。また、他の方法でパラメータe,e,e,eθの値を求めてもよい。例えば、全てのレンズ200に関して、レンズ座標P とレンズ座標P との差の絶対値の和を求め、ニュートン法のような反復計算によりパラメータe,e,e,eθの値を求めてもよい。以下、本例においては、最小二乗法を用いてパラメータe,e,e,eθの値を求める方法について説明する。 Subsequently, the measurement calculation unit 102 obtains the values of the parameters e x , e y , e z , and e θ based on the lens coordinates P l e and the lens coordinates P l w of each lens 220. For example, an appropriate value of the parameters e x , e y , e z , and e θ representing the deviation amount is obtained using the least square method. In addition, the values of the parameters e x , e y , e z , and e θ may be obtained by other methods. For example, with respect to all the lenses 200, the sum of the absolute values of the differences between the lens coordinates P l e and the lens coordinates P l w is obtained, and the parameters e x , e y , e z , e θ are obtained by iterative calculation such as Newton's method. May be obtained. Hereinafter, in this example, a method for obtaining the values of the parameters e x , e y , e z , and e θ using the least square method will be described.

計測演算部102は、各レンズ220について、ステップS34で変換したレンズ座標P と、図14のステップS18で算出したレンズ座標P との距離εを算出する(ステップS35)。i番のレンズ220についての距離εiは、iP −iP で表される。 For each lens 220, the measurement calculation unit 102 calculates a distance ε between the lens coordinates P l w converted in step S34 and the lens coordinates P e w calculated in step S18 of FIG. 14 (step S35). The distance εi for the i-th lens 220 is represented by iP e w −iP l w .

次に、計測演算部102は、レンズ220についての距離εの二乗総和S(下記式(3)参照)を算出する(ステップS36)。   Next, the measurement calculation unit 102 calculates the square sum S of distances ε (see the following formula (3)) for the lens 220 (step S36).

Figure 0005354252
Figure 0005354252

次に、計測演算部102は、二乗総和Sが最小となるパラメータe,e,e,eθの値を算出する(ステップS37)。数学的には、下記式(4)に示すように、二乗総和Sをパラメータe,e,e,eθで偏微分した関数がそれぞれ0となるように、修正データとしてパラメータe,e,e,eθの値を求める。 Next, the measurement calculation unit 102 calculates the values of the parameters e x , e y , e z , and e θ that minimize the square sum S (step S37). Mathematically, as shown in the following formula (4), the square sum S parameter e x, e y, as a function obtained by partially differentiating e z, e theta is 0 respectively, the parameter e x as the correction data , E y , e z and e θ are obtained.

Figure 0005354252
Figure 0005354252

しかしながら、三角関数または高次項を含む上式(4)を解析的に解くことは、比較的困難である。この場合、ニュートン法等を用いることにより、数値的に解を求めることができる。例えば、ステップS33で設定したずれ量の許容範囲内でパラメータe,e,e,eθに具体的な値を当てはめて計算を行うことにより、二乗総和Sが最小となるパラメータe,e,e,eθの値を特定する。 However, it is relatively difficult to analytically solve the above equation (4) including trigonometric functions or higher order terms. In this case, a solution can be obtained numerically by using the Newton method or the like. For example, the parameter within the allowable range of the deviation amount set in step S33 e x, e y, by performing a calculation by applying specific values to e z, e theta, square sum S becomes minimum parameter e x , E y , e z and e θ are specified.

なお、撮影装置101の解像度およびレンズアレイ22の作製精度等による誤差を考慮して、上式(3)の代わりにレンズアレイ22の作製精度に応じて重みを付けた最小二乗法を用いてパラメータe,e,e,eθの値を求めてもよい。その場合、重みの例として、光度分布の分散、偏差、対称性、強度または総和等が挙げられる。 In consideration of errors due to the resolution of the photographing apparatus 101 and the manufacturing accuracy of the lens array 22, parameters are calculated using a least square method weighted according to the manufacturing accuracy of the lens array 22 instead of the above equation (3). The values of e x , e y , e z , and e θ may be obtained. In this case, examples of the weight include dispersion, deviation, symmetry, intensity, or summation of the luminous intensity distribution.

このようにして、パラメータe,e,e,eθの値を算出した後、計測演算部102は、パラメータ算出処理を終了する。 Thus, after calculating the values of the parameters e x , e y , e z , and e θ , the measurement calculation unit 102 ends the parameter calculation process.

次に、表示制御部5の動作について説明する。表示制御部5の動作は、立体ディスプレイシステム10の製造時および立体ディスプレイシステム10の使用時に実行される。具体的には、立体ディスプレイシステム10の製造時にはステップS41〜S43の処理が行われ、立体ディスプレイシステム10の使用時にはステップS41,S42,S44〜S49の処理が行われる。   Next, the operation of the display control unit 5 will be described. The operation of the display control unit 5 is executed when the stereoscopic display system 10 is manufactured and when the stereoscopic display system 10 is used. Specifically, the processes of steps S41 to S43 are performed when the stereoscopic display system 10 is manufactured, and the processes of steps S41, S42, and S44 to S49 are performed when the stereoscopic display system 10 is used.

図16に示すように、表示制御部5は、記憶部6から立体形状データおよび立体ディスプレイ1の基本属性を読み出す(ステップS41)。   As illustrated in FIG. 16, the display control unit 5 reads out the three-dimensional shape data and the basic attributes of the three-dimensional display 1 from the storage unit 6 (step S41).

次に、表示制御部5は、計測演算部102から画素点灯信号が与えられているか否かを判定する(ステップS42)。画素点灯信号が与えられている場合、表示制御部5は、空間光変調器21を制御して画素点灯信号により指定される画素を点灯させる(ステップS43)。その後、表示制御部5は、ステップS42の処理に戻る。ステップS42,S43の処理が繰り返されるときに、計測演算部102による図14のレンズ座標算出処理および図15のパラメータ算出処理が実行される。   Next, the display control unit 5 determines whether or not a pixel lighting signal is given from the measurement calculation unit 102 (step S42). When the pixel lighting signal is given, the display control unit 5 controls the spatial light modulator 21 to light the pixel specified by the pixel lighting signal (step S43). Thereafter, the display control unit 5 returns to the process of step S42. When the processes of steps S42 and S43 are repeated, the lens coordinate calculation process of FIG. 14 and the parameter calculation process of FIG. 15 by the measurement calculation unit 102 are executed.

画素点灯信号が与えられていない場合、表示制御部5は、記憶部6に記憶されたパラメータe,e,e,eθの値を修正データとして読み出す(ステップS44)。 When the pixel lighting signal is not given, the display control unit 5 reads the values of the parameters e x , e y , e z , and e θ stored in the storage unit 6 as correction data (step S44).

次に、表示制御部5は、1つのレンズ220(例えばi番のレンズ220)について、理想的な座標から実際の座標に修正する(ステップS45)。具体的には、ステップS41で記憶部6から読み出した立体ディスプレイ1の基本属性に基づいて理想的なレンズ座標を算出する。そのレンズ座標を、ステップS44で記憶部6から読み出したパラメータe,e,e,eθの値を用いて実際のレンズ座標に修正する。 Next, the display control unit 5 corrects an ideal coordinate to an actual coordinate for one lens 220 (for example, the i-th lens 220) (step S45). Specifically, ideal lens coordinates are calculated based on the basic attributes of the stereoscopic display 1 read from the storage unit 6 in step S41. The lens coordinates are corrected to the actual lens coordinates using the values of the parameters e x , e y , e z and e θ read from the storage unit 6 in step S44.

次に、表示制御部5は、修正したレンズ座標、立体形状データ、およびレンズ220の画角等に基づいて、1つのレンズ220(例えばi番のレンズ220)に割り当てられた画素群に表示すべき画像のレンダリング(立体画像データの作成)を行う(ステップS46)。なお、レンズ220の画角は、ステップS41で記憶部6から読み出した立体ディスプレイ1の基本属性に含まれる。   Next, the display control unit 5 displays on the pixel group assigned to one lens 220 (for example, the i-th lens 220) based on the corrected lens coordinates, the solid shape data, the angle of view of the lens 220, and the like. Rendering of a power image (creation of stereoscopic image data) is performed (step S46). Note that the angle of view of the lens 220 is included in the basic attributes of the stereoscopic display 1 read from the storage unit 6 in step S41.

次に、表示制御部5は、全てのレンズ220についてレンダリングを行ったか否かを判定する(ステップS47)。全てのレンズ220についてレンダリングを行っていない場合、表示制御部5は、ステップS45の処理に戻る。   Next, the display control unit 5 determines whether or not rendering has been performed for all the lenses 220 (step S47). If rendering has not been performed for all the lenses 220, the display control unit 5 returns to the process of step S45.

全てのレンズ220についてレンダリングを行った場合、表示制御部5は、レンズ220毎にレンダリングした画像を1つの画像に統合する(ステップS48)。このようにして、修正データを用いて立体画像データが作成される。   When rendering has been performed for all the lenses 220, the display control unit 5 integrates the images rendered for each lens 220 into one image (step S48). In this way, stereoscopic image data is created using the correction data.

そして、表示制御部5は、その画像を空間光変調器21に表示させる(ステップS49)。ステップS44〜S49により、作成された立体画像データに基づく立体画像が立体ディスプレイ1に提示される。   Then, the display control unit 5 displays the image on the spatial light modulator 21 (step S49). Through steps S44 to S49, a stereoscopic image based on the generated stereoscopic image data is presented on the stereoscopic display 1.

(7)本実施の形態の効果
このように、本実施の形態では、立体ディスプレイシステム10の製造時に、撮影装置101の撮影画像に基づいて計測演算部102によりレンズアレイ22の位置ずれに関するパラメータe,e,e,eθの値が求められる。
(7) Effects of this Embodiment As described above, in this embodiment, the parameter e regarding the positional deviation of the lens array 22 is measured by the measurement calculation unit 102 based on the photographed image of the photographing apparatus 101 when the stereoscopic display system 10 is manufactured. The values of x , e y , e z and e θ are obtained.

立体ディスプレイシステム10の動作(使用)時には、パラメータe,e,e,eθの値を用いて、各レンズ220の座標が設計上の座標から実際の座標に修正される。そして、修正された各レンズ220の座標に応じて立体画像を提示するための立体画像データが作成される。それにより、空間光変調器21に対するレンズアレイ22の位置が、設計上の位置からずれている場合でも、適正な立体画像を提示することができる。 During the operation (use) of the stereoscopic display system 10, the coordinates of the lenses 220 are corrected from the designed coordinates to the actual coordinates by using the values of the parameters e x , e y , e z , and e θ . Then, stereoscopic image data for presenting a stereoscopic image is created according to the corrected coordinates of each lens 220. Thereby, even when the position of the lens array 22 with respect to the spatial light modulator 21 is deviated from the designed position, an appropriate stereoscopic image can be presented.

(8)他の実施の形態
上記実施の形態では、計測演算部102によるレンズ座標算出処理において、空間光変調器21の画素を順に1つずつ点灯させ、各画素を点灯させた状態を全て撮影装置101により撮影する。本例では、空間光変調器21の画素を順に1つずつ点灯させる代わりに、補正用画像を空間光変調器21に表示させる。
(8) Other Embodiments In the above embodiment, in the lens coordinate calculation process by the measurement calculation unit 102, the pixels of the spatial light modulator 21 are turned on one by one in order, and all the states in which each pixel is turned on are photographed. Photographed by the apparatus 101. In this example, instead of lighting the pixels of the spatial light modulator 21 one by one in order, a correction image is displayed on the spatial light modulator 21.

(8−1)補正用画像
図17は、補正用画像の一例を示す平面図である。図17に示すように、補正用画像ID1,ID2においては、ストライプ状に空間光変調器21の画素が点灯される。
(8-1) Correction Image FIG. 17 is a plan view illustrating an example of a correction image. As shown in FIG. 17, in the correction images ID1 and ID2, the pixels of the spatial light modulator 21 are lit in stripes.

図17(a)〜図17(d)の補正用画像ID1における点灯画素ラインLI1は、LCD座標系ClのYl軸に平行かつ間隔をおいて配置された複数列の画素によって構成される。また、図17(e)〜図17(h)の補正用画像ID2における点灯画素ラインLI2は、LCD座標系ClのXl軸に平行かつ間隔をおいて配置された複数行の画素によって構成される。   The lighting pixel line LI1 in the correction image ID1 in FIGS. 17A to 17D is configured by a plurality of columns of pixels arranged in parallel and spaced apart from the Yl axis of the LCD coordinate system Cl. In addition, the lighting pixel line LI2 in the correction image ID2 in FIGS. 17E to 17H is configured by a plurality of rows of pixels arranged parallel to and spaced from the Xl axis of the LCD coordinate system Cl. .

点灯画素ラインLI1,LI2の間隔(周期)は、レンズアレイ22のレンズピッチより大きくなるように設定される。また、点灯画素ラインLI1,LI2の間隔に応じて、補正用画像ID1,ID2の数がそれぞれ決定される。   The interval (cycle) between the lighting pixel lines LI <b> 1 and LI <b> 2 is set to be larger than the lens pitch of the lens array 22. Further, the numbers of the correction images ID1 and ID2 are determined according to the intervals between the lighting pixel lines LI1 and LI2.

図17の例では、点灯画素ラインLI1,LI2が4画素周期で配置され、隣接する点灯画素ラインLI1,LI2間に3列分または3行分の未点灯の画素が配置される。すなわち、本例では、レンズピッチが4画素の長さより小さい。   In the example of FIG. 17, the lit pixel lines LI1 and LI2 are arranged in a cycle of four pixels, and unlit pixels for three columns or three rows are arranged between the adjacent lit pixel lines LI1 and LI2. That is, in this example, the lens pitch is smaller than the length of 4 pixels.

この場合、図17(a)〜図17(d)に示すように、点灯画素ラインLI1の位置が互いに1画素分ずれた4種類の補正用画像ID1が用いられる。また、図17(e)〜図17(h)に示すように、点灯画素ラインLI2の位置が互いに1画素分ずれた4種類の補正用画像ID2が用いられる。このように、レンジピッチを画素ピッチで除した値に相当する数の補正用画像ID1,ID2がそれぞれ用いられる。   In this case, as shown in FIGS. 17A to 17D, four types of correction images ID1 in which the positions of the lighting pixel lines LI1 are shifted from each other by one pixel are used. Also, as shown in FIGS. 17E to 17H, four types of correction images ID2 are used in which the positions of the lit pixel line LI2 are shifted from each other by one pixel. In this way, the number of correction images ID1 and ID2 corresponding to the value obtained by dividing the range pitch by the pixel pitch is used.

図18は、補正用画像ID1を空間光変調器21に表示させた場合に点灯画素ラインLI1から発せられる光が向かう方向を示す模式的側面図である。なお、図18には、点灯画素ラインLI1に垂直な面(LCD座標系ClにおけるXl−Zl平面)が模式的に示される。   FIG. 18 is a schematic side view illustrating a direction in which light emitted from the lighting pixel line LI1 travels when the correction image ID1 is displayed on the spatial light modulator 21. FIG. 18 schematically shows a plane (X1-Zl plane in the LCD coordinate system Cl) perpendicular to the lighting pixel line LI1.

図18に示すように、点灯画素ラインLI1の間隔がレンズピッチより大きいことにより、2つ以上の点灯画素ラインLI1から発せられる光が、共通のレンズ220の主点220aを通って撮影装置101に向かうことがない。そのため、1つのレンズ220を通して撮影装置101の撮影画像に現れる光は、1つの点灯画素ラインLI1から発せられた光に限られる。   As shown in FIG. 18, since the interval between the lit pixel lines LI1 is larger than the lens pitch, light emitted from two or more lit pixel lines LI1 passes through the principal point 220a of the common lens 220 to the photographing apparatus 101. There is no heading. Therefore, the light that appears in the captured image of the image capturing apparatus 101 through one lens 220 is limited to the light emitted from one lighting pixel line LI1.

図18において、光F3,F4は、撮影装置101の撮影画像に現れるが、光F1,F2,F5は、撮影装置101の撮影画像に現れない。   In FIG. 18, the lights F3 and F4 appear in the photographed image of the photographing apparatus 101, but the lights F1, F2, and F5 do not appear in the photographed image of the photographing apparatus 101.

なお、補正用画像ID2を空間光変調器21に表示させた場合、点灯画素ラインLI2から発せられる光の方向は、点灯画素ラインLI2に垂直な面(LCD座標系ClにおけるYl−Zl平面)内において、図18に示す状態と同様になる。   When the correction image ID2 is displayed on the spatial light modulator 21, the direction of light emitted from the lighting pixel line LI2 is in a plane perpendicular to the lighting pixel line LI2 (Yl-Zl plane in the LCD coordinate system Cl). FIG. 18 is the same as the state shown in FIG.

(8−2)レンズアレイの位置合わせ
本実施の形態では、空間光変調器21に対するレンズアレイ22の位置合わせを手作業または製造用ロボットにより一定以上の精度で行う。具体的には、レンズアレイ22の全てのレンズ220に関して、理想的な位置から1レンズピッチ以上ずれないように位置合わせを行う。
(8-2) Lens Array Positioning In this embodiment, the lens array 22 is positioned with respect to the spatial light modulator 21 by a manual operation or a manufacturing robot with a certain level of accuracy. Specifically, all the lenses 220 of the lens array 22 are aligned so as not to deviate by more than one lens pitch from the ideal position.

一定の精度以上でレンズアレイ22の位置合わせを行う方法として、空間光変調器21の所定の領域の画素を点灯させ、その点灯する画素を基準としてレンズアレイ22の位置合わせを行う方法がある。   As a method for aligning the lens array 22 with a certain accuracy or more, there is a method in which pixels in a predetermined area of the spatial light modulator 21 are lit and the lens array 22 is aligned with reference to the lit pixels.

例えば、空間光変調器21の中央部および四隅において、1つのレンズ220とほぼ等しい面積分の画素を点灯させる。そして、レンズアレイ22の一面の中央部および四隅に配置されるレンズ220を点灯する画素の位置に合わせる。この場合、全てのレンズ220が理想的な位置から1レンズピッチ以上ずれないようにレンズアレイ22の位置合わせを容易に行うことができる。   For example, pixels in an area substantially equal to one lens 220 are turned on at the center and four corners of the spatial light modulator 21. Then, the lens 220 arranged at the center and four corners of one surface of the lens array 22 is aligned with the position of the pixel to be lit. In this case, it is possible to easily align the lens array 22 so that all the lenses 220 do not deviate from the ideal position by one lens pitch or more.

(8−2)レンズ座標算出処理
図19は、補正用画像ID1,ID2を用いたレンズ座標算出処理のフローチャートである。図19のレンズ座標算出処理について、図14のレンズ座標算出処理と異なる点を説明する。
(8-2) Lens Coordinate Calculation Processing FIG. 19 is a flowchart of lens coordinate calculation processing using the correction images ID1 and ID2. The lens coordinate calculation process of FIG. 19 will be described while referring to differences from the lens coordinate calculation process of FIG.

図19に示すように、計測演算部102は、ステップS11の処理を行った後、表示制御部5に全点灯信号を与える(ステップS51)。全点灯信号に応答して、表示制御部5が空間光変調器21の全ての画素を点灯させる。   As shown in FIG. 19, the measurement calculation part 102 gives a full lighting signal to the display control part 5 after performing the process of step S11 (step S51). In response to the full lighting signal, the display control unit 5 lights all the pixels of the spatial light modulator 21.

次に、計測演算部102は、撮影装置101に撮影信号を与える(ステップS52)。撮影信号に応答して、撮影装置101が立体ディスプレイ1の要素表示面2を撮影する。撮影装置101の撮影画像上には、全ての画素を点灯させた状態での光度の分布が現れる。   Next, the measurement calculation unit 102 gives a photographing signal to the photographing apparatus 101 (step S52). In response to the photographing signal, the photographing apparatus 101 photographs the element display surface 2 of the stereoscopic display 1. On the photographed image of the photographing apparatus 101, a luminous intensity distribution in a state where all the pixels are turned on appears.

次に、計測演算部102は、撮影装置101の撮影画像上に現れる光度の分布から、レンズアレイ22の各レンズ220の実際の位置を暫定的に決定する(ステップS53)。具体的には、撮影装置101の撮影画像から、光度の重心点(最も光度が高い位置)が特定される。その重心点に対応する仮想平面VP上の位置と、撮影装置101の撮影中心点Pcとを結ぶ直線上に、各レンズ220の主点220aがあると考えられる。   Next, the measurement calculation unit 102 provisionally determines the actual position of each lens 220 of the lens array 22 from the distribution of luminous intensity appearing on the photographed image of the photographing apparatus 101 (step S53). Specifically, the barycentric point of light intensity (the position with the highest light intensity) is specified from the captured image of the image capturing apparatus 101. It is considered that the principal point 220a of each lens 220 is on a straight line connecting the position on the virtual plane VP corresponding to the center of gravity point and the photographing center point Pc of the photographing apparatus 101.

ここで、レンズアレイ22が空間光変調器に対して1レンズピッチ以上ずれている場合には、撮影装置101の撮影画像上に現れる光度の重心点がどのレンズ220に対応しているかを判断することができない。   Here, when the lens array 22 is shifted by one lens pitch or more with respect to the spatial light modulator, it is determined which lens 220 corresponds to the center of gravity of the luminous intensity appearing on the photographed image of the photographing apparatus 101. I can't.

そこで、本実施の形態では、全てのレンズ220が理想的な位置から1レンズピッチ以上ずれないようにレンズアレイ22の位置合わせが行われる。それにより、撮影装置101の撮影画像上に現れる光度の重心点から各レンズ220の実際の位置を暫定的に求めることができる。   Therefore, in the present embodiment, the lens array 22 is aligned so that all the lenses 220 do not deviate from the ideal position by one lens pitch or more. Thereby, the actual position of each lens 220 can be tentatively obtained from the barycentric point of the luminous intensity appearing on the photographed image of the photographing apparatus 101.

次に、計測演算部102は、ステップS53で暫定的に決定した各レンズ220の位置に基づいて、各レンズ220に対応する画素を特定する(ステップS54)。   Next, the measurement calculation unit 102 specifies a pixel corresponding to each lens 220 based on the position of each lens 220 provisionally determined in step S53 (step S54).

次に、計測演算部102は、表示制御部5に補正用画像表示信号を与える(ステップS55)。補正用画像表示信号に応答して、表示制御部5が空間光変調器21に補正用画像ID1,ID2のいずれか1つを表示させる。表示させる補正用画像の種類は、補正用画像表示信号より指定される。   Next, the measurement calculation unit 102 gives a correction image display signal to the display control unit 5 (step S55). In response to the correction image display signal, the display control unit 5 causes the spatial light modulator 21 to display one of the correction images ID1 and ID2. The type of the correction image to be displayed is specified by the correction image display signal.

次に、計測演算部102は、撮影装置101に撮影信号を与える(ステップS56)。撮影信号に応答して、撮影装置101が立体ディスプレイ1の要素表示面2を撮影する。   Next, the measurement calculation unit 102 gives a photographing signal to the photographing apparatus 101 (step S56). In response to the photographing signal, the photographing apparatus 101 photographs the element display surface 2 of the stereoscopic display 1.

次に、計測演算部102は、全ての補正用画像ID1,ID2について撮影を行ったか否かを判定する(ステップS57)。上記のように、補正用画像ID1,ID2の数は、レンズアレイ22のレンズピッチと空間光変調器21の画素ピッチとの関係に応じて決定される。   Next, the measurement calculation unit 102 determines whether or not shooting has been performed for all the correction images ID1 and ID2 (step S57). As described above, the number of correction images ID <b> 1 and ID <b> 2 is determined according to the relationship between the lens pitch of the lens array 22 and the pixel pitch of the spatial light modulator 21.

全ての補正用画像ID1,ID2について撮影を行っていない場合、計測演算部102は、ステップS55の処理に戻る。全ての補正用画像ID1,ID2について撮影を行った場合、計測演算部102は、撮影装置101の撮影画像に基づいて、各レンズ220のワールド座標系Cwにおけるレンズ座標P を算出する(ステップS58)。 If all the correction images ID1 and ID2 are not photographed, the measurement calculation unit 102 returns to the process of step S55. When performing photographing for all the correction image ID1, ID2, measurement computation unit 102, based on the captured image of the imaging apparatus 101 calculates a lens coordinate P e w in the world coordinate system Cw of each lens 220 (step S58).

ステップS58におけるレンズ座標P の算出方法について詳細に説明する。本実施の形態では、複数の補正用画像ID1を空間光変調器21に表示させることにより、ワールド座標系CwのXw軸方向におけるレンズ220の主点220aの座標x が求められる。また、複数の補正用画像ID2を空間光変調器21に表示させることにより、ワールド座標系CwのYw軸方向におけるレンズ220の主点220aの座標y が求められる。 The method of calculating the lens coordinates P e w in step S58 will be described in detail. In this embodiment, by displaying a plurality of correction images ID1 to the spatial light modulator 21, the coordinate x e w main point 220a of the lens 220 in the Xw axis direction in the world coordinate system Cw is obtained. In addition, by displaying a plurality of correction images ID2 on the spatial light modulator 21, the coordinates y e w of the principal point 220a of the lens 220 in the Yw axis direction of the world coordinate system Cw are obtained.

図20は、ワールド座標系CwのXw−Zw平面に沿った模式的側面図である。図20を用いて、ワールド座標系CwのXw軸方向におけるレンズ220の座標の算出方法について説明する。   FIG. 20 is a schematic side view along the Xw-Zw plane of the world coordinate system Cw. A method of calculating the coordinates of the lens 220 in the Xw axis direction of the world coordinate system Cw will be described with reference to FIG.

なお、図20において、ワールド座標系CwのXw軸方向、Yw軸方向およびZw軸方向は、LCD座標系ClのXl軸方向、Yl軸方向およびZl軸方向にそれぞれ平行であり、ワールド座標系CwのXw−Zw平面は、LCD座標系ClのXl−Zl平面に平行である。   In FIG. 20, the Xw-axis direction, the Yw-axis direction, and the Zw-axis direction of the world coordinate system Cw are parallel to the Xl-axis direction, the Yl-axis direction, and the Zl-axis direction of the LCD coordinate system Cl, respectively, and the world coordinate system Cw The Xw-Zw plane is parallel to the Xl-Zl plane of the LCD coordinate system Cl.

図20においては、i番のレンズ220の主点220aの理想的な位置がiP1で示され、i番のレンズ220の主点220aの実際の位置がiP2で示される。また、ワールド座標系CwのXw軸に沿った画素の行PAが示される。i番のレンズ220の主点220aと画素の行PAとは、共通のXw−Zw平面上にある。   In FIG. 20, the ideal position of the principal point 220a of the i-th lens 220 is indicated by iP1, and the actual position of the principal point 220a of the i-th lens 220 is indicated by iP2. Further, a row PA of pixels along the Xw axis of the world coordinate system Cw is shown. The principal point 220a of the i-th lens 220 and the pixel row PA are on a common Xw-Zw plane.

上記のステップS54において、各レンズ220に対応する画素が特定される。図20においては、画素の行PAのうち領域RE内の画素がi番のレンズ220に対応付けられる。   In step S54 described above, the pixel corresponding to each lens 220 is specified. In FIG. 20, the pixels in the region RE in the pixel row PA are associated with the i-th lens 220.

上記のステップS55において、複数の補正用画像ID1が順に空間光変調器21に表示されることにより、画素の行PAに含まれる各画素が点灯画素ラインLI1として順に点灯する。その際に、領域RE内の画素のうち、画素Pm21が点灯した際に最も高い光度が得られたとする。   In step S55 described above, the plurality of correction images ID1 are sequentially displayed on the spatial light modulator 21, whereby each pixel included in the pixel row PA is sequentially turned on as the lighting pixel line LI1. At that time, it is assumed that the highest luminous intensity is obtained when the pixel Pm21 is turned on among the pixels in the region RE.

この場合、i番のレンズ220の主点220aは、Xw−Zw平面上において、画素Pm21と撮影装置101の撮影中心点Pcとを結ぶ直線上に位置すると考えられる。   In this case, the principal point 220a of the i-th lens 220 is considered to be located on a straight line connecting the pixel Pm21 and the photographing center point Pc of the photographing apparatus 101 on the Xw-Zw plane.

ここで、Xw軸方向における画素Pm21とレンズ220の主点220aとの距離dxは、下記式(5)で表される。   Here, the distance dx between the pixel Pm21 and the principal point 220a of the lens 220 in the Xw-axis direction is expressed by the following equation (5).

Figure 0005354252
Figure 0005354252

式(5)において、x は、LCD座標系ClのXl軸方向における画素Pm21の座標である。Hは、LCD座標系Clにおける座標をワールド座標系Cwにおける座標に変換するための関数である。 In Expression (5), x m l is the coordinates of the pixel Pm21 in the Xl axis direction of the LCD coordinate system Cl. H is a function for converting coordinates in the LCD coordinate system Cl into coordinates in the world coordinate system Cw.

画素Pm21の座標x は、ステップS11(図19)の処理で記憶部6から読み出した基本属性、および用いた補正用画像の種類に基づいて容易に求められる。また、上記のように、LCD座標系Clとワールド座標系Cwとは一義的な関係を有し、LCD座標系Clにおける座標をワールド座標系Cwにおける座標に変換することができる。 Coordinate x m l of pixel Pm21 is easily determined based on the type of basic attributes, and the correction image using read from the storage unit 6 in the process of step S11 (FIG. 19). Further, as described above, the LCD coordinate system Cl and the world coordinate system Cw have a unique relationship, and the coordinates in the LCD coordinate system Cl can be converted into the coordinates in the world coordinate system Cw.

また、レンズアレイ22と空間光変調器21との距離をLfとし、画素Pm21と撮影装置101の撮影中心点Pcとを結ぶ直線が空間光変調器21およびレンズアレイ22に対してなす角度をαxとすると、下記式(6)が成立する。   Further, the distance between the lens array 22 and the spatial light modulator 21 is Lf, and the angle formed by the straight line connecting the pixel Pm21 and the photographing center point Pc of the photographing apparatus 101 with respect to the spatial light modulator 21 and the lens array 22 is αx. Then, the following formula (6) is established.

Figure 0005354252
Figure 0005354252

式(6)において、x は、ワールド座標系CwのXw軸方向における撮影装置101の撮影中心点Pcの座標であり、z は、ワールド座標系CwのZw軸方向における撮影装置101の撮影中心点Pcの座標である。 In Expression (6), x c w is a coordinate of the photographing center point Pc of the photographing apparatus 101 in the Xw axis direction of the world coordinate system Cw, and z c w is a photographing apparatus 101 in the Zw axis direction of the world coordinate system Cw. The coordinates of the photographing center point Pc.

距離Lfは、レンズ220の焦点距離に相当し、ステップS11(図19)の処理で記憶部6から立体ディスプレイ1の基本属性として読み出される。また、上記のように、撮影装置101の撮影中心点Pcの座標x ,z は、一義的に特定される。 The distance Lf corresponds to the focal length of the lens 220, and is read as a basic attribute of the stereoscopic display 1 from the storage unit 6 in the process of step S11 (FIG. 19). Further, as described above, the coordinates x c w and z c w of the photographing center point Pc of the photographing apparatus 101 are uniquely specified.

式(5)および式(6)から、レンズ220の主点220aの座標x を求めることができる。 From equations (5) and (6) it is possible to find the coordinates x e w main point 220a of the lens 220.

なお、eが0でないとする場合には、上式(6)において、LfをLf+eとし、z をz −eとする。 In the case where e z is not 0, the above equation (6), the Lf and Lf + e z, a z c w and z c w -e z.

図20においては、複数の補正用画像ID1を空間光変調器21に表示させることにより、ワールド座標系CwのXw軸方向におけるレンズ220の主点220aの座標x を求める方法について説明したが、同様にして、複数の補正用画像ID2を空間光変調器21に表示させることにより、ワールド座標系CwのYw軸方向におけるレンズ220の主点220aの座標y を求めることができる。その場合、ワールド座標系CwのYw−Zw平面において図20と同様の原理を用いる。 In Figure 20, by displaying a plurality of correction images ID1 to the spatial light modulator 21 has been described how to obtain the coordinates x e w main point 220a of the lens 220 in the Xw axis direction in the world coordinate system Cw , in the same manner, a plurality of correction images ID2 by displaying the spatial light modulator 21, it is possible to determine the coordinate y e w principal point 220a of the lens 220 in the Yw axis of the world coordinate system Cw. In that case, the same principle as in FIG. 20 is used in the Yw-Zw plane of the world coordinate system Cw.

また、ez=0とすると、ワールド座標系CwのZw軸方向におけるレンズ220の主点220aの座標z は特定される(z =0)。それにより、i番のレンズ220のレンズ座標iP が求められる。 When ez = 0, the coordinate z e w of the principal point 220a of the lens 220 in the Zw axis direction of the world coordinate system Cw is specified (z e w = 0). Thereby, the lens coordinates iP e w of the i-th lens 220 are obtained.

このようにして、ワールド座標系Cwにおける各レンズ220のレンズ座標P を求めることができる。 In this way, it is possible to obtain the lens coordinates P e w of each lens 220 in the world coordinate system Cw.

(8−3)効果
本実施の形態では、全てのレンズ220が理想的な位置から1レンズピッチ以上ずれないようにレンズアレイ22の位置合わせを行うとともに、補正用画像ID1,ID2を用いて各レンズ220のレンズ座標を算出する。この場合、上記ように各画素を1つずつ点灯させて各レンズ220のレンズ座標を算出する場合と比べて、撮影装置101による撮影回数を大幅に削減することができる。それにより、立体ディスプレイシステム10の製造時に要する時間を大幅に短縮することができる。
(8-3) Effect In the present embodiment, the lens array 22 is aligned so that all the lenses 220 do not deviate from the ideal position by one lens pitch or more, and the correction images ID1 and ID2 are used for each. The lens coordinates of the lens 220 are calculated. In this case, as compared with the case where each pixel is turned on one by one and the lens coordinates of each lens 220 are calculated as described above, the number of times of photographing by the photographing apparatus 101 can be greatly reduced. Thereby, the time required for manufacturing the stereoscopic display system 10 can be significantly shortened.

(9)さらに他の実施の形態
一般的に、LCD等の表示装置の1ドットは、RGB(red, green, blue)の3つのサブピクセルにより構成される。3つのサブピクセルは、ストライプ状または三角形状に配置される。3つのサブピクセルがストライプ状に配置されている場合、Xl軸方向およびYl軸方向の一方における画素ピッチが他方における画素ピッチの3分の1程度になる。そのため、上記の補正用画像ID1,ID2を用いる場合、補正用画像ID1,ID2の一方が他方に対して3倍の種類必要になる。
(9) Still another embodiment In general, one dot of a display device such as an LCD is composed of three subpixels of RGB (red, green, blue). The three subpixels are arranged in a stripe shape or a triangle shape. When three subpixels are arranged in a stripe shape, the pixel pitch in one of the Xl-axis direction and the Yl-axis direction is about one third of the pixel pitch in the other. Therefore, when the correction images ID1 and ID2 are used, one of the correction images ID1 and ID2 is required to be three times as large as the other.

上記実施の形態では、ピンホールアレイを用いた場合と同様に光が制御されるレンズアレイ22のモデルを考えたが、画素の位置がレンズ220の主点220aの直下の位置から離れるほど、焦点距離が変化したり、収差が大きくなり、誤差が大きくなる。したがって、レンズ220の厳密な光学的な特性を考慮したモデルに基づいて光が向かう方向を算出することにより、立体画像の質を一層向上することができる。   In the above-described embodiment, a model of the lens array 22 in which light is controlled as in the case of using a pinhole array has been considered. However, as the pixel position moves away from a position immediately below the principal point 220a of the lens 220, the focal point increases. The distance changes, the aberration increases, and the error increases. Therefore, the quality of the stereoscopic image can be further improved by calculating the direction in which the light travels based on a model that takes into account the strict optical characteristics of the lens 220.

(10) 請求項の各構成要素と実施の形態の各部との対応関係
以下、請求項の各構成要素と実施の形態の各部との対応の例について説明するが、本発明は下記の例に限定されない。
(10) Correspondence between each component of claim and each part of embodiment The following describes an example of the correspondence between each component of the claim and each part of the embodiment. It is not limited.

上記実施の形態においては、表示制御部5が補正用画像制御手段および立体画像制御手段の例であり、計測演算部102が修正データ算出手段の例であり、撮影装置101が撮影手段の例であり、記憶部6が記憶手段の例であり、レンズ220またはピンホールPHが光線制御子の例であり、レンズアレイ22またはピンホールアレイが光線制御子アレイの例である。また、ワールド座標系Cwが第1の座標系の例であり、レンズ座標系Ceが第2の座標系の例である。 In the above embodiment, the display control unit 5 is an example of a correction image control unit and a stereoscopic image control unit, the measurement calculation unit 102 is an example of a correction data calculation unit, and the imaging device 101 is an example of an imaging unit. The storage unit 6 is an example of a storage unit, the lens 220 or the pinhole PH is an example of a light controller, and the lens array 22 or the pinhole array is an example of a light controller array. The world coordinate system Cw is an example of the first coordinate system, and the lens coordinate system Ce is an example of the second coordinate system.

請求項の各構成要素として、請求項に記載されている構成または機能を有する他の種々の要素を用いることもできる。   As each constituent element in the claims, various other elements having configurations or functions described in the claims can be used.

本発明は、種々の立体形状を提示する立体ディスプレイシステムの製造時および動作時に有効に利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be effectively used when manufacturing and operating a stereoscopic display system that presents various stereoscopic shapes.

本発明の一実施の形態に係る立体ディスプレイシステムにおける立体ディスプレイを示す模式的外観図である。1 is a schematic external view showing a stereoscopic display in a stereoscopic display system according to an embodiment of the present invention. 立体ディスプレイを構成する要素表示面を示す模式的平面図である。It is a typical top view which shows the element display surface which comprises a three-dimensional display. 立体ディスプレイを構成する要素表示面を示す模式的断面図である。It is typical sectional drawing which shows the element display surface which comprises a three-dimensional display. レンズによる光の制御機能およびピンホールによる光の制御機能について説明するための図である。It is a figure for demonstrating the control function of the light by a lens, and the control function of the light by a pinhole. 立体画像を提示するための立体画像データの作成方法を説明するための図である。It is a figure for demonstrating the production method of the stereo image data for presenting a stereo image. 立体画像データに基づいて立体ディスプレイの空間光変調器に表示される画像を説明するための図である。It is a figure for demonstrating the image displayed on the spatial light modulator of a stereo display based on stereo image data. 立体ディスプレイシステムおよび立体ディスプレイ製造システムの構成を示すブロック図である。It is a block diagram which shows the structure of a stereoscopic display system and a stereoscopic display manufacturing system. 観察点と光度との関係について説明するための模式図である。It is a schematic diagram for demonstrating the relationship between an observation point and a luminous intensity. 撮影装置、レンズアレイおよび空間光変調器の位置関係を示す模式図である。It is a schematic diagram which shows the positional relationship of an imaging device, a lens array, and a spatial light modulator. 撮影装置の撮影画像上における光点の光度について説明するための図である。It is a figure for demonstrating the luminous intensity of the light spot on the picked-up image of an imaging device. 撮影装置座標系、撮影画像座標系、LCD座標系、レンズ座標系およびワールド座標系の関係について説明するための模式図である。It is a schematic diagram for demonstrating the relationship between an imaging device coordinate system, a picked-up image coordinate system, an LCD coordinate system, a lens coordinate system, and a world coordinate system. レンズ座標系およびワールド座標系の関係を説明するための模式図である。It is a schematic diagram for demonstrating the relationship between a lens coordinate system and a world coordinate system. 計測演算部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a measurement calculating part. 計測演算部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a measurement calculating part. 計測演算部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a measurement calculating part. 表示制御部の動作を示すフローチャートである。It is a flowchart which shows operation | movement of a display control part. 補正用画像の一例を示す平面図である。It is a top view which shows an example of the image for a correction | amendment. 補正用画像を空間光変調器に表示させた場合に点灯画素ラインから発せられる光が向かう方向を示す模式的側面図である。It is a typical side view which shows the direction where the light emitted from a lighting pixel line heads when a correction image is displayed on a spatial light modulator. 補正用画像を用いたレンズ座標算出処理のフローチャートである。It is a flowchart of a lens coordinate calculation process using the image for correction. ワールド座標系のXw−Zw平面に沿った模式的側面図である。It is a typical side view along the Xw-Zw plane of the world coordinate system.

符号の説明Explanation of symbols

1 立体ディスプレイ
2 要素表示面
5 表示制御部
6 記憶部
10 立体ディスプレイシステム
21 空間光変調器
22 レンズアレイ
101 撮影装置
102 計測演算部
220 レンズ
DESCRIPTION OF SYMBOLS 1 3D display 2 Element display surface 5 Display control part 6 Memory | storage part 10 3D display system 21 Spatial light modulator 22 Lens array 101 Image pick-up device 102 Measurement calculating part 220 Lens

Claims (3)

要素表示面により構成される立体ディスプレイと、
前記立体ディスプレイの製造時に補正用画像を表示するように前記要素表示面を制御する補正用画像制御手段と、
前記補正用画像が表示された状態の前記要素表示面を撮影する撮影手段と、
前記撮影手段により得られた撮影画像に基づいて修正データを算出する修正データ算出手段と、
前記修正データ算出手段により算出された前記修正データを記憶する記憶手段と、
立体画像を提示するための立体画像データに基づいて立体画像を提示するように前記要素表示面を制御する立体画像制御手段とを備え、
前記要素表示面は、
光を発生する複数の画素により構成される空間光変調器と、
複数の光線制御子からなり、前記空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを含み、
前記補正用画像制御手段は、前記空間光変調器の前記複数の画素のうち第1の方向に沿った1または複数の画素列を順に点灯させるとともに前記第1の方向に垂直な第2の方向に沿った1または複数の画素列を順に点灯させることにより前記要素表示面に複数種類の前記補正用画像を順に表示させ、
前記撮影手段は、各補正用画像が前記要素表示面に表示されるごとに前記要素表示面を撮影し、
前記修正データ算出手段は、前記撮影手段と前記空間光変調器との位置関係および前記撮影手段による複数種類の撮影画像上で前記空間光変調器の各画素に対応する最も光度が高い位置に基づいて、前記光線制御子アレイの各光線制御子の実際の位置を算出し、前記空間光変調器に対する前記光線制御子アレイの予め設定された位置と前記空間光変調器に対する前記光線制御子アレイの実際の位置とのずれ量を前記修正データとして算出し、
前記立体画像制御手段は、立体画像の提示動作時に、前記記憶手段に記憶された前記修正データを用いて前記立体画像データを作成し、作成した立体画像データに基づいて立体画像を提示するように前記空間光変調器を制御することを特徴とする立体ディスプレイ製造システム。
A three-dimensional display composed of element display surfaces;
Correction image control means for controlling the element display surface so as to display a correction image at the time of manufacturing the stereoscopic display;
Photographing means for photographing the element display surface in a state in which the correction image is displayed;
Correction data calculation means for calculating correction data based on a photographed image obtained by the photographing means;
Storage means for storing the correction data calculated by the correction data calculation means;
Stereoscopic image control means for controlling the element display surface so as to present a stereoscopic image based on stereoscopic image data for presenting a stereoscopic image;
The element display surface is
A spatial light modulator composed of a plurality of pixels that generate light;
A light controller array comprising a plurality of light controller, and controlling a direction of light generated from each pixel of the spatial light modulator,
The correction image control means sequentially turns on one or a plurality of pixel columns along a first direction among the plurality of pixels of the spatial light modulator and a second direction perpendicular to the first direction. By sequentially lighting one or a plurality of pixel rows along the line, a plurality of types of the correction images are sequentially displayed on the element display surface,
The photographing means photographs the element display surface each time each correction image is displayed on the element display surface,
The correction data calculating means is based on a positional relationship between the imaging means and the spatial light modulator and a position having the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images obtained by the imaging means. Calculating the actual position of each light controller of the light controller array, the preset position of the light controller array relative to the spatial light modulator, and the position of the light controller array relative to the spatial light modulator. Calculate the deviation from the actual position as the correction data,
The stereoscopic image control means creates the stereoscopic image data using the correction data stored in the storage means during the stereoscopic image presentation operation, and presents the stereoscopic image based on the created stereoscopic image data. A stereoscopic display manufacturing system for controlling the spatial light modulator.
前記光線制御子アレイの前記予め設定された位置を基準にX軸、Y軸およびZ軸が定められた座標系を第1の座標系とし、前記光線制御子アレイの実際の位置を基準にX軸、Y軸およびZ軸が定められた座標系を第2の座標系とし、
前記第1の座標系のX軸方向、Y軸方向、Z軸方向およびZ軸周りの回転方向における前記第1の座標系と前記第2の座標系とのずれ量をそれぞれ示す変数を第1、第2、第3および第4のパラメータとした場合、前記光線制御子アレイの各光線制御子の位置が前記第1、第2、第3および第4のパラメータを用いて第1の座標系における理論座標で表され、
前記修正データ算出手段は、前記撮影手段と前記空間光変調器との位置関係および前記撮影手段による複数種類の撮影画像上で前記空間光変調器の各画素に対応する最も光度が高い位置に基づいて、前記光線制御子アレイの各光線制御子の前記第1の座標系における座標を実測座標として算出し、前記各光線制御子の前記実測座標と前記理論座標との関係に基づいて前記第1、第2、第3および第4のパラメータの値を修正データとして算出することを特徴とする請求項記載の立体ディスプレイ製造システム。
A coordinate system in which the X axis, the Y axis, and the Z axis are determined based on the preset position of the light controller array is defined as a first coordinate system, and the actual position of the light controller array is used as a reference. A coordinate system in which the axis, the Y-axis, and the Z-axis are determined is a second coordinate system,
Variables indicating the amount of deviation between the first coordinate system and the second coordinate system in the X-axis direction, the Y-axis direction, the Z-axis direction, and the rotation direction around the Z-axis of the first coordinate system, respectively. When the second, third, and fourth parameters are used, the position of each light controller of the light controller array is set to the first coordinate system using the first, second, third, and fourth parameters. Expressed in theoretical coordinates at
The correction data calculating means is based on a positional relationship between the imaging means and the spatial light modulator and a position having the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images obtained by the imaging means. Then, the coordinates in the first coordinate system of each light controller in the light controller array are calculated as actual coordinates, and the first coordinates are calculated based on the relationship between the actual coordinates and the theoretical coordinates of each light controller. , second, stereoscopic display manufacturing system according to claim 1, wherein the calculating the value of the third and fourth parameter as correction data.
立体ディスプレイシステムの製造方法であって、
前記立体ディスプレイシステムは、要素表示面により構成される立体ディスプレイと、修正データを記憶する記憶手段と、立体画像を提示するための立体画像データに基づいて立体画像を提示するように前記要素表示面を制御する立体画像制御手段とを含み、
前記要素表示面は、光を発生する複数の画素により構成される空間光変調器と、複数の光線制御子からなり前記空間光変調器の各画素から発生される光の方向を制御する光線制御子アレイとを有し、
前記立体画像制御手段は、立体画像の提示動作時に、前記記憶手段に記憶された前記修正データを用いて前記立体画像データを作成し、作成した立体画像データに基づいて立体画像を提示するように前記空間光変調器を制御し、
前記製造方法は、
前記空間光変調器の前記複数の画素のうち第1の方向に沿った1または複数の画素列を順に点灯させるとともに前記第1の方向に垂直な第2の方向に沿った1または複数の画素列を順に点灯させることにより前記要素表示面に複数種類の補正用画像を順に表示させる工程と、
各補正用画像が前記要素表示面に表示されるごとに前記要素表示面を撮影手段により撮影することにより複数種類の撮影画像を得る工程と、
前記撮影手段と前記空間光変調器との位置関係および前記撮影手段による複数種類の撮影画像上で前記空間光変調器の各画素に対応する最も光度が高い位置に基づいて、前記光線制御子アレイの各光線制御子の実際の位置を算出し、前記空間光変調器に対する前記光線制御子アレイの予め設定された位置と前記空間光変調器に対する前記光線制御子アレイの実際の位置とのずれ量を前記修正データとして算出する工程と、
前記修正データを前記記憶手段に記憶させる工程とを備えることを特徴とする立体ディスプレイシステムの製造方法。
A method of manufacturing a stereoscopic display system,
The stereoscopic display system includes a stereoscopic display configured by an element display surface, storage means for storing correction data, and the element display surface so as to present a stereoscopic image based on stereoscopic image data for presenting a stereoscopic image. 3D image control means for controlling
The element display surface includes a spatial light modulator composed of a plurality of pixels that generate light, and a plurality of light beam controllers, and controls the direction of light generated from each pixel of the spatial light modulator. A child array,
The stereoscopic image control means creates the stereoscopic image data using the correction data stored in the storage means during the stereoscopic image presentation operation, and presents the stereoscopic image based on the created stereoscopic image data. Controlling the spatial light modulator;
The manufacturing method includes:
One or more pixels along the second direction perpendicular to the first direction and at least one pixel row along the first direction among the plurality of pixels of the spatial light modulator are turned on in order. A step of sequentially displaying a plurality of types of correction images on the element display surface by sequentially lighting the columns;
A step of obtaining a plurality of types of captured images by photographing the element display surface by photographing means each time each correction image is displayed on the element display surface;
Based on the positional relationship between the imaging unit and the spatial light modulator and the position with the highest luminous intensity corresponding to each pixel of the spatial light modulator on a plurality of types of captured images by the imaging unit, the light controller array The actual position of each light controller is calculated, and the amount of deviation between the preset position of the light controller array with respect to the spatial light modulator and the actual position of the light controller array with respect to the spatial light modulator Calculating as the correction data,
And a step of storing the correction data in the storage means.
JP2008125391A 2008-05-13 2008-05-13 3D display manufacturing system, 3D display system, and 3D display system manufacturing method Expired - Fee Related JP5354252B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008125391A JP5354252B2 (en) 2008-05-13 2008-05-13 3D display manufacturing system, 3D display system, and 3D display system manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008125391A JP5354252B2 (en) 2008-05-13 2008-05-13 3D display manufacturing system, 3D display system, and 3D display system manufacturing method

Publications (2)

Publication Number Publication Date
JP2009276410A JP2009276410A (en) 2009-11-26
JP5354252B2 true JP5354252B2 (en) 2013-11-27

Family

ID=41441936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008125391A Expired - Fee Related JP5354252B2 (en) 2008-05-13 2008-05-13 3D display manufacturing system, 3D display system, and 3D display system manufacturing method

Country Status (1)

Country Link
JP (1) JP5354252B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10440344B2 (en) 2016-01-27 2019-10-08 Samsung Electronics Co., Ltd. Method and apparatus for correcting image error in naked-eye three-dimensional (3D) display

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5673008B2 (en) * 2010-08-11 2015-02-18 ソニー株式会社 Image processing apparatus, stereoscopic image display apparatus and stereoscopic image display system, parallax deviation detection method for stereoscopic image display apparatus, and manufacturing method for stereoscopic image display apparatus
JP5767500B2 (en) * 2011-04-06 2015-08-19 日本放送協会 Stereoscopic image correction apparatus and program thereof, and stereoscopic image display apparatus
CN103293683A (en) * 2012-02-22 2013-09-11 鸿富锦精密工业(深圳)有限公司 Cylindrical lens type three-dimensional display device and manufacturing method thereof
JP5696107B2 (en) * 2012-09-11 2015-04-08 株式会社東芝 Image processing apparatus, method, program, and stereoscopic image display apparatus
CN103163722B (en) * 2013-02-21 2016-05-04 中山大学 Three-dimensional image display systems based on micro display chip array and method
CN104155765B (en) * 2013-05-15 2019-09-13 北京三星通信技术研究有限公司 The method and apparatus of revision for 3-D image in spliced integration imaging display
CN105578175B (en) * 2014-10-11 2018-03-30 深圳超多维光电子有限公司 3 d display device detecting system and its detection method
EP3024231A1 (en) * 2014-11-21 2016-05-25 Thomson Licensing A method, apparatus and system for correcting for errors of stereoscopic displays
KR102570277B1 (en) * 2016-11-16 2023-08-24 삼성전자주식회사 Method for correcting distortion of 3d imaging apparatus and apparatus using the same
CN111953970B (en) * 2020-08-28 2022-02-22 中国人民解放军陆军装甲兵学院 Method and system for measuring positions of unit lenses of integrated imaging three-dimensional display system

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4272464B2 (en) * 2003-05-02 2009-06-03 日本放送協会 Stereoscopic image correction apparatus and method
JP4764624B2 (en) * 2004-12-07 2011-09-07 株式会社 日立ディスプレイズ Stereoscopic display device and stereoscopic image generation method
DE102005001503A1 (en) * 2005-01-07 2006-07-27 Seereal Technologies Gmbh Sweet spot unit
JP4832833B2 (en) * 2005-09-01 2011-12-07 株式会社バンダイナムコゲームス Arrangement lens specification deriving method, program, information storage medium, and arrangement lens specification deriving device
EP1967019A2 (en) * 2005-12-20 2008-09-10 Koninklijke Philips Electronics N.V. Method and apparatus for correcting misalignment of a lenticular in a 3-d television receiver

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10440344B2 (en) 2016-01-27 2019-10-08 Samsung Electronics Co., Ltd. Method and apparatus for correcting image error in naked-eye three-dimensional (3D) display

Also Published As

Publication number Publication date
JP2009276410A (en) 2009-11-26

Similar Documents

Publication Publication Date Title
JP5354252B2 (en) 3D display manufacturing system, 3D display system, and 3D display system manufacturing method
US7834944B2 (en) Method for the orientation of a parallax barrier screen on a display screen
US10085011B2 (en) Image calibrating, stitching and depth rebuilding method of a panoramic fish-eye camera and a system thereof
US11455746B2 (en) System and methods for extrinsic calibration of cameras and diffractive optical elements
US9357206B2 (en) Systems and methods for alignment, calibration and rendering for an angular slice true-3D display
US11825064B2 (en) Light field display method and system, storage medium and display panel
CN106056620B (en) Line laser camera measurement system calibrating method
CN104155765B (en) The method and apparatus of revision for 3-D image in spliced integration imaging display
US20100245824A1 (en) Method for orienting a parallax barrier screen on a display screen
US7583307B2 (en) Autostereoscopic display
CN106097367B (en) A kind of scaling method and device of binocular solid camera
JP2009080578A (en) Multiview-data generating apparatus, method, and program
JP5633058B1 (en) 3D measuring apparatus and 3D measuring method
WO2000000925A1 (en) Method and apparatus for the processing of stereoscopic electronic images into three-dimensional computer models of real-life objects
CN112562014A (en) Camera calibration method, system, medium and device
CN113534490B (en) Stereoscopic display device and stereoscopic display method based on user eyeball tracking
US20210390739A1 (en) Camera intrinsic calibration
CN106791331B (en) Image processing method, device and imaging system based on lens array imaging
JP7141833B2 (en) Image processing device and image processing program
JP2009223193A (en) Manufacturing apparatus of three-dimensional image display device, manufacturing method of three-dimensional image display device, and lens board
CN114967170B (en) Display processing method and device based on flexible naked eye three-dimensional display equipment
CN111142272A (en) Optical structure for 3D light field display and image synthesis method thereof
JP2010220177A (en) Stereo image processing apparatus, stereo image processing method, and stereo image processing program
JP6595878B2 (en) Element image group generation apparatus and program thereof
US10869023B1 (en) Method and apparatus for correcting lenticular distortion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120524

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20121218

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130521

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130814

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees