Nothing Special   »   [go: up one dir, main page]

JP5296218B2 - 3D image display method and 3D image display apparatus - Google Patents

3D image display method and 3D image display apparatus Download PDF

Info

Publication number
JP5296218B2
JP5296218B2 JP2011532887A JP2011532887A JP5296218B2 JP 5296218 B2 JP5296218 B2 JP 5296218B2 JP 2011532887 A JP2011532887 A JP 2011532887A JP 2011532887 A JP2011532887 A JP 2011532887A JP 5296218 B2 JP5296218 B2 JP 5296218B2
Authority
JP
Japan
Prior art keywords
display
image
unit
parallax
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011532887A
Other languages
Japanese (ja)
Other versions
JPWO2011036813A1 (en
Inventor
理恵子 福島
明 森下
快行 爰島
雄三 平山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2011036813A1 publication Critical patent/JPWO2011036813A1/en
Application granted granted Critical
Publication of JP5296218B2 publication Critical patent/JP5296218B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/27Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving lenticular arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/302Image reproducers for viewing without the aid of special glasses, i.e. using autostereoscopic displays
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B30/00Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images
    • G02B30/20Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes
    • G02B30/26Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type
    • G02B30/30Optical systems or apparatus for producing three-dimensional [3D] effects, e.g. stereoscopic images by providing first and second parallax images to an observer's left and right eyes of the autostereoscopic type involving parallax barriers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

In a stereoscopic image imaging method which captures an image of an object to be displayed as a stereoscopic image, a three-dimensional image is generated in real time from multi-viewpoint images captured by a multi-camera, and is displayed on a viewer provided to the multi-camera, thus allowing a photographer to adjust an imaging condition. The photographer is informed of parameters, which implements a display state adjusted by an observer of a three-dimensional display while observing the three-dimensional image, via the viewer, and the photographer can capture appropriate multi-viewpoint images.

Description

被写体を撮影して立体映像を表示する立体映像表示方法及び立体映像表示装置に関する。     The present invention relates to a 3D image display method and a 3D image display apparatus for photographing a subject and displaying a 3D image.

3次元画像(立体映像)を表示可能とする表示装置には、種々の方式が知られている。近年、特にフラットパネルタイプで、且つ、専用の眼鏡等を必要としないで立体映像を表示する方式の要望が高くなっている。直視型或いは投影型の立体動画表示装置、例えば、液晶表示装置或いはプラズマ表示装置等のような平面上に画素が固定されている表示パネル(表示装置)の表示面前面に表示パネルからの光線を制御して観察者に光線を向ける視差バリア(光線制御子とも称する。)を設置する方式が開発されている。この方式は、比較的容易に立体映像を表示することができる実用化可能な方式とされている。   Various types of display devices that can display a three-dimensional image (stereoscopic image) are known. In recent years, there has been a growing demand for a method of displaying a stereoscopic image without using special glasses or the like, particularly in a flat panel type. A light beam from the display panel is displayed on the front surface of a display panel (display device) in which pixels are fixed on a plane such as a direct-view or projection-type stereoscopic moving image display device such as a liquid crystal display device or a plasma display device. A method of installing a parallax barrier (also referred to as a light beam controller) that controls and directs a light beam to an observer has been developed. This method is a method that can display stereoscopic images relatively easily and can be put into practical use.

視差バリアは、一般的には、パララクスバリアとも称せられ、同一位置の視差バリアが観察されても、視認する角度により異なる画像が見えるように光線を制御している。具体的には、左右視差(水平視差)を与える場合には、視差バリアとしてスリット或いはレンチキュラーシート(シリンドリカルレンズアレイ)が用いられる。左右視差と上下視差(垂直視差)を与える場合には、視差バリアとしてピンホールアレイ或いはレンズアレイが用いられている。この明細書においては、視差バリアの構成単位である一つのスリット或いは一つレンズを射出瞳と称している。   The parallax barrier is generally referred to as a parallax barrier, and controls light rays so that different images can be seen depending on the viewing angle even when the parallax barrier at the same position is observed. Specifically, when left and right parallax (horizontal parallax) is given, a slit or a lenticular sheet (cylindrical lens array) is used as a parallax barrier. When left and right parallax and vertical parallax (vertical parallax) are given, a pinhole array or a lens array is used as a parallax barrier. In this specification, one slit or one lens which is a structural unit of the parallax barrier is referred to as an exit pupil.

視差バリアを用いる方式には、さらに2眼式、多眼式、超多眼式(多眼式に超多眼条件が付されている方式)及びインテグラルイメージング方式(以下、単にII式と称する)に分類される。これらの基本的な原理は、100年程度前に発明され立体写真の方式と実質上同一である。ただし、表示装置の画素数が有限であることから、射出瞳の一つに割り当てられる画素の数も有限となっている。この明細書においては、この射出瞳に割り当てられている画素数を視差数と称し、また、この各射出瞳に割り当てられている画素で構成される平面画像を要素画像と称している。   The system using the parallax barrier further includes a binocular system, a multi-view system, a super multi-view system (a system in which the multi-view system has super multi-view conditions), and an integral imaging system (hereinafter simply referred to as the II system). )are categorized. These basic principles were invented about 100 years ago and are substantially the same as the stereoscopic photography system. However, since the number of pixels of the display device is finite, the number of pixels assigned to one of the exit pupils is also finite. In this specification, the number of pixels assigned to the exit pupil is referred to as the number of parallaxes, and a planar image composed of pixels assigned to the exit pupils is referred to as an element image.

尚、II方式は、立体写真の用語であり、インテグラルフォトグラフィー(以下、IPとも云う)と称せられる場合もある。   The II system is a term for stereoscopic photography and may be called integral photography (hereinafter also referred to as IP).

これらII方式で立体映像を表示するためには、複数方向から撮影した画像(多視点画像)が必要とされる。即ち、二眼式の立体映像表示方法では、2つの多視点画像が用意され、多眼式或いはII式の立体映像表示方法では、射出瞳の夫々に割り当てられる視差数に相当する画素数の多視点画像が用意される。この明細書で画素は、最小表示単位を意味している。基本的には、多視点画像は、画素と射出瞳との関係を前提にして撮影される。多視点画像の生成方法には、実写撮影或いはCGレンダリング等と複数の生成方法がある。しかし、通常、多視点画像は、カメラを用いて被写体を撮影する実写撮影で用意される。   In order to display a stereoscopic image by these II methods, an image (multi-viewpoint image) taken from a plurality of directions is required. That is, in the binocular stereoscopic video display method, two multi-viewpoint images are prepared, and in the multi-view or II stereoscopic video display method, the number of pixels corresponding to the number of parallaxes assigned to each exit pupil is large. A viewpoint image is prepared. In this specification, a pixel means a minimum display unit. Basically, a multi-viewpoint image is taken on the assumption of the relationship between pixels and exit pupils. The multi-viewpoint image generation method includes a plurality of generation methods such as live-action shooting or CG rendering. However, a multi-viewpoint image is usually prepared by a live-action shooting in which a subject is shot using a camera.

カメラでの実写撮影では、具体的には、射出瞳及びこれに対応した画素位置の関係に対して相似になるように、多視点画像撮影のためのカメラが視差数だけレイアウトされる。このように多視点画像撮影のためにレイアウトされたカメラは、マルチカメラと称せられている。表示装置の画素は、平面上に配置されていることから、マルチカメラも同様に平面上に配置される。立体表示装置において、画素の間隔がpp及び射出瞳と表示装置の画素面との間隔がgで与えられると、立体表示装置においては、マルチカメラ1の撮影基準距離Lcと間隔x_cが下記(1)式で与えられる。   In actual shooting with a camera, specifically, cameras for multi-viewpoint image shooting are laid out by the number of parallaxes so as to be similar to the relationship between the exit pupil and the corresponding pixel position. A camera laid out for taking multi-viewpoint images in this way is called a multi-camera. Since the pixels of the display device are arranged on a plane, the multi-camera is arranged on the plane as well. In the stereoscopic display device, when the pixel interval is given by pp and the interval between the exit pupil and the pixel surface of the display device is given by g, in the stereoscopic display device, the imaging reference distance Lc and the interval x_c of the multi-camera 1 are (1 ).

g:pp=Lc:x_c ・・・(1)
この撮影条件は、立体撮影装置におけるマルチカメラ及び立体表示装置における平面表示部においては、上記撮影条件を充足させる為には、マルチカメラの撮影基準面のサイズ及び解像度が表示装置における平面表示部のサイズ及び解像度に一致させることが最も効率が良いことを意味している。ここで、撮影基準面は、表示面に一致させる前提の下で投影面と称せられ、撮影基準距離が3次元ディスプレイの観察基準視距離に、撮影位置が3次元ディスプレイの観察基準面上の視点に設定され、撮影と再生の光線が同一になり、撮影対象が実寸大で表示される。
g: pp = Lc: x_c (1)
In order to satisfy the above-described shooting conditions, the size and resolution of the shooting reference plane of the multi-camera are the same as those of the flat display unit of the display device. Matching the size and resolution means the most efficient. Here, the imaging reference plane is referred to as a projection plane on the assumption that it matches the display plane, the imaging reference distance is the observation reference viewing distance of the 3D display, and the imaging position is the viewpoint on the observation reference plane of the 3D display. The shooting and playback rays are the same, and the shooting target is displayed in actual size.

但し、この実写撮影の条件は、必ずしも厳密に充足される必要はないとされている。近年、隣接した画素の情報がある程度混入して見えるように設計することにより、視距離からはずれても、立体映像が見えるように工夫をすることができるとされている(非特許文献1)。さらに、視差バリア方式の3次元ディスプレイは、そのz方向(表示面に直交する方向)の表示範囲が限定されている。(非特許文献2)従って、視点数より多い多視点画像を撮影するマルチカメラが用意され、このマルチカメラから設計値より狭い間隔x_cの多視点画像が選択されて、z方向に潰された画像が表示される場合もある。(特許文献1)ここで、z方向は、3次元ディスプレイ面の水平方向x及び垂直方向yに直交するディスプレイ面の背面に相当する奥行き方向を意味している。また、既にある多視点画像について、視差画像として利用する切り出し範囲、即ち、クリッピングの仕方を調節することで、立体映像を表示するときのz座標をずらしたり、xy方向に拡大縮小したりして、表示範囲内に立体映像を表示する方法も知られている(特許文献2)。いずれも、これらの非特許文献及び特許文献は、既に撮影してしまった多視点画像の選択、或いは、クリッピング範囲の調整で表示する立体映像の表示方法を開示しているにすぎない。   However, the conditions for this live-action shooting need not be strictly satisfied. In recent years, it has been said that it is possible to devise so that a stereoscopic image can be seen even if it is deviated from the viewing distance by designing the information of adjacent pixels to be mixed to some extent (Non-Patent Document 1). Furthermore, the parallax barrier type three-dimensional display has a limited display range in the z direction (a direction orthogonal to the display surface). (Non-Patent Document 2) Accordingly, a multi-camera for capturing multi-view images larger than the number of viewpoints is prepared, and a multi-view image having an interval x_c narrower than a design value is selected from the multi-camera, and the image is crushed in the z direction. May be displayed. (Patent Document 1) Here, the z direction means a depth direction corresponding to the back surface of the display surface orthogonal to the horizontal direction x and the vertical direction y of the three-dimensional display surface. Also, by adjusting the clipping range to be used as a parallax image, that is, the clipping method, for existing multi-viewpoint images, the z-coordinate when displaying a stereoscopic image is shifted, or the image is enlarged or reduced in the xy direction. A method of displaying a stereoscopic image within a display range is also known (Patent Document 2). In any case, these non-patent documents and patent documents only disclose a method of displaying a stereoscopic image displayed by selecting a multi-viewpoint image that has already been shot or adjusting a clipping range.

特開2005−331844JP-A-2005-331844 特開2004−343290JP 2004-343290 A

R. Fukushima et al., Proceedings of SPIE-IS&T Electronic Imaging, 7237,72370W-1 (2009)R. Fukushima et al., Proceedings of SPIE-IS & T Electronic Imaging, 7237,72370W-1 (2009) J. Opt. Soc. Am. A vol.15, p. 2059 (1998)J. Opt. Soc. Am. A vol. 15, p. 2059 (1998)

立体映像を表示する際のz座標を変更するには、具体的には、視差画像として利用する範囲の視点画像毎のシフト値が変更されれば良い。しかし、実写撮影にあっては、多視点画像が透視投影であることから、シフト値が変更されて投影面がz軸に沿って前方或いは後方にシフトされる場合は、撮影基準距離が3次元ディスプレイの観察基準視距離と異なるために、厳密には、ひずみが生じるという問題がある。立体映像をひずみなく表示するには、取得した多視点画像が後処理されて立体映像の表示の為に再構成されるに代えて、主に表示したい対象までの撮影基準距離が3次元ディスプレイの観察基準視距離と等しく設定される必要がある。ところが、撮影者が撮影基準距離を正しく把握するための手法がなく、撮影基準距離を正しく設定できない問題がある。また、遠隔地にいる3次元ディスプレイの観察者がどの対象を主に立体的に表示したいと意図しているかを撮影者が知る方法がない。この立体表示対象が判明しないことも原因として、撮影基準距離を設定できないとされている。   In order to change the z-coordinate when displaying the stereoscopic video, specifically, the shift value for each viewpoint image in the range used as the parallax image may be changed. However, in live-action shooting, since the multi-viewpoint image is a perspective projection, when the shift value is changed and the projection plane is shifted forward or backward along the z axis, the shooting reference distance is three-dimensional. Strictly speaking, there is a problem that distortion occurs because it is different from the viewing standard viewing distance of the display. In order to display 3D images without distortion, instead of the acquired multi-viewpoint image being post-processed and reconstructed for 3D image display, the imaging reference distance to the object to be displayed is mainly the 3D display. It must be set equal to the observation reference viewing distance. However, there is no method for the photographer to correctly grasp the photographing reference distance, and there is a problem that the photographing reference distance cannot be set correctly. In addition, there is no way for the photographer to know which object the viewer of the three-dimensional display at a remote place intends to display mainly three-dimensionally. It is said that the photographing reference distance cannot be set because the stereoscopic display target is not found.

この発明は、上記事情を考慮してなされたものであり、その目的は、視差バリア方式における3次元ディスプレイ用多視点画像を実写で取得して表示する方法において、適切な撮影基準距離を撮影者に知らせて所望の表示対象を3次元ディスプレイの表示範囲内に適切に表示させることができる立体映像表示装置を提供することにある。   The present invention has been made in consideration of the above circumstances, and an object of the present invention is to obtain an appropriate photographing reference distance in a method for acquiring and displaying a multi-viewpoint image for a three-dimensional display in a parallax barrier method by a real photograph. It is intended to provide a stereoscopic video display device capable of appropriately displaying a desired display target within a display range of a three-dimensional display.

この発明の一態様によれば、
所定幅を有する画素が垂直方向並びに水平方向を有する表示面内にマトリックス状に配列されている表示部及び前記表示部の前面に設置され、前記画素からの光線の射出方向を制御する光学的開口部が前記画素の略整数倍に相当する間隔で水平方向に配置されている視差バリアであって、観察基準視距離に依存して幅が定められ、且つ、この光学的開口に夫々対応する要素画像が表示される要素画像領域に前記表示面を分割する視差バリアから構成され、前記光学的開口を介して観察される画素であって、観察方向に依存して定められる視差画像を当該画素に配分して前記要素画像を前記要素画像領域に表示させ、連続視点の立体映像を生成する第1の3次元表示装置と、
前記視差画像を生成する為に複数方向からの実物体の多視点画像をマルチカメラ画角で撮影するマルチカメラであって、ある間隔で配置され、ある撮影画角を有する複数の撮影部が配列されて構成され、撮影基準面としての投影面を有するマルチカメラと、
このマルチカメラからの前記多視点画像を処理する画像処理部であって、
この撮影部で撮影された多視点画像を記憶する多視点画像記憶部と、
視差画像生成に必要な視差画像として利用する範囲及びこの利用する範囲内で選定可能なクリッピング領域に対応して定められるシフト値を記憶するクリッピング条件記憶部と、
このクリッピング条件記憶部の情報に基づいて、前記多視点画像記憶部に記憶された多視点画像からから視差画像として利用する範囲をクリッピングして視差画像データとして記憶する視差画像生成部と、
前記視差画像生成部から読み出した視差画像データを前記表示部に表示するための画像データに並び替える並び替え処理部と、
前記表示部に歪みなく3次元画像を表示するための多視点画像の撮影条件を記憶する撮影条件記憶部と、
前記表示部に表示された3次元画像を参照して撮影対象物を投影面近傍に所望のサイズで表示するためのパラメータを調整する表示条件調節部と、
から構成され、前記パラメータと前記撮影条件から、歪なく表示するための修正撮影基準距離及び修正カメラ間隔を導出し、この修正した撮影基準距離に関する情報を前記表示部に明示して撮影者に撮影距離の変更を促す画像処理部と、
を具備することを特徴とする立体映像表示装置が提供される。
According to one aspect of the invention,
A display unit in which pixels having a predetermined width are arranged in a matrix form in a display surface having a vertical direction and a horizontal direction, and an optical aperture that controls the emission direction of light rays from the pixels. The parallax barriers are arranged in the horizontal direction at intervals corresponding to substantially integral multiples of the pixels, the width is determined depending on the observation reference viewing distance, and the elements correspond to the optical apertures, respectively. A pixel that is composed of a parallax barrier that divides the display surface into element image regions in which an image is displayed and is observed through the optical aperture, and a parallax image that is determined depending on an observation direction is used as the pixel. A first three-dimensional display device that distributes and displays the elemental image in the elemental image area to generate a stereoscopic video of a continuous viewpoint;
In order to generate the parallax image, a multi-camera that captures multi-viewpoint images of real objects from a plurality of directions at a multi-camera angle of view, and a plurality of imaging units arranged at a certain interval and having a certain angle of view are arranged A multi-camera having a projection plane as a photographing reference plane,
An image processing unit that processes the multi-viewpoint image from the multi-camera,
A multi-viewpoint image storage unit for storing a multi-viewpoint image shot by the shooting unit;
A clipping condition storage unit for storing a range to be used as a parallax image necessary for generating a parallax image and a shift value determined corresponding to a clipping region selectable within the range to be used;
A parallax image generation unit that clips a range to be used as a parallax image from the multi-viewpoint image stored in the multi-viewpoint image storage unit based on the information of the clipping condition storage unit and stores the range as parallax image data;
A rearrangement processing unit that rearranges parallax image data read from the parallax image generation unit into image data to be displayed on the display unit;
A shooting condition storage unit for storing shooting conditions of a multi-viewpoint image for displaying a three-dimensional image without distortion on the display unit;
A display condition adjusting unit that adjusts parameters for displaying a photographing object in a desired size near the projection plane with reference to the three-dimensional image displayed on the display unit;
From the parameters and the shooting conditions, a corrected shooting reference distance and a corrected camera interval for displaying without distortion are derived, and information regarding the corrected shooting reference distance is clearly displayed on the display unit and shot to the photographer. An image processing unit that prompts the user to change the distance;
A stereoscopic video display device is provided.

この発明の立体映像を撮影する立体映像表示装置によれば、視差バリア方式における3次元ディスプレイ用多視点画像を実写で取得して表示する方法において、適切な撮影基準距離を撮影者に知らせて所望の表示対象を3次元ディスプレイの表示範囲内に適切に表示させることができる。   According to the stereoscopic image display apparatus for capturing a stereoscopic image of the present invention, in a method for acquiring and displaying a multi-viewpoint image for a three-dimensional display in a parallax barrier method by a live action, an appropriate shooting reference distance is notified to a photographer and desired. Can be appropriately displayed within the display range of the three-dimensional display.

図1は、この発明の実施の形態に係る立体映像を撮影するマルチカメラ撮影システムを示すブロック図であって、マルチカメラ、撮影対象の実物体及び投影面との配置関係を概略的に示すブロック図である。FIG. 1 is a block diagram showing a multi-camera photographing system for photographing a stereoscopic image according to an embodiment of the present invention, and schematically showing an arrangement relationship between the multi-camera, a real object to be photographed, and a projection plane. FIG. 図2は、図1に示される立体映像を撮影するシステムにおけるマルチカメラ、撮影対象の実物体及び投影面との関係を示す平面配置図。FIG. 2 is a plan layout view showing a relationship among a multi-camera, a real object to be photographed, and a projection plane in the system for photographing a stereoscopic video shown in FIG. 図3は、図1に示される立体映像を表示する装置おける表示装置、可視領域及び観察基準面との関係を示す平面配置図を示している。FIG. 3 is a plan layout diagram showing the relationship between the display device, the visible region, and the observation reference plane in the apparatus for displaying the stereoscopic video shown in FIG. 図4Aは、図2に示されるマルチカメラの左側撮像素子で撮像した画像を概略的に示す平面図である。4A is a plan view schematically showing an image captured by the left imaging element of the multi-camera shown in FIG. 図4Bは、図2に示されるマルチカメラの右側撮像素子で撮像した画像を概略的に示す平面図である。4B is a plan view schematically illustrating an image captured by the right image sensor of the multi-camera illustrated in FIG. 図5は、図1に示すマルチカメラ撮影システムにおいて、被写体を撮像して立体映像として表示する実施の形態に係る立体映像撮影表示装置を概略的に示すブロック図である。FIG. 5 is a block diagram schematically showing a stereoscopic video imaging display apparatus according to an embodiment for capturing an image of a subject and displaying it as a stereoscopic video in the multi-camera imaging system shown in FIG. 図6は、図5に示される立体映像撮影表示装置において、マルチカメラで取得された画像から立体映像を表示する方法を示すフローチャートである。FIG. 6 is a flowchart showing a method of displaying a stereoscopic video from an image acquired by a multi-camera in the stereoscopic video shooting and display apparatus shown in FIG. 図7は、図4に示す立体映像の撮像方法において撮影基準距離を調整する方法説明する為の配置図である。FIG. 7 is a layout diagram for explaining a method of adjusting the photographing reference distance in the stereoscopic image capturing method shown in FIG. 図8は、図4に示す立体映像の撮像方法において撮影基準距離を調整する方法説明する為の配置図である。FIG. 8 is a layout diagram for explaining a method of adjusting the photographing reference distance in the stereoscopic image capturing method shown in FIG. 図9は、図4に示す立体映像の撮像方法において撮影基準距離を調整する方法説明する為の配置図である。FIG. 9 is a layout diagram for explaining a method of adjusting the photographing reference distance in the stereoscopic image capturing method shown in FIG. 図10は、図1に示すマルチカメラ撮影システムにおいて、被写体を撮像して立体映像として表示する他の実施の形態に係る立体映像撮影表示装置を概略的に示すブロック図である。FIG. 10 is a block diagram schematically showing a stereoscopic video shooting and display apparatus according to another embodiment for capturing a subject and displaying it as a stereoscopic video in the multi-camera shooting system shown in FIG. 図11は、図10に示される立体映像撮影表示装置において、マルチカメラで取得された画像から立体映像を表示する方法を示すフローチャートでる。FIG. 11 is a flowchart showing a method of displaying a stereoscopic video from an image acquired by a multi-camera in the stereoscopic video shooting and display apparatus shown in FIG. 図12は、図11に示す立体画像を表示する為の表示部で表示される表示面の一例を概略的に示す略図である。FIG. 12 is a schematic diagram schematically showing an example of a display surface displayed on the display unit for displaying the stereoscopic image shown in FIG.

以下、図面を参照して、この発明の実施の形態に係る立体映像を表示する為の撮像画像の取得方法並びに取得された画像から立体映像を表示する方法及び装置を詳細に説明する。   Hereinafter, a method for acquiring a captured image for displaying a stereoscopic video and a method and apparatus for displaying a stereoscopic video from the acquired image according to an embodiment of the present invention will be described in detail with reference to the drawings.

この発明の実施の形態の以下の説明では、3次元ディスプレイの視差の提示方向を一次元(水平方向:X方向)に限定して説明する。しかし、この一次元方向(水平方向:X方向)に直交する方向(垂直方向:Y方向)についても、視差情報を表示させる表示方法及び装置にも適用することができる。即ち、水平方向(X方向)と同様に垂直方向(Y方向)にも本発明を適用すれば、同様に二次元方向(水平及び垂直方向:X及びY方向)に視差情報を与えることができる。従って、この発明の立体映像表示方法及び装置は、一次元方向にのみ視差の提示する実施例に限らず、実質的に二次元方向にも視差を提示する実施の形態を含むものである。   In the following description of the embodiment of the present invention, the presentation direction of parallax on a three-dimensional display is limited to one dimension (horizontal direction: X direction). However, the direction (vertical direction: Y direction) orthogonal to the one-dimensional direction (horizontal direction: X direction) can also be applied to a display method and apparatus for displaying parallax information. That is, if the present invention is applied to the vertical direction (Y direction) as well as the horizontal direction (X direction), disparity information can be given to the two-dimensional direction (horizontal and vertical directions: X and Y directions) as well. . Therefore, the stereoscopic image display method and apparatus of the present invention are not limited to an example in which parallax is presented only in a one-dimensional direction, but includes an embodiment in which parallax is substantially presented in a two-dimensional direction.

図1は、この発明の実施の形態に係る立体映像を撮影するマルチカメラ撮影システムを示している。この図1には、このマルチカメラ1で撮影されるべき撮影対象の実物体3−1,3−2及び3−3及び投影面2の配置関係が概略的に示されている。   FIG. 1 shows a multi-camera photographing system for photographing a stereoscopic video according to an embodiment of the present invention. FIG. 1 schematically shows an arrangement relationship between the real objects 3-1, 3-2 and 3-3 to be photographed to be photographed by the multi-camera 1 and the projection plane 2.

図1に示すように、マルチカメラ1及び投影面2に対して、○で示される実物体3―1が投影面2よりZ方向に沿って手前に配置され、又は、△で示される実物体3―2が投影面2上に配置され、或いは、□で示される実物体3―3が投影面2よりZ方向に沿って奥に配置させることができる。ここで、投影面2を基準としてマルチカメラ1の側が手前とされ、マルチカメラ1の反対側が投影面2より奥と定義される。図1には、マルチカメラ1、実物体3−1,3−2及び3−3及び投影面2の配置関係を明瞭にすべく座標軸(X,Y,Z)が示されている。この座標軸を参照すると、投影面2は、Z軸に直交するX及びY軸内に広がる面と定義され、図1の例では、実物体3―1〜3―3がZ軸に沿って配列されている。   As shown in FIG. 1, the real object 3-1 indicated by ◯ is arranged in front of the projection plane 2 along the Z direction with respect to the multi-camera 1 and the projection plane 2, or the real object indicated by Δ. 3-2 is arranged on the projection plane 2, or the real object 3-3 indicated by □ can be arranged behind the projection plane 2 along the Z direction. Here, the multi-camera 1 side is defined as the front with respect to the projection plane 2, and the opposite side of the multi-camera 1 is defined as the back of the projection plane 2. FIG. 1 shows coordinate axes (X, Y, Z) in order to clarify the positional relationship among the multi-camera 1, the real objects 3-1, 3-2 and 3-3, and the projection plane 2. Referring to this coordinate axis, the projection plane 2 is defined as a plane extending in the X and Y axes orthogonal to the Z axis, and in the example of FIG. 1, real objects 3-1 to 3-3 are arranged along the Z axis. Has been.

図1に示されるマルチカメラ1によってある画角で撮影された撮影画像のデータは、画像処理部40で立体映像の表示の為に加工されて要素画像データに変換される。この要素画像のデータがビューワー装置としてマルチカメラ1の筐体に設けられた撮影者用表示部42の駆動回路部44に供給される。リアルタイムで表示パネル46に表示されて視差バリア47を介して立体映像が撮影者によって撮影画像として観察される。後に詳述するように撮影者が撮影画像を参照しながら、入力部45から画像処理部40に指示を与える。これにより、撮影者が関心を寄せる撮影対象、例えば、実物体3―1〜3―3のいずれかを特定することができる。この特定された撮影対象を表示するに最適な撮影条件を設定することができる。この撮影条件に従って撮影者が被写体を撮影することができる。   Data of a photographed image photographed at a certain angle of view by the multi-camera 1 shown in FIG. 1 is processed and converted into elemental image data by the image processing unit 40 for displaying a stereoscopic video. The element image data is supplied as a viewer device to the drive circuit unit 44 of the photographer display unit 42 provided in the housing of the multi-camera 1. A stereoscopic image is displayed on the display panel 46 in real time and is observed as a captured image by the photographer through the parallax barrier 47. As will be described in detail later, the photographer gives an instruction to the image processing unit 40 from the input unit 45 while referring to the photographed image. As a result, it is possible to specify a photographing target that the photographer is interested in, for example, any one of the real objects 3-1 to 3-3. It is possible to set an optimum shooting condition for displaying the specified shooting target. The photographer can photograph the subject according to the photographing conditions.

また、図1に示される撮影システムにおいては、画像処理部40からの要素画像のデータは、送受信部48を介して観察者の為の観察用表示装置52の送受信部58に転送される。ここで、撮影用表示装置42は、スタジオで被写体を撮影する為に撮影者によって視認されて立体撮影の為に利用される。これに対して、観察用表示装置52は、スタジオから離れたモニタ室に設置される表示装置或いは立体映像の番組を視聴する一般視聴者が視認する表示装置が該当している。観察者用表示装置52は、撮影者用表示装置42と同様に送受信部58に転送された要素画像のデータが供給される駆動回路部54を備えている。この駆動回路部54によって、リアルタイムで要素画像が表示パネル56に表示されて視差バリア57を介して立体映像が観察者によって撮影画像として観察される。後に詳述するように観察者が撮影画像を参照しながら、入力部55から画像処理部40に指示を与える。これにより、観察者が関心を寄せる撮影対象、例えば、実物体3―1〜3―3のいずれかを特定することができる。この特定された撮影対象を表示するに最適な撮影条件を設定することができる。この撮影条件に従って撮影者が被写体を撮影することができる。   In the imaging system shown in FIG. 1, element image data from the image processing unit 40 is transferred to the transmission / reception unit 58 of the observation display device 52 for the observer via the transmission / reception unit 48. Here, the photographing display device 42 is visually recognized by a photographer and used for stereoscopic photographing in order to photograph a subject in a studio. On the other hand, the observation display device 52 corresponds to a display device installed in a monitor room away from the studio or a display device visually recognized by a general viewer who views a stereoscopic video program. The observer display device 52 includes a drive circuit unit 54 to which the element image data transferred to the transmission / reception unit 58 is supplied in the same manner as the photographer display device 42. The drive circuit unit 54 displays the element image on the display panel 56 in real time, and the stereoscopic image is observed as a captured image by the observer through the parallax barrier 57. As will be described in detail later, the observer gives an instruction to the image processing unit 40 from the input unit 55 while referring to the captured image. As a result, it is possible to specify a photographing target that the observer is interested in, for example, any of the real objects 3-1 to 3-3. It is possible to set an optimum shooting condition for displaying the specified shooting target. The photographer can photograph the subject according to the photographing conditions.

図2に示すように、マルチカメラ1は、レンズ4,4―1〜4−n及び撮像素子5,5―1〜5−nの夫々の組み合わせに係る複数の撮影部30−1〜30−nがX方向に沿って平面上に直線的に配列されて構成される。ここで、nは、視差数に相当し、レンズ4―1〜4−nの配列間隔(カメラピッチ)は、カメラ間隔Lsと称せられる。カメラ間隔Lsは、撮像素子5―1〜5−nの配列間隔(カメラピッチ)で与えられても良い。   As illustrated in FIG. 2, the multi-camera 1 includes a plurality of photographing units 30-1 to 30-according to combinations of lenses 4, 4-1 to 4-n and imaging elements 5, 5-1 to 5-n. n is arranged linearly on a plane along the X direction. Here, n corresponds to the number of parallaxes, and the arrangement interval (camera pitch) of the lenses 4-1 to 4-n is referred to as a camera interval Ls. The camera interval Ls may be given by the arrangement interval (camera pitch) of the image sensors 5-1 to 5-n.

この図2に示す平面配置では、説明を簡素化するために2台のカメラに相当する2つの撮影部30−1,30−nのみが示されている。撮影部30−1,30−nは、夫々レンズ4―1,4−nと撮像素子5―1,5−nで構成され、このレンズ4―1,4−nと撮像素子5―1,5−nとの間隔は、結像距離fに定められている。レンズ4―1,4−nから有限の距離Lc(撮影距離Lcと称する。)及びその周辺の空間を効率よく撮影するには、レンズ4―1,4−nと撮像素子5との間の相対位置がずらされて両者間の結像距離f(Z方向に沿った距離)が調整されば良い。即ち、撮像素子5に対してレンズ4―1,4−nがシフトされて撮像素子5に対するレンズ4―1,4−nの結像関係が変更されて撮影範囲が変更される。このレンズ4―1,4−nの結像関係を調整することで、マルチカメラ1の撮影範囲は、斜線で示すように撮影基準距離Lcで重畳させることができる。レンズ4―1,4−nは、ある画角を有し、この画角及び撮影基準距離Lcでマルチカメラ1の撮影範囲が定められる。   In the planar arrangement shown in FIG. 2, only two photographing units 30-1 and 30-n corresponding to two cameras are shown to simplify the description. The photographing units 30-1 and 30-n are configured by lenses 4-1 and 4-n and image sensors 5-1 and 5-n, respectively, and the lenses 4-1 and 4-n and image sensors 5-1 and 5-1. The interval from 5-n is set to the imaging distance f. In order to efficiently photograph the finite distance Lc (referred to as the photographing distance Lc) and the surrounding space from the lenses 4-1, 4-n, the distance between the lenses 4-1, 4-n and the image sensor 5 is not limited. The imaging position f (distance along the Z direction) between the two may be adjusted by shifting the relative position. That is, the lenses 4-1 and 4-n are shifted with respect to the image pickup device 5, and the imaging relationship of the lenses 4-1 and 4-n with respect to the image pickup device 5 is changed to change the photographing range. By adjusting the imaging relationship of the lenses 4-1 and 4-n, the shooting range of the multi-camera 1 can be superimposed at the shooting reference distance Lc as shown by the oblique lines. The lenses 4-1 and 4-n have a certain angle of view, and the photographing range of the multi-camera 1 is determined by the angle of view and the photographing reference distance Lc.

この撮影範囲が重畳した空間における撮影基準距離LのXY平面の範囲は、後に説明する一定の条件下で投影面2と定義される。投影面2の前後には、図2に示すように撮影範囲6が広がっている。この撮影範囲6内であれば、実物体3―1を投影面2より距離z_nだけ手前(飛び出し方向)に位置させる。または、実物体3―2を投影面2上に位置させ、または、実物体3―3を投影面2より距離z_fだけ奥(奥行き方向)に位置させて被写体を撮影しても表示装置で立体映像として表示することができる。この立体映像として表示することができるこの距離z_n、z_fは、表示装置側における飛び出し表示領域及び奥行き表示領域に相当している。即ち、距離z_n、z_fは、マルチカメラにおける立体撮影限界領の域をも定めている。   The range of the XY plane of the shooting reference distance L in the space where the shooting range is superimposed is defined as the projection plane 2 under certain conditions described later. Before and after the projection plane 2, a photographing range 6 is widened as shown in FIG. If it is within this imaging range 6, the real object 3-1 is positioned in front (projecting direction) by a distance z_n from the projection plane 2. Alternatively, even if the real object 3-2 is positioned on the projection plane 2 or the real object 3-3 is positioned a distance z_f away from the projection plane 2 (in the depth direction) and the subject is photographed, a 3D image is displayed on the display device. It can be displayed as a video. The distances z_n and z_f that can be displayed as the stereoscopic video correspond to the pop-up display area and the depth display area on the display device side. That is, the distances z_n and z_f also define the area of the stereoscopic photographing limit area in the multicamera.

図3に示すように、各表示装置42,52は、平面表示パネル46,56の前方に視差バリア47、57が前面に設けられて構成されている。平面表示パネル46,56と視差バリア47、57との間には、ギャップgが空けられている。平面表示パネル46,56は、垂直方向並びに水平方向を有する表示面を備えている。この表示面には、夫々所定幅を有する画素がマトリックス状に一定の画素ピッチppで配列されている。視差バリア47、57は、一次元IIにあっては、レンチュキュラーシート或いはスリットシートで構成されている。視差バリア47、57は、水平方向(x方向)に沿って多数のシリンドリカルレンズ或いはスリットがレンズピッチPeで配列される。また、視差バリア47、57は、2次元IIにあっては、フライアイレンズシート或いはピンホールシートで構成され、水平方向(x方向)及び垂直方向(y方向)に沿って多数のマイクロレンズ或いはピンホールがレンズピッチPe(H)及びPe(V)で配列される。これらシリンドリカルレンズ、スリット、マイクロレンズ或いはピンホールは、光学的開口或いは光学的瞳と称せられる。II方式の立体画像表示システムにあっては、光学的開口或いは光学的瞳の配列ピッチPe(水平ピッチPe(H)或いは垂直ピッチPe(V))は、表示面上に画素が配列される画素ピッチppの整数倍に定められている。   As shown in FIG. 3, each display device 42, 52 is configured by providing parallax barriers 47, 57 in front of the flat display panels 46, 56 on the front surface. A gap g is provided between the flat display panels 46 and 56 and the parallax barriers 47 and 57. The flat display panels 46 and 56 include a display surface having a vertical direction and a horizontal direction. On the display surface, pixels each having a predetermined width are arranged in a matrix at a constant pixel pitch pp. In the one-dimensional II, the parallax barriers 47 and 57 are constituted by a lenticular sheet or a slit sheet. In the parallax barriers 47 and 57, a large number of cylindrical lenses or slits are arranged at the lens pitch Pe along the horizontal direction (x direction). In the two-dimensional II, the parallax barriers 47 and 57 are configured by fly-eye lens sheets or pinhole sheets, and a large number of microlenses or horizontal lenses are arranged along the horizontal direction (x direction) and the vertical direction (y direction). Pinholes are arranged at lens pitches Pe (H) and Pe (V). These cylindrical lenses, slits, microlenses, or pinholes are called optical apertures or optical pupils. In the II-type stereoscopic image display system, the optical aperture or optical pupil array pitch Pe (horizontal pitch Pe (H) or vertical pitch Pe (V)) is a pixel in which pixels are arrayed on the display surface. It is determined to be an integral multiple of the pitch pp.

平面表示パネル46,56の表示面は、光学的開口或いは光学的に瞳に対向する領域に分割されてセグメント化された要素画像領域60に定められている。即ち、一次元II方式の立体画像表示システムにあっては、シリンドリカルレンズ或いはスリットの夫々に対応して要素画像が表示される領域60が定められ、この要素画像60の領域がx方向に沿って連続して配列されている。2次元II方式の立体画像表示システムにあっても、マイクロレンズ或いはピンホールの夫々に対応して要素画像が表示される領域60が定められ、この要素画像の領域60がx方向及びy方向に沿って連続してマトリックス状に配列されている。要素画像領域60は、表示装置42,56において定められた正常に立体視することができる範囲の基準となる観察基準視距離Lo及び観察基準視距離Lo上の観察基準面62に依存して定められる。マルチカメラで撮影された種々の方向の視差画像が要素画像領域に配分されて要素画像がこの要素画像領域60に表示される。この視差画像の要素画像領域への配分の詳細に関しては、一例として特許文献1を参照されたい。   The display surfaces of the flat display panels 46 and 56 are defined as segmented element image regions 60 divided into optical apertures or regions optically opposed to the pupil. That is, in the one-dimensional II type stereoscopic image display system, an area 60 where an element image is displayed is determined corresponding to each of the cylindrical lens or the slit, and the area of the element image 60 extends along the x direction. It is arranged continuously. Even in the two-dimensional II system stereoscopic image display system, an area 60 where an element image is displayed is determined corresponding to each of the microlens and the pinhole, and the element image area 60 is arranged in the x direction and the y direction. It is arranged in a matrix form continuously. The element image area 60 is determined depending on the observation reference viewing distance Lo that is a reference of the range in which the stereoscopic images can be normally viewed and defined on the display devices 42 and 56, and the observation reference plane 62 on the observation reference viewing distance Lo. It is done. The parallax images taken in various directions with the multi-camera are distributed to the element image area, and the element image is displayed in the element image area 60. For details of the distribution of the parallax images to the element image areas, refer to Patent Document 1 as an example.

マルチカメラ1に関しては、既に説明したように撮影基準距離Lcと間隔x_cは、(1)式で与えられる。   Regarding the multi-camera 1, as already described, the photographing reference distance Lc and the interval x_c are given by the equation (1).

g:pp=Lc:x_c ・・・(1)
ここで、ppは、表示パネル46,56上の画素間隔(画素ピッチ)であり、gは、視差バリア47,57と表示パネル46,56の表示面との間隔(ギャップ長さ)を示している。(1)式が成立し、撮影基準距離Lcが観察基準視距離Loに設定されると、実物体3―1〜3―3と同一サイズの立体像が表示装置42,52の前方或いは後方に形成される。ここで、実物体3―1〜3―3と同一サイズの立体像が表示装置42,52の前方或いは後方に形成される関係が成立する撮影基準距離Lcは、図2に示す投影面2と称せられる。この投影面2を撮影基準面とすることで、撮影データで表示装置42,52に高い解像度で歪みのない立体映像を表示させることができる。この撮影基準面としての投影面2は、被写体の像にピントを合わせてその被写体が撮像素子30−1〜30nに像として形成される際の被写体まで距離で定まる撮影面とは異なる。表示装置42,52に高い解像度で歪みのない立体映像を表示させることができる撮影データを得ることが可能な撮影基準面として投影面2が定められている。
g: pp = Lc: x_c (1)
Here, pp is a pixel interval (pixel pitch) on the display panels 46 and 56, and g is an interval (gap length) between the parallax barriers 47 and 57 and the display surfaces of the display panels 46 and 56. Yes. When Expression (1) is established and the photographing reference distance Lc is set to the observation reference viewing distance Lo, a stereoscopic image having the same size as the real objects 3-1 to 3-3 is displayed in front of or behind the display devices 42 and 52. It is formed. Here, an imaging reference distance Lc that establishes a relationship in which a stereoscopic image having the same size as the real objects 3-1 to 3-3 is formed in front of or behind the display devices 42 and 52 is the projection plane 2 shown in FIG. Be called. By using the projection plane 2 as an imaging reference plane, it is possible to display a stereoscopic image with high resolution and no distortion on the display devices 42 and 52 as imaging data. The projection plane 2 as the imaging reference plane is different from the imaging plane that is determined by the distance to the subject when the subject is focused on and formed as an image on the imaging elements 30-1 to 30n. The projection plane 2 is defined as an imaging reference plane capable of obtaining imaging data that can display high-resolution and undistorted stereoscopic video on the display devices 42 and 52.

投影面2は、表示装置42,52の表示面に一致される撮影基準面に相当する。撮影基準距離が3次元ディスプレイの観察基準視距離に、撮影位置が3次元ディスプレイの観察基準面上の視点に設定され、撮影対象が実寸大で表示される。この投影面2は、図1に示される表示装置42、52に表示される表示面に相当し、撮影の基準面としての投影面2を基準に被写体が撮影されることが好ましい。投影面2を表示装置42、52内に表示するに代えて、他の方法で投影面までの撮影距離に関連した数値或いは他の表示、例えば、マルチカメラを現在位置から前方或いは後方に移動させることを要求する表示をするようにしても良い。   The projection plane 2 corresponds to a photographing reference plane that matches the display plane of the display devices 42 and 52. The shooting reference distance is set to the observation reference viewing distance of the three-dimensional display, the shooting position is set to the viewpoint on the observation reference plane of the three-dimensional display, and the shooting target is displayed in actual size. The projection plane 2 corresponds to the display plane displayed on the display devices 42 and 52 shown in FIG. 1, and the subject is preferably photographed with reference to the projection plane 2 as a photographing reference plane. Instead of displaying the projection plane 2 in the display devices 42 and 52, numerical values related to the shooting distance to the projection plane or other displays, for example, the multi-camera is moved forward or backward from the current position. A display requesting that may be made.

図2に示す撮影光学系において、マルチカメラ1の撮影範囲6の内で、視差画像として利用する範囲をクリッピング編集(切り取り編集)することで、いずれの実物体が撮影されても、3次元ディスプレイの表示面近傍に立体像として拡大表示することができる。この視差画像として利用する範囲の制御について、図4A及び図4Bを参照して説明する。   In the photographic optical system shown in FIG. 2, the range used as a parallax image within the shooting range 6 of the multi-camera 1 is subjected to clipping editing (cut-out editing), so that any real object is shot and the three-dimensional display Can be enlarged and displayed as a stereoscopic image near the display surface. Control of the range used as the parallax image will be described with reference to FIGS. 4A and 4B.

図4Aは、図2に示されるマルチカメラ1の左端の撮像素子5―1で撮像した画像8―1を示し、図4Bは、図2に示されるマルチカメラ1の右端の撮像素子5―nで撮像した画像8−nを示している。撮像幅W_sを有する撮像素子5―1〜5−nは、同一サイズを有して同一サイズの視差画像が出力される。投影面2から距離z_nの飛び出し位置に位置する実物体(○で図示)は、図4Aに示ように、撮像素子5―1上で右端に写され、図4Bに示ように、撮像素子5―n上で左端に写される。また、投影面2上、即ち、撮影基準距離Lc上の実物体(△で図示)は、図4A及び図4Bのいずれにあっても、左或いは右にシフトされることなく、撮像素子5上の中央に写される。更に、距離z_fの奥行き位置に位置する実物体(□で図示)は、図4Aでは、撮像素子5―1上の左端に写され、図4Bでは、撮像素子5―n上の右端に写される。   4A shows an image 8-1 picked up by the leftmost image sensor 5-1 of the multi-camera 1 shown in FIG. 2, and FIG. 4B shows an image sensor 5-n at the right end of the multi-camera 1 shown in FIG. The image 8-n imaged in FIG. The imaging elements 5-1 to 5-n having the imaging width W_s have the same size and output parallax images of the same size. A real object (shown by a circle) located at a protruding position at a distance z_n from the projection plane 2 is copied to the right end on the image sensor 5-1 as shown in FIG. 4A, and the image sensor 5 is shown in FIG. 4B. -It is copied to the left end on n. Further, an actual object (shown by Δ) on the projection plane 2, that is, on the photographing reference distance Lc, is not shifted to the left or right in any of FIG. 4A and FIG. It is copied in the center of. Furthermore, the real object (shown by □) located at the depth position of the distance z_f is copied to the left end on the image sensor 5-1 in FIG. 4A, and is copied to the right end on the image sensor 5-n in FIG. 4B. The

この撮像素子5―1〜5−nで撮影された視差画像は、画像処理部40で処理されて表示に利用する範囲に応じて切りに抜かれる。切り抜かれた視差画像に応じて立体映像を表示装置42に表示することができる。図4A及び図4Bには、視差画像として利用する範囲、即ち、視差画像として利用する為に切り抜かれるクリッピング領域7―1.7−2,7−3が太線で囲って示されている。ここで、クリッピング領域7―1.7−2,7−3は、全ての撮像素子5―1〜5−nの撮影面上に同一サイズに設定される。クリッピング領域7―1.7−2,7−3の中央基準線10は、(2)式で定義されるシフト値s_nまたはs_fだけ撮像素子5−1,5―nの中心12からシフトされる。クリップする対象である実物体(○、△或いは□で図示)が定まれば、いずれの実物体(○、△或いは□で図示)が撮影されても、その撮影画像を3次元ディスプレイに表示して表示面近傍に立体映像を表示させることができる。ここで、シフト値s_n(又はs_f)には、3角形の相似の関係から、(2)式が成立する。   The parallax images captured by the image sensors 5-1 to 5-n are processed by the image processing unit 40 and cut out according to the range used for display. A stereoscopic video can be displayed on the display device 42 in accordance with the cut-out parallax image. In FIG. 4A and FIG. 4B, a range used as a parallax image, that is, clipping regions 7-1.7-2 and 7-3 cut out for use as a parallax image are shown surrounded by a thick line. Here, the clipping regions 7-1.7-2 and 7-3 are set to the same size on the imaging surfaces of all the image sensors 5-1 to 5-n. The center reference line 10 of the clipping regions 7-1.1.7-2 and 7-3 is shifted from the center 12 of the image sensors 5-1 and 5-n by the shift value s_n or s_f defined by the equation (2). . If a real object to be clipped (indicated by ○, Δ, or □) is determined, the captured image is displayed on the three-dimensional display regardless of which real object (indicated by ○, Δ, or □) is captured. Thus, a stereoscopic image can be displayed near the display surface. Here, the equation (2) is established for the shift value s_n (or s_f) from the similarity of triangles.

s_n:x_c=z_n:Lc ・・・(2)
ここで、x_cは、カメラ1の中心(中央基準線10に相当する。)を基準としたレンズ4−1,4−nのX座標を示している。
s_n: x_c = z_n: Lc (2)
Here, x_c represents the X coordinate of the lenses 4-1, 4-n with the center of the camera 1 (corresponding to the center reference line 10) as a reference.

また、透視投影の場合、飛び出し位置の実物体(○)は、大きく、奥行き位置の実物体(□)は、小さく写る。従って、飛び出し位置の実物体(○)は、クリッピング範囲7を広く、奥行き位置の実物体(□)は、クリッピング範囲7を狭く設定することで、恒常的な大きさの表示も可能になる。   In the case of perspective projection, the real object (◯) at the pop-out position is large and the real object (□) at the depth position is small. Accordingly, the real object (◯) at the pop-out position can be displayed in a constant size by setting the clipping range 7 wide, and the real object (□) at the depth position can be set narrow.

クリッピング範囲7の画像が画素レベルに分解され、要素画像の成分として表示パネル46の表示面に割り付けられる。射出瞳とその背面の画素群で構成された3次元ディスプレイの画素は、見る角度に応じて情報が変わり、しかも、視差情報が提示される画素として振舞って表示パネル46によって立体画像が表示される。従って、表示パネル46には、クリップされた撮影者が興味を示す対象3―1〜3−3が表示されるクリップ画像が表示される。   The image in the clipping range 7 is decomposed to the pixel level and assigned to the display surface of the display panel 46 as a component of the element image. The information of the pixels of the three-dimensional display composed of the exit pupil and the pixel group on the back of the exit pupil changes depending on the viewing angle, and behaves as a pixel on which parallax information is presented, and a stereoscopic image is displayed on the display panel 46. . Therefore, the display panel 46 displays a clip image in which the objects 3-1 to 3-3 that the clipped photographer is interested in are displayed.

上述したように、撮影される多視点画像8―1及び8−nのうち、視差画像として用いる領域、即ち、クリッピング領域7―1.7−2,7−3が選択される。撮影範囲6内で実物体3−1〜3−3が撮影されている限り、この撮影画像を基にして3次元画像として表示面近傍に表示することが可能である。より詳細に述べるならば、クリッピング範囲7―1〜7−3の大きさが3次元ディスプレイに表示された場合の画像の大きさを示し、クリッピング範囲7―1〜7−3の視点画像毎の位置のシフト値s_n又はs_fが表示面に表示される奥行き或いは飛び出しを定義している。換言すれば、シフト値s_n又はs_fは、投影面2から奥行き方向或いは飛び出し方向の距離に相関を有している。   As described above, areas to be used as parallax images, that is, clipping areas 7-1.7-2 and 7-3 are selected from the captured multi-viewpoint images 8-1 and 8-n. As long as the real objects 3-1 to 3-3 are photographed within the photographing range 6, the three-dimensional image can be displayed near the display surface based on the photographed image. More specifically, the size of the clipping range 7-1 to 7-3 indicates the size of the image when it is displayed on the three-dimensional display. For each viewpoint image in the clipping range 7-1 to 7-3, The position shift value s_n or s_f defines the depth or pop-up displayed on the display surface. In other words, the shift value s_n or s_f has a correlation with the distance in the depth direction or the protruding direction from the projection plane 2.

このクリッピング領域7―1.7−2,7−3を制御する手法には、投影面2上の実物体(△で図示)以外の他の実物体(○又は□で図示)を表示面近傍に表示する場合には、画像が歪むという問題を含んでいる。図2に示されるマルチカメラ1のレイアウトは、図3を参照して説明したように3次元ディスプレイの画素と射出瞳の関係を反映した設計であるべきである。しかし、投影面2より手前又は奥の実物体がクリッピング範囲の調整で表示面近傍に表示される場合、観察基準視距離と撮影基準距離が異なることから、厳密には、透視度の不一致が生じる。表示においては、この透視度の不一致は、歪として現れる。距離z_nまたはz_fが小さい値の場合には顕著ではないが、やはり、表示画像は、歪なく表示されることが好ましい。さらに、撮像素子5に対しるレンズ4―1,4−nのシフト位置が固定の場合、投影面2のある撮影基準距離Lcで撮影範囲が重畳していることから、撮影したい対象が予め定まっている場合、投影面2がその撮影対象に略一致するような位置から、即ち、撮影対象から撮影基準距離Lcだけ離れた位置から撮影することが望ましい。主に表示したい対象物3−1〜3−3が投影面2からあまりに離れて配置されている場合には、前述した透視度の問題に加えて次の問題があるためである。第1の問題は、シフト値(s_n、s_f)を考慮してクリッピングしようとする場合に撮影範囲が不足する虞がある。ここで、図2に○を基準としたクリッピング範囲7が撮影範囲に相当している。また、第2の問題は、シフト値(s_n、s_f)を考慮してクリッピングしようとする場合に解像度が不足する虞がある。ここで、図2に□を基準としたクリッピング範囲7でクリッピングされることから、解像度が不足する虞がある。このような観点からも、撮影基準距離の調整(修正)が好ましい。   As a method for controlling the clipping regions 7-1.1.7-2 and 7-3, other real objects (shown by Δ) other than the real objects (shown by Δ) on the projection plane 2 are displayed near the display surface. In the case of displaying on the screen, there is a problem that the image is distorted. The layout of the multi-camera 1 shown in FIG. 2 should be designed to reflect the relationship between the pixels of the three-dimensional display and the exit pupil as described with reference to FIG. However, when a real object in front of or behind the projection plane 2 is displayed in the vicinity of the display plane by adjusting the clipping range, strictly speaking, since the observation reference viewing distance and the imaging reference distance are different, there is a mismatch in transparency. . In the display, this discrepancy in transparency appears as distortion. Although not significant when the distance z_n or z_f is a small value, the display image is preferably displayed without distortion. Furthermore, when the shift positions of the lenses 4-1 and 4-n with respect to the image pickup device 5 are fixed, the shooting range is overlapped at a certain shooting reference distance Lc on the projection plane 2, so that an object to be shot is determined in advance. In this case, it is desirable to shoot from a position where the projection plane 2 substantially coincides with the shooting target, that is, from a position away from the shooting target by the shooting reference distance Lc. This is because when the objects 3-1 to 3-3 to be mainly displayed are arranged too far from the projection surface 2, there are the following problems in addition to the above-described transparency problem. The first problem is that the shooting range may be insufficient when clipping is performed in consideration of the shift values (s_n, s_f). Here, the clipping range 7 based on ◯ in FIG. 2 corresponds to the shooting range. The second problem is that the resolution may be insufficient when clipping is performed in consideration of the shift values (s_n, s_f). Here, since clipping is performed in the clipping range 7 with reference to □ in FIG. 2, there is a possibility that the resolution is insufficient. Also from such a viewpoint, adjustment (correction) of the photographing reference distance is preferable.

撮像素子5に対しるレンズ4―1,4−nのシフト位置を変更できる場合は、撮影範囲が不足する虞はないが、観察基準視距離と撮影基準距離が異なることによる歪や、前述の解像度が不足する虞については解決できない。   When the shift positions of the lenses 4-1 and 4-n with respect to the image pickup device 5 can be changed, there is no possibility that the shooting range will be insufficient, but distortion due to the difference between the observation reference viewing distance and the shooting reference distance, The possibility of lack of resolution cannot be solved.

以上の観点から、撮影対象として撮影者或いは観察者の興味の対象とされる被写体が投影面に設定されている限りにいて、その撮影対象がクリップされても、透視度の不一致が生ずることがなく、表示画像を歪なく表示させることができる。   From the above viewpoints, as long as the subject of interest of the photographer or the observer is set as the photographing target on the projection plane, even if the photographing target is clipped, the degree of transparency may be inconsistent. Therefore, the display image can be displayed without distortion.

図1に示される本発明の実施の形態に係るマルチカメラシステムでは、撮影者が主に表示したい対象3−1〜3−3を決める場合或いは3次元ディスプレイの観察者が主に表示したい対象を決める場合のいずれにあっても、撮影者が対象を把握して最適とすることができる。撮影者が表示したい対象である被写体3−1〜3−3を決める場合には、表示装置42における表示を参照して入力部45を介して表示対象を特定して表示対象を特定する表示対象面が表示されて表示対象が確定される。また、観察者が主に表示したい対象を決める後者の例としては、遠隔地に3次元表示部52が設置されていて、3次元表示部52に表示されているコンテンツを見ながら、より詳細に見たい範囲を指定する指示が入力部55を介して送られてくる場合が想定される。より詳細に見たい範囲を指定する指示に従い、表示対象を特定する表示対象面が表示されて表示対象が確定されても良い。この表示対象面は、投影面の一致されるように表示対象に対するマルチカメラの撮影距離が修正されてクリッピングされも解像度が不足することがないマルチカメラ撮影が実行される。   In the multi-camera system according to the embodiment of the present invention shown in FIG. 1, when a photographer mainly decides objects 3-1 to 3-3 to be displayed, or an object to be displayed mainly by an observer of a three-dimensional display. In any case, the photographer can grasp the target and optimize it. When the subject 3-1 to 3-3 to be displayed is determined by the photographer, the display target is specified by referring to the display on the display device 42 and specifying the display target via the input unit 45. The screen is displayed and the display target is determined. Further, as an example of the latter in which an observer mainly decides an object to be displayed, a 3D display unit 52 is installed in a remote place, and the content displayed on the 3D display unit 52 is viewed in more detail. It is assumed that an instruction for designating a range to be viewed is sent via the input unit 55. In accordance with an instruction for designating a range to be viewed in more detail, a display target surface for specifying a display target may be displayed and the display target may be determined. The display target plane is subjected to multi-camera shooting in which the shooting distance of the multi-camera with respect to the display target is corrected so that the projection plane matches and clipping is not performed even if clipping is performed.

図6は、図5にブロックで示す画像処理部40を利用して撮影者が主に表示したい対象を決めて最適撮影を実施する為のフローチャートを示している。図5に示す画像処理部40おいて、表示部5は、図1に示す表示装置42に相当し、デジタルカメラのビューワーのように、マルチカメラ1に設けられたビューワーに相当している。図5及び図6を参照してこの発明の実施形態における多視点画像の処理手順を以下に説明する。   FIG. 6 is a flowchart for performing optimum photographing by determining an object that the photographer mainly wants to display using the image processing unit 40 indicated by blocks in FIG. In the image processing unit 40 shown in FIG. 5, the display unit 5 corresponds to the display device 42 shown in FIG. 1, and corresponds to a viewer provided in the multi-camera 1 like a viewer of a digital camera. With reference to FIG. 5 and FIG. 6, the processing procedure of the multi-viewpoint image in the embodiment of the present invention will be described below.

上述したように、マルチカメラ1のレイアウトは、立体画像表示装置における表示部の構成を反映している。従って、好ましくは、表示部5としてのビューワーの表示面が投影面2に一致するようにマルチカメラ1が構成される。また、このような構成でマルチカメラが設計されることがマルチカメラ1の使い勝手を向上することができる。   As described above, the layout of the multi-camera 1 reflects the configuration of the display unit in the stereoscopic image display device. Therefore, preferably, the multi-camera 1 is configured such that the display surface of the viewer as the display unit 5 coincides with the projection surface 2. In addition, designing a multi-camera with such a configuration can improve the usability of the multi-camera 1.

マルチカメラ1で撮影が開始されると(ステップS10)、初めに、撮影を開始した状態(初期状態)で主に表示したい対象が表示部42としてのビューワー内に表示される投影面2の近傍に立体像として表示されているかが確認される(ステップS11)。このビューワー内に表示される投影面近傍に表示対象が表示されていない場合には、3次元画像表示装置であるビューワーを見ながら撮影位置が前後されて、表示対象が投影面2に表示されるような撮影位置が探される(ステップS12)。投影面2に表示対象が略表示された状態で、対象物が適切な表示サイズで表示されているかが判断される(ステップS13)。このステップS13において、表示対象物の表示サイズを調整したい場合、表示範囲(クリッピング範囲)を変更する指示がマルチカメラ1に入力される(ステップS14)。具体的には、クリッピング領域7―1.7−2,7−3のシフト値(s_n、s_f)は、そのままに維持され、対象物の表示サイズが拡大縮小される処理が施される。   When shooting is started with the multi-camera 1 (step S10), first, in the vicinity of the projection plane 2 in which the object to be displayed mainly in the state where the shooting is started (initial state) is displayed in the viewer as the display unit 42 Is displayed as a three-dimensional image (step S11). When a display target is not displayed near the projection plane displayed in the viewer, the shooting position is moved back and forth while viewing the viewer, which is a three-dimensional image display device, and the display target is displayed on the projection plane 2. Such a shooting position is searched (step S12). It is determined whether the object is displayed in an appropriate display size in a state where the display object is substantially displayed on the projection plane 2 (step S13). In step S13, if the display size of the display object is to be adjusted, an instruction to change the display range (clipping range) is input to the multi-camera 1 (step S14). Specifically, the shift values (s_n, s_f) of the clipping regions 7-1.7-2, 7-3 are maintained as they are, and the display size of the object is enlarged or reduced.

クリッピング領域7―1.7−2,7−3の範囲を拡大或いは縮小する場合に透視度を維持するためには、撮影基準距離にフィードバックを与えて撮影基準距離及びカメラ間隔が調整(修正)される。(ステップS15)図7及び図8には、撮影基準距離が距離Lから距離L‘に変更され、この撮影距離の変更に基づいて撮影基準距離を調整する処理の様子が示されている。   In order to maintain the transparency when the range of the clipping regions 7-1.1.7-2 and 7-3 is enlarged or reduced, the imaging reference distance and the camera interval are adjusted (corrected) by providing feedback to the imaging reference distance. Is done. (Step S15) FIG. 7 and FIG. 8 show how the photographing reference distance is changed from the distance L to the distance L ′ and the photographing reference distance is adjusted based on the change of the photographing distance.

図7及び図8は、クリッピング範囲7―1が投影面2より狭い範囲に設定された場合に、歪のない映像を表示する為の撮影部30−1〜30−nの撮影位置を示している。投影面2の幅をW_t、クリッピング領域7―1、即ち、クリッピング範囲の幅をW_cに設定した場合には、撮影基準距離L’及びカメラ位置x_c’は、(3)式を満たすように変更される(ステップS15)。   FIGS. 7 and 8 show the shooting positions of the shooting units 30-1 to 30-n for displaying images without distortion when the clipping range 7-1 is set to a range narrower than the projection plane 2. FIG. Yes. When the width of the projection plane 2 is set to W_t and the clipping region 7-1, that is, the width of the clipping range is set to W_c, the photographing reference distance L ′ and the camera position x_c ′ are changed to satisfy the expression (3). (Step S15).

W_c/W_t=x_c’/x_c=L’/L ・・・(3)
撮影位置を維持したまま、図7に示すようにクリッピング範囲7−1が変更される場合には、理想的な撮影基準距離Lが距離L‘と短く設定される。従って、クリッピング範囲7−1の変更後の投影面2は、図7に示すクリッピング範囲の変更前の従来の投影面2に比較して図8に示すように手前に定められる。その結果、ビューワーに表示された表示対象物のz座標は、相対的に奥に移動される。これによって、撮影者に、撮影基準距離より離れて撮影していることが知らしめられて、撮影者が撮影基準距離で撮影するために、撮影位置を変更する(具体的には前に出る)ことを促す。
W_c / W_t = x_c ′ / x_c = L ′ / L (3)
When the clipping range 7-1 is changed as shown in FIG. 7 while maintaining the shooting position, the ideal shooting reference distance L is set to a short distance L ′. Accordingly, the projection plane 2 after the change of the clipping range 7-1 is set to the front as shown in FIG. 8 as compared to the conventional projection plane 2 before the change of the clipping range shown in FIG. As a result, the z coordinate of the display object displayed on the viewer is relatively moved to the back. As a result, the photographer is informed that he / she is shooting at a distance greater than the shooting reference distance, and the shooting position is changed in order for the photographer to take a shot at the shooting reference distance (specifically, the camera moves forward). Encourage

上述した処理で、撮影部30−1〜30−nのカメラ位置x_cがカメラ位置x_c’に変更されるが、この変更は、撮影部30−1〜30−nから選定される有効撮影データとして利用される撮影部30−k〜30−mの変更に相当している。(k及びmは、1<k<m<nの関係にある整数)撮影部30−k〜30−mへの変更に伴い、ステップS16に示すように撮影部30−k〜30−mからの画像は、補間処理されて必要とされる視差画像数の視差画像が用意される。この補間処理された視差画像は、補間されたものであることを明示する為に他の視差画像とは異なる画像に着色されることが好ましい。   In the processing described above, the camera position x_c of the photographing units 30-1 to 30-n is changed to the camera position x_c ′. This change is performed as effective photographing data selected from the photographing units 30-1 to 30-n. This corresponds to a change of the photographing units 30-k to 30-m used. (K and m are integers having a relationship of 1 <k <m <n) With the change to the imaging units 30-k to 30-m, as shown in step S16, the imaging units 30-k to 30-m As for the images, parallax images having the required number of parallax images are prepared by interpolation processing. The interpolated parallax image is preferably colored in an image different from other parallax images in order to clearly indicate that the parallax image has been interpolated.

撮影者は、上述したように、クリッピング範囲の変更に伴い撮影距離が変更され、投影2が表示画面内で変更されたことを確認してこの表示結果を見ながら、撮影するマルチカメラ位置を撮影対象までの距離を縮めるように移動すれば良い。カメラ座標x_cについては、理想的には変更するべきであるが、カメラ間隔x_cを狭くすることは、マルチカメラの構造上、特に実現が難しい。従って、マルチカメラの実際のカメラピッチは、そのままとすることが好ましい。そして、カメラピッチは、そのままとして撮影条件に依存して内挿或いは外挿のいずれかの方法により、画像補間の処理により、撮影位置(x座標)x_c’を変えた多視点画像を生成してこの多視点画像が使用されれば良い(ステップS16)。この補間多視点画像で画面が表示され、この表示画面に従って、ステップS12が実行される。   As described above, the photographer confirms that the shooting distance is changed in accordance with the change of the clipping range, and that the projection 2 is changed in the display screen. What is necessary is just to move so that the distance to an object may be shortened. The camera coordinate x_c should ideally be changed, but it is particularly difficult to reduce the camera interval x_c because of the structure of the multi-camera. Therefore, it is preferable to leave the actual camera pitch of the multi-camera as it is. Then, a multi-viewpoint image in which the shooting position (x coordinate) x_c ′ is changed is generated by image interpolation processing by either interpolation or extrapolation depending on the shooting conditions as it is. This multi-viewpoint image may be used (step S16). A screen is displayed with the interpolated multi-viewpoint image, and step S12 is executed according to the display screen.

以上のように、撮影位置の移動と画像補間により表示対象が表示位置に表示することができたしたとしても、表示対象物の奥行きが大きい、即ち、厚みのあるために、3次元ディスプレイの奥行き方向の表示範囲に入らない場合もある(ステップS17におけるNO)。このような場合には、図9に示されるようにカメラ座標x_cが例えば、1/2となるように撮影部30−1〜30−nがシフトされれば、表示された状態の空間をz方向に略1/2に縮小することができる(ステップS18)。マルチカメラでは、実際上撮影部30−1〜30−nのシフトは、できないことから、このカメラ座標x_cで撮影された映像に対しても画像補間処理で1/2カメラ間隔の撮影データが用意されれば良い。   As described above, even if the display object can be displayed at the display position by moving the shooting position and image interpolation, the depth of the three-dimensional display is large because the depth of the display object is large. In some cases, the direction display range may not be entered (NO in step S17). In such a case, as shown in FIG. 9, if the photographing units 30-1 to 30-n are shifted so that the camera coordinates x_c are, for example, ½, the displayed space is z. The direction can be reduced to approximately ½ (step S18). In the multi-camera, since the photographing units 30-1 to 30-n cannot actually be shifted, photographing data at ½ camera intervals is prepared by image interpolation processing even for images photographed at the camera coordinates x_c. It should be done.

ステップS17において、3次元ディスプレイの奥行き方向の表示範囲に表示対象が納まる場合には、或いは、ステップS18の処理で3次元ディスプレイの奥行き方向の表示範囲に表示対象が納まるようになった場合には、この撮影条件で撮影部30−1〜30−n或いは30−k〜30−mからの画像データが表示用画像に並べ替え処理されて要素画像のデータが作成され、記憶装置(図示せず)に格納される。(ステップS19)このように要素画像のデータが用意されて一連の処理が終了される。(ステップS17)必要であれば詳細設定の為にステップS21からの処理が再び繰り返される。   In step S17, when the display target is within the display range in the depth direction of the 3D display, or when the display target is within the display range in the depth direction of the 3D display in the process of step S18. The image data from the imaging units 30-1 to 30-n or 30-k to 30-m is rearranged into display images under these imaging conditions to create element image data, and a storage device (not shown) ). (Step S19) In this way, the data of the element image is prepared and the series of processes is completed. (Step S17) If necessary, the processing from step S21 is repeated again for detailed setting.

上述したフローを実行する映像処理部は、図5に示されるように、マルチカメラ1で撮影した多視点画像を記憶する記憶部20及びこのマルチカメラ1での撮影条件を記憶する撮影条件記憶部24を備えている。マルチカメラ1で撮影した多視点画像における次のようなクリッピング条件C1〜C3がクリッピング条件記憶部22に記憶される。   As shown in FIG. 5, the video processing unit that executes the above-described flow includes a storage unit 20 that stores a multi-viewpoint image captured by the multi-camera 1 and a shooting condition storage unit that stores shooting conditions of the multi-camera 1. 24. The following clipping conditions C1 to C3 in the multi-viewpoint image captured by the multicamera 1 are stored in the clipping condition storage unit 22.

(C1) クリッピングサイズ(初期値は、規格化した値として1)
(C2) マルチカメラ1の間隔(初期値、規格化した値として1)
(C3) 撮影基準距離(シフト値(初期値は0)で擬似的に調整が可能)
このクリッピング条件記憶部22に記憶されたマルチカメラ1の位置に従って、画像取得位置の変更が必要な場合における画像補間処理及びクリッピング処理が視差画像生成部26で実行される。この視差画像生成部26で作成した視差画像は、並べ替え処理部28において、画素単位で並び替え処理され、3次元ディスプレイに表示するフォーマットに変更される。ここで、3次元ディスプレイ用のフォーマットとは、要素画像がタイル状に並んだ要素画像アレイを意味している。
(C1) Clipping size (initial value is 1 as a standardized value)
(C2) Multicamera 1 interval (initial value, 1 as standardized value)
(C3) Shooting reference distance (pseudo adjustment is possible with shift value (initial value is 0))
In accordance with the position of the multi-camera 1 stored in the clipping condition storage unit 22, the parallax image generation unit 26 performs image interpolation processing and clipping processing when the image acquisition position needs to be changed. The parallax image created by the parallax image generation unit 26 is rearranged in units of pixels by the rearrangement processing unit 28 and is changed to a format to be displayed on the three-dimensional display. Here, the format for a three-dimensional display means an element image array in which element images are arranged in a tile shape.

並び替え処理部28で作成された要素画像アレイは、表示部5に供給されて表示部5によって3次元画像が表示される。表示部5に供給される要素画像アレイは、表示条件調整部32に供給される。ここで、表示部5に表示された映像を看ながら、表示条件調整部32でクリッピングサイズ及びマルチカメラ1の位置(間隔)が調整される。ここで、既に説明されたようにマルチカメラ1の位置(間隔)の調整は、画像補間によって用意される撮影データが取得可能な仮想上のカメラ位置或いはカメラ間隔を含んでいる。表示条件調整部32で調整、特に、クリッピングサイズが変更された場合は、撮影条件を反映させて、撮影条件のレイアウトと相似を保ちながら、撮影基準距離及びカメラ間隔を修正する必要がある。撮影基準距離の変更は、クリッピング範囲7−1、7−2,7−3のシフト値を調整することで擬似的に実現することができる。しかし、基本的には、表示条件調整部32においてクリッピング範囲のシフト値の調整で対処せずに、あくまでも撮影基準距離の変更を促すことを基本とする。表示条件調整部で調整されたパラメータは、クリッピング条件記憶部24の内容に反映され、この結果、リアルタイムに表示部5の3次元画像の表示状態が更新される。   The element image array created by the rearrangement processing unit 28 is supplied to the display unit 5 and a three-dimensional image is displayed on the display unit 5. The element image array supplied to the display unit 5 is supplied to the display condition adjustment unit 32. Here, while viewing the video displayed on the display unit 5, the display condition adjustment unit 32 adjusts the clipping size and the position (interval) of the multi-camera 1. Here, as already described, the adjustment of the position (interval) of the multi-camera 1 includes a virtual camera position or camera interval at which shooting data prepared by image interpolation can be acquired. When adjustment is performed by the display condition adjustment unit 32, especially when the clipping size is changed, it is necessary to reflect the shooting conditions and to correct the shooting reference distance and the camera interval while keeping the similarities to the layout of the shooting conditions. The change of the photographing reference distance can be realized in a pseudo manner by adjusting the shift values of the clipping ranges 7-1, 7-2, and 7-3. However, basically, the display condition adjusting unit 32 does not deal with the adjustment of the shift value of the clipping range, and basically prompts the change of the photographing reference distance. The parameters adjusted by the display condition adjustment unit are reflected in the contents of the clipping condition storage unit 24. As a result, the display state of the three-dimensional image on the display unit 5 is updated in real time.

ここで、表示条件調節部32に設定された表示条件を反映して表示部5に表示する場合に、多視点画像の撮影範囲が不足する場合が想定される。この撮影範囲が不足する領域の画像は、隣接し、既に得られている多視点画像の視差情報で置換する処理で補充されても良い。この置換した視差画像は、置換である旨を表示する為に置換部分に着色して観察者に知らしても良い。   Here, when the display condition set in the display condition adjustment unit 32 is reflected and displayed on the display unit 5, a case where the shooting range of the multi-viewpoint image is insufficient is assumed. The image in the area where the shooting range is insufficient may be supplemented by processing for replacing the parallax information of the multi-view image that is adjacent and already obtained. In order to display the replacement parallax image to indicate that the image is replaced, the replaced image may be colored to notify the observer.

また、表示条件調節部32は、表示面近傍に表示しようとした対象物を画像処理にて認識し、撮影条件の変化、撮影対象の移動があっても対象物をトラッキング(追跡)することができるトラッキング処理部(図示せず)を含むことが好ましい。このトラッキング処理部は、クリッピング条件記憶部22に記憶されるパラメータを自動的に変更或いは更新して対象物を常に表示面に表示させることが好ましい。   The display condition adjustment unit 32 recognizes an object to be displayed in the vicinity of the display surface by image processing, and can track the object even if there is a change in the shooting condition or a movement of the shooting target. It is preferable to include a tracking processing unit (not shown) that can be used. It is preferable that the tracking processing unit automatically change or update the parameter stored in the clipping condition storage unit 22 to always display the object on the display surface.

図10及び図11は、3次元ディスプレイの観察者が主に表示したい対象物を決定することが可能な画像処理部40及びこの画像処理部40における処理フローを示している。図10に示される装置は、図5に示される処理装置と異なり、図1に示したように2つの表示部5−1,5−2を備えている。ここで、一方の表示部5−1は、マルチカメラ1に設けられたビューワーに相当し、他方の表示部5−2は、3次元ディスプレイに相当している。   FIGS. 10 and 11 show an image processing unit 40 that can determine an object that an observer of a three-dimensional display mainly wants to display, and a processing flow in the image processing unit 40. The apparatus shown in FIG. 10 is different from the processing apparatus shown in FIG. 5 and includes two display units 5-1 and 5-2 as shown in FIG. Here, one display unit 5-1 corresponds to a viewer provided in the multi-camera 1, and the other display unit 5-2 corresponds to a three-dimensional display.

図6に示すフロートにおける処理と同様にマルチカメラ1で撮影が開始される。(ステップS10)初めに、撮影を開始した状態(初期状態)での3次元画像が観察者によって観察され、観察者によってパラメータが調整される。パラメータの調整は、表示部5−2を見ながら実施され、この表示部5−2に調整パラメータが表示されるとともに入力部55を介してパラメータが送受信部48、58介して画像処理部40の表示条件調整部32に入力される。(ステップS21)従って、パラメータとしてのシフト量以外のパラメータが反映された画像が表示部5−2に表示される。シフト量から換算された仮想投影面2の画像がCGで生成される。この投影面2が表示部5−2内に着色されて表示される。(ステップS22)ここで、撮影者と異なり、観察者は、撮影基準距離Lを変更できないことから、パラメータとしてのシフト量が操作されても、3次元ディスプレイの表示面上に投影面2が表示されるに過ぎないこととなる。撮影者は、観察者が観察する画面と同様な画面を表示部42としてのビューワー内に観察することとなる。このビューワー内に表示される投影面近傍に表示対象が表示されていない場合には、3次元画像表示装置であるビューワーを見ながら撮影位置が前後されて、表示対象が投影面2に表示されるような撮影位置が探されることとなる(ステップS12)。   As with the process in the float shown in FIG. (Step S <b> 10) First, a three-dimensional image in a state where imaging is started (initial state) is observed by an observer, and parameters are adjusted by the observer. The parameter adjustment is performed while viewing the display unit 5-2. The adjustment parameter is displayed on the display unit 5-2, and the parameter is transmitted via the input unit 55 to the image processing unit 40 via the transmission / reception units 48 and 58. This is input to the display condition adjustment unit 32. (Step S21) Accordingly, an image reflecting parameters other than the shift amount as a parameter is displayed on the display unit 5-2. An image of the virtual projection plane 2 converted from the shift amount is generated by CG. This projection plane 2 is colored and displayed in the display section 5-2. (Step S22) Here, unlike the photographer, since the observer cannot change the photographing reference distance L, the projection surface 2 is displayed on the display surface of the three-dimensional display even if the shift amount as a parameter is operated. It will only be done. The photographer observes a screen similar to the screen observed by the observer in the viewer as the display unit 42. When a display target is not displayed near the projection plane displayed in the viewer, the shooting position is moved back and forth while viewing the viewer, which is a three-dimensional image display device, and the display target is displayed on the projection plane 2. Such a shooting position is searched (step S12).

観察者は、撮影者の移動によって、投影面2に表示対象が略表示された状態で、対象物が適切な表示サイズで表示されているかを判断する(ステップS13)。このステップS13において、観察者が表示対象物の表示サイズを調整したい場合、表示範囲(クリッピング範囲)を変更する指示が観察者によって入力部を介して画像処理部40に入力される(ステップS14)。具体的には、クリッピング領域7―1.7−2,7−3のシフト値(s_n、s_f)は、そのままに維持して対象物の表示サイズが拡大縮小される処理が施される。   The observer determines whether the object is displayed with an appropriate display size in a state where the display object is substantially displayed on the projection plane 2 by the movement of the photographer (step S13). In this step S13, when the observer wants to adjust the display size of the display object, an instruction to change the display range (clipping range) is input by the observer to the image processing unit 40 via the input unit (step S14). . Specifically, the shift values (s_n, s_f) of the clipping regions 7-1.7-2, 7-3 are maintained as they are, and the display size of the object is enlarged or reduced.

クリッピング領域7―1.7−2,7−3の範囲を拡大或いは縮小する場合には、実際には、図7及び図8を参照して説明したように、撮影基準距離にフィードバックを与えて撮影基準距離及びカメラ間隔が調整される。(ステップS15)その後、撮影基準距離の変更に伴う画像補間の処理が実行されて、撮影位置(x座標)x_c’を変えた多視点画像が生成される。(ステップS16)この補間多視点画像で画面が表示され、この表示画面に従って、ステップS12が実行される。   When the range of the clipping regions 7-1.1.7-2 and 7-3 is enlarged or reduced, actually, feedback is given to the photographing reference distance as described with reference to FIGS. The photographing reference distance and the camera interval are adjusted. (Step S15) Thereafter, image interpolation processing is performed in accordance with the change of the photographing reference distance, and a multi-viewpoint image in which the photographing position (x coordinate) x_c ′ is changed is generated. (Step S16) A screen is displayed with this interpolated multi-viewpoint image, and step S12 is executed according to this display screen.

表示対象物の奥行きが大きい、即ち、厚みのあるために、3次元ディスプレイの奥行き方向の表示範囲に入らない場合(ステップS17におけるNO)には、図9に示されるようにカメラ座標x_cがシフトされ、表示された状態の空間をz方向に縮小(圧縮)することができる(ステップS18)。マルチカメラでは、実際上撮影部30−1〜30−nのシフトは、できないことから、このカメラ座標x_cで撮影された映像に対しても画像補間処理で1/2カメラ間隔の撮影データが用意されれば良い。   When the depth of the display object is large, i.e., thick, it does not fall within the display range in the depth direction of the three-dimensional display (NO in step S17), the camera coordinates x_c are shifted as shown in FIG. Then, the displayed space can be reduced (compressed) in the z direction (step S18). In the multi-camera, since the photographing units 30-1 to 30-n cannot actually be shifted, photographing data at ½ camera intervals is prepared by image interpolation processing even for images photographed at the camera coordinates x_c. It should be done.

ステップS17において、3次元ディスプレイの奥行き方向の表示範囲に表示対象が納まる場合には、或いは、ステップS18の処理で3次元ディスプレイの奥行き方向の表示範囲に表示対象が納まるようになった場合には、この撮影条件で撮影部30−1〜30−n或いは30−k〜30−mからの画像データが表示用画像に並べ替え処理されて要素画像のデータが作成され、記憶装置(図示せず)に格納される。(ステップS19)このように要素画像のデータが用意されて一連の処理が終了される。(ステップS17)必要であれば詳細設定の為にステップS21からの処理が再び繰り返される。   In step S17, when the display target is within the display range in the depth direction of the 3D display, or when the display target is within the display range in the depth direction of the 3D display in the process of step S18. The image data from the imaging units 30-1 to 30-n or 30-k to 30-m is rearranged into display images under these imaging conditions to create element image data, and a storage device (not shown) ). (Step S19) In this way, the data of the element image is prepared and the series of processes is completed. (Step S17) If necessary, the processing from step S21 is repeated again for detailed setting.

尚、入力されたクリッピング領域のクリッピングサイズ及びこれに連動するカメラ間隔、そして、更に奥行き方法の潰し表示処理のカメラ間隔操作が勘案されてクリッピング条件としてクリッピング条件記憶部22に記憶される。この処理では、シフト値は、反映させていない。なぜなら、表示部1にシフトの表示をして、撮影者に対して撮影位置の移動を促す必要があるからである。このとき、撮影対象のどこを表示面にしたいかは、観察者が表示条件調整部32で操作したシフト値から、表示面にしたいシフト値、即ち、撮影基準距離が割り出される。例えば図12に示すように、CGで擬似的に撮影対象の平面9が表示される。撮影者は、この撮影対象面9を投影面に一致するように撮影位置を前後すればよいこととなる。   Note that the input clipping size of the clipping region, the camera interval linked to the clipping size, and the camera interval operation of the squashing display processing of the depth method are taken into consideration and stored in the clipping condition storage unit 22 as a clipping condition. In this process, the shift value is not reflected. This is because it is necessary to display a shift on the display unit 1 to prompt the photographer to move the photographing position. At this time, the shift value desired to be displayed on the display surface, that is, the imaging reference distance, is determined from the shift value operated by the observer using the display condition adjustment unit 32 as to which part of the imaging target is desired to be the display surface. For example, as shown in FIG. 12, a plane 9 to be imaged is displayed in a pseudo manner by CG. The photographer only needs to move the photographing position back and forth so that the photographing target surface 9 coincides with the projection surface.

以上のべた方法により、3次元画像表示において歪の原因になる、撮影基準距離の理想値からの乖離を、撮影者に知らしめ、理想の撮影基準距離に移動するための指針を与えることができる。   By the above-described method, it is possible to inform the photographer of the deviation from the ideal value of the photographing reference distance, which causes distortion in the three-dimensional image display, and to provide a guideline for moving to the ideal photographing reference distance. .

尚、画像補間処理については詳細を記載していないが、公知のバイリニア法、バイキュービック法等の既存の方法が用いられれば良い。また、カメラには、ズームイン、アウト、レンズシフト、焦点距離の移動といった機能があることが予想されるが、これらの動作においても、この発明適用することができることは明らかである。   Although details of the image interpolation processing are not described, an existing method such as a known bilinear method or a bicubic method may be used. The camera is expected to have functions such as zoom in, out, lens shift, and focal length movement, but it is obvious that the present invention can be applied to these operations.

視差バリアを備える3次元ディスプレイの表示範囲内に、表示対象物を歪みなく表示するための多視点画像取得が可能となる立体映像を表示する為の撮像画像の取得方法並びに取得された画像から立体映像を表示する方法及び装置を提供することができる。   A method for acquiring a captured image for displaying a stereoscopic image that enables acquisition of a multi-viewpoint image for displaying a display object without distortion within a display range of a three-dimensional display including a parallax barrier, and a three-dimensional image from the acquired image. A method and apparatus for displaying an image can be provided.

1...マルチカメラ、2...投影面、3−1,3−2、3−3...実物体、4―1〜4−n...レンズ、5―1〜5−n...撮像素子、7―1〜7−n...クリッピング領域、6...撮影範囲、30−1〜30−n...撮影部、40...画像処理部、42...撮影者用表示部、44...駆動回路、45...入力部、46...表示パネル、47...視差バリア、52...観察者用表示部、54...駆動回路部、55...入力部、56...表示パネル、57...視差バリア、60...要素画像領域   1. . . Multi camera, 2. . . Projection plane, 3-1, 3-2, 3-3. . . Real object, 4-1 to 4-n. . . Lenses, 5-1 to 5-n. . . Imaging device, 7-1 to 7-n. . . 5. clipping region; . . Shooting range, 30-1 to 30-n. . . Photographing section, 40. . . Image processing unit, 42. . . Photographer display section, 44. . . Drive circuit, 45. . . Input unit, 46. . . Display panel, 47. . . Parallax barrier, 52. . . Observer display section, 54. . . Drive circuit section, 55. . . Input unit, 56. . . Display panel, 57. . . Parallax barrier, 60. . . Element image area

Claims (5)

表示領域内に画素が行と列とのマトリックス状に並んだ表示部と、及び
前記表示部の前面に設置され、前記表示部が射出する光線の方向を制御する光学的制御部と、
を備え、制御される前記光線の方向に応じて定まる前記表示領域内の要素画像領域に、視差画像データを並び替えた要素画像データを表示することで立体画像を生成する第1の3次元表示装置と、
複数方向からの実物体の多視点画像を撮影するマルチカメラであって、特定の間隔で配置された複数の撮影部を有し、撮影基準面としての投影面を有するマルチカメラと、
このマルチカメラからの前記多視点画像を処理する画像処理部であって、前記多視点画像から、前記視差画像を生成するために利用する範囲に関するクリッピング領域情報に基づいて、前記多視点画像から前記視差画像として利用する範囲をクリッピングして視差画像データを生成する視差画像生成部と、
前記視差画像データの各画素の値前記要素画像データに並び替える並び替え処理部と、
前記多視点画像の撮影条件を記憶する撮影条件記憶部と、
前記実物体を投影面近傍に所望のサイズで表示するためのパラメータを調整する表示条件調節部と、
前記パラメータと前記撮影条件から、特定の立体像が表示されるための修正した撮影基準距離に関する情報を前記表示部に表示する画像を生成する画像処理部と、
を具備することを特徴とする立体映像表示装置。
A display unit in which pixels are arranged in a matrix of rows and columns in a display region ; and an optical control unit that is installed in front of the display unit and controls the direction of light emitted from the display unit ;
A first three-dimensional display that generates a stereoscopic image by displaying element image data in which parallax image data is rearranged in an element image area in the display area that is determined according to the direction of the light beam to be controlled Equipment,
A multi-camera for capturing multi-viewpoint images of real objects from a plurality of directions , having a plurality of photographing units arranged at specific intervals, and having a projection surface as a photographing reference plane;
An image processing unit for processing the multi-viewpoint images from the multi-camera, from said multi-viewpoint images, based on the clipping region information about the range utilized for generating the parallax image, said from the multi-viewpoint image A parallax image generation unit that generates parallax image data by clipping a range to be used as a parallax image;
A rearrangement processing unit that rearranges the values of the pixels of the parallax image data into the element image data ;
An imaging condition storage unit that stores the imaging conditions of the multi-viewpoint image,
A display condition adjusting unit for adjusting a parameter for displaying the real object in a desired size near the projection plane;
An image processing unit that generates an image for displaying information on the corrected shooting reference distance for displaying a specific stereoscopic image from the parameter and the shooting condition on the display unit;
A stereoscopic video display device comprising:
第2表示領域内に画素が行と列とのマトリックス状に並んだ第2表示部と、
前記第2表示部の前面に設置され、前記第2表示部が射出する光線の方向を制御する第2光学的制御部と、
を備え、前記第2表示領域内の領域であって前記第2光学的制御部によって制御される前記光線の方向に応じて定まる領域に、視差画像データを並び替えた要素画像データを表示することで立体画像を生成する第2の3次元表示装置と、
指示を入力するための入力部と、
を具備する請求項1に記載の立体映像表示装置。
A second display unit in which pixels are arranged in a matrix of rows and columns in the second display region;
A second optical control unit that is installed in front of the second display unit and controls a direction of a light beam emitted from the second display unit;
And displaying the element image data in which the parallax image data is rearranged in an area within the second display area and determined according to the direction of the light beam controlled by the second optical control unit. A second three-dimensional display device for generating a stereoscopic image with
An input unit for inputting instructions;
The stereoscopic video display apparatus according to claim 1, comprising:
前記表示条件調整部は、前記入力部にクリッピング条件に関する指示が入力された場合、入力されたクリッピング条件に基づいて前記パラメータを調整し、
前記視差画像生成部は、調整された前記パラメータに従った前記視差画像データを生成し、
前記画像処理部は、前記入力されたクリッピング条件に基づいて、仮想投影面を求め、前記仮想投影面を前記表示部に表示させることを特徴とする請求項2に記載の立体映像表示装置。
The display condition adjustment unit adjusts the parameter based on the input clipping condition when an instruction regarding the clipping condition is input to the input unit ,
The parallax image generation unit generates the parallax image data according to the adjusted parameters,
Wherein the image processing section, based on the input clipping conditions, determine the virtual projection plane, the stereoscopic image display device according to the virtual projection plane in claim 2, characterized in that causes the display on the display unit.
前記視差画像生成部は、前記表示条件調節部で設定された表示条件を反映した前記視差画像を生成する際に、前記多視点画像の撮影範囲が不足する場合には、既に得られている隣接する前記多視点画像の視差情報を前記不足する領域の画像に置換し、この置換した前記視差画像を着色することを特徴とする請求項3の立体映像表示装置。 The parallax image producing section, when generating the parallax image reflecting the set display condition on the display condition adjusting unit, wherein when the shooting range of the multi-view image is insufficient, adjacent already obtained wherein replacing the parallax information of the multi-view image in the image area to be insufficient the stereoscopic image display apparatus according to claim 3, characterized in that coloring the parallax images this substitutions. 前記表示条件調節部は、前記実物体をトラッキングするトラッキング処理部を含む、ことを特徴とする請求項1の立体映像表示装置。 The display condition adjusting unit, including a tracking processor to track the real object, the stereoscopic image display apparatus according to claim 1, characterized in that.
JP2011532887A 2009-09-28 2009-09-28 3D image display method and 3D image display apparatus Expired - Fee Related JP5296218B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066825 WO2011036813A1 (en) 2009-09-28 2009-09-28 Three-dimensional image displaying method and three-dimensional image displaying device

Publications (2)

Publication Number Publication Date
JPWO2011036813A1 JPWO2011036813A1 (en) 2013-02-14
JP5296218B2 true JP5296218B2 (en) 2013-09-25

Family

ID=43795583

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532887A Expired - Fee Related JP5296218B2 (en) 2009-09-28 2009-09-28 3D image display method and 3D image display apparatus

Country Status (3)

Country Link
US (1) US8614738B2 (en)
JP (1) JP5296218B2 (en)
WO (1) WO2011036813A1 (en)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5418093B2 (en) 2009-09-11 2014-02-19 ソニー株式会社 Display device and control method
JP5914992B2 (en) * 2011-06-02 2016-05-11 ソニー株式会社 Display control apparatus, display control method, and program
JP5880916B2 (en) 2011-06-03 2016-03-09 ソニー株式会社 Information processing apparatus, information processing method, and program
WO2013149629A1 (en) * 2012-04-03 2013-10-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. An autostereoscopic screen and method for reproducing a 3d image
US10116927B2 (en) 2012-09-26 2018-10-30 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Method for reproducing image information and autostereoscopic screen
JP2014106878A (en) * 2012-11-29 2014-06-09 Toshiba Corp Information processor, extension equipment and input control method
US20160330435A1 (en) * 2013-12-31 2016-11-10 Empire Technology Development Llc Three-dimensional display device using fluorescent material
WO2016132950A1 (en) * 2015-02-20 2016-08-25 ソニー株式会社 Image capturing device and image capturing method
JP5856344B1 (en) * 2015-07-27 2016-02-09 正樹 房間 3D image display device
CN106603906A (en) * 2016-10-28 2017-04-26 努比亚技术有限公司 Photographing parameter adjustment method and wearable-type equipment
JP2019149122A (en) * 2018-02-28 2019-09-05 ソニー株式会社 Information processing device, information processing method, and program
JP6837031B2 (en) * 2018-05-22 2021-03-03 Eizo株式会社 Stereoscopic image display device, stereoscopic image display method and program
US11516374B2 (en) * 2019-06-05 2022-11-29 Synaptics Incorporated Under-display image sensor
US11153513B2 (en) 2019-08-19 2021-10-19 Synaptics Incorporated Light source for camera
US11076080B2 (en) 2019-12-05 2021-07-27 Synaptics Incorporated Under-display image sensor for eye tracking

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (en) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd Stereoscopic electronic zoom device and stereoscopic picture quality controller
JP2004343290A (en) * 2003-05-14 2004-12-02 Sharp Corp Stereographic picture display device
JP2006013609A (en) * 2004-06-22 2006-01-12 Sharp Corp Multi-viewpoint stereoscopic image photographing device
JP2006270265A (en) * 2005-03-22 2006-10-05 Fuji Photo Film Co Ltd Compound-eye photographic instrument and its adjusting method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3944188B2 (en) 2004-05-21 2007-07-11 株式会社東芝 Stereo image display method, stereo image imaging method, and stereo image display apparatus
US7586534B2 (en) 2005-03-22 2009-09-08 Fujifilm Corporation Multi-eye image pickup device, adjusting method and device therefor, and image-area adjusting system and method
JP2009077234A (en) 2007-09-21 2009-04-09 Toshiba Corp Apparatus, method and program for processing three-dimensional image

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08317429A (en) * 1995-05-23 1996-11-29 Matsushita Electric Ind Co Ltd Stereoscopic electronic zoom device and stereoscopic picture quality controller
JP2004343290A (en) * 2003-05-14 2004-12-02 Sharp Corp Stereographic picture display device
JP2006013609A (en) * 2004-06-22 2006-01-12 Sharp Corp Multi-viewpoint stereoscopic image photographing device
JP2006270265A (en) * 2005-03-22 2006-10-05 Fuji Photo Film Co Ltd Compound-eye photographic instrument and its adjusting method

Also Published As

Publication number Publication date
WO2011036813A1 (en) 2011-03-31
US20120229610A1 (en) 2012-09-13
US8614738B2 (en) 2013-12-24
JPWO2011036813A1 (en) 2013-02-14

Similar Documents

Publication Publication Date Title
JP5296218B2 (en) 3D image display method and 3D image display apparatus
JP4328311B2 (en) Method and program for creating multi-viewpoint image for 3D image display
US7643552B2 (en) Method for displaying three-dimensional image, method for capturing three-dimensional image, and three-dimensional display apparatus
US8154587B2 (en) Apparatus and method of displaying the three-dimensional image
JP5456020B2 (en) Information processing apparatus and method
US20070121182A1 (en) Multi-viewpoint image generation apparatus, multi-viewpoint image generation method, and multi-viewpoint image generation program
US20080218856A1 (en) Stereoscopic display device and method
JP2003209858A (en) Stereoscopic image generating method and recording medium
JP2002095018A (en) Image display controller, image display system and method for displaying image data
JP2005110010A (en) Method for generating stereoscopic image and device for displaying stereoscopic image
JP2006113807A (en) Image processor and image processing program for multi-eye-point image
JP2010154052A (en) System for controlling a plurality of cameras
JPH06194758A (en) Method and apparatus for formation of depth image
RU2554299C2 (en) Apparatus for generating stereoscopic images
US9154771B2 (en) Apparatus for capturing stereoscopic image
JP4523538B2 (en) 3D image display device
JP2011215176A (en) Image processing apparatus and method
JP2013121050A (en) Imaging method, imaging apparatus, and program
JP2012042524A (en) Image processing device and its method
JP2005102198A (en) Three-dimensional video display apparatus, three-dimensional video display method and three-dimensional display video data generating method
JP2000295637A (en) Stereoscopic image display device
Michels et al. Creating realistic ground truth data for the evaluation of calibration methods for plenoptic and conventional cameras
KR101345129B1 (en) Apparatus for three-dimension image display and record
JP7329795B2 (en) Image supply device, image supply method, display system and program
Moon et al. Compensation of image distortion in Fresnel lens-based 3D projection display system using a curved screen

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130521

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130612

LAPS Cancellation because of no payment of annual fees