JP2010259017A - Display device, display method and display program - Google Patents
Display device, display method and display program Download PDFInfo
- Publication number
- JP2010259017A JP2010259017A JP2009109984A JP2009109984A JP2010259017A JP 2010259017 A JP2010259017 A JP 2010259017A JP 2009109984 A JP2009109984 A JP 2009109984A JP 2009109984 A JP2009109984 A JP 2009109984A JP 2010259017 A JP2010259017 A JP 2010259017A
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- viewer
- display device
- eye
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Devices For Indicating Variable Information By Combining Individual Elements (AREA)
- Stereoscopic And Panoramic Photography (AREA)
Abstract
Description
本発明は、表示装置、表示方法、および表示プログラムに関する。 The present invention relates to a display device, a display method, and a display program.
従来、立体的な画像(3D画像)を提示する技術の一つとして、物体をそれぞれ右眼および左眼から見たときの右眼用画像および左眼用画像を生成して、それぞれ観賞者の右眼および左眼に対してだけ表示する技術(ステレオ立体視技術)が知られている。 Conventionally, as one of techniques for presenting a stereoscopic image (3D image), an image for the right eye and an image for the left eye when the object is viewed from the right eye and the left eye, respectively, are generated. A technique for displaying only to the right eye and the left eye (stereo stereoscopic technique) is known.
ところで、ステレオ立体視技術は、視差情報を使用して観賞者に立体的画像を認識させるが、観賞位置によって観賞者へ不自然感を与えてしまう場合がある。特に裸眼において、表示装置は、複数の観賞者に対して違和感のない立体的画像を提供することは難しい。 By the way, although the stereo stereoscopic technique uses the parallax information to allow the viewer to recognize a stereoscopic image, the viewer may feel unnatural depending on the viewing position. Especially with the naked eye, it is difficult for the display device to provide a stereoscopic image that does not feel uncomfortable to a plurality of viewers.
そこで本発明は、上記の課題を解決することのできる表示装置、表示方法、および表示プログラムを提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。 Accordingly, an object of the present invention is to provide a display device, a display method, and a display program that can solve the above-described problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.
上記課題を解決するために、本発明の第1の態様においては、複数の観賞位置のそれぞれに対して観賞位置に応じた画像を表示する表示部と、2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、少なくとも1つの観賞位置について、表示部により、観賞者の左眼および右眼に対して左側画像および右側画像をそれぞれ表示させる表示処理部とを備える表示装置、並びに当該表示装置に関する表示方法、および表示プログラムを提供する。 In order to solve the above-described problem, in the first aspect of the present invention, a display unit that displays an image corresponding to each viewing position with respect to each of a plurality of viewing positions, and a two-dimensional image in the display area on the left and right. A generation unit that generates a shifted left image and right image, and a display processing unit that displays the left image and the right image on the left and right eyes of the viewer, respectively, with respect to at least one viewing position. Provided are a display device, a display method related to the display device, and a display program.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.
図1は、本実施形態に係る表示装置10の構成を示す。表示装置10は、2次元画像から表示用画像を生成し、複数方向に異なる画像を表示させる。一例として、表示装置10は、2次元画像に基づき、表示領域内において左右にずらした左側画像および右側画像を生成する。そして、表示装置10は、右眼に対して出力する画像および当該観賞者の左眼に対して出力する画像を生成することにより、立体的に見えうる画像を生成する。ここで、表示装置10は、デジタルフォトフレーム、テレビ受像機およびPC用モニタ等の表示装置であってよい。なお、与えられる2次元画像は、静止画像であっても、時間的に連続する複数の静止画像を含む動画像であってもよい。
FIG. 1 shows a configuration of a
表示装置10は、生成部100と、検出部110と、表示処理部120と、表示部130を備える。生成部100は、外部の装置、または、表示装置10内に設けられた記憶媒体若しくは表示装置10に装着された記録媒体から、2次元画像を取得する。そして、生成部100は、2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する。
The
本実施形態においては、生成部100は、2次元画像を、2次元画像内の各対象物に依存しない大きさ分外枠に対して相対的に位置をずらして左側画像および右側画像を生成する。より具体的には、生成部100は、同一の2次元画像を、表示領域内において左右に瞳孔間距離以下の距離分ずらした左側画像および右側画像を生成する。生成部100は、一例として、元の2次元画像を、瞳孔間距離の約1/2の距離分左方向にずらして左側画像を生成する。そして、生成部100は、元の2次元画像を瞳孔間距離の約1/2の距離分右方向にずらして右側画像を生成する。
In the present embodiment, the
これに代えて、生成部100は、2次元画像内の位置に応じて予め定められたずれ量分左右にずらした左側画像および右側画像を生成してもよい。また、生成部100は、元の2次元画像を左方向にずらして生成された左側画像における、表示領域の左側境界から左側にはみ出した部分を削除してもよい。さらに、生成部100は、元の2次元画像を右方向にずらして生成された右側画像における、表示領域の右側境界から右側にはみ出した部分を削除してもよい。
Instead of this, the
また、生成部100は、左側画像および右側画像が表示される外縁に設ける外枠の画像を生成してもよい。ここで、生成部100は、左側画像および右側画像が表示される各表示領域の周囲における、少なくとも一部に設けられる外枠として表示される外枠画像を生成してもよい。
In addition, the
この場合、表示装置10は、表示部130が左側画像および右側画像の外縁の少なくとも一部、すなわち例えば、外枠画像を表示しない部分に設けられる外枠部としても機能する。従って、表示装置10は、左側画像および右側画像に対し外枠を介して観賞させることができる。即ち、表示装置10は、外枠の内側に左側画像および右側画像を表示することができる。これにより、表示装置10によれば、左側画像および右側画像の周囲部分が途切れて見える感覚を観賞者に与えることなく、自然な左側画像および右側画像を提供することができる。
In this case, the
なお、生成部100は、左側画像および右側画像の間のずれ量より小さいずれ量を与えた左側外枠画像および右側外枠画像を生成してもよい。ここで、生成部100は、生成部は、ずれ量が0である左側外枠画像および右側外枠画像を生成してもよい。これにより、表示装置10は、左側画像および右側画像の表示対象物よりも手前(観賞者側)に外枠を表示して、より自然な左側画像および右側画像を観賞者に提供することができる。
Note that the
検出部110は、観賞者の位置を検出する。検出部110は、観賞者が、複数の観賞位置の少なくとも1つから予め定められた範囲内に位置するか否かを検出する。そして、検出部110は、検出した1または複数の観賞者の位置情報を、表示処理部120へ供給する。
The detection unit 110 detects the position of the viewer. The detection unit 110 detects whether or not the viewer is located within a predetermined range from at least one of the plurality of viewing positions. Then, the detection unit 110 supplies the detected position information of one or more viewers to the
ここで、検出部110は、予め定められた範囲として、それぞれの観賞位置に対して表示した画像が逆視状態、すなわち左側画像が右眼に見え右側画像が左眼に見える状態とならない範囲を用いてもよい。検出部110は、一例として、人感センサ、赤外線センサまたは光センサを有し、センサによって人物を検出する。また、検出部110は、観賞者の顔等の特徴部分を認識することにより、少なくとも1人の観賞者を特定してもよい。 Here, the detection unit 110 has, as a predetermined range, a range in which an image displayed with respect to each viewing position is in a reverse viewing state, that is, a range in which the left image is visible to the right eye and the right image is not visible to the left eye. It may be used. The detection unit 110 includes, for example, a human sensor, an infrared sensor, or an optical sensor, and detects a person using the sensor. Further, the detection unit 110 may identify at least one viewer by recognizing a characteristic portion such as the face of the viewer.
これに代えて、検出部110は、表示装置10の前面方向の画像を撮像する撮像装置を有し、撮像した画像内に写った人物の位置および大きさから、当該人物の位置およびまたは表示装置10からの距離を求めてもよい。以上に示した表示装置10は、通常は2次元画像を表示する一方で、立体的画像の観賞位置に近づいた観賞者に対しては、立体的な画像を提供できる。
Instead, the detection unit 110 includes an imaging device that captures an image in the front direction of the
表示処理部120は、少なくとも1つの観賞位置についてまたは複数の観賞位置のそれぞれに対して、表示部130により、観賞者の左眼および右眼に対して左側画像および右側画像をそれぞれ表示させる。さらに、表示処理部120は、一例として、表示画像の外縁に設ける外枠の画像を表示部130により、観賞者の左眼および右眼に対して左側外枠画像および右側外枠画像として更にそれぞれ表示させる。
The
また、表示処理部120は、当該表示装置10が左側画像および右側画像を表示する場合に表示部130により外枠画像を表示させて、当該表示装置10が2次元画像を立体的に表示しない場合に表示部130から外枠画像を表示させなくもよい。表示処理部120は、一例として、検出部110から観賞者の位置情報等のパラメータを取得して、外枠画像の表示を切り替える。これにより、表示装置10は、左側画像および右側画像を提供しない場合において、有効な表示領域を広くすることができる。
The
表示部130は、1または複数の観賞位置のそれぞれに対して検出部110によって検出した観賞位置に応じた2次元画像、または左側画像および右側画像を表示する。このような表示装置10は、観賞者の観賞位置に応じて左側画像を観賞者の左眼に対して出力し、右側画像を観賞者の右眼に対して出力することができる。
The
図2は、表示装置10がパララックスバリア方式により立体的な画像を表示する場合の一例を示す。パララックスバリア方式においては、表示部130は、右眼用画素および左眼用画素が水平方向において交互に配列された表示パネルを有する。
FIG. 2 shows an example in which the
また、表示部130は、表示パネルの前面、すなわち表示パネルより観賞者側に、水平方向において光を透過する箇所および光を遮断する箇所が交互に設けられたパララックスバリアを有する。パララックスバリアは、観賞位置に位置する観賞者の右眼に対して右眼用画素からの光を通して左眼用画素からの光を遮断すると共に、観賞者の左眼に対して右眼用画素からの光を遮断して左眼用画素からの光を通す。
The
表示処理部120は、表示部130の表示パネルにおける右眼用画素の配列により右側画像を表示させる。また、表示処理部120は、表示部130の表示パネルにおける左眼用画素の配列により左側画像を表示させる。これにより、表示処理部120は、観賞者の右眼に対して右側画像を表示させ、左眼に対して左側画像を表示させることができる。
The
本図においては、以上に示した通り、表示パネルの表示領域内の同一座標に位置する画素領域毎に、右眼用画素および左眼用画素を1つずつ設けている。したがって、本図においては、1つの観賞位置について右眼用画像および左眼用画像を鑑賞者の右眼および左眼に対して提供することができる。 In the figure, as described above, one pixel for the right eye and one pixel for the left eye are provided for each pixel region located at the same coordinates in the display region of the display panel. Therefore, in this figure, the image for the right eye and the image for the left eye can be provided to the viewer's right eye and left eye for one viewing position.
これに代えて、表示部130は、表示領域内の同一座標に位置する画素領域毎に、複数の観賞位置に対応した複数の左眼用画素および複数の右眼用画素を有してもよい。この場合、表示処理部120は、表示部130内のそれぞれの画素領域について、複数の左眼用画素の画素値を左側画像における対応する位置の画素の画素値とし、複数の右眼用画素の画素値を右側画像における対応する位置の画素の画素値としてよい。これにより、表示処理部120は、複数の観賞位置に対して同じ右側画像および左側画像を提供することができる。
Instead, the
また、表示処理部120は、それぞれの画素領域について、少なくとも1つの観賞位置に対する左眼用画素の画素値を左側画像における対応する位置の画素の画素値とし、右眼用画素の画素値を右側画像における対応する位置の画素の画素値としてもよい。そして、表示処理部120は、それぞれの画素領域について、他の観賞位置に対する左眼用画素および右眼用画素の画素値を、2次元画像における対応する位置の画素の画素値とする。これにより、表示処理部120は、一部の観賞位置に対しては右側画像および左側画像によって立体的に画像を表示すると共に、他の観賞位置に対しては2次元画像を表示することができる。
Further, for each pixel region, the
以上において、表示処理部120は、右側画像および左側画像の一方を受け取って、受け取った画像の各画素の画素値を、右眼用画素および当該右眼用画素から予め設定されたずれ量分ずれた画素領域内の対応する左眼用画素の両方に対して反映してもよい。具体的には、表示処理部120は、表示パネルにおける水平ライン上の各画素を対応する画素値で駆動する場合に、列位置Xの画素領域に位置する左眼用画素と、列位置(X+ずれ量)の画素領域に位置する右眼用画素の両方を、同一の画素値で駆動する。
In the above, the
以上に示した表示処理部120によれば、1または複数の観賞位置のそれぞれに対して、右側画像および左側画像を提供することができる。なお、表示部130は、パララックスバリア方式に代えて、レンティキュラ方式またはその他の方式により右側画像および左側画像を鑑賞者の右眼および左眼に対して表示してもよい。
According to the
図3は、表示装置10が表示する左側画像および右側画像の一例を示す。表示装置10は、生成部100が表示領域内において左右に瞳孔間距離以下の距離分ずらしたまたは2次元画像内の位置に応じて予め定められたずれ量分左右にずらして生成した、左側画像および右側画像をそれぞれ観賞者の左眼および右眼へ与える。
FIG. 3 shows an example of the left image and the right image displayed by the
ここで、瞳孔間距離は、人間が、左眼で見た左側画像の表示物と右眼で見た右側画像の表示物とを融合して一つの像として認識することができ、且つ、融合した像を無限遠に認識する距離である。瞳孔間距離は、一般に、観賞者の両眼の視線が並行となった場合の瞳間の距離(40mmから90mm)である。従って、生成部100は、2次元画像を表示領域内において左右に0より大きく90mm以下の距離分ずらした左側画像および右側画像を生成する。
Here, the interpupillary distance allows a human to recognize a left image viewed with the left eye and a right image viewed with the right eye as a single image, and merged. This is the distance to recognize the image at infinity. The interpupillary distance is generally the distance between the pupils (40 mm to 90 mm) when the eyes of the viewer's eyes are parallel. Accordingly, the
なお、人間は、両眼の視線が並行状態から左右に2〜3度程度開いた状態でも、両眼融合視をできる場合がある。従って、瞳孔間距離は、左眼の視線が並行状態から左側に3度以下(好ましくは2度)、右眼の視線が並行状態から右側に3度以下(好ましくは2度)ずれる距離であってもよい。ただし、このような場合、表示面上における瞳孔間距離は、観賞者と表示面との間の距離が遠くなるほど長くなる。 Note that a human may be able to perform binocular fusion even when the line of sight of both eyes is opened from the parallel state to the left and right by about 2 to 3 degrees. Therefore, the interpupillary distance is a distance by which the left eye gaze deviates by 3 degrees or less (preferably 2 degrees) to the left from the parallel state, and the right eye gaze deviates by 3 degrees or less (preferably 2 degrees) from the parallel state to the right. May be. However, in such a case, the interpupillary distance on the display surface increases as the distance between the viewer and the display surface increases.
ここで、表示部130が2次元画像を表示する表示領域は、一例として、テレビ受像機の表示面、コンピュータのモニタ内に表示された1つのウィンドウ領域等の1つの画面上に形成された領域である。生成部100は、一例として、与えられた2次元画像の画素サイズと表示領域の大きさとに応じて、左側画像および右側画像間の表示領域上における距離が瞳孔間距離となるように、左側画像と右側画像と間のデータ上における距離を変更してもよい。
Here, the display area on which the
図4は、左側画像上の表示点、右側画像上の表示点、及び、観賞者により知覚される像の一例を示す。人間が近距離の2次元画像を見ている場合、左眼に与えられている画像と右眼に与えられているが画像とは同一ではなく視差がある。人間は、この視差から、見ているものが2次元画像であると認識する。 FIG. 4 shows an example of a display point on the left image, a display point on the right image, and an image perceived by the viewer. When a human is looking at a two-dimensional image at a short distance, the image given to the left eye and the right eye are not the same but have parallax. From this parallax, a human recognizes that what he is looking at is a two-dimensional image.
また、人間が無限遠(例えば10m以上)の物体を見ている場合、左眼に与えられている画像と右眼に与えられているが画像とは、視差がなく同一となる。人間は、無限遠を見ている場合、左眼に与えられている画像と右眼に与えられている画像との間に視差が無いことにより、見ている物体及び景色等に立体感および臨場感を感じる。 Further, when a human is looking at an object at infinity (for example, 10 m or more), the image given to the left eye and the image given to the right eye are the same with no parallax. When a human is looking at infinity, there is no parallax between the image given to the left eye and the image given to the right eye. I feel a feeling.
表示装置10は、観賞者の瞳孔間距離または予め定められたずれ量と同じだけ左右に距離ずらした視差のない(即ち、互いに同じ)右側画像および左側画像を生成する。そして、表示装置10は、左側画像を観賞者の左眼に与え、右側画像を観賞者の右眼に与える。この結果、表示装置10は、観賞者の左眼および右眼の視線を平行状態とする、即ち、観賞者の視線を輻輳させない(左眼および右眼の視線を交差させない)状態とすることができる。これにより、表示装置10は、観賞者を、無限遠を見ている状態にすることができる。即ち、例えば、図4に示されるように、表示装置10は、観賞者に、A点(黒丸の点)およびB点(三角の点)をともに無限遠に位置する点として知覚させることができる。
The
このように表示装置10は、観賞者に無限遠を見ている状態として且つ左眼と右眼とに視差のない画像を与えることにより、観賞者に立体的を感じる画像を提供することができる。例えば、表示装置10は、例えば風景画像等に、窓から外を見たような臨場感を与えることができる。また、表示装置10は、マクロ撮影などの近距離撮影の画像に、虫眼鏡でみたような実物感を与えることができる。
In this way, the
表示装置10が、以上のような臨場感および実物感といった現実感を画像に与えることができる理由は、以下のように推定される。表示装置10は、観賞者の視線を輻輳させないので、視差による像の位置の特定をさせることができない。しかし、視差が無い場合であっても、人間は、経験常識から導き出される実際の対象物の大きさと画角から、像の位置を推定している。そして、人間は、このような位置の推定を無意識かつ瞬時に行い、立体感とともに実寸の感覚を得る。従って、表示装置10は、観賞者の視線を輻輳させなくても、以上のような現実感を画像に与えることができると推定される。
The reason why the
また、人間は、動画像を見ている場合、遠くの物体は動きが小さく、近くの物体は動きが大きく感じる。人間は、動画像を見ている場合、視差よりも、このような物体の動きに、より強く立体感を感じる。従って、表示装置10は、動画像を表示させる場合には、観賞者に立体感をより強く感じさせることができる。
Further, when a human sees a moving image, a far object feels small movement, and a nearby object feels large movement. When a human sees a moving image, he / she feels a three-dimensional effect more strongly in the movement of such an object than in parallax. Therefore, when displaying a moving image, the
さらに、表示装置10は、書割り効果と呼ばれる平面が立って見える現象、および、箱庭効果と呼ばれる、奥行きおよび飛び出し感を強調することによって画面の横方向の拡がり感を低下させる現象を発生させない。従って、表示装置10によれば、自然な立体感および臨場感を有する立体的画像を提供することができる。
Further, the
また、表示装置10は、観賞者の視線を輻輳させないので、視覚の輻輳と調節との不一致が生じず、不快感を少なくすることができる。また、表示装置10は、画面よりも遠い位置に立体像を知覚させるので、枠(例えば、窓枠および虫眼鏡の枠等)を通してみるような感覚を観賞者に与えることができる。従って、表示装置10によれば、画面より前に飛び出して見える像が画面枠で不自然に切断される現象が生じず、自然な立体的画像を観賞者に提供することができる。
In addition, since the
図5は、左側画像または右側画像の一方のみが表示される非対応領域およびクロストークの一例を示す。外枠画像を表示しない場合における表示領域の左辺部分には、1枚の2次元画像を左右にずらして右側画像および左側画像を生成した場合における左側画面は表示されるが右側画面は表示されない領域(即ち、右側画像および左側画像が重ならない非対応領域)が存在する。同様に、外枠画像を表示しない場合における表示領域の右辺部分には、右側画面は表示されるが左側画面は表示されない非対応領域が存在する。 FIG. 5 shows an example of a non-corresponding region and crosstalk in which only one of the left image or the right image is displayed. In the left side portion of the display area when the outer frame image is not displayed, the left screen is displayed but the right screen is not displayed when the right image and the left image are generated by shifting one two-dimensional image left and right. (That is, a non-corresponding region where the right image and the left image do not overlap). Similarly, a non-corresponding area where the right screen is displayed but the left screen is not displayed exists in the right side portion of the display area when the outer frame image is not displayed.
また、表示領域の右端から瞳孔間距離分内側の位置、および、表示領域の左端から瞳孔間距離分内側の位置には、縦方向の線に見えるクロストーク(またはゴースト)が観察される。このような非対応領域およびクロストークは、観賞者に不自然感を与えてしまう。 Further, crosstalk (or ghost) that appears as a vertical line is observed at a position inside the pupil distance from the right end of the display area and a position inside the pupil distance from the left end of the display area. Such a non-corresponding region and crosstalk give the viewer an unnatural feeling.
図6は、外枠画像の一例を示す。そこで、生成部100は、表示用画像に含まれる少なくとも非対応領域およびクロストークを覆う外枠画像を生成することが好ましい。即ち、生成部100は、左辺および右辺のそれぞれの枠幅が少なくとも瞳孔間距離以上である外枠画像を生成することが好ましい。これにより表示装置10によれば、左側画像および右側画像において不自然感を与える非対応領域およびクロストーク部分を隠して、観賞者に自然な左側画像および右側画像を提供することができる。
FIG. 6 shows an example of the outer frame image. Therefore, the
また、生成部100は、外枠の一部の画像を生成してもよい。これにより、生成部100は、表示装置が有する外枠と合わせて、左側画像および右側画像の外枠を形成することができる。また、生成部100は、左辺部分および右辺部分のみを有する外枠画像を生成してもよい。即ち、上辺部分および下辺部分を有さない外枠画像を生成してもよい。これにより、表示装置10は、少なくとも非対応領域およびクロストーク部分を隠した左側画像および右側画像を提供することができる。
The
図7は、表示装置10が観賞者に対して立体的画像を与える観賞範囲の一例を示す。表示装置10内の表示処理部120は、観賞者が存在する立体的画像の観賞位置において、表示部130により、観賞者の左眼および右眼に対して左側画像および右側画像をそれぞれ表示させ、他の観賞位置については、表示部130により、2次元画像を表示させる。ここで、表示処理部120は、一例として、観賞者が範囲内に位置する観賞位置について、表示部130により、観賞者の左眼および右眼に対して左側画像および右側画像をそれぞれ表示させる。
FIG. 7 shows an example of the viewing range in which the
本例では、表示装置10は、図に示す観賞位置700a、700bおよび700cから予め定められた観賞範囲内に位置する一人の観賞者の左眼および右眼に対して左側画像および右側画像を与える。この場合、表示装置10は、観賞範囲700aから観賞範囲な内に位置する観賞者Aの左眼および右眼に対して左側画像および右側画像を与える。一方、700a、700bおよび700cの観賞範囲外に位置する観賞者B、観賞者Cおよび観賞者Dの眼に対しては2次元画像を与える。
In this example, the
表示装置10は、700a、700bおよび700cのうち2つ以上の観賞位置から所定の観賞範囲内に位置する複数の観賞者に対して、立体的画像を表示してもよい。これによって、表示装置10は、観賞者が観賞範囲外に位置する場合は2次元画像を観賞者に与えて、観賞範囲内に位置する場合には、立体的画像を観賞者に与えることができる。
The
また、表示処理部120は、表示装置10が指定する観賞範囲(700a、700bおよび700c)に近づいた観賞者に対しては立体的画像を表示する一方、遠くの観賞者に対しては2次元画像を表示してもよい。これによって、表示装置10は、観賞範囲内に位置する観賞者の眼に対して左側画像および右側画像を提供できる。さらに、表示装置10は、観賞範囲外に位置する観賞者の眼に対して2次元画像を提供できる。これに代えて、表示装置10は、当該表示装置10の設定によって、いずれかの観賞位置の観賞範囲内に位置する観賞者または観賞範囲内に近づいた観賞者に対して立体的画像を表示すると共に、その他の観賞者に対して2次元画像を表示するモードと、観賞者を検出した場合に、全観賞位置に対して立体的画像を表示するモードとを備えていてもよい。
In addition, the
また、表示処理部120は、検出部110により特定された鑑賞者が2以上の観賞位置間を移動した場合に、移動元の観賞位置に対して表示した左側画像および右側画像を移動先の観賞位置に対して表示させてもよい。これによって、表示装置10は、検出部110によって特定した観賞者に対して、表示装置10の観賞範囲内であれば、当該観賞者がどの位置へ移動しても、当該観賞者を追跡して同じ立体画像を提供できる。
Further, when the viewer specified by the detection unit 110 moves between two or more viewing positions, the
図8は、本実施形態に係るコンピュータ1900のハードウェア構成の一例を示す。本実施形態に係るコンピュータ1900は、ホスト・コントローラ2082により相互に接続されるCPU2000、RAM2020、グラフィック・コントローラ2075、及び表示装置2080を有するCPU周辺部と、入出力コントローラ2084によりホスト・コントローラ2082に接続される通信インターフェイス2030、ハードディスク・ドライブ2040、及びDVDドライブ2060を有する入出力部と、入出力コントローラ2084に接続されるROM2010、フレキシブルディスク・ドライブ2050、及び入出力チップ2070を有するレガシー入出力部とを備える。
FIG. 8 shows an example of a hardware configuration of a
ホスト・コントローラ2082は、RAM2020と、高い転送レートでRAM2020をアクセスするCPU2000及びグラフィック・コントローラ2075とを接続する。CPU2000は、ROM2010及びRAM2020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィック・コントローラ2075は、CPU2000等がRAM2020内に設けたフレーム・バッファ上に生成する画像データを取得し、表示装置2080上に表示させる。これに代えて、グラフィック・コントローラ2075は、CPU2000等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
The
入出力コントローラ2084は、ホスト・コントローラ2082と、比較的高速な入出力装置である通信インターフェイス2030、ハードディスク・ドライブ2040、DVDドライブ2060を接続する。通信インターフェイス2030は、ネットワークを介して他の装置と通信する。ハードディスク・ドライブ2040は、コンピュータ1900内のCPU2000が使用するプログラム及びデータを格納する。DVDドライブ2060は、DVD2095からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。
The input /
また、入出力コントローラ2084には、ROM2010と、フレキシブルディスク・ドライブ2050、及び入出力チップ2070の比較的低速な入出力装置とが接続される。ROM2010は、コンピュータ1900が起動時に実行するブート・プログラム、及び/又は、コンピュータ1900のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ2050は、フレキシブルディスク2090からプログラム又はデータを読み取り、RAM2020を介してハードディスク・ドライブ2040に提供する。入出力チップ2070は、フレキシブルディスク・ドライブ2050を入出力コントローラ2084へと接続すると共に、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を入出力コントローラ2084へと接続する。
The input /
RAM2020を介してハードディスク・ドライブ2040に提供されるプログラムは、フレキシブルディスク2090、DVD2095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、記録媒体から読み出され、RAM2020を介してコンピュータ1900内のハードディスク・ドライブ2040にインストールされ、CPU2000において実行される。
A program provided to the
コンピュータ1900にインストールされ、コンピュータ1900を表示装置10の制御用コンピュータとして機能させるプログラムは、生成モジュールと、検出モジュールと、表示処理モジュールとを備える。これらのプログラム又はモジュールは、CPU2000等に働きかけて、コンピュータ1900を、生成部100と、検出部110と、表示処理部120としてそれぞれ機能させる。
A program that is installed in the
これらのプログラムに記述された情報処理は、コンピュータ1900に読込まれることにより、ソフトウェアと上述した各種のハードウェア資源とが協働した具体的手段である生成部100と、検出部110と、表示処理部120として機能する。そして、これらの具体的手段によって、本実施形態におけるコンピュータ1900の使用目的に応じた情報の演算又は加工を実現することにより、使用目的に応じた特有の表示装置10が構築される。
The information processing described in these programs is read into the
一例として、コンピュータ1900と外部の装置等との間で通信を行う場合には、CPU2000は、RAM2020上にロードされた通信プログラムを実行し、通信プログラムに記述された処理内容に基づいて、通信インターフェイス2030に対して通信処理を指示する。通信インターフェイス2030は、CPU2000の制御を受けて、RAM2020、ハードディスク・ドライブ2040、フレキシブルディスク2090、又はDVD2095等の記憶装置上に設けた送信バッファ領域等に記憶された送信データを読み出してネットワークへと送信し、もしくは、ネットワークから受信した受信データを記憶装置上に設けた受信バッファ領域等へと書き込む。このように、通信インターフェイス2030は、DMA(ダイレクト・メモリ・アクセス)方式により記憶装置との間で送受信データを転送してもよく、これに代えて、CPU2000が転送元の記憶装置又は通信インターフェイス2030からデータを読み出し、転送先の2030又は記憶装置へとデータを書き込むことにより送受信データを転送してもよい。
As an example, when communication is performed between the
また、CPU2000は、ハードディスク・ドライブ2040、DVDドライブ2060(DVD2095)、フレキシブルディスク・ドライブ2050(フレキシブルディスク2090)等の外部記憶装置に格納されたファイルまたはデータベース等の中から、全部または必要な部分をDMA転送等によりRAM2020へと読み込ませ、RAM2020上のデータに対して各種の処理を行う。そして、CPU2000は、処理を終えたデータを、DMA転送等により外部記憶装置へと書き戻す。このような処理において、RAM2020は、外部記憶装置の内容を一時的に保持するものとみなせるから、本実施形態においてはRAM2020および外部記憶装置等をメモリ、記憶部、または記憶装置等と総称する。本実施形態における各種のプログラム、データ、テーブル、データベース等の各種の情報は、このような記憶装置上に格納されて、情報処理の対象となる。なお、CPU2000は、RAM2020の一部をキャッシュメモリに保持し、キャッシュメモリ上で読み書きを行うこともできる。このような形態においても、キャッシュメモリはRAM2020の機能の一部を担うから、本実施形態においては、区別して示す場合を除き、キャッシュメモリもRAM2020、メモリ、及び/又は記憶装置に含まれるものとする。
In addition, the
また、CPU2000は、RAM2020から読み出したデータに対して、プログラムの命令列により指定された、本実施形態中に記載した各種の演算、情報の加工、条件判断、情報の検索・置換等を含む各種の処理を行い、RAM2020へと書き戻す。例えば、CPU2000は、条件判断を行う場合においては、本実施形態において示した各種の変数が、他の変数または定数と比較して、大きい、小さい、以上、以下、等しい等の条件を満たすかどうかを判断し、条件が成立した場合(又は不成立であった場合)に、異なる命令列へと分岐し、またはサブルーチンを呼び出す。
In addition, the
また、CPU2000は、記憶装置内のファイルまたはデータベース等に格納された情報を検索することができる。例えば、第1属性の属性値に対し第2属性の属性値がそれぞれ対応付けられた複数のエントリが記憶装置に格納されている場合において、CPU2000は、記憶装置に格納されている複数のエントリの中から第1属性の属性値が指定された条件と一致するエントリを検索し、そのエントリに格納されている第2属性の属性値を読み出すことにより、所定の条件を満たす第1属性に対応付けられた第2属性の属性値を得ることができる。
Further, the
以上に示したプログラム又はモジュールは、外部の記録媒体に格納されてもよい。記録媒体としては、フレキシブルディスク2090、DVD2095の他に、DVD又はCD等の光学記録媒体、MO等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワーク又はインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムをコンピュータ1900に提供してもよい。
The program or module shown above may be stored in an external recording medium. As the recording medium, in addition to the
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.
特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.
10 表示装置、100 生成部、110 検出部、120 表示処理部、130 表示部、1900 コンピュータ、2000 CPU、2010 ROM、2020 RAM、2030 通信インターフェイス、2040 ハードディスク・ドライブ、2050 フレキシブルディスク・ドライブ、2060 DVDドライブ、2070 入出力チップ、2075 グラフィック・コントローラ、2080 表示装置、2082 ホスト・コントローラ、2084 入出力コントローラ、2090 フレキシブルディスク、2095 DVD
DESCRIPTION OF
Claims (13)
2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、
少なくとも1つの観賞位置について、前記表示部により、観賞者の左眼および右眼に対して前記左側画像および前記右側画像をそれぞれ表示させる表示処理部と、
を備える表示装置。 A display unit that displays an image according to the viewing position for each of a plurality of viewing positions;
A generating unit that generates a left image and a right image obtained by shifting the two-dimensional image left and right within the display area;
A display processing unit that displays the left image and the right image on the left and right eyes of the viewer with respect to at least one viewing position;
A display device comprising:
請求項1に記載の表示装置。 The display device according to claim 1, wherein the display processing unit causes the display unit to display the left image and the right image for the left eye and the right eye of the viewer, respectively, for each of the plurality of viewing positions. .
前記表示処理部は、それぞれの画素領域について、前記複数の左眼用画素の画素値を前記左側画像における対応する位置の画素の画素値とし、前記複数の右眼用画素の画素値を前記右側画像における対応する位置の画素の画素値とする
請求項2に記載の表示装置。 The display unit includes a plurality of left-eye pixels and a plurality of right-eye pixels corresponding to a plurality of viewing positions for each pixel region located at the same coordinates in the display region,
For each pixel region, the display processing unit uses the pixel values of the plurality of left-eye pixels as pixel values of corresponding pixels in the left image, and sets the pixel values of the plurality of right-eye pixels to the right side. The display device according to claim 2, wherein a pixel value of a pixel at a corresponding position in the image is used.
前記表示処理部は、前記観賞者が存在する観賞位置については、前記表示部により、観賞者の左眼および右眼に対して前記左側画像および前記右側画像をそれぞれ表示させ、他の観賞位置については、前記表示部により、前記2次元画像を表示させる
請求項1から3のいずれかに記載の表示装置。 A detection unit for detecting the presence or absence of a viewer at the plurality of viewing positions;
The display processing unit causes the display unit to display the left image and the right image for the left eye and the right eye of the viewer respectively for the viewing position where the viewer is present, and for other viewing positions. The display device according to claim 1, wherein the display unit displays the two-dimensional image.
前記表示処理部は、前記観賞者が前記範囲内に位置する観賞位置について、前記表示部により、観賞者の左眼および右眼に対して前記左側画像および前記右側画像をそれぞれ表示させる
請求項4に記載の表示装置。 The detection unit detects whether the viewer is located within a predetermined range from at least one of the plurality of viewing positions;
The display processing unit causes the display unit to display the left image and the right image for the left eye and the right eye of the viewer, respectively, with respect to the viewing position where the viewer is located within the range. The display device described in 1.
前記表示処理部は、前記検出部により特定された前期鑑賞者が2以上の前記観賞位置間を移動した場合に、移動元の前記観賞位置に対して表示した前期左側画像および前記右側画像を移動先の前記観賞位置に対して表示させる
請求項4または5に記載の表示装置。 The detection unit identifies at least one viewer;
The display processing unit moves the previous left side image and the right side image displayed with respect to the viewing position of the movement source when the previous period viewer specified by the detection unit moves between two or more viewing positions. The display device according to claim 4, wherein display is performed with respect to the previous viewing position.
請求項1から6のいずれかに記載の表示装置。 The display device according to claim 1, wherein the display processing unit further causes the display unit to display an image of an outer frame provided at an outer edge of the display image.
請求項7に記載の表示装置。 The generation unit generates the left image and the right image by shifting the position of the two-dimensional image relative to the outer frame by a size that does not depend on each object in the two-dimensional image. Item 8. The display device according to Item 7.
請求項1から8のいずれかに記載の表示装置。 The display device according to claim 1, wherein the generation unit generates the left image and the right image that are shifted to the left and right by a predetermined shift amount according to a position in the two-dimensional image.
前記表示処理部は、前記表示部により、観賞者の左眼および右眼に対して前記左側外枠画像および前記右側外枠画像を更にそれぞれ表示させる
請求項7から9のいずれかに記載の表示装置。 The generating unit generates a left outer frame image and a right outer frame image that are given a shift amount smaller than a shift amount between the left image and the right image;
10. The display according to claim 7, wherein the display processing unit causes the display unit to further display the left outer frame image and the right outer frame image for the left and right eyes of the viewer respectively. apparatus.
請求項10に記載の表示装置。 The display device according to claim 10, wherein the generation unit generates the left outer frame image and the right outer frame image in which the shift amount is zero.
前記コンピュータを、
複数の観賞位置のそれぞれに対して観賞位置に応じた画像を表示する表示部と、
2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成部と、
少なくとも1つの観賞位置について、前記表示部により、観賞者の左眼および右眼に対して前記左側画像および前記右側画像をそれぞれ表示させる表示処理部と
して機能させる表示プログラム。 A display program for causing a computer to function as a display device,
The computer,
A display unit that displays an image according to the viewing position for each of a plurality of viewing positions;
A generating unit that generates a left image and a right image obtained by shifting the two-dimensional image left and right within the display area;
A display program that causes the display unit to function as a display processing unit that displays the left image and the right image with respect to the left eye and right eye of the viewer with respect to at least one viewing position.
2次元画像を表示領域内において左右にずらした左側画像および右側画像を生成する生成ステップと、
少なくとも1つの観賞位置について、前記表示ステップにより、観賞者の左眼および右眼に対して前記左側画像および前記右側画像をそれぞれ表示させる表示処理ステップと、
を備える表示方法。 A display step of displaying an image according to the viewing position for each of the plurality of viewing positions;
Generating a left image and a right image obtained by shifting the two-dimensional image left and right within the display area;
A display processing step of displaying the left image and the right image on the left and right eyes of the viewer, respectively, with respect to at least one viewing position;
A display method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009109984A JP2010259017A (en) | 2009-04-28 | 2009-04-28 | Display device, display method and display program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009109984A JP2010259017A (en) | 2009-04-28 | 2009-04-28 | Display device, display method and display program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010259017A true JP2010259017A (en) | 2010-11-11 |
Family
ID=43319382
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009109984A Pending JP2010259017A (en) | 2009-04-28 | 2009-04-28 | Display device, display method and display program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010259017A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2011043022A1 (en) * | 2009-10-08 | 2011-04-14 | 株式会社ニコン | Image display device and image display method |
WO2012124150A1 (en) * | 2011-03-11 | 2012-09-20 | オムロン株式会社 | Video display device |
WO2012161054A1 (en) * | 2011-05-23 | 2012-11-29 | 株式会社東芝 | Medical image diagnosis device, image processing device, and ultrasound diagnosis device |
JP2016066369A (en) * | 2015-12-08 | 2016-04-28 | 株式会社Pfu | Information processing device, method, and program |
WO2018109991A1 (en) * | 2016-12-12 | 2018-06-21 | シャープ株式会社 | Display device, electronic mirror, display device control method, program, and storage medium |
CN111261027A (en) * | 2020-01-22 | 2020-06-09 | 京东方科技集团股份有限公司 | Rotary display device, control method thereof, rotary display system, and storage medium |
JP2020118963A (en) * | 2019-01-22 | 2020-08-06 | 国立大学法人東京農工大学 | Head mount display |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316541A (en) * | 1992-05-07 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Both-eye stereoscopic visual equipment |
JPH0830806A (en) * | 1994-07-14 | 1996-02-02 | Sanyo Electric Co Ltd | Three-dimensional image conversion method |
JPH0865715A (en) * | 1994-08-22 | 1996-03-08 | Toshiba Corp | Method and device for stereoscopic video display |
JPH08234140A (en) * | 1995-02-27 | 1996-09-13 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Binocular stereoscopic image display method |
JPH10174127A (en) * | 1996-12-13 | 1998-06-26 | Sanyo Electric Co Ltd | Method and device for three-dimensional display |
JPH11205822A (en) * | 1998-01-13 | 1999-07-30 | Ricoh Co Ltd | Image display device |
JPH11234703A (en) * | 1998-02-09 | 1999-08-27 | Toshiba Corp | Stereoscopic display device |
JP2000047139A (en) * | 1998-07-27 | 2000-02-18 | Mr System Kenkyusho:Kk | Stereoscopic image display device |
JP2003185967A (en) * | 2001-12-20 | 2003-07-03 | Olympus Optical Co Ltd | Video display unit |
JP2004102526A (en) * | 2002-09-06 | 2004-04-02 | Sony Corp | Three-dimensional image display device, display processing method, and processing program |
JP2006325165A (en) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | Device, program and method for generating telop |
-
2009
- 2009-04-28 JP JP2009109984A patent/JP2010259017A/en active Pending
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05316541A (en) * | 1992-05-07 | 1993-11-26 | Nippon Telegr & Teleph Corp <Ntt> | Both-eye stereoscopic visual equipment |
JPH0830806A (en) * | 1994-07-14 | 1996-02-02 | Sanyo Electric Co Ltd | Three-dimensional image conversion method |
JPH0865715A (en) * | 1994-08-22 | 1996-03-08 | Toshiba Corp | Method and device for stereoscopic video display |
JPH08234140A (en) * | 1995-02-27 | 1996-09-13 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Binocular stereoscopic image display method |
JPH10174127A (en) * | 1996-12-13 | 1998-06-26 | Sanyo Electric Co Ltd | Method and device for three-dimensional display |
JPH11205822A (en) * | 1998-01-13 | 1999-07-30 | Ricoh Co Ltd | Image display device |
JPH11234703A (en) * | 1998-02-09 | 1999-08-27 | Toshiba Corp | Stereoscopic display device |
JP2000047139A (en) * | 1998-07-27 | 2000-02-18 | Mr System Kenkyusho:Kk | Stereoscopic image display device |
JP2003185967A (en) * | 2001-12-20 | 2003-07-03 | Olympus Optical Co Ltd | Video display unit |
JP2004102526A (en) * | 2002-09-06 | 2004-04-02 | Sony Corp | Three-dimensional image display device, display processing method, and processing program |
JP2006325165A (en) * | 2005-05-20 | 2006-11-30 | Excellead Technology:Kk | Device, program and method for generating telop |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011081272A (en) * | 2009-10-08 | 2011-04-21 | Nikon Corp | Image display device and image display method |
WO2011043022A1 (en) * | 2009-10-08 | 2011-04-14 | 株式会社ニコン | Image display device and image display method |
CN103415882B (en) * | 2011-03-11 | 2016-01-20 | 欧姆龙株式会社 | Video display devices |
WO2012124150A1 (en) * | 2011-03-11 | 2012-09-20 | オムロン株式会社 | Video display device |
JP2012191483A (en) * | 2011-03-11 | 2012-10-04 | Omron Corp | Video display device |
CN103415882A (en) * | 2011-03-11 | 2013-11-27 | 欧姆龙株式会社 | Video display device |
EP2685447A1 (en) * | 2011-03-11 | 2014-01-15 | Omron Corporation | Video display device |
EP2685447A4 (en) * | 2011-03-11 | 2014-09-03 | Omron Tateisi Electronics Co | Video display device |
KR101478937B1 (en) * | 2011-03-11 | 2014-12-31 | 오므론 가부시키가이샤 | Video display device |
WO2012161054A1 (en) * | 2011-05-23 | 2012-11-29 | 株式会社東芝 | Medical image diagnosis device, image processing device, and ultrasound diagnosis device |
JP2016066369A (en) * | 2015-12-08 | 2016-04-28 | 株式会社Pfu | Information processing device, method, and program |
WO2018109991A1 (en) * | 2016-12-12 | 2018-06-21 | シャープ株式会社 | Display device, electronic mirror, display device control method, program, and storage medium |
JP2020118963A (en) * | 2019-01-22 | 2020-08-06 | 国立大学法人東京農工大学 | Head mount display |
JP7409641B2 (en) | 2019-01-22 | 2024-01-09 | 国立大学法人東京農工大学 | head mounted display |
CN111261027A (en) * | 2020-01-22 | 2020-06-09 | 京东方科技集团股份有限公司 | Rotary display device, control method thereof, rotary display system, and storage medium |
US11805239B2 (en) | 2020-01-22 | 2023-10-31 | Beijing Boe Optoelectronics Technology Co., Ltd. | Rotary display device and control method therefor, and rotary display system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5515301B2 (en) | Image processing apparatus, program, image processing method, recording method, and recording medium | |
TWI508519B (en) | An image processing apparatus, a program, an image processing method, a recording method, and a recording medium | |
JP5059922B2 (en) | Stereoscopic image generating apparatus, stereoscopic image display apparatus, stereoscopic image adjustment method, program for causing computer to execute stereoscopic image adjustment method, and recording medium recording the program | |
US8587638B2 (en) | Supporting a 3D presentation | |
JP5476910B2 (en) | Image generating apparatus, image generating method, and program | |
JP2010259017A (en) | Display device, display method and display program | |
US11956415B2 (en) | Head mounted display apparatus | |
JP6963399B2 (en) | Program, recording medium, image generator, image generation method | |
JP2011205195A (en) | Image processing device, program, image processing method, chair, and appreciation system | |
JP5396877B2 (en) | Image processing apparatus, program, image processing method, and recording method | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
JP2010226390A (en) | Imaging apparatus and imaging method | |
JP2010226391A (en) | Image processing unit, program, and method of processing image | |
JP5402070B2 (en) | Image presentation system, image processing apparatus, program, and image presentation method | |
JP2011085868A (en) | Image generating device, image generating method and program | |
KR20150016324A (en) | Terminal for increasing visual comfort sensation of 3d object and control method thereof | |
JP5663854B2 (en) | Display device, display method, and program | |
JP2010259022A (en) | Display device, display method, and display program | |
JP6814686B2 (en) | Stereoscopic image display control device, stereoscopic image display control method and stereoscopic image display control program | |
US10484661B2 (en) | Three-dimensional image generating device, three-dimensional image generating method, program, and information storage medium | |
JP5428723B2 (en) | Image generating apparatus, image generating method, and program | |
JP5545995B2 (en) | Stereoscopic display device, control method thereof, and program | |
Jeong et al. | Depth image‐based rendering for multiview generation | |
JP6424947B2 (en) | Display device and program | |
JP2010245849A (en) | Image presentation system, image processing device, image presentation method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20120427 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20130730 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131004 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20140311 |