JP4853149B2 - Image processing apparatus, image display apparatus, image processing method, program, and recording medium - Google Patents
Image processing apparatus, image display apparatus, image processing method, program, and recording medium Download PDFInfo
- Publication number
- JP4853149B2 JP4853149B2 JP2006193431A JP2006193431A JP4853149B2 JP 4853149 B2 JP4853149 B2 JP 4853149B2 JP 2006193431 A JP2006193431 A JP 2006193431A JP 2006193431 A JP2006193431 A JP 2006193431A JP 4853149 B2 JP4853149 B2 JP 4853149B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- bird
- eye
- unit
- viewpoint
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Closed-Circuit Television Systems (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
Description
この発明は、鳥瞰画像とこの鳥瞰画像上で特定される撮影地点で撮影された撮影画像とを同時に表示するための画像処理を行う画像処理装置、画像表示装置、画像処理方法、プログラムおよび記録媒体に関する。詳しくは、この発明は、鳥瞰画像の撮影地点にこの撮影地点で撮影された撮影画像を配置して表示画像を得ることによって、複数の撮影画像の地理的な関係を容易に把握可能とした画像処理装置等に係るものである。 The present invention relates to an image processing device, an image display device, an image processing method, a program, and a recording medium for performing image processing for simultaneously displaying a bird's-eye image and a captured image taken at a shooting point specified on the bird's-eye image. About. More specifically, the present invention provides an image in which a geographical relationship between a plurality of captured images can be easily grasped by obtaining a display image by arranging a captured image captured at this shooting point at a shooting point of a bird's-eye view image. This relates to a processing apparatus or the like.
従来、広角画像としてのパノラマ画像を表示する場合、スクロール可能に一部領域のみを表示し、あるいは水平方向に細長く全体を表示することが行われている。また、パノラマ画像を表示する機器の1つであるコンピュータでは、パノラマ画像に係る複数ファイルを開くことで複数のパノラマ画像を同時に表示することが可能となっている。 Conventionally, when displaying a panoramic image as a wide-angle image, only a partial area is displayed so as to be scrollable, or the entire image is displayed in an elongated manner in the horizontal direction. In addition, in a computer that is one of devices that display a panoramic image, a plurality of panoramic images can be displayed simultaneously by opening a plurality of files related to the panoramic image.
例えば、特許文献1には、大局的な視点と局所的な視点の画像を同時に表示する方法が提案されている。すなわち、この特許文献1には、ドーム形状のスクリーンに映像を投影して没入感を確保すると共に、俯瞰画像(鳥瞰画像)の表示により現在位置を把握できるようにする方法が提案されている。
上述したように複数のパノラマ画像を同時に表示できるものの、それぞれの画像の地理的な関係を把握することは困難であった。また、上述した特許文献1に示される手法で局所視点画像として複数のパノラマ画像をそのまま表示しても、これら複数のパノラマ画像の地理的な関係を直感的に把握することは困難である。 As described above, although a plurality of panoramic images can be displayed simultaneously, it is difficult to grasp the geographical relationship between the images. Moreover, even if a plurality of panoramic images are displayed as they are as local viewpoint images by the method disclosed in Patent Document 1, it is difficult to intuitively grasp the geographical relationship between the plurality of panoramic images.
この発明の目的は、複数の撮影画像の地理的な関係を容易に把握可能とすることにある。 An object of the present invention is to make it possible to easily grasp the geographical relationship between a plurality of captured images.
この発明の概念は、
鳥瞰画像と該鳥瞰画像上で特定される撮影地点で撮影された撮影画像とを同時に表示するための画像処理を行う画像処理装置であって、
上記鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を配置して表示画像を得る画像配置部を備え、
上記画像配置部は、撮影画像を視点に向くように配置し、さらに該撮影画像が配置された鳥瞰画像を上記視点より見た画像に変換して上記表示画像を得る
ことを特徴とする画像処理装置にある。
The concept of this invention is
An image processing device that performs image processing for simultaneously displaying a bird's-eye image and a captured image captured at a capturing point specified on the bird's-eye image,
An image placement unit that obtains a display image by placing a shot image taken at the shooting point at the shooting point of the bird's-eye view image ,
The image placement section, an image, characterized in that arranged so as to face the captured image to the viewpoint, the further bird's-eye image in which the photographed image is arranged to convert the image seen from the viewpoint Ru obtain the display image In the processing unit.
この発明においては、鳥瞰画像とこの鳥瞰画像上で特定される撮影地点で撮影された撮影画像とを同時に表示するために、鳥瞰画像の撮影地点に、この撮影地点で撮影された撮影画像を配置して表示画像を得ることが行われる。このように表示画像は鳥瞰画像の撮影地点に撮影画像が配置されたものとなるため、複数の撮影画像の地理的な関係を容易に把握できる。
In this invention, in order to simultaneously display a bird's-eye image and a photographed image photographed at a photographing point specified on the bird's-eye image, the photographed image photographed at this photographing point is arranged at the photographing point of the bird's-eye image. Thus, a display image is obtained. As described above, since the display image is obtained by arranging the captured image at the capturing point of the bird's-eye view image, the geographical relationship between the plurality of captured images can be easily grasped.
例えば、鳥瞰画像の撮影地点に配置される撮影画像は視点に向くように配置され、さらにこの撮影画像が配置された鳥瞰画像が視点より見た画像に変換されて表示画像が得られる。この場合、視点から見た状態で鳥瞰画像が表示され、しかもこの視点に正対した状態で撮影画像が表示されるので、見る方向との整合性の図られた画像を表示することができ、複数の撮影画像の地理的な関係の把握がより容易となる。
For example, a photographed image arranged at the photographing point of the bird's-eye view image is arranged so as to face the viewpoint, and further, the bird's-eye view image on which the photographed image is arranged is converted into an image viewed from the viewpoint to obtain a display image. In this case, the bird's-eye view image is displayed in a state viewed from the viewpoint, and the captured image is displayed in a state of facing the viewpoint, so that an image that is consistent with the viewing direction can be displayed. It is easier to grasp the geographical relationship between a plurality of captured images.
例えば、撮影画像は広角画像(パノラマ画像)であり、鳥瞰画像の撮影地点に、広角画像より視点に対応した一部領域が切り出されて配置される。この場合、鳥瞰画像上に表示される撮影画像の内容は視点に対応したものとなり、撮影画像による撮影地点の理解を十分に図ることができる。
For example, the photographed image is a wide-angle image (panoramic image), and a partial region corresponding to the viewpoint is cut out from the wide-angle image and disposed at the photographing point of the bird's-eye view image. In this case, the content of the photographed image displayed on the bird's-eye view image corresponds to the viewpoint, and it is possible to fully understand the photographing point by the photographed image.
例えば、ユーザが視点の位置を変更するためのユーザ操作部が備えられる。この視点位置の変更によって、鳥瞰画像を見る方向が変わると共に、鳥瞰画像に配置される撮影画像の内容などが変わる。これにより、複数の撮影画像の地理的な関係の把握がより容易となる。 For example, a user operation unit is provided for the user to change the position of the viewpoint. By changing the viewpoint position, the direction in which the bird's-eye view image is viewed is changed, and the content of the captured image arranged in the bird's-eye view image is changed. This makes it easier to grasp the geographical relationship between a plurality of captured images.
例えば、ユーザが表示画像を得るための鳥瞰画像および撮影画像を変更するためのユーザ操作部が備えられる。この画像の変更によって、鳥瞰画像および撮影画像の表示内容が変わり、いわゆるシーン変換が行われる。 For example, a user operation unit for changing a bird's-eye view image and a captured image for a user to obtain a display image is provided. By changing the image, the display contents of the bird's-eye view image and the captured image are changed, and so-called scene conversion is performed.
この発明によれば、鳥瞰画像の撮影地点にこの撮影地点で撮影された撮影画像を配置して表示画像を得るものであり、複数の撮影画像の地理的な関係を容易に把握できる。 According to the present invention, a captured image taken at a shooting point is arranged at a shooting point of a bird's-eye image to obtain a display image, and the geographical relationship between a plurality of shot images can be easily grasped.
(1)視聴覚システム (1) Audiovisual system
図1は、視聴覚システムの構成を示している。この視聴覚システムは、一の面の壁が所定の間隔をもって配された内壁2および外壁3とからなる視聴覚室(部屋)1と、内壁2および外壁3との間の空間に配置され、内壁2に少なくとも映像表示機能または音声出力機能を発揮させるためのプロジェクタ10等の機材とを備えている。 FIG. 1 shows the configuration of an audiovisual system. This audio-visual system is arranged in a space between an audio-visual room (room) 1 composed of an inner wall 2 and an outer wall 3 in which walls on one surface are arranged at a predetermined interval, and an inner wall 2 and an outer wall 3. Are equipped with equipment such as a projector 10 for at least performing a video display function or an audio output function.
視聴覚室1は、一般家庭に形成された視聴覚室であり、通常の一般家庭の1室を形成する4面の壁のうちの一の面に内壁2が設けられ、この一の面の壁が内壁2と外壁3とからなる二重構造とされたものである。この視聴覚室1は、残る3面の壁および外壁3が、通常の家屋における壁と同一に、例えば建物構造体による壁面に化粧板を配置する等により形成される。また天井、床にあっても、通常の家屋における天井、床と同一に形成される。 The audio-visual room 1 is an audio-visual room formed in a general home, and an inner wall 2 is provided on one of four walls forming one room of a normal general home, and the wall on the one side is This is a double structure composed of an inner wall 2 and an outer wall 3. The audio-visual room 1 is formed by arranging the remaining three walls and the outer wall 3 on the wall surface of a building structure, for example, in the same manner as a wall in a normal house. Moreover, even if it exists in a ceiling and a floor, it forms the same as the ceiling and floor in a normal house.
内壁2は、図2に示すように、天井、床との間に、一定のピッチにより垂直フレーム4を設置した後、さらにこの垂直フレーム4,4の間に水平フレーム5を水平に配置して骨組みが形成され、この骨組みに、図1に示すように板状ユニット6A〜6Dが配置されて形成される。ここで、板状ユニット6A〜6Dは板状部材を構成している。 As shown in FIG. 2, the inner wall 2 has a vertical frame 4 installed at a fixed pitch between the ceiling and the floor, and then a horizontal frame 5 is horizontally disposed between the vertical frames 4 and 4. A skeleton is formed, and the plate-like units 6A to 6D are arranged on the skeleton as shown in FIG. Here, plate unit 6A-6D comprises the plate-shaped member.
図3を参照して、内壁2のフレーム構成の詳細についてさらに説明する。この図3は、一対の垂直フレーム4,4に対応したフレーム部分24のみを示している。図3の上側は、フレーム部分24を図中正面から見たときの図を示し、図3の下側は、フレーム部分24を図中上側から見たときの図を示している。すなわち、フレーム部分24は、板状ユニットを固定する面の断面がコの字型の形状をしている。 The details of the frame configuration of the inner wall 2 will be further described with reference to FIG. FIG. 3 shows only the frame portion 24 corresponding to the pair of vertical frames 4 and 4. The upper side of FIG. 3 shows a view when the frame part 24 is viewed from the front in the figure, and the lower side of FIG. 3 shows the view when the frame part 24 is viewed from the upper side in the figure. In other words, the frame portion 24 has a U-shaped cross section on the surface to which the plate unit is fixed.
フレーム部分24は、図3の上側で示すように、6本のフレーム51A〜51Fで構成されている。ここで、フレーム51E,51Fはそれぞれ図2に示す垂直フレーム4を構成しており、フレーム51A〜51Dはそれぞれ図2に示す水平フレーム5を構成している。これらフレーム51A〜51Fは、それぞれ、例えば、金属などの素材から形成されている。 As shown on the upper side of FIG. 3, the frame portion 24 includes six frames 51 </ b> A to 51 </ b> F. Here, each of the frames 51E and 51F constitutes the vertical frame 4 shown in FIG. 2, and each of the frames 51A to 51D constitutes a horizontal frame 5 shown in FIG. Each of the frames 51A to 51F is formed of a material such as metal, for example.
また、フレーム51A〜51Fのそれぞれには、所定の位置に長穴(または丸穴)が設けられており、それらの長穴は、フレーム51A〜51Fのそれぞれを等分割する所定の位置にそれぞれ設けられている。例えば、フレーム51(フレーム51A〜51F)の一部を拡大して見た場合、フレーム51には、図4の例で示すように、短手方向に長い長穴53−1〜53−4が、それぞれ、所定の間隔をもって穿設されている。 Each of the frames 51A to 51F is provided with a long hole (or a round hole) at a predetermined position, and these long holes are respectively provided at predetermined positions for equally dividing the frames 51A to 51F. It has been. For example, when a part of the frame 51 (frames 51A to 51F) is enlarged, the frame 51 has long holes 53-1 to 53-4 that are long in the short direction, as shown in the example of FIG. Each of them is drilled at a predetermined interval.
すなわち、フレーム部分24においては、図3に示すように、フレーム51A〜51Fのうち、水平フレーム5を構成するフレーム51A〜51Dのそれぞれには、縦長の長穴が設けられ、垂直フレーム4を構成するフレーム51E,51Fのそれぞれには、横長の長穴が設けられている。 That is, in the frame portion 24, as shown in FIG. 3, among the frames 51 </ b> A to 51 </ b> F, each of the frames 51 </ b> A to 51 </ b> D constituting the horizontal frame 5 is provided with a vertically long slot. Each of the frames 51E and 51F to be provided is provided with a horizontally long slot.
フレーム51E,51Fは、L字アングル材として形成され、直線型となるフレーム51A〜51Dのそれぞれと、例えば、溶接により固定される。例えば、フレーム部分24においては、図5に示すように、直線型のフレーム(水平フレーム)51AおよびL字型のフレーム(垂直フレーム)51Eが溶接により固定されることにより、図3の下側で示すように、その断面がコの字型の形状となる。 The frames 51E and 51F are formed as L-shaped angle members, and are fixed to each of the straight frames 51A to 51D by welding, for example. For example, in the frame portion 24, as shown in FIG. 5, a straight frame (horizontal frame) 51A and an L-shaped frame (vertical frame) 51E are fixed by welding, so that As shown, the cross section has a U-shaped shape.
すなわち、詳細は後述するが、フレーム部分24は、その断面がコの字型の形状をしているので、図中正面側からだけでなく、左右の側面側からも、フレーム51E,51Fのそれぞれに設けられた長穴を利用することができる。 That is, although the details will be described later, since the frame portion 24 has a U-shaped cross section, each of the frames 51E and 51F is not only from the front side in the figure but also from the left and right side surfaces. It is possible to use a long hole provided in.
次に、上述したフレーム部分24に対する板状ユニットの取り付けの詳細について説明する。なお、以下の説明においては、フレーム51A〜51Fを個々に区別する必要がない場合、単に、フレーム51と称する。 Next, details of attachment of the plate unit to the frame portion 24 described above will be described. In the following description, the frames 51A to 51F are simply referred to as the frame 51 when it is not necessary to distinguish them individually.
図6および図7を参照して、板状ユニットを、フレーム部分24に取り付ける際に、加重方向に支える加重方向支え25について説明する。図6は、加重方向支え25をフレーム51に固定するときの斜視図を示し、図7は、図6を上側から見た場合の図を示している。 With reference to FIG. 6 and FIG. 7, when attaching a plate-shaped unit to the frame part 24, the load direction support 25 supported in a load direction is demonstrated. 6 shows a perspective view when the load-direction support 25 is fixed to the frame 51, and FIG. 7 shows a view when FIG. 6 is viewed from the upper side.
加重方向支え25は、例えば、金属などの素材から形成される。加重方向支え25は、図6に示すように、L字アングル材からなり、そのL字アングル材には、フレーム51に設けられている長穴に嵌めることが可能となるボルト61Aおよびボルト61Bのそれぞれが設けられている。ここで、フレーム51は水平フレームであって、フレーム51B〜51Dが対応する。 The load direction support 25 is formed from materials, such as a metal, for example. As shown in FIG. 6, the load-direction support 25 is made of an L-shaped angle material, and the L-shaped angle material has a bolt 61 </ b> A and a bolt 61 </ b> B that can be fitted in a long hole provided in the frame 51. Each is provided. Here, the frame 51 is a horizontal frame, and corresponds to the frames 51B to 51D.
加重方向支え25をフレーム51に固定する際、図7に示すように、加重方向支え25のボルト61Aおよびボルト61Bのそれぞれを、フレーム51の所定の長穴に嵌め込み、この嵌め込まれたボルト61Aおよびボルト61Bのそれぞれに、ナット62Aおよびナット62Bを螺合させる。 When the weight direction support 25 is fixed to the frame 51, as shown in FIG. 7, the bolts 61A and 61B of the load direction support 25 are fitted into predetermined long holes of the frame 51, and the bolts 61A and 61 The nut 62A and the nut 62B are screwed into each of the bolts 61B.
図8、図9を参照して、板状ユニットを、フレーム部分24に取り付ける際に、前後方向に支える前後方向支え26について説明する。前後方向支え26は、例えば、金属などの素材から形成される。前後方向支え26(26A,26B)は、図8に示すように、断面コの字型の形状で形成され、フレーム部分24に着脱自在に取り付けられる。この前後方向支え26は、図9に示すように、そのコの字型の形状を利用して、前後方向支え26A,26Bにより板状ユニット36を挟み込むことで、当該板状ユニット36を前後方向で支える。 With reference to FIG. 8, FIG. 9, the front-back direction support 26 supported in the front-back direction when attaching a plate-shaped unit to the flame | frame part 24 is demonstrated. The front-rear direction support 26 is made of a material such as metal, for example. As shown in FIG. 8, the longitudinal support 26 (26A, 26B) is formed in a U-shaped cross section and is detachably attached to the frame portion 24. As shown in FIG. 9, the front / rear direction support 26 uses the U-shaped shape to sandwich the plate unit 36 between the front / rear direction supports 26A and 26B. Support with.
図9に示すように、前後方向支え26A,26Bのそれぞれには、例えば、フレーム部分24のフレーム(垂直フレーム)51に設けられている長穴に嵌めることが可能となる所定の個数のボルト(図示せず)が設けられており、それらのボルトは、フレーム51の長穴に嵌め込まれ、ボルトの個数に対応した個数のナット(図9の例ではナット73Aおよびナット73B)により固定されている。 As shown in FIG. 9, for example, a predetermined number of bolts (that can be fitted into long holes provided in a frame (vertical frame) 51 of the frame portion 24) are provided on each of the front and rear support 26 </ b> A and 26 </ b> B. These bolts are fitted into the elongated holes of the frame 51 and are fixed by a number of nuts (the nut 73A and the nut 73B in the example of FIG. 9) corresponding to the number of bolts. .
また、前後方向支え26A,26Bのそれぞれは、板状ユニット36を挟み込む場合、当該板状ユニット36とともに、この板状ユニット36をさらに挟むようにして所定の形状の緩衝材(図9では、緩衝材71A、緩衝材71B、緩衝材72A、および緩衝材72B)も一緒に挟み込む。 Further, when the plate-like unit 36 is sandwiched between the front and rear support 26A and 26B, the plate-like unit 36 and the plate-like unit 36 are further sandwiched so as to further sandwich the plate-like unit 36 (in FIG. 9, the cushioning material 71A). The buffer material 71B, the buffer material 72A, and the buffer material 72B) are also sandwiched together.
緩衝材71A、緩衝材71B、緩衝材72A、および緩衝材72Bのそれぞれは、例えば、ウレタン(スポンジ)またはゴムなどの素材により形成される。緩衝材71Aおよび緩衝材71Bのそれぞれは、板状ユニット36の前方に設けられ、緩衝材72Aおよび緩衝材72Bのそれぞれは、板状ユニット36の後方に設けられて、当該板状ユニット36にかかる衝撃を吸収して保護している。 Each of the buffer material 71A, the buffer material 71B, the buffer material 72A, and the buffer material 72B is formed of a material such as urethane (sponge) or rubber, for example. Each of the buffer material 71A and the buffer material 71B is provided in front of the plate-like unit 36, and each of the buffer material 72A and the buffer material 72B is provided behind the plate-like unit 36 and is applied to the plate-like unit 36. Absorbs and protects the impact.
また、フレーム部分24から板状ユニット36を取り外す場合、前後方向支え26Aに設けられたボルトに螺合されているナット73Aを緩め、前後方向支え26Aをフレーム51の長穴に沿って右側に移動させる。また、同様に、前後方向支え26Bに設けられたボルトに螺合されているナット73Bを緩め、前後方向支え26Bをフレーム51の長穴に沿って左側に移動させる。これにより、板状ユニット36の取り外しが可能となる。 Further, when removing the plate unit 36 from the frame portion 24, the nut 73A screwed to the bolt provided on the front / rear support 26A is loosened, and the front / rear support 26A is moved to the right along the elongated hole of the frame 51. Let Similarly, the nut 73B screwed to the bolt provided on the front-rear support 26B is loosened, and the front-rear support 26B is moved to the left along the elongated hole of the frame 51. Thereby, the plate-like unit 36 can be removed.
ナット73A,73Bをボルトから完全に外した状態として、前後方向支え26A,26Bに設けられているボルトをフレーム51の長穴から引き出し、当該前後方向支え26A,26Bをフレーム部分24から取り外すことでも、板状ユニット36の取り外しが可能となる。 With the nuts 73A, 73B completely removed from the bolts, the bolts provided on the front / rear direction supports 26A, 26B can be pulled out from the long holes of the frame 51 and the front / rear direction supports 26A, 26B can be removed from the frame portion 24. The plate unit 36 can be removed.
図2に示す内壁2のフレーム構成では、上述したフレーム部分24が水平方向に所定個数だけ配された構成となっている。図10を参照して、フレーム部分24を水平方向に連結させる場合について説明する。この図10は、連結されたフレーム部分24-1,14-2を上側から見た場合の図を示している。 In the frame configuration of the inner wall 2 shown in FIG. 2, a predetermined number of the frame portions 24 described above are arranged in the horizontal direction. With reference to FIG. 10, the case where the frame part 24 is connected in the horizontal direction will be described. FIG. 10 shows a view of the connected frame portions 24-1 and 14-2 as viewed from above.
フレーム部分24-1,24-2において、垂直フレームであるフレーム51E,51Fのそれぞれは、図3および図5により説明したように、L字アングル材として形成されており、正面側からだけでなく、左右の側面側からも、当該フレーム51E,51Fのそれぞれに設けられた長穴を利用することができる。すなわち、フレーム部分24-1,24-2のそれぞれは、板状ユニット36A,36Bのそれぞれを固定する面の断面が、コの字型の形状となるので、そのコの字型の形状を利用して、当該フレーム部分24-1,14-2を水平方向に連結させる。 In the frame portions 24-1 and 24-2, each of the frames 51E and 51F, which are vertical frames, is formed as an L-shaped angle member as described with reference to FIGS. 3 and 5, and is not only from the front side. The elongated holes provided in each of the frames 51E and 51F can also be used from the left and right side surfaces. That is, since each of the frame portions 24-1 and 24-2 has a U-shaped cross section of a surface to which the plate units 36A and 36B are fixed, the U-shaped shape is used. Then, the frame portions 24-1 and 14-2 are connected in the horizontal direction.
ジョイント部81は、例えば、ボルト81Aおよびナット81Bより、フレーム部分24-1の図中左側の側面と、フレーム部分24-2の図中右側の側面とを固定する。すなわち、ジョイント部81は、フレーム部分24-1のL字型のフレーム51Fと、フレーム部分24-2のL字型のフレーム51Eとのそれぞれを水平方向に並べたとき、L字型の形状となる面のうち、向き合っている面のそれぞれに設けられている長穴を、所定の個数のボルト81Aとナット81Bとにより固定する。 The joint portion 81 fixes, for example, a left side surface in the drawing of the frame portion 24-1 and a right side surface in the drawing of the frame portion 24-2 with bolts 81A and nuts 81B. That is, the joint portion 81 has an L-shaped shape when the L-shaped frame 51F of the frame portion 24-1 and the L-shaped frame 51E of the frame portion 24-2 are arranged in the horizontal direction. The long holes provided in each of the facing surfaces are fixed by a predetermined number of bolts 81A and nuts 81B.
上述したように、内壁2は、交換可能に保持された複数の板状ユニット(板状部材)からなっている。なお、図1には、内壁2の全面が板状ユニットからなるものを示したが、内壁2の一部のみが交換可能に保持された複数の板状ユニットからなるようにしてもよい。これにより、必要に応じて化粧の異なる板状ユニットに交換することで、室内の雰囲気を種々に変更できる。また、リアプロジェクション用のスクリーンの大きさの変更、あるいは振動子が取り付けられた振動板の位置の変更などを容易に行うことができる。 As described above, the inner wall 2 is composed of a plurality of plate-like units (plate-like members) held so as to be replaceable. Although FIG. 1 shows that the entire inner wall 2 is made of a plate-like unit, only a part of the inner wall 2 may be made of a plurality of plate-like units held in a replaceable manner. Thereby, an indoor atmosphere can be variously changed by replacing | exchanging to the plate-shaped unit from which makeup | decoration differs as needed. Further, it is possible to easily change the size of the screen for rear projection, or change the position of the diaphragm to which the vibrator is attached.
図1に戻って、板状ユニット6A〜6Dは、映像コンテンツの視聴に係る各種機能ユニットであり、この視聴覚室1に求められる機能、デザイン等に応じて、骨組みに配置される。この図1に示す例では、この内壁2の両端の垂直フレーム4間に、スピーカの機能を担う板状ユニット6Aが3個ずつ配置される。以下、このスピーカの機能を担う板状ユニット6Aを、適宜、スピーカユニットと呼ぶ。 Returning to FIG. 1, the plate-like units 6 </ b> A to 6 </ b> D are various functional units related to viewing of video content, and are arranged in a framework according to functions, designs, and the like required for the audiovisual room 1. In the example shown in FIG. 1, three plate-like units 6A each serving as a speaker are arranged between the vertical frames 4 at both ends of the inner wall 2. Hereinafter, the plate-like unit 6A responsible for the function of the speaker is appropriately referred to as a speaker unit.
ここで、スピーカユニット6Aは、音声信号による駆動により振動する振動子8が、この振動子8の振動により振動する振動板9に、一定のピッチで配置されて構成されている。これにより、音声信号に基づいて振動子8が駆動されることで振動板9が振動してスピーカとして機能するように形成される。なお、スピーカユニット6Aは、図示しない枠体に自在に振動可能に振動板9を保持し、これにより充分な強度を確保すると共に、垂直フレーム4に配置可能に形成される。なお振動板9の表側面には、サラン等による化粧部材が設けられる。 Here, the speaker unit 6 </ b> A is configured such that vibrators 8 that vibrate when driven by audio signals are arranged at a constant pitch on a diaphragm 9 that vibrates due to vibrations of the vibrator 8. Thus, the vibrator 8 is driven based on the audio signal, so that the diaphragm 9 is vibrated to function as a speaker. Note that the speaker unit 6A is configured to hold a diaphragm 9 in a frame body (not shown) so as to freely vibrate, thereby ensuring sufficient strength and being arranged on the vertical frame 4. A decorative member made of saran or the like is provided on the front side surface of the diaphragm 9.
この視聴覚室1では、このスピーカユニット6Aの内側の垂直フレーム4,4間に、単なる目隠し機能を担う板状ユニット6B、スクリーンとしての機能を担う板状ユニット6Cが配置されている。なお、以下において、この目隠し機能を担う板状ユニットをブランクユニットと呼び、スクリーンとしての機能を担う板状ユニット6Cをスクリーンユニットと呼ぶ。ここで、ブランクユニット6Bは、単なる目隠し機能を担うことにより、表側面に化粧を施した石膏ボード等の板材により形成される。 In the audiovisual room 1, between the vertical frames 4 and 4 inside the speaker unit 6A, a plate unit 6B responsible for a simple blindfold function and a plate unit 6C responsible for a screen function are arranged. In the following, the plate-like unit responsible for the blind function is referred to as a blank unit, and the plate-like unit 6C responsible for the function as a screen is referred to as a screen unit. Here, the blank unit 6 </ b> B is formed of a plate material such as a gypsum board with makeup on the front side surface by assuming a simple blindfold function.
これに対して、スクリーンユニット6Cは、背面投影型プロジェクタのスクリーンの機能を担い、これにより背面投影型プロジェクタのスクリーンに適用される板材を枠体により補強して形成される。具体的に、曇りガラス、不透明アクリル板等を枠体により保持して形成される。この視聴覚室1は、このスクリーンユニット6Cに対応して、このスクリーンユニット6Cの背面に位置する外壁3にプロジェクタ10が配置される。これにより、この視聴覚室1は、スクリーンユニット6Cにより各種映像コンテンツの映像を鑑賞できるように作成される。 On the other hand, the screen unit 6C functions as a screen of the rear projection projector, and is formed by reinforcing a plate material applied to the screen of the rear projection projector with a frame. Specifically, it is formed by holding a frosted glass, an opaque acrylic plate or the like with a frame. In the audiovisual room 1, the projector 10 is disposed on the outer wall 3 located on the back surface of the screen unit 6C corresponding to the screen unit 6C. As a result, the audiovisual room 1 is created so that the video of the various video contents can be viewed by the screen unit 6C.
また、この視聴覚室1は、このスクリーンユニット6Cに続く垂直フレーム4,4間に、ブランクユニット6Bと、映像機器の操作部の機能を担う板状ユニット6Dとが配置される。なお、以下において、この操作部の機能を担う板状ユニットを操作ユニットと呼ぶ。 In the audiovisual room 1, a blank unit 6B and a plate-like unit 6D that functions as an operation unit of the video equipment are arranged between the vertical frames 4 and 4 following the screen unit 6C. In the following, the plate-like unit that functions as the operation unit is referred to as an operation unit.
ここで、操作ユニット6Dには、映像機器等が配置されたベイ11が設けられている。例えば、ベイ11には、視聴覚室1に設けられる映像機器のうちで、ユーザによる操作を直接受け付けることが必要な機器、例えば記録媒体を交換することが必要なDVD(Digital Versatile Disc)プレーヤ、ビデオテープレコーダ等が設けられる。また例えば、ベイ11には、各映像機器の遠隔制御に必要なリモートコマンダからのリモコン信号を受信する受信部が設けられる。 Here, the operation unit 6D is provided with a bay 11 in which video equipment and the like are arranged. For example, in the bay 11, among the video devices provided in the audiovisual room 1, a device that needs to directly accept a user operation, for example, a DVD (Digital Versatile Disc) player that needs to replace a recording medium, a video A tape recorder or the like is provided. For example, the bay 11 is provided with a receiving unit that receives a remote control signal from a remote commander necessary for remote control of each video device.
上述した記録媒体に係る機器以外の機器にあっては、内壁2と外壁3との間の空間に配置される。また内壁2と外壁3との間の間隔Dは、内壁2と外壁3との間の空間に人間が侵入して各種映像機器を設置、メンテナンスするのに充分な間隔に設定され、さらにこの内壁2と外壁3との間の空間に人間が侵入する侵入口を形成できるように、ブランクユニット6Bの1つは、前方より取り外すことができるように設置される。 In a device other than the device related to the recording medium described above, the device is disposed in a space between the inner wall 2 and the outer wall 3. The distance D between the inner wall 2 and the outer wall 3 is set to a distance sufficient for humans to enter the space between the inner wall 2 and the outer wall 3 to install and maintain various video devices. One of the blank units 6 </ b> B is installed so that it can be removed from the front so that an entry port into which a human can enter can be formed in the space between 2 and the outer wall 3.
図1に示す視聴覚システムでは、視聴覚室1の4つの壁のうちの一の面の壁が所定の間隔をもって配された内壁2と外壁3とにより形成され、この内壁2にスクリーンユニット6Cおよびスピーカユニット6Aが配置されている。そして、これらプロジェクタ10、スピーカユニット6Aは、内壁2と外壁3との間の空間に配置された映像機器(ベイ11に配置された記録媒体に係る機器も含む)から得られる映像コンテンツに係る映像信号および音声信号により駆動される。これにより、スクリーンユニット6Cにはプロジェクタ10から映像が投影されて映像表示が行われ、またスピーカユニット6Aから音声が出力される。 In the audiovisual system shown in FIG. 1, a wall of one of the four walls of the audiovisual room 1 is formed by an inner wall 2 and an outer wall 3 arranged at a predetermined interval, and a screen unit 6C and a speaker are formed on the inner wall 2. Unit 6A is arranged. The projector 10 and the speaker unit 6 </ b> A are related to video content obtained from video equipment (including equipment related to a recording medium placed in the bay 11) placed in the space between the inner wall 2 and the outer wall 3. Driven by signal and audio signal. As a result, an image is projected from the projector 10 onto the screen unit 6C to display an image, and sound is output from the speaker unit 6A.
図1に示す視聴覚室システムによれば、4つの壁のうちの1面が、間に空間を有する内壁2と外壁3とにより形成され、この内壁2にスクリーンユニット6Cおよびスピーカユニット6Aが配置され、内壁2と外壁3との間の空間に、プロジェクタ10およびその他の映像コンテンツに係る機器(機材)が配置されるものであり、視聴覚室1の室内に映像コンテンツに係る機器が配置されるものではなく、室内の雰囲気を乱さずにコンテンツの視聴を良好に行うことができる。 According to the audiovisual room system shown in FIG. 1, one of four walls is formed by an inner wall 2 and an outer wall 3 having a space between them, and a screen unit 6C and a speaker unit 6A are arranged on the inner wall 2. In the space between the inner wall 2 and the outer wall 3, the projector 10 and other equipment (equipment) related to video content are arranged, and the equipment related to video content is arranged in the audiovisual room 1. Instead, it is possible to satisfactorily view content without disturbing the indoor atmosphere.
また、図1に示す視聴覚システムによれば、内壁2および外壁3は人が侵入可能な大きさを持つ所定間隔をもって配されているため、各種映像機器を内壁2および外壁3の間の空間に配置する際、さらにはこの空間に配置した各種映像機器のメンテナンスを行う際には、サービスマン等が当該空間に侵入して作業することができ、作業性の向上を図ることができる。 In addition, according to the audiovisual system shown in FIG. 1, the inner wall 2 and the outer wall 3 are arranged at a predetermined interval that allows a person to enter, so that various video devices can be placed in the space between the inner wall 2 and the outer wall 3. When arranging the various video devices arranged in the space, a service person or the like can enter and work on the space, and workability can be improved.
また、図1に示す視聴覚システムによれば、内壁2が複数の板材ユニットにより形成され、所定数の板状ユニットがスピーカユニット6Aを構成するものであり、これにより壁面自体にスピーカの機能が盛り込まれる。そのため、この視聴覚システムでは、別途、視聴覚室1の室内にスピーカを配置しなくても、映像コンテンツの音声を鑑賞することができ、これによっても一段と室内の雰囲気を乱さないようにすることができる。またこの場合、このスピーカに係る内壁が複数に分割されていることにより高音質の音を提供することも可能になる。 Further, according to the audiovisual system shown in FIG. 1, the inner wall 2 is formed of a plurality of plate material units, and a predetermined number of plate-like units constitute the speaker unit 6A, thereby incorporating the function of the speaker in the wall surface itself. It is. Therefore, in this audiovisual system, the audio of the video content can be enjoyed without separately arranging a speaker in the audiovisual room 1, thereby further preventing the room atmosphere from being disturbed. . In this case, it is also possible to provide high-quality sound by dividing the inner wall of the speaker into a plurality of parts.
また、図1に示す視聴覚システムによれば、内壁2が交換可能に保持された複数の板状ユニットにより形成されるものであり、必要に応じて化粧の異なる板材に交換することにより、視聴覚室の雰囲気を種々に変更することができ、さらには、スクリーンの大きさの変更、あるいはスピーカ位置の変更などを容易に行うことができる。また、この板材ユニットを取り外して空間への侵入口とすることができる。 In addition, according to the audiovisual system shown in FIG. 1, the inner wall 2 is formed by a plurality of plate-like units held so as to be replaceable. The atmosphere can be changed in various ways, and further, the size of the screen or the position of the speaker can be easily changed. Moreover, this board | plate material unit can be removed and it can be set as the entrance into space.
図11は、視聴覚システムの他の構成例を示している。この視聴覚システムは、対応する2面の壁が所定の間隔をもって配された内壁2および外壁3とからなる視聴覚室(部屋)21と、内壁2および外壁3との間の空間に配置され、内壁2に少なくとも映像表示機能または音声出力機能を発揮させるためのプロジェクタ10等の機材とを備えている。この図11において、図1と対応する部分には同一符号を付して示している。 FIG. 11 shows another configuration example of the audiovisual system. This audiovisual system is arranged in a space between an audiovisual room (room) 21 composed of an inner wall 2 and an outer wall 3 in which two corresponding walls are arranged at a predetermined interval, and the inner wall 2 and the outer wall 3. 2 is equipped with equipment such as the projector 10 for causing at least a video display function or an audio output function. In FIG. 11, portions corresponding to those in FIG.
すなわち、この視聴覚システムは、4面の壁のうちの、対向する2面が、間に空間を有する内壁2と外壁3とにより形成される。またこの対向する2面のうちの、一方の内壁2をスピーカユニット6Aとブランクユニット6Bとにより形成し、またこの一方の側の内壁2と外壁3との間の空間に、スピーカユニット6Aを駆動するアンプ23を配置する。 That is, in this audiovisual system, two opposing faces of the four walls are formed by the inner wall 2 and the outer wall 3 having a space therebetween. Of the two opposing surfaces, one inner wall 2 is formed by the speaker unit 6A and the blank unit 6B, and the speaker unit 6A is driven in the space between the inner wall 2 and the outer wall 3 on one side. An amplifier 23 is disposed.
また、他方の内壁2をスクリーンユニット6C、ブランクユニット6B、スピーカユニット6Aにより形成し、このスクリーンユニット6Cを設けた側の内壁2と外壁3との間の空間に、映像機器22を配置する。またこのスクリーンユニット6Cを設けた側の映像機器22よりアンプ23に、例えばBluetooth等の無線通信により音声データを伝送する。 The other inner wall 2 is formed by a screen unit 6C, a blank unit 6B, and a speaker unit 6A, and the video equipment 22 is arranged in a space between the inner wall 2 and the outer wall 3 on the side where the screen unit 6C is provided. Also, audio data is transmitted from the video device 22 on the side where the screen unit 6C is provided to the amplifier 23 by wireless communication such as Bluetooth.
この図11に示す視聴覚システムは、上述した構成を除いて、図1に示す視聴覚システムと同様に構成される。この図11に示す視聴覚システムのように4面の壁のうちの対向する2面を内壁2および外壁3により形成するようにしても、図1に示す視聴覚システムと同様の効果を得ることができる。またこの場合、スクリーンの背面側にもスピーカが設けられることにより、臨場感のある音場を得ることが可能となる。 The audiovisual system shown in FIG. 11 is configured in the same manner as the audiovisual system shown in FIG. 1 except for the configuration described above. Even if two opposing surfaces of the four walls are formed by the inner wall 2 and the outer wall 3 as in the audiovisual system shown in FIG. 11, the same effect as the audiovisual system shown in FIG. 1 can be obtained. . Further, in this case, a sound field with a sense of reality can be obtained by providing a speaker on the back side of the screen.
図12は、視聴覚システムの他の構成例を示している。この視聴覚システムは、視聴覚室31の内壁2に、大画面のスクリーンユニット6Cが設けられると共に、この大画面のスクリーンユニット6Cの背面に複数台のプロジェクタ10が配置され、これら複数台のプロジェクタ10によるマルチ画面表示により、高解像度の映像を大画面により表示するものである。 FIG. 12 shows another configuration example of the audiovisual system. In this audiovisual system, a large screen screen unit 6C is provided on the inner wall 2 of the audiovisual room 31, and a plurality of projectors 10 are arranged on the back of the large screen screen unit 6C. High resolution video is displayed on a large screen by multi-screen display.
ここで、図13に示すように、各プロジェクタ10は短辺方向が壁厚方向となるように外壁3に固定される。これにより、当該プロジェクタ10が外壁3に固定されても内壁2および外壁3との間はそれほど狭くはならない。 Here, as shown in FIG. 13, each projector 10 is fixed to the outer wall 3 such that the short side direction is the wall thickness direction. Thereby, even if the projector 10 is fixed to the outer wall 3, the space between the inner wall 2 and the outer wall 3 is not so narrow.
また、図13に示すように、各プロジェクタ10は、映像光(映像の表示に供する出射光)を壁面に取った方向に出射する。この映像光は、その光路上に配置したミラー32により反射されて映像光をスクリーンユニット6Cに照射される。この場合、ミラー32で映像光の光路が折り曲げられるので、図14との対比により図13に示すように、内壁2と外壁3との間の距離を短くして、大画面表示できる。 Further, as shown in FIG. 13, each projector 10 emits image light (emitted light used for displaying an image) in a direction taken on the wall surface. This image light is reflected by the mirror 32 arranged on the optical path, and the image light is irradiated onto the screen unit 6C. In this case, since the optical path of the image light is bent by the mirror 32, the distance between the inner wall 2 and the outer wall 3 can be shortened as shown in FIG.
なお、これによりプロジェクタ10の取り付け向きは、上向きに限らず、下向き、横向き等により設けるようにしてもよい。図13および図14に示す寸法は、一定の大きさによる画面の表示に必要な内壁2と外壁3との間の間隔を示す例である。 Thereby, the mounting direction of the projector 10 is not limited to the upward direction, and may be provided in the downward direction, the horizontal direction, or the like. The dimensions shown in FIGS. 13 and 14 are examples showing the distance between the inner wall 2 and the outer wall 3 necessary for displaying a screen with a certain size.
この図12に示す視聴覚システムは、上述した構成を除いて、図1に示す視聴覚システムと同様に構成される。この図12に示す視聴覚システムによれば、図1に示す視聴覚システムと同様の効果を得ることができる。またこの場合、上述したように外壁3に沿った方向にプロジェクタ10から映像光を出射した後、ミラー32によりスクリーンユニット6Cに向けて映像光を反射するものであり、内壁2と外壁3との間の距離を短くして大画面表示することができる。また、強固な外壁3に対して、プロジェクタ10を安定して取りつけることができ、また外壁3と内壁2の間の空間がそれほど狭くならないので、メンテナンス性等を向上させることができる。 The audiovisual system shown in FIG. 12 is configured in the same manner as the audiovisual system shown in FIG. 1 except for the configuration described above. According to the audiovisual system shown in FIG. 12, the same effect as that of the audiovisual system shown in FIG. 1 can be obtained. In this case, as described above, the image light is emitted from the projector 10 in the direction along the outer wall 3, and then reflected by the mirror 32 toward the screen unit 6 </ b> C, and the inner wall 2 and the outer wall 3 are The distance between them can be shortened and displayed on a large screen. In addition, the projector 10 can be stably attached to the strong outer wall 3, and the space between the outer wall 3 and the inner wall 2 is not so narrow, so that the maintainability and the like can be improved.
図15A,Bは、視聴覚システムの他の構成例を示している。図15Aは斜視図を示し、図15Bは側面図を示している。この視聴覚システムは、視聴覚室41の4面の壁の全てが、内壁2と外壁3とにより形成されて、人間の侵入可能に空間が形成される。また、視聴覚室41は、天井2Aが天井裏3Aに対して所定の間隔をもって配された二重天井構造を有すると共に、床2Bが床下3Bに対して所定の間隔をもって配された二重床構造を有している。 15A and 15B show another example of the configuration of the audiovisual system. FIG. 15A shows a perspective view, and FIG. 15B shows a side view. In this audiovisual system, all four walls of the audiovisual room 41 are formed by the inner wall 2 and the outer wall 3, and a space is formed so that humans can enter. The audiovisual room 41 has a double ceiling structure in which the ceiling 2A is arranged with a predetermined interval with respect to the ceiling back 3A, and the floor 2B is arranged with a predetermined interval with respect to the under floor 3B. have.
そして、内壁2、天井2Aおよび床2Bで構成される直方体の構造体が、床下3Bに対して複数の脚42をもって支持されている。すなわち、床2Bが複数の脚42により床下3Bに対して支持され、4面の内壁2がこの床2Bに保持され、さらにこの4面の内壁2に天井2Aが保持され、上述したように内壁2、天井2Aおよび床2Bで構成される直方体の構造体が床下3Bに対して複数の脚42をもって支持された状態となっている。 A rectangular parallelepiped structure including the inner wall 2, the ceiling 2A, and the floor 2B is supported with a plurality of legs 42 with respect to the lower floor 3B. That is, the floor 2B is supported by the plurality of legs 42 with respect to the floor 3B, the four inner walls 2 are held by the floor 2B, and the ceiling 2A is held by the four inner walls 2 as described above. 2, a rectangular parallelepiped structure composed of the ceiling 2A and the floor 2B is supported by a plurality of legs 42 with respect to the floor 3B.
この視聴覚室41は、例えば、一の面の内壁2にスクリーンユニット6C、スピーカユニット6Aが設けられ、残る内壁面、床面、天井面に、スピーカユニット6Aが設けられ、これによりサラウンド音場により映像コンテンツを鑑賞できるように作成される。 In the audiovisual room 41, for example, the screen unit 6C and the speaker unit 6A are provided on the inner wall 2 of one surface, and the speaker unit 6A is provided on the remaining inner wall surface, floor surface, and ceiling surface. Created to allow viewing of video content.
この図15に示す視聴覚システムは、上述した構成を除いて、図1に示す視聴覚システムと同様に構成され、同様の作用効果を得ることができる。また、二重天井構造あるいは二重床構造を有するので、例えば天井裏あるいは床下にプロジェクタ、アンプ等の機材を配置することも可能となる。また、内壁2、天井2Aおよび床2Bで構成される直方体の構造体が床下3Bに対して複数の脚42をもって支持されるものであり、壁、天井、床の全てに簡易かつ確実に空間を形成でき、しかも内壁、天井および床で構成される構造体は外壁に対して完全に独立した状態とできる。 The audiovisual system shown in FIG. 15 is configured in the same manner as the audiovisual system shown in FIG. 1 except for the configuration described above, and can obtain the same operational effects. Moreover, since it has a double ceiling structure or a double floor structure, it is possible to arrange equipment such as a projector and an amplifier behind the ceiling or under the floor. In addition, a rectangular parallelepiped structure composed of the inner wall 2, the ceiling 2A, and the floor 2B is supported by a plurality of legs 42 with respect to the underfloor 3B, and a space can be easily and reliably provided on all of the walls, ceiling, and floor. In addition, the structure composed of the inner wall, the ceiling and the floor can be completely independent from the outer wall.
図16A,Bは、視聴覚システムの他の構成例を示している。図16Aは斜視図を示し、図16Bは側面図を示している。この視聴覚システムは、視聴覚室51の4面の壁の全てが、内壁2と外壁3とにより形成されて、人間の侵入可能に空間が形成される。また、視聴覚室51は、天井2Aが天井裏3Aに対して所定の間隔をもって配された二重天井構造を有すると共に、床2Bが床下3Bに対して所定の間隔をもって配された二重床構造を有している。そして、天井2Aおよび床2Bは外壁3に固定され、内壁2は天井2Aおよび床2Bに固定されている。 16A and 16B show another configuration example of the audiovisual system. FIG. 16A shows a perspective view, and FIG. 16B shows a side view. In this audiovisual system, all four walls of the audiovisual room 51 are formed by the inner wall 2 and the outer wall 3, and a space is formed so that humans can enter. The audiovisual room 51 has a double ceiling structure in which the ceiling 2A is arranged at a predetermined interval with respect to the ceiling back 3A, and the floor 2B is arranged at a predetermined interval with respect to the under floor 3B. have. The ceiling 2A and the floor 2B are fixed to the outer wall 3, and the inner wall 2 is fixed to the ceiling 2A and the floor 2B.
この視聴覚室51は、例えば、一の面の内壁2にスクリーンユニット6C、スピーカユニット6Aが設けられ、残る内壁面、床面、天井面に、スピーカユニット6Aが設けられ、これによりサラウンド音場により映像コンテンツを鑑賞できるように作成される。 In the audiovisual room 51, for example, the screen unit 6C and the speaker unit 6A are provided on the inner wall 2 of one surface, and the speaker unit 6A is provided on the remaining inner wall surface, floor surface, and ceiling surface. Created to allow viewing of video content.
この図16に示す視聴覚システムは、上述した構成を除いて、図1に示す視聴覚システムと同様に構成され、同様の作用効果を得ることができる。また、二重天井構造あるいは二重床構造を有するので、例えば天井裏あるいは床下にプロジェクタ、アンプ等の機材を配置することも可能となる。また、天井2Aおよび床2Bは外壁3に固定され、内壁2は天井2Aおよび床2Bに固定されるものであり、壁、天井、床の全てに簡単かつ確実に空間を形成でき、しかも内壁2を天井2Aおよび床2Bを介して外壁3に安定して固定保持できる。 The audiovisual system shown in FIG. 16 is configured in the same manner as the audiovisual system shown in FIG. 1 except for the configuration described above, and the same operational effects can be obtained. Moreover, since it has a double ceiling structure or a double floor structure, it is possible to arrange equipment such as a projector and an amplifier behind the ceiling or under the floor. Further, the ceiling 2A and the floor 2B are fixed to the outer wall 3, and the inner wall 2 is fixed to the ceiling 2A and the floor 2B. A space can be easily and reliably formed in all of the wall, ceiling, and floor, and the inner wall 2 Can be stably fixed to the outer wall 3 via the ceiling 2A and the floor 2B.
図17は、視聴覚システムの他の構成例を示している。この視聴覚システムにおける視聴覚室61は、図15、図16に示す視聴覚システムの視聴覚室41,51と同様に、天井、床、壁が二重構造とされている。また、図18に示すように、視聴覚室61は、外部から外壁3および内壁2を通じて内部に入るための部屋用入り口62を有している。この場合、ユーザは、部屋用入り口62を構成するトンネル状の通路を通って内壁2に設けられたドア63から視聴覚室61の内部に入る。そして、この部屋用入り口62の側面、つまりトンネル状の通路側面に、内壁2および外壁3の間の空間に入るための空間用入り口(ドア)64が設けられている。 FIG. 17 shows another configuration example of the audiovisual system. The audiovisual room 61 in this audiovisual system has a double structure on the ceiling, floor, and wall, like the audiovisual rooms 41 and 51 of the audiovisual system shown in FIGS. As shown in FIG. 18, the audiovisual room 61 has a room entrance 62 for entering the inside through the outer wall 3 and the inner wall 2 from the outside. In this case, the user enters the inside of the audiovisual room 61 through a door 63 provided on the inner wall 2 through a tunnel-shaped passage constituting the room entrance 62. A space entrance (door) 64 for entering the space between the inner wall 2 and the outer wall 3 is provided on the side surface of the room entrance 62, that is, the side surface of the tunnel-like passage.
また、視聴覚室61には、図17に示すように、内壁2と外壁3との間の空間に、カーテン65による吸音材が設けられ、これによりスピーカユニット6Cで発生した音波が外壁3により反射して、スピーカユニット6Cによる音声の再生に悪影響を与えないようにされる。なおこのような吸音材にあっては、外壁3の内側に、マット状のグラスウールを貼り付けるようにしてもよく、種々の部材、配置方法を広く適用することができる。 In addition, as shown in FIG. 17, the audiovisual room 61 is provided with a sound absorbing material by the curtain 65 in the space between the inner wall 2 and the outer wall 3, whereby sound waves generated by the speaker unit 6 </ b> C are reflected by the outer wall 3. Thus, the sound reproduction by the speaker unit 6C is not adversely affected. In such a sound absorbing material, mat-shaped glass wool may be affixed to the inside of the outer wall 3, and various members and arrangement methods can be widely applied.
この図17に示す視聴覚システムは、上述した構成を除いて、図1に示す視聴覚システムと同様に構成され、同様の作用効果を得ることができる。また、内壁2あるいは外壁3に空間用入り口64を設けるものではなく、当該空間用入り口64を容易に設けることができ、しかもサービスマン等はこの空間用入り口64から内壁2および外壁3の間の空間に容易に侵入することができる。 The audiovisual system shown in FIG. 17 is configured in the same manner as the audiovisual system shown in FIG. 1 except for the configuration described above, and can obtain the same operational effects. In addition, the space entrance 64 is not provided in the inner wall 2 or the outer wall 3, but the space entrance 64 can be easily provided, and a serviceman or the like can connect the space entrance 64 between the inner wall 2 and the outer wall 3. It can easily enter the space.
なお、上述した視聴覚システムの構成例においては、4面の壁のうちの1面、2面、4面を内壁2、外壁3により作成する場合等について述べたが、本発明はこれに限らず、視聴覚室(部屋)を構成する壁、天井、床を必要に応じて二重構造として、上述の構成例と同様の効果を得ることができる。 In the above-described configuration example of the audiovisual system, the case where one, two, and four of the four walls are created by the inner wall 2 and the outer wall 3 is described. However, the present invention is not limited to this. The wall, ceiling, and floor constituting the audiovisual room (room) can be made to have a double structure as necessary, and the same effects as in the above configuration example can be obtained.
(2)画像表示装置 (2) Image display device
図19は、上述した視聴覚システムで、視聴覚室を構成する内壁2に画像を表示するための画像表示システム101の構成例を示している。この画像表示システム101は、データ処理装置102と、画像表示装置111と、照明120とからなっている。そして、画像表示装置111は、メディアデータベース112、音場処理部113C、画像処理部113B、表示情報選択部113A、照明情報選択部113E、照明情報生成部113D、背景画像表示部115、鳥瞰画像表示部117およびタッチパネル118からなるリモートコマンダ116、照明用コントローラ119およびスピーカ122を有している。ここで、音場処理部113C、画像処理部113B、表示情報選択部113A、照明情報選択部113Eおよび照明情報生成部113Dはそれぞれ制御部113を構成している。 FIG. 19 shows a configuration example of the image display system 101 for displaying an image on the inner wall 2 constituting the audiovisual room in the audiovisual system described above. The image display system 101 includes a data processing device 102, an image display device 111, and an illumination 120. The image display device 111 includes a media database 112, a sound field processing unit 113C, an image processing unit 113B, a display information selection unit 113A, an illumination information selection unit 113E, an illumination information generation unit 113D, a background image display unit 115, and a bird's eye image display. A remote commander 116 including a unit 117 and a touch panel 118, an illumination controller 119, and a speaker 122. Here, the sound field processing unit 113C, the image processing unit 113B, the display information selection unit 113A, the illumination information selection unit 113E, and the illumination information generation unit 113D constitute a control unit 113, respectively.
データ処理装置102は、画像表示装置111に、全周囲画像データD3を供給する。データ処理装置102は、事前に撮影地点で取得された撮像結果による画像データD1から、全周囲画像データD3を生成する。 The data processing device 102 supplies the omnidirectional image data D3 to the image display device 111. The data processing apparatus 102 generates omnidirectional image data D3 from the image data D1 based on the imaging result acquired in advance at the shooting location.
すなわち、この画像表示システム101では、事前に、所定の撮影地点で、例えば撮像装置(カメラ)を一定角度ずつパンさせながら撮像結果が取得され、これにより1画面では表示困難な広い範囲を撮影した広角の画像による撮像結果が取得される。この実施の形態では、撮像装置をパンさせながら撮像結果を取得して当該撮像装置を1周させることにより、この広角の画像による撮像結果に、この撮影地点で見渡すことができる全周囲の画像が適用される。 That is, in this image display system 101, an imaging result is acquired in advance at a predetermined shooting point, for example, by panning an imaging device (camera) by a certain angle, thereby capturing a wide range that is difficult to display on one screen. An imaging result by a wide-angle image is acquired. In this embodiment, by capturing the imaging result while panning the imaging device and making the imaging device make one round, the imaging result of this wide-angle image has an image of the entire periphery that can be overlooked at this imaging point. Applied.
なおここで、この撮影では、撮像装置が1回転した際に、この撮像装置が始めの位置に正しく戻るように、撮像装置のパンに係る回転軸等が精密に調整される。またこれによりこのように始めの位置で撮影した撮像結果と、1回転して初めの位置に戻って撮影した撮像結果とを比較し、この比較結果により、元の位置に正しく戻っていない場合には、改めて回転軸等を調整し直して撮影が繰り返される。またこの撮影では、オート絞り調整により、各撮像結果でそれぞれ露出が最適となるように設定される。 Here, in this shooting, the rotation axis and the like related to the pan of the imaging device are precisely adjusted so that when the imaging device rotates once, the imaging device returns correctly to the initial position. This also compares the imaging result captured at the starting position in this way with the imaging result captured by rotating once and returning to the initial position, and if the comparison result does not return correctly to the original position. In this case, the photographing is repeated by adjusting the rotation axis again. In this shooting, the exposure is set to be optimal for each imaging result by automatic aperture adjustment.
この画像表示システム101では、この静止画による撮像結果の取得時に、併せて、一定時間の間、この撮影地点の音声がサラウンド方式により録音される。なお、このサラウンド方式としては、例えば5.1チャンネルによるサラウンド方式が適用される。このとき、この音声にあっては、固定した複数のマイクロフォンにより、一定の方位を基準にして録音される。 In this image display system 101, at the time of acquiring the imaging result of the still image, the sound at the shooting point is recorded by the surround method for a certain time. As the surround system, for example, a 5.1 channel surround system is applied. At this time, this sound is recorded with a fixed direction by a plurality of fixed microphones.
この画像表示システム101では、事前に設定された複数地点で、これらの撮影、音声の録音が実行され、この撮影、録音による画像データD1、音声データD2が、データ処理装置102に提供される。 In the image display system 101, these photographing and sound recording are executed at a plurality of points set in advance, and image data D 1 and sound data D 2 obtained by the photographing and recording are provided to the data processing apparatus 102.
データ処理装置102は、例えば画像処理可能なコンピュータにより形成され、このように取得した画像データD1を画像表示装置111により容易に処理可能に、この画像データD1による画像を処理し、撮影地点毎に、全周囲画像データD3を生成する。ここで、図20Aに示すように、全周囲画像データD3は、各撮影地点の周囲を、所定の角度範囲で区切った複数の画像(以下、「部分画像」と呼ぶ)に係る画像データである。全周囲画像データD3は、この部分画像がJPEG(Joint Photographic Coding Experts Group )等による画像ファイルの集合により形成される。なおここで、図20Bは、元の画像データD1による画像を示し、また図20Aにおいて、符号FLにより示す枠は、画像表示システム101により表示される1画面の大きさを示すものである。 The data processing device 102 is formed by, for example, a computer capable of image processing, and processes the image based on the image data D1 so that the image display device 111 can easily process the acquired image data D1. All-around image data D3 is generated. Here, as shown in FIG. 20A, the all-around image data D3 is image data relating to a plurality of images (hereinafter referred to as “partial images”) obtained by dividing the periphery of each photographing point by a predetermined angle range. . In the all-around image data D3, this partial image is formed by a set of image files by JPEG (Joint Photographic Coding Experts Group) or the like. Here, FIG. 20B shows an image based on the original image data D1, and in FIG. 20A, a frame indicated by reference numeral FL indicates the size of one screen displayed by the image display system 101.
これにより、データ処理装置102は、各撮影地点でそれぞれ撮影された複数の撮像結果を繋ぎ合わせて全周囲の画像を生成した後、部分画像を切り出し、これにより全周囲画像データD3を生成する。また撮影地点における各部分画像の方位を検出可能に、各部分画像の方位情報を設定して全周囲画像データD3を生成する。 As a result, the data processing apparatus 102 joins a plurality of imaging results captured at each imaging point to generate an all-around image, and then cuts out a partial image, thereby generating all-around image data D3. Further, the azimuth information of each partial image is set so as to detect the azimuth of each partial image at the photographing point, and the all-around image data D3 is generated.
ところで、このようにして撮像装置により得られる画像は、ピンホールカメラのピンホールに代表される絞りを介して入射する被写体からの光を、撮像素子により形成される平坦な撮像面で撮像して取得されるものであり、これにより画像の周辺部分で図形歪みが大きくなる。これにより順次、パンさせて撮影した画像にあっては、違和感なく自然に繋ぎ合わせることが困難で、繋ぎ合わせの部分で、例えば建物の屋根が折れ曲がったり、ずれたりする。 By the way, the image obtained by the imaging device in this way is obtained by imaging light from a subject incident through an aperture represented by a pinhole of a pinhole camera on a flat imaging surface formed by an imaging device. As a result, the figure distortion increases in the peripheral portion of the image. As a result, it is difficult to naturally connect images without having a sense of incongruity in images that are sequentially panned and photographed, and, for example, the roofs of buildings are bent or displaced at the connected portions.
このためデータ処理装置102は、画像データD1による画像よりこの画像歪みを除去した後、全周囲画像を生成して部分画像を切り出す。このためデータ処理装置102は、図21に示すように、撮像面に対応する平面による結像スクリーン104に撮像結果による画像を投影して撮像装置105よりこの結像スクリーン104の投影画像を見るものとして、画像歪みを除去可能な仮想結像スクリーン106に、結像スクリーン104に投影された画像を投影し直す処理を演算処理により実行し、これによりこの種の画像歪みを除去する。ここで、データ処理装置102は、処理の簡略化のために、画像の長手方向(水平方向)にのみ曲面となった面によりこの仮想結像スクリーン106を定義してこの演算処理を実行する。これにより仮想結像スクリーン106は、軸に平行な面により円筒を部分的に切り取った形状により形成される。 For this reason, the data processing apparatus 102 removes this image distortion from the image based on the image data D1, and then generates an all-around image and cuts out a partial image. For this reason, as shown in FIG. 21, the data processing device 102 projects an image of the imaging result on the imaging screen 104 by a plane corresponding to the imaging surface, and views the projection image of the imaging screen 104 from the imaging device 105. As described above, a process of re-projecting the image projected on the imaging screen 104 to the virtual imaging screen 106 capable of removing the image distortion is executed by arithmetic processing, thereby removing this kind of image distortion. Here, in order to simplify the processing, the data processing apparatus 102 executes the arithmetic processing by defining the virtual imaging screen 106 with a surface that is curved only in the longitudinal direction (horizontal direction) of the image. Thereby, the virtual imaging screen 106 is formed in a shape in which a cylinder is partially cut by a plane parallel to the axis.
これによりデータ処理装置102は、図21に示すように、結像スクリーン104と仮想結像スクリーン106とが例えば中央で接しているものとして、この接した個所を原点に設定して3次元座標空間を定義する。また視点の座標を(0,0,−a)とする。なおここでは、結像スクリーン104における画像の横幅の1/2を値1とした場合の、画角の1/2がθの場合に、tan θ=1/aにより定義され、仮想結像スクリーン106の半径である。 As a result, the data processing apparatus 102 assumes that the imaging screen 104 and the virtual imaging screen 106 are in contact with each other at the center, for example, as shown in FIG. Define The coordinates of the viewpoint are (0, 0, -a). Here, when 1/2 of the horizontal width of the image on the imaging screen 104 is set to the value 1, when ½ of the angle of view is θ, it is defined by tan θ = 1 / a, and the virtual imaging screen A radius of 106.
データ処理装置102は、図22に示すように、撮像結果による各画素を結像スクリーン104にマッピングし、各画素と視点(0,0,−a)の点とを結ぶ直線が仮想結像スクリーン106を横切る交点のXY座標を検出する。データ処理装置102は、結像スクリーン104における各画素のXY座標値をこの交点によるXY座標に置き換えて各画素の位置を補正し、これにより画像歪みの除去処理を実行する。 As shown in FIG. 22, the data processing apparatus 102 maps each pixel according to the imaging result on the imaging screen 104, and a straight line connecting each pixel and the point of the viewpoint (0, 0, -a) is a virtual imaging screen. The XY coordinates of the intersection crossing 106 are detected. The data processing device 102 corrects the position of each pixel by replacing the XY coordinate value of each pixel on the imaging screen 104 with the XY coordinate by this intersection, thereby executing the image distortion removal processing.
なおこの場合、図22との対比により図23に示すように、3次元座標系による処理に代えて、極座標系による処理により、この一連の処理を実行するようにしてもよい。 In this case, as shown in FIG. 23 in comparison with FIG. 22, this series of processing may be executed by processing using a polar coordinate system instead of processing using a three-dimensional coordinate system.
データ処理装置102は、このようにして画像歪みを補正して全周囲の画像(以下、「全周囲画像」と呼ぶ)を生成した後、部分画像を切り出し、各部分画像の画像データをそれぞれデータ圧縮して複数の画像データファイルを生成する。またこの部分画像による画像データファイルを撮影地点毎にまとめて全周囲画像データD3を生成する。またこのとき各撮影地点で取得された音声データD2を付加して全周囲画像データD3を生成する。なおこの場合、全周囲画像データD3と対応付けして、音声データD2を別ファイルとしてもよい。 The data processing apparatus 102 corrects the image distortion in this way to generate an all-around image (hereinafter referred to as an “all-around image”), cuts out the partial image, and sets the image data of each partial image as data. A plurality of image data files are generated by compression. Further, the image data files of the partial images are collected for each shooting point to generate the all-around image data D3. At this time, the audio data D2 acquired at each photographing point is added to generate the all-around image data D3. In this case, the audio data D2 may be a separate file in association with the all-around image data D3.
さらに、データ処理装置102は、全周囲画像データD3毎に消失点を検出し、この消失点のY座標値をそれぞれ全周囲画像データD3に付加する。ここで消失点は、図24に示すように、透視変換によって三次元空間中の平行線を画像平面上に投影した場合に、この平行線に対応する画面平面上の直線L1、L2、……、Ln、……が収束する点のことである。すなわち消失点とは、実際は奥行きを有している空間が投影された平面画像上において、「無限に遠い点」であり、奥行き方向に平行な線(例えば、部屋の画像であれば、その稜線)の延長線が交わる点や、奥行き方向に伸びる面(例えば、部屋の画像であれば、奥行き方向に伸びる床、壁、天井に対応するそれぞれの平面)の延長が無限遠方に収束する点として認識されるものである。消失点から画像内で水平方向に描画された直線は、地平線である。 Further, the data processing device 102 detects a vanishing point for each omnidirectional image data D3, and adds the Y coordinate value of this vanishing point to the omnidirectional image data D3. Here, as shown in FIG. 24, vanishing points are straight lines L1, L2,... On the screen plane corresponding to the parallel lines when the parallel lines in the three-dimensional space are projected on the image plane by perspective transformation. , Ln,... Converge. In other words, the vanishing point is an “infinitely far point” on a planar image on which a space having depth is actually projected, and is a line parallel to the depth direction (for example, a ridgeline in the case of a room image). ) And the extension of the surface extending in the depth direction (for example, in the case of a room image, each plane corresponding to the floor, wall, and ceiling extending in the depth direction) converges to infinity. It is recognized. The straight line drawn in the horizontal direction in the image from the vanishing point is the horizon.
データ処理装置102は、1つの撮影地点で取得された各画像を画像処理して奥行き方向の平行線を検出し、この平行線の交点のY座標値を検出して消失点の座標値とする。なおこの平行線の検出に係る画像処理は、特徴点を検出して統計的に処理することにより実行される。またデータ処理装置102は、平行線の組み合わせ毎に消失点のY座標値を検出して統計的に処理し、1つの画像に1つのY座標値を検出する。また全周囲画像の作成に供する複数画像で検出されるY座標値をさらに統計的に処理することにより、全周囲画像毎に、消失点に係るY座標値を検出し、このY座標値を各全周囲画像データD3に付加する。なおこれにより図21について上述した結像スクリーン104と仮想結像スクリーン106との接点のY座標値は、このようにして検出される消失点のY座標値に設定される。またこれら一連の処理に係る統計的処理は、例えば平均値化の処理である。 The data processing apparatus 102 performs image processing on each image acquired at one shooting point to detect parallel lines in the depth direction, detects a Y coordinate value of an intersection of the parallel lines, and sets it as a vanishing point coordinate value. . The image processing related to the detection of the parallel lines is executed by detecting feature points and statistically processing them. Further, the data processing apparatus 102 detects the Y coordinate value of the vanishing point for each combination of parallel lines and statistically processes it, and detects one Y coordinate value for one image. Further, by further statistically processing the Y coordinate values detected in a plurality of images used for creating the all-around image, a Y-coordinate value relating to the vanishing point is detected for each all-around image, and each Y coordinate value is It is added to the entire surrounding image data D3. Accordingly, the Y coordinate value of the contact point between the imaging screen 104 and the virtual imaging screen 106 described above with reference to FIG. 21 is set to the Y coordinate value of the vanishing point detected in this way. The statistical processing related to the series of processing is, for example, averaging processing.
また、データ処理装置102は、このようにして部分画像より全周囲画像データD3を生成する際に、複数画像間における絞りの相違を補正するように、各画像における階調を補正し、これにより全周囲画像データD3による部分画像を、絞り一定の条件により撮影した画像により形成する。具体的にデータ処理装置102は、全周囲画像データの生成に供する全ての画像で、画素値の最大値おおび最小値を検出し、これら画素値の最大値および最小値がダイナミックレンジを越えないようにして、連続する画像の繋ぎ目で輝度レベルが急激に変化しないように、各画像の階調を補正し、これにより絞り一定の条件により撮影した場合の全周囲画像データD3を生成する。 In addition, when the data processing apparatus 102 generates the omnidirectional image data D3 from the partial images in this way, the data processing device 102 corrects the gradation in each image so as to correct the difference in aperture between the plurality of images, thereby A partial image based on the all-around image data D3 is formed from an image photographed under a constant aperture condition. Specifically, the data processing apparatus 102 detects the maximum value and the minimum value of the pixel values in all the images that are used for generating the all-around image data, and the maximum value and the minimum value of these pixel values do not exceed the dynamic range. In this way, the gradation of each image is corrected so that the luminance level does not change abruptly at the joints between successive images, thereby generating all-around image data D3 in the case of shooting under a constant aperture condition.
なお、撮像装置による撮像結果において、充分なダイナミックレンジを確保できている場合には、このようなオート絞り制御により撮影した複数画像の事後的な階調の補正に代えて、全周囲画像データの生成に供する撮像結果を絞り一定により撮像するようにしてもよい。 In addition, when a sufficient dynamic range is ensured in the imaging result by the imaging device, instead of ex-post tone correction of a plurality of images taken by such automatic aperture control, The imaging result used for generation may be imaged with a constant aperture.
画像表示システム101は、このようにして生成された全周囲画像データD3を、対応する鳥瞰画像データD4と共に画像表示装置111に供給し、メディアデータベース112に記録する。 The image display system 101 supplies the omnidirectional image data D3 generated in this way to the image display device 111 together with the corresponding bird's-eye image data D4, and records it in the media database 112.
ここで、鳥瞰画像データD4は、鳥瞰画像の画像データである。また、鳥瞰画像は、全周囲画像データD3の取得に係る撮影地点(個所)を上空より見た画像であり、実写による画像、イラストによる画像、コンピュータグラフィックスによる画像等が適用される。また、鳥瞰画像は、マーク等により全周囲画像データD3の取得に係る撮影地点を確認できるように、また対応する全周囲画像データD3を検索可能に作成される。具体的には、例えば鳥瞰画像は、全周囲画像データD3の取得に係る撮影地点にマークが配置されて作成され、対応する全周囲画像データD3を特定するリンク情報が各マークに設定されて作成される。またこれに代えて、鳥瞰画像に撮影地点をマークできるように、全周囲画像データD3側に同様のリンク情報が設定される。全周囲画像データD3、鳥瞰画像データD4は、光ディスク、磁気ディスク、メモリカード等の各種記録媒体から読み出されて画像表示装置111に供給され、あるいはインターネット等のネットワークを介したダウンロードにより画像表示装置111に供給される。 Here, the bird's-eye view image data D4 is image data of a bird's-eye view image. The bird's-eye view image is an image of a shooting point (location) related to acquisition of the all-around image data D3 as seen from above, and an image obtained by actual shooting, an image by illustration, an image by computer graphics, or the like is applied. In addition, the bird's-eye view image is created so as to be able to confirm a shooting point related to acquisition of the all-around image data D3 by using a mark or the like and to be able to search the corresponding all-around image data D3. Specifically, for example, the bird's-eye view image is created by placing a mark at a shooting point related to acquisition of the all-around image data D3, and creating link information specifying the corresponding all-around image data D3 for each mark. Is done. Instead of this, similar link information is set on the omnidirectional image data D3 side so that the shooting point can be marked on the bird's-eye view image. The all-around image data D3 and the bird's-eye image data D4 are read from various recording media such as an optical disk, a magnetic disk, and a memory card and supplied to the image display apparatus 111, or downloaded by way of a network such as the Internet. 111.
メディアデータベース112は、例えば大容量のハードディスク装置により形成され、制御部113の制御により、これら全周囲画像データD3、鳥瞰画像データD4を記録して保持し、また保持したこれら全周囲画像データD3、鳥瞰画像データD4を再生して出力する。また制御部113から出力される照明の制御に係る照明制御情報D5を記録して保持し、またこの保持した照明制御情報D5を再生して制御部113に出力する。 The media database 112 is formed by, for example, a large-capacity hard disk device, and records and holds these all-around image data D3 and bird's-eye image data D4 under the control of the control unit 113, and holds these all-around image data D3, The bird's-eye image data D4 is reproduced and output. Further, the illumination control information D5 related to the illumination control output from the control unit 113 is recorded and held, and the held illumination control information D5 is reproduced and output to the control unit 113.
背景画像表示部115は、大画面による表示装置であり、制御部113から出力されるビデオデータDV1による画像を表示する。この背景画面表示部115は、例えば上述した視聴覚システムを構成する内壁2(スクリーンユニット6C)およびプロジェクタ10等からなっている。ここで、このビデオデータDV1は、全周囲画像データD3により生成されるビデオデータであり、これにより画像表示装置111は、この背景画像表示部115によりユーザの所望する撮影地点の、所望する方向の風景画像を表示する。 The background image display unit 115 is a display device with a large screen, and displays an image based on the video data DV1 output from the control unit 113. The background screen display unit 115 includes, for example, the inner wall 2 (screen unit 6C) and the projector 10 that constitute the audiovisual system described above. Here, the video data DV1 is video data generated from the omnidirectional image data D3, whereby the image display device 111 causes the background image display unit 115 to display a desired shooting point in a desired direction. Display a landscape image.
リモートコマンダ116は、鳥瞰画像を表示すると共に、この鳥瞰画像等に係る各種ユーザ操作を無線通信等により制御部113に通知する。すなわち、鳥瞰画像表示部117は、このリモートコマンダ116に配置された液晶表示パネルにより形成され、背景画像表示部115で表示される画像の撮影地点に係る鳥瞰画像を表示する。タッチパネル118は、この鳥瞰画像表示部117によるユーザの各種操作を制御部113に通知する。なお、このリモートコマンダ116は、例えば後述するように視聴覚室の室内に配置されるテーブルの表面に形成される。 The remote commander 116 displays a bird's-eye view image and notifies the control unit 113 of various user operations related to the bird's-eye view image and the like by wireless communication or the like. That is, the bird's-eye image display unit 117 is formed by a liquid crystal display panel arranged in the remote commander 116 and displays a bird's-eye image related to a shooting point of an image displayed on the background image display unit 115. The touch panel 118 notifies the control unit 113 of various user operations by the bird's-eye view image display unit 117. The remote commander 116 is formed on the surface of a table disposed in the audiovisual room, for example, as will be described later.
照明用コントローラ119は、この画像表示装置111が配置された部屋(視聴覚室)の照明120を制御する制御手段であり、制御部113の指示に従って照明120の明るさ、色温度を可変する。 The illumination controller 119 is a control unit that controls the illumination 120 of the room (audio-visual room) in which the image display device 111 is disposed, and varies the brightness and color temperature of the illumination 120 in accordance with instructions from the control unit 113.
制御部113は、この画像表示装置111に係る一連の処理を実行するコンピュータであり、図示しないメモリに記録されたプログラムの実行により各部の動作を制御する。制御部113は、このプログラムの実行により各種機能ブロックを構成する。なお、この実施の形態において、この制御部113の処理に係るプログラムは、この画像表示装置111に事前にインストールされて提供されるものの、このような事前のインストールに代えて、光ディスク、磁気ディスク、メモリカード等の種々の記録媒体に記録して提供するようにしてもよく、またインターネット等のネットワークを介したダウンロードにより提供するようにしてもよい。 The control unit 113 is a computer that executes a series of processes related to the image display device 111, and controls the operation of each unit by executing a program recorded in a memory (not shown). The control unit 113 configures various functional blocks by executing this program. In this embodiment, the program related to the processing of the control unit 113 is provided by being preinstalled in the image display device 111. However, instead of such preinstallation, an optical disk, a magnetic disk, You may make it provide by recording on various recording media, such as a memory card, and you may make it provide by downloading via networks, such as the internet.
ここで、表示情報選択部113Aは、リモートコマンダ116からの通知に従って、鳥瞰画像表示部117、背景画像表示部115で表示する画像を選択し、この選択結果によりメディアデータベース112に画像データD3、D4および音声データD2の出力を指示する。画像処理部113Bは、このメディアデータベース112から出力される画像データD3、D4を処理して、鳥瞰画像表示部117、背景画像表示部115の駆動に供するビデオデータDV2,DV1を生成して鳥瞰画像表示部117、背景画像表示部115に出力する。 Here, the display information selection unit 113A selects an image to be displayed on the bird's-eye image display unit 117 and the background image display unit 115 according to the notification from the remote commander 116, and the image data D3 and D4 are displayed in the media database 112 according to the selection result. And instructing the output of the audio data D2. The image processing unit 113B processes the image data D3 and D4 output from the media database 112 to generate video data DV2 and DV1 to be used for driving the bird's-eye image display unit 117 and the background image display unit 115, and the bird's-eye image. The data is output to the display unit 117 and the background image display unit 115.
音場処理部113Cは、メディアデータベース112から出力される音声データD2を処理して、サラウンド音場の生成に供するスピーカ122を駆動する。このスピーカ122は、上述した視聴覚システムでは、内壁2(スピーカユニット6A)で構成される。 The sound field processing unit 113C processes the audio data D2 output from the media database 112 and drives the speaker 122 that is used to generate a surround sound field. The speaker 122 is configured by the inner wall 2 (speaker unit 6A) in the above-described audiovisual system.
このとき音場処理部113Cは、背景画像表示部115で表示される画像に応じて、この音声データD2による音像の定位位置を変化させ、これにより背景画像表示部115で表示される画像の向きに対応する音像の定位によりスピーカ122を駆動する。なお、このような音像の定位位置の変化は、例えばスピーカ122を駆動する各音声信号のチャンネルの切り換えにより、定位位置を大きく変化させた後、これらチャンネル間で加減算処理して、定位位置を細かく変化させることにより実行される。 At this time, the sound field processing unit 113C changes the localization position of the sound image based on the audio data D2 according to the image displayed on the background image display unit 115, and thereby the orientation of the image displayed on the background image display unit 115. The speaker 122 is driven by the localization of the sound image corresponding to. Note that such a change in the localization position of the sound image is obtained by, for example, changing the localization position largely by switching the channel of each audio signal that drives the speaker 122, and then performing addition / subtraction processing between these channels to finely determine the localization position. It is executed by changing.
照明情報生成部113Dは、メディアデータベース112から出力される画像データD3を処理し、照明120の制御に必要な照明制御情報D5を生成してメディアデータベース112に記録する。照明情報選択部113Eは、リモートコマンダ116からの通知に従って、照明情報生成部113Dにより生成してメディアデータベース112に記録した照明制御情報D5から、背景画像表示部115で表示される画像に対応する照明制御情報D5を選択的に取得し、この取得した照明制御情報D5により照明用コントローラ119の動作を制御する。 The illumination information generation unit 113D processes the image data D3 output from the media database 112, generates illumination control information D5 necessary for controlling the illumination 120, and records it in the media database 112. The illumination information selection unit 113E generates illumination corresponding to the image displayed on the background image display unit 115 from the illumination control information D5 generated by the illumination information generation unit 113D and recorded in the media database 112 in accordance with the notification from the remote commander 116. The control information D5 is selectively acquired, and the operation of the illumination controller 119 is controlled by the acquired illumination control information D5.
図25は、制御部113の基本的な処理に係る処理手順を示すフローチャートである。制御部113は、画像表示装置111の電源が立ち上げられると、この処理手順を開始してステップSP1からステップSP2に移り、ここでメディアデータベース112の記録から鳥瞰画像の選択に供するメニュー画面を表示する。またさらに,このメニュー画面におけるユーザの選択により、表示に供する鳥瞰画像の選択を受け付け、この鳥瞰画像の鳥瞰画像データD4をメディアデータベース112から取得する。 FIG. 25 is a flowchart illustrating a processing procedure related to basic processing of the control unit 113. When the power of the image display device 111 is turned on, the control unit 113 starts this processing procedure and proceeds from step SP1 to step SP2, where a menu screen for selecting a bird's-eye view image from recording in the media database 112 is displayed. To do. Furthermore, the selection of a bird's-eye image to be displayed is accepted by the user's selection on this menu screen, and the bird's-eye image data D4 of this bird's-eye image is acquired from the media database 112.
制御部113は、図26(A1)に示すように、この取得した鳥瞰画像データD4により鳥瞰画像表示部117に鳥瞰画像131を表示する。またこのとき、この鳥瞰画像131において、全周囲画像データD3の撮影地点をマークM1〜M5により示す。なお、この図26に示す鳥瞰画像においては、このマークM1〜M5を丸印により表し、「A」及び「B」の文字は、それぞれ各文字を表示した場所に実在する建築物を示すものとする。 As shown in FIG. 26 (A1), the control unit 113 displays the bird's-eye image 131 on the bird's-eye image display unit 117 based on the acquired bird's-eye image data D4. At this time, in this bird's-eye view image 131, the photographing points of the all-around image data D3 are indicated by marks M1 to M5. In the bird's-eye view image shown in FIG. 26, the marks M1 to M5 are represented by circles, and the characters “A” and “B” indicate the buildings that actually exist at the locations where the respective characters are displayed. To do.
続いて、制御部113は、ステップSP3に移り、ここでユーザによるタッチパネル118の操作を検出し、ユーザによるマークM1〜M5の選択により、これらマークM1〜M5により表される撮影地点のうち何れの撮影地点で撮影した画像を背景画像表示部115で表示するかを受け付ける。またさらに表示の向きの受け付けにより、この選択した撮影地点において、何れの方向を見て得られる画像を背景画像表示部115で表示するかを受け付ける。制御部113は、図26(A1)に示すように、ユーザによりマークが選択されると、この選択されたマークの上に、向きおよび選択されたことを示すマークMKを表示し、ユーザによるタッチパネル118の操作によりこのマークMKの向きを可変し、これによりこれら撮影地点、向きの入力を受け付ける。なお、図26(A1)に示すように、この実施の形態では、この向きおよび選択されたことを示すマークMKに、カメラの図案が適用される。 Subsequently, the control unit 113 proceeds to step SP3, where the operation of the touch panel 118 by the user is detected, and any one of the shooting points represented by these marks M1 to M5 is selected by the user's selection of the marks M1 to M5. Whether to display an image taken at the shooting point on the background image display unit 115 is accepted. Further, by accepting the display direction, it is accepted whether the image obtained by viewing which direction is displayed on the background image display unit 115 at the selected photographing point. As shown in FIG. 26A1, when the mark is selected by the user, the control unit 113 displays a mark MK indicating the direction and the selection on the selected mark, and the touch panel by the user. The direction of the mark MK is changed by the operation of 118, thereby accepting the input of the photographing point and direction. As shown in FIG. 26 (A1), in this embodiment, the design of the camera is applied to this orientation and the mark MK indicating that it has been selected.
このようにして撮影地点、向きの入力を受け付けると、制御部113は、ステップSP4に移り、選択されたマークM1に設定されたリンク情報により対応する全周囲画像データD3をメディアデータベース112から取得する。 When the input of the shooting point and the orientation is received in this way, the control unit 113 proceeds to step SP4 and acquires the corresponding all-around image data D3 from the media database 112 by the link information set for the selected mark M1. .
また、図27に示すように、続くステップSP5において、この取得した全周囲画像データD3(図27(A))による複数の部分画像から、ステップSP3で設定された向きに対応する部分画像を選択して繋ぎ合わせ(図27(B1))、この繋ぎ合わせた画像からステップSP3で設定された向きに応じて1画面分の画像を切り出して背景画像表示部115に表示する(図27(C1))。なお、図21〜図23について上述した歪み補正の処理は、全周囲画像データD3の作成時に代えて、このステップSP5における処理において、併せて実行するようにしてもよい。また同様に、上述した絞り一定の条件により撮影したように階調を補正する処理を、全周囲画像データD3の作成時に代えて、このステップSP5における処理において、併せて実行するようにしてもよい。 Further, as shown in FIG. 27, in the subsequent step SP5, a partial image corresponding to the orientation set in step SP3 is selected from the plurality of partial images based on the acquired all-around image data D3 (FIG. 27A). Then, the images are connected (FIG. 27 (B1)), and an image for one screen is cut out from the connected images according to the direction set in step SP3 and displayed on the background image display unit 115 (FIG. 27 (C1)). ). Note that the distortion correction processing described above with reference to FIGS. 21 to 23 may be executed together with the processing in step SP5 instead of the creation of the omnidirectional image data D3. Similarly, the above-described processing for correcting the gradation as if it was photographed under a constant aperture condition may be executed together with the processing in this step SP5 instead of when creating the all-around image data D3. .
このようにして1画面分の画像を切り出して背景画像表示部115に表示する際に、制御部113は、図28(A)に示すように、背景画像表示部115の設置時、サービスマンにより設定された背景画像表示部115におけるユーザの画像鑑賞時の目の高さと、全周囲画像データD3に設定された消失点のY座標値とを比較し、図28(B)に示すように、背景画像表示部115に表示する画像の消失点の位置が、このユーザの目の高さとなるように、表示位置を補正して表示する。これにより制御部113は、このようにして画像を表示して違和感なくユーザが風景等を鑑賞できるようにする。 In this way, when the image for one screen is cut out and displayed on the background image display unit 115, the control unit 113, as shown in FIG. Compare the height of the eyes when the user views the image in the set background image display unit 115 with the Y coordinate value of the vanishing point set in the all-around image data D3, as shown in FIG. The display position is corrected and displayed so that the position of the vanishing point of the image displayed on the background image display unit 115 is the height of the eyes of the user. As a result, the control unit 113 displays the image in this way so that the user can appreciate the scenery and the like without feeling uncomfortable.
このようにして全周囲画像データD3による画像を表示すると、制御部113は、ステップSP6に移り、この全周囲画像データD3に係る音声データの再生を開始してスピーカ122を駆動する。このとき制御部113は、上述した音場処理部113Cの機能ブロックによる処理により、背景画像表示部115により表示した画像に対応する位置に音像を定位させるように、音像の定位位置を可変して音場を設定する。 When the image based on the omnidirectional image data D3 is displayed in this way, the control unit 113 proceeds to step SP6, starts reproducing the audio data related to the omnidirectional image data D3, and drives the speaker 122. At this time, the control unit 113 changes the localization position of the sound image so that the sound image is localized at a position corresponding to the image displayed by the background image display unit 115 by the processing by the functional block of the sound field processing unit 113C described above. Set the sound field.
これらにより、制御部113は、鳥瞰画像においてユーザが指示した場所に、ユーザが指示した向きにユーザが立ち至った場合に、このユーザが目にする風景を背景画像表示部115に表示し、またこのユーザが耳にする各種の音をスピーカ122により再生し、図26(A1)により示す例では、図26(A2)により示すような画像を背景画像表示部115に表示する。 Thus, the control unit 113 displays the scenery that the user sees on the background image display unit 115 when the user reaches the location indicated by the user in the bird's-eye view image in the direction indicated by the user. Various sounds heard by the user are reproduced by the speaker 122, and in the example shown in FIG. 26 (A1), an image as shown in FIG. 26 (A2) is displayed on the background image display unit 115.
このようにして画像を表示して音声データの再生を開始すると、制御部113は、ステップSP7に移り、タッチパネル118の操作によりユーザが向きの変更を指示したか否か判断する。ここで否定結果が得られると、制御部113は、ステップSP8に移り、タッチパネル118の操作によりユーザが別のマークM1〜M4を選択し、ユーザが移動を指示したか否か判断する。ここで否定結果が得られると、制御部113は、ステップSP7に戻る。 When the image is displayed and the reproduction of the audio data is started in this manner, the control unit 113 proceeds to step SP7 and determines whether or not the user has instructed to change the direction by operating the touch panel 118. If a negative result is obtained here, the control unit 113 proceeds to step SP8 and determines whether or not the user has selected another mark M1 to M4 by operating the touch panel 118, and the user has instructed movement. If a negative result is obtained here, the control unit 113 returns to step SP7.
これにより、制御部113は、ユーザによる向きの変更、移動の指示を待ち、ユーザにより向きの変更が指示されると、ステップSP7で肯定結果が得られることにより、ステップSP7からステップSP10で向きを検出した後に、ステップSP11(図29)に移る。ここで制御部113は、図27(A)において符号Bにより示すように、ユーザにより変更が指示された向きの分、徐々に背景画像表示部115で表示する画像をスクロールさせる。なおこの場合に、図27(B1)および(C1)との対比により図27(B2)および(C2)に示すように、必要に応じて部分画像を繋ぎ併せて切り出す領域を徐々に変更し、これにより全周囲画像データD3による全周囲画像上で、スクロールの処理を実行する。 As a result, the control unit 113 waits for a direction change and movement instruction by the user, and when the direction change is instructed by the user, an affirmative result is obtained in step SP7, whereby the direction is changed from step SP7 to step SP10. After the detection, the process proceeds to step SP11 (FIG. 29). Here, as indicated by reference numeral B in FIG. 27A, the control unit 113 gradually scrolls the image displayed on the background image display unit 115 in the direction instructed to be changed by the user. In this case, as shown in FIGS. 27 (B2) and (C2) by comparison with FIGS. 27 (B1) and (C1), the regions to be cut out by joining the partial images as needed are gradually changed. As a result, the scrolling process is executed on the all-around image based on the all-around image data D3.
また、続くステップSP12において、音場処理部113Cの機能ブロックによる処理を切り換え、背景画像表示部115におけるスクロールに連動するように、スピーカ122により形成する音像の位置を徐々に移動させ、図25のステップSP7に戻る。またこのとき図26(A1)との対比により図26(B1)に示すように、向きを示すマークMKを、背景画像表示部115におけるスクロールに連動するように可変する。これにより、この図26(B1)の例では、図26(B2)により示す符号Bによる建造物の遠景を背景画像表示部115で表示することになる。 In the subsequent step SP12, the processing by the functional block of the sound field processing unit 113C is switched, and the position of the sound image formed by the speaker 122 is gradually moved so as to be interlocked with the scrolling in the background image display unit 115. The process returns to step SP7. Further, at this time, as shown in FIG. 26 (B1), the mark MK indicating the direction is changed so as to be interlocked with the scrolling in the background image display unit 115 as compared with FIG. 26 (A1). Thus, in the example of FIG. 26 (B1), the background image display unit 115 displays a distant view of the building with the symbol B shown in FIG. 26 (B2).
これに対して、ユーザにより移動が指示されると、ステップSP8で肯定結果が得られることにより、制御部113は、ステップSP8からステップSP13(図30)に移る。ここで制御部113は、ユーザにより指示されたマークM1〜M5により移動先の撮影地点(位置)を検出し、続くステップSP14において、ステップSP11、ステップSP12について上述したと同様にして、この移動先の撮影地点の向きに背景画像表示部115の表示、音場の設定を変更する。 On the other hand, when movement is instructed by the user, an affirmative result is obtained in step SP8, whereby the control unit 113 proceeds from step SP8 to step SP13 (FIG. 30). Here, the control unit 113 detects the shooting point (position) of the movement destination using the marks M1 to M5 instructed by the user, and in the subsequent step SP14, this movement destination is the same as described above for the steps SP11 and SP12. The display of the background image display unit 115 and the sound field setting are changed in the direction of the shooting point.
また、続くステップSP15において、この移動先について、ステップSP4について上述したと同様にして全周囲画像データD3をメディアデータベース112から取得する。また、続くステップSP16において、ステップSP5について上述したと同様にして、このメディアデータベース112から取得した全周囲画像データD3から移動先での表示に係る画像を生成する。 In subsequent step SP15, the entire surrounding image data D3 is acquired from the media database 112 for this destination in the same manner as described above for step SP4. In the subsequent step SP16, in the same manner as described above for step SP5, an image related to display at the destination is generated from the all-around image data D3 acquired from the media database 112.
制御部113は、続くステップSP17において、背景画像表示部115に表示中の画像を徐々にズームインさせながら、クロスフェードによりそれまでの表示をステップSP15で生成した画像に切り換える。なおこのようなズームイン、クロスフェードによる遷移に代えて、モザイク等、種々のエフェクトによる遷移を必要に応じて適用することができる。また、続くステップSP18において、このような表示の切り換えに連動して、クロスフェードにより、又は一旦フェードアウトした後、フェードインすることにより、移動先に対応する音声データD2による音場にスピーカ122による音場を切り換え、ステップSP7に戻る。 In subsequent step SP17, the control unit 113 gradually zooms in on the image being displayed on the background image display unit 115, and switches the display so far to the image generated in step SP15 by crossfade. It should be noted that transitions by various effects such as mosaics can be applied as necessary in place of such transitions by zoom-in and cross-fade. Further, in the following step SP18, in conjunction with such display switching, the sound from the speaker 122 is added to the sound field by the audio data D2 corresponding to the destination by cross-fading or fading in once after fading out. The field is switched and the process returns to step SP7.
これにより制御部113は、図26(B1)により示すように、ユーザがマークM1による撮影地点を指定して北側の風景を背景画像表示部115により表示している状態で、北西に配置されたマークM2への移動を指示した場合、図26(A1)により示すように、マークM2に向きを変更するように、背景画像表示部115の表示、音場を変更した後、図26(C1)および(C2)により示すように、マークM2に向かって移動するように背景画像表示部115の表示、音場を変更し、マークM2の位置による画像および音場をユーザに提供する。また、制御部113は、これらの表示の切り換えに連動するように、制御部113は、鳥瞰画像の表示におけるマークMKの位置、向きを可変する。 Thereby, as shown in FIG. 26 (B1), the control unit 113 is arranged in the northwest in a state where the user designates a shooting point by the mark M1 and the background image display unit 115 displays the landscape on the north side. When the movement to the mark M2 is instructed, as shown in FIG. 26 (A1), after changing the display and sound field of the background image display unit 115 so as to change the direction to the mark M2, FIG. 26 (C1) As shown by (C2), the display and sound field of the background image display unit 115 are changed so as to move toward the mark M2, and the image and sound field according to the position of the mark M2 are provided to the user. In addition, the control unit 113 changes the position and orientation of the mark MK in the bird's-eye view image display so as to be interlocked with the switching of these displays.
これらにより、この画像表示装置111では、実写における画像を用いてウォークスルーを体感できるように、画像および音声を提供する。 Thus, the image display device 111 provides images and sounds so that a walk-through can be experienced using an image in a live-action image.
なお、現実世界において、場所を移動する場合、例えば正面以外の方向に目標物を捕らえて移動する場合もある。これによりユーザにより移動が指示された場合に、このように移動先の方向に向き直って移動するように背景画像表示部115の表示を切り換える一連の処理において、移動先に向き直る処理を省略してもよい。なおこの場合、移動後に提供する画像にあっては、移動直前の向きによる画像としてもよく、ユーザにより指示された目標物の向きによる画像としてもよい。またこのような場合に、表示の切り換え時における遷移にあっては、移動方向に係るスクロールの処理をズームの処理と併せて実行するようにしてもよい。また、表示の切り換え時における表示の遷移にあっては、一旦、鳥瞰画像に表示を切り換えて遷移するようにしてもよい。 In addition, when moving a place in the real world, for example, a target may be captured and moved in a direction other than the front. Thus, when a movement is instructed by the user, the process of turning to the destination may be omitted in the series of processes for switching the display of the background image display unit 115 so as to move in the direction of the destination. Good. In this case, the image provided after the movement may be an image according to the direction immediately before the movement, or may be an image according to the direction of the target instructed by the user. In such a case, the scrolling process in the moving direction may be performed together with the zooming process when the display is switched. Further, regarding the transition of the display at the time of switching the display, the display may be switched once to the bird's-eye view image.
図31は、ユーザが背景画像上での遷移を指示した場合の、背景画像表示部115の表示の説明に供する略線図である。制御部113は、タッチパネル118の操作によりユーザが背景画像上での遷移を指示すると、一定時間の間、鳥瞰画像で表示したマークM1〜M5に対応するマークN1〜N4をこの背景画像表示部115による画像上で表示する。なおこの背景画像表示部115の表示に係るマークN1〜N4は、全周囲画像データD3を生成する際に、データ処理装置102により全周囲画像データD3にマークN1〜N4の表示位置情報を付加しておき、この位置情報に基づいて表示する。なおこの場合に、対応する鳥瞰画像に設定されているマークM1〜M5に基づいて、制御部113により全周囲画像データD3による画像上でマークN1〜N4の表示位置を計算して表示するようにしてもよい。 FIG. 31 is a schematic diagram for explaining the display on the background image display unit 115 when the user instructs transition on the background image. When the user instructs a transition on the background image by operating the touch panel 118, the control unit 113 displays the marks N1 to N4 corresponding to the marks M1 to M5 displayed as the bird's-eye image for a certain period of time on the background image display unit 115. Display on the image. The marks N1 to N4 related to the display of the background image display unit 115 add the display position information of the marks N1 to N4 to the omnidirectional image data D3 by the data processing device 102 when the omnidirectional image data D3 is generated. It is displayed based on this position information. In this case, based on the marks M1 to M5 set in the corresponding bird's-eye view image, the control unit 113 calculates and displays the display positions of the marks N1 to N4 on the image based on the all-around image data D3. May be.
制御部113は、このようにしてマークN1〜N4を表示すると、鳥瞰画像表示部117にこれらマークN1〜N4のフォーカスを切り換えるメニュー、決定のメニュー、左右へのスクロールを指示するメニューを表示し、これらのメニューの操作により、ユーザが何れかのマークN1〜N4を選択すると、図25、図29および図30について上述したと同様にして、このマークN1〜N4に対応する全周囲画像データD3を取得して背景画像表示部115の表示を切り換える。 When the control unit 113 displays the marks N1 to N4 in this way, the bird's-eye view image display unit 117 displays a menu for switching the focus of these marks N1 to N4, a determination menu, and a menu for instructing scrolling to the left and right. When the user selects any of the marks N1 to N4 by operating these menus, the entire surrounding image data D3 corresponding to the marks N1 to N4 is obtained in the same manner as described above with reference to FIGS. 25, 29, and 30. The display is acquired and the display of the background image display unit 115 is switched.
なお、この表示の切り換えにあっては、ユーザにより選択されたマークの表示位置が画面中央になるように、それまでの表示をスクロールさせながらズームインさせ、クロスフェードによりユーザにより選択されたマークに係る画像に表示を切り換える。また、このときの表示切り換え後の画像にあっては、元の画像に係る撮影地点からユーザにより選択されたマークに係る撮影地点を見た向きにより表示される。 In the switching of the display, the display up to that point is zoomed in while scrolling the display so that the display position of the mark selected by the user is in the center of the screen, and the mark selected by the user by the crossfade is related. Switch the display to an image. In addition, in the image after the display switching at this time, the image is displayed according to the direction of viewing the shooting point related to the mark selected by the user from the shooting point related to the original image.
これに対して、ユーザがスクロールのメニューを選択すると、矢印C1およびC2により表示に供する領域の変化を示すように、制御部113は、全周囲画像から切り出して表示する領域をユーザにより指示された方向に徐々に変化させ、これにより背景画像表示部115における表示をスクロールさせる。なお、制御部113は、これらの処理においても、背景画像表示部115における表示に対応するように、音場を変更し、これにより臨場感を確保する。 On the other hand, when the user selects the scroll menu, the control unit 113 is instructed by the user to display the area to be cut out from the entire surrounding image so as to indicate the change of the area to be displayed by the arrows C1 and C2. By gradually changing the direction, the display on the background image display unit 115 is scrolled. In these processes, the control unit 113 also changes the sound field so as to correspond to the display on the background image display unit 115, thereby ensuring a sense of reality.
これにより、制御部113は、いちいち鳥瞰図により現在位置を把握しなくても、表示された画像上で移動先を選択して、さらには向きを変えてウォークスルーを体感することができようにし、さらに一段と没入感を向上できるようにする。 As a result, the control unit 113 can select the destination on the displayed image without having to grasp the current position from the bird's eye view, and can change the direction to experience the walkthrough. In addition, the immersive feeling can be further improved.
なお、上述の図25、図29、図30の処理では、鳥瞰画像表示部117には鳥瞰画像のみが表示されるように説明したが、鳥瞰画像が表示されている状態(以下、「鳥瞰モード」と呼ぶ)で、ユーザ操作によってマーク選択によって表示すべき撮影地点が指定されると、背景画像表示部115に表示される画像と同じ画像が表示される状態(以下、「没入モード」と呼ぶ)に移行し、この没入モードで、ユーザによるリターン操作がされると、再び鳥瞰モードに移行するというように、鳥瞰画像表示部117の表示状態を、上述した鳥瞰モードと没入モードとに自由に切り換え可能としてもよい。 In the above-described processing of FIGS. 25, 29, and 30, it has been described that only the bird's-eye image is displayed on the bird's-eye image display unit 117, but the state where the bird's-eye image is displayed (hereinafter, “bird's-eye mode”). ”), When a shooting location to be displayed is designated by a user operation, the same image as the image displayed on the background image display unit 115 is displayed (hereinafter referred to as“ immersion mode ”). The display state of the bird's-eye image display unit 117 can be freely changed to the above-described bird's-eye mode and the immersive mode so that when the user performs a return operation in this immersive mode, the mode is shifted again to the bird's-eye mode. It may be switchable.
図32Aは鳥瞰モードにおける鳥瞰画像表示部117の表示例を示し、図32Bは没入モードにおける鳥瞰画像表示部117の表示例を示している。図32Aに示す鳥瞰モードでは、鳥瞰画像表示部117には鳥瞰画像が表示される。この鳥瞰画像における全周囲画像の撮影地点M1〜M5に対応して矩形の表示領域D1〜D5が設けられている。図32Aではこれらの表示領域表示領域D1〜D5は空白となっているが、実際には各表示領域にはそれぞれの地点における現在の向きにおける画像が表示されている。 FIG. 32A shows a display example of the bird's-eye image display unit 117 in the bird's-eye mode, and FIG. 32B shows a display example of the bird's-eye image display unit 117 in the immersive mode. In the bird's-eye view mode shown in FIG. 32A, a bird's-eye view image is displayed on the bird's-eye view image display unit 117. Rectangular display areas D1 to D5 are provided corresponding to the shooting points M1 to M5 of the all-around image in the bird's-eye view image. In FIG. 32A, these display area display areas D1 to D5 are blank, but in actuality, images in the current direction at the respective points are displayed in the respective display areas.
この鳥瞰モードでは、鳥瞰画像表示部117には、鳥瞰画像に重畳されて向き選択ボタンBL,BRが表示されている。ユーザは、タッチパネル118で選択ボタンBL,BRを操作することで、向きを任意に選択できる。この向きの選択に応じて鳥瞰画像表示部117に表示される鳥瞰画像の向きも変更され、さらに表示領域D1〜D5のそれぞれに表示される画像も対応して変更される。 In this bird's-eye view mode, the bird's-eye view image display unit 117 displays direction selection buttons BL and BR superimposed on the bird's-eye view image. The user can arbitrarily select the direction by operating the selection buttons BL and BR on the touch panel 118. In accordance with the selection of the orientation, the orientation of the bird's eye image displayed on the bird's eye image display unit 117 is also changed, and the images displayed in the display areas D1 to D5 are also changed correspondingly.
ここで、鳥瞰画像の変更は、上述したようにメディアデータベース112から読み出す鳥瞰画像データD4を向きに応じたものとすることで達成できる。この場合、メディアデータベース112には各向きに対応した鳥瞰画像データD4が蓄積されている。なお、鳥瞰画像の向きの変更は座標変換処理によっても達成できる。また、各表示領域の表示画像の変更は、上述したように各地点の全周囲画像から切り出す部分を向きに応じて変更することで達成できる。 Here, the change of the bird's-eye view image can be achieved by making the bird's-eye view image data D4 read from the media database 112 according to the direction as described above. In this case, the media database 112 stores bird's-eye image data D4 corresponding to each direction. Note that the change of the direction of the bird's-eye view image can also be achieved by coordinate conversion processing. Moreover, the change of the display image of each display area can be achieved by changing the part cut out from the omnidirectional image of each point according to direction as mentioned above.
この鳥瞰モードで、ユーザは、タッチパネル118で、撮影地点M1〜M5のうちいずれかをタッチすることで、撮影地点を選択できる。これにより、メディアデータベース112からその選択された地点の全周囲画像データD3が読み出され、背景画像表示部115には、選択された撮影地点の画像が、鳥瞰モードで選択された向きで表示される。このとき、鳥瞰画像表示部117の表示状態は、図32Bに示すように、没入モードとなり、背景画像表示部115に表示される画像と同じ画像が表示される状態となる。 In this bird's-eye view mode, the user can select a shooting point by touching any one of the shooting points M1 to M5 with the touch panel 118. Thereby, the all-around image data D3 of the selected point is read from the media database 112, and the image of the selected shooting point is displayed on the background image display unit 115 in the direction selected in the bird's eye mode. The At this time, as shown in FIG. 32B, the display state of the bird's-eye image display unit 117 is in the immersive mode, and the same image as the image displayed on the background image display unit 115 is displayed.
この没入モードでは、鳥瞰画像表示部117には、画像に重畳されて向き選択ボタンBL,BRが表示されている。ユーザは、タッチパネル118で選択ボタンBL,BRを操作することで、向きを任意に選択できる。この向きの選択に応じて、背景画像表示部115に表示される画像が変更されると共に、この鳥瞰画像表示部117に表示される画像もそれに対応して変更される。この画像の変更は、上述したように選択された地点の全周囲画像から切り出す部分を向きに応じて変更することで達成できる。 In this immersion mode, the bird's-eye view image display unit 117 displays direction selection buttons BL and BR superimposed on the image. The user can arbitrarily select the direction by operating the selection buttons BL and BR on the touch panel 118. In accordance with the selection of the orientation, the image displayed on the background image display unit 115 is changed, and the image displayed on the bird's eye image display unit 117 is also changed correspondingly. This change of the image can be achieved by changing the portion cut out from the entire surrounding image of the selected point as described above according to the direction.
また、この没入モードでは、鳥瞰画像表示部117には、画像に重畳されて、その画像内に存在する他の撮影地点を示すマークN2,N3が表示されている。ユーザは、タッチパネル118で撮影地点のマークをタッチすることで、他の撮影地点を直接選択できる。このように、没入モードで他の撮影地点が選択される場合には、メディアデータベース112からその撮影地点の全周囲画像データD3が読み出され、背景画像表示部115には、その撮影地点の画像がその選択時点における向きで表示される。この場合、鳥瞰画像表示部117に表示されている画像もその撮影地点のものに変更される。 In this immersive mode, the bird's-eye view image display unit 117 displays marks N2 and N3 indicating other shooting points that are superimposed on the image and present in the image. The user can directly select another shooting point by touching the mark of the shooting point on the touch panel 118. As described above, when another shooting point is selected in the immersion mode, the entire surrounding image data D3 of the shooting point is read from the media database 112, and the background image display unit 115 displays the image of the shooting point. Is displayed in the orientation at the time of selection. In this case, the image displayed on the bird's-eye view image display unit 117 is also changed to that at the shooting point.
また、この没入モードでは、鳥瞰画像表示部117には、画像に重畳されてリターンボタンRBが表示されている。ユーザは、タッチパネル118でこのリターンボタンRBを操作することで、没入モードから鳥瞰モードに移行し、鳥瞰画像表示部117に、図32Aに示すように、鳥瞰画像が表示された状態に復帰する。 In this immersion mode, the bird's eye image display unit 117 displays a return button RB superimposed on the image. By operating this return button RB on the touch panel 118, the user shifts from the immersive mode to the bird's-eye view mode, and returns to the state where the bird's-eye image is displayed on the bird's-eye image display unit 117 as shown in FIG. 32A.
図33は、上述した鳥瞰画像表示部117の表示状態の遷移図を示している。鳥瞰モードではモードを変更せずに向きの変更を行うことができる。そして、この鳥瞰モードで地点選択があると、没入モードに遷移する。没入モードではモードを変更せずに向きの変更を行うことができる。また、この没入モードでは、モードを変更せずに地点選択を行うことができる。そして、この没入モードでリターン操作がされることで、鳥瞰モードに遷移する。 FIG. 33 shows a transition diagram of the display state of the above-described bird's-eye image display unit 117. In the bird's-eye view mode, the direction can be changed without changing the mode. And if there is point selection in this bird's-eye view mode, it will change to immersion mode. In the immersive mode, the orientation can be changed without changing the mode. In this immersion mode, it is possible to perform point selection without changing the mode. Then, when the return operation is performed in the immersion mode, the mode is changed to the bird's-eye view mode.
ところで、有名観光地、テーマパーク等を鳥瞰画像により表示する場合、マークが密に配置される場合が予測され、これにより鳥瞰画像によっては、所望する場所の画像を簡易に表示できなくなる恐れがある。またこの場合、上述の背景画像表示部115の表示画面上のマークにより移動する場合にあっても、マークが密に表示され、これによりこの場合も所望する場所の画像を簡易に表示できなくなる恐れがある。 By the way, when displaying a famous sightseeing spot, a theme park, etc. with a bird's-eye view image, it is predicted that marks will be densely arranged, and depending on the bird's-eye view image, an image of a desired place may not be displayed easily. . In this case, even when the background image display unit 115 is moved by the mark on the display screen, the mark is displayed densely, and in this case as well, there is a risk that the image of the desired place cannot be easily displayed. There is.
そのため、制御部113は、タッチパネル118の操作によりユーザが全周囲画像の並列表示を指示すると、図34に示すように、背景画像表示部115に、ユーザにより指示された2つの撮影地点に係る全周囲画像D3Aの全部を並べて表示する。なおこの場合に、要は、2つの撮影地点に係る全周囲画像を上下に並べて表示すればよく、背景画像表示部115で表示可能な範囲で、全周囲画像の一部だけを表示するようにしてもよい。また背景画像表示部115と、鳥瞰画像表示部117とに2つの画像を分けて表示してもよく、鳥瞰画像表示部117にまとめて表示するようにしてもよい。またさらに、第3の表示装置を設けて、表示するようにしてよい。制御部113は、ユーザによる指示によりこの表示をスクロールさせ、移動先の入力を受け付ける。 Therefore, when the user instructs parallel display of all-around images by operating the touch panel 118, the control unit 113 causes the background image display unit 115 to display all of the two shooting points instructed by the user as shown in FIG. All the surrounding images D3A are displayed side by side. In this case, it is only necessary to display the entire surrounding images related to the two shooting points side by side, and display only a part of the entire surrounding image within the range that can be displayed by the background image display unit 115. May be. Two images may be displayed separately on the background image display unit 115 and the bird's-eye image display unit 117, or may be displayed together on the bird's-eye image display unit 117. Furthermore, a third display device may be provided for display. The control unit 113 scrolls this display according to an instruction from the user and accepts an input of a movement destination.
すなわち、図35は、この全周囲画像の並列表示に係る制御部113の処理手順を示すフローチャートである。制御部113は、この処理手順を開始すると、ステップSP21からステップSP22に移り、鳥瞰画像表示部117により鳥瞰画像を表示し、続くステップSP23において、この鳥瞰画像で表示したマークM1〜M5の選択をタッチパネル118により検出し、これによりユーザにより指示された撮影地点を受け付ける。このとき制御部113は、2つのマークM1〜M5の選択を受け付け、これにより並列表示に供する2つの画像について、撮影地点の選択を受け付ける。 That is, FIG. 35 is a flowchart showing a processing procedure of the control unit 113 related to the parallel display of the all-around image. When starting this processing procedure, the control unit 113 moves from step SP21 to step SP22, displays the bird's-eye image by the bird's-eye image display unit 117, and selects the marks M1 to M5 displayed in the bird's-eye image in the subsequent step SP23. The photographing point detected by the touch panel 118 and thereby instructed by the user is received. At this time, the control unit 113 accepts the selection of two marks M1 to M5, and thereby accepts the selection of the shooting point for the two images used for parallel display.
続いて、制御部113は、ステップSP24に移り、ステップSP23で取得した撮影地点に係る2つの全周囲画像データD3をメディアデータベース112から読み出し、この読み出した2つの全周囲画像データD3による全周囲画像D3Aを図34に示すように、上下に並べて表示する。 Subsequently, the control unit 113 proceeds to step SP24, reads out the two omnidirectional image data D3 relating to the shooting point acquired in step SP23 from the media database 112, and the omnidirectional image by the two read omnidirectional image data D3. D3A is displayed side by side as shown in FIG.
続いて、制御部113は、ステップSP25に移り、タッチパネル118の操作により、ユーザが上側に表示した全周囲画像のスクロールを指示したか否か判断し、ここで肯定結果が得られると、ステップSP26に移り、図34において矢印Dにより示すように、上側に表示した全周囲画像D3Aをスクロールさせ、ステップSP25に戻る。これに対してステップSP25で否定結果が得られると、制御部113は、ステップSP25からステップSP27に移り、タッチパネル118の操作により、ユーザが下側に表示した全周囲画像D3Aのスクロールを指示したか否か判断する。ここで肯定結果が得られると、制御部113は、ステップSP27からステップSP28に移り、図34において矢印Eにより示すように、下側に表示した全周囲画像をスクロールさせ、ステップSP25に戻る。 Subsequently, the control unit 113 proceeds to step SP25 to determine whether or not the user has instructed to scroll the entire surrounding image displayed on the upper side by operating the touch panel 118. If a positive result is obtained here, step SP26 is obtained. Then, as indicated by an arrow D in FIG. 34, the all-around image D3A displayed on the upper side is scrolled, and the process returns to step SP25. On the other hand, if a negative result is obtained in step SP25, the control unit 113 proceeds from step SP25 to step SP27, and has the user instructed to scroll the entire surrounding image D3A displayed on the lower side by operating the touch panel 118? Judge whether or not. If a positive result is obtained here, the control unit 113 proceeds from step SP27 to step SP28, scrolls the entire surrounding image displayed on the lower side as indicated by an arrow E in FIG. 34, and returns to step SP25.
これに対して、ステップSP27で否定結果が得られると、制御部113は、ステップSP29に移り、タッチパネル118の操作により、ユーザが決定のメニューを操作したか否かを判断する。ここで、否定結果が得られると、制御部113は、ステップSP29からステップSP25に戻る。これらにより、制御部113は、ユーザ操作に応動して上下に表示した全周囲画像D3Aをそれぞれスクロールさせる。 On the other hand, when a negative result is obtained in step SP27, the control unit 113 proceeds to step SP29 and determines whether or not the user has operated the determination menu by operating the touch panel 118. If a negative result is obtained here, the control unit 113 returns from step SP29 to step SP25. Thus, the control unit 113 scrolls the all-around image D3A displayed up and down in response to a user operation.
これに対して、ステップSP29で肯定結果が得られると、制御部113は、ステップSP30に移る。ここで制御部113は、上下に表示した全周囲画像D3Aの水平方向の中央位置が、複数の撮影地点のうち何れの方向であるかを検出する。また、図36により鳥瞰画像131上で示すように、この検出結果により、各撮影地点より検出した方向に延長する直線L1およびL2の交点Pを検出し、この交点Pの最近傍の撮影地点(この場合、マークM3による撮影地点である)を検出する。これにより制御部113は、ユーザの所望する移動先を検出し、続くステップSP31において、この移動先に係る全周囲画像データD3を取得して背景画像表示部115で表示した後、ステップSP32に移ってこの処理手順を終了する。 On the other hand, if a positive result is obtained in step SP29, the control unit 113 proceeds to step SP30. Here, the control unit 113 detects which direction is the center position in the horizontal direction of the omnidirectional image D3A displayed above and below among a plurality of shooting points. Further, as shown on the bird's-eye view image 131 by FIG. 36, based on this detection result, the intersection P of the straight lines L1 and L2 extending in the direction detected from each imaging point is detected, and the nearest imaging point ( In this case, the photographing point by the mark M3) is detected. As a result, the control unit 113 detects the destination desired by the user, and in the subsequent step SP31, acquires all-around image data D3 related to the destination and displays it on the background image display unit 115, and then proceeds to step SP32. This processing procedure is completed.
これにより制御部113は、全周囲画像の全画面表示において、移動先が画面中央になるように、2つの全周囲画像の表示をスクロールさせ、これら2つの全周囲画像により移動先の入力を受け付けて表示を切り換え、これらにより一段と使い勝手を向上させる。 As a result, the control unit 113 scrolls the display of the two omnidirectional images so that the movement destination is in the center of the screen in the full-screen display of the omnidirectional images, and accepts the input of the movement destination by these two omnidirectional images. The display is switched to improve usability.
なお、このようなスクロールにより移動先方向の設定に代えて、全周囲画像上にカーソルを表示して移動させることにより、移動先方向の設定を受け付けるようにしてもよい。またこのような並列的な全周囲画像の表示にあっては、鳥瞰画像表示部117で表示する場合には、タッチパネル118の操作により移動先方向の設定を受け付けるようにしてもよい。 In addition, instead of setting the destination direction by such scrolling, the setting of the destination direction may be accepted by displaying and moving the cursor on the entire surrounding image. In such parallel display of all-around images, when the bird's-eye view image display unit 117 displays the images, the setting of the movement destination direction may be received by operating the touch panel 118.
このような背景画像表示部115における一連の画像表示に係る処理と同時並列的に、制御部13は、照明用コントローラ119の制御により、背景画像表示部115に表示する画像に応じて照明120を種々に変化させる。 In parallel with the processing related to the series of image display in the background image display unit 115, the control unit 13 controls the illumination 120 according to the image displayed on the background image display unit 115 under the control of the illumination controller 119. Various changes.
このため、制御部113は、上述した一連の処理において、最初に全周囲画像データD3を取得すると、この全周囲画像データD3について照明制御情報D5を生成してメディアデータベース112に記録する。 For this reason, in the series of processes described above, the control unit 113 first acquires the omnidirectional image data D3, generates illumination control information D5 for the omnidirectional image data D3, and records it in the media database 112.
すなわち、制御部113は、全周囲画像データD3を構成する部分画像毎に、部分画像を構成する画素値の平均値を計算し、これにより各部分画像の平均輝度レベルを検出する。ここで図37に示すように、部分画像は、1つの撮影地点で撮像装置を順次パンして撮影していることにより、太陽の方向を背にした撮影では輝度レベルの高い撮像結果を得ることができるのに対し、太陽の方向を向いた撮影では、いわゆる逆光であることにより輝度レベルの低い撮像結果が得られる。 That is, the control unit 113 calculates an average value of pixel values constituting the partial image for each partial image constituting the omnidirectional image data D3, thereby detecting the average luminance level of each partial image. Here, as shown in FIG. 37, the partial image is obtained by sequentially panning the image pickup device at one shooting point, so that an image pickup result with a high luminance level is obtained in the shooting with the sun facing behind. On the other hand, when shooting in the direction of the sun, imaging results with a low luminance level can be obtained due to so-called backlight.
これにより、図38に示すように、このようにして検出される平均輝度レベルは、太陽の方向に対する部分画像の位置に応じて正弦波形状により変化することになる。制御部113は、このようにして検出される全周囲画像の各部の平均輝度レベルに応じて、照明120を変化させるように照明制御情報D5を生成する。 As a result, as shown in FIG. 38, the average luminance level detected in this way changes in a sinusoidal shape according to the position of the partial image with respect to the sun direction. The control unit 113 generates the illumination control information D5 so as to change the illumination 120 according to the average luminance level of each part of the omnidirectional image detected in this way.
具体的に、この実施の形態では、各部分画像で検出された平均輝度レベルに照明120の明るさが比例するように、各部分画像毎に、照明制御情報D5を生成する。また各部分画像で検出された平均輝度レベルに照明の色温度が比例するように、各部分画像毎に、照明制御情報D5を生成する。これらにより背景画像表示部115で表示する画像が明るい程、照明120が明るくなるように設定し、背景画像表示部115に表示した画像の見かけのコントラストを増大させる。すなわちこの場合、輝度レベルの高い部分をより明るく見せ、これにより見かけのコントラストを増大させる。また輝度レベルの高い部分の色温度を高くし、これにより輝度レベルの高い画像程、太陽光による画像であるように見せ、これによっても見かけのコントラストを増大させる。 Specifically, in this embodiment, the illumination control information D5 is generated for each partial image so that the brightness of the illumination 120 is proportional to the average luminance level detected in each partial image. In addition, illumination control information D5 is generated for each partial image so that the color temperature of the illumination is proportional to the average luminance level detected in each partial image. Accordingly, the brighter the image displayed on the background image display unit 115, the brighter the illumination 120 is set, and the apparent contrast of the image displayed on the background image display unit 115 is increased. That is, in this case, a portion with a high luminance level appears brighter, thereby increasing the apparent contrast. In addition, the color temperature of the portion with a high luminance level is increased, so that an image with a higher luminance level appears to be an image of sunlight, and this also increases the apparent contrast.
制御部113は、図39に示すように、このようにして生成した照明制御情報D5を、対応する部分画像を識別する識別コードである画像IDと共にメディアデータベース112に記録して保持する。また背景画像表示部115に表示する全周囲画像の部分に応じて、このメディアデータベース112に記録した照明制御情報D5を検索して対応する照明制御情報D5を検出し、この検出した照明制御情報D5による照明用コントローラ119の制御により照明120の明るさ、色温度を制御する。 As shown in FIG. 39, the control unit 113 records and holds the illumination control information D5 generated in this way in the media database 112 together with an image ID that is an identification code for identifying the corresponding partial image. Further, the illumination control information D5 recorded in the media database 112 is searched according to the part of the entire surrounding image displayed on the background image display unit 115, and the corresponding illumination control information D5 is detected, and the detected illumination control information D5 is detected. The brightness and color temperature of the illumination 120 are controlled by the illumination controller 119.
図40は、この照明120の制御に係る制御部113の処理手順を示すフローチャートである。制御部113は、この処理手順を開始すると、ステップSP41からステップSP42に移り、全周囲画像を取得する。また続くステップSP43において、この取得した全周囲画像から上述したようにして照明制御情報D5を生成し、メディアデータベース112に記録して保持する。 FIG. 40 is a flowchart showing a processing procedure of the control unit 113 related to the control of the illumination 120. When starting this processing procedure, the control unit 113 proceeds from step SP41 to step SP42 and acquires an all-around image. In the subsequent step SP43, the illumination control information D5 is generated from the acquired all-around image as described above, and recorded and held in the media database 112.
また、続くステップSP44において、背景画像表示部115で表示する画像が選択されると、続くステップSP45において、この表示に供する画像に対応する照明制御情報D5をメディアデータベース112より取得し、続くステップSP46においてステップSP44で選択された画像を背景画像表示部115で表示する。また続くステップSP47において、ステップSP45で取得した照明制御情報D5により照明120を制御する。また、続くステップSP48でユーザにより背景画像表示部115で表示する画像の変更指示が得られると、ステップSP44に戻る。 In subsequent step SP44, when an image to be displayed on the background image display unit 115 is selected, in subsequent step SP45, the illumination control information D5 corresponding to the image to be displayed is obtained from the media database 112, and subsequent step SP46. The background image display unit 115 displays the image selected in step SP44. In the following step SP47, the illumination 120 is controlled by the illumination control information D5 acquired in step SP45. Further, when the user gives an instruction to change the image displayed on the background image display unit 115 in subsequent step SP48, the process returns to step SP44.
なお、制御部113に充分な処理能力を確保できる場合等にあっては、このような事前の照明制御情報の生成に代えて、リアルタイムで照明制御情報を生成するようにしてもよく、またこれとは逆に、全周囲画像データD3の生成時に作成して、全周囲画像データD3と共に提供するようにしてもよい。 In addition, when sufficient processing capability can be ensured in the control unit 113, the illumination control information may be generated in real time instead of the generation of the advance illumination control information. On the contrary, it may be created when the omnidirectional image data D3 is generated and provided together with the omnidirectional image data D3.
以上の構成によれば、鳥瞰画像におけるユーザによる操作により、撮影地点の異なる広角の画像表示を切り換え、またこの画像表示をスクロールさせることにより、実写による画像の表示に関して、従来に比して高い没入感を確保することができる。 According to the above configuration, the user can operate the bird's-eye view image to switch the wide-angle image display at different shooting points, and by scrolling the image display, the display of the image by live-action is higher than the conventional one. A feeling can be secured.
また、広角の画像に対応する音声データにより、広角の画像表示の切り換え、スクロールに連動させて、ユーザに提供する音声データを切り換え、音像の位置を可変することにより、音声によってもさらに臨場感を向上することができ、さらに一段と高い没入感を得ることができる。 In addition, the audio data corresponding to the wide-angle image is used to switch the audio data to be provided to the user in conjunction with the switching of the wide-angle image display and the scrolling, and the position of the sound image is changed to further enhance the presence of the sound. It can be improved, and an even higher immersion feeling can be obtained.
また、広角に係る表示画像上におけるユーザによる入力よっても、広角の画像表示を切り換え、またこの画像表示をスクロールさせることにより、ユーザの使い勝手を向上することができる。 In addition, the user-friendliness can be improved by switching the wide-angle image display and scrolling the image display even by the user input on the wide-angle display image.
また、広角画像を並べて表示し、ユーザによる指示に係る方向の撮影場所に係る画像に表示を切り換えることによっても、ユーザの使い勝手を向上することができる。 Further, user convenience can also be improved by displaying the wide-angle images side by side and switching the display to an image related to the shooting location in the direction according to the instruction from the user.
また、背景画像表示部の表示の切り換え、広角画像に係るスクロールに連動して、室内の照明を可変することにより、画像に応じて雰囲気を可変して、さらにはコントラストを増大させて、一段と没入感を向上することができる。 In addition, by changing the lighting in the room in conjunction with the switching of the display on the background image display unit and the scrolling of the wide-angle image, the atmosphere can be changed according to the image, and the contrast can be further increased to further increase the immersion. A feeling can be improved.
具体的に、この照明の可変が、明るさおよび色温度のいずれかまたは双方の可変であり、さらに輝度レベルに応じて、明るさを増大させ、色温度を高くする可変であることにより、一段と没入感を向上することができる。 Specifically, the illumination can be varied by changing either or both of brightness and color temperature, and by increasing the brightness and increasing the color temperature according to the luminance level, Immersion feeling can be improved.
なお、上述した照明の制御とは逆に、各部分画像で検出された平均輝度レベルに照明の明るさ、色温度が逆比例するように、各部分画像毎に、照明制御情報D5を生成するようにしてもよい。 In contrast to the above-described illumination control, the illumination control information D5 is generated for each partial image so that the brightness and color temperature of the illumination are inversely proportional to the average luminance level detected in each partial image. You may do it.
すなわち、背景画像表示部115で表示する画像が明るい程、照明120が暗くなるように設定し、背景画像表示部115に表示した画像の見かけのコントラストを増大させる。すなわちこの場合、輝度レベルの低い部分をより暗く見せ、これにより見かけのコントラストを増大させる。また輝度レベルの低い部分の色温度を高くし、これにより輝度レベルの低い画像程、太陽光による画像であるように見せ、これによっても見かけのコントラストを増大させる。 That is, the illumination 120 is set to be darker as the image displayed on the background image display unit 115 becomes brighter, and the apparent contrast of the image displayed on the background image display unit 115 is increased. That is, in this case, the portion with a low luminance level appears darker, thereby increasing the apparent contrast. In addition, the color temperature of the portion with a low luminance level is increased, so that an image with a lower luminance level appears to be an image of sunlight, thereby increasing the apparent contrast.
照明に係る明るさ、色温度の可変が、背景画像表示部で表示する画像の輝度レベルに応じて、明るさを低下させ、色温度を低くする可変であることによっても、コントラストを増大させて、一段と没入感を向上することができる。 Contrast can also be increased by changing the brightness and color temperature related to the illumination by reducing the brightness and lowering the color temperature according to the brightness level of the image displayed on the background image display unit. , The feeling of immersion can be further improved.
また、表示に供する画像に応じて、各部分画像で検出された平均輝度レベルに照明の明るさ、色温度を比例させる比例制御と、それとは逆に各部分画像で検出された平均輝度レベルに照明の明るさ、色温度を反比例させる反比例制御とを切り換えるようにしてもよい。これにより、表示に供する画像に応じて照明の制御を適応的に切り換える。具体的に、例えば海辺の風景等の表示では、比例制御により照明を制御し、屋内で撮影した画像の表示では、反比例制御により照明を制御する。このように、表示に供する画像に応じて、照明に係る制御を切り換えるようにしても、一段と没入感を向上することができる。 Also, according to the image to be displayed, proportional control that makes the brightness and color temperature proportional to the average luminance level detected in each partial image, and conversely, the average luminance level detected in each partial image You may make it switch to the inverse proportional control which makes the brightness of illumination and color temperature inversely proportional. Thereby, the illumination control is adaptively switched according to the image to be displayed. Specifically, for example, lighting is controlled by proportional control when displaying a seaside landscape, and lighting is controlled by inverse proportional control when displaying an image taken indoors. Thus, even if the control related to the illumination is switched according to the image to be displayed, the feeling of immersion can be further improved.
また、全周囲画像データの生成に供する画像の撮影時、太陽の方向を記録して保持し、全周囲画像データD3にこの太陽の方向を特定する情報を付加するようにしてもよい。画像表示装置111では、この太陽の方向を特定する情報により、背景画像表示部115で表示する画像の、撮影時における太陽の方角に応じて照明の明るさ、色温度を可変する。このように、背景画像表示部115で表示する画像の、撮影時における太陽の方角に応じて照明の明るさ、色温度を可変することでも、没入感を向上させることができる。 Further, at the time of capturing an image for generation of all-around image data, the sun direction may be recorded and held, and information specifying this sun direction may be added to the all-around image data D3. The image display device 111 varies the brightness and color temperature of the illumination according to the direction of the sun of the image displayed on the background image display unit 115 based on the information specifying the direction of the sun. Thus, the immersion feeling can also be improved by varying the brightness and color temperature of the illumination displayed in the background image display unit 115 in accordance with the direction of the sun at the time of shooting.
また、全周囲画像データD3に、撮影時刻を特定する撮影時の時刻情報を付加し、この撮影時の時刻情報により照明を制御するようにしてもよい。具体的に、撮影時刻が夕方の場合、照明の明るさを暗くし、また色温度を低下させる。また撮影時刻が夜間の場合、一段と照明の明るさを暗くし、また色温度を低下させる。また撮影時刻が昼間の場合、照明の明るさを明るくし、また色温度を高くする。このように、背景画像表示部115で表示する画像の撮影時刻に応じて照明を可変するようにしても、没入感を向上させることができる。 Further, time information at the time of photographing that specifies the photographing time may be added to the all-around image data D3, and illumination may be controlled based on the time information at the time of photographing. Specifically, when the shooting time is evening, the brightness of the illumination is reduced and the color temperature is lowered. When the shooting time is night, the brightness of the illumination is further reduced and the color temperature is lowered. When the shooting time is daytime, the illumination brightness is increased and the color temperature is increased. Thus, even if the illumination is varied according to the photographing time of the image displayed on the background image display unit 115, the immersive feeling can be improved.
図41は、他の画像表示システム141の構成を示すブロック図である。この画像表示システム141は、ネットワーク上のサーバであるメディアデータベース144A〜144Cに全周囲画像データ、鳥瞰画像データが保持される。これにより、この画像表示システム141において、画像表示装置142は、広帯域ネットワーク143を介してメディアデータベース144A〜144Cをアクセスして全周囲画像データ、鳥瞰画像データを取得する点を除いて、上述した画像表示装置111(図19参照)と同一に構成される。このように、画像データに係る記録再生部をネットワーク上に配置する場合であっても、上述の実施の形態と同様の効果を得ることができる。 FIG. 41 is a block diagram illustrating a configuration of another image display system 141. In this image display system 141, all-around image data and bird's-eye image data are held in media databases 144A to 144C which are servers on the network. As a result, in the image display system 141, the image display device 142 accesses the media databases 144A to 144C via the broadband network 143 to acquire the all-around image data and the bird's-eye image data. The configuration is the same as that of the display device 111 (see FIG. 19). As described above, even when the recording / reproducing unit related to the image data is arranged on the network, the same effect as the above-described embodiment can be obtained.
なお、上述の実施の形態においては、全周囲画像より部分画像を生成して全画像データとする場合について述べたが、本発明はこれに限らず、元の撮像結果による複数画像の画像ファイルにより全画像データを構成するようにしてもよく、また1つの全周囲画像により全周囲画像データを構成するようにしてもよい。 In the above-described embodiment, the case where the partial image is generated from the entire surrounding image and used as the entire image data has been described. The entire image data may be configured, or the entire surrounding image data may be configured by one entire surrounding image.
また、上述の実施の形態においては、静止画による画像を表示する場合について述べたが、本発明はこれに限らず、動画による画像を表示する場合にも広く適用することができる。この場合、図41について上述したようなネットワークにより全周囲画像データを供給するサーバに接続することが考えられる。また、サーバにあっては、上述の全周囲画像データの生成に供する複数の撮像結果を動画により提供し、画像表示装置側にあっては、この複数の動画による撮像結果の画像合成により、種々に向きを変化させて、背景画像表示部に動画による映像を表示することができる。 In the above-described embodiment, the case where an image based on a still image is displayed has been described. However, the present invention is not limited to this and can be widely applied to the case where an image based on a moving image is displayed. In this case, it is conceivable to connect to a server that supplies all-around image data through a network as described above with reference to FIG. Further, the server provides a plurality of imaging results for generation of the above-described omnidirectional image data by moving images, and the image display device side provides various images by combining the imaging results of the plurality of moving images. It is possible to display a moving image on the background image display unit by changing the direction.
また、全周囲より動画を撮像する専用の撮像機構により動画による撮像結果を取得して提供し、この動画による撮像結果の画像処理により、種々に向きを変化させて、背景画像表示部に動画による映像を表示することもできる。なおこのような全周囲より動画を撮像する専用の撮像機構は、例えば曲面ミラーを用いる方法、角錐ミラーを用いる場合等があり、画像表示装置側では、この場合、撮像機構に応じて、伝送された撮像結果を画像変換させることが必要になる。 In addition, a dedicated imaging mechanism that captures a moving image from the entire surroundings is used to obtain and provide a moving image, and the orientation of the moving image is changed in various ways by image processing of the moving image. Video can also be displayed. Note that such a dedicated imaging mechanism for capturing a moving image from the entire periphery includes, for example, a method using a curved mirror, a case using a pyramid mirror, and the like, in this case, the image display apparatus transmits in accordance with the imaging mechanism. It is necessary to convert the obtained imaging result into an image.
また、上述の実施の形態においては、1画面により表示困難な広角の画像として、全周囲画像を適用する場合について述べたが、本発明はこれに限らず、例えば前方だけの画像を適用する場合等、必要に応じて種々の広がりを有する画像の表示に広く適用することができる。 Moreover, in the above-described embodiment, the case where the omnidirectional image is applied as a wide-angle image that is difficult to display on one screen has been described. The present invention can be widely applied to display of images having various spreads as required.
また、上述の実施の形態においては、水平方向に広がりを有する広角画像の表示に本発明を適用する場合について述べたが、本発明はこれに限らず、これに代えて、又はこれに加えて上下方向に広がりを有する広角画像の表示にも広く適用することができる。 In the above-described embodiment, the case where the present invention is applied to the display of a wide-angle image having a spread in the horizontal direction has been described. However, the present invention is not limited to this, and instead of or in addition to this. The present invention can also be widely applied to display of wide-angle images having a spread in the vertical direction.
また、上述の実施の形態においては、照明の明るさ、色温度を制御する場合について述べたが、本発明はこれに限らず、照明の分布を制御するようにしてもよい。すなわち、例えば逆光による画像を表示する場合に、この画像を表示している側を明るくし、これとは逆側を暗くすることにより、照明の分布により太陽の方向を感じ取ることができ、一段と臨場感を向上することができる。またこれとは逆に、太陽を背にして撮影した画像を表示する場合に、背景側を明るくすることによっても、照明の分布により太陽の方向を感じ取ることができ、一段と臨場感を向上することができる。 In the above-described embodiment, the case of controlling the brightness and color temperature of illumination has been described. However, the present invention is not limited to this, and the distribution of illumination may be controlled. That is, for example, when displaying an image by backlighting, by making the side displaying the image brighter and darkening the opposite side, the direction of the sun can be sensed by the distribution of illumination, making it more realistic A feeling can be improved. On the other hand, when displaying images taken with the sun on the back, it is possible to sense the direction of the sun due to the distribution of illumination, even by making the background side brighter, further improving the sense of reality. Can do.
また、上述の実施の形態においては、音声、照明により没入感を増大する場合について述べたが、本発明はこれに限らず、さらに風、温度等の制御によりさらに没入感を増大させるようにしてもよい。 In the above-described embodiment, the case where the immersive feeling is increased by sound and illumination has been described. However, the present invention is not limited to this, and the immersive feeling is further increased by controlling the wind, temperature, and the like. Also good.
(3)プロジェクタの配置例 (3) Arrangement example of projector
上述したように、天井と天井裏との間の空間、床と床下との間の空間、あるいは内壁と外壁との間の空間を有する視聴覚室(部屋)で、これらの空間にプロジェクタを配置する場合の種々の例を説明する。 As described above, a projector is disposed in an audiovisual room (room) having a space between the ceiling and the back of the ceiling, a space between the floor and the floor, or a space between the inner wall and the outer wall. Various examples will be described.
図42は、内壁2、天井2A、床2Bで囲まれた視聴覚室(部屋)401の内部の様子を示している。この視聴覚室401は、それぞれ天井2Aおよび床2Bの複数個所、図示の例では2箇所に、開口部としての投影用窓404が設けられている。ここで、投影用窓404は、室内に設けられたスクリーン等に、天井2Aと天井裏3A(図15、図16参照)との間の空間、床2Bと床下3B(図15、図16参照)との間の空間に配置されたプロジェクタ402(図42には図示せず)から映像光を照射できるように、開口部として、あるいは開口部にガラス等の透明板材を配置して形成される。なお、投影用窓404は、単に開口部により形成された場合は、蓋(図示せず)が設けられ、未使用時はこの蓋により覆われる。 FIG. 42 shows the inside of an audiovisual room (room) 401 surrounded by the inner wall 2, the ceiling 2A, and the floor 2B. In the audiovisual room 401, projection windows 404 as openings are provided at a plurality of locations on the ceiling 2A and the floor 2B, respectively, at two locations in the illustrated example. Here, the projection window 404 is formed on a screen or the like provided in the room, a space between the ceiling 2A and the ceiling back 3A (see FIGS. 15 and 16), a floor 2B and an underfloor 3B (see FIGS. 15 and 16). ) So that image light can be emitted from a projector 402 (not shown in FIG. 42) disposed in a space between the transparent plate material and a transparent plate material such as glass. . The projection window 404 is provided with a lid (not shown) when it is simply formed by an opening, and is covered with this lid when not in use.
天井2Aと天井裏3Aとの間に配置されるプロジェクタ402は、天井2Aの面に沿って、この天井2Aに形成された投影用窓404のいずれかの位置に選択的に移動し、当該投影用窓404を介して視聴覚室401の室内の所定位置に映像光を照射し、当該所定位置に映像を表示する。同様に、床2Bと床下3Bとの間に配置されるプロジェクタ4021は、床2Bの面に沿って、この床2Bに形成された投影用窓404のいずれかの位置に選択的に移動し、当該投影用窓404を介して視聴覚室401の室内の所定位置に映像光を照射し、当該所定位置に映像を表示する。このようにプロジェクタ402から投影用窓404を介して映像光を室内の所定位置に照射する構成とすることで、プロジェクタ402の使用時にも、このプロジェクタ402を室内に取り出すものではなく、使用時における室内の雰囲気を乱すこともない。 The projector 402 arranged between the ceiling 2A and the ceiling back 3A selectively moves to any position of the projection window 404 formed on the ceiling 2A along the surface of the ceiling 2A, and the projection The image light is irradiated to a predetermined position in the audiovisual room 401 through the window 404, and an image is displayed at the predetermined position. Similarly, the projector 4021 arranged between the floor 2B and the underfloor 3B selectively moves to any position of the projection window 404 formed on the floor 2B along the surface of the floor 2B. Video light is irradiated to a predetermined position in the audiovisual room 401 through the projection window 404, and an image is displayed at the predetermined position. Thus, by adopting a configuration in which image light is irradiated from the projector 402 to a predetermined position in the room through the projection window 404, the projector 402 is not taken out into the room even when the projector 402 is used. Does not disturb the indoor atmosphere.
プロジェクタ402が、2箇所の投影用窓404の位置に選択的に移動できるように、例えばこれら2箇所の投影用窓404の間にガイド部材が配置された構成とされる。この場合、ガイド部材は、プロジェクタ402を案内すると共に、当該プロジェクタ402に電源を供給する電源ラインとしても使用される。このようにプロジェクタ402は、ガイド部材に案内されて2箇所の投影用窓404の位置に選択的に移動するが、当該投影用窓404に対応した位置に正しく移動するように、位置検出機構を有している。この位置検出機構は、各投影用窓404の位置に設けられた位置検出用部材を検出することで、当該位置にいるか否かを検出する。 For example, a guide member is disposed between the two projection windows 404 so that the projector 402 can selectively move to the positions of the two projection windows 404. In this case, the guide member guides the projector 402 and is also used as a power supply line that supplies power to the projector 402. As described above, the projector 402 is selectively moved to the positions of the two projection windows 404 while being guided by the guide member, but the position detection mechanism is installed so as to correctly move to the position corresponding to the projection window 404. Have. This position detection mechanism detects a position detection member provided at the position of each projection window 404, thereby detecting whether or not the position is present.
例えば、位置検出機構が光学的手法による場合には、位置検出用部材としての反射シート等が天井2Aの裏面あるいはガイド部材等に貼り付けられる。また例えば位置検出機構がICタグを利用する場合には、ICタグが天井2Aの裏面あるいはガイド部材等に取り付けられる。このように、位置検出機構が採用する位置検出の手法に対応して、種々の位置検出用部材が天井2Aの裏面などに配設される。 For example, when the position detection mechanism is an optical method, a reflection sheet or the like as a position detection member is attached to the back surface of the ceiling 2A or a guide member. For example, when the position detection mechanism uses an IC tag, the IC tag is attached to the back surface of the ceiling 2A or a guide member. In this way, various position detection members are arranged on the back surface of the ceiling 2A and the like in accordance with the position detection method employed by the position detection mechanism.
図43は、プロジェクタ402の移動機構の一例を示している。プロジェクタ402の底面の両端がスクリューのついた2つの土台451で支えられ、それぞれの土台451がスクリューのついた2本のレール452に噛み合わされて設置される。2本のレール452がモータ453によって同期して回転することで、プロジェクタ402が前後(X方向)に移動する。 FIG. 43 shows an example of the moving mechanism of the projector 402. Both ends of the bottom surface of the projector 402 are supported by two bases 451 with screws, and each base 451 is engaged with two rails 452 with screws. As the two rails 452 are rotated in synchronization by the motor 453, the projector 402 moves back and forth (X direction).
また、この2本のレール452のそれぞれの両端もスクリューのついた構造とされており、それぞれのレール452がスクリューのついた2本のレール454に噛み合わされて設置される。2本のレールがモータ455によって同期して回転することで、プロジェクタ402が左右(Y方向)に移動する。 Further, both ends of each of the two rails 452 have a structure with a screw, and each rail 452 is installed by being engaged with two rails 454 with a screw. As the two rails rotate in synchronization with the motor 455, the projector 402 moves left and right (Y direction).
図43に示すプロジェクタ402の移動機構の場合、上述したように2箇所の投影用窓404の位置にプロジェクタ402を案内するガイド部材は、例えばレール452あるいはレール454によって構成されている。 In the case of the moving mechanism of the projector 402 shown in FIG. 43, as described above, the guide member for guiding the projector 402 to the positions of the two projection windows 404 is constituted by, for example, the rail 452 or the rail 454.
また、プロジェクタ402は、投影機構から出射される映像光を所定方向に反射するミラーと、このミラーの位置および角度を変化させるミラー可動機構とを有している。図44は、ミラー可動機構の一例を示している。プロジェクタ402の上面にシリンダ461が取り付けられ、このシリンダ461の先端にミラー462が取り付けられている。このシリンダ461により、ミラー462のプロジェクタ402からの距離が調整可能とされている。 The projector 402 includes a mirror that reflects the image light emitted from the projection mechanism in a predetermined direction, and a mirror movable mechanism that changes the position and angle of the mirror. FIG. 44 shows an example of the mirror movable mechanism. A cylinder 461 is attached to the upper surface of the projector 402, and a mirror 462 is attached to the tip of the cylinder 461. With this cylinder 461, the distance of the mirror 462 from the projector 402 can be adjusted.
また、シリンダ461のミラー462の取付位置に2軸のモータ463が設けられている。この2軸のモータ463によってミラー462の向きが調整可能とされている。このようにシリンダ461および2軸のモータ463によってミラー462の位置および角度を変えることができ、これによりプロジェクタ402の投影機構から出射される映像光が向かう方向、つまり映像が投影される室内位置を調整でき、映像表示位置の選択の自由度を高めることができる。 A biaxial motor 463 is provided at the mounting position of the mirror 462 of the cylinder 461. The direction of the mirror 462 can be adjusted by the two-axis motor 463. In this way, the position and angle of the mirror 462 can be changed by the cylinder 461 and the biaxial motor 463, so that the direction in which the image light emitted from the projection mechanism of the projector 402 is directed, that is, the indoor position where the image is projected. It can be adjusted and the degree of freedom in selecting the video display position can be increased.
図42に戻って、視聴覚室401には、上述した天井2Aおよび床2Bのそれぞれの一方の投影用窓404に対応する箇所に、事前の設置により、またはユーザによる移動により、スクリーン405a,405bが配置されている。 Returning to FIG. 42, in the audiovisual room 401, screens 405a and 405b are installed in advance in the locations corresponding to the projection windows 404 on the ceiling 2A and the floor 2B described above or moved by the user. Is arranged.
図45は、上述したプロジェクタ402の構成を示している。プロジェクタ402は、全体の動作を制御するコントローラ402aと、上述した移動機構402b(図43参照)と、ミラー可動機構402d(図44参照)と、映像光を投影するための投影機構402cと、リモートコマンダ471から無線送信されるコントロール信号を受信するリモコン受信部402eと、DVDプレーヤ、パーソナルコンピュータ、テレビチューナ等の映像機器472から無線送信される映像信号を受信する映像受信部402fと、この映像受信部402fで受信された映像信号に対し、投影機構402cによって室内の所定位置に投影される映像の歪み、例えば台形歪みを補正するための補正処理を行う補正処理部402gと、位置検出機構402hを有している。映像機器472は、例えば内壁2および外壁3との間の空間に収容されている。 FIG. 45 shows the configuration of the projector 402 described above. The projector 402 includes a controller 402a that controls the overall operation, the moving mechanism 402b (see FIG. 43), the mirror movable mechanism 402d (see FIG. 44), a projection mechanism 402c for projecting image light, a remote A remote control receiving unit 402e that receives a control signal wirelessly transmitted from the commander 471, a video receiving unit 402f that receives a video signal wirelessly transmitted from a video device 472 such as a DVD player, a personal computer, a TV tuner, and the like. A correction processing unit 402g that performs correction processing for correcting distortion of an image projected on a predetermined position in the room by the projection mechanism 402c, for example, trapezoidal distortion, with respect to the video signal received by the unit 402f, and a position detection mechanism 402h Have. The video equipment 472 is accommodated in a space between the inner wall 2 and the outer wall 3, for example.
なお、リモコン受信部402eはリモートコマンダ471から無線送信されるコントロール信号を受信し、また映像受信部402fは映像機器472から無線送信される映像信号を受信するものであり、プロジェクタ402と映像機器472との間、およびプロジェクタ402とリモートコマンダ471との間が無線で接続されるので、プロジェクタ402が空間内を移動する際にケーブルが邪魔になるなどということはない。 The remote control reception unit 402e receives a control signal wirelessly transmitted from the remote commander 471, and the video reception unit 402f receives a video signal wirelessly transmitted from the video equipment 472. The projector 402 and the video equipment 472 And the projector 402 and the remote commander 471 are wirelessly connected, so that the cable does not get in the way when the projector 402 moves in the space.
投影機構402cは、映像受信部402fで受信される映像信号に基づき、映像光を生成して出射する。つまり、この投影機構402cは、従来周知のように、光源と、この光源の出射光を映像信号により空間変調して映像光を生成する液晶パネル等の光空間変調素子、この映像光を出射する光学系等により形成されている。 The projection mechanism 402c generates and emits video light based on the video signal received by the video receiving unit 402f. That is, the projection mechanism 402c emits the image light, a light source, an optical spatial modulation element such as a liquid crystal panel that generates image light by spatially modulating the light emitted from the light source with an image signal, as is well known in the art. It is formed by an optical system or the like.
リモコン受信部402eは、リモートコマンダ471からのコントロール信号を受信してコントローラ402aに通知する。位置検出機構402hは、上述した位置検出用部材の検出により、投影用窓404が設けられた位置へのこのプロジェクタ402の移動を検出してコントローラ402に通知する。移動機構402bは、コントローラ402aの制御により、モータの駆動力によってスクリューを回転させ(図43参照)、これにより天井、床などの空間に設けられたレールに沿ってこのプロジェクタ402を移動させる。 The remote control receiving unit 402e receives a control signal from the remote commander 471 and notifies the controller 402a. The position detection mechanism 402h detects the movement of the projector 402 to the position where the projection window 404 is provided by the detection of the position detection member described above, and notifies the controller 402 of it. Under the control of the controller 402a, the moving mechanism 402b rotates the screw by the driving force of the motor (see FIG. 43), thereby moving the projector 402 along a rail provided in a space such as a ceiling or a floor.
図45に示すプロジェクタ402の動作を簡単に説明する。ユーザがリモートコマンダ471を操作して、所定の空間に配置されているプロジェクタ402から、所定の投影用窓404を通して室内の所定位置に映像光を照射することを指示するコントロール信号を出した場合について述べる。 The operation of the projector 402 shown in FIG. 45 will be briefly described. A case where the user operates the remote commander 471 to output a control signal instructing to irradiate a predetermined position in the room through a predetermined projection window 404 from the projector 402 disposed in a predetermined space. State.
この場合、リモートコマンダ471からのコントロール信号がリモコン受信部402eで受信され、このコントロール信号はコントローラ402aに供給される。コントローラ402aは、このコントロール信号を受け、移動機構402bを制御し、プロジェクタ402を上述した所定の投影用窓404に対応した位置に移動することを開始させる。そして、コントローラ402aは、位置検出機構402hにより所定の投影用窓404の位置へのプロジェクタ402の移動が検出されると、移動機構402bを制御してプロジェクタ402の移動を停止させる。 In this case, a control signal from the remote commander 471 is received by the remote control receiving unit 402e, and this control signal is supplied to the controller 402a. The controller 402a receives this control signal, controls the moving mechanism 402b, and starts moving the projector 402 to a position corresponding to the predetermined projection window 404 described above. When the movement of the projector 402 to the position of the predetermined projection window 404 is detected by the position detection mechanism 402h, the controller 402a controls the movement mechanism 402b to stop the movement of the projector 402.
この場合、図46に示すように、例えば天井2Aと天井裏3Aとの間の空間に配置されたプロジェクタ402は、ユーザによる指示により、天井面に沿って、それまで位置していた投影用窓404の位置から次の投影用窓(所定の投影用窓404)の位置に移動する。またこの場合、図47に示すように、例えば床2Bと床下3Bとの間の空間に配置されたプロジェクタ402は、ユーザによる指示により、床面に沿って、それまで位置していた投影用窓404の位置から次の投影用窓(所定の投影用窓404)の位置に移動する。 In this case, as shown in FIG. 46, for example, the projector 402 arranged in the space between the ceiling 2A and the ceiling back 3A is a projection window that has been positioned so far along the ceiling surface according to an instruction from the user. It moves from the position of 404 to the position of the next projection window (predetermined projection window 404). In this case, as shown in FIG. 47, for example, the projector 402 disposed in the space between the floor 2B and the underfloor 3B is a projection window that has been positioned so far along the floor surface according to an instruction from the user. It moves from the position of 404 to the position of the next projection window (predetermined projection window 404).
コントローラ402aは、このようにプロジェクタ402が所定の投影用窓404の位置に移動すると、ミラー可動機構402dを制御し、ミラー463を、映像光が当該所定の投影用窓404を通って室内の所定位置に照射されるように、ミラー402dの位置および角度を調整する。 When the projector 402 moves to the position of the predetermined projection window 404 as described above, the controller 402a controls the mirror moving mechanism 402d, and the mirror 463 passes the predetermined light in the room through the predetermined projection window 404. The position and angle of the mirror 402d are adjusted so that the position is irradiated.
また、コントローラ402aは、このようにプロジェクタ402が所定の投影用窓404の位置に移動すると、投影機構402b、補正処理部402gおよび映像処理部402fの動作を立ち上げる。映像受信部402fは映像機器472から映像信号を受信し、この映像信号を、補正処理部402gを介して投影機構402cに供給する。 In addition, when the projector 402 moves to the position of the predetermined projection window 404 as described above, the controller 402a activates the operations of the projection mechanism 402b, the correction processing unit 402g, and the video processing unit 402f. The video receiving unit 402f receives a video signal from the video device 472 and supplies the video signal to the projection mechanism 402c via the correction processing unit 402g.
これにより、投影機構402cから、映像信号に基づく映像光が出射され、この映像光はミラー402dで反射された後に、室内の所定位置に照射される。そして、この室内の所定位置には、映像機器472から映像受信部402fに供給される映像信号による映像が表示される。 Thereby, image light based on the image signal is emitted from the projection mechanism 402c, and the image light is reflected by the mirror 402d and then irradiated to a predetermined position in the room. Then, at a predetermined position in the room, an image based on an image signal supplied from the image device 472 to the image receiving unit 402f is displayed.
なお、コントローラ402aは、このように室内の所定位置に映像を表示した状態で、リモコン受信部からの通知により、ユーザによるフォーカス、ズームなどの操作に応じて、投影機構402cのフォーカス、ズーム倍率を調整する。 Note that the controller 402a sets the focus and zoom magnification of the projection mechanism 402c in response to a user operation such as focus and zoom in response to a notification from the remote control receiving unit with the video displayed at a predetermined position in the room. adjust.
ここで、図48に示すように、天井2Aと天井裏3Aとの間の空間に配置されるプロジェクタ402は、投影機構402cより出射される映像光の光路上にミラー462が配置され、このミラー462により天井面に沿った方向に向かって出射した映像光の光路を折り曲げ、天井2Aに設けられた投影用窓404を介して室内のスクリーン405に照射する。なおこの場合、ミラー462の傾きの可変により照射位置を調整できる。 Here, as shown in FIG. 48, in the projector 402 arranged in the space between the ceiling 2A and the ceiling back 3A, a mirror 462 is arranged on the optical path of the image light emitted from the projection mechanism 402c. The optical path of the image light emitted toward the direction along the ceiling surface is bent by 462 and irradiated to the screen 405 in the room through the projection window 404 provided on the ceiling 2A. In this case, the irradiation position can be adjusted by changing the tilt of the mirror 462.
また、図49に示すように、床2Bと床下3Bとの間の空間に配置されるプロジェクタ402は、同様に、投影機構402cより出射される映像光の光路上にミラー462が配置され、このミラー462により床面に沿った方向に向かって出射した映像光の光路を折り曲げ、床2Bに設けられた投影用窓404を介してスクリーン405に投影する。 In addition, as shown in FIG. 49, the projector 402 arranged in the space between the floor 2B and the underfloor 3B similarly has a mirror 462 arranged on the optical path of the image light emitted from the projection mechanism 402c. The optical path of the image light emitted in the direction along the floor surface by the mirror 462 is bent and projected onto the screen 405 through the projection window 404 provided on the floor 2B.
なお、これら図48および図49に示す構成では、スクリーン405に対して斜めに映像光を照射していることにより、台形歪み等が発生する。これにより、プロジェクタ402の補正処理部402gでは、映像信号に対して、この台形歪み等を防止する処理が行われる。 In the configurations shown in FIGS. 48 and 49, trapezoidal distortion or the like is generated by irradiating the screen 405 with image light obliquely. As a result, the correction processing unit 402g of the projector 402 performs processing for preventing the trapezoidal distortion and the like on the video signal.
なお、補正処理部402gでは、上述したように、投影機構402cによって室内の所定位置に投影される映像の歪みが補正されるように、映像受信部402fで受信された映像信号に補正処理が行われて投影機構402cに供給される。これにより、室内の所定位置には、歪みのない良好な映像が表示される。 As described above, the correction processing unit 402g performs correction processing on the video signal received by the video receiving unit 402f so that the distortion of the video projected to a predetermined position in the room is corrected by the projection mechanism 402c. And supplied to the projection mechanism 402c. Thereby, a good image without distortion is displayed at a predetermined position in the room.
なお、投影用窓404が蓋を備えている場合には、リモートコマンダ471により投影用窓404の開閉が制御される。すなわち、上述したようにプロジェクタ402から所定の投影用窓404を通して室内の所定位置に映像光を照射することを指示するコントロール信号がプロジェクタ402のリモコン受信部402eに送信される場合、当該所定の投影用窓404に蓋を開くように指示するコントロール信号が供給される。 When the projection window 404 includes a lid, the remote commander 471 controls the opening / closing of the projection window 404. That is, as described above, when the control signal instructing to irradiate the image light to the predetermined position in the room through the predetermined projection window 404 is transmitted from the projector 402 to the remote control receiving unit 402e of the projector 402, the predetermined projection is performed. A control signal is supplied to instruct the window 404 to open the lid.
また、上述したように映像光が照射される室内の所定位置がスクリーン405であって、常には巻き取られている場合には、リモートコマンダ471によりスクリーン405の開閉が制御される。すなわち、上述したようにプロジェクタ402から所定の投影用窓404を通して室内の所定位置に映像光を照射することを指示するコントロール信号がプロジェクタ402のリモコン受信部402eに送信される場合、当該スクリーン405に開くように指示するコントロール信号が供給される。 Further, as described above, when the predetermined position in the room where the image light is irradiated is the screen 405 and is always wound up, the remote commander 471 controls the opening and closing of the screen 405. That is, as described above, when the control signal instructing to irradiate the image light to the predetermined position in the room through the predetermined projection window 404 is transmitted from the projector 402 to the remote control receiving unit 402e of the projector 402, the screen 405 A control signal is provided to instruct opening.
上述したように、プロジェクタ402は天井2Aと天井裏3Aとの間の空間、床2Bと床下3Bとの間の空間、あるいは内壁2と外壁3との間の空間に配置されるものであって、視聴覚室401の室内に配置されるものでなく、室内の雰囲気を乱すことがない。また、プロジェクタ402はユーザ操作に応じて空間内の複数位置に選択的に移動して室内に映像光を照射できるものであり、複数台のプロジェクタを用意することなく、ユーザは室内の複数位置で映像を鑑賞できる。 As described above, the projector 402 is disposed in the space between the ceiling 2A and the ceiling back 3A, the space between the floor 2B and the floor 3B, or the space between the inner wall 2 and the outer wall 3. It is not arranged in the audiovisual room 401 and does not disturb the indoor atmosphere. In addition, the projector 402 can selectively move to a plurality of positions in the space according to a user operation and irradiate the image light in the room, and the user can move at a plurality of positions in the room without preparing a plurality of projectors. You can watch the video.
図50は、上述した図42との対比により、視聴覚室(部屋)401の内部の様子を示している。図42では、スクリーン405に映像を投影しているが、図50では、天井2A、床2Bに映像を投影している。すなわち、天井2Aと天井裏3Aとの間の空間に配置されたプロジェクタ402からの映像光が当該天井2Aに設けられた投影用窓404を通して床2Bに照射されている。また、床2Bと床下3Bとの間の空間に配置されたプロジェクタ402からの映像光が当該床2Bに設けられた投影用窓404を通して天井2Aに照射されている。なお、図50には、プロジェクタ402、天井裏3A、床下3Bは、図示していない。 FIG. 50 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 42 described above. In FIG. 42, an image is projected on the screen 405, but in FIG. 50, an image is projected on the ceiling 2A and the floor 2B. That is, the image light from the projector 402 disposed in the space between the ceiling 2A and the ceiling back 3A is irradiated to the floor 2B through the projection window 404 provided on the ceiling 2A. Further, the image light from the projector 402 arranged in the space between the floor 2B and the floor 3B is irradiated to the ceiling 2A through the projection window 404 provided on the floor 2B. In FIG. 50, the projector 402, the ceiling 3A, and the floor 3B are not shown.
図51は、上述した図42との対比により、視聴覚室(部屋)401の内部の様子を示している。図42では、スクリーン405に映像を投影しているが、図51では、内壁2および窓430に映像を投影している。すなわち、天井2Aと天井裏3Aとの間の空間に配置されたプロジェクタ402からの映像光が当該天井2Aに設けられた投影用窓404を通して内壁2に照射されている。また、床2Bと床下3Bとの間の空間に配置されたプロジェクタ402からの映像光が当該床2Bに設けられた投影用窓404を通して内壁2に形成された窓430に照射されている。なお、図51には、プロジェクタ402、天井裏3A、床下3Bは、図示していない。 FIG. 51 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 42 described above. In FIG. 42, an image is projected on the screen 405, but in FIG. 51, an image is projected on the inner wall 2 and the window 430. That is, the image light from the projector 402 arranged in the space between the ceiling 2A and the ceiling back 3A is irradiated on the inner wall 2 through the projection window 404 provided on the ceiling 2A. Further, image light from the projector 402 disposed in the space between the floor 2B and the floor 3B is irradiated to the window 430 formed on the inner wall 2 through the projection window 404 provided on the floor 2B. In FIG. 51, the projector 402, the ceiling back 3A, and the under floor 3B are not shown.
図52は、上述した図42との対比により、視聴覚室(部屋)401の内部の様子を示している。図42では、スクリーン405に映像を投影しているが、図52では、テーブル420に映像を投影している。すなわち、床2Bと床下3Bとの間の空間に配置されたプロジェクタ402からの映像光が当該床2Bに設けられた投影用窓404を通してテーブル420に照射されている。なお、図52には、プロジェクタ402、床下3Bは、図示していない。 FIG. 52 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 42 described above. In FIG. 42, an image is projected on the screen 405, but in FIG. 52, an image is projected on the table 420. In other words, the image light from the projector 402 arranged in the space between the floor 2B and the floor 3B is irradiated on the table 420 through the projection window 404 provided on the floor 2B. In FIG. 52, the projector 402 and the underfloor 3B are not shown.
ここで、図52に示すように、テーブル420は、上方から見てほぼ正方形形状のテーブル面423を有し、このテーブル面423の四隅をそれぞれ脚422により支える構造となっている。このテーブル面423は、図53に示すように、例えば強化ガラス等の透明板材で形成されている。また、テーブル面423はほぼ全面に、リアプロジェクション用のスクリーン425が配置される。これにより、テーブル420は、床2Bに設けられた投射窓404からの映像光をこのスクリーン425により受光し、床2Bと床下3Bとの間の空間に配置されたプロジェクタ402による映像を表示する。 Here, as shown in FIG. 52, the table 420 has a table surface 423 having a substantially square shape when viewed from above, and has a structure in which the four corners of the table surface 423 are supported by the legs 422, respectively. As shown in FIG. 53, the table surface 423 is formed of a transparent plate material such as tempered glass. In addition, a rear projection screen 425 is disposed almost on the entire table surface 423. As a result, the table 420 receives the image light from the projection window 404 provided on the floor 2B by the screen 425, and displays the image by the projector 402 disposed in the space between the floor 2B and the underfloor 3B.
図54は、上述した図42との対比により、視聴覚室(部屋)401の内部の様子を示している。図42では、スクリーン405に映像を投影しているが、図54では、テーブル420に映像を投影している。すなわち、天井2Aと天井裏3Aとの間の空間に配置されたプロジェクタ402からの映像光が当該天井2Aに設けられた投影用窓404を通してテーブル420に照射されている。なお、図54には、プロジェクタ402、天井裏3Aは、図示していない。 FIG. 54 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 42 described above. In FIG. 42, an image is projected on the screen 405, but in FIG. 54, an image is projected on the table 420. That is, the image light from the projector 402 arranged in the space between the ceiling 2A and the ceiling back 3A is irradiated to the table 420 through the projection window 404 provided on the ceiling 2A. In FIG. 54, the projector 402 and the ceiling back 3A are not shown.
図55、図56は、図48および図49との対比により、視聴覚室システムの一部構成を示している。この視聴覚システムにおいては、上下方向(垂直方向)に連続する2つの視聴覚室(部屋)401U,401Dに、1台のプロジェクタ402によって、映像を表示する。なお、図55は、階下の視聴覚室401Dにはスクリーン405に映像が表示され、階上の視聴覚室401Uにもスクリーン405に映像が表示される例である。これに対して、図56は、階下の視聴覚室401Dにはスクリーン405に映像が表示され、階上の視聴覚室401Uにはテーブル420のテーブル面に映像が表示される例である。 55 and 56 show a partial configuration of the audiovisual room system in comparison with FIGS. 48 and 49. In this audiovisual system, video is displayed by one projector 402 in two audiovisual rooms (rooms) 401U and 401D that are continuous in the vertical direction (vertical direction). FIG. 55 shows an example in which an image is displayed on the screen 405 in the audiovisual room 401D on the lower level and an image is displayed on the screen 405 in the audiovisual room 401U on the lower level. On the other hand, FIG. 56 shows an example in which an image is displayed on the screen 405 in the audiovisual room 401D on the lower level and an image is displayed on the table surface of the table 420 in the audiovisual room 401U on the lower level.
すなわち、プロジェクタ402は、階下の視聴覚室401Dの天井2Aと階上の視聴覚室401Uの床2Bとの間の空間に配置されている。そして、このプロジェクタ402は、階下の視聴覚室401Dの天井2Aに設けられた投影用窓404の位置または階上の視聴覚室401Uの床2Bに設けられた投影用窓404の位置に、選択的に移動可能とされている。この場合、図示せずも、空間内には、これらの投影用窓404の位置にプロジェクタ402を案内するためのガイド部材(図43のレール参照)が、設けられている。 That is, the projector 402 is disposed in a space between the ceiling 2A of the audiovisual room 401D below the floor and the floor 2B of the audiovisual room 401U above the floor. The projector 402 is selectively placed at the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401D below the floor or the position of the projection window 404 provided on the floor 2B of the audiovisual room 401U on the floor. It can be moved. In this case, although not shown, a guide member (see rails in FIG. 43) for guiding the projector 402 to the position of the projection window 404 is provided in the space.
プロジェクタ402は、階下の視聴覚室401Dのリモートコマンダ471の操作により、当該視聴覚室401Dの天井2Aに設けられた投影用窓404の位置に移動する。また、階上の視聴覚室401Uのリモートコマンダ471の操作により、当該視聴覚室401Uの床2Bに設けられた投影用窓404の位置に移動する。 The projector 402 moves to the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401D by the operation of the remote commander 471 in the audiovisual room 401D below the floor. Further, the operation of the remote commander 471 in the audiovisual room 401U on the floor moves to the position of the projection window 404 provided on the floor 2B of the audiovisual room 401U.
プロジェクタ402が階下の視聴覚室401Dの天井2Aに設けられた投影用窓404の位置に移動すると、この投影用窓404を介して視聴覚室401Dの所定位置に映像を表示するように、ミラー462の向きが切り換えられる。また、階下の視聴覚室401Dの天井2Aに設けられた投影用窓404の位置に移動すると、この投影用窓404を介して視聴覚室401Dの所定位置に映像を表示するように、ミラー462の向きが切り換えられる。 When the projector 402 moves to the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401D on the lower floor, the image of the mirror 462 is displayed through the projection window 404 so that an image is displayed at a predetermined position in the audiovisual room 401D. The direction is switched. Further, when moving to the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401D on the lower floor, the direction of the mirror 462 is displayed so that an image is displayed at a predetermined position of the audiovisual room 401D through the projection window 404. Is switched.
この図55、図56に示すように構成することで、2つの視聴覚室401U,401Dで、1台のプロジェクタ402を兼用でき、その分構成を簡略化できる。 55 and 56, the two audiovisual rooms 401U and 401D can be used as one projector 402, and the configuration can be simplified accordingly.
図57は、図55,図56との対比により、視聴覚室システムの一部構成を示している。この視聴覚システムにおいては、左右方向(水平方向)に連続する2つの視聴覚室(部屋)401L,401Rに、1台のプロジェクタ402によって、映像を表示する。 FIG. 57 shows a partial configuration of the audiovisual room system in comparison with FIGS. 55 and 56. In this audiovisual system, video is displayed by one projector 402 in two audiovisual rooms (rooms) 401L and 401R that are continuous in the left-right direction (horizontal direction).
すなわち、プロジェクタ402は、視聴覚室401L,401Rの天井2Aと天井裏3Aとの間の空間に配置されている。そして、このプロジェクタ402は、左側の視聴覚室401Lの天井2Aに設けられた投影用窓404の位置または右側の視聴覚室401Rの天井2Aに設けられた投影用窓404の位置に、選択的に移動可能とされている。この場合、図示せずも、空間内には、これらの投影用窓404の位置にプロジェクタ402を案内するためのガイド部材(図43のレール参照)が、設けられている。 That is, the projector 402 is disposed in a space between the ceiling 2A and the ceiling back 3A of the audiovisual rooms 401L and 401R. The projector 402 is selectively moved to the position of the projection window 404 provided on the ceiling 2A of the left audiovisual room 401L or the position of the projection window 404 provided on the ceiling 2A of the right audiovisual room 401R. It is possible. In this case, although not shown, a guide member (see rails in FIG. 43) for guiding the projector 402 to the position of the projection window 404 is provided in the space.
プロジェクタ402は、左側の視聴覚室401Lのリモートコマンダ471の操作により、当該視聴覚室401Lの天井2Aに設けられた投影用窓4の位置に移動する。また、右側の視聴覚室401Rのリモートコマンダ471の操作により、当該視聴覚室401Rの天井2Aに設けられた投影用窓404の位置を移動する。 The projector 402 moves to the position of the projection window 4 provided on the ceiling 2A of the audiovisual room 401L by the operation of the remote commander 471 in the audiovisual room 401L on the left side. Further, the operation of the remote commander 471 in the right audiovisual room 401R moves the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401R.
プロジェクタ402が左側の視聴覚室401Lの天井2Aに設けられた投影用窓404の位置に移動すると、この投影用窓404を介して視聴覚室401Lの所定位置に映像を表示するように、ミラー462の向きが切り換えられる。また、右側の視聴覚室401Rの天井2Aに設けられた投影用窓404の位置に移動すると、この投影用窓404を介して視聴覚室401Rの所定位置に映像を表示するように、ミラー462の向きが切り換えられる。 When the projector 402 moves to the position of the projection window 404 provided on the ceiling 2A of the left audio-visual room 401L, the mirror 462 is displayed so that an image is displayed at a predetermined position in the audio-visual room 401L via the projection window 404. The direction is switched. Further, when moving to the position of the projection window 404 provided on the ceiling 2A of the audiovisual room 401R on the right side, the direction of the mirror 462 is set so that an image is displayed at a predetermined position of the audiovisual room 401R through the projection window 404. Is switched.
この図57に示すように構成することで、2つの視聴覚室401L,401Rで、1台のプロジェクタ402を兼用でき、その分構成を簡略化できる。なお、水平方向に並ぶさらに多くの視聴覚室で1台のプロジェクタを同様にして兼用できることは勿論である。なお、図57では、天井2Aと天井裏3Aの間の空間にプロジェクタ402を配置したものであるが、このプロジェクタ402を床と床下との間の空間に配置するものも同様に構成できる。 With the configuration shown in FIG. 57, the two audiovisual rooms 401L and 401R can be used as one projector 402, and the configuration can be simplified accordingly. It goes without saying that one projector can be used in the same manner in more audiovisual rooms arranged in the horizontal direction. In FIG. 57, the projector 402 is arranged in the space between the ceiling 2A and the ceiling back 3A. However, the projector 402 arranged in the space between the floor and the floor can be similarly configured.
図58は、上述した図50との対比により、視聴覚室(部屋)401の内部の様子を示している。図50では、天井2Aに2個の投影用窓404が設けられたものを示したが、図58では、天井2Aには1個の帯状の投影用窓404が設けられている。この投影用窓404は、例えば透明ガラスにより覆われて作成される。この場合、プロジェクタ402をこの帯状の投影用窓404の各部に移動して、映像の投影位置を種々に変更できる。 FIG. 58 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 50 described above. FIG. 50 shows a case in which two projection windows 404 are provided on the ceiling 2A. In FIG. 58, one strip-shaped projection window 404 is provided on the ceiling 2A. The projection window 404 is created by being covered with, for example, transparent glass. In this case, the projection position of the image can be changed variously by moving the projector 402 to each part of the strip-shaped projection window 404.
図59は、上述した図58との対比により、視聴覚室(部屋)401の内部の様子を示している。図58では、天井2Aに1個の帯状の投影用窓404が設けられたものを示したが、図59では、内壁2に1個の帯状の投影用窓404が設けられている。この投影用窓404は、例えば透明ガラスにより覆われて作成される。この場合、内壁2と外壁3との間の空間に配置されるプロジェクタ402をこの帯状の投影用窓404の各部に移動して、反対側の内壁2における映像の投影位置を種々に変更できる。 FIG. 59 shows the inside of the audiovisual room (room) 401 in comparison with FIG. 58 described above. 58 shows a case in which one strip-shaped projection window 404 is provided on the ceiling 2A, but in FIG. 59, one strip-shaped projection window 404 is provided on the inner wall 2. In FIG. The projection window 404 is created by being covered with, for example, transparent glass. In this case, the projector 402 arranged in the space between the inner wall 2 and the outer wall 3 can be moved to each part of the belt-like projection window 404 to change the image projection position on the opposite inner wall 2 in various ways.
なお、上述実施の形態においては、プロジェクタ402のガイド部材がレールであるものを示したが、この発明はこれに限定されるものではなく、種々の手法を広く適用することができる。 In the above-described embodiment, the guide member of the projector 402 is a rail. However, the present invention is not limited to this, and various methods can be widely applied.
また、上述実施の形態においては、スクリーン405、テーブル420、床2B、天井2A、内壁2等に映像を投影する場合について述べたが、これに限らず、例えばテーブル以外の家具に投影する場合等、投影場所にあっては種々に設定することができる。 Further, in the above-described embodiment, the case where an image is projected on the screen 405, the table 420, the floor 2B, the ceiling 2A, the inner wall 2 and the like has been described. In the projection location, various settings can be made.
また、上述の実施の形態においては、天井、床、壁を二重構造により形成する場合について述べたが、これに限らず、要は、天井面、床面、壁面に沿ってプロジェクタを移動可能に、天井の裏側、床の裏側、壁の裏側に配置すればよく、種々の構造による視聴覚室に広く適用することができる。 In the above-described embodiment, the case where the ceiling, floor, and wall are formed in a double structure has been described. However, the present invention is not limited to this, and the main point is that the projector can be moved along the ceiling surface, floor surface, and wall surface. In addition, it may be arranged on the back side of the ceiling, the back side of the floor, or the back side of the wall, and can be widely applied to audiovisual rooms having various structures.
(4)リモートコマンダの構成例 (4) Remote commander configuration example
上述した画像表示システム101のリモートコマンダ116、あるいは上述したプロジェクタ402を制御するリモートコマンダ471として使用し得るリモートコマンダについて説明する。 A remote commander that can be used as the remote commander 116 of the image display system 101 described above or the remote commander 471 that controls the projector 402 described above will be described.
図60は、リモートコマンダ201の構成を示す略線図である。このリモートコマンダ201は、テーブル202によりユーザによる操作を受け付ける。ここで、テーブル202は、図61に示すように、上方から見てほぼ正方形形状のテーブル面203持ち、このテーブル面203の四隅がそれぞれ脚204により支えられた構造となっている。このテーブル面203は、強化ガラス等の透明板材により形成されている。このテーブル面203のほぼ全面に、背面投射型プロジェクタのスクリーン206および透明タッチパネル207がこの順に積層配置されている。タッチパネル207は、ユーザ操作による指示を検出するセンシング部を構成している。ここで、テーブル面203は全部が透明部分からなっていてもよいが、少なくともスクリーン206に対応した一部が透明部分であればよい。 FIG. 60 is a schematic diagram illustrating the configuration of the remote commander 201. The remote commander 201 receives a user operation from the table 202. Here, as shown in FIG. 61, the table 202 has a table surface 203 having a substantially square shape when viewed from above, and has four corners of the table surface 203 supported by legs 204. The table surface 203 is formed of a transparent plate material such as tempered glass. A screen 206 and a transparent touch panel 207 of a rear projection type projector are laminated in this order on almost the entire table surface 203. The touch panel 207 constitutes a sensing unit that detects an instruction by a user operation. Here, the entire table surface 203 may be a transparent portion, but at least a portion corresponding to the screen 206 may be a transparent portion.
また、図61に示すように、テーブル202は、テーブル面203の下側であって、脚204の内側に、テーブル台208を備えている。すなわち、図62Aおよび図62Bにそれぞれ側面図および底面図を示すように、テーブル台208はテーブル面203の下側の全面をほぼ覆う角筒形状に形成されている。後述するようにテーブル202の下方位置に配置されるプロジェクタ210は、このテーブル台208で覆い隠された状態とされる。なおここで、このテーブル台208によりテーブル面203の全体を支えるようにし、脚204を省略するようにしてもよい。 As shown in FIG. 61, the table 202 includes a table base 208 on the lower side of the table surface 203 and inside the legs 204. That is, as shown in FIG. 62A and FIG. 62B, respectively, a side view and a bottom view, the table base 208 is formed in a rectangular tube shape that substantially covers the entire lower surface of the table surface 203. As will be described later, the projector 210 disposed below the table 202 is covered with the table base 208. Here, the entire table surface 203 may be supported by the table base 208, and the legs 204 may be omitted.
ここで、プロジェクタ210は、背面投射型プロジェクタであり、DVDプレーヤ、ビデオテープレコーダ、テレビチューナ等の映像機器(図示せず)から無線送信されて送受信部212で受信された映像信号SVによる映像光を上方に向けて出射する。これにより、図63に模式的に示すように、テーブル面203に設けられたスクリーン206に、当該映像信号SVによる映像が表示される。 Here, the projector 210 is a rear projection type projector, and the video light by the video signal SV that is wirelessly transmitted from a video device (not shown) such as a DVD player, a video tape recorder, and a TV tuner and received by the transmission / reception unit 212. Is emitted upward. Thereby, as schematically shown in FIG. 63, an image based on the video signal SV is displayed on the screen 206 provided on the table surface 203.
信号処理部211は、ユーザによるタッチパネル207の操作による指示を検出し、この指示を送受信部212に通知する。送受信部212は、このユーザ操作による指示を、映像機器に無線送信する。また、送受信部212は、映像機器と無線通信し、当該映像機器から映像信号SVを受信し、これをプロジェクタ210に供給する。 The signal processing unit 211 detects an instruction by the operation of the touch panel 207 by the user, and notifies the transmission / reception unit 212 of this instruction. The transmission / reception unit 212 wirelessly transmits the instruction by the user operation to the video equipment. In addition, the transmission / reception unit 212 wirelessly communicates with the video device, receives the video signal SV from the video device, and supplies this to the projector 210.
図60に示すリモートコマンダ201の動作を説明する。例えば、ユーザがタッチパネル207の有効画面外をタッチ操作すると、信号処理部211ではメニュー画面の要求指示が検出される。このメニュー画面の要求指示は、送受信部212を通じて映像機器に送信される。 The operation of the remote commander 201 shown in FIG. 60 will be described. For example, when the user performs a touch operation outside the effective screen of the touch panel 207, the signal processing unit 211 detects a menu screen request instruction. The request instruction for the menu screen is transmitted to the video equipment through the transmission / reception unit 212.
そして、このメニュー画面の要求指示により映像機器から送られてくるメニュー画面用の映像信号が送受信部212で受信され、この映像信号SVはプロジェクタ210に供給される。プロジェクタ210からは、この映像信号SVによる映像光が出射され、テーブル面203に配置されたスクリーン206に照射される。これにより、スクリーン206には、メニュー画面が表示される。 Then, the video signal for the menu screen transmitted from the video device in response to the instruction instruction for the menu screen is received by the transmission / reception unit 212, and the video signal SV is supplied to the projector 210. The projector 210 emits image light based on the image signal SV and irradiates the screen 206 disposed on the table surface 203. As a result, a menu screen is displayed on the screen 206.
また、このようにスクリーン206にメニュー画面が表示されている状態で、ユーザがタッチパネル207を操作することで、信号処理部211では所定のメニューの選択指示が検出される。このメニューの選択指示は、送受信部212を通じて映像機器に送信される。これにより、映像機器の動作を種々に制御できる。この映像機器の動作には、リモートコマンダ201に所定の映像信号を送る動作も含まれる。 In addition, when the user operates the touch panel 207 while the menu screen is displayed on the screen 206 in this way, the signal processing unit 211 detects an instruction to select a predetermined menu. This menu selection instruction is transmitted to the video equipment through the transmission / reception unit 212. Thereby, various operations of the video equipment can be controlled. This operation of the video equipment includes an operation of sending a predetermined video signal to the remote commander 201.
また、この映像機器の動作には、上述した図19の画像表示システムの制御部113の動作も含まれる。この場合、スクリーン206は、鳥瞰画像表示部117を構成し、例えば図32A,Bに示すような鳥瞰モード、没入モードの操作画面の表示が行われる。なおこの場合、上述したようなメニュー画面の表示はなく、最初はスクリーン206に鳥瞰モードの表示が行われ、そして、その後のユーザ操作に応じて鳥瞰モード、没入モードの操作画面のいずれかが表示される。このような操作画面に係る映像信号は、画面内容が変更する毎に、映像機器(図19の画像処理部113B対応)から無線送信され、送受信部212で受信されることになる。 In addition, the operation of the video equipment includes the operation of the control unit 113 of the image display system of FIG. 19 described above. In this case, the screen 206 constitutes a bird's-eye view image display unit 117, and displays an operation screen in a bird's-eye mode and an immersion mode as shown in FIGS. 32A and 32B, for example. In this case, the menu screen as described above is not displayed, and the bird's-eye view mode is initially displayed on the screen 206, and either the bird's-eye mode or the immersive mode operation screen is displayed according to the subsequent user operation. Is done. The video signal related to such an operation screen is wirelessly transmitted from the video device (corresponding to the image processing unit 113B in FIG. 19) and received by the transmission / reception unit 212 every time the screen content is changed.
このように、図60に示すリモートコマンダ201によれば、家具としてのテーブル202に配置されたスクリーン206に映像を表示し、このスクリーン206上におけるユーザ操作による指示をセンシング部としてのタッチパネル207で検出するものであり、従来のリモートコマンダのように操作しようとしたとき見つからないということがなく、ユーザの使い勝手を向上できる。 As described above, according to the remote commander 201 shown in FIG. 60, an image is displayed on the screen 206 arranged on the table 202 as furniture, and an instruction by a user operation on the screen 206 is detected by the touch panel 207 as a sensing unit. Therefore, it is not found when trying to operate like a conventional remote commander, and user convenience can be improved.
図64は、図60との対比により、リモートコマンダ201Aの一部を示している。この図64において、図60と対応する部分には同一符号を付して示している。このリモートコマンダ201Aにおいて、テーブル202は、床2Bの一定個所に固定して保持される。このようにテーブル202が固定保持される床2Bの部分には、プロジェクタ210からの映像光を通すための投影用窓213が設けられている。 FIG. 64 shows a part of the remote commander 201A in comparison with FIG. In FIG. 64, portions corresponding to those in FIG. 60 are denoted by the same reference numerals. In this remote commander 201A, the table 202 is fixed and held at a fixed location on the floor 2B. As described above, a projection window 213 for allowing the image light from the projector 210 to pass through is provided on the floor 2B where the table 202 is fixedly held.
この投影用窓213は、開口により形成してもよく、また開口にガラス等の透明板材を配置して形成してもよい。また、この投影用窓213に対応して蓋(図示せず)を設け、使用時のみこの蓋を開けるようにしてもよい。 The projection window 213 may be formed by an opening, or may be formed by arranging a transparent plate material such as glass in the opening. Further, a lid (not shown) may be provided corresponding to the projection window 213, and the lid may be opened only when in use.
プロジェクタ210は、床2Bと床下3Bとの間の空間に、上述した投影用窓213に対応して配置されている。このプロジェクタ210から出射される映像光は、床2Bに設けられた投影用窓213を介して、テーブル202のテーブル面203に配置されたスクリーン206に照射され、このスクリーン206に映像が表示される。 The projector 210 is disposed in a space between the floor 2B and the underfloor 3B so as to correspond to the projection window 213 described above. The image light emitted from the projector 210 is irradiated onto the screen 206 disposed on the table surface 203 of the table 202 via the projection window 213 provided on the floor 2B, and the image is displayed on the screen 206. .
このリモートコマンダ201Aは、上述したようなプロジェクタ210の配置位置に関する構成を除いて、図60に示すリモートコマンダ201と同様に構成されている。このリモートコマンダ201Aは、リモートコマンダ201と同様の効果を得ることができる他、プロジェクタ210は床2Bと床下3Bとの間の空間に配置され、室内には配置されていないので、上述した図60に示すリモートコマンダ201におけるような、プロジェクタ210を覆い隠すためのテーブル台208を省略でき、さらにプロジェクタ210を床2Bと床下3Bとの間の空間に配置しているので、プロジェクタ210からスクリーン206までの光路を稼ぐことができ、テーブル202の下側構成の厚みを薄くして大画面による映像表示が可能となる。 The remote commander 201A is configured in the same manner as the remote commander 201 shown in FIG. 60 except for the configuration related to the arrangement position of the projector 210 as described above. The remote commander 201A can obtain the same effects as the remote commander 201, and the projector 210 is disposed in the space between the floor 2B and the underfloor 3B and is not disposed indoors. The table 208 for covering the projector 210 as in the remote commander 201 shown in FIG. 5 can be omitted, and the projector 210 is disposed in the space between the floor 2B and the floor 3B. The optical path can be obtained, and the thickness of the lower structure of the table 202 can be reduced to display an image on a large screen.
図65は、図60との対比により、リモートコマンダ201Bの一部を示している。この図65において、図60と対応する部分には同一符号を付して示している。このリモートコマンダ201Bにおいては、プロジェクタ210は床2Bの上に配置されていると共に、このプロジェクタ210の光路上には光路短縮用のレンズ222が設けられている。この場合、プロジェクタ210から出射された映像光は、レンズ222を介してスクリーン206に照射される。 FIG. 65 shows a part of the remote commander 201B in comparison with FIG. In FIG. 65, portions corresponding to those in FIG. 60 are denoted by the same reference numerals. In the remote commander 201B, the projector 210 is disposed on the floor 2B, and an optical path shortening lens 222 is provided on the optical path of the projector 210. In this case, the image light emitted from the projector 210 is applied to the screen 206 through the lens 222.
このリモートコマンダ201Bは、上述したようなレンズ222に係る構成を除いて、図60に示すリモートコマンダ201と同様に構成されている。このリモートコマンダ201Bは、リモートコマンダ201と同様の効果を得ることができる他、レンズ222によりプロジェクタ210からスクリーン206までの光路が短縮されるので、テーブル202の下側構成の厚みを薄くして大画面による映像表示が可能となる。 The remote commander 201B is configured in the same manner as the remote commander 201 shown in FIG. 60 except for the configuration related to the lens 222 as described above. This remote commander 201B can obtain the same effect as the remote commander 201, and the optical path from the projector 210 to the screen 206 is shortened by the lens 222. Therefore, the thickness of the lower structure of the table 202 is reduced and increased. Video display on the screen is possible.
図66は、図64との対比により、リモートコマンダ201Cの一部を示している。この図66において、図64と対応する部分には同一符号を付して示している。このリモートコマンダ201Cにおいては、プロジェクタ210は、床2Bと床下3Bとの間の空間に配置されていると共に、プロジェクタ210から出射される映像光の光路を折り曲げるためのミラー234が設けられている。 FIG. 66 shows a part of the remote commander 201C in comparison with FIG. In FIG. 66, portions corresponding to those in FIG. 64 are denoted by the same reference numerals. In this remote commander 201C, the projector 210 is disposed in a space between the floor 2B and the floor 3B, and a mirror 234 for bending the optical path of the image light emitted from the projector 210 is provided.
この場合、プロジェクタ210は、映像光が床面に沿った方向に出射されるように配置されている。このようにプロジェクタ210から出射された映像光は、ミラー234によって直交する方向に反射され、床2Bに設けられた投影用窓213を介してスクリーン206に照射される。 In this case, the projector 210 is arranged so that the image light is emitted in a direction along the floor surface. Thus, the image light emitted from the projector 210 is reflected in a direction orthogonal to the mirror 234 and is irradiated onto the screen 206 through the projection window 213 provided on the floor 2B.
このリモートコマンダ201Cは、上述したようなミラー234に係る構成を除いて、図64に示すリモートコマンダ201Aと同様に構成されている。このリモートコマンダ201Cは、リモートコマンダ201Aと同様の効果を得ることができる他、ミラー234で光路を折り曲げるものであり、テーブル202の下側構成の厚みを薄くしても、スクリーン206に照射する映像光の光路を十分に確保でき、大画面による映像表示が可能となる。 The remote commander 201C is configured similarly to the remote commander 201A shown in FIG. 64 except for the configuration related to the mirror 234 as described above. This remote commander 201C can obtain the same effect as the remote commander 201A, and also bends the optical path with a mirror 234. Even if the thickness of the lower structure of the table 202 is reduced, the image irradiated to the screen 206 A sufficient optical path of light can be secured and video display on a large screen becomes possible.
図67は、図66との対比により、リモートコマンダ201Dの一部を示している。この図67において、図66と対応する部分には同一符号を付して示している。このリモートコマンダ201Dにおいては、プロジェクタ210の光路上には光路短縮用のレンズ245が設けられている。この場合、プロジェクタ210から出射された映像光は、レンズ245およびミラー234を介してスクリーン206に照射される。 FIG. 67 shows a part of the remote commander 201D in comparison with FIG. In FIG. 67, portions corresponding to those in FIG. 66 are denoted by the same reference numerals. In the remote commander 201D, an optical path shortening lens 245 is provided on the optical path of the projector 210. In this case, the image light emitted from the projector 210 is irradiated on the screen 206 via the lens 245 and the mirror 234.
このリモートコマンダ201Dは、上述したようなレンズ245に係る構成を除いて、図66に示すリモートコマンダ201Cと同様に構成されている。このリモートコマンダ201Dは、リモートコマンダ201Cと同様の効果を得ることができる他、レンズ245によりプロジェクタ210からスクリーン206までの光路が短縮されるので、テーブル202の下側構成の厚みをさらに薄くして大画面による映像表示が可能となる。 This remote commander 201D is configured similarly to the remote commander 201C shown in FIG. 66 except for the configuration related to the lens 245 as described above. The remote commander 201D can obtain the same effect as the remote commander 201C, and the optical path from the projector 210 to the screen 206 is shortened by the lens 245, so that the thickness of the lower structure of the table 202 is further reduced. Video display on a large screen is possible.
図68および図69は、図60および図61との対比により、リモートコマンダ201Eが配置された視聴覚室(部屋)401の様子を示している。この図68および図69において、図60、図61と対応する部分には同一符号を付して示している。ここで、視聴覚室401は、内壁2、天井2Aおよび床2Bで囲まれている。リモートコマンダ201Eを構成するテーブル202は床2Bの上に置かれている。 68 and 69 show a state of the audiovisual room (room) 401 in which the remote commander 201E is arranged in comparison with FIGS. 60 and 61. FIG. In FIGS. 68 and 69, portions corresponding to those in FIGS. 60 and 61 are denoted by the same reference numerals. Here, the audiovisual room 401 is surrounded by the inner wall 2, the ceiling 2A, and the floor 2B. The table 202 constituting the remote commander 201E is placed on the floor 2B.
テーブル202の透明板材で構成されるテーブル面203のほぼ全面に、液晶フィルム206Aおよび透明タッチパネル207がこの順に積層配置される。つまり、このリモートコマンダ201Eでは、図60および図61に示すリモートコマンダ201の背面投射型プロジェクタのスクリーン206の代わりに液晶フィルム206Aが配置された状態とされる。 A liquid crystal film 206A and a transparent touch panel 207 are laminated in this order on almost the entire table surface 203 made of a transparent plate material of the table 202. That is, in this remote commander 201E, the liquid crystal film 206A is arranged in place of the screen 206 of the rear projection projector of the remote commander 201 shown in FIGS.
この液晶フィルム206Aは、2枚の透明電極を有する透明フィルムの間に液晶を配置して形成されたシート材である。この液晶フィルム206Aは、透明電極に印加される電圧値によって厚み方向の透過率が大きく変化する。ここでは、例えばテーブル202の側面に設けられたスイッチの操作により、この液晶フィルム206Aへの印加電圧を切り換え、当該液晶フィルム206Aを透明の状態と、プロジェクタ210のスクリーンとして使用可能な程度の半透明な状態とに、選択的に切り換え可能とされている。 This liquid crystal film 206A is a sheet material formed by disposing liquid crystal between transparent films having two transparent electrodes. In the liquid crystal film 206A, the transmittance in the thickness direction varies greatly depending on the voltage value applied to the transparent electrode. Here, for example, by operating a switch provided on the side surface of the table 202, the voltage applied to the liquid crystal film 206A is switched, and the liquid crystal film 206A is in a transparent state and translucent enough to be used as a screen of the projector 210. It is possible to selectively switch to a different state.
この場合、図68に示すように、液晶フィルム206Aを半透明状態として、プロジェクタ210からの映像光をこの液晶フィルム206Aに照射することで、テーブル202のテーブル面203(液晶フィルム206A)に映像を表示できる。また、図69に示すように、液晶フィルム206Aを透明状態として、プロジェクタ210からの映像光をこの液晶フィルム206Aを通過させて天井2Aに照射し、この天井2Aに映像を表示できる。なお、プロジェクタ210は、このような映像光の照射対象の切り換えに追従して、フォーカス調整できるように構成されている。 In this case, as shown in FIG. 68, the liquid crystal film 206A is set in a translucent state, and image light from the projector 210 is irradiated onto the liquid crystal film 206A, whereby an image is displayed on the table surface 203 (liquid crystal film 206A) of the table 202. Can be displayed. In addition, as shown in FIG. 69, the liquid crystal film 206A is in a transparent state, and the image light from the projector 210 passes through the liquid crystal film 206A and is irradiated onto the ceiling 2A, and an image can be displayed on the ceiling 2A. The projector 210 is configured to be able to adjust the focus following such switching of the image light irradiation target.
このリモートコマンダ201Eは、上述したような液晶フィルム206Aに係る構成を除いて、リモートコマンダ201と同様に構成されている。このリモートコマンダ201Eは、リモートコマンダ201と同様の効果を得ることができる他、液晶フィルム206Aを透明状態として天井2Aに映像を表示でき、ユーザの使い勝手をさらに向上できる。 The remote commander 201E is configured similarly to the remote commander 201 except for the configuration related to the liquid crystal film 206A as described above. The remote commander 201E can obtain the same effects as the remote commander 201, and can display an image on the ceiling 2A with the liquid crystal film 206A in a transparent state, thereby further improving the usability of the user.
図70は、図60との対比により、リモートコマンダ201Fの構成を示している。この図70において、図60と対応する部分には同一符号を付して示している。このリモートコマンダ201Fにおいては、リモートコマンダ201におけるタッチパネル207および信号処理部211に変えて、撮像装置(カメラ)266および画像処理部267が設けられている。これら撮像装置266および画像処理部267は、ユーザ操作による指示を検出するセンシング部を構成している。 FIG. 70 shows the configuration of the remote commander 201F in comparison with FIG. In FIG. 70, portions corresponding to those in FIG. 60 are denoted by the same reference numerals. In this remote commander 201F, in place of the touch panel 207 and the signal processing unit 211 in the remote commander 201, an imaging device (camera) 266 and an image processing unit 267 are provided. The imaging device 266 and the image processing unit 267 constitute a sensing unit that detects an instruction by a user operation.
ここで、撮像装置266は、プロジェクタ210に隣接して配置され、スクリーン206上におけるユーザによる指等の操作を、スクリーン206に表示された映像と共に撮像し、撮像結果としてのビデオデータを画像処理部267に出力する。画像処理部267は、このビデオデータを処理することにより、スクリーン206上におけるユーザによる指等の操作による指示を検出し、この指示を送受信部212に通知する。送受信部212は、このユーザ操作による指示を、映像機器に無線送信する。 Here, the imaging device 266 is arranged adjacent to the projector 210, images a user's operation of a finger or the like on the screen 206 together with an image displayed on the screen 206, and video data as an imaging result is image processing unit To 267. The image processing unit 267 processes the video data to detect an instruction by a user's operation such as a finger on the screen 206 and notifies the transmission / reception unit 212 of the instruction. The transmission / reception unit 212 wirelessly transmits the instruction by the user operation to the video equipment.
このリモートコマンダ201Fは、上述したようなセンシング部に係る構成を除いて、図60に示すリモートコマンダ201と同様に構成されている。このリモートコマンダ201Fにおいても、リモートコマンダ201と同様の効果を得ることができる他、テーブル面203にユーザ操作のためのタッチパネル207を配置する必要がなくなるという効果がある。 The remote commander 201F is configured in the same manner as the remote commander 201 shown in FIG. 60 except for the configuration related to the sensing unit as described above. The remote commander 201F can obtain the same effect as the remote commander 201 and has an effect that it is not necessary to arrange the touch panel 207 for user operation on the table surface 203.
図71は、図70との対比により、リモートコマンダ201Gの一部を示している。この図71において、図70と対応する部分には同一符号を付して示している。このリモートコマンダ201Gにおいて、テーブル202は、床2Bの一定個所に固定して保持される。このようにテーブル202が固定保持される床2Bの部分には、図64に示すリモートコマンダ201Aと同様に、プロジェクタ210からの映像光を通すための投影用窓213が設けられている。 FIG. 71 shows a part of the remote commander 201G in comparison with FIG. In FIG. 71, portions corresponding to those in FIG. 70 are denoted by the same reference numerals. In this remote commander 201G, the table 202 is fixed and held at a fixed location on the floor 2B. In this way, a projection window 213 for allowing the image light from the projector 210 to pass is provided in the portion of the floor 2B where the table 202 is fixedly held, similarly to the remote commander 201A shown in FIG.
プロジェクタ210および撮像装置266は、床2Bと床下3Bとの間の空間に、上述した投影用窓213に対応して配置されている。このプロジェクタ210から出射される映像光は、床2Bに設けられた投影用窓213を介して、テーブル202のテーブル面203に配置されたスクリーン206に照射され、このスクリーン206に映像が表示される。また、撮像装置266は、床2Bに設けられた投影用窓213を介して、スクリーン206上におけるユーザによる指等の操作を、スクリーン206に表示された映像と共に撮像する。 The projector 210 and the imaging device 266 are arranged in a space between the floor 2B and the underfloor 3B corresponding to the projection window 213 described above. The image light emitted from the projector 210 is irradiated onto the screen 206 disposed on the table surface 203 of the table 202 via the projection window 213 provided on the floor 2B, and the image is displayed on the screen 206. . In addition, the imaging device 266 captures an operation of a user's finger or the like on the screen 206 together with an image displayed on the screen 206 via a projection window 213 provided on the floor 2B.
このリモートコマンダ201Gは、上述したようなプロジェクタ210および撮像装置266の配置位置に関する構成を除いて、図70に示すリモートコマンダ201Fと同様に構成されている。このリモートコマンダ201Gは、リモートコマンダ201Fと同様の効果を得ることができる他、プロジェクタ210および撮像装置266は床2Bと床下3Bとの間の空間に配置され、室内には配置されていないので、室内の雰囲気を乱すことがない。 The remote commander 201G is configured in the same manner as the remote commander 201F shown in FIG. 70 except for the configuration relating to the arrangement positions of the projector 210 and the imaging device 266 as described above. The remote commander 201G can obtain the same effect as the remote commander 201F, and the projector 210 and the imaging device 266 are arranged in the space between the floor 2B and the underfloor 3B and are not arranged indoors. Does not disturb the indoor atmosphere.
図72は、図70との対比により、リモートコマンダ201Hの一部を示している。この図71において、図70と対応する部分には同一符号を付して示している。このリモートコマンダ201Hにおいて、撮像装置266からのビデオデータを処理する画像処理部267Aは、スクリーン206上における移動体のドラッグの操作による指示を、単なるスクリーン206へのタッチ操作による指示とは識別して検出し、この指示を送受信部212に通知する。 FIG. 72 shows a part of the remote commander 201H in comparison with FIG. In FIG. 71, portions corresponding to those in FIG. 70 are denoted by the same reference numerals. In this remote commander 201H, the image processing unit 267A that processes video data from the imaging device 266 distinguishes the instruction by the drag operation of the moving body on the screen 206 from the instruction by the simple touch operation on the screen 206. The instruction is detected and the transmission / reception unit 212 is notified of this instruction.
このリモートコマンダ201Hは、画像処理部267Aに係る構成を除いて、図70に示すリモートコマンダ201Fと同様に構成されている。このリモートコマンダ201Hにおいても、リモートコマンダ201Fと同様の効果を得ることができる他、画像処理部267Aではスクリーン206への単なるタッチ操作による指示と移動体のドラッグによる指示とを識別して検出するものであり、ユーザ操作による指示の種類を増すことができる。 The remote commander 201H is configured similarly to the remote commander 201F shown in FIG. 70 except for the configuration related to the image processing unit 267A. The remote commander 201H can obtain the same effects as the remote commander 201F, and the image processing unit 267A detects and detects an instruction by a simple touch operation on the screen 206 and an instruction by dragging a moving body. Thus, the types of instructions by user operations can be increased.
なお、上述実施の形態においては、透明板材からなるテーブル面203にスクリーン206が配置されるものを示したが、スクリーン206自体がテーブル面203を構成している場合であってもよい。また、上述実施の形態においては、テーブルを用いたリモートコマンダについて説明したが、それぞれの構成を適宜組み合わせるようにしてもよい。 In the above embodiment, the screen 206 is arranged on the table surface 203 made of a transparent plate material. However, the screen 206 itself may constitute the table surface 203. In the above-described embodiment, the remote commander using a table has been described. However, the respective configurations may be appropriately combined.
また、上述の実施の形態においては、背面投射型のプロジェクタ210により映像を投影する場合について述べたが、本発明はこれに限らず、フロント投射型のプロジェクタにより映像を投影するようにしてもよい。なおこの場合、床下等へのプロジェクタの配置に代えて、天井等にプロジェクタを配置することになる。 In the above-described embodiment, the case where the image is projected by the rear projection type projector 210 has been described. However, the present invention is not limited to this, and the image may be projected by the front projection type projector. . In this case, the projector is arranged on the ceiling or the like instead of the arrangement of the projector below the floor.
また、上述の実施例の形態においては、家具がテーブルであるものを示したが、例えば本棚、机、タンス等、その他の家具によっても同様のリモートコマンダを得ることができる。また、上述実施の形態においては、映像機器のリモートコマンダについて述べたが、これに限らず、種々の機器のリモートコマンダに広く適用することができる。 In the above-described embodiment, the furniture is a table. However, the same remote commander can be obtained by using other furniture such as a bookshelf, a desk, and a chest. In the above-described embodiment, the remote commander for video equipment has been described. However, the present invention is not limited to this, and can be widely applied to remote commanders for various equipment.
(5)鳥瞰画像表示部における表示 (5) Display in the bird's eye image display unit
上述した図19に示す画像表示システム101で、リモートコマンダ116を構成する鳥瞰画像表示部117には、例えば鳥瞰画像と共に、この鳥瞰画像上で特定される撮影地点(撮影個所)で撮影された撮影画像が同時に表示される(図32A参照)。ここでは、この表示のための画像処理の詳細を説明する。 In the image display system 101 shown in FIG. 19 described above, the bird's-eye image display unit 117 configuring the remote commander 116 includes, for example, a bird's-eye image and a photograph taken at a shooting point (shooting location) specified on the bird's-eye image. Images are displayed simultaneously (see FIG. 32A). Here, details of image processing for this display will be described.
図73は、上述したように撮影画像が配置された鳥瞰画像を表示するための画像処理装置301の構成を示している。この図73において、図19と対応する部分には同一符号を付し、適宜その詳細説明を省略する。この画像処理装置301は、メディアデータベース112と、制御部113と、鳥瞰画像表示部117と、タッチパネル118とを有している。この画像表示装置301は、充分な画像処理能力を有するコンピュータによって構成される。 FIG. 73 shows a configuration of the image processing apparatus 301 for displaying a bird's-eye view image on which a captured image is arranged as described above. In FIG. 73, portions corresponding to those in FIG. 19 are denoted by the same reference numerals, and detailed description thereof is omitted as appropriate. The image processing apparatus 301 includes a media database 112, a control unit 113, a bird's eye image display unit 117, and a touch panel 118. The image display device 301 is configured by a computer having sufficient image processing capability.
メディアデータベース112は、上述したように、記録再生部、例えば大容量のハードディスク装置により形成されている。このメディアデータベース112は、画像表示装置301の動作に必要な各種プログラム、複数種類の鳥瞰画像の画像データ、それぞれの鳥瞰画像上で特定される撮影地点で撮影された撮影画像の画像データ等を記録保持し、またこれら保持した画像データを再生して出力する。 As described above, the media database 112 is formed by a recording / playback unit, for example, a large-capacity hard disk device. The media database 112 records various programs necessary for the operation of the image display device 301, image data of a plurality of types of bird's-eye images, image data of images taken at shooting points specified on each bird's-eye image, and the like. The stored image data is reproduced and output.
ここで、鳥瞰画像は撮影画像の撮影地点を上空より見た画像であって、この鳥瞰画像として実写による画像、イラストによる画像、コンピュータグラフィックスによる画像、地図画像等を適用できる。この実施の形態では鳥瞰画像として地図画像が適用されている。すなわち、メディアデータベース112は鳥瞰画像の画像データとして、地図画像の画像データD4を記録して保持する。 Here, the bird's-eye view image is an image obtained by viewing the shooting point of the shot image from the sky, and as this bird's-eye view image, an image taken by actual shooting, an image by illustration, an image by computer graphics, a map image, or the like can be applied. In this embodiment, a map image is applied as a bird's-eye view image. That is, the media database 112 records and holds the map image image data D4 as the bird's-eye image data.
撮影画像は、図74に地図Mを用いて示すように、地図画像に設定された撮影地点P1〜P3で撮影された各種の画像であり、この実施の形態では撮影画像としてパノラマ画像が適用されている。すなわち、メディアデータベース112は撮影画像の画像データとして、パノラマ画像の画像データD3を記録して保持する。このパノラマ画像は、魚眼レンズにより周囲を撮影して取得されたものであり、円形形状に形成されている。各撮影地点のパノラマ画像には、それぞれ、地図画像上での撮影地点を特定する、リンク情報としての撮影地点の情報が設定されている。 As shown in FIG. 74 using a map M, the photographed images are various images photographed at the photographing points P1 to P3 set in the map image. In this embodiment, a panoramic image is applied as the photographed image. ing. That is, the media database 112 records and holds panoramic image data D3 as captured image data. This panoramic image is acquired by photographing the surroundings with a fisheye lens, and is formed in a circular shape. The panorama image at each shooting point is set with information on the shooting point as link information for specifying the shooting point on the map image.
なお、このようなパノラマ画像側へのリンク情報の設定に代えて、地図画像側の撮影地点に、対応するパノラマ画像を特定するリンク情報を設定するようにしてもよい。また、このパノラマ画像としては、双曲面ミラーを使用した撮像結果を適用してもよく、撮像装置(カメラ)を一定角度ずつパンさせて撮影した複数画像による撮像結果を適用してもよく、種々の方式によるパノラマ画像を広く適用することができる。また、各パノラマ画像は、特定の方向が一定の方位となるように撮影され、撮影地点の高度を示す高度情報が添付されて提供される。 Instead of setting the link information on the panoramic image side, link information for specifying the corresponding panoramic image may be set at the shooting point on the map image side. Further, as this panoramic image, an imaging result using a hyperboloidal mirror may be applied, or an imaging result by a plurality of images taken by panning an imaging device (camera) by a certain angle may be applied. The panoramic image by the method can be widely applied. In addition, each panoramic image is photographed so that a specific direction has a certain direction, and altitude information indicating the altitude of the photographing point is attached and provided.
なお、メディアデータベース112は、これらパノラマ画像の画像データD3、地図画像の画像データD4、さらにはこの画像処理装置301の処理に必要なプログラムが、事前にインストールされて提供されるが、この事前のインストールに代えて、光ディスク、磁気ディスク、メモリカード等の種々の記録媒体に記録して提供するようにしてもよく、またインターネット等のネットワークを介したダウンロードにより提供するようにしてもよい。 The media database 112 is provided with the panoramic image data D3, the map image data D4, and the program necessary for the processing of the image processing apparatus 301 installed in advance. Instead of installation, the program may be provided by being recorded on various recording media such as an optical disk, a magnetic disk, and a memory card, or may be provided by downloading via a network such as the Internet.
鳥瞰画像表示部117は、例えば液晶表示パネルにより形成され、画像処理部113Bより出力されるビデオデータDV2による画像を表示し、これにより地図画像上にパノラマ画像を配置した画像を表示する。 The bird's-eye view image display unit 117 is formed by, for example, a liquid crystal display panel, displays an image based on the video data DV2 output from the image processing unit 113B, and thereby displays an image in which a panoramic image is arranged on the map image.
タッチパネル118はユーザ操作部を構成している。このタッチパネル118により、ユーザは、視点の位置を変更するための操作、シーン切り替えの操作などを行うことができる。このタッチパネル118からの操作情報は表示情報選択部113Aに通知される。なお、ユーザ操作部としては、このタッチパネル118の代わりに、マウス、加速度センサ、ジョイスティックなどの操作デバイスなどを用いることもできる。 The touch panel 118 constitutes a user operation unit. With this touch panel 118, the user can perform an operation for changing the position of the viewpoint, an operation for switching scenes, and the like. The operation information from the touch panel 118 is notified to the display information selection unit 113A. As the user operation unit, an operation device such as a mouse, an acceleration sensor, or a joystick can be used instead of the touch panel 118.
制御部113は、メディアデータベース112に記録されたプログラムを実行する演算手段であり、このプログラムの実行により各種機能ブロックを構成する。すなわち、この制御部113は、画像処理部113Bと、表示画像選択部113Aとを有している。さらに、この画像処理部113Bは、全方位画像変換部304A、地図画像/パノラマ画像配置部304Bおよび視点座標変換部304Cを含んでいる。 The control unit 113 is a computing unit that executes a program recorded in the media database 112, and configures various functional blocks by executing this program. That is, the control unit 113 includes an image processing unit 113B and a display image selection unit 113A. Further, the image processing unit 113B includes an omnidirectional image conversion unit 304A, a map image / panorama image arrangement unit 304B, and a viewpoint coordinate conversion unit 304C.
全方位画像変換部304Aは、図75A,Bに示すように、撮像結果A1〜A3による円形形状のパノラマ画像を構成する各画素を、水平方向に細長い長方形形状の領域にマッピングし、これによりこれら円形形状によるパノラマ画像A1〜A3を、水平方向に広画角な長方形形状によるパノラマ画像B1〜B3に画像変換処理する。なお、双曲面ミラーを使用して撮影したパノラマ画像については、同様のマッピング処理による画像変換処理により、このように水平方向に広画角な長方形形状によるパノラマ画像B1〜B3を生成することができる。また、撮像装置を一定角度ずつパンさせて撮影した複数画像によるパノラマ画像は、これら複数画像を繋ぎ合わせることにより、このようなパノラマ画像B1〜B3を作成することができる。 As shown in FIGS. 75A and 75B, the omnidirectional image conversion unit 304A maps each pixel constituting the circular panorama image based on the imaging results A1 to A3 to a rectangular region that is elongated in the horizontal direction. The panoramic images A1 to A3 having a circular shape are subjected to image conversion processing into panoramic images B1 to B3 having a rectangular shape having a wide angle of view in the horizontal direction. For panoramic images taken using a hyperboloid mirror, panoramic images B1 to B3 having a rectangular shape with a wide angle of view in the horizontal direction can be generated by an image conversion process using a similar mapping process. . Further, panoramic images of a plurality of images captured by panning the imaging device by a certain angle can create such panoramic images B1 to B3 by connecting the plurality of images.
地図画像/パノラマ画像配置部304Bは、地図画像データD4による地図画像上にパノラマ画像を配置する。この場合、パノラマ画像を視点に向くように配置する。視点座標変換部304Cは、このようにパノラマ画像が配置された画像を、視点方向から見た画像に変換する視点座標変換処理を行い、その処理結果によるビデオデータDV2を鳥瞰画像表示部117に出力する。 The map image / panorama image arrangement unit 304B arranges the panorama image on the map image based on the map image data D4. In this case, the panoramic image is arranged to face the viewpoint. The viewpoint coordinate conversion unit 304C performs viewpoint coordinate conversion processing for converting the image in which the panoramic image is arranged in this way into an image viewed from the viewpoint direction, and outputs the video data DV2 as a result of the processing to the bird's-eye image display unit 117. To do.
表示情報選択部113Aは、タッチパネル118から操作情報の通知に従って、画像処理部113Bで処理すべき、つまり鳥瞰画像表示部117に表示すべき、地図画像およびパノラマ画像を選択する。この場合、選択された地図画像およびパノラマ画像の画像データがメディアデータベース112から読み出されて画像処理部113Bに供給される。また、表示情報選択部113Aは、タッチパネル118から操作情報の通知に従って、視点の情報を画像処理部113Bの視点座標変換部304Cに与える。 The display information selection unit 113A selects a map image and a panoramic image to be processed by the image processing unit 113B, that is, to be displayed on the bird's eye image display unit 117, in accordance with the notification of the operation information from the touch panel 118. In this case, the image data of the selected map image and panorama image is read from the media database 112 and supplied to the image processing unit 113B. Further, the display information selection unit 113A provides viewpoint information to the viewpoint coordinate conversion unit 304C of the image processing unit 113B in accordance with the notification of the operation information from the touch panel 118.
次に、パノラマ画像が配置された地図画像の表示に係る制御部113の処理手順を、図76〜図79のフローチャートを参照して説明する。 Next, the processing procedure of the control unit 113 related to the display of the map image on which the panoramic image is arranged will be described with reference to the flowcharts of FIGS.
制御部113は、ステップST1で、電源の投入により、あるいはユーザがタッチパネル118をタッチすることで、表示処理を開始し、ステップST2に進む。ここで、制御部113は、メディアデータベース112から、初期状態で表示すべき地図画像の画像データD4およびその地図画像上で特定される撮影地点で撮影されたパノラマ画像の画像データD3、さらには撮影地点を示す撮影地点の情報を読み込む。この初期状態で表示すべき地図画像は、予め設定されている固定したもの、あるいは前回の最後に表示されていたもの等とされる。 In step ST1, the control unit 113 starts display processing when the power is turned on or when the user touches the touch panel 118, and proceeds to step ST2. Here, the control unit 113 captures from the media database 112 the image data D4 of the map image to be displayed in the initial state, the image data D3 of the panoramic image photographed at the photographing point specified on the map image, and further the photographing. The information of the shooting point indicating the point is read. The map image to be displayed in the initial state is a fixed one set in advance or one displayed at the end of the previous time.
続いて、制御部113は、ステップST3で、全方位画像変換部304Aの機能ブロックに係る処理により、ステップST2で取得した円形形状によるパノラマ画像A1〜A3を、横長の長方形形状のパノラマ画像B1〜B3に画像変換処理する(図75参照)。以上のステップST2およびステップST3の処理が初期化の処理となる。 Subsequently, in step ST3, the control unit 113 converts the circular panorama images A1 to A3 obtained in step ST2 into the horizontally long panorama images B1 to B1 by the processing related to the functional blocks of the omnidirectional image conversion unit 304A. Image conversion processing is performed on B3 (see FIG. 75). The processes in steps ST2 and ST3 described above are initialization processes.
続いて、制御部113は、テップST4に進み、風景画像の表示処理をする。図77は、風景画像表示処理の手順を示している。すなわち、制御部113は、ステップST111で、風景画像表示処理を開始し、ステップST112に進む。ここで、制御部113は、図80に示すように、地図画像/パノラマ画像配置部304Bの機能ブロックに係る処理により、撮影地点の情報に基づいて、地図画像M上の撮影地点P1〜P3に一定の大きさの平面である風景画像表示ボードC1〜C3を配置すると共に、このボードC1〜C3を視点PSの方向に正対するように、傾ける。 Subsequently, the control unit 113 proceeds to step ST4, and performs landscape image display processing. FIG. 77 shows the procedure of landscape image display processing. That is, the control unit 113 starts landscape image display processing in step ST111 and proceeds to step ST112. Here, as shown in FIG. 80, the control unit 113 performs the processing related to the functional block of the map image / panorama image arrangement unit 304B to the shooting points P1 to P3 on the map image M based on the information of the shooting points. Landscape image display boards C1 to C3 that are planes of a certain size are arranged, and the boards C1 to C3 are inclined so as to face the direction of the viewpoint PS.
なおここで、正対とは、各ボードC1〜C3の中央と視点PSとを結ぶ直線が各ボードの面と直交する関係である。またここで、地図画像Mに沿った方向についてだけ視点PSの方向に正対するようにして、各ボードC1〜C3の視点PSを見上げる方向の傾き(仰角)にあっては、必要に応じて変更するようにしてもよく、各ボードC1〜C3が地図画像M上に直立するようにしてもよい。 Here, the “facing” is a relationship in which a straight line connecting the center of each board C1 to C3 and the viewpoint PS is orthogonal to the plane of each board. Here, only the direction along the map image M is opposed to the direction of the viewpoint PS, and the inclination (elevation angle) in the direction of looking up the viewpoint PS of each board C1 to C3 is changed as necessary. The boards C1 to C3 may stand upright on the map image M.
続いて、制御部113は、ステップST113で、地図画像/パノラマ画像配置部304Bの機能ブロックに係る処理により、図81に示すように、パノラマ画像B1〜B3を、各ボードC1〜C3の大きさに対応した一定幅の領域ARにより切り出す。このようにパノラマ画像B1〜B3から一定幅の領域ARを切り出し、後述するように各ボードC1〜C3に表示されるパノラマ画像D1〜D3の横方向の長さを制限することで、移動する視点PSに対して各ボードC1〜C3、従ってパノラマ画像D1〜D3を正対させるようにしても、パノラマ画像D1〜D3同士が干渉しないようにし(ぶつかり合わないようにし)、さらには見易さを向上するためである。 Subsequently, in step ST113, the control unit 113 performs processing related to the functional block of the map image / panorama image arrangement unit 304B to convert the panorama images B1 to B3 into the sizes of the boards C1 to C3 as shown in FIG. It cuts out by the area | region AR of fixed width corresponding to. In this way, the region AR having a certain width is cut out from the panoramic images B1 to B3, and the horizontal viewpoint of the panoramic images D1 to D3 displayed on the boards C1 to C3 is limited as described later, thereby moving the viewpoint. Even if the boards C1 to C3, and therefore the panoramic images D1 to D3, are directly opposed to the PS, the panoramic images D1 to D3 are prevented from interfering with each other (so that they do not collide with each other). It is for improving.
なおここで、パノラマ画像B1〜B3から切り出す切り出し領域ARを、視点PSに応じたものとする。すなわち、制御部113は、この切り出し領域ARを、視点方向から見て取られる領域に設定する。例えば、視点が地図画像Mの北方向に存在する場合には、パノラマ画像B1〜B3の南側の部分を切り出す。またこれとは逆に、視点が地図画像Mの南方向に存在する場合には、パノラマ画像B1〜B3の北側の部分を切り出す。制御部113は、視点の移動により、矢印Cで示すように、切り出し領域ARを順次移動させる。 Here, it is assumed that the cutout area AR cut out from the panoramic images B1 to B3 corresponds to the viewpoint PS. That is, the control unit 113 sets the cutout area AR as an area that can be seen from the viewpoint direction. For example, when the viewpoint exists in the north direction of the map image M, the south part of the panoramic images B1 to B3 is cut out. On the other hand, when the viewpoint exists in the south direction of the map image M, the north part of the panoramic images B1 to B3 is cut out. The control unit 113 sequentially moves the cutout area AR as indicated by an arrow C by moving the viewpoint.
続いて、制御部113は、ステップST114で、上述したようにパノラマ画像B1〜B3から切り出した切り出し領域ARの画像D1〜D3を、それぞれ、ボードC1〜C3に貼り付け、これにより地図画像Mの撮影地点P1〜P3に、この撮影地点P1〜P3で撮影されたパノラマ画像D1〜D3が配置される。 Subsequently, in step ST114, the control unit 113 pastes the images D1 to D3 of the cutout area AR cut out from the panoramic images B1 to B3 as described above to the boards C1 to C3, respectively. Panorama images D1 to D3 photographed at the photographing points P1 to P3 are arranged at the photographing points P1 to P3.
続いて、制御部113は、ステップST115で、視点座標変換部304Cの機能ブロックに係る処理により、パノラマ画像D1〜D3が配置された地図画像Mを、視点PSから見た画像となるように視点座標変換処理を実行し、この処理で得られる表示画像のビデオデータDV2を鳥瞰画像表示部117に供給する。なお、この実施の形態では平行変換処理により視点座標変換処理を実行するが、必要に応じて種々の手法を適用することができる。これにより、鳥瞰画像表示部117には、図82A,Bに示すように、地図画像Mにパノラマ画像D1〜D3を配置した画像が、視点PSから見た状態で表示される。なおここで、図82A,Bの表示例は、それぞれ、逆側に視点PSを配置した関係にある。 Subsequently, in step ST115, the control unit 113 performs a viewpoint so that the map image M on which the panoramic images D1 to D3 are arranged becomes an image viewed from the viewpoint PS by the processing related to the functional block of the viewpoint coordinate conversion unit 304C. The coordinate conversion process is executed, and the video data DV2 of the display image obtained by this process is supplied to the bird's eye image display unit 117. In this embodiment, viewpoint coordinate conversion processing is executed by parallel conversion processing, but various methods can be applied as necessary. Thereby, on the bird's-eye view image display unit 117, as shown in FIGS. 82A and 82B, an image in which the panoramic images D1 to D3 are arranged on the map image M is displayed as viewed from the viewpoint PS. Here, the display examples in FIGS. 82A and 82B have a relationship in which the viewpoint PS is arranged on the opposite side.
なおこの場合、制御部113は、地図画像M上に、撮影地点を先端により指し示すように、頂点を下向きとした三角形形状によるマークM1〜M3を配置し、このマークM1〜M3の上方にパノラマ画像D1〜D3を表示し、これによりパノラマ画像D1〜D3に対応した撮影地点を詳細に把握できるようにする。 In this case, the control unit 113 arranges marks M1 to M3 having a triangular shape with apexes facing downward on the map image M so that the photographing point is indicated by the tip, and the panoramic image is located above the marks M1 to M3. D1 to D3 are displayed so that the photographing locations corresponding to the panoramic images D1 to D3 can be grasped in detail.
また、各パノラマ画像データに設定された高度情報に基づいて、撮影地点の高度に比例するようにこのマークM1〜M3の長さLを設定し、これにより撮影地点の高度を大まかに把握できるようにする。なお、このようなマークにあっては、種々の形状を広く適用することができ、例えば地面に刺したポールの上に看板を表示するかのような形態によりマークとパノラマ画像とを表示し、このポールの長さにより高度を示すようにしてもよい。さらに、制御部113は、ユーザが視点の移動を制御するためのボタンB1、B2を手前側に表示する。 Further, based on the altitude information set for each panoramic image data, the length L of the marks M1 to M3 is set so as to be proportional to the altitude of the shooting point, so that the altitude of the shooting point can be roughly grasped. To. In addition, in such a mark, various shapes can be widely applied. For example, a mark and a panoramic image are displayed in a form as if a signboard is displayed on a pole stabbed in the ground, The altitude may be indicated by the length of the pole. Furthermore, the control unit 113 displays buttons B1 and B2 on the near side for the user to control the movement of the viewpoint.
なお、これらにより制御部113は、実際上、このように地図画像M上にパノラマ画像D1〜D3を配置して視点PSの方向より見た2次元画像を形成した後、この2次元画像上に、地図画像M、パノラマ画像A1〜A3の対応する画素値をマッピングしてこれら一連の処理を実行する。 In this manner, the control unit 113 actually arranges the panoramic images D1 to D3 on the map image M in this way to form a two-dimensional image viewed from the viewpoint PS, and then on the two-dimensional image. The pixel values corresponding to the map image M and the panoramic images A1 to A3 are mapped, and the series of processes is executed.
制御部113は、ステップST115の処理の後、ステップST116で、風景画像表示処理を終了し、図76のステップST5に進み、視点変換の処理をする。図78は、視点変換処理の手順を示している。すなわち、制御部113は、ステップST211で、視点変換処理を開始し、ステップST212に進む。ここで、制御部113は、タッチパネル118からの操作情報に基づき、表示画像選択部113Aの機能ブロックに係る処理により、ズームイン操作がなされているか否かを判断し、ズームイン操作がなされているときは、ステップST213に進み、ズームインの視点移動処理を行い、その後にステップST218で、視点変換処理を終了する。 After step ST115, the control unit 113 ends the landscape image display process in step ST116, proceeds to step ST5 in FIG. 76, and performs viewpoint conversion processing. FIG. 78 shows the procedure of viewpoint conversion processing. That is, the control unit 113 starts viewpoint conversion processing in step ST211 and proceeds to step ST212. Here, based on the operation information from the touch panel 118, the control unit 113 determines whether or not the zoom-in operation has been performed by processing related to the functional block of the display image selection unit 113A. In step ST213, zoom-in viewpoint movement processing is performed, and then in step ST218, the viewpoint conversion processing ends.
ステップST212でズームイン操作がなされていないときは、制御部113は、ステップST214に進み、ズームアウト操作がなされているか否かを判断する。ズームアウト操作がなされているときは、ステップST215に進み、ズームアウトの視点移動処理を行い、その後にステップST218で、視点変換処理を終了する。 When the zoom-in operation is not performed in step ST212, the control unit 113 proceeds to step ST214 and determines whether or not the zoom-out operation is performed. If a zoom-out operation has been performed, the process proceeds to step ST215 to perform a zoom-out viewpoint movement process, and thereafter, in step ST218, the viewpoint conversion process ends.
ここで、上述したズームインおよびズームアウトの視点移動処理は、図83に示すように、地図画像Mから視点PSまでの距離Dを一定値だけ変化させる処理である。この場合、ズームインの視点移動処理では、距離Dを一定値だけ小さくし、視点PSを地図画像Mに一定値だけ近づける。一方、ズームアウトの視点移動処理では、距離Dを一定値だけ大きくし、視点PSを地図画像Mから一定値だけ遠ざける。表示画像選択部113Aは、このように変更された視点の情報を上述した視点座標変換部304Cに与える。 Here, the zoom-in and zoom-out viewpoint movement process described above is a process of changing the distance D from the map image M to the viewpoint PS by a certain value, as shown in FIG. In this case, in the zoom-in viewpoint movement process, the distance D is reduced by a certain value, and the viewpoint PS is brought close to the map image M by a certain value. On the other hand, in the zoom-out viewpoint movement process, the distance D is increased by a certain value, and the viewpoint PS is moved away from the map image M by a certain value. The display image selection unit 113A provides the viewpoint information thus changed to the viewpoint coordinate conversion unit 304C described above.
ズームイン操作あるいはズームアウト操作が継続してなされている場合、ステップST213あるいはステップST215の視点移動処理が繰り返し行われ、視点PSが連続的に変化していく。このようにズームインあるいはズームアウトの視点移動処理によって変更された視点の情報が視点座標変換部304Cに与えられ、この視点座標変換部304Cで変更された視点から見た画像となるように視点座標変換処理が実行されることで、図84に示すように、鳥瞰画像表示部117に表示される画像がズームインあるいはズームアウトされる。 When the zoom-in operation or the zoom-out operation is continuously performed, the viewpoint movement process in step ST213 or step ST215 is repeatedly performed, and the viewpoint PS is continuously changed. The viewpoint information changed by the viewpoint movement process of zooming in or zooming out in this way is given to the viewpoint coordinate conversion unit 304C, and the viewpoint coordinate conversion is performed so that the image is viewed from the viewpoint changed by the viewpoint coordinate conversion unit 304C. By executing the processing, the image displayed on the bird's-eye image display unit 117 is zoomed in or zoomed out as shown in FIG.
ステップST214で、ズームアウト操作がなされていないときは、ステップST216で、鳥瞰視点移動操作がなされているか否かを判定する。鳥瞰視点移動操作がなされているときは、制御部113は、ステップST217に進み、表示画像選択部113Aの機能ブロックに係る処理により、鳥瞰視点移動処理を行い、その後にステップST218で、視点変換処理を終了する。 If the zoom-out operation has not been performed in step ST214, it is determined in step ST216 whether or not a bird's-eye viewpoint movement operation has been performed. When the bird's-eye viewpoint movement operation is performed, the control unit 113 proceeds to step ST217, performs the bird's-eye viewpoint movement process by the process related to the functional block of the display image selection unit 113A, and then performs the viewpoint conversion process in step ST218. Exit.
ここで、上述した鳥瞰視点移動処理は、例えば図85A〜Cに示すように、視点PSの位置を移動する処理である。図85Aは、注目点を中心に上空を旋回するように視点PSを所定の速度で移動させる例である。図85Bは、注目点を中心とする半球の球面上を所定の速度および経路で移動させる例である。これら図85A,Bの例は一旦設定されると、その設定を解除するまで鳥瞰視点移動操作がなされているものと判断する。これに対して、図85Cは、ユーザが例えば画面上をドラッグすることで視点PSを水平移動させる例である。なお、画面上にされる表示される視点の移動を制御するボタンB1,B2(図82参照)の操作も、この鳥瞰視点移動操作に含まれる。 Here, the above-described bird's-eye viewpoint movement process is a process of moving the position of the viewpoint PS as shown in FIGS. 85A to 85C, for example. FIG. 85A is an example in which the viewpoint PS is moved at a predetermined speed so as to turn in the sky around the attention point. FIG. 85B is an example of moving on a spherical surface of a hemisphere centered on the point of interest at a predetermined speed and path. In these examples of FIGS. 85A and 85B, once set, it is determined that the bird's eye viewpoint movement operation is performed until the setting is canceled. On the other hand, FIG. 85C is an example in which the viewpoint PS is moved horizontally by the user dragging the screen, for example. The operation of the buttons B1 and B2 (see FIG. 82) for controlling the movement of the displayed viewpoint displayed on the screen is also included in this bird's-eye viewpoint movement operation.
鳥瞰視点移動操作が継続してなされている場合、ステップST217の視点移動処理が繰り返し行われこととなり、視点PSが連続的に変化していく。このように鳥瞰視点移動処理によって変更された視点の情報が視点座標変換部304Cに与えられ、この視点座標変換部304Cで変更された視点から見た画像となるように視点座標変換処理が実行される。これにより、例えば図80において、矢印DおよびE1〜E3により示すように、視点PSの移動に追従させて、地図画像MおよびボードC1〜C3の向きを変更し、またこのボードC1〜C3に表示するパノラマ画像D1〜D3の内容も変更する。 When the bird's-eye viewpoint movement operation is continuously performed, the viewpoint movement process in step ST217 is repeatedly performed, and the viewpoint PS is continuously changed. Information on the viewpoint changed by the bird's-eye viewpoint movement process is given to the viewpoint coordinate conversion unit 304C, and the viewpoint coordinate conversion process is executed so that the image is viewed from the viewpoint changed by the viewpoint coordinate conversion unit 304C. The Thereby, for example, as shown by arrows D and E1 to E3 in FIG. 80, the direction of the map image M and the boards C1 to C3 is changed in accordance with the movement of the viewpoint PS and displayed on the boards C1 to C3. The contents of the panoramic images D1 to D3 to be changed are also changed.
制御部113は、ステップST218で、視点変換処理を終了した後、図76のステップST6に進む。ここで、制御部113は、タッチパネル118からの操作情報に基づき、表示画像選択部113Aの機能ブロックに係る処理により、シーン切り替えの操作があったか否かを判断する。シーン切り替え操作があるときは、ステップST7に進む。 In step ST218, the control unit 113 ends the viewpoint conversion process, and then proceeds to step ST6 in FIG. Here, based on the operation information from the touch panel 118, the control unit 113 determines whether or not a scene switching operation has been performed by processing related to the functional block of the display image selection unit 113A. If there is a scene switching operation, the process proceeds to step ST7.
ユーザによるシーン切り替え操作は、タッチパネル118により、鳥瞰画像表示部117に表示すべき新たな地図画像(鳥瞰画像)を選択することで行われる。なおこの場合、ユーザの要求によって、制御部113は鳥瞰画像表示部117にメニュー画面を単独であるいは地図画像と共に表示し、ユーザはそのメニュー画面に基づいて所望する地図画像を選択するようにしてもよい。 The scene switching operation by the user is performed by selecting a new map image (bird's-eye image) to be displayed on the bird's-eye image display unit 117 using the touch panel 118. In this case, the control unit 113 displays a menu screen alone or together with a map image on the bird's-eye image display unit 117 according to a user request, and the user selects a desired map image based on the menu screen. Good.
図79は、シーン切り替え処理の手順を示している。すなわち、制御部113は、ステップST311で、シーン切り替え処理を開始し、ステップST312に進む。ここで、制御部113は、メディアデータベース112から、選択された地図画像の画像データD4およびその地図画像上で特定される撮影地点で撮影されたパノラマ画像の画像データD3、さらには撮影地点を示す撮影地点の情報を読み込む。 FIG. 79 shows the procedure of the scene switching process. That is, the control unit 113 starts a scene switching process in step ST311, and proceeds to step ST312. Here, the control unit 113 indicates the image data D4 of the selected map image from the media database 112, the image data D3 of the panoramic image photographed at the photographing point specified on the map image, and further the photographing point. Read information about the shooting location.
続いて、制御部113は、ステップST313で、全方位画像変換部304Aの機能ブロックに係る処理により、ステップST312で取得した円形形状によるパノラマ画像A1〜A3を、横長の長方形形状のパノラマ画像B1〜B3に画像変換処理する(図75参照)。以上のステップST312およびステップST313の処理は、上述したステップST2およびステップST3の初期化処理に相当する処理である。 Subsequently, in step ST313, the control unit 113 converts the panoramic images A1 to A3 having a circular shape acquired in step ST312 into the horizontally long panoramic images B1 to B1 by processing related to the functional blocks of the omnidirectional image conversion unit 304A. Image conversion processing is performed on B3 (see FIG. 75). The processes in steps ST312 and ST313 described above are processes corresponding to the initialization processes in steps ST2 and ST3 described above.
制御部113は、ステップST313の処理の後、ステップST314で、シーン切り替え理を終了し、図76のステップST8に進む。シーン切り替え処理で、上述したようにメディアデータベース112から新たな地図画像データD4等を読み込むことで、上述した風景画像表示処理では、この新たな地図画像データD4等を用いて処理が行われため、鳥瞰画像表示部117には新たな地図画像M等が表示され、シーン切り替えが行われる。 After step ST313, the control unit 113 ends the scene switching process in step ST314, and proceeds to step ST8 in FIG. In the scene switching process, the new map image data D4 and the like are read from the media database 112 as described above, and thus the landscape image display process described above is performed using the new map image data D4 and the like. A new map image M or the like is displayed on the bird's-eye view image display unit 117, and scene switching is performed.
図76のフローチャートで、ステップST6で、シーン切り替え操作がなされていないときは、直ちにステップST8に進む。ここで、制御部113は、鳥瞰画像表示部117への表示を終了するか否かを判断する。例えば、制御部113は、電源オフ、あるいはタッチパネル118の所定部分をユーザが2回連続してタッチする操作を行った場合には終了と判断する。また例えば、制御部113は、ユーザによるタッチパネル118による操作の最終時刻から所定時間が経過した場合には終了と判断する。なお、終了の判断条件はこれに限定されるものではない。 In the flowchart of FIG. 76, when the scene switching operation is not performed in step ST6, the process immediately proceeds to step ST8. Here, the control unit 113 determines whether or not to end the display on the bird's-eye view image display unit 117. For example, the control unit 113 determines that the process is ended when the power is turned off or the user performs an operation of touching a predetermined portion of the touch panel 118 twice in succession. Further, for example, the control unit 113 determines that the process is finished when a predetermined time has elapsed from the last time when the user operated the touch panel 118. Note that the termination determination condition is not limited to this.
終了と判断しないとき、制御部113は、ステップST4に戻って、上述したと同様の処理を繰り返す。一方、終了と判断するとき、制御部113は、ステップST9に進み、表示処理を終了する。 When it is not determined to end, the control unit 113 returns to step ST4 and repeats the same processing as described above. On the other hand, when determining that the process is to end, the control unit 113 proceeds to step ST9 and ends the display process.
上述したように、図73の画像表示装置301では、電源の投入により、あるいはユーザがタッチパネル118のいずれかをタッチすることで、表示処理が開始される。そして、最初は、メディアデータベース112から制御部113に、初期状態で表示すべき地図画像の画像データD4およびその地図画像上で特定される撮影地点で撮影されたパノラマ画像の画像データD3、さらには撮影地点を示す撮影地点の情報が読み込まれる。制御部113では、それらの画像データ等を用いて表示画像が生成される。この場合、地図画像の各撮影地点にそこで撮影されて得られたパノラマ画像が配置され、しかもそれが視点から見た画像に変換される。これにより、鳥瞰画像表示部117に、地図画像にパノラマ画像を配置した画像が視点から見た状態で表示される(図82A,B参照)。 As described above, in the image display device 301 in FIG. 73, the display process is started when the power is turned on or when the user touches one of the touch panels 118. Initially, the image data D4 of the map image to be displayed in the initial state from the media database 112 to the control unit 113, and the image data D3 of the panoramic image photographed at the photographing point specified on the map image, and further Information on the shooting point indicating the shooting point is read. In the control unit 113, a display image is generated using the image data and the like. In this case, a panoramic image obtained by shooting at each shooting point of the map image is arranged and converted into an image viewed from the viewpoint. Thereby, the bird's-eye view image display unit 117 displays an image in which the panoramic image is arranged on the map image as viewed from the viewpoint (see FIGS. 82A and 82B).
このように鳥瞰画像表示部117にパノラマ画像が配置された地図画像が表示された後、タッチパネル118でユーザが視点変換のための操作(ズームイン操作、ズームアウト操作、鳥瞰視点移動操作など)を行うと、制御部113で視点移動処理が行われ、鳥瞰画像表示部117に表示される地図画像にパノラマ画像を配置した画像は、視点位置の移動に伴って変化したものとなる。 After the map image in which the panoramic image is arranged is displayed on the bird's-eye image display unit 117 in this way, the user performs operations for viewpoint conversion (zoom-in operation, zoom-out operation, bird's-eye viewpoint movement operation, etc.) on the touch panel 118. Then, the viewpoint moving process is performed by the control unit 113, and the image in which the panoramic image is arranged on the map image displayed on the bird's-eye view image display unit 117 changes with the movement of the viewpoint position.
また、このように鳥瞰画像表示部117にパノラマ画像が配置された地図画像が表示されたのち、タッチパネル118でユーザがシーン切り替えの操作を行うと、メディアデータベース112から制御部113に、新たに選択された地図画像の画像データD4およびその地図画像上で特定される撮影地点で撮影されたパノラマ画像の画像データD3、さらには撮影地点の情報が読み込まれ、鳥瞰画像表示部117に新たな地図画像データD4等による画像が表示され、シーン切り替えが行われる。 In addition, after the map image on which the panoramic image is arranged is displayed on the bird's eye image display unit 117 in this way, when the user performs a scene switching operation on the touch panel 118, a new selection is made from the media database 112 to the control unit 113. The image data D4 of the map image and the image data D3 of the panoramic image photographed at the photographing point specified on the map image, and further the information of the photographing point are read, and a new map image is displayed in the bird's eye image display unit 117. An image based on the data D4 or the like is displayed, and scene switching is performed.
このように、図73に示す画像表示装置301によれば、鳥瞰画像表示部117に表示される画像は、地図画像M(鳥瞰画像)の撮影地点にそこで撮影されたパノラマ画像(撮影画像)が配置されたものとなる。そのため、複数のパノラマ画像、上述の実施の形態ではパノラマ画像D1〜D3の地理的な関係を容易に把握できる。 As described above, according to the image display device 301 shown in FIG. 73, the image displayed on the bird's-eye image display unit 117 is a panoramic image (captured image) photographed at the photographing point of the map image M (bird's-eye image). It will be arranged. Therefore, it is possible to easily grasp the geographical relationship between a plurality of panoramic images, that is, the panoramic images D1 to D3 in the above-described embodiment.
また、図73に示す画像表示装置301によれば、地図画像Mの撮影地点に配置されるパノラマ画像は視点PSに向くように配置され、さらにこのパノラマ画像が配置された地図画像Mが視点より見た画像に変換されて表示画像が得られるものである。そのため、視点PSから見た状態で地図画像Mが表示され、しかもこの視点PSに正対した状態でパノラマ画像が表示されるので、見る方向との整合性の図られた画像を表示することができ、複数のパノラマ画像の地理的な関係の把握がより容易となる。 Further, according to the image display device 301 shown in FIG. 73, the panoramic image arranged at the photographing point of the map image M is arranged so as to face the viewpoint PS, and the map image M on which the panoramic image is arranged is further viewed from the viewpoint. A display image is obtained by being converted into a viewed image. Therefore, the map image M is displayed as viewed from the viewpoint PS, and the panoramic image is displayed in a state of facing the viewpoint PS, so that an image that is consistent with the viewing direction can be displayed. This makes it easier to grasp the geographical relationship between a plurality of panoramic images.
また、図73に示す画像表示装置301によれば、地図画像Mの撮影地点に、広角画像であるパノラマ画像から視点に対応した一部領域が切り出されて配置されるものである(図81参照)。そのため、地図画像M上に表示されるパノラマ画像は、視点に対応したもの、つまり視点方向から見ることができる画像となり、ユーザはその画像を確認できるので、地図画像、パノラマ画像により紹介される場所の理解を十分に図ることができる。 Further, according to the image display device 301 shown in FIG. 73, a partial region corresponding to the viewpoint is cut out and arranged at the shooting point of the map image M from the panoramic image that is a wide-angle image (see FIG. 81). ). Therefore, the panorama image displayed on the map image M corresponds to the viewpoint, that is, an image that can be viewed from the viewpoint direction, and the user can check the image, so the place introduced by the map image and the panorama image. Can be fully understood.
また、図73に示す画像表示装置301によれば、ユーザがユーザ操作部であるタッチパネル118を用いて視点PSの位置を変更できる。そのため、ユーザは視点位置を変更して表示される地図画像Mの方向を変えることができ、これに伴って地図画像M上に配置されるパノラマ画像の内容も変わるので、複数のパノラマ画像の地理的な関係の把握がより容易となる。 73, the user can change the position of the viewpoint PS using the touch panel 118 that is a user operation unit. Therefore, the user can change the direction of the displayed map image M by changing the viewpoint position, and the content of the panorama image arranged on the map image M changes accordingly. It is easier to understand the relationship.
また、図73に示す画像表示装置によれば、地図画像M上へのパノラマ画像の配置が、パノラマ画像の一部領域が切り出されて配置されることにより実行される(図81参照)。そのため、横長のパノラマ画像を多数表示する場合でも、パノラマ画像間の重なり合いが防止されて見易さが確保され、またこれによってもパノラマ画像間の地理的な関係を容易に把握することが可能となる。 Further, according to the image display device shown in FIG. 73, the panorama image is arranged on the map image M by cutting out and arranging a partial area of the panorama image (see FIG. 81). Therefore, even when a large number of horizontally long panoramic images are displayed, overlapping between the panoramic images is prevented and visibility is ensured, and this also makes it possible to easily grasp the geographical relationship between the panoramic images. Become.
なお、地図画像M上に配置するパノラマ画像が少ない場合には、切り出す処理を省略して直接パノラマ画像を配置するようにしてもよく、この場合には、地図画像M上に配置したパノラマ画像において、視点方向から見て取ることができる部分が、パノラマ画像の水平方向、中央となるように、パノラマ画像中における各部の表示をスクロールさせることにより、視点により見る方向と、実際に現場にて見て取ることができる風景との整合を図ることができる。 If there are few panoramic images to be arranged on the map image M, the panorama image may be arranged directly by omitting the clipping process. In this case, in the panorama image arranged on the map image M, By scrolling the display of each part in the panoramic image so that the part that can be seen from the viewpoint direction is the horizontal direction and center of the panoramic image, it can be seen from the viewpoint and actually in the field It can be aligned with the scenery that can be done.
なお、上述実施の形態においては、図73に示す画像表示装置301を、図19に示す画像表示システム101のリモートコマンダ116における鳥瞰画像表示部117への鳥瞰画像の表示に適用したものである。図86は、リモートコマンダ116を家具であるテーブルに形成し、テーブル面に鳥瞰画像表示部116が配置されている例を示している。 In the embodiment described above, the image display device 301 shown in FIG. 73 is applied to display a bird's-eye image on the bird's-eye image display unit 117 in the remote commander 116 of the image display system 101 shown in FIG. FIG. 86 shows an example in which the remote commander 116 is formed on a table that is furniture, and the bird's-eye view image display unit 116 is arranged on the table surface.
また、図73に示す画像表示装置301は、図87に示すように、カーナビゲーション装置にも適用できる。 Further, the image display device 301 shown in FIG. 73 can also be applied to a car navigation device as shown in FIG.
この場合、例えば、GPS(Global Positioning System )等により検出される現在位置、ユーザにより指示された目的地に対応する地図画像上に、対応するパノラマ画像を配置して表示する。またこのとき、デフォルトの方向に視点を設定して、さらにはGPS等により検出される自動車の向きに応じて視点を設定して、地図画像およびパノラマ画像を表示する。 In this case, for example, a corresponding panoramic image is arranged and displayed on a map image corresponding to a current position detected by a GPS (Global Positioning System) or the like and a destination designated by the user. At this time, the viewpoint is set in the default direction, and further, the viewpoint is set according to the direction of the automobile detected by GPS or the like, and the map image and the panorama image are displayed.
また、表示画面上に配置したタッチパネルの操作により、地図画像上で目的地の選択を受け付け、さらにはパノラマ画像の選択により目的地の選択を受け付ける。また同様のタッチパネルの操作により、視点の位置を種々の方向に移動させる。なおこの視点の移動にあっては、表示した地図の中央個所を中心にした回転等による移動と、表示した地図に対する平行移動とであり、回転の場合には、所望する場所を種々の方向から眺めて確認することができ、平行移動の場合には、例えば移動経路の沿った経路を確認することができる。 In addition, selection of a destination on a map image is accepted by operating a touch panel arranged on the display screen, and selection of a destination is accepted by selecting a panoramic image. Further, the position of the viewpoint is moved in various directions by the same operation of the touch panel. In addition, the movement of the viewpoint includes a movement by rotation around the central portion of the displayed map and a parallel movement with respect to the displayed map. In the case of rotation, a desired place can be viewed from various directions. In the case of parallel movement, for example, a route along the moving route can be confirmed.
また、図73に示す画像表示装置301は、図87に示すように、駅、コンビニエンスストア等に配置される端末装置等にも同様に適用できる。 Further, as shown in FIG. 87, the image display device 301 shown in FIG. 73 can be similarly applied to a terminal device or the like disposed in a station, a convenience store, or the like.
また、上述実施の形態においては、地図画像上にパノラマ画像を配置して表示する場合について述べたが、これに限らず、パノラマ画像に代えて、一画面によっては表示困難な大きさの広角の画像を表示する場合、さらには通常の画角による画像を表示する場合等にも広く適用することができる。 Further, in the above-described embodiment, the case where the panoramic image is arranged and displayed on the map image has been described. However, the present invention is not limited to this. The present invention can be widely applied to display an image, and further to displaying an image with a normal angle of view.
また、上述実施の形態においては、HDD等で構成されるメディアデータベース112より画像データを取得して表示する場合について述べたが、これに限らず、例えばネットワーク上のサーバをアクセスして画像データを取得する場合にも広く適用することができる。 In the above-described embodiment, the case where image data is acquired and displayed from the media database 112 configured by an HDD or the like has been described. However, the present invention is not limited to this. It can be widely applied to acquisition.
また、上述実施の形態においては、撮像画像に静止画を適用する場合について述べたが、これに限らず、撮像画像に動画を適用するようにしてもよい。
また、上述実施の形態においては、画像表示システムのリモートコマンダ、カーナビゲーション装置に適用する場合について述べたが、これに限らず、例えば画像ビュアー等、種々の画像表示に広く適用することができる。
In the above-described embodiment, the case where a still image is applied to a captured image has been described. However, the present invention is not limited to this, and a moving image may be applied to the captured image.
In the above-described embodiment, the case where the present invention is applied to the remote commander and the car navigation device of the image display system has been described. However, the present invention is not limited to this, and can be widely applied to various image displays such as an image viewer.
この発明は、複数の撮影画像の地理的な関係を容易に把握でき、例えば鳥瞰画像から所定の撮影地点を選択する場合などに適用できる。 The present invention can easily grasp the geographical relationship between a plurality of photographed images, and can be applied, for example, when a predetermined photographing point is selected from a bird's-eye view image.
1・・・視聴覚室、2・・・内壁、2A・・・天井、2B・・・床、3・・・外壁、3A・・・天井裏、3B・・・床下、4・・・垂直フレーム、5・・・水平フレーム、6A〜6D・・・板状ユニット、8・・・振動子、9・・・振動板、10・・・プロジェクタ、11・・・ベイ、21,31,41,51,61・・・視聴覚室、24・・・フレーム部分、25・・・加重方向支え、26・・・前後方向支え、32・・・ミラー、62・・・部屋用入り口、63・・・ドア、64・・・空間用入り口、101・・・画像表示システム、102・・・データ処理装置、111・・・画像表示装置、112・・・メディアデータベース、113・・・制御部、113A・・・表示情報選択部、113B・・・画像処理部、113C・・・音場処理部、113D・・・照明情報生成部、113E・・・照明情報選択部、115・・・背景画像表示部、116・・・リモートコマンダ、117・・・鳥瞰画像表示部、118・・・タッチパネル、119・・・照明用コントローラ、120・・・照明、122・・・スピーカ、141・・・画像表示システム、142・・・画像表示装置、143・・・広帯域ネットワーク、144A〜144C・・・メディアデータベース、201,201A〜201H・・・リモートコマンダ、202・・・テーブル、203・・・テーブル面、204・・・脚、206・・・スクリーン、206A・・・液晶パネル、207・・・タッチパネル、208・・・テーブル台、210・・・プロジェクタ、212・・・送受信部、211・・・信号処理部、213・・・投影用窓、222,245・・・光路短縮用のレンズ、234・・・ミラー、266・・・撮像装置、267・・・画像処理部、267A、301・・・画像表示装置、304A・・・全方位画像変換部、304B・・・地図画像/パノラマ画像配置部、304C・・・視点座標変換部、401・・・視聴覚室、402・・・プロジェクタ、402a・・・コントローラ、402b・・・移動機構、402c・・・投影機構、402d・・・ミラー可動機構、402e・・・リモコン受信部、402f・・・映像受信部、402g・・・補正処理部、402h・・・位置検出機構、404・・・投影用窓、405・・・スクリーン、430・・・窓、451・・・土台、452,454・・・レール、453,455・・・モータ、461・・・シリンダ、462・・・ミラー、463・・・2軸のモータ、471・・・リモートコマンダ、472・・・映像機器 DESCRIPTION OF SYMBOLS 1 ... Audiovisual room, 2 ... Inner wall, 2A ... Ceiling, 2B ... Floor, 3 ... Outer wall, 3A ... Back of ceiling, 3B ... Under floor, 4 ... Vertical frame 5 ... Horizontal frame, 6A-6D ... Plate unit, 8 ... Vibrator, 9 ... Diaphragm, 10 ... Projector, 11 ... Bay, 21, 31, 41, 51, 61 ... Audio-visual room, 24 ... Frame part, 25 ... Load direction support, 26 ... Front / rear direction support, 32 ... Mirror, 62 ... Room entrance, 63 ... Door, 64 ... entrance for space, 101 ... image display system, 102 ... data processing device, 111 ... image display device, 112 ... media database, 113 ... control unit, 113A ..Display information selection unit, 113B ... Image processing unit, 113C ... Sound field Management unit 113D ... Illumination information generation unit 113E ... Illumination information selection unit 115 ... Background image display unit 116 ... Remote commander 117 ... Bird's eye image display unit 118 ... Touch panel, 119 ... controller for illumination, 120 ... illumination, 122 ... speaker, 141 ... image display system, 142 ... image display device, 143 ... broadband network, 144A-144C ... Media database 201, 201A to 201H: remote commander, 202 ... table, 203 ... table surface, 204 ... leg, 206 ... screen, 206A ... liquid crystal panel, 207 ... Touch panel 208 ... Table base 210 ... Projector 212 ... Transmission / reception unit 211 ... Signal processing 213 ... projection window, 222, 245 ... optical path shortening lens, 234 ... mirror, 266 ... imaging device, 267 ... image processing unit, 267A, 301 ... image display Device 304A ... Omnidirectional image conversion unit 304B ... Map image / panoramic image arrangement unit 304C ... Viewpoint coordinate conversion unit 401 ... Audio-visual room 402 ... Projector 402a ... Controller, 402b ... Movement mechanism, 402c ... Projection mechanism, 402d ... Mirror moving mechanism, 402e ... Remote control receiving unit, 402f ... Video receiving unit, 402g ... Correction processing unit, 402h ..Position detection mechanism, 404 ... projection window, 405 ... screen, 430 ... window, 451 ... base, 452,454 ... rail, 453,455 ... 461 ... Cylinder, 462 ... Mirror, 463 ... Two-axis motor, 471 ... Remote commander, 472 ... Video equipment
Claims (8)
上記鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を配置して表示画像を得る画像配置部を備え、
上記画像配置部は、撮影画像を視点に向くように配置し、さらに該撮影画像が配置された鳥瞰画像を上記視点より見た画像に変換して上記表示画像を得る
ことを特徴とする画像処理装置。 An image processing device that performs image processing for simultaneously displaying a bird's-eye image and a captured image captured at a capturing point specified on the bird's-eye image,
An image placement unit that obtains a display image by placing a shot image taken at the shooting point at the shooting point of the bird's-eye view image ,
The image placement section, an image, characterized in that arranged so as to face the captured image to the viewpoint, the further bird's-eye image in which the photographed image is arranged to convert the image seen from the viewpoint Ru obtain the display image Processing equipment.
上記広角画像より上記視点に対応した一部領域を切り出す画像切り出し部をさらに備え、
上記画像配置部は、上記鳥瞰画像の上記撮影地点に、上記画像切り出し部で切り出された上記一部領域を配置する
ことを特徴とする請求項1に記載の画像処理装置。 The captured image is a wide-angle image,
An image cutout unit that cuts out a partial region corresponding to the viewpoint from the wide-angle image;
The image processing apparatus according to claim 1 , wherein the image arrangement unit arranges the partial area cut out by the image cutout unit at the shooting point of the bird's-eye view image.
ことを特徴とする請求項1に記載の画像処理装置。 The image processing apparatus according to claim 1 , further comprising a user operation unit that performs an operation for a user to change the position of the viewpoint.
上記ユーザが上記画像取得部で取得される上記鳥瞰画像および上記撮影画像を変更する操作を行うユーザ操作部とをさらに備える
ことを特徴とする請求項1に記載の画像処理装置。 An image acquisition unit that acquires the bird's-eye image and the shot image shot at a shooting point specified on the bird's-eye image from a database;
The image processing apparatus according to claim 1, further comprising: a user operation unit that performs an operation of changing the bird's-eye image acquired by the image acquisition unit and the captured image.
上記データベースより所定の鳥瞰画像および該所定の鳥瞰画像上で特定される撮影地点で撮影された撮影画像を取得し、上記所定の鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を配置して表示画像を得る画像処理部と、
上記画像処理部で得られた画像を表示する画像表示部とを備え、
上記画像処理部は、撮影画像を視点に向くように配置し、さらに該撮影画像が配置された鳥瞰画像を上記視点より見た画像に変換して上記表示画像を得る
ことを特徴とする画像表示装置。 A database that stores a plurality of types of bird's-eye images and shot images taken at shooting points specified on each bird's-eye image;
A predetermined bird's-eye image and a photographed image taken at a photographing point specified on the predetermined bird's-eye image are obtained from the database, and a photographed image taken at the photographing point is taken at the photographing point of the predetermined bird's-eye image. An image processing unit for obtaining a display image by arranging
An image display unit for displaying an image obtained by the image processing unit ,
The image processing section, an image, characterized in that arranged so as to face the captured image to the viewpoint, the further bird's-eye image in which the photographed image is arranged to convert the image seen from the viewpoint Ru obtain the display image Display device.
上記鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を、視点に向くように配置する画像配置ステップと、
上記画像配置ステップで上記撮影地点に撮影画像が配置された上記鳥瞰画像を、上記視点より見た画像に変換して表示画像を得る画像変換ステップと
を備えることを特徴とする画像処理方法。 An image processing method for simultaneously displaying a bird's-eye view image and a photographed image photographed at a photographing point specified on the bird's-eye view image,
An image placement step of placing a photographed image photographed at the photographing point at the photographing point of the bird's-eye image so as to face the viewpoint;
An image conversion method comprising: an image conversion step of obtaining a display image by converting the bird's-eye view image in which the captured image is disposed at the imaging point in the image placement step to an image viewed from the viewpoint.
上記鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を、視点に向くように配置する画像配置ステップと、
上記画像配置ステップで上記撮影地点に撮影画像が配置された上記鳥瞰画像を、上記視点より見た画像に変換して表示画像を得る画像変換ステップと
を備える画像処理方法をコンピュータに実行させるためのプログラム。 In order to simultaneously display a bird's-eye image and a shot image taken at a shooting point specified on the bird's-eye view image,
An image placement step of placing a photographed image photographed at the photographing point at the photographing point of the bird's-eye image so as to face the viewpoint;
An image conversion method for causing a computer to execute an image processing method including: an image conversion step of converting the bird's-eye view image in which a captured image is arranged at the shooting location in the image placement step into an image viewed from the viewpoint to obtain a display image program.
上記鳥瞰画像の上記撮影地点に、該撮影地点で撮影された撮影画像を、視点に向くように配置する画像配置ステップと、
上記画像配置ステップで上記撮影地点に撮影画像が配置された上記鳥瞰画像を、上記視点より見た画像に変換して表示画像を得る画像変換ステップと
を備える画像処理方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
In order to simultaneously display a bird's-eye image and a shot image taken at a shooting point specified on the bird's-eye view image,
An image placement step of placing a photographed image photographed at the photographing point at the photographing point of the bird's-eye image so as to face the viewpoint;
An image conversion method for causing a computer to execute an image processing method including: an image conversion step of converting the bird's-eye view image in which a captured image is arranged at the shooting location in the image placement step into an image viewed from the viewpoint to obtain a display image A computer-readable recording medium on which a program is recorded.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006193431A JP4853149B2 (en) | 2005-09-14 | 2006-07-13 | Image processing apparatus, image display apparatus, image processing method, program, and recording medium |
Applications Claiming Priority (11)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005266259 | 2005-09-14 | ||
JP2005266259 | 2005-09-14 | ||
JP2005266260 | 2005-09-14 | ||
JP2005266262 | 2005-09-14 | ||
JP2005266262 | 2005-09-14 | ||
JP2005266260 | 2005-09-14 | ||
JP2005267803 | 2005-09-15 | ||
JP2005267803 | 2005-09-15 | ||
JP2005269556 | 2005-09-16 | ||
JP2005269556 | 2005-09-16 | ||
JP2006193431A JP4853149B2 (en) | 2005-09-14 | 2006-07-13 | Image processing apparatus, image display apparatus, image processing method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2007110675A JP2007110675A (en) | 2007-04-26 |
JP4853149B2 true JP4853149B2 (en) | 2012-01-11 |
Family
ID=38036140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006193431A Expired - Fee Related JP4853149B2 (en) | 2005-09-14 | 2006-07-13 | Image processing apparatus, image display apparatus, image processing method, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4853149B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7128103B2 (en) | 2018-12-12 | 2022-08-30 | 文化シヤッター株式会社 | switchgear |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5457668B2 (en) * | 2006-04-03 | 2014-04-02 | 健 柳沢 | Video display method and video system |
WO2008147561A2 (en) * | 2007-05-25 | 2008-12-04 | Google Inc. | Rendering, viewing and annotating panoramic images, and applications thereof |
US7990394B2 (en) | 2007-05-25 | 2011-08-02 | Google Inc. | Viewing and navigating within panoramic images, and applications thereof |
JP2009010915A (en) * | 2007-05-31 | 2009-01-15 | Takeshi Yanagisawa | Video display method and video system |
JP5044817B2 (en) * | 2007-11-22 | 2012-10-10 | インターナショナル・ビジネス・マシーンズ・コーポレーション | Image processing method and apparatus for constructing virtual space |
JP5299054B2 (en) | 2009-04-21 | 2013-09-25 | ソニー株式会社 | Electronic device, display control method and program |
US8269902B2 (en) * | 2009-06-03 | 2012-09-18 | Transpacific Image, Llc | Multimedia projection management |
JP5618043B2 (en) * | 2009-09-25 | 2014-11-05 | 日本電気株式会社 | Audiovisual processing system, audiovisual processing method, and program |
JP5464955B2 (en) | 2009-09-29 | 2014-04-09 | 株式会社ソニー・コンピュータエンタテインメント | Panorama image display device |
JP5020398B1 (en) | 2011-06-29 | 2012-09-05 | パナソニック株式会社 | Image conversion apparatus, camera, image conversion method and program |
US9195364B2 (en) | 2011-07-20 | 2015-11-24 | Zte Corporation | Method and apparatus for generating dynamic wallpaper |
US20150134651A1 (en) | 2013-11-12 | 2015-05-14 | Fyusion, Inc. | Multi-dimensional surround view based search |
JP5701967B2 (en) * | 2013-12-16 | 2015-04-15 | 株式会社ソニー・コンピュータエンタテインメント | Image display device and image display method |
JP5920857B2 (en) * | 2015-02-18 | 2016-05-18 | 株式会社ソニー・インタラクティブエンタテインメント | Image display device and image display method |
US10217283B2 (en) | 2015-12-17 | 2019-02-26 | Google Llc | Navigation through multidimensional images spaces |
JP6122991B2 (en) * | 2016-04-05 | 2017-04-26 | 株式会社ソニー・インタラクティブエンタテインメント | Image display device and image display method |
JP6718928B2 (en) * | 2018-07-31 | 2020-07-08 | 株式会社コロプラ | Video output system |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3410703B2 (en) * | 2000-01-31 | 2003-05-26 | ディー・リンク株式会社 | Image display method |
JP2005004487A (en) * | 2003-06-12 | 2005-01-06 | Sony Corp | Apparatus and method for processing surround image photographed on capture path |
-
2006
- 2006-07-13 JP JP2006193431A patent/JP4853149B2/en not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7128103B2 (en) | 2018-12-12 | 2022-08-30 | 文化シヤッター株式会社 | switchgear |
Also Published As
Publication number | Publication date |
---|---|
JP2007110675A (en) | 2007-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4853149B2 (en) | Image processing apparatus, image display apparatus, image processing method, program, and recording medium | |
JP5168834B2 (en) | Audiovisual system | |
US7980704B2 (en) | Audiovisual system including wall-integrated audiovisual capabilities | |
JP5272293B2 (en) | Remote commander and electronic device operation input method | |
JP4929887B2 (en) | Image display device, image display method, program, and recording medium | |
US10397556B2 (en) | Perspective altering display system | |
JP5406813B2 (en) | Panorama image display device and panorama image display method | |
JP5464955B2 (en) | Panorama image display device | |
US20060114251A1 (en) | Methods for simulating movement of a computer user through a remote environment | |
JP2015119277A (en) | Display apparatus, display method, and display program | |
JP2009010915A (en) | Video display method and video system | |
US9372530B2 (en) | Aspect-ratio independent, multimedia capture and editing systems and methods thereof | |
JP2021525043A (en) | Control methods and devices for time-lapse photography, imaging systems and programs | |
JP4997853B2 (en) | Audiovisual system | |
US20080129818A1 (en) | Methods for practically simulatnig compact 3d environments for display in a web browser | |
KR100928723B1 (en) | Viewer system for showing images overlapping with real environment and image output method using them | |
JP2014096157A (en) | Image display apparatus and image display method | |
JP2006081128A (en) | Photographing system, karaoke system, and photographing method | |
KR20120048343A (en) | Method and apparatus for providing panorama image | |
US8054332B2 (en) | Advanced input controller for multimedia processing | |
JP5646033B2 (en) | Image display device and image display method | |
JP2002269298A (en) | Showpiece explaining system | |
JP2001298733A (en) | Panorama reproduction device | |
JP2015092421A (en) | Image display device and image display method | |
JP2003284017A (en) | Terminal unit, two-way dialog type system, headset, and multi-window display method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20090630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110628 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110824 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20110927 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111010 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141104 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141104 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |