JP2009021771A - Video adjustment method - Google Patents
Video adjustment method Download PDFInfo
- Publication number
- JP2009021771A JP2009021771A JP2007182182A JP2007182182A JP2009021771A JP 2009021771 A JP2009021771 A JP 2009021771A JP 2007182182 A JP2007182182 A JP 2007182182A JP 2007182182 A JP2007182182 A JP 2007182182A JP 2009021771 A JP2009021771 A JP 2009021771A
- Authority
- JP
- Japan
- Prior art keywords
- correction data
- image
- video
- projection
- area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Transforming Electric Information Into Light Information (AREA)
- Control Of Indicators Other Than Cathode Ray Tubes (AREA)
- Controls And Circuits For Display Device (AREA)
- Projection Apparatus (AREA)
Abstract
Description
本発明は映像調整方法に係り、特に、スクリーンに複数のプロジェクタで映像を投映する映像表示装置において、スクリーン上で滑らかに輝度・色・幾何を接合する調整方法及び映像表示装置に関する。 The present invention relates to an image adjustment method, and more particularly to an adjustment method and an image display device for smoothly joining luminance, color, and geometry on a screen in an image display device that projects images on a screen with a plurality of projectors.
プロジェクタで映像を投射する映像表示装置として、複数のプロジェクタを用いて、スクリーン上に各プロジェクタの投映映像を並べて、高精細な大画面に表示する映像表示装置が知られている。このような映像表示装置においては、複数のプロジェクタの間に個体差があったり、また、一つのプロジェクタ内でも領域ごとに特性が異なったりすることが原因で、スクリーンに投映された映像の色や明るさに差が生じる。そこで、映像品質を向上するために、この差を補正することが重要である。
その一手法として、特許文献1に開示されているように、テストパターンをカメラで撮影した結果を用いて自動的に補正データを生成することが知られている。
2. Description of the Related Art As a video display device that projects video with a projector, a video display device that uses a plurality of projectors and arranges the projected video of each projector on a screen and displays it on a large high-definition screen is known. In such a video display device, there are individual differences among a plurality of projectors, and the characteristics of the video projected on the screen and the like are different because each region has different characteristics even within one projector. There is a difference in brightness. Therefore, it is important to correct this difference in order to improve video quality.
As one of the methods, as disclosed in
近年、映像表示装置において、曲面スクリーンなど多彩な形態のものが求められており、プロジェクタやカメラの設置の物理的制約上、テストパターンを撮影して得られる撮影データが、テストパターンデータに関わる画像の全てを正常に含むことができない場合が生じることがあった。
例えば、特許文献2には、テストパターンを撮影して得られる撮影データが、テストパターンデータに関わる画像の全てを正常に含むことができない場合でも、画像全体に関する補正データを算出しうる補正データの算出方法が開示されている。
In recent years, video display devices in various forms such as curved screens have been demanded, and due to physical restrictions on the installation of projectors and cameras, shooting data obtained by shooting a test pattern is an image related to the test pattern data. In some cases, not all of the above could be included normally.
For example,
ところで、テストパターンを撮影して得られる撮影データがテストパターンデータに関わる画像の全てを含むことができない場合や、撮影データの精度を上げるため撮影領域を小さくする場合などは、撮影を複数領域に分けて行う必要がある。
然るに、撮影を複数領域に分けて行う際、カメラの撮影姿勢などの違いが原因で、二つ以上の撮影領域の補正データ特性が大きく異なってしまうことがある。このような場合、複数の撮影領域が互いに隣り合う箇所やその周辺において、補正が不自然になるという問題があった。
By the way, if the shooting data obtained by shooting the test pattern cannot include all of the images related to the test pattern data, or if you want to reduce the shooting area in order to improve the accuracy of the shooting data, the shooting is divided into multiple areas. It needs to be done separately.
However, when shooting is performed in a plurality of areas, the correction data characteristics of two or more shooting areas may greatly differ due to differences in the shooting posture of the camera. In such a case, there has been a problem that the correction becomes unnatural at a portion where the plurality of photographing regions are adjacent to each other and the periphery thereof.
本発明の目的は、撮影を複数領域に分けて行う場合に、撮影領域が互いに隣り合う箇所やその周辺を、滑らかで自然に補正する調整方法及び映像表示装置を提供することにある。
本発明の他の目的は、撮影領域ごとの補正データ特性の差を少なくする調整方法及び映像表示装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an adjustment method and a video display apparatus that smoothly and naturally correct a portion where the photographing regions are adjacent to each other and its periphery when photographing is performed in a plurality of regions.
Another object of the present invention is to provide an adjustment method and an image display device that reduce a difference in correction data characteristics for each imaging region.
本発明に係る映像調整方法は、少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正するための補正データを算出する映像調整方法であって、映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成し、
撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割し、
該仮補正データに基づいて、別途生成する領域の補正データを生成するように構成したものである。
また、本発明に係る映像調整方法は、二つ以上の撮影範囲が必要となる場合に、異なる撮影範囲において目標とする目標色の色相が互いに変わらないように定めるようにしたものである。
The video adjustment method according to the present invention projects video on a screen using at least three or more projection units, captures the displayed test pattern with the imaging unit, acquires the captured image, and based on the acquired captured image A video adjustment method for calculating correction data for correcting display characteristics of the video display device, wherein one or more locations where video projection ranges are adjacent to each other are captured and provisional correction data corresponding to each shooting location Produces
Divide the area where the shooting range is adjacent and the surrounding video projection range into at least two types of areas: the area for selecting correction data by selecting any temporary correction data and the area for generating correction data separately And
Based on the provisional correction data, correction data for a region to be generated separately is generated.
The video adjustment method according to the present invention is such that when two or more shooting ranges are required, the hues of the target colors targeted in different shooting ranges are determined so as not to change from each other.
本発明に係る投映表示装置は、少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正して、補正された表示特性に従って映像を投映する投映表示装置において、映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成する手段と、撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割する手段と、該仮補正データに基づいて、別途生成する領域の補正データを生成する手段と、該補正データに従って補正した映像を投映する投映部と、を有する映像表示装置として構成される。 The projection display device according to the present invention projects a video on a screen using at least three or more projection units, captures the displayed test pattern with the imaging unit, acquires a captured image, and based on the acquired captured image In the projection display device that corrects the display characteristics of the video display device and projects an image according to the corrected display characteristics, each of the video projection ranges is photographed to correspond to each photographing location. Means for generating provisional correction data, at least a region where the shooting range is adjacent and a video projection range in the vicinity thereof, and selecting any one of the provisional correction data as correction data and a region for generating correction data separately; A means for dividing the image into one of two types of areas; a means for generating correction data for a separately generated area based on the temporary correction data; and an image corrected according to the correction data. A projection unit for projection of, configured as an image display device having a.
本発明によれば、撮影を複数領域に分けて行う場合に、異なる補正データを滑らかに繋ぎ、また、異なる補正データ特性の差を少なくすることで、スクリーンに投映された映像が滑らかに繋がるという利点がある。 According to the present invention, when shooting is performed in a plurality of areas, different correction data are smoothly connected, and the difference between different correction data characteristics is reduced, so that the image projected on the screen is smoothly connected. There are advantages.
以下、本発明の実施の形態を、図面を参照して説明する。
[実施例1]
図1は、本発明の一実施例による映像調整のシステムである。
映像投映範囲211、212、213はそれぞれ、映像投映部201、202、203がスクリーン100に投映する映像の投映範囲である。映像投映範囲211と212がスクリーン100上で互いに重なるように、かつ、映像投映範囲212と213がスクリーン100上で互いに重なるように、映像投映部211、212、213とスクリーン100は配置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Example 1]
FIG. 1 is a video adjustment system according to an embodiment of the present invention.
The
映像投映部201〜203は、それぞれ補正データを保持し、補正データに基づいて補正した映像を投映する機能を有する。なお、各映像投映部は、補正機能付のプロジェクタ単体であってもよいし、補正データに基づいて補正した映像信号を出力する映像生成器と通常のプロジェクタを組み合わせたものでもよい。
スクリーン100は、ここでは円筒面タイプのものを想定しているが、球面など他の曲面タイプのもの、或いは平面タイプのものでもよい。更には、前面から映像を投射するタイプのもの、或いは背面から投射するタイプのものでもよい。
Each of the
Here, the
撮影範囲311、312はそれぞれ、撮影部301、302が撮影する範囲である。
撮影部301,302は、それぞれレンズを備え、撮影して取得した撮影画像をデジタルデータとして保存する機能を有する。例えば、一眼レフデジタルカメラである。撮影部301と撮影部302は、補正データを生成するための撮影を行うときに配置すればよく、撮影終了後は、システム構成から外してもよい。また、撮影部302は、撮影部301を移動して撮影部302としてもよいし、撮影部301と異なる撮影部を用意して撮影部302を構成してもよい。
The
The photographing
データ処理部40は補正データの生成などの処理を行う処理装置であり、例えば、パーソナルコンピュータで構成される。データ処理部40は、ネットワークやバス等を介して映像投映部201、202、203や撮影部301、302と接続される。なお、データ処理部40は単体で構成されてもよいし、映像投映部201、202、203や撮影部301、302のいずれか1又は複数のユニットにその機能を内蔵して構成してもよい。
The
図2は、一実施例における映像調整の処理フローを示す。
映像調整処理は、映像投映範囲が隣り合う第一の箇所を撮影して当該箇所に対応する第一の仮補正データを生成する処理(S100)と、映像投映範囲が隣り合う第二の箇所を撮影して当該箇所に対応する第二の仮補正データを生成する処理(S200)と、各領域を前記いずれの仮補正データを採用するか、あるいは、補正データを別途生成するかの少なくとも二種類のいずれかに分類する処理(S300)と、別途生成すると分類された領域に関する補正データを他に分類された領域の補正データに基づいて生成する処理(S400)とを含む。
また、第一の仮補正データの生成処理S100は、撮影部301での幾何調整処理を行う処理(S110)と、撮影部301での明るさ・色調整処理を行う処理(S120)からなる。
各領域の分類処理S300及び補正データの生成処理S400は、データ処理部40のプロセッサで所定のアプリケーションプログラムを実行することで実現される。
以下、各処理について詳細に説明する。
FIG. 2 shows a processing flow of video adjustment in one embodiment.
The video adjustment processing includes processing (S100) of shooting the first location where the video projection range is adjacent and generating first temporary correction data corresponding to the location, and the second location where the video projection range is adjacent. At least two types of processing (S200) for generating second provisional correction data corresponding to the location by photographing and which of the provisional correction data is used for each region or generation of correction data separately And a process (S400) of generating correction data relating to a region classified as separately generated based on correction data of the other classified region (S400).
The first temporary correction data generation process S100 includes a process of performing a geometric adjustment process in the photographing unit 301 (S110) and a process of performing a brightness / color adjustment process in the photographing unit 301 (S120).
The classification process S300 and the correction data generation process S400 for each region are realized by executing a predetermined application program by the processor of the
Hereinafter, each process will be described in detail.
まず、図3を参照して、撮影部301での幾何調整処理(S110)について説明する。
図3のように、映像投映部201が投映する映像のサイズを横wP1ピクセル、縦hP1ピクセル、映像投映部202が投映する映像のサイズを横wP2ピクセル、縦hP2ピクセル、映像投映部203が投映する映像のサイズを横wP3ピクセル、縦hP3ピクセルとする。例えば、画像サイズがXGA(横1024ピクセル、縦768ピクセル)の場合、数1のようになる。
First, the geometric adjustment process (S110) in the photographing
As shown in FIG. 3, the size of the video projected by the
図3のように、撮影部301が撮影する画像のサイズを、横wC1ピクセル、縦hC1ピクセルとする。例えば、横2000ピクセル、縦1312ピクセルの画像サイズの場合、数2のようになる。
As illustrated in FIG. 3, the size of the image captured by the
映像投映部が投映する映像や、撮影部が撮影する画像の色は色(r,g,b)と表し、r(赤),g(緑),b(青)の値の範囲は、それぞれ[rMIN,rMAX]、[gMIN,gMAX]、[bMIN,bMAX]とし、例えば、数3のような値とする。
The color of the video projected by the video projection unit and the color of the image captured by the imaging unit are represented as colors (r, g, b), and the range of values of r (red), g (green), and b (blue) are respectively [R MIN , r MAX ], [g MIN , g MAX ], [b MIN , b MAX ], for example, values as shown in
映像投映範囲211と212がスクリーン100上で互いに隣り合っており、撮影範囲311がその互いに隣り合う領域を含んでいるので、P1の集合とP2の集合とC1の集合には、互いに写像の関係がある。
Since the
P1の集合からC1の集合への写像をfC1P1、P2の集合からC1の集合への写像をfC1P2と表し、C1の集合からP1の集合への写像をf−1 C1P1、C1の集合からP2の集合への写像をf−1 C1P2と表す。
これらの写像と座標の関係を表すと、数4のようになる。
The mapping from a set of P 1 to a collection of C 1 f C1P1, represents a set of P 2 the mapping to a set of C 1 and f C1P2, a mapping from the set of C 1 to the set of P 1 f -1 C1P1, represents a collection of C 1 mapping to a set of P 2 and f -1 C1P2.
The relationship between these mappings and coordinates is expressed as in Expression 4.
ここで、マスク321と322を撮影部301の座標C1(xC1,yC1)の関数mC1P1、mC1P2でそれぞれ数5のように定義する。
Here, the
なお、ここで後の演算で用いるために、マスク321と322のOR領域をマスク325、AND領域をマスク326とし、マスク325からマスク326を除いた領域をマスク327とする。
マスク325、326、327を撮影部301の座標C1(xC1,yC1)の関数m325、m326、m327で表すと、数6のようになる。
Note that the OR region of the
When the masks 325 , 326 , and 327 are represented by functions m 325 , m 326 , and m 327 of the coordinates C 1 (x C1 , y C1 ) of the
ここで、合わせたい色を(rT,gT,bT)とする。なお、合わせたい色の数は2つ以上でも構わない。また、合わせたい色の数やそれぞれの合わせたい色の値は、予め決めておいてもよいし、ユーザに入力させてもよい。
処理S12100で、合わせたい色が残っている場合、処理S12200に進み、残っていない場合には終了する。
Here, it is assumed that the color to be matched is (r T , g T , b T ). Note that the number of colors to be matched may be two or more. The number of colors to be matched and the value of each color to be matched may be determined in advance or may be input by the user.
If it is determined in step S12100 that the color to be matched remains, the process proceeds to step S12200, and if not, the process ends.
S12200は露出設定処理をする。S110と同じ撮影姿勢に保ったまま、撮影部301の露出(絞り、シャッタースピード)を固定する。S120の処理の間、撮影する画像がサチったり、全黒になったりしない露出にするのが望ましい。
In step S12200, exposure setting processing is performed. The exposure (aperture and shutter speed) of the photographing
次に、図6を参照して、第一の目標色決定処理(S12300)について説明する。
S12310で、合わせたい色が黒(0,0,0)の場合にはS12330に進み、黒以外の場合にはS12320に進む。
S12320で、合わせたい色が白(255,255,255)の場合にはS12340に進み、白以外の場合にはS12350に進む。
ここで、第一の目標色決定用画像を画像330とし、画像330の座標C1(xC1,yC1)の色を(r330(xC1,yC1),g330(xC1,yC1),b330(xC1,yC1))と表す。r330、g330、b330の値には、S12330か12340か12350のいずれかでの撮影結果が入る。
Next, the first target color determination process (S12300) will be described with reference to FIG.
If it is determined in S12310 that the color to be matched is black (0, 0, 0), the process proceeds to S12330, and if it is not black, the process proceeds to S12320.
In S12320, if the color to be matched is white (255, 255, 255), the process proceeds to S12340, and if it is other than white, the process proceeds to S12350.
Here, the first target color determination image is an image 330, and the color of the coordinates C 1 (x C1 , y C1 ) of the image 330 is (r 330 (x C1 , y C1 ), g 330 (x C1 , y C1 ), b 330 (x C1 , y C1 )). The values of r 330 , g 330 , and b 330 include the imaging results in S12330, 12340, or 12350.
黒の場合の、第一の目標色決定処理(S12330)について説明する。
黒色(0,0,0)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
m325(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが上位0.05%である(x,y)を(x,y)=(x330,y330)とする。
このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
以上の手順により、画像330内の、映像投映範囲が存在する領域の色のうち、緑の明るさが上位0.05%の色が目標色となった。
The first target color determination process (S12330) in the case of black will be described.
A black (0, 0, 0) solid image is displayed from each of the
m 325 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)) are sorted, and (x, y) = (x, y) = (0.05), the magnitude of the value of the green component g 330 (x, y) is the upper 0.05%. (X 330 , y 330 ).
The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.
According to the above procedure, among the colors in the area where the video projection range exists in the image 330, the color having the highest brightness of 0.05% is the target color.
例えば、画像330中、マスク325が占める領域が仮に全体の6割だったとすると、上位0.05%の画素は、数7のように、上位788番目の画素である。
For example, if the area occupied by the
次に、白の場合の、第一の目標色決定処理(S12340)について説明する。
白色(255,255,255)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
m327(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが下位0.5%である(x,y)を(x,y)=(x330,y330)とする。
このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
以上の手順により、画像330内の、映像投映範囲が存在し、かつ、映像投映範囲が重複しない領域の色のうち、緑の明るさが下位0.5%の色が目標色となった。
Next, the first target color determination process (S12340) in the case of white will be described.
White (255, 255, 255) solid images are displayed from the
m 327 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)), and the value of the green component g 330 (x, y) is the lower 0.5% of (x, y) (x, y) = (X 330 , y 330 ).
The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.
According to the above procedure, among the colors in the area where the video projection range exists in the image 330 and the video projection range does not overlap, the target color is the color whose green brightness is lower 0.5%.
映像投映範囲が重複する部分を含めないのは、映像投映範囲が重複しない部分より重複する部分の方が補正可能範囲が広く、補正可能範囲が広い方を狭い方に合わせることは可能でも、補正可能範囲が狭い方を広い方に合わせることは不可能な場合があるからである。 The part that overlaps the video projection range is not included because the correction range is wider than the part that does not overlap the video projection range, and the wider correction range can be adjusted to the narrower one. This is because it may not be possible to match the narrower range to the wider range.
例えば、画像330中、マスク327が占める領域が仮に全体の5割だったとすると、下位0.5%の画素は、数8のように、下位6560番目の画素である。
For example, if the area occupied by the
次に、通常の場合の、第一の目標色決定処理(S12350)について説明する。
色(r,g,b)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
m327(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが上位50%である(x,y)を(x,y)=(x330,y330)とする。このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
Next, the first target color determination process (S12350) in the normal case will be described.
Solid images of color (r, g, b) are displayed from the
m 327 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)) are sorted, and (x, y) = (x, y) where the magnitude of the value of the green component g 330 (x, y) is the top 50% 330 , y330 ). The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.
以上の手順により、画像330内の投映領域が存在し、かつ、投映領域が重複しない範囲の色のうち、緑の明るさが上位50%の色が目標色となった。もちろん、50%の値は違う値を用いてもよい。
映像投映範囲が重複する部分を含めないのは、映像投映範囲が重複しない部分より重複する部分の方が、補正可能範囲が広く、補正可能範囲が広い方を狭い方に合わせることは可能でも、補正可能範囲が狭い方を広い方に合わせることは不可能な場合があるからである。
According to the above procedure, among the colors in the range where the projection area in the image 330 exists and the projection areas do not overlap, the color having the highest brightness of green is the target color. Of course, a different value may be used for the value of 50%.
The part where the video projection range overlaps is not included because the part where the video projection range overlaps is wider than the part where the video projection range does not overlap, and it is possible to match the wider correction range to the narrower one, This is because it may not be possible to match the narrower correction range to the wider correction range.
S12330、S12340、S12350で、緑成分だけを用いてソートしたのは、緑の値が一番輝度に効いてくるためである。なお、緑成分だけを用いてソートする方法と別の方法として、色(r330,g330,b330)を光量比例の空間に変換し、さらにHSV色空間に変換して、明度の高い順に並べ、明度の上位ないし下位の色を用いてもよい。また、S12350で、上位50%の色を用いる代わりに、先に白と黒の目標色決定を済ませ、その結果から合わせたい色(rT,gT,bT)の目標色を補間して求めてもよい。さらに他の方法として、S12330、S12340、S12350で、目標色をユーザに指定させてもよい。 The reason why sorting is performed using only the green component in S12330, S12340, and S12350 is that the green value is most effective for luminance. In addition, as a method different from the method of sorting using only the green component, the colors (r 330 , g 330 , b 330 ) are converted into a light quantity proportional space, and further converted into an HSV color space, in order of increasing brightness. It is also possible to use colors with higher or lower brightness. In S12350, instead of using the top 50% colors, the target colors for white and black are determined first, and the target colors of the colors (r T , g T , b T ) to be combined are interpolated from the results. You may ask for it. As yet another method, the target color may be specified by the user in S12330, S12340, and S12350.
目標色を(rG1,gG1,bG1)と表すと、数9のようになる。 When the target color is represented as (r G1 , g G1 , b G1 ), the following equation 9 is obtained.
S12410で、整数iを変数とし、iの値を1とする。S12420で、数列sのj番目の要素をs(j)と表すとき、数10を満たす数列sを定義する。
In step S12410, the integer i is set as a variable, and the value of i is set to 1. In S12420, when the j-th element of the sequence s is expressed as s (j), the sequence s satisfying Equation 10 is defined.
S12430で、フィードバックループ用各投映画像の初期値設定をする。
画像221、222を黒画像とし、初期値を数12のように設定する。
In S12430, initial values of the projected images for the feedback loop are set.
The
画像340は横wC1ピクセル、縦hC1ピクセルのサイズであり、画像340の座標(xC1,yC1)の色を(r340(xC1,yC1),g340(xC1,yC1),b340(xC1,yC1))と表す。r340、g340、b340の値に関し、横wC1ピクセル、縦hC1ピクセルのサイズを超える部分について、数13のように定義する。
The
0≦x221<wP1、0≦y221<hP1を満たす整数x221、y221に関し、(x221,y221)に対応する撮影範囲座標を(x340,y340)とすると、図8のように、数14の関係がある。
With respect to the integers x 221 and y 221 that satisfy 0 ≦ x 221 <w P1 and 0 ≦ y 221 <h P1 , assuming that the shooting range coordinates corresponding to (x 221 , y 221 ) are (x 340 , y 340 ), FIG. As shown in FIG.
r<rG1のとき、r221(x221,y221)を変分s(i)だけ増やす。増やした後にr221(x221,y221)がrMAXを超えたときはrMAXとする。
r>rG1のとき、r221(x221,y221)を変分s(i)だけ減らす。減らした後にr221(x221,y221)がrMINを下回るときはrMINとする。
g<gG1のとき、g221(x221,y221)を変分s(i)だけ増やす。増やした後にg221(x221,y221)がgMAXを超えたときはgMAXとする。
g>gG1のとき、g221(x221,y221)を変分s(i)だけ減らす。減らした後にg221(x221,y221)がgMINを下回るときはgMINとする。
b<bG1のとき、b221(x221,y221)を変分s(i)だけ増やす。増やした後にb221(x221,y221)がbMAXを超えたときはbMAXとする。
b>bG1のとき、b221(x221,y221)を変分s(i)だけ減らす。減らした後にb221(x221,y221)がbMINを下回るときはbMINとする。
When r <r G1 , r 221 (x 221 , y 221 ) is increased by the variation s (i). When r 221 (x 221 , y 221 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G1 , r 221 (x 221 , y 221 ) is reduced by the variation s (i). If r 221 (x 221 , y 221 ) falls below r MIN after the reduction, it is set as r MIN .
When g <g G1 , g 221 (x 221 , y 221 ) is increased by the variation s (i). When g 221 (x 221 , y 221 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G1 , g 221 (x 221 , y 221 ) is reduced by the variation s (i). When g 221 (x 221 , y 221 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G1 , b 221 (x 221 , y 221 ) is increased by the variation s (i). When b 221 (x 221 , y 221 ) exceeds b MAX after the increase, b MAX is set.
When b> b G1 , b 221 (x 221 , y 221 ) is reduced by the variation s (i). If b 221 (x 221 , y 221 ) falls below b MIN after the reduction, b MIN is set.
なお、映像投映範囲が重なる部分であるマスク326上に座標(x221,y221)があるとき、前記変分s(i)の代わりに、ρLs(i)(ρLは0<ρL<1を満たす実数)を用いてもよい。ρLの値は、例えばρL=0.5や、映像投映範囲が重なり始めた箇所からの距離に応じて変動する値などを用いるとよい。
When the coordinates (x 221 , y 221 ) are on the
映像投映範囲212に関して、映像投映範囲211と同様にして、以下のように、画素比較・更新をする。
整数x222、y222に関し、0≦x222<wP2、0≦y222<hP2を満たす(x222,y222)に対応する撮影範囲座標を(x340,y340)とすると、図8のように数16の関係がある。
As for the
Assuming that the shooting range coordinates corresponding to (x 222 , y 222 ) satisfying 0 ≦ x 222 <w P2 and 0 ≦ y 222 <h P2 with respect to the integers x 222 and y 222 are (x 340 , y 340 ), FIG. As shown in FIG.
色(r,g,b)と目標色(rG1,gG1,bG1)を比較する。
r<rG1のとき、r222(x222,y222)を変分s(i)だけ増やす。増やした後にr222(x222,y222)がrMAXを超えたときはrMAXとする。
r>rG1のとき、r222(x222,y222)を変分s(i)だけ減らす。減らした後にr222(x222,y222)がrMINを下回るときはrMINとする。
g<gG1のとき、g222(x222,y222)を変分s(i)だけ増やす。増やした後にg222(x222,y222)がgMAXを超えたときはgMAXとする。
g>gG1のとき、g222(x222,y222)を変分s(i)だけ減らす。減らした後にg222(x222,y222)がgMINを下回るときはgMINとする。
b<bG1のとき、b222(x222,y222)を変分s(i)だけ増やす。増やした後にb222(x222,y222)がbMAXを超えたときはbMAXとする。
b>bG1のとき、b222(x222,y222)を変分s(i)だけ減らす。減らした後にb222(x222,y222)がbMINを下回るときはbMINとする。
The color (r, g, b) is compared with the target color (r G1 , g G1 , b G1 ).
When r <r G1 , r 222 (x 222 , y 222 ) is increased by the variation s (i). When r 222 (x 222 , y 222 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G1 , r 222 (x 222 , y 222 ) is reduced by the variation s (i). If r 222 (x 222 , y 222 ) falls below r MIN after the decrease, it is set as r MIN .
When g <g G1 , g 222 (x 222 , y 222 ) is increased by the variation s (i). When g 222 (x 222 , y 222 ) exceeds g MAX after the increase, it is set as g MAX .
When g> g G1 , g 222 (x 222 , y 222 ) is reduced by the variation s (i). If g 222 (x 222 , y 222 ) falls below g MIN after the decrease, it is set as g MIN .
When b <b G1 , b 222 (x 222 , y 222 ) is increased by the variation s (i). If b 222 (x 222 , y 222 ) exceeds b MAX after the increase, b MAX is set.
When b> b G1 , b 222 (x 222 , y 222 ) is reduced by the variation s (i). If b 222 (x 222 , y 222 ) falls below b MIN after the reduction, b MIN is set.
なお、映像投映範囲が重なる部分であるマスク326上に座標(x222,y222)があるとき、前記変分s(i)の代わりに、σLs(i)(σLは0<σL<1を満たす実数)を用いてもよい。σLの値は、例えばσL=1−ρLを用いるとよい。
When the coordinates (x 222 , y 222 ) are on the
S12470で、iとNの大きさを比較し、i<NのときはS12480に進み、i<Nでなかったときは、S12400を終了する。S12480で、iの値をプラス1し、次のS12440に戻ってループする。S12440に戻るときに、画像221と222に、それぞれ平滑化フィルタをかけてもよい。
S12440〜12480の手順を繰り返すことで、撮影画像340において、映像投映範囲211、212が写っている領域の色が、目標色(rG1,gG1,bG1)に近づいていく。
S12400が終了した時点の画像221と222が、撮影部301における、合わせたい色(rT,gT,bT)の仮補正データである。
In S12470, the sizes of i and N are compared. When i <N, the process proceeds to S12480, and when i <N is not satisfied, S12400 is terminated. In S12480, the value of i is incremented by 1, and the process returns to the next S12440 to loop. When returning to S12440, a smoothing filter may be applied to the
By repeating the procedure of S12440 to 12480, the color of the area in which the video projection ranges 211 and 212 are captured in the captured
次に、撮影部302での幾何調整処理(S210)について説明する。
映像投映範囲212と213が互いに隣り合う領域を、撮影部302の撮影範囲312が含むように、撮影部302の撮影姿勢を決める。撮影部302は、撮影部301と特性が近いものが望ましい。ここでは、撮影部301を移動して、撮影部302とする。
Next, the geometric adjustment process (S210) in the
The shooting posture of the
図3のように撮影部302が撮影する画像のサイズを、横wC2ピクセル、縦hC2ピクセルとする。
撮影部301を移動して撮影部302としたので、数17のようになる。
As shown in FIG. 3, the size of the image captured by the
Since the photographing
映像投映部203が投映する映像の座標をP3(xP3,yP3)、撮影部302が撮影する画像の座標をC2(xC2,yC2)と表す。映像投映範囲212と213がスクリーン100上で互いに隣り合っており、撮影範囲312がその互いに隣り合う領域を含んでいるので、P2の集合とP3の集合とC2の集合には、互いに写像の関係がある。
The coordinates of the video projected by the
P2の集合からC2の集合への写像をfC2P2、P3の集合からC2の集合への写像をfC2P3と表し、C2の集合からP2の集合への写像をf−1 C2P2、C2の集合からP3の集合への写像をf−1 C2P3と表す。
これらの写像と座標の関係を表したのが、数18である。
The mapping from a set of P 2 to a collection of C 2 f C2P2, represents a set of P 3 a mapping to a set of C 2 and f C2P3, a mapping from the set of C 2 to a set of P 2 f -1 C2P2, represents a collection of C 2 to mapping to a set of P 3 and f -1 C2P3.
Expression 18 represents the relationship between these maps and coordinates.
マスク352と353を撮影部302の座標C2(xC2,yC2)の関数mC2P2、mC2P3でそれぞれ数19のように定義する。
The
ここで、後の演算で用いるため、マスク352と353のOR領域をマスク355、AND領域をマスク356とし、マスク355からマスク356を除いた領域をマスク357とする。
マスク355、356、357を撮影部302の座標C2(xC2,yC2)の関数m355、m356、m357で表すと、数20のようになる。
Here, the OR region of the
When the masks 355 , 356 , and 357 are expressed by functions m 355 , m 356 , and m 357 of the coordinates C 2 (x C2 , y C2 ) of the
なお、合わせたい色の数とそれぞれの合わせたい色の値は、S120と同じとする。この例では、合わせたい色は1つで、色(rT,gT,bT)となる。
S22100で、合わせたい色が残っている場合にはS22200に進み、残っていない場合には終了する。
S22200では、露出設定処理をする。S21000と同じ撮影姿勢に保ったまま、撮影部301の露出(絞り、シャッタースピード)を、S12200と同じ値に固定する。
Note that the number of colors to be matched and the value of each color to be matched are the same as in S120. In this example, there is one color to be combined, and the color (r T , g T , b T ).
If it is determined in S22100 that the color to be matched remains, the process proceeds to S22200, and if not, the process ends.
In S22200, exposure setting processing is performed. The exposure (aperture and shutter speed) of the photographing
ここで、第二の目標色決定処理(S22300)について、図11を参照して説明する。
S22310で、合わせたい色が黒(0,0,0)の場合にはS22330に進み、黒以外の場合にはS22320に進む。
S22320で、合わせたい色が白(255,255,255)の場合にはS22340に進み、白以外の場合にはS22350に進む。
Here, the second target color determination process (S22300) will be described with reference to FIG.
If the color to be matched is black (0, 0, 0) in S22310, the process proceeds to S22330, and if it is not black, the process proceeds to S22320.
In S22320, if the color to be matched is white (255, 255, 255), the process proceeds to S22340, and if it is not white, the process proceeds to S22350.
第二の目標色決定用画像を画像360とし、画像360の座標C2(xC2,yC2)の色を(r360(xC2,yC2),g360(xC2,yC2),b360(xC2,yC2))と表す。r360、g360、b360の値には、S22330か22340か22350のいずれかの撮影結果が入る。 The image for determining the second target color is an image 360, and the colors of the coordinates C 2 (x C2 , y C2 ) of the image 360 are (r 360 (x C2 , y C2 ), g 360 (x C2 , y C2 ), b 360 (x C2 , y C2 )). Any of the imaging results of S22330, 22340, or 22350 is entered in the values of r 360 , g 360 , and b 360 .
黒の場合の、第二の目標色決定処理(S22330)について、以下説明する。
黒色(0,0,0)のべた画像を映像投映部202、203からそれぞれ表示し、スクリーンに映った投映範囲212、213の様子を撮影部302で撮影して、撮影された目標色決定用画像である画像360を保存する。ここで、撮影部201または202が撮影した画像の値(r,g,b)を、光量比例な値(R,G,B)に変換する変換lを考えると、数21の関係がある。
The second target color determination process (S22330) in the case of black will be described below.
A black (0, 0, 0) solid image is displayed from each of the
数24のように、先のS12330で定まった、合わせたい色である黒色に対する第一の目標色(rG1,gG1,bG1)を変換lで変換し、その値を(RG1,GG1,BG1)とする。
As shown in Equation 24, the first target color (r G1 , g G1 , b G1 ) for black, which is the color to be matched, determined in the previous S12330 is converted by the conversion l, and the value is converted to (R G1 , G G1 , B G1 ).
数27のように、このときの値(αRG1,αGG1,αBG1)を変換l−1で変換した色を第二の目標色(rG2,gG2,bG2)とする。
As shown in Equation 27, a value obtained by converting the values at this time (αR G1 , αG G1 , αB G1 ) by the conversion l −1 is set as a second target color (r G2 , g G2 , b G2 ).
次に、白の場合の、第二の目標色決定処理(S22340)について説明する。
白色(255,255,255)のべた画像を映像投映部202、203からそれぞれ表示し、スクリーンに映った投映範囲212、213の様子を撮影部302で撮影して、撮影された目標色決定用画像である画像360を保存する。
数24のように、先のS12340で定まった、合わせたい色である白色に対する第一の目標色(rG1,gG1,bG1)を変換lで変換し、その値を(RG1,GG1,BG1)とする。
画像360を画素ごとに変換lで変換した画像を画像370とすると、画像370の座標C2(xC2,yC2)の値(R370(xC2,yC2),G370(xC2,yC2),B370(xC2,yC2))は数25のようになる。
m355(x,y)=1を満たす全ての座標(x,y)の色のうち、緑成分g360(x,y)の値の大きさが下位0.5%に含まれる色を除いた色全てに対して、数28を満たす最大のβを求める。
Next, the second target color determination process (S22340) in the case of white will be described.
White (255, 255, 255) solid images are respectively displayed from the
As shown in Equation 24, the first target color (r G1 , g G1 , b G1 ) for white that is the color to be matched, determined in the previous S12340, is converted by the conversion l, and the value is converted to (R G1 , G G1 , B G1 ).
Assuming that an image obtained by converting the image 360 by the
Of the colors of all coordinates (x, y) satisfying m 355 (x, y) = 1, the color whose magnitude of the value of the green component g 360 (x, y) is included in the lower 0.5% is excluded. For all the colors, the maximum β
数28のように、このときの値(βRG1,βGG1,βBG1)を変換l−1で変換した色を第二の目標色(rG2,gG2,bG2)とする。
As in
次に、通常の場合の、第二の目標色決定処理(S22350)について説明する。
先のS12350で定まった、合わせたい色に対する第一の目標色が(rG1,gG1,bG1)であるとき、第二の目標色(rG2,gG2,bG2)を、数30で定める。
Next, the second target color determination process (S2350) in the normal case will be described.
When the first target color for the color to be matched, which is determined in the previous S12350, is (r G1 , g G1 , b G1 ), the second target color (r G2 , g G2 , b G2 ) is expressed by Equation 30. Determined by
S22410で、整数iを変数とし、iの値を1とする。S22420で、数列sをS12420と同じく数11とする。
横wP2ピクセル、縦hP2ピクセルのサイズのフィードバックループ用投映画像を画像232とし、画像232の座標(xP2,yP2)の色を(r232(xP2,yP2),g232(xP2,yP2),b232(xP2,yP2))と定義する。また、横wP3ピクセル、縦hP3ピクセルのサイズのフィードバックループ用投映画像を画像233とし、画像233の座標(xP3,yP3)の色を(r233(xP3,yP3),g233(xP3,yP3),b233(xP3,yP3))と定義する。
In S22410, the integer i is a variable and the value of i is 1. In S22420, the number sequence s is set to Equation 11 as in S12420.
A projected image for a feedback loop having a size of horizontal w P2 pixels and vertical h P2 pixels is an
S22430で、フィードバックループ用各投映画像の初期値設定をする。
画像232、233を黒画像とし、初期値を数31のように設定する。
In S22430, initial values of the projected images for the feedback loop are set.
The
画像380は横wC2ピクセル、縦hC2ピクセルのサイズであり、画像380の座標(xC2,yC2)の色を(r380(xC2,yC2),g380(xC2,yC2),b380(xC2,yC2))と表す。r380、g380、b380の値に関し、横wC2ピクセル、縦hC2ピクセルのサイズを超える部分について、数32のように定義する。
The
映像投映範囲212に関して、以下のように、画素比較・更新をする。
0≦x232<wP2、0≦y232<hP2を満たす整数x232、y232に関し、(x232,y232)に対応する撮影範囲座標を(x380,y380)とすると、図13のように数33の関係がある。
As for the
With respect to the integers x 232 and y 232 that satisfy 0 ≦ x 232 <w P2 and 0 ≦ y 232 <h P2 , assuming that the shooting range coordinates corresponding to (x 232 , y 232 ) are (x 380 , y 380 ), FIG. As shown in FIG.
r<rG2のとき、r232(x232,y232)を変分s(i)だけ増やす。増やした後にr232(x232,y232)がrMAXを超えたときはrMAXとする。
r>rG2のとき、r232(x232,y232)を変分s(i)だけ減らす。減らした後にr232(x232,y232)がrMINを下回るときはrMINとする。
g<gG2のとき、g232(x232,y232)を変分s(i)だけ増やす。増やした後にg232(x232,y232)がgMAXを超えたときはgMAXとする。
g>gG2のとき、g232(x232,y232)を変分s(i)だけ減らす。減らした後にg232(x232,y232)がgMINを下回るときはgMINとする。
b<bG2のとき、b232(x232,y232)を変分s(i)だけ増やす。増やした後にb232(x232,y232)がbMAXを超えたときはbMAXとする。
b>bG2のとき、b232(x232,y232)を変分s(i)だけ減らす。減らした後にb232(x232,y232)がbMINを下回るときはbMINとする。
When r <r G2 , r 232 (x 232 , y 232 ) is increased by the variation s (i). When r 232 (x 232 , y 232 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G2 , r 232 (x 232 , y 232 ) is reduced by the variation s (i). If r 232 (x 232 , y 232 ) falls below r MIN after the decrease, it is set to r MIN .
When g <g G2 , g 232 (x 232 , y 232 ) is increased by the variation s (i). When g 232 (x 232 , y 232 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G2 , g 232 (x 232 , y 232 ) is reduced by the variation s (i). When g 232 (x 232 , y 232 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G2 , b 232 (x 232 , y 232 ) is increased by the variation s (i). If b 232 (x 232 , y 232 ) exceeds b MAX after the increase, b MAX is set.
When b> b G2 , b 232 (x 232 , y 232 ) is reduced by the variation s (i). If b 232 (x 232 , y 232 ) falls below b MIN after the reduction, b MIN is set.
なお、映像投映範囲が重なる部分上に座標(x232,y232)があるとき、前記変分s(i)の代わりに、ρRs(i)(ρRは0<ρR<1を満たす実数)を用いてもよい。ρRの値は、例えばρR=0.5や、映像投映範囲が重なり始めた箇所からの距離に応じて変動する値などを用いる。 When the coordinates (x 232 , y 232 ) are on the portion where the video projection range overlaps, ρ R s (i) (ρ R is 0 <ρ R <1 instead of the variation s (i). (Real number to satisfy) may be used. The value of [rho R is, for example [rho R = 0.5 or the like value that varies according to the distance from the point where the range began overlap movies PICTURE.
映像投映範囲213に関して、映像投映範囲212と同様にして、以下のように、画素比較・更新をする。
整数x233、y233に関し、0≦x233<wP2、0≦y233<hP2を満たす(x233,y233)に対応する撮影範囲座標を(x380,y380)とすると、図13のように数35の関係がある。
Regarding the
Assuming that the shooting range coordinates corresponding to (x 233 , y 233 ) satisfying 0 ≦ x 233 <w P2 and 0 ≦ y 233 <h P2 regarding the integers x 233 and y 233 are (x 380 , y 380 ), FIG. As shown in FIG.
色(r,g,b)と目標色(rG2,gG2,bG2)を比較する。
r<rG2のとき、r233(x233,y233)を変分s(i)だけ増やす。増やした後にr233(x233,y233)がrMAXを超えたときはrMAXとする。
r>rG2のとき、r233(x233,y233)を変分s(i)だけ減らす。減らした後にr233(x233,y233)がrMINを下回るときはrMINとする。
g<gG2のとき、g233(x233,y233)を変分s(i)だけ増やす。増やした後にg233(x233,y233)がgMAXを超えたときはgMAXとする。
g>gG2のとき、g233(x233,y233)を変分s(i)だけ減らす。減らした後にg233(x233,y233)がgMINを下回るときはgMINとする。
b<bG2のとき、b233(x233,y233)を変分s(i)だけ増やす。増やした後にb233(x233,y233)がbMAXを超えたときはbMAXとする。
b>bG2のとき、b233(x233,y233)を変分s(i)だけ減らす。減らした後にb233(x233,y233)がbMINを下回るときはbMINとする。
The color (r, g, b) is compared with the target color (r G2 , g G2 , b G2 ).
When r <r G2 , r 233 (x 233 , y 233 ) is increased by the variation s (i). When r 233 (x 233 , y 233 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G2 , r 233 (x 233 , y 233 ) is reduced by the variation s (i). If r 233 (x 233 , y 233 ) falls below r MIN after the decrease, it is set to r MIN .
When g <g G2 , g 233 (x 233 , y 233 ) is increased by the variation s (i). When g 233 (x 233 , y 233 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G2 , g 233 (x 233 , y 233 ) is reduced by the variation s (i). If g 233 (x 233 , y 233 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G2 , b 233 (x 233 , y 233 ) is increased by the variation s (i). When b 233 (x 233 , y 233 ) exceeds b MAX after the increase, b MAX is set.
When b> b G2 , b 233 (x 233 , y 233 ) is reduced by the variation s (i). If b 233 (x 233 , y 233 ) falls below b MIN after the reduction, b MIN is set.
なお、映像投映範囲が重なる部分上に座標(x233,y233)があるとき、前記変分s(i)の代わりに、σRs(i)(σRは0<σR<1を満たす実数)を用いてもよい。σRの値は、例えばσR=1−ρRを用いるとよい。
S22470で、iとNの大きさを比較し、i<Nのときは、S22480に進み、i<Nでなかったときは、S22400を終了する。S22480で、iの値をプラス1し、次のS22440に戻ってループする。なお、S22440に戻るときに、画像232と233に、それぞれ平滑化フィルタをかけてもよい。
When the coordinates (x 233 , y 233 ) are on the portion where the video projection range overlaps, σ R s (i) (σ R is 0 <σ R <1 instead of the variation s (i). (Real number to satisfy) may be used. The value of sigma R may, for example the use of σ R = 1-ρ R.
In S22470, the sizes of i and N are compared. If i <N, the process proceeds to S22480, and if i <N, S22400 is terminated. In S22480, the value of i is incremented by 1, and the process returns to the next S22440 to loop. When returning to S22440, a smoothing filter may be applied to each of the
このように、S22440〜22480の手順を繰り返すことで、撮影画像380において、映像投映範囲212、213が写っている領域の色が、目標色(rG2,gG2,bG2)に近づいていく。S22400が終了した時点の画像232と233が、撮影部302における、合わせたい色(rT,gT,bT)の仮補正データである。
以上の手順により、それぞれの撮影箇所に対応する仮補正データが求まった。これにより、本発明の1つの特徴である、投映部202の仮補正データである画像222と画像232を滑らかに接続することができる。
In this manner, by repeating the procedure of S22440 to 22480, the color of the area in which the video projection ranges 212 and 213 are captured in the captured
Through the above procedure, provisional correction data corresponding to each photographing location was obtained. Thereby, the
次に、図15を参照して、領域の分類の処理(S300)について説明する。
マスク変換の処理(S31000)について説明する。この処理は、図16に示すように、マスク321をf−1 C1P2で写像した領域をマスク421とすると、マスク421は映像投映範囲212のうち撮影範囲301に写っていた映像投映範囲211が占める領域を表す。
マスク322をf−1 C1P2で写像した領域をマスク422とすると、マスク422は映像投映範囲212のうち撮影範囲301に写っていた映像投映範囲212が占める領域を表す。マスク332をf−1 C2P2で写像した領域をマスク432とすると、マスク432は映像投映範囲212のうち撮影範囲302に写っていた映像投映範囲212が占める領域を表す。マスク333をf−1 C2P2で写像した領域をマスク433とすると、マスク433は映像投映範囲212のうち撮影範囲302に写っていた映像投映範囲213が占める領域を表す。
マスク421、422、432、433を、映像投映部202の座標P2(xP2,yP2)の関数m421、m422、m432、m433でそれぞれ表すと、数36のようになる。
Next, the region classification processing (S300) will be described with reference to FIG.
The mask conversion process (S31000) will be described. In this process, as shown in FIG. 16, when the area mapped from the
Assuming that an area obtained by mapping the
When the masks 421 , 422 , 432 , and 433 are expressed by functions m 421 , m 422 , m 432 , and m 433 of the coordinates P 2 (x P2 , y P2 ) of the
第一の基準線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zL(y)で表す。関数zL(y)を決める手順を図17に示す。
S32100で、yの値を0とする。S32200で、xの値をwP2−1とする。S32300で、(x,y)がマスク422上にあるかどうかを判定し、マスク422上にあるときS32400に進み、マスク422上にないときS32500に進む。
The first reference line is represented by a function z L (y) in which one x-coordinate value is determined for each y-coordinate of the
In S32100, the value of y is set to 0. In S32200, the value of x is set to w P2 −1. In step S32300, it is determined whether (x, y) is on the
m422(x,y)の値が1のとき(x,y)がマスク422上にあるとし、m422(x,y)の値が0のとき(x,y)がマスク422上にないとする。S32400で、zL(y)の値をxとし、S32800に進む。S32500で、xの値をマイナス1する。S32600で、x≧0かどうかを調べ、x≧0であるときはS32300に戻り、x≧0でないときはS32700に進む。
S32700で、zL(y)の値を0とする。S32800で、yの値をプラス1する。S32900で、y<hP2かどうかを調べ、y<hP2であるときはS32200に戻り、y<hP2でないときはS32000を終了する。
When the value of m 422 (x, y) is 1, (x, y) is on the
In S32700, the value of z L (y) is set to zero. In S32800, the value of y is incremented by one. In S32900, it is checked whether y <h P2 or not. If y <h P2 , the flow returns to S32200, and if y <h P2 , the flow ends S32000.
次に、第二の基準線算出の処理(S33000)について説明する。
第二の基準線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zR(y)で表す。関数zR(y)を決める手順を図18に示す。
S33100で、yの値を0とする。S33200で、xの値を0とする。S33300で、(x,y)がマスク432上にあるかどうかを判定し、マスク432上にあるときS33400に進み、マスク432上にないときS33500に進む。
m432(x,y)の値が1のとき(x,y)がマスク432上にあるとし、m432(x,y)の値が0のとき(x,y)がマスク432上にないとする。
Next, the second reference line calculation process (S33000) will be described.
The second reference line is represented by a function z R (y) in which one x-coordinate value is determined for each y-coordinate of the
In S33100, the value of y is set to 0. In S33200, the value of x is set to 0. In S33300, it is determined whether (x, y) is on the
When the value of m 432 (x, y) is 1, (x, y) is on the
S33400で、zR(y)の値をxとし、S33800に進む。S33500で、xの値をプラス1する。S33600で、x<wP2かどうかを調べ、x<wP2であるときはS33300に戻り、x<wP2でないときはS33700に進む。S33700で、zR(y)の値をwP2−1とする。S33800で、yの値をプラス1する。
S33900で、y<hP2かどうかを調べ、y<hP2であるときはS33200に戻り、y<hP2でないときはS33000を終了する。
In S33400, the value of z R (y) is set to x, and the process proceeds to S33800. In S33500, the value of x is incremented by one. In S33600, examined whether x <w P2, return to S33300 is when it is x <w P2, when it is not x <w P2 proceeds to S33700. In S33700, the value of z R (y) is set to w P2 −1. In S33800, the value of y is incremented by one.
In S33900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S33200, and if y <h P2 , the process ends S33000.
次に、中心線算出の処理(S34000)について説明する。
中心線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数z(y)で表し、数37のように点(zL(y),y)と点(zR(y),y)の中点で定義する。
Next, the center line calculation process (S34000) will be described.
The center line is represented by a function z (y) that determines one x-coordinate value for each y-coordinate of the
内挿確定範囲の左端を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zMIN(y)で表す。関数zMIN(y)を決める手順を図19に示す。
S35100で、yの値を0とする。afを負でない整数として、強制的に内挿を行う幅を2afピクセルとする。2afピクセルの幅を取ることで、画像222と232を滑らかにつなぐことができる。
afの値は、例えば数38とする。
The left end of the interpolation fixed range is represented by a function z MIN (y) that determines one x-coordinate value for each y-coordinate of the
In S35100, the value of y is set to 0. As non-negative integer to a f, to force the width of performing interpolation with 2a f pixels. By taking a width of 2a f pixels, the
The value of a f is, for example, Equation 38.
S35200で、xの値をz(y)−afとする。S35300で、(x,y)がマスク422上にあるかどうかを判定し、マスク422上にあるときS35400に進み、マスク422上にないときS35500に進む。S35400で、zMIN(y)の値をxとし、S35800に進む。S35500で、xの値をマイナス1する。
S35600で、x≧0かどうかを調べ、x≧0であるときはS35300に戻り、x≧0でないときはS35700に進む。S35700で、zMIN(y)の値を0とする。S35800で、yの値をプラス1する。
S35900で、y<hP2かどうかを調べ、y<hP2であるときはS35200に戻り、y<hP2でないときは、処理S35000を終了する。
In S35200, the values of x z (y) -a f. In S35300, it is determined whether (x, y) is on the
In S35600, it is checked whether x ≧ 0. If x ≧ 0, the process returns to S35300, and if x ≧ 0, the process proceeds to S35700. In S35700, the value of z MIN (y) is set to 0. In S35800, the value of y is incremented by one.
In S35900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S35200, and if y <h P2 , the process S35000 is terminated.
次に、内挿確定範囲の右端の決定をする処理(S36000)について説明する。
内挿確定範囲の右端を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zMAX(y)で表す。関数zMAX(y)を決める手順を図20に示す。
S36100で、yの値を0とする。S36200で、xの値をz(y)+afとする。S36300で、(x,y)がマスク432上にあるかどうかを判定し、マスク432上にあるときS36400に進み、マスク432上にないときS36500に進む。S36400で、zMAX(y)の値をxとする。
Next, the process (S36000) for determining the right end of the interpolation confirmation range will be described.
The right end of the interpolation fixed range is represented by a function z MAX (y) that determines one x-coordinate value for each y-coordinate of the
In S36100, the value of y is set to 0. In S36200, the values of x z (y) + a f . In S36300, it is determined whether (x, y) is on the
S36500で、xの値をプラス1する。S36600で、x<wP2かどうかを調べ、x<wP2であるときはS36300に戻り、x<wP2でないときはS36700に進む。S36700で、zMAX(y)の値をwP2−1とする。S36800で、yの値をプラス1する。
S36900で、y<hP2かどうかを調べ、y<hP2であるときはS36200に戻り、y<hP2でないときはS36000を終了する。
In S36500, the value of x is incremented by one. In S36600, examined whether x <w P2, return to S36300 is when it is x <w P2, when it is not x <w P2 proceeds to S36700. In S36700, the value of z MAX (y) is set to w P2 −1. In S36800, the value of y is incremented by one.
In S36900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S36200, and if y <h P2 , the process ends S36000.
次に、領域の分類処理(S37000)について説明する。
再補正しない方針の領域と、再補正する方針の領域と、再補正するかどうかを状況に応じて変える方針の領域と、に分割する。
スクリーン上で投映領域が重複する領域は、撮影部が撮影した結果の補正データをそのまま使うのが望ましいので、スクリーン上で投映領域が重複する領域を、再補正しない方針の領域とする。再補正しない方針の領域をマスクmMで表すと、数39のようになる。
Next, the area classification process (S37000) will be described.
The policy area is divided into a policy area that is not re-corrected, a policy area that is re-corrected, and a policy area that changes whether to re-correct according to the situation.
Since it is desirable to use the correction data obtained as a result of photographing by the photographing unit as it is for the region where the projection region overlaps on the screen, the region where the projection region overlaps on the screen is set as a region where re-correction is not performed. Expressing region of the re-corrected non policies in mask m M, so that the number 39.
映像投映部とスクリーンの間に障害物があるなどして、マスクmSが3つ以上の領域に分割されているときは、マスクmSとして面積が大きい2つの領域のみを残して、それ以外の領域をmMに移してもよい。
以上の手順により、撮影範囲が隣接する箇所とその周辺の映像投映範囲が、いずれかの仮補正データを選択して補正データとする領域mMとmSか、補正データを別途生成する領域mIかの少なくとも二種類のいずれかの領域に分割された。
When the mask m S is divided into three or more areas because there is an obstacle between the video projection part and the screen, only the two areas with a large area are left as the mask m S. May be moved to mm.
According to the above procedure, the area m M and m S where the provisional correction data is selected and the correction data is generated are the areas m M and m S in which the shooting range is adjacent and the surrounding video projection range are selected as correction data. I was divided into any one of at least two areas.
次に、図22を参照して、補正データの生成処理(S400)について説明する。
補正画像442の座標(x,y)の画素の色を(r442(x,y),g442(x,y),b442(x,y))とする。
まず、補正画像442の初期値の生成処理(S41000)について、図23により説明する。
S41100で、yの値を0とする。S41200で、xの値を0とする。S41300で、座標(x,y)がマスクmM上またはマスクmS上にあるかどうかを調べ、ある場合はS41400に、ない場合はS41500に進む。
Next, correction data generation processing (S400) will be described with reference to FIG.
The color of the pixel at the coordinates (x, y) of the corrected
First, the initial value generation process (S41000) of the corrected
In S41100, the value of y is set to 0. In S41200, the value of x is set to 0. In S41300, the coordinates (x, y) is checked whether on the mask m M or on the mask m S, in certain cases S41400, if not, the process proceeds to S41500.
S41400で、xの値がz(y)より小さいかどうかを調べ、小さい場合はS41600に、小さくない場合はS41700に進む。S41500で、色(r442(x,y),g442(x,y),b442(x,y))を(0,0,0)とし、S41800に進む。S41600で、色(r442(x,y),g442(x,y),b442(x,y))を(r222(x,y),g222(x,y),b222(x,y))とし、S41800に進む。S41700で、色(r442(x,y),g442(x,y),b442(x,y))を(r232(x,y),g232(x,y),b232(x,y))とし、S41800に進む。 In S41400, it is checked whether or not the value of x is smaller than z (y). If smaller, the process proceeds to S41600, and if not smaller, the process proceeds to S41700. In S41500, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are set to (0, 0, 0), and the process proceeds to S41800. In S41600, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are changed to (r 222 (x, y), g 222 (x, y), b 222 ( x, y)), and the process proceeds to S41800. In S41700, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are changed to (r 232 (x, y), g 232 (x, y), b 232 ( x, y)), and the process proceeds to S41800.
S41800で、xをプラス1する。S41850で、xがwP2より小さいかどうかを調べ、小さい場合はS41300に戻り、小さくない場合はS41900に進む。S41900で、yをプラス1する。S41950で、yがhP2より小さいかどうかを調べ、小さい場合はS41200に戻り、小さくない場合はS41000を終了する。 In S41800, x is incremented by one. In S41850, x is examined whether smaller than w P2, if small returns to S41300, if not less, the process proceeds to S41900. In S41900, y is incremented by one. In S41950, y is examined whether smaller than h P2, if small returns to S41200, if not less ends the S41000.
次に、図24を参照して、内挿処理(S42000)について説明する。
まず、S42100で、補正画像442を画素ごとに変換lで光量比例な値に変換し、その画像を452とする。画像452の値を(R452(x,y),G452(x,y),B452(x,y))とすると、数43のようになる。
Next, the interpolation process (S42000) will be described with reference to FIG.
First, in S42100, the corrected
S42300における、Y座標yに関しての制御点を決定する手順を図25により説明する。
制御点は4点決定するとし、その4点のX座標を値の小さい方から順に、c0、c1、c2、c3と表す。負でない整数amとして、マージンをamピクセルとし、例えば数44の値とする。
The procedure for determining the control point for the Y coordinate y in S42300 will be described with reference to FIG.
Assume that four control points are determined, and the X coordinates of the four points are expressed as c 0 , c 1 , c 2 , and c 3 in order from the smallest value. As Integer a m non-negative, a margin and a m pixels, for example, a value of a few 44.
S42310で、sL、sR、c1、c2の初期値を、数45とする。
In S42310, initial values of s L , s R , c 1 , and c 2 are set to Expression 45.
S42350で、c3の値を、数47とする。
In S42350, the values of c 3, and the number 47.
Y座標yに関して内挿する手順(S42400)について、図26により説明する。
S42410で、4点(c0,R452(c0,y))、(c1,R452(c1,y))、(c2,R452(c2,y))、(c3,R452(c3,y))を通る自然境界の3次スプライン補間を(x,SR(x))とする。
4点(c0,G452(c0,y))、(c1,G452(c1,y))、(c2,G452(c2,y))、(c3,G452(c3,y))を通る自然境界の3次スプライン補間を(x,SG(x))とする。
4点(c0,B452(c0,y))、(c1,B452(c1,y))、(c2,B452(c2,y))、(c3,B452(c3,y))を通る自然境界の3次スプライン補間を(x,SB(x))とする。
The procedure for interpolating the Y coordinate y (S42400) will be described with reference to FIG.
In S42410, four points (c 0 , R 452 (c 0 , y)), (c 1 , R 452 (c 1 , y)), (c 2 , R 452 (c 2 , y)), (c 3 , R 452 (c 3 , y)) is assumed to be (x, S R (x)) for the cubic spline interpolation of the natural boundary.
4 points (c 0 , G 452 (c 0 , y)), (c 1 , G 452 (c 1 , y)), (c 2 , G 452 (c 2 , y)), (c 3 , G 452 Let (x, S G (x)) be the cubic spline interpolation of the natural boundary passing through (c 3 , y)).
4 points (c 0 , B 452 (c 0 , y)), (c 1 , B 452 (c 1 , y)), (c 2 , B 452 (c 2 , y)), (c 3 , B 452 Let (x, S B (x)) be the cubic spline interpolation of the natural boundary passing through (c 3 , y)).
また、2点(c1,R452(c1,y))、(c2,R452(c2,y))を通る直線補間を(x,LR(x))とする。
2点(c1,G452(c1,y))、(c2,G452(c2,y))を通る直線補間を(x,LG(x))とする。
2点(c1,B452(c1,y))、(c2,B452(c2,y))を通る直線補間を(x,LB(x))とする。
Further, linear interpolation passing through two points (c 1 , R 452 (c 1 , y)) and (c 2 , R 452 (c 2 , y)) is defined as (x, L R (x)).
Linear interpolation passing through two points (c 1 , G 452 (c 1 , y)) and (c 2 , G 452 (c 2 , y)) is defined as (x, L G (x)).
A linear interpolation passing through two points (c 1 , B 452 (c 1 , y)) and (c 2 , B 452 (c 2 , y)) is defined as (x, L B (x)).
S42420で、xの値をc1+1とする。S42430で、sL≧sMINかつsR≧sMINかどうか調べ、共に満たすときS42440に進み、共には満たさないときS42450に進む。ただし、sMINを数48とする。 In S44220, the value of x is set to c 1 +1. In S42430, it is checked whether s L ≧ s MIN and s R ≧ s MIN . If both are satisfied, the process proceeds to S42440, and if both are not satisfied, the process proceeds to S42450. However, s MIN is assumed to be 48.
S42440で、値(R452(x,y),G452(x,y),B452(x,y))の値を、数49のように更新する。
In S42440, the values (R 452 (x, y), G 452 (x, y), B 452 (x, y)) are updated as shown in Equation 49.
S42470で、xがc2未満かどうかを調べ、未満のときはS42430に戻り、そうでないときは、S42400を終了する。
In S42470, x is checked whether or not less than c 2, when less than return to S42430, and if not, to end the S42400.
以上のように、2次導関数まで連続である3次スプライン補間を用いて画像452を内挿することで、見た目に滑らかな補間を行うことができる。また、制御点c0とc1の距離や制御点c2とc3の距離が近いとき直線補間を用いることで、3次スプライン補間では変動が不自然に大きくなってしまうことを回避することができる。
As described above, visually interpolating can be performed by interpolating the
さらに、本実施例では、仮補正データが存在する4つの点(c0,y)、(c1,y)、(c2,y)、(c3,y)の色を光量比例化した値を補間したが、同じようにして、幾何情報などの値を補間することもできる。 Further, in this embodiment, the colors of the four points (c 0 , y), (c 1 , y), (c 2 , y), and (c 3 , y) where the provisional correction data exist are proportional to the light amount. Although values are interpolated, values such as geometric information can be interpolated in the same manner.
次に、補正画像確定処理(S43000)について説明する。
画像452を、数51のように、画素(x,y)ごとに、変換l−1で補正画像442に戻す。
Next, the corrected image confirmation process (S43000) will be described.
The
以上の手順により、別途生成する領域の補正データが仮補正データに基づいて生成され、滑らかにつながる補正画像442を求めることができる。
画像221や233の、補正データが求まっていない部分については、線形外挿などの公知技術で外挿して生成すればよいが、映像投映領域が重複する部分のデータの平均値を鏡像コピーした後に本特許の方法で内挿することで生成することもできる。
Through the above procedure, correction data for a region to be separately generated is generated based on the temporary correction data, and a
The portions of the
[実施例2]
図27は、第二の一実施例による映像調整のためのシステムである。
映像投映部601〜608がスクリーン500に映像を投映する。撮影部701、703、705、707はスクリーン500内に設置し、撮影が終わったら撮影部701、703、705、707は取り除いてもよい。
[Example 2]
FIG. 27 shows a video adjustment system according to the second embodiment.
図28は、スクリーン500上の映像投映範囲と撮影範囲の様子を示す。
スクリーン500を平面に展開しており、左右両端の辺501は、実際のスクリーン500上で同一の場所となる。映像投映範囲611〜618はそれぞれ、映像投映部601〜608がスクリーン500に投映する映像の投映範囲である。
映像投映範囲611と612、612と613、613と614、614と615、615と616、616と617、617と618、618と611がそれぞれ、スクリーン500上で互いに重なるように、映像投映部601〜608とスクリーン500は配置されている。
FIG. 28 shows the video projection range and the shooting range on the
The
撮影範囲711が映像投映範囲611を覆うように撮影部701を設置し、撮影範囲713が映像投映範囲613を覆うように撮影部703を設置し、撮影範囲715が映像投映範囲615を覆うように撮影部705を設置し、撮影範囲717が映像投映範囲617を覆うように撮影部707を設置して、それぞれ計測を行うことで、実施例1と同様にして、映像投映部601〜608に対する色補正データを求めることができる。
The imaging unit 701 is installed so that the
実施例2では、幾何補正データを補間する例を示す。
例えば、特許文献1(国際公開番号WO99/31877)に記載された、マルチプロジェクション映像表示装置に、本実施例を適用することで、実施例2のように円筒などループする構造でも幾何が滑らかにつながるようになる。
The second embodiment shows an example in which geometric correction data is interpolated.
For example, by applying the present embodiment to a multi-projection video display device described in Patent Document 1 (International Publication No. WO99 / 31877), even in a loop structure such as a cylinder as in
映像投映部601〜608が投映する映像の座標の集合をそれぞれP601〜P608とし、撮影範囲701、703、705、707の座標の集合をそれぞれC701、C703、C705、C707とする。
P608の集合からC701の集合への写像をfC701P608、P601の集合からC701の集合への写像をfC701P601、P602の集合からC701の集合への写像をfC701P602、P602の集合からC703の集合への写像をfC703P602、P603の集合からC703の集合への写像をfC703P603、P604の集合からC703の集合への写像をfC703P604、P604の集合からC705の集合への写像をfC705P604、P605の集合からC705の集合への写像をfC705P605、P606の集合からC705の集合への写像をfC705P606、P606の集合からC707の集合への写像をfC707P606、P607の集合からC707の集合への写像をfC707P607、P608の集合からC707の集合への写像をfC707P608とする。
The set of coordinates of the images projected by the image projection units 601 to 608 are P 601 to P 608 , respectively, and the set of coordinates of the shooting ranges 701 , 703 , 705 , and 707 are C 701 , C 703 , C 705 , and C 707 , respectively. To do.
F C701P608 a mapping to a set of C 701 from the set of P 608, mapping f set from to the set of C 701 in the P 601 C701P601, a mapping from a set of P 602 to a collection of C 701 f C701P602, P 602 set a mapping to mapping to a set of C 703 from the set of f C703P602, P 603 to a set of C 703 from the set of f C703P603, P 604 from the set mapping to a set of C 703 of f C703P604, P 604 of C a mapping to a set of C 705 from the set of f C705P606, P 606 a mapping to a set of C 705 from the set of f C705P605, P 606 a mapping to a set of C 705 from the set of f C705P604, P 605 from the mapping of the 707 to a set from the set of f C707P606, P 607 A mapping 707 to the set of the mapping from the set of f C707P607, P 608 to a set of C 707 and f C707P608.
C701の集合からP608の集合への写像をf−1 C701P608、C701の集合からP601の集合への写像をf−1 C701P601、C701の集合からP602の集合への写像をf−1 C701P602、C703の集合からP602の集合への写像をf−1 C703P602、C703の集合からP603の集合への写像をf−1 C703P603、C703の集合からP604の集合への写像をf−1 C703P604、C705の集合からP604の集合への写像をf−1 C705P604、C705の集合からP605の集合への写像をf−1 C705P605、C705の集合からP606の集合への写像をf−1 C705P606、C707の集合からP606の集合への写像をf−1 C707P606、C707の集合からP607の集合への写像をf−1 C707P607、C707の集合からP608の集合への写像をf−1 C707P608とする。 F -1 C701P608 a mapping to a set of P 608 from the set of C 701, a mapping from the set of C 701 a mapping to a set of P 601 from the set of f -1 C701P601, C 701 to a set of P 602 f -1 C701P602, a mapping of the mapping from the set of C 703 to a set of P 602 from the set of f -1 C703P602, C 703 to a set of P 603 from the set of f -1 C703P603, C 703 to a set of P 604 P a mapping mapping a mapping from a set of f -1 C703P604, C 705 to a set of P 604 from the set of f -1 C705P604, C 705 to a set of P 605 from the set of f -1 C705P605, C 705 mapping to a set of P 606 a mapping 606 to the set from the set of f -1 C705P606, C 707 The mapping from the set of f -1 C707P606, C 707 a mapping to a set of P 607 from the set of f -1 C707P607, C 707 to a set of P 608 and f -1 C707P608.
撮影範囲701の撮影で、実施例1と同様にして、fC701P608、fC701P601、fC701P602、f−1 C701P608、f−1 C701P601、f−1 C701P602を求めることができる。
撮影範囲703の撮影で、実施例1と同様にして、fC703P602、fC703P603、fC703P604、f−1 C703P602、f−1 C703P603、f−1 C703P604を求めることができる。
撮影範囲705の撮影で、実施例1と同様にして、fC705P604、fC705P605、fC705P606、f−1 C705P604、f−1 C705P605、f−1 C705P606を求めることができる。
撮影範囲707の撮影で、実施例1と同様にして、fC707P606、fC707P607、fC707P608、f−1 C707P606、f−1 C707P607、f−1 C707P608を求めることができる。
In the photographing of the photographing range 701, f C701P608 , f C701P601 , f C701P602 , f −1 C701P608 , f −1 C701P601 , and f −1 C701P602 can be obtained in the same manner as in the first embodiment.
In the photographing of the photographing range 703, f C703P602 , f C703P603 , f C703P604 , f −1 C703P602 , f −1 C703P603 , and f −1 C703P604 can be obtained in the same manner as in the first embodiment.
In the photographing of the photographing range 705, f C705P604 , f C705P605 , f C705P606 , f −1 C705P604 , f −1 C705P605 , and f −1 C705P606 can be obtained in the same manner as in the first embodiment.
In the shooting of the shooting range 707, f C707P606 , f C707P607 , f C707P608 , f −1 C707P606 , f −1 C707P607 , and f −1 C707P608 can be obtained in the same manner as in the first embodiment.
P601の集合からP602の集合への写像をqP601P602、P602の集合からP603の集合への写像をqP602P603、P603の集合からP604の集合への写像をqP603P604、P604の集合からP605の集合への写像をqP604P605、P605の集合からP606の集合への写像をqP605P606、P606の集合からP607の集合への写像をqP606P607、P607の集合からP608の集合への写像をqP607P608、P608の集合からP601の集合への写像をqP608P601、P601の集合からP608の集合への写像をqP601P608、P602の集合からP601の集合への写像をqP602P601、P603の集合からP602の集合への写像をqP603P602、P604の集合からP603の集合への写像をqP604P603、P605の集合からP604の集合への写像をqP605P604、P606の集合からP605の集合への写像をqP606P605、P607の集合からP606の集合への写像をqP607P606、P608の集合からP607の集合への写像をqP608P607、とすると、数52のように定義できる。 The mapping from a set of P 601 to a set of P 602 q P601P602, a mapping from a set of P 602 to a set of P 603 q P602P603, a mapping from a set of P 603 to a set of P 604 q P603P604, P 604 set a mapping from a set of the set of P 605 a mapping from a set of q P604P605, P 605 to a set of P 606 from the set of q P605P606, P 606 a mapping to a set of P 607 of q P606P607, P 607 P a mapping to a set of P 608 from the set of q P601P608, P 602 a mapping to a set of P 601 from the set of q P608P601, P 601 a mapping to a set of P 608 from the set of q P607P608, P 608 from the mapping of the 601 to a set from the set of q P602P601, P 603 A mapping 602 to the set of the set of q P603P602, P 604 a mapping to mapping to a set of P 603 from the set of q P604P603, P 605 to a set of P 604 from the set of q P605P604, P 606 of P 605 If the mapping to the set q P606P605, a mapping from a set of P 607 to a set of P 606 q P607P606, q the mapping to a set of P 607 from the set of P 608 P608P607, that can be defined as the number 52 .
映像投映部604、605、606、607、608の幾何の仮補正データをそれぞれuB4(x,y)、uB5(x,y)、uB6(x,y)、uB7(x,y)、uB8(x,y)とすると、qP604P605、qP605P604、qP605P606、qP606P605、qP606P607、qP607P606、qP607P608、qP608P607に対して国際公開番号WO99/31877の方法を用いることで、uB4(x,y)、uB5(x,y)、uB6(x,y)、uB7(x,y)、uB8(x,y)が求まる。
映像投映部601〜608の幾何の補正データをそれぞれu1〜u8とすると、u4とu8以外は数53のように定まる。
The geometric temporary correction data of the
When the geometric correction data of the
u8は、uA8とuB8から、本特許の方法で内挿して定まる。
以上のように、実施例2によれば、円筒などループする構造でも幾何がつながるようになる。
u 8 is determined by interpolating from u A8 and u B8 by the method of this patent.
As described above, according to the second embodiment, the geometry is connected even with a looping structure such as a cylinder.
[実施例3]
この例は、図29に示すように、スクリーン上の映像投映範囲の配置が縦に並んだ例である。実施例1において、X座標とY座標を便宜上適宜置き換えることで、本実施例においても補正データが求まる。
この実施例によれば、映像投映範囲が縦に並んだ場合でも、スクリーン上で滑らかに映像が繋がるようになる。
[Example 3]
In this example, as shown in FIG. 29, the arrangement of video projection ranges on the screen is arranged vertically. In the first embodiment, correction data can be obtained also in this embodiment by appropriately replacing the X coordinate and the Y coordinate for convenience.
According to this embodiment, even when the video projection ranges are arranged vertically, the video is smoothly connected on the screen.
[実施例4]
この例は、図30に示すように、映像投映範囲が互いに重複しないマルチプロジェクション映像表示装置に適用した例である。
実施例1と同様に、それぞれの撮影範囲の目標色特性を近づけ、ハッチングを施した映像投映範囲に対して本特許の方法で補正データを内挿することで、マルチプロジェクション映像表示装置においても、スクリーン上で滑らかに映像が繋がるようになる。
[Example 4]
This example is an example applied to a multi-projection video display device in which video projection ranges do not overlap each other as shown in FIG.
As in the first embodiment, the target color characteristics of the respective shooting ranges are brought close to each other, and the correction data is interpolated by the method of this patent with respect to the hatched video projection range. Images are smoothly connected on the screen.
100:スクリーン、
201〜203:映像投映部、
211〜213:映像投映範囲、
221、222:第一の撮影のフィードバックループ用投映画像、
232、233:第二の撮影のフィードバックループ用投映画像、
301、302:撮影部、
311、312:撮影範囲、
321、322、325〜327:第一の撮影のマスク
330:第一の撮影の目標色決定用画像、
340:第一の撮影のフィードバックループ用撮影画像、
352、353、355〜357:第二の撮影のマスク
360:第二の撮影の目標色決定用画像、
370:360を光量比例な値に変換した画像
380:第二の撮影のフィードバックループ用撮影画像、
40:データ処理部
500:円筒スクリーン
501:円筒スクリーンの展開図の切断線
601〜608:映像投映部、
611〜618:映像投映範囲
701、703、705、707:撮影部
711、713、715、717:撮影範囲。
100: screen,
201-203: Video projection part,
211-213: Image projection range,
221, 222: Projected image for feedback loop of first shooting,
232, 233: Projection image for feedback loop of second shooting,
301, 302: photographing unit,
311 and 312: shooting range,
321, 322, 325 to 327: first shooting mask 330: first shooting target color determination image,
340: Shooting image for feedback loop of first shooting,
352, 353, 355-357: mask for second imaging 360: target color determining image for second imaging,
370: An image obtained by converting 360 into a value proportional to the amount of light 380: a captured image for the feedback loop of the second imaging,
40: Data processing unit 500: Cylindrical screen 501: Cutting
611 to 618: video projection ranges 701, 703, 705, 707: photographing
Claims (6)
映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成し、
撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割し、
該仮補正データに基づいて、別途生成する領域の補正データを生成することを特徴とする映像調整方法。 At least three projection units are used to project an image on a screen, and the displayed test pattern is photographed by the photographing unit to obtain a photographed image. Based on the obtained photographed image, the display characteristics of the video display device are obtained. A video adjustment method for calculating correction data for correction,
Shoot one or more locations where the video projection range is adjacent, and generate temporary correction data corresponding to each location,
Divide the area where the shooting range is adjacent and the surrounding video projection range into at least two types of areas: the area for selecting correction data by selecting any temporary correction data and the area for generating correction data separately And
A video adjustment method, wherein correction data for a separately generated region is generated based on the temporary correction data.
映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成する手段と、撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割する手段と、該仮補正データに基づいて、別途生成する領域の補正データを生成する手段と、該補正データに従って補正した映像を投映する投映部と、を有することを特徴とする映像表示装置。 At least three projection units are used to project an image on a screen, and the displayed test pattern is photographed by the photographing unit to obtain a photographed image. Based on the obtained photographed image, the display characteristics of the video display device are obtained. In a projection display device that corrects and projects an image according to the corrected display characteristics,
Means for capturing one or more locations where the video projection ranges are adjacent to each other and generating temporary correction data corresponding to each of the shooting locations; Means for dividing the correction data into at least two types of areas, ie, an area for selecting correction data and an area for generating correction data separately, and correction data for the area generated separately based on the provisional correction data A video display device comprising: means for generating a video image; and a projection unit that projects a video image corrected according to the correction data.
2つ以上の撮影範囲が必要となる場合に、異なる撮影範囲において目標とする目標色の色相が互いに変わらないように定めることを特徴とする映像調整方法。 A test pattern displayed on a video display device that projects video on at least one projector on the screen is shot by the shooting unit to obtain a shot image, and display characteristics of the video display device are corrected based on the acquired shot image. A video adjustment method for calculating correction data for performing
An image adjustment method characterized in that when two or more shooting ranges are required, a hue of a target color that is a target in different shooting ranges is determined so as not to change from each other.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007182182A JP2009021771A (en) | 2007-07-11 | 2007-07-11 | Video adjustment method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007182182A JP2009021771A (en) | 2007-07-11 | 2007-07-11 | Video adjustment method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009021771A true JP2009021771A (en) | 2009-01-29 |
Family
ID=40361016
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007182182A Pending JP2009021771A (en) | 2007-07-11 | 2007-07-11 | Video adjustment method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009021771A (en) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012134698A (en) * | 2010-12-21 | 2012-07-12 | Samsung Yokohama Research Institute Co Ltd | Imaging apparatus and image output method |
JP2012517621A (en) * | 2009-02-11 | 2012-08-02 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Multi-projector system and method |
US8866902B2 (en) | 2010-02-26 | 2014-10-21 | Seiko Epson Corporation | Correction information calculating device, image processing apparatus, image display system, and image correcting method |
JP2020034935A (en) * | 2019-11-01 | 2020-03-05 | セイコーエプソン株式会社 | Image projection system and control method of image projection system |
US10635373B2 (en) | 2016-12-14 | 2020-04-28 | Samsung Electronics Co., Ltd. | Display apparatus and method of controlling the same |
US10735820B2 (en) | 2016-10-10 | 2020-08-04 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device |
US10939083B2 (en) | 2018-08-30 | 2021-03-02 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
US12022241B2 (en) | 2021-10-20 | 2024-06-25 | Seiko Epson Corporation | Image projection method and projector |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239504A (en) * | 1994-03-01 | 1995-09-12 | Mitsubishi Heavy Ind Ltd | Large display device |
JP2002072359A (en) * | 2000-08-29 | 2002-03-12 | Olympus Optical Co Ltd | Image projection display device |
JP2003046751A (en) * | 2001-07-27 | 2003-02-14 | Olympus Optical Co Ltd | Multiple projection system |
JP2005020314A (en) * | 2003-06-25 | 2005-01-20 | Olympus Corp | Calculating method, calculating program and calculating apparatus for display characteristic correction data |
WO2006030501A1 (en) * | 2004-09-15 | 2006-03-23 | Mitsubishi Denki Kabushiki Kaisha | Image projection system and image geometry corrector |
-
2007
- 2007-07-11 JP JP2007182182A patent/JP2009021771A/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07239504A (en) * | 1994-03-01 | 1995-09-12 | Mitsubishi Heavy Ind Ltd | Large display device |
JP2002072359A (en) * | 2000-08-29 | 2002-03-12 | Olympus Optical Co Ltd | Image projection display device |
JP2003046751A (en) * | 2001-07-27 | 2003-02-14 | Olympus Optical Co Ltd | Multiple projection system |
JP2005020314A (en) * | 2003-06-25 | 2005-01-20 | Olympus Corp | Calculating method, calculating program and calculating apparatus for display characteristic correction data |
WO2006030501A1 (en) * | 2004-09-15 | 2006-03-23 | Mitsubishi Denki Kabushiki Kaisha | Image projection system and image geometry corrector |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012517621A (en) * | 2009-02-11 | 2012-08-02 | ヒューレット−パッカード デベロップメント カンパニー エル.ピー. | Multi-projector system and method |
US8866902B2 (en) | 2010-02-26 | 2014-10-21 | Seiko Epson Corporation | Correction information calculating device, image processing apparatus, image display system, and image correcting method |
JP2012134698A (en) * | 2010-12-21 | 2012-07-12 | Samsung Yokohama Research Institute Co Ltd | Imaging apparatus and image output method |
US10735820B2 (en) | 2016-10-10 | 2020-08-04 | Samsung Electronics Co., Ltd. | Electronic device and method for controlling the electronic device |
US10635373B2 (en) | 2016-12-14 | 2020-04-28 | Samsung Electronics Co., Ltd. | Display apparatus and method of controlling the same |
US10939083B2 (en) | 2018-08-30 | 2021-03-02 | Samsung Electronics Co., Ltd. | Electronic apparatus and control method thereof |
JP2020034935A (en) * | 2019-11-01 | 2020-03-05 | セイコーエプソン株式会社 | Image projection system and control method of image projection system |
US12022241B2 (en) | 2021-10-20 | 2024-06-25 | Seiko Epson Corporation | Image projection method and projector |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4126564B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP2009021771A (en) | Video adjustment method | |
US7190395B2 (en) | Apparatus, method, program and recording medium for image restoration | |
WO2005002240A1 (en) | Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data | |
US7580566B2 (en) | Image processing device, image processing method, storage medium, and program | |
EP1061500A2 (en) | Color correction in image display | |
JP2002262094A (en) | Image processing method and image processor | |
JP2015097350A (en) | Image processing apparatus and multi-projection system | |
JP5735846B2 (en) | Image processing apparatus and method | |
JP2003179762A (en) | Conversion of color image to gray value image | |
JP6047008B2 (en) | Image processing apparatus, imaging apparatus including the same, and control method of image processing apparatus | |
JP2002271638A (en) | White balance correction method and device, and recording medium recorded with program for executing the method | |
JP2007271771A (en) | Image display system and control method therefor | |
JP4304846B2 (en) | Image processing method and recording medium recording image processing program | |
JP2002044469A (en) | Image processing method and recording medium with recorded image processing program stored | |
JP6140987B2 (en) | Image processing apparatus and image processing method | |
JP7051365B2 (en) | Image processing equipment, image processing methods, and programs | |
JP5952574B2 (en) | Image processing apparatus and control method thereof | |
JP2000224418A (en) | Mask for changing lightness profile of photo copying | |
JPH08110603A (en) | Color adjusting method and device | |
JP2004157641A (en) | Image processing method, image processing apparatus, image processing program and recording medium with image processing program recorded thereon | |
WO2020084894A1 (en) | Multi-camera system, control value calculation method and control device | |
JP2605011B2 (en) | Color image processing method | |
WO2023189456A1 (en) | Information processing device, information processing method, and recording medium | |
JP3716786B2 (en) | Video display device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100222 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120518 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120619 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20121016 |