Nothing Special   »   [go: up one dir, main page]

JP2009021771A - Video adjustment method - Google Patents

Video adjustment method Download PDF

Info

Publication number
JP2009021771A
JP2009021771A JP2007182182A JP2007182182A JP2009021771A JP 2009021771 A JP2009021771 A JP 2009021771A JP 2007182182 A JP2007182182 A JP 2007182182A JP 2007182182 A JP2007182182 A JP 2007182182A JP 2009021771 A JP2009021771 A JP 2009021771A
Authority
JP
Japan
Prior art keywords
correction data
image
video
projection
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007182182A
Other languages
Japanese (ja)
Inventor
Masaki Ishikawa
正喜 石川
Takeshi Minagawa
剛 皆川
Shigeru Naoi
茂 直井
Hideyuki Sakai
秀行 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007182182A priority Critical patent/JP2009021771A/en
Publication of JP2009021771A publication Critical patent/JP2009021771A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Projection Apparatus (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To smoothly connect correction data of photographic areas adjacent to each other and to obtain a smooth video on a screen. <P>SOLUTION: In this video adjustment method for projecting the video on the screen using at least three or more projection parts, photographing a displayed test pattern by a photography part to acquire the photographed image, and calculating the correction data for correcting display characteristics of a video display device based on the acquired photographed image, one or more parts whose projection ranges are adjacent to each other are photographed, respectively, pieces of temporary correction data corresponding to the respective photography parts are generated, the parts whose photographic ranges are adjacent to each other and video projection areas around them are divided into either of at least two kinds of an area for selecting either of pieces of the temporary correction data to be considered as the correction data or an area for separately generating the correction data, and the correction data of the area for separating the correction data is generated based on the temporary correction data. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は映像調整方法に係り、特に、スクリーンに複数のプロジェクタで映像を投映する映像表示装置において、スクリーン上で滑らかに輝度・色・幾何を接合する調整方法及び映像表示装置に関する。   The present invention relates to an image adjustment method, and more particularly to an adjustment method and an image display device for smoothly joining luminance, color, and geometry on a screen in an image display device that projects images on a screen with a plurality of projectors.

プロジェクタで映像を投射する映像表示装置として、複数のプロジェクタを用いて、スクリーン上に各プロジェクタの投映映像を並べて、高精細な大画面に表示する映像表示装置が知られている。このような映像表示装置においては、複数のプロジェクタの間に個体差があったり、また、一つのプロジェクタ内でも領域ごとに特性が異なったりすることが原因で、スクリーンに投映された映像の色や明るさに差が生じる。そこで、映像品質を向上するために、この差を補正することが重要である。
その一手法として、特許文献1に開示されているように、テストパターンをカメラで撮影した結果を用いて自動的に補正データを生成することが知られている。
2. Description of the Related Art As a video display device that projects video with a projector, a video display device that uses a plurality of projectors and arranges the projected video of each projector on a screen and displays it on a large high-definition screen is known. In such a video display device, there are individual differences among a plurality of projectors, and the characteristics of the video projected on the screen and the like are different because each region has different characteristics even within one projector. There is a difference in brightness. Therefore, it is important to correct this difference in order to improve video quality.
As one of the methods, as disclosed in Patent Document 1, it is known that correction data is automatically generated using a result obtained by photographing a test pattern with a camera.

近年、映像表示装置において、曲面スクリーンなど多彩な形態のものが求められており、プロジェクタやカメラの設置の物理的制約上、テストパターンを撮影して得られる撮影データが、テストパターンデータに関わる画像の全てを正常に含むことができない場合が生じることがあった。
例えば、特許文献2には、テストパターンを撮影して得られる撮影データが、テストパターンデータに関わる画像の全てを正常に含むことができない場合でも、画像全体に関する補正データを算出しうる補正データの算出方法が開示されている。
In recent years, video display devices in various forms such as curved screens have been demanded, and due to physical restrictions on the installation of projectors and cameras, shooting data obtained by shooting a test pattern is an image related to the test pattern data. In some cases, not all of the above could be included normally.
For example, Patent Document 2 discloses correction data that can calculate correction data related to an entire image even when shooting data obtained by shooting a test pattern cannot normally include all of the images related to the test pattern data. A calculation method is disclosed.

国際公開番号WO99/31877International Publication Number WO99 / 31877 特開2005−20314公報JP 2005-20314 A

ところで、テストパターンを撮影して得られる撮影データがテストパターンデータに関わる画像の全てを含むことができない場合や、撮影データの精度を上げるため撮影領域を小さくする場合などは、撮影を複数領域に分けて行う必要がある。
然るに、撮影を複数領域に分けて行う際、カメラの撮影姿勢などの違いが原因で、二つ以上の撮影領域の補正データ特性が大きく異なってしまうことがある。このような場合、複数の撮影領域が互いに隣り合う箇所やその周辺において、補正が不自然になるという問題があった。
By the way, if the shooting data obtained by shooting the test pattern cannot include all of the images related to the test pattern data, or if you want to reduce the shooting area in order to improve the accuracy of the shooting data, the shooting is divided into multiple areas. It needs to be done separately.
However, when shooting is performed in a plurality of areas, the correction data characteristics of two or more shooting areas may greatly differ due to differences in the shooting posture of the camera. In such a case, there has been a problem that the correction becomes unnatural at a portion where the plurality of photographing regions are adjacent to each other and the periphery thereof.

本発明の目的は、撮影を複数領域に分けて行う場合に、撮影領域が互いに隣り合う箇所やその周辺を、滑らかで自然に補正する調整方法及び映像表示装置を提供することにある。
本発明の他の目的は、撮影領域ごとの補正データ特性の差を少なくする調整方法及び映像表示装置を提供することにある。
SUMMARY OF THE INVENTION An object of the present invention is to provide an adjustment method and a video display apparatus that smoothly and naturally correct a portion where the photographing regions are adjacent to each other and its periphery when photographing is performed in a plurality of regions.
Another object of the present invention is to provide an adjustment method and an image display device that reduce a difference in correction data characteristics for each imaging region.

本発明に係る映像調整方法は、少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正するための補正データを算出する映像調整方法であって、映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成し、
撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割し、
該仮補正データに基づいて、別途生成する領域の補正データを生成するように構成したものである。
また、本発明に係る映像調整方法は、二つ以上の撮影範囲が必要となる場合に、異なる撮影範囲において目標とする目標色の色相が互いに変わらないように定めるようにしたものである。
The video adjustment method according to the present invention projects video on a screen using at least three or more projection units, captures the displayed test pattern with the imaging unit, acquires the captured image, and based on the acquired captured image A video adjustment method for calculating correction data for correcting display characteristics of the video display device, wherein one or more locations where video projection ranges are adjacent to each other are captured and provisional correction data corresponding to each shooting location Produces
Divide the area where the shooting range is adjacent and the surrounding video projection range into at least two types of areas: the area for selecting correction data by selecting any temporary correction data and the area for generating correction data separately And
Based on the provisional correction data, correction data for a region to be generated separately is generated.
The video adjustment method according to the present invention is such that when two or more shooting ranges are required, the hues of the target colors targeted in different shooting ranges are determined so as not to change from each other.

本発明に係る投映表示装置は、少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正して、補正された表示特性に従って映像を投映する投映表示装置において、映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成する手段と、撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割する手段と、該仮補正データに基づいて、別途生成する領域の補正データを生成する手段と、該補正データに従って補正した映像を投映する投映部と、を有する映像表示装置として構成される。   The projection display device according to the present invention projects a video on a screen using at least three or more projection units, captures the displayed test pattern with the imaging unit, acquires a captured image, and based on the acquired captured image In the projection display device that corrects the display characteristics of the video display device and projects an image according to the corrected display characteristics, each of the video projection ranges is photographed to correspond to each photographing location. Means for generating provisional correction data, at least a region where the shooting range is adjacent and a video projection range in the vicinity thereof, and selecting any one of the provisional correction data as correction data and a region for generating correction data separately; A means for dividing the image into one of two types of areas; a means for generating correction data for a separately generated area based on the temporary correction data; and an image corrected according to the correction data. A projection unit for projection of, configured as an image display device having a.

本発明によれば、撮影を複数領域に分けて行う場合に、異なる補正データを滑らかに繋ぎ、また、異なる補正データ特性の差を少なくすることで、スクリーンに投映された映像が滑らかに繋がるという利点がある。   According to the present invention, when shooting is performed in a plurality of areas, different correction data are smoothly connected, and the difference between different correction data characteristics is reduced, so that the image projected on the screen is smoothly connected. There are advantages.

以下、本発明の実施の形態を、図面を参照して説明する。
[実施例1]
図1は、本発明の一実施例による映像調整のシステムである。
映像投映範囲211、212、213はそれぞれ、映像投映部201、202、203がスクリーン100に投映する映像の投映範囲である。映像投映範囲211と212がスクリーン100上で互いに重なるように、かつ、映像投映範囲212と213がスクリーン100上で互いに重なるように、映像投映部211、212、213とスクリーン100は配置されている。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Example 1]
FIG. 1 is a video adjustment system according to an embodiment of the present invention.
The video projection ranges 211, 212, and 213 are video projection ranges that the video projection units 201, 202, and 203 project on the screen 100, respectively. The video projection units 211, 212, and 213 and the screen 100 are arranged so that the video projection ranges 211 and 212 overlap each other on the screen 100 and the video projection ranges 212 and 213 overlap each other on the screen 100. .

映像投映部201〜203は、それぞれ補正データを保持し、補正データに基づいて補正した映像を投映する機能を有する。なお、各映像投映部は、補正機能付のプロジェクタ単体であってもよいし、補正データに基づいて補正した映像信号を出力する映像生成器と通常のプロジェクタを組み合わせたものでもよい。
スクリーン100は、ここでは円筒面タイプのものを想定しているが、球面など他の曲面タイプのもの、或いは平面タイプのものでもよい。更には、前面から映像を投射するタイプのもの、或いは背面から投射するタイプのものでもよい。
Each of the video projection units 201 to 203 has a function of holding correction data and projecting a video corrected based on the correction data. Each video projection unit may be a single projector with a correction function, or may be a combination of a video generator that outputs a video signal corrected based on correction data and a normal projector.
Here, the screen 100 is assumed to be of a cylindrical surface type, but may be of another curved surface type such as a spherical surface or a flat surface type. Further, it may be a type that projects an image from the front or a type that projects from the back.

撮影範囲311、312はそれぞれ、撮影部301、302が撮影する範囲である。
撮影部301,302は、それぞれレンズを備え、撮影して取得した撮影画像をデジタルデータとして保存する機能を有する。例えば、一眼レフデジタルカメラである。撮影部301と撮影部302は、補正データを生成するための撮影を行うときに配置すればよく、撮影終了後は、システム構成から外してもよい。また、撮影部302は、撮影部301を移動して撮影部302としてもよいし、撮影部301と異なる撮影部を用意して撮影部302を構成してもよい。
The shooting ranges 311 and 312 are ranges where the shooting units 301 and 302 shoot, respectively.
The photographing units 301 and 302 each include a lens and have a function of saving a photographed image obtained by photographing as digital data. For example, a single-lens reflex digital camera. The photographing unit 301 and the photographing unit 302 may be disposed when performing photographing for generating correction data, and may be removed from the system configuration after photographing. In addition, the photographing unit 302 may move the photographing unit 301 to be the photographing unit 302, or the photographing unit 302 may be configured by preparing a photographing unit different from the photographing unit 301.

データ処理部40は補正データの生成などの処理を行う処理装置であり、例えば、パーソナルコンピュータで構成される。データ処理部40は、ネットワークやバス等を介して映像投映部201、202、203や撮影部301、302と接続される。なお、データ処理部40は単体で構成されてもよいし、映像投映部201、202、203や撮影部301、302のいずれか1又は複数のユニットにその機能を内蔵して構成してもよい。   The data processing unit 40 is a processing device that performs processing such as generation of correction data, and includes, for example, a personal computer. The data processing unit 40 is connected to the video projection units 201, 202, 203 and the imaging units 301, 302 via a network, a bus, or the like. The data processing unit 40 may be configured as a single unit, or may be configured by incorporating the function in any one or a plurality of units of the video projection units 201, 202, and 203 and the imaging units 301 and 302. .

図2は、一実施例における映像調整の処理フローを示す。
映像調整処理は、映像投映範囲が隣り合う第一の箇所を撮影して当該箇所に対応する第一の仮補正データを生成する処理(S100)と、映像投映範囲が隣り合う第二の箇所を撮影して当該箇所に対応する第二の仮補正データを生成する処理(S200)と、各領域を前記いずれの仮補正データを採用するか、あるいは、補正データを別途生成するかの少なくとも二種類のいずれかに分類する処理(S300)と、別途生成すると分類された領域に関する補正データを他に分類された領域の補正データに基づいて生成する処理(S400)とを含む。
また、第一の仮補正データの生成処理S100は、撮影部301での幾何調整処理を行う処理(S110)と、撮影部301での明るさ・色調整処理を行う処理(S120)からなる。
各領域の分類処理S300及び補正データの生成処理S400は、データ処理部40のプロセッサで所定のアプリケーションプログラムを実行することで実現される。
以下、各処理について詳細に説明する。
FIG. 2 shows a processing flow of video adjustment in one embodiment.
The video adjustment processing includes processing (S100) of shooting the first location where the video projection range is adjacent and generating first temporary correction data corresponding to the location, and the second location where the video projection range is adjacent. At least two types of processing (S200) for generating second provisional correction data corresponding to the location by photographing and which of the provisional correction data is used for each region or generation of correction data separately And a process (S400) of generating correction data relating to a region classified as separately generated based on correction data of the other classified region (S400).
The first temporary correction data generation process S100 includes a process of performing a geometric adjustment process in the photographing unit 301 (S110) and a process of performing a brightness / color adjustment process in the photographing unit 301 (S120).
The classification process S300 and the correction data generation process S400 for each region are realized by executing a predetermined application program by the processor of the data processing unit 40.
Hereinafter, each process will be described in detail.

まず、図3を参照して、撮影部301での幾何調整処理(S110)について説明する。
図3のように、映像投映部201が投映する映像のサイズを横wP1ピクセル、縦hP1ピクセル、映像投映部202が投映する映像のサイズを横wP2ピクセル、縦hP2ピクセル、映像投映部203が投映する映像のサイズを横wP3ピクセル、縦hP3ピクセルとする。例えば、画像サイズがXGA(横1024ピクセル、縦768ピクセル)の場合、数1のようになる。
First, the geometric adjustment process (S110) in the photographing unit 301 will be described with reference to FIG.
As shown in FIG. 3, the size of the video projected by the video projection unit 201 is the horizontal w P1 pixel and the vertical h P1 pixel, and the size of the video projected by the video projection unit 202 is the horizontal w P2 pixel, the vertical h P2 pixel, and the video projection. The size of the image projected by the unit 203 is assumed to be horizontal w P3 pixels and vertical h P3 pixels. For example, when the image size is XGA (1024 horizontal pixels and 768 vertical pixels), Equation 1 is obtained.

Figure 2009021771
映像投映範囲211と212が互いに隣り合う領域を、撮影部301の撮影範囲311が含むように、撮影部301の撮影姿勢を決める。撮影姿勢とは、カメラの設置位置、方向、レンズの画角などのことである。
Figure 2009021771
The shooting posture of the shooting unit 301 is determined so that the shooting range 311 of the shooting unit 301 includes a region where the video projection ranges 211 and 212 are adjacent to each other. The shooting posture refers to the installation position and direction of the camera, the angle of view of the lens, and the like.

図3のように、撮影部301が撮影する画像のサイズを、横wC1ピクセル、縦hC1ピクセルとする。例えば、横2000ピクセル、縦1312ピクセルの画像サイズの場合、数2のようになる。 As illustrated in FIG. 3, the size of the image captured by the imaging unit 301 is assumed to be horizontal w C1 pixels and vertical h C1 pixels. For example, in the case of an image size of 2000 pixels wide and 1312 pixels long, Equation 2 is obtained.

Figure 2009021771
なお、ここで、撮影部301が撮影する一連の画像は、レンズ特有の周辺減光を補正した結果の画像であってもよい。同補正を行う場合は、一連の撮影を通じて、同じ特性の補正を用いるものとする。
映像投映部が投映する映像や、撮影部が撮影する画像の色は色(r,g,b)と表し、r(赤),g(緑),b(青)の値の範囲は、それぞれ[rMIN,rMAX]、[gMIN,gMAX]、[bMIN,bMAX]とし、例えば、数3のような値とする。
Figure 2009021771
Here, the series of images photographed by the photographing unit 301 may be images obtained as a result of correcting the peripheral darkening specific to the lens. When the correction is performed, correction with the same characteristics is used throughout a series of photographing.
The color of the video projected by the video projection unit and the color of the image captured by the imaging unit are represented as colors (r, g, b), and the range of values of r (red), g (green), and b (blue) are respectively [R MIN , r MAX ], [g MIN , g MAX ], [b MIN , b MAX ], for example, values as shown in Equation 3.

Figure 2009021771
映像投映部201が投映する映像の座標をP(xP1,yP1)、映像投映部202が投映する映像の座標をP(xP2,yP2)、撮影部301が撮影する画像の座標をC(xC1,yC1)と表す。
映像投映範囲211と212がスクリーン100上で互いに隣り合っており、撮影範囲311がその互いに隣り合う領域を含んでいるので、Pの集合とPの集合とCの集合には、互いに写像の関係がある。
Figure 2009021771
The coordinates of the video projected by the video projection unit 201 are P 1 (x P1 , y P1 ), the coordinates of the video projected by the video projection unit 202 are P 2 (x P2 , y P2 ), and the image captured by the imaging unit 301 The coordinates are represented as C 1 (x C1 , y C1 ).
Since the image projection ranges 211 and 212 are adjacent to each other on the screen 100 and the shooting range 311 includes the adjacent regions, the set of P 1 , the set of P 2 , and the set of C 1 include There is a mapping relationship.

の集合からCの集合への写像をfC1P1、Pの集合からCの集合への写像をfC1P2と表し、Cの集合からPの集合への写像をf−1 C1P1、Cの集合からPの集合への写像をf−1 C1P2と表す。
これらの写像と座標の関係を表すと、数4のようになる。
The mapping from a set of P 1 to a collection of C 1 f C1P1, represents a set of P 2 the mapping to a set of C 1 and f C1P2, a mapping from the set of C 1 to the set of P 1 f -1 C1P1, represents a collection of C 1 mapping to a set of P 2 and f -1 C1P2.
The relationship between these mappings and coordinates is expressed as in Expression 4.

Figure 2009021771
図4のように、撮影領域311の内、映像投映範囲211が占める領域をマスク321とし、撮影領域311の内、映像投映範囲212が占める範囲をマスク322とする。
ここで、マスク321と322を撮影部301の座標C(xC1,yC1)の関数mC1P1、mC1P2でそれぞれ数5のように定義する。
Figure 2009021771
As shown in FIG. 4, the area occupied by the video projection range 211 in the shooting area 311 is set as a mask 321, and the range occupied by the video projection range 212 in the shooting area 311 is set as a mask 322.
Here, the masks 321 and 322 are defined by the functions m C1P1 and m C1P2 of the coordinates C 1 (x C1 , y C1 ) of the imaging unit 301 as shown in Equation 5, respectively.

Figure 2009021771
例えば、特開2005−51375公報に記載された方法を用いて、撮影部201から投映したテストパターンを撮影部301で撮影し、データ処理部400で処理すると、fC1P1とf−1 C1P1とmC1P1を定義できる。同様に、同公報に記載の方法を用いて、撮影部202から投映したテストパターンを撮影部301で撮影し、データ処理部400で処理すると、fC1P2とf−1 C1P2とmC1P2を定義できる。
Figure 2009021771
For example, when a test pattern projected from the photographing unit 201 is photographed by the photographing unit 301 and processed by the data processing unit 400 using the method described in Japanese Patent Application Laid-Open No. 2005-51375, f C1P1 and f −1 C1P1 and m C1P1 can be defined. Similarly, when the test pattern projected from the photographing unit 202 is photographed by the photographing unit 301 and processed by the data processing unit 400 using the method described in the publication, f C1P2 , f −1 C1P2 and m C1P2 can be defined. .

なお、ここで後の演算で用いるために、マスク321と322のOR領域をマスク325、AND領域をマスク326とし、マスク325からマスク326を除いた領域をマスク327とする。
マスク325、326、327を撮影部301の座標C(xC1,yC1)の関数m325、m326、m327で表すと、数6のようになる。
Note that the OR region of the masks 321 and 322 is a mask 325, the AND region is a mask 326, and the region obtained by removing the mask 326 from the mask 325 is a mask 327 for use in later calculations.
When the masks 325 , 326 , and 327 are represented by functions m 325 , m 326 , and m 327 of the coordinates C 1 (x C1 , y C1 ) of the imaging unit 301, the following expression 6 is obtained.

Figure 2009021771
撮影部301での明るさ・色調整処理を行うS120について、図5により説明する。
ここで、合わせたい色を(r,g,b)とする。なお、合わせたい色の数は2つ以上でも構わない。また、合わせたい色の数やそれぞれの合わせたい色の値は、予め決めておいてもよいし、ユーザに入力させてもよい。
処理S12100で、合わせたい色が残っている場合、処理S12200に進み、残っていない場合には終了する。
Figure 2009021771
S120 for performing brightness / color adjustment processing in the photographing unit 301 will be described with reference to FIG.
Here, it is assumed that the color to be matched is (r T , g T , b T ). Note that the number of colors to be matched may be two or more. The number of colors to be matched and the value of each color to be matched may be determined in advance or may be input by the user.
If it is determined in step S12100 that the color to be matched remains, the process proceeds to step S12200, and if not, the process ends.

S12200は露出設定処理をする。S110と同じ撮影姿勢に保ったまま、撮影部301の露出(絞り、シャッタースピード)を固定する。S120の処理の間、撮影する画像がサチったり、全黒になったりしない露出にするのが望ましい。   In step S12200, exposure setting processing is performed. The exposure (aperture and shutter speed) of the photographing unit 301 is fixed while maintaining the same photographing posture as in S110. During the processing of S120, it is desirable to make the exposure so that the image to be photographed does not saturate or become completely black.

次に、図6を参照して、第一の目標色決定処理(S12300)について説明する。
S12310で、合わせたい色が黒(0,0,0)の場合にはS12330に進み、黒以外の場合にはS12320に進む。
S12320で、合わせたい色が白(255,255,255)の場合にはS12340に進み、白以外の場合にはS12350に進む。
ここで、第一の目標色決定用画像を画像330とし、画像330の座標C(xC1,yC1)の色を(r330(xC1,yC1),g330(xC1,yC1),b330(xC1,yC1))と表す。r330、g330、b330の値には、S12330か12340か12350のいずれかでの撮影結果が入る。
Next, the first target color determination process (S12300) will be described with reference to FIG.
If it is determined in S12310 that the color to be matched is black (0, 0, 0), the process proceeds to S12330, and if it is not black, the process proceeds to S12320.
In S12320, if the color to be matched is white (255, 255, 255), the process proceeds to S12340, and if it is other than white, the process proceeds to S12350.
Here, the first target color determination image is an image 330, and the color of the coordinates C 1 (x C1 , y C1 ) of the image 330 is (r 330 (x C1 , y C1 ), g 330 (x C1 , y C1 ), b 330 (x C1 , y C1 )). The values of r 330 , g 330 , and b 330 include the imaging results in S12330, 12340, or 12350.

黒の場合の、第一の目標色決定処理(S12330)について説明する。
黒色(0,0,0)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
325(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが上位0.05%である(x,y)を(x,y)=(x330,y330)とする。
このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
以上の手順により、画像330内の、映像投映範囲が存在する領域の色のうち、緑の明るさが上位0.05%の色が目標色となった。
The first target color determination process (S12330) in the case of black will be described.
A black (0, 0, 0) solid image is displayed from each of the video projection units 201 and 202, the projection areas 211 and 212 projected on the screen are photographed by the photographing unit 301, and the photographed image 330 is stored. To do.
m 325 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)) are sorted, and (x, y) = (x, y) = (0.05), the magnitude of the value of the green component g 330 (x, y) is the upper 0.05%. (X 330 , y 330 ).
The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.
According to the above procedure, among the colors in the area where the video projection range exists in the image 330, the color having the highest brightness of 0.05% is the target color.

例えば、画像330中、マスク325が占める領域が仮に全体の6割だったとすると、上位0.05%の画素は、数7のように、上位788番目の画素である。   For example, if the area occupied by the mask 325 in the image 330 is 60% of the whole, the upper 0.05% pixels are the upper 788th pixels as shown in Equation 7.

Figure 2009021771
一番上位の色ではなく、上位0.05%の色を用いているのは、撮影した画像のノイズや、撮影部の素子不良などによる輝点の悪影響を避けるためである。もちろん、0.05%の値は違う値を用いてもよい。
Figure 2009021771
The reason why the upper 0.05% color is used instead of the uppermost color is to avoid the adverse effect of bright spots due to noise in the photographed image and defective elements in the photographing section. Of course, a different value may be used for the value of 0.05%.

次に、白の場合の、第一の目標色決定処理(S12340)について説明する。
白色(255,255,255)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
327(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが下位0.5%である(x,y)を(x,y)=(x330,y330)とする。
このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
以上の手順により、画像330内の、映像投映範囲が存在し、かつ、映像投映範囲が重複しない領域の色のうち、緑の明るさが下位0.5%の色が目標色となった。
Next, the first target color determination process (S12340) in the case of white will be described.
White (255, 255, 255) solid images are displayed from the video projection units 201 and 202, respectively, and the imaging unit 301 captures the projection areas 211 and 212 on the screen, and stores the captured image 330. To do.
m 327 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)), and the value of the green component g 330 (x, y) is the lower 0.5% of (x, y) (x, y) = (X 330 , y 330 ).
The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.
According to the above procedure, among the colors in the area where the video projection range exists in the image 330 and the video projection range does not overlap, the target color is the color whose green brightness is lower 0.5%.

映像投映範囲が重複する部分を含めないのは、映像投映範囲が重複しない部分より重複する部分の方が補正可能範囲が広く、補正可能範囲が広い方を狭い方に合わせることは可能でも、補正可能範囲が狭い方を広い方に合わせることは不可能な場合があるからである。   The part that overlaps the video projection range is not included because the correction range is wider than the part that does not overlap the video projection range, and the wider correction range can be adjusted to the narrower one. This is because it may not be possible to match the narrower range to the wider range.

例えば、画像330中、マスク327が占める領域が仮に全体の5割だったとすると、下位0.5%の画素は、数8のように、下位6560番目の画素である。   For example, if the area occupied by the mask 327 in the image 330 is 50% of the entire area, the lower 0.5% pixel is the lower 6560th pixel as shown in Equation 8.

Figure 2009021771
一番下位の色ではなく、下位0.5%の色を用いているのは、撮影した画像のノイズや、撮影部の素子不良などによる暗点の悪影響を避けるためである。もちろん、0.5%の値は違う値を用いてもよい。
Figure 2009021771
The reason why the lower 0.5% color is used instead of the lowest color is to avoid the adverse effects of dark spots due to noise in the captured image and element defects in the imaging unit. Of course, a different value may be used for the value of 0.5%.

次に、通常の場合の、第一の目標色決定処理(S12350)について説明する。
色(r,g,b)のべた画像を映像投映部201、202からそれぞれ表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影された画像330を保存する。
327(x,y)=1を満たす全ての座標(x,y)に関し、緑成分g330(x,y)の値の大きい順に、色(r330(x,y),g330(x,y),b330(x,y))をソートし、緑成分g330(x,y)の値の大きさが上位50%である(x,y)を(x,y)=(x330,y330)とする。このときの色(r330(x330,y330),g330(x330,y330),b330(x330,y330))を目標色とする。
Next, the first target color determination process (S12350) in the normal case will be described.
Solid images of color (r, g, b) are displayed from the video projection units 201 and 202, respectively, and the imaging unit 301 captures the projection ranges 211 and 212 reflected on the screen, and stores the captured image 330. To do.
m 327 (x, y) of all the coordinates satisfying = 1 (x, y) relates, in descending order of the value of the green component g 330 (x, y), color (r 330 (x, y) , g 330 (x , Y), b 330 (x, y)) are sorted, and (x, y) = (x, y) where the magnitude of the value of the green component g 330 (x, y) is the top 50% 330 , y330 ). The colors (r 330 (x 330 , y 330 ), g 330 (x 330 , y 330 ), b 330 (x 330 , y 330 )) at this time are set as target colors.

以上の手順により、画像330内の投映領域が存在し、かつ、投映領域が重複しない範囲の色のうち、緑の明るさが上位50%の色が目標色となった。もちろん、50%の値は違う値を用いてもよい。
映像投映範囲が重複する部分を含めないのは、映像投映範囲が重複しない部分より重複する部分の方が、補正可能範囲が広く、補正可能範囲が広い方を狭い方に合わせることは可能でも、補正可能範囲が狭い方を広い方に合わせることは不可能な場合があるからである。
According to the above procedure, among the colors in the range where the projection area in the image 330 exists and the projection areas do not overlap, the color having the highest brightness of green is the target color. Of course, a different value may be used for the value of 50%.
The part where the video projection range overlaps is not included because the part where the video projection range overlaps is wider than the part where the video projection range does not overlap, and it is possible to match the wider correction range to the narrower one, This is because it may not be possible to match the narrower correction range to the wider correction range.

S12330、S12340、S12350で、緑成分だけを用いてソートしたのは、緑の値が一番輝度に効いてくるためである。なお、緑成分だけを用いてソートする方法と別の方法として、色(r330,g330,b330)を光量比例の空間に変換し、さらにHSV色空間に変換して、明度の高い順に並べ、明度の上位ないし下位の色を用いてもよい。また、S12350で、上位50%の色を用いる代わりに、先に白と黒の目標色決定を済ませ、その結果から合わせたい色(r,g,b)の目標色を補間して求めてもよい。さらに他の方法として、S12330、S12340、S12350で、目標色をユーザに指定させてもよい。 The reason why sorting is performed using only the green component in S12330, S12340, and S12350 is that the green value is most effective for luminance. In addition, as a method different from the method of sorting using only the green component, the colors (r 330 , g 330 , b 330 ) are converted into a light quantity proportional space, and further converted into an HSV color space, in order of increasing brightness. It is also possible to use colors with higher or lower brightness. In S12350, instead of using the top 50% colors, the target colors for white and black are determined first, and the target colors of the colors (r T , g T , b T ) to be combined are interpolated from the results. You may ask for it. As yet another method, the target color may be specified by the user in S12330, S12340, and S12350.

目標色を(rG1,gG1,bG1)と表すと、数9のようになる。 When the target color is represented as (r G1 , g G1 , b G1 ), the following equation 9 is obtained.

Figure 2009021771
次に、図7を参照して、フィードバックループ処理(S12400)について説明する。
S12410で、整数iを変数とし、iの値を1とする。S12420で、数列sのj番目の要素をs(j)と表すとき、数10を満たす数列sを定義する。
Figure 2009021771
Next, the feedback loop process (S12400) will be described with reference to FIG.
In step S12410, the integer i is set as a variable, and the value of i is set to 1. In S12420, when the j-th element of the sequence s is expressed as s (j), the sequence s satisfying Equation 10 is defined.

Figure 2009021771
ここで、数列sと要素数Nを数11とする。
Figure 2009021771
Here, the sequence s and the number N of elements are represented by Formula 11.

Figure 2009021771
横wP1ピクセル、縦hP1ピクセルのサイズのフィードバックループ用投映画像を画像221とし、画像221の座標(xP1,yP1)の色を(r221(xP1,yP1),g221(xP1,yP1),b221(xP1,yP1))と定義する。また、横wP2ピクセル、縦hP2ピクセルのサイズのフィードバックループ用投映画像を画像222とし、画像222の座標(xP2,yP2)の色を(r222(xP2,yP2),g222(xP2,yP2),b222(xP2,yP2))と定義する。
Figure 2009021771
The projected image for the feedback loop having the size of the horizontal w P1 pixel and the vertical h P1 pixel is set as an image 221, and the color of the coordinates (x P1 , y P1 ) of the image 221 is (r 221 (x P1 , y P1 ), g 221 ( xP1 , yP1 ), b221 ( xP1 , yP1 )). A projected image for feedback loop having a size of horizontal w P2 pixels and vertical h P2 pixels is set as an image 222, and the color of the coordinates (x P2 , y P2 ) of the image 222 is set to (r 222 (x P2 , y P2 ), g 222 ( xP2 , yP2 ), b222 ( xP2 , yP2 )).

S12430で、フィードバックループ用各投映画像の初期値設定をする。
画像221、222を黒画像とし、初期値を数12のように設定する。
In S12430, initial values of the projected images for the feedback loop are set.
The images 221 and 222 are black images, and initial values are set as shown in Equation 12.

Figure 2009021771
S12440で、画像221を投映部201から表示し、画像222を投映部202から表示し、スクリーンに映った投映範囲211、212の様子を撮影部301で撮影して、撮影されたフィードバックループ用画像である画像340を保存する。
画像340は横wC1ピクセル、縦hC1ピクセルのサイズであり、画像340の座標(xC1,yC1)の色を(r340(xC1,yC1),g340(xC1,yC1),b340(xC1,yC1))と表す。r340、g340、b340の値に関し、横wC1ピクセル、縦hC1ピクセルのサイズを超える部分について、数13のように定義する。
Figure 2009021771
In step S12440, the image 221 is displayed from the projection unit 201, the image 222 is displayed from the projection unit 202, the state of the projection ranges 211 and 212 on the screen is captured by the imaging unit 301, and the captured feedback loop image The image 340 is saved.
The image 340 has a size of horizontal w C1 pixels and vertical h C1 pixels, and the coordinates (x C1 , y C1 ) of the image 340 are changed to (r 340 (x C1 , y C1 ), g 340 (x C1 , y C1). ), B 340 (x C1 , y C1 )). With respect to the values of r 340 , g 340 , and b 340 , a portion exceeding the size of the horizontal w C1 pixel and the vertical h C1 pixel is defined as in Expression 13.

Figure 2009021771
S12450で、画像340に映っている映像投映範囲211、212の画素の比較・更新をする。映像投映範囲211に関して、以下のように、画素比較・更新をする。
0≦x221<wP1、0≦y221<hP1を満たす整数x221、y221に関し、(x221,y221)に対応する撮影範囲座標を(x340,y340)とすると、図8のように、数14の関係がある。
Figure 2009021771
In step S12450, the pixels in the video projection ranges 211 and 212 shown in the image 340 are compared and updated. For the video projection range 211, pixel comparison / update is performed as follows.
With respect to the integers x 221 and y 221 that satisfy 0 ≦ x 221 <w P1 and 0 ≦ y 221 <h P1 , assuming that the shooting range coordinates corresponding to (x 221 , y 221 ) are (x 340 , y 340 ), FIG. As shown in FIG.

Figure 2009021771
340やy340は常に整数となるとは限らないので、画像340の座標(x340,y340)の色(r,g,b)を、バイリニア方式で、図14のように4近傍の画素を用いて、数15のように定義する。
Figure 2009021771
Since x 340 and y 340 are not always integers, the colors (r, g, b) of the coordinates (x 340 , y 340 ) of the image 340 are represented by four neighboring pixels as shown in FIG. Is defined as shown in Equation 15.

Figure 2009021771
色(r,g,b)と目標色(rG1,gG1,bG1)を比較する。
r<rG1のとき、r221(x221,y221)を変分s(i)だけ増やす。増やした後にr221(x221,y221)がrMAXを超えたときはrMAXとする。
r>rG1のとき、r221(x221,y221)を変分s(i)だけ減らす。減らした後にr221(x221,y221)がrMINを下回るときはrMINとする。
g<gG1のとき、g221(x221,y221)を変分s(i)だけ増やす。増やした後にg221(x221,y221)がgMAXを超えたときはgMAXとする。
g>gG1のとき、g221(x221,y221)を変分s(i)だけ減らす。減らした後にg221(x221,y221)がgMINを下回るときはgMINとする。
b<bG1のとき、b221(x221,y221)を変分s(i)だけ増やす。増やした後にb221(x221,y221)がbMAXを超えたときはbMAXとする。
b>bG1のとき、b221(x221,y221)を変分s(i)だけ減らす。減らした後にb221(x221,y221)がbMINを下回るときはbMINとする。
Figure 2009021771
The color (r, g, b) is compared with the target color (r G1 , g G1 , b G1 ).
When r <r G1 , r 221 (x 221 , y 221 ) is increased by the variation s (i). When r 221 (x 221 , y 221 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G1 , r 221 (x 221 , y 221 ) is reduced by the variation s (i). If r 221 (x 221 , y 221 ) falls below r MIN after the reduction, it is set as r MIN .
When g <g G1 , g 221 (x 221 , y 221 ) is increased by the variation s (i). When g 221 (x 221 , y 221 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G1 , g 221 (x 221 , y 221 ) is reduced by the variation s (i). When g 221 (x 221 , y 221 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G1 , b 221 (x 221 , y 221 ) is increased by the variation s (i). When b 221 (x 221 , y 221 ) exceeds b MAX after the increase, b MAX is set.
When b> b G1 , b 221 (x 221 , y 221 ) is reduced by the variation s (i). If b 221 (x 221 , y 221 ) falls below b MIN after the reduction, b MIN is set.

なお、映像投映範囲が重なる部分であるマスク326上に座標(x221,y221)があるとき、前記変分s(i)の代わりに、ρs(i)(ρは0<ρ<1を満たす実数)を用いてもよい。ρの値は、例えばρ=0.5や、映像投映範囲が重なり始めた箇所からの距離に応じて変動する値などを用いるとよい。 When the coordinates (x 221 , y 221 ) are on the mask 326 where the video projection range overlaps, ρ L s (i) (ρ L is 0 <ρ instead of the variation s (i). A real number satisfying L <1) may be used. The value of [rho L is, for example, a [rho L = 0.5, or the like may be used value that varies according to the distance from the point where the range movies PICTURE began overlap.

映像投映範囲212に関して、映像投映範囲211と同様にして、以下のように、画素比較・更新をする。
整数x222、y222に関し、0≦x222<wP2、0≦y222<hP2を満たす(x222,y222)に対応する撮影範囲座標を(x340,y340)とすると、図8のように数16の関係がある。
As for the video projection range 212, the pixel comparison / update is performed as follows in the same manner as the video projection range 211.
Assuming that the shooting range coordinates corresponding to (x 222 , y 222 ) satisfying 0 ≦ x 222 <w P2 and 0 ≦ y 222 <h P2 with respect to the integers x 222 and y 222 are (x 340 , y 340 ), FIG. As shown in FIG.

Figure 2009021771
画像340の座標(x340,y340)の色(r,g,b)は、数15で定まる。
色(r,g,b)と目標色(rG1,gG1,bG1)を比較する。
r<rG1のとき、r222(x222,y222)を変分s(i)だけ増やす。増やした後にr222(x222,y222)がrMAXを超えたときはrMAXとする。
r>rG1のとき、r222(x222,y222)を変分s(i)だけ減らす。減らした後にr222(x222,y222)がrMINを下回るときはrMINとする。
g<gG1のとき、g222(x222,y222)を変分s(i)だけ増やす。増やした後にg222(x222,y222)がgMAXを超えたときはgMAXとする。
g>gG1のとき、g222(x222,y222)を変分s(i)だけ減らす。減らした後にg222(x222,y222)がgMINを下回るときはgMINとする。
b<bG1のとき、b222(x222,y222)を変分s(i)だけ増やす。増やした後にb222(x222,y222)がbMAXを超えたときはbMAXとする。
b>bG1のとき、b222(x222,y222)を変分s(i)だけ減らす。減らした後にb222(x222,y222)がbMINを下回るときはbMINとする。
Figure 2009021771
The color (r, g, b) of the coordinates (x 340 , y 340 ) of the image 340 is determined by Equation 15.
The color (r, g, b) is compared with the target color (r G1 , g G1 , b G1 ).
When r <r G1 , r 222 (x 222 , y 222 ) is increased by the variation s (i). When r 222 (x 222 , y 222 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G1 , r 222 (x 222 , y 222 ) is reduced by the variation s (i). If r 222 (x 222 , y 222 ) falls below r MIN after the decrease, it is set as r MIN .
When g <g G1 , g 222 (x 222 , y 222 ) is increased by the variation s (i). When g 222 (x 222 , y 222 ) exceeds g MAX after the increase, it is set as g MAX .
When g> g G1 , g 222 (x 222 , y 222 ) is reduced by the variation s (i). If g 222 (x 222 , y 222 ) falls below g MIN after the decrease, it is set as g MIN .
When b <b G1 , b 222 (x 222 , y 222 ) is increased by the variation s (i). If b 222 (x 222 , y 222 ) exceeds b MAX after the increase, b MAX is set.
When b> b G1 , b 222 (x 222 , y 222 ) is reduced by the variation s (i). If b 222 (x 222 , y 222 ) falls below b MIN after the reduction, b MIN is set.

なお、映像投映範囲が重なる部分であるマスク326上に座標(x222,y222)があるとき、前記変分s(i)の代わりに、σs(i)(σは0<σ<1を満たす実数)を用いてもよい。σの値は、例えばσ=1−ρを用いるとよい。 When the coordinates (x 222 , y 222 ) are on the mask 326 where the video projection range overlaps, instead of the variation s (i), σ L s (i) (σ L is 0 <σ A real number satisfying L <1) may be used. The value of sigma L is for example the use of σ L = 1-ρ L.

S12470で、iとNの大きさを比較し、i<NのときはS12480に進み、i<Nでなかったときは、S12400を終了する。S12480で、iの値をプラス1し、次のS12440に戻ってループする。S12440に戻るときに、画像221と222に、それぞれ平滑化フィルタをかけてもよい。
S12440〜12480の手順を繰り返すことで、撮影画像340において、映像投映範囲211、212が写っている領域の色が、目標色(rG1,gG1,bG1)に近づいていく。
S12400が終了した時点の画像221と222が、撮影部301における、合わせたい色(r,g,b)の仮補正データである。
In S12470, the sizes of i and N are compared. When i <N, the process proceeds to S12480, and when i <N is not satisfied, S12400 is terminated. In S12480, the value of i is incremented by 1, and the process returns to the next S12440 to loop. When returning to S12440, a smoothing filter may be applied to the images 221 and 222, respectively.
By repeating the procedure of S12440 to 12480, the color of the area in which the video projection ranges 211 and 212 are captured in the captured image 340 approaches the target color (r G1 , g G1 , b G1 ).
Images 221 and 222 at the end of S12400 are provisional correction data of the colors (r T , g T , b T ) to be matched in the photographing unit 301.

次に、撮影部302での幾何調整処理(S210)について説明する。
映像投映範囲212と213が互いに隣り合う領域を、撮影部302の撮影範囲312が含むように、撮影部302の撮影姿勢を決める。撮影部302は、撮影部301と特性が近いものが望ましい。ここでは、撮影部301を移動して、撮影部302とする。
Next, the geometric adjustment process (S210) in the imaging unit 302 will be described.
The shooting posture of the shooting unit 302 is determined so that the shooting range 312 of the shooting unit 302 includes a region where the video projection ranges 212 and 213 are adjacent to each other. It is desirable that the photographing unit 302 has characteristics similar to those of the photographing unit 301. Here, the photographing unit 301 is moved to be the photographing unit 302.

図3のように撮影部302が撮影する画像のサイズを、横wC2ピクセル、縦hC2ピクセルとする。
撮影部301を移動して撮影部302としたので、数17のようになる。
As shown in FIG. 3, the size of the image captured by the imaging unit 302 is assumed to be horizontal w C2 pixels and vertical h C2 pixels.
Since the photographing unit 301 is moved to the photographing unit 302, Expression 17 is obtained.

Figure 2009021771
撮影部302が撮影する一連の画像は、レンズ特有の周辺減光を補正した結果の画像であってもよい。同補正を行う場合は、一連の撮影を通じて、撮影部301での撮影と同じ特性の補正を用いるものとする。
映像投映部203が投映する映像の座標をP(xP3,yP3)、撮影部302が撮影する画像の座標をC(xC2,yC2)と表す。映像投映範囲212と213がスクリーン100上で互いに隣り合っており、撮影範囲312がその互いに隣り合う領域を含んでいるので、Pの集合とPの集合とCの集合には、互いに写像の関係がある。
Figure 2009021771
The series of images photographed by the photographing unit 302 may be an image obtained as a result of correcting the peripheral darkening specific to the lens. In the case of performing the correction, it is assumed that correction with the same characteristics as the shooting by the shooting unit 301 is used through a series of shootings.
The coordinates of the video projected by the video projection unit 203 are represented as P 3 (x P3 , y P3 ), and the coordinates of the image captured by the imaging unit 302 are represented as C 2 (x C2 , y C2 ). Since the image projection ranges 212 and 213 are adjacent to each other on the screen 100 and the shooting range 312 includes the adjacent regions, the set of P 2 , the set of P 3 , and the set of C 2 include There is a mapping relationship.

の集合からCの集合への写像をfC2P2、Pの集合からCの集合への写像をfC2P3と表し、Cの集合からPの集合への写像をf−1 C2P2、Cの集合からPの集合への写像をf−1 C2P3と表す。
これらの写像と座標の関係を表したのが、数18である。
The mapping from a set of P 2 to a collection of C 2 f C2P2, represents a set of P 3 a mapping to a set of C 2 and f C2P3, a mapping from the set of C 2 to a set of P 2 f -1 C2P2, represents a collection of C 2 to mapping to a set of P 3 and f -1 C2P3.
Expression 18 represents the relationship between these maps and coordinates.

Figure 2009021771
図9のように、撮影領域312の内、映像投映範囲212が占める領域をマスク352とし、撮影領域312の内、映像投映範囲213が占める範囲をマスク353とする。
マスク352と353を撮影部302の座標C(xC2,yC2)の関数mC2P2、mC2P3でそれぞれ数19のように定義する。
Figure 2009021771
As shown in FIG. 9, the area occupied by the video projection range 212 in the shooting area 312 is referred to as a mask 352, and the area occupied by the video projection range 213 in the shooting area 312 is referred to as a mask 353.
The masks 352 and 353 are defined by the functions m C2P2 and m C2P3 of the coordinates C 2 (x C2 , y C2 ) of the imaging unit 302 as shown in Equation 19, respectively.

Figure 2009021771
例えば、特開2005−51375公報に記載された方法を用いて、撮影部202から投映したテストパターンを撮影部302で撮影し、データ処理部400で処理すると、fC2P2とf−1 C2P2とmC2P2を定義できる。同様に、同公報に記載の方法を用いて、撮影部203から投映したテストパターンを撮影部302で撮影し、データ処理部400で処理すると、fC2P3とf−1 C2P3とmC2P3を定義できる。
Figure 2009021771
For example, when a test pattern projected from the photographing unit 202 is photographed by the photographing unit 302 and processed by the data processing unit 400 using the method described in Japanese Patent Laid-Open No. 2005-51375, f C2P2 , f −1 C2P2 and m C2P2 can be defined. Similarly, when the test pattern projected from the photographing unit 203 is photographed by the photographing unit 302 and processed by the data processing unit 400 using the method described in the publication, f C2P3 , f −1 C2P3, and m C2P3 can be defined. .

ここで、後の演算で用いるため、マスク352と353のOR領域をマスク355、AND領域をマスク356とし、マスク355からマスク356を除いた領域をマスク357とする。
マスク355、356、357を撮影部302の座標C(xC2,yC2)の関数m355、m356、m357で表すと、数20のようになる。
Here, the OR region of the masks 352 and 353 is referred to as a mask 355, the AND region is referred to as a mask 356, and the region obtained by removing the mask 356 from the mask 355 is referred to as a mask 357 for use in later calculations.
When the masks 355 , 356 , and 357 are expressed by functions m 355 , m 356 , and m 357 of the coordinates C 2 (x C2 , y C2 ) of the imaging unit 302, the following Expression 20 is obtained.

Figure 2009021771
次に、図10を参照して、撮影部302での明るさ・色調整処理(S220)について説明する。
なお、合わせたい色の数とそれぞれの合わせたい色の値は、S120と同じとする。この例では、合わせたい色は1つで、色(r,g,b)となる。
S22100で、合わせたい色が残っている場合にはS22200に進み、残っていない場合には終了する。
S22200では、露出設定処理をする。S21000と同じ撮影姿勢に保ったまま、撮影部301の露出(絞り、シャッタースピード)を、S12200と同じ値に固定する。
Figure 2009021771
Next, the brightness / color adjustment processing (S220) in the photographing unit 302 will be described with reference to FIG.
Note that the number of colors to be matched and the value of each color to be matched are the same as in S120. In this example, there is one color to be combined, and the color (r T , g T , b T ).
If it is determined in S22100 that the color to be matched remains, the process proceeds to S22200, and if not, the process ends.
In S22200, exposure setting processing is performed. The exposure (aperture and shutter speed) of the photographing unit 301 is fixed to the same value as in S12200 while maintaining the same photographing posture as in S21000.

ここで、第二の目標色決定処理(S22300)について、図11を参照して説明する。
S22310で、合わせたい色が黒(0,0,0)の場合にはS22330に進み、黒以外の場合にはS22320に進む。
S22320で、合わせたい色が白(255,255,255)の場合にはS22340に進み、白以外の場合にはS22350に進む。
Here, the second target color determination process (S22300) will be described with reference to FIG.
If the color to be matched is black (0, 0, 0) in S22310, the process proceeds to S22330, and if it is not black, the process proceeds to S22320.
In S22320, if the color to be matched is white (255, 255, 255), the process proceeds to S22340, and if it is not white, the process proceeds to S22350.

第二の目標色決定用画像を画像360とし、画像360の座標C(xC2,yC2)の色を(r360(xC2,yC2),g360(xC2,yC2),b360(xC2,yC2))と表す。r360、g360、b360の値には、S22330か22340か22350のいずれかの撮影結果が入る。 The image for determining the second target color is an image 360, and the colors of the coordinates C 2 (x C2 , y C2 ) of the image 360 are (r 360 (x C2 , y C2 ), g 360 (x C2 , y C2 ), b 360 (x C2 , y C2 )). Any of the imaging results of S22330, 22340, or 22350 is entered in the values of r 360 , g 360 , and b 360 .

黒の場合の、第二の目標色決定処理(S22330)について、以下説明する。
黒色(0,0,0)のべた画像を映像投映部202、203からそれぞれ表示し、スクリーンに映った投映範囲212、213の様子を撮影部302で撮影して、撮影された目標色決定用画像である画像360を保存する。ここで、撮影部201または202が撮影した画像の値(r,g,b)を、光量比例な値(R,G,B)に変換する変換lを考えると、数21の関係がある。
The second target color determination process (S22330) in the case of black will be described below.
A black (0, 0, 0) solid image is displayed from each of the video projection units 202 and 203, and the state of the projection ranges 212 and 213 reflected on the screen is photographed by the photographing unit 302, and the photographed target color is determined. The image 360 that is an image is stored. Here, considering the conversion 1 for converting the value (r, g, b) of the image photographed by the photographing unit 201 or 202 into a value (R, G, B) proportional to the amount of light, there is a relationship of Equation 21.

Figure 2009021771
ただし、R、G、Bの値の範囲は数22とする。
Figure 2009021771
However, the range of values of R, G, and B is represented by Equation 22.

Figure 2009021771
撮影部201、202が色空間の国際標準規格であるsRGBに準拠していれば、変換lとl−1を数23のように定義できる。
Figure 2009021771
If the photographing units 201 and 202 conform to sRGB, which is an international standard for color space, the conversions l and l −1 can be defined as in Expression 23.

Figure 2009021771
数23の変換を使う代わりに、予め撮影部201と202をキャリブレーションして変換lを求めておいてもよい。
数24のように、先のS12330で定まった、合わせたい色である黒色に対する第一の目標色(rG1,gG1,bG1)を変換lで変換し、その値を(RG1,GG1,BG1)とする。
Figure 2009021771
Instead of using the transformation of Equation 23, the imaging units 201 and 202 may be calibrated in advance to obtain the transformation l.
As shown in Equation 24, the first target color (r G1 , g G1 , b G1 ) for black, which is the color to be matched, determined in the previous S12330 is converted by the conversion l, and the value is converted to (R G1 , G G1 , B G1 ).

Figure 2009021771
画像360を画素ごとに変換lで変換した画像を画像370とし、画像370の座標C(xC2,yC2)の値を(R370(xC2,yC2),G370(xC2,yC2),B370(xC2,yC2))とすると、数25の関係がある。
Figure 2009021771
An image obtained by converting the image 360 by pixel conversion 1 is an image 370, and the values of the coordinates C 2 (x C2 , y C2 ) of the image 370 are (R 370 (x C2 , y C2 ), G 370 (x C2 , y C2 ), B 370 (x C2 , y C2 )), there is a relationship of Equation 25.

Figure 2009021771
355(x,y)=1を満たす全ての座標(x,y)の色のうち、緑成分g360(x,y)の値の大きさが上位0.05%に含まれる色を除いた色全てに対して、数26を満たす最小のαを求める。
Figure 2009021771
Of the colors of all coordinates (x, y) satisfying m 355 (x, y) = 1, except for the color whose magnitude of the value of the green component g 360 (x, y) is included in the upper 0.05% For all the colors, the minimum α satisfying Equation 26 is obtained.

Figure 2009021771
上位0.05%に含まれる色を除いているのは、撮影した画像のノイズや撮影部の素子不足などによる輝点の悪影響を避けるためである。もちろん、0.05%の値は違う値でもよい。
数27のように、このときの値(αRG1,αGG1,αBG1)を変換l−1で変換した色を第二の目標色(rG2,gG2,bG2)とする。
Figure 2009021771
The reason why the colors included in the upper 0.05% are excluded is to avoid adverse effects of bright spots due to noise in the captured image and insufficient elements in the imaging unit. Of course, a value of 0.05% may be different.
As shown in Equation 27, a value obtained by converting the values at this time (αR G1 , αG G1 , αB G1 ) by the conversion l −1 is set as a second target color (r G2 , g G2 , b G2 ).

Figure 2009021771
以上の手順により、第一の目標色と明るさは異なっても色相を保ったまま第二の目標色を決定することができる。人の目は、色相の変化には敏感でも、明るさの変化には鈍いので、本方法は有効である。
Figure 2009021771
By the above procedure, the second target color can be determined while maintaining the hue even if the brightness is different from the first target color. This method is effective because the human eye is sensitive to changes in hue but is not sensitive to changes in brightness.

次に、白の場合の、第二の目標色決定処理(S22340)について説明する。
白色(255,255,255)のべた画像を映像投映部202、203からそれぞれ表示し、スクリーンに映った投映範囲212、213の様子を撮影部302で撮影して、撮影された目標色決定用画像である画像360を保存する。
数24のように、先のS12340で定まった、合わせたい色である白色に対する第一の目標色(rG1,gG1,bG1)を変換lで変換し、その値を(RG1,GG1,BG1)とする。
画像360を画素ごとに変換lで変換した画像を画像370とすると、画像370の座標C(xC2,yC2)の値(R370(xC2,yC2),G370(xC2,yC2),B370(xC2,yC2))は数25のようになる。
355(x,y)=1を満たす全ての座標(x,y)の色のうち、緑成分g360(x,y)の値の大きさが下位0.5%に含まれる色を除いた色全てに対して、数28を満たす最大のβを求める。
Next, the second target color determination process (S22340) in the case of white will be described.
White (255, 255, 255) solid images are respectively displayed from the video projection units 202 and 203, and the projection areas 212 and 213 reflected on the screen are photographed by the photographing unit 302, and the photographed target color is determined. The image 360 that is an image is stored.
As shown in Equation 24, the first target color (r G1 , g G1 , b G1 ) for white that is the color to be matched, determined in the previous S12340, is converted by the conversion l, and the value is converted to (R G1 , G G1 , B G1 ).
Assuming that an image obtained by converting the image 360 by the conversion 1 for each pixel is an image 370, the values of the coordinates C 2 (x C2 , y C2 ) of the image 370 (R 370 (x C2 , y C2 ), G 370 (x C2 , y C2 ), B 370 (x C2 , y C2 )) are as shown in Equation 25.
Of the colors of all coordinates (x, y) satisfying m 355 (x, y) = 1, the color whose magnitude of the value of the green component g 360 (x, y) is included in the lower 0.5% is excluded. For all the colors, the maximum β satisfying Equation 28 is obtained.

Figure 2009021771
上位0.5%に含まれる色を除いているのは、撮影した画像のノイズや撮影部の素子不足などによる暗点の悪影響を避けるためである。もちろん、0.5%の値は違う値でもよい。
数28のように、このときの値(βRG1,βGG1,βBG1)を変換l−1で変換した色を第二の目標色(rG2,gG2,bG2)とする。
Figure 2009021771
The reason why the colors included in the upper 0.5% are excluded is to avoid the adverse effects of dark spots due to noise in the captured image and insufficient elements in the imaging unit. Of course, a value of 0.5% may be different.
As in Equation 28, the value of this time (βR G1, βG G1, βB G1) color converted by converting l -1 a second target color (r G2, g G2, b G2) and.

Figure 2009021771
以上の手順により、第一の目標色と明るさは異なっても色相を保ったまま第二の目標色を決定することができる。
Figure 2009021771
By the above procedure, the second target color can be determined while maintaining the hue even if the brightness is different from the first target color.

次に、通常の場合の、第二の目標色決定処理(S22350)について説明する。
先のS12350で定まった、合わせたい色に対する第一の目標色が(rG1,gG1,bG1)であるとき、第二の目標色(rG2,gG2,bG2)を、数30で定める。
Next, the second target color determination process (S2350) in the normal case will be described.
When the first target color for the color to be matched, which is determined in the previous S12350, is (r G1 , g G1 , b G1 ), the second target color (r G2 , g G2 , b G2 ) is expressed by Equation 30. Determined by

Figure 2009021771
次に、図12を参照して、フィードバックループ処理(S22400)について説明する。
S22410で、整数iを変数とし、iの値を1とする。S22420で、数列sをS12420と同じく数11とする。
横wP2ピクセル、縦hP2ピクセルのサイズのフィードバックループ用投映画像を画像232とし、画像232の座標(xP2,yP2)の色を(r232(xP2,yP2),g232(xP2,yP2),b232(xP2,yP2))と定義する。また、横wP3ピクセル、縦hP3ピクセルのサイズのフィードバックループ用投映画像を画像233とし、画像233の座標(xP3,yP3)の色を(r233(xP3,yP3),g233(xP3,yP3),b233(xP3,yP3))と定義する。
Figure 2009021771
Next, the feedback loop process (S22400) will be described with reference to FIG.
In S22410, the integer i is a variable and the value of i is 1. In S22420, the number sequence s is set to Equation 11 as in S12420.
A projected image for a feedback loop having a size of horizontal w P2 pixels and vertical h P2 pixels is an image 232, and the color of the coordinates (x P2 , y P2 ) of the image 232 is (r 232 (x P2 , y P2 ), g 232 ( x P2 , y P2 ), b 232 (x P2 , y P2 )). Also, a projected image for feedback loop having a size of horizontal w P3 pixels and vertical h P3 pixels is set as an image 233, and the color of the coordinates (x P3 , y P3 ) of the image 233 is set to (r 233 (x P3 , y P3 ), g 233 (x P3 , y P3 ), b 233 (x P3 , y P3 )).

S22430で、フィードバックループ用各投映画像の初期値設定をする。
画像232、233を黒画像とし、初期値を数31のように設定する。
In S22430, initial values of the projected images for the feedback loop are set.
The images 232 and 233 are black images, and initial values are set as shown in Equation 31.

Figure 2009021771
S22440で、画像232を投映部202から表示し、画像233を投映部203から表示し、スクリーンに映った投映範囲212、213の様子を撮影部302で撮影して、撮影されたフィードバックループ用画像である画像380を保存する。
画像380は横wC2ピクセル、縦hC2ピクセルのサイズであり、画像380の座標(xC2,yC2)の色を(r380(xC2,yC2),g380(xC2,yC2),b380(xC2,yC2))と表す。r380、g380、b380の値に関し、横wC2ピクセル、縦hC2ピクセルのサイズを超える部分について、数32のように定義する。
Figure 2009021771
In S22440, the image 232 is displayed from the projection unit 202, the image 233 is displayed from the projection unit 203, and the state of the projection ranges 212 and 213 reflected on the screen is photographed by the photographing unit 302. The image 380 is saved.
The image 380 has a size of horizontal w C2 pixel and vertical h C2 pixel, and the color of the coordinates (x C2 , y C2 ) of the image 380 is (r 380 (x C2 , y C2 ), g 380 (x C2 , y C2). ), B 380 (x C2 , y C2 )). Regarding the values of r 380 , g 380 , and b 380 , the portion exceeding the size of the horizontal w C2 pixel and the vertical h C2 pixel is defined as in Expression 32.

Figure 2009021771
S22450で、画像380に映っている映像投映範囲212、213の画素の比較・更新をする。
映像投映範囲212に関して、以下のように、画素比較・更新をする。
0≦x232<wP2、0≦y232<hP2を満たす整数x232、y232に関し、(x232,y232)に対応する撮影範囲座標を(x380,y380)とすると、図13のように数33の関係がある。
Figure 2009021771
In step S22450, the pixels in the video projection ranges 212 and 213 shown in the image 380 are compared and updated.
As for the video projection range 212, pixel comparison / update is performed as follows.
With respect to the integers x 232 and y 232 that satisfy 0 ≦ x 232 <w P2 and 0 ≦ y 232 <h P2 , assuming that the shooting range coordinates corresponding to (x 232 , y 232 ) are (x 380 , y 380 ), FIG. As shown in FIG.

Figure 2009021771
380やy380は常に整数となるとは限らないので、画像380の座標(x380,y380)の色(r,g,b)を、バイリニア方式で、図14のように4近傍の画素を用いて、数34のように定義する。
Figure 2009021771
Since x 380 and y 380 are not always integers, the colors (r, g, b) of the coordinates (x 380 , y 380 ) of the image 380 are represented by four neighboring pixels as shown in FIG. Is defined as shown in Equation 34.

Figure 2009021771
色(r,g,b)と目標色(rG2,gG2,bG2)を比較する。
r<rG2のとき、r232(x232,y232)を変分s(i)だけ増やす。増やした後にr232(x232,y232)がrMAXを超えたときはrMAXとする。
r>rG2のとき、r232(x232,y232)を変分s(i)だけ減らす。減らした後にr232(x232,y232)がrMINを下回るときはrMINとする。
g<gG2のとき、g232(x232,y232)を変分s(i)だけ増やす。増やした後にg232(x232,y232)がgMAXを超えたときはgMAXとする。
g>gG2のとき、g232(x232,y232)を変分s(i)だけ減らす。減らした後にg232(x232,y232)がgMINを下回るときはgMINとする。
b<bG2のとき、b232(x232,y232)を変分s(i)だけ増やす。増やした後にb232(x232,y232)がbMAXを超えたときはbMAXとする。
b>bG2のとき、b232(x232,y232)を変分s(i)だけ減らす。減らした後にb232(x232,y232)がbMINを下回るときはbMINとする。
Figure 2009021771
The color (r, g, b) is compared with the target color (r G2 , g G2 , b G2 ).
When r <r G2 , r 232 (x 232 , y 232 ) is increased by the variation s (i). When r 232 (x 232 , y 232 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G2 , r 232 (x 232 , y 232 ) is reduced by the variation s (i). If r 232 (x 232 , y 232 ) falls below r MIN after the decrease, it is set to r MIN .
When g <g G2 , g 232 (x 232 , y 232 ) is increased by the variation s (i). When g 232 (x 232 , y 232 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G2 , g 232 (x 232 , y 232 ) is reduced by the variation s (i). When g 232 (x 232 , y 232 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G2 , b 232 (x 232 , y 232 ) is increased by the variation s (i). If b 232 (x 232 , y 232 ) exceeds b MAX after the increase, b MAX is set.
When b> b G2 , b 232 (x 232 , y 232 ) is reduced by the variation s (i). If b 232 (x 232 , y 232 ) falls below b MIN after the reduction, b MIN is set.

なお、映像投映範囲が重なる部分上に座標(x232,y232)があるとき、前記変分s(i)の代わりに、ρs(i)(ρは0<ρ<1を満たす実数)を用いてもよい。ρの値は、例えばρ=0.5や、映像投映範囲が重なり始めた箇所からの距離に応じて変動する値などを用いる。 When the coordinates (x 232 , y 232 ) are on the portion where the video projection range overlaps, ρ R s (i) (ρ R is 0 <ρ R <1 instead of the variation s (i). (Real number to satisfy) may be used. The value of [rho R is, for example [rho R = 0.5 or the like value that varies according to the distance from the point where the range began overlap movies PICTURE.

映像投映範囲213に関して、映像投映範囲212と同様にして、以下のように、画素比較・更新をする。
整数x233、y233に関し、0≦x233<wP2、0≦y233<hP2を満たす(x233,y233)に対応する撮影範囲座標を(x380,y380)とすると、図13のように数35の関係がある。
Regarding the video projection range 213, pixel comparison / update is performed as follows in the same manner as the video projection range 212.
Assuming that the shooting range coordinates corresponding to (x 233 , y 233 ) satisfying 0 ≦ x 233 <w P2 and 0 ≦ y 233 <h P2 regarding the integers x 233 and y 233 are (x 380 , y 380 ), FIG. As shown in FIG.

Figure 2009021771
画像380の座標(x380,y380)の色(r,g,b)は、数34で定まる。
色(r,g,b)と目標色(rG2,gG2,bG2)を比較する。
r<rG2のとき、r233(x233,y233)を変分s(i)だけ増やす。増やした後にr233(x233,y233)がrMAXを超えたときはrMAXとする。
r>rG2のとき、r233(x233,y233)を変分s(i)だけ減らす。減らした後にr233(x233,y233)がrMINを下回るときはrMINとする。
g<gG2のとき、g233(x233,y233)を変分s(i)だけ増やす。増やした後にg233(x233,y233)がgMAXを超えたときはgMAXとする。
g>gG2のとき、g233(x233,y233)を変分s(i)だけ減らす。減らした後にg233(x233,y233)がgMINを下回るときはgMINとする。
b<bG2のとき、b233(x233,y233)を変分s(i)だけ増やす。増やした後にb233(x233,y233)がbMAXを超えたときはbMAXとする。
b>bG2のとき、b233(x233,y233)を変分s(i)だけ減らす。減らした後にb233(x233,y233)がbMINを下回るときはbMINとする。
Figure 2009021771
The color (r, g, b) of the coordinates (x 380 , y 380 ) of the image 380 is determined by Equation 34.
The color (r, g, b) is compared with the target color (r G2 , g G2 , b G2 ).
When r <r G2 , r 233 (x 233 , y 233 ) is increased by the variation s (i). When r 233 (x 233 , y 233 ) exceeds r MAX after the increase, it is set as r MAX .
When r> r G2 , r 233 (x 233 , y 233 ) is reduced by the variation s (i). If r 233 (x 233 , y 233 ) falls below r MIN after the decrease, it is set to r MIN .
When g <g G2 , g 233 (x 233 , y 233 ) is increased by the variation s (i). When g 233 (x 233 , y 233 ) exceeds g MAX after increasing, it is set as g MAX .
When g> g G2 , g 233 (x 233 , y 233 ) is reduced by the variation s (i). If g 233 (x 233 , y 233 ) falls below g MIN after the reduction, it is set as g MIN .
When b <b G2 , b 233 (x 233 , y 233 ) is increased by the variation s (i). When b 233 (x 233 , y 233 ) exceeds b MAX after the increase, b MAX is set.
When b> b G2 , b 233 (x 233 , y 233 ) is reduced by the variation s (i). If b 233 (x 233 , y 233 ) falls below b MIN after the reduction, b MIN is set.

なお、映像投映範囲が重なる部分上に座標(x233,y233)があるとき、前記変分s(i)の代わりに、σs(i)(σは0<σ<1を満たす実数)を用いてもよい。σの値は、例えばσ=1−ρを用いるとよい。
S22470で、iとNの大きさを比較し、i<Nのときは、S22480に進み、i<Nでなかったときは、S22400を終了する。S22480で、iの値をプラス1し、次のS22440に戻ってループする。なお、S22440に戻るときに、画像232と233に、それぞれ平滑化フィルタをかけてもよい。
When the coordinates (x 233 , y 233 ) are on the portion where the video projection range overlaps, σ R s (i) (σ R is 0 <σ R <1 instead of the variation s (i). (Real number to satisfy) may be used. The value of sigma R may, for example the use of σ R = 1-ρ R.
In S22470, the sizes of i and N are compared. If i <N, the process proceeds to S22480, and if i <N, S22400 is terminated. In S22480, the value of i is incremented by 1, and the process returns to the next S22440 to loop. When returning to S22440, a smoothing filter may be applied to each of the images 232 and 233.

このように、S22440〜22480の手順を繰り返すことで、撮影画像380において、映像投映範囲212、213が写っている領域の色が、目標色(rG2,gG2,bG2)に近づいていく。S22400が終了した時点の画像232と233が、撮影部302における、合わせたい色(r,g,b)の仮補正データである。
以上の手順により、それぞれの撮影箇所に対応する仮補正データが求まった。これにより、本発明の1つの特徴である、投映部202の仮補正データである画像222と画像232を滑らかに接続することができる。
In this manner, by repeating the procedure of S22440 to 22480, the color of the area in which the video projection ranges 212 and 213 are captured in the captured image 380 approaches the target color (r G2 , g G2 , b G2 ). . The images 232 and 233 at the time when S22400 ends are temporary correction data of the colors (r T , g T , b T ) to be matched in the photographing unit 302.
Through the above procedure, provisional correction data corresponding to each photographing location was obtained. Thereby, the image 222 and the image 232, which are temporary correction data of the projection unit 202, which is one feature of the present invention, can be smoothly connected.

次に、図15を参照して、領域の分類の処理(S300)について説明する。
マスク変換の処理(S31000)について説明する。この処理は、図16に示すように、マスク321をf−1 C1P2で写像した領域をマスク421とすると、マスク421は映像投映範囲212のうち撮影範囲301に写っていた映像投映範囲211が占める領域を表す。
マスク322をf−1 C1P2で写像した領域をマスク422とすると、マスク422は映像投映範囲212のうち撮影範囲301に写っていた映像投映範囲212が占める領域を表す。マスク332をf−1 C2P2で写像した領域をマスク432とすると、マスク432は映像投映範囲212のうち撮影範囲302に写っていた映像投映範囲212が占める領域を表す。マスク333をf−1 C2P2で写像した領域をマスク433とすると、マスク433は映像投映範囲212のうち撮影範囲302に写っていた映像投映範囲213が占める領域を表す。
マスク421、422、432、433を、映像投映部202の座標P(xP2,yP2)の関数m421、m422、m432、m433でそれぞれ表すと、数36のようになる。
Next, the region classification processing (S300) will be described with reference to FIG.
The mask conversion process (S31000) will be described. In this process, as shown in FIG. 16, when the area mapped from the mask 321 with f −1 C1P2 is the mask 421, the mask 421 occupies the video projection range 211 that was captured in the shooting range 301 in the video projection range 212. Represents an area.
Assuming that an area obtained by mapping the mask 322 with f −1 C1P2 is a mask 422, the mask 422 represents an area occupied by the video projection range 212 in the imaging range 301 in the video projection range 212. Assuming that an area obtained by mapping the mask 332 with f −1 C2P2 is a mask 432, the mask 432 represents an area occupied by the video projection range 212 that was captured in the shooting range 302 in the video projection range 212. Assuming that an area obtained by mapping the mask 333 with f −1 C2P2 is a mask 433, the mask 433 represents an area occupied by the video projection range 213 in the imaging range 302 in the video projection range 212.
When the masks 421 , 422 , 432 , and 433 are expressed by functions m 421 , m 422 , m 432 , and m 433 of the coordinates P 2 (x P2 , y P2 ) of the video projection unit 202, respectively, Expression 36 is obtained.

Figure 2009021771
次に、第一の基準線算出の処理(S32000)について説明する。
第一の基準線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数z(y)で表す。関数z(y)を決める手順を図17に示す。
S32100で、yの値を0とする。S32200で、xの値をwP2−1とする。S32300で、(x,y)がマスク422上にあるかどうかを判定し、マスク422上にあるときS32400に進み、マスク422上にないときS32500に進む。
Figure 2009021771
Next, the first reference line calculation process (S32000) will be described.
The first reference line is represented by a function z L (y) in which one x-coordinate value is determined for each y-coordinate of the video projection range 212. The procedure for determining the function z L (y) is shown in FIG.
In S32100, the value of y is set to 0. In S32200, the value of x is set to w P2 −1. In step S32300, it is determined whether (x, y) is on the mask 422. If it is on the mask 422, the process proceeds to step S32400, and if it is not on the mask 422, the process proceeds to step S32500.

422(x,y)の値が1のとき(x,y)がマスク422上にあるとし、m422(x,y)の値が0のとき(x,y)がマスク422上にないとする。S32400で、z(y)の値をxとし、S32800に進む。S32500で、xの値をマイナス1する。S32600で、x≧0かどうかを調べ、x≧0であるときはS32300に戻り、x≧0でないときはS32700に進む。
S32700で、z(y)の値を0とする。S32800で、yの値をプラス1する。S32900で、y<hP2かどうかを調べ、y<hP2であるときはS32200に戻り、y<hP2でないときはS32000を終了する。
When the value of m 422 (x, y) is 1, (x, y) is on the mask 422, and when the value of m 422 (x, y) is 0, (x, y) is not on the mask 422. And In S32400, the value of z L (y) is set to x, and the process proceeds to S32800. In S32500, the value of x is decremented by one. In S32600, it is checked whether x ≧ 0. If x ≧ 0, the process returns to S32300, and if x ≧ 0, the process proceeds to S32700.
In S32700, the value of z L (y) is set to zero. In S32800, the value of y is incremented by one. In S32900, it is checked whether y <h P2 or not. If y <h P2 , the flow returns to S32200, and if y <h P2 , the flow ends S32000.

次に、第二の基準線算出の処理(S33000)について説明する。
第二の基準線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数z(y)で表す。関数z(y)を決める手順を図18に示す。
S33100で、yの値を0とする。S33200で、xの値を0とする。S33300で、(x,y)がマスク432上にあるかどうかを判定し、マスク432上にあるときS33400に進み、マスク432上にないときS33500に進む。
432(x,y)の値が1のとき(x,y)がマスク432上にあるとし、m432(x,y)の値が0のとき(x,y)がマスク432上にないとする。
Next, the second reference line calculation process (S33000) will be described.
The second reference line is represented by a function z R (y) in which one x-coordinate value is determined for each y-coordinate of the video projection range 212. The procedure for determining the function z R (y) is shown in FIG.
In S33100, the value of y is set to 0. In S33200, the value of x is set to 0. In S33300, it is determined whether (x, y) is on the mask 432. If it is on the mask 432, the process proceeds to S33400, and if it is not on the mask 432, the process proceeds to S33500.
When the value of m 432 (x, y) is 1, (x, y) is on the mask 432, and when the value of m 432 (x, y) is 0, (x, y) is not on the mask 432. And

S33400で、z(y)の値をxとし、S33800に進む。S33500で、xの値をプラス1する。S33600で、x<wP2かどうかを調べ、x<wP2であるときはS33300に戻り、x<wP2でないときはS33700に進む。S33700で、z(y)の値をwP2−1とする。S33800で、yの値をプラス1する。
S33900で、y<hP2かどうかを調べ、y<hP2であるときはS33200に戻り、y<hP2でないときはS33000を終了する。
In S33400, the value of z R (y) is set to x, and the process proceeds to S33800. In S33500, the value of x is incremented by one. In S33600, examined whether x <w P2, return to S33300 is when it is x <w P2, when it is not x <w P2 proceeds to S33700. In S33700, the value of z R (y) is set to w P2 −1. In S33800, the value of y is incremented by one.
In S33900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S33200, and if y <h P2 , the process ends S33000.

次に、中心線算出の処理(S34000)について説明する。
中心線を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数z(y)で表し、数37のように点(z(y),y)と点(z(y),y)の中点で定義する。
Next, the center line calculation process (S34000) will be described.
The center line is represented by a function z (y) that determines one x-coordinate value for each y-coordinate of the video projection range 212, and the points (z L (y), y) and (z R ( y), defined by the middle point of y).

Figure 2009021771
次に、内挿確定範囲の左端の決定をする処理(S35000)について説明する。
内挿確定範囲の左端を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zMIN(y)で表す。関数zMIN(y)を決める手順を図19に示す。
S35100で、yの値を0とする。aを負でない整数として、強制的に内挿を行う幅を2aピクセルとする。2aピクセルの幅を取ることで、画像222と232を滑らかにつなぐことができる。
の値は、例えば数38とする。
Figure 2009021771
Next, the process (S35000) for determining the left end of the interpolation confirmation range will be described.
The left end of the interpolation fixed range is represented by a function z MIN (y) that determines one x-coordinate value for each y-coordinate of the video projection range 212. The procedure for determining the function z MIN (y) is shown in FIG.
In S35100, the value of y is set to 0. As non-negative integer to a f, to force the width of performing interpolation with 2a f pixels. By taking a width of 2a f pixels, the images 222 and 232 can be smoothly connected.
The value of a f is, for example, Equation 38.

Figure 2009021771
なお、aの値は、ユーザに入力させても構わない。
Figure 2009021771
The value of a f are, it may be input to the user.

S35200で、xの値をz(y)−aとする。S35300で、(x,y)がマスク422上にあるかどうかを判定し、マスク422上にあるときS35400に進み、マスク422上にないときS35500に進む。S35400で、zMIN(y)の値をxとし、S35800に進む。S35500で、xの値をマイナス1する。
S35600で、x≧0かどうかを調べ、x≧0であるときはS35300に戻り、x≧0でないときはS35700に進む。S35700で、zMIN(y)の値を0とする。S35800で、yの値をプラス1する。
S35900で、y<hP2かどうかを調べ、y<hP2であるときはS35200に戻り、y<hP2でないときは、処理S35000を終了する。
In S35200, the values of x z (y) -a f. In S35300, it is determined whether (x, y) is on the mask 422. If it is on the mask 422, the process proceeds to S35400, and if it is not on the mask 422, the process proceeds to S35500. In S35400, the value of z MIN (y) is set to x, and the process proceeds to S35800. In S35500, the value of x is decremented by 1.
In S35600, it is checked whether x ≧ 0. If x ≧ 0, the process returns to S35300, and if x ≧ 0, the process proceeds to S35700. In S35700, the value of z MIN (y) is set to 0. In S35800, the value of y is incremented by one.
In S35900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S35200, and if y <h P2 , the process S35000 is terminated.

次に、内挿確定範囲の右端の決定をする処理(S36000)について説明する。
内挿確定範囲の右端を、映像投映範囲212のy座標ごとに、x座標の値がひとつ決まる関数zMAX(y)で表す。関数zMAX(y)を決める手順を図20に示す。
S36100で、yの値を0とする。S36200で、xの値をz(y)+aとする。S36300で、(x,y)がマスク432上にあるかどうかを判定し、マスク432上にあるときS36400に進み、マスク432上にないときS36500に進む。S36400で、zMAX(y)の値をxとする。
Next, the process (S36000) for determining the right end of the interpolation confirmation range will be described.
The right end of the interpolation fixed range is represented by a function z MAX (y) that determines one x-coordinate value for each y-coordinate of the video projection range 212. The procedure for determining the function z MAX (y) is shown in FIG.
In S36100, the value of y is set to 0. In S36200, the values of x z (y) + a f . In S36300, it is determined whether (x, y) is on the mask 432. If it is on the mask 432, the process proceeds to S36400, and if it is not on the mask 432, the process proceeds to S36500. In S36400, the value of z MAX (y) is set to x.

S36500で、xの値をプラス1する。S36600で、x<wP2かどうかを調べ、x<wP2であるときはS36300に戻り、x<wP2でないときはS36700に進む。S36700で、zMAX(y)の値をwP2−1とする。S36800で、yの値をプラス1する。
S36900で、y<hP2かどうかを調べ、y<hP2であるときはS36200に戻り、y<hP2でないときはS36000を終了する。
In S36500, the value of x is incremented by one. In S36600, examined whether x <w P2, return to S36300 is when it is x <w P2, when it is not x <w P2 proceeds to S36700. In S36700, the value of z MAX (y) is set to w P2 −1. In S36800, the value of y is incremented by one.
In S36900, it is checked whether y <h P2 or not. If y <h P2 , the process returns to S36200, and if y <h P2 , the process ends S36000.

次に、領域の分類処理(S37000)について説明する。
再補正しない方針の領域と、再補正する方針の領域と、再補正するかどうかを状況に応じて変える方針の領域と、に分割する。
スクリーン上で投映領域が重複する領域は、撮影部が撮影した結果の補正データをそのまま使うのが望ましいので、スクリーン上で投映領域が重複する領域を、再補正しない方針の領域とする。再補正しない方針の領域をマスクmで表すと、数39のようになる。
Next, the area classification process (S37000) will be described.
The policy area is divided into a policy area that is not re-corrected, a policy area that is re-corrected, and a policy area that changes whether to re-correct according to the situation.
Since it is desirable to use the correction data obtained as a result of photographing by the photographing unit as it is for the region where the projection region overlaps on the screen, the region where the projection region overlaps on the screen is set as a region where re-correction is not performed. Expressing region of the re-corrected non policies in mask m M, so that the number 39.

Figure 2009021771
内挿確定範囲の左端と右端に挟まれた領域をマスクmINと表すと、数40のようになる。
Figure 2009021771
When a region between the left and right ends of the interpolation definite ranges representing a mask m IN, so the number 40.

Figure 2009021771
ここで、再補正する方針の領域をマスクmで表し、数41で定義する。
Figure 2009021771
Here, the area of the policy to be recorrected is represented by a mask m I and is defined by Equation 41.

Figure 2009021771
再補正しない方針の領域と再補正する方針の領域以外の領域を、再補正するかどうかを状況に応じて変える方針の領域とし、マスクmで表すと、数42のようになる。
Figure 2009021771
When the area other than the policy area to be re-corrected and the area other than the policy area to be re-corrected are policy areas to change whether to re-correct according to the situation, and expressed by the mask m S , the following equation 42 is obtained.

Figure 2009021771
このとき、マスクm、m、mは図21のようになる。
Figure 2009021771
At this time, the masks m M , m I and m S are as shown in FIG.

映像投映部とスクリーンの間に障害物があるなどして、マスクmが3つ以上の領域に分割されているときは、マスクmとして面積が大きい2つの領域のみを残して、それ以外の領域をmに移してもよい。
以上の手順により、撮影範囲が隣接する箇所とその周辺の映像投映範囲が、いずれかの仮補正データを選択して補正データとする領域mとmか、補正データを別途生成する領域mかの少なくとも二種類のいずれかの領域に分割された。
When the mask m S is divided into three or more areas because there is an obstacle between the video projection part and the screen, only the two areas with a large area are left as the mask m S. May be moved to mm.
According to the above procedure, the area m M and m S where the provisional correction data is selected and the correction data is generated are the areas m M and m S in which the shooting range is adjacent and the surrounding video projection range are selected as correction data. I was divided into any one of at least two areas.

次に、図22を参照して、補正データの生成処理(S400)について説明する。
補正画像442の座標(x,y)の画素の色を(r442(x,y),g442(x,y),b442(x,y))とする。
まず、補正画像442の初期値の生成処理(S41000)について、図23により説明する。
S41100で、yの値を0とする。S41200で、xの値を0とする。S41300で、座標(x,y)がマスクm上またはマスクm上にあるかどうかを調べ、ある場合はS41400に、ない場合はS41500に進む。
Next, correction data generation processing (S400) will be described with reference to FIG.
The color of the pixel at the coordinates (x, y) of the corrected image 442 is (r 442 (x, y), g 442 (x, y), b 442 (x, y)).
First, the initial value generation process (S41000) of the corrected image 442 will be described with reference to FIG.
In S41100, the value of y is set to 0. In S41200, the value of x is set to 0. In S41300, the coordinates (x, y) is checked whether on the mask m M or on the mask m S, in certain cases S41400, if not, the process proceeds to S41500.

S41400で、xの値がz(y)より小さいかどうかを調べ、小さい場合はS41600に、小さくない場合はS41700に進む。S41500で、色(r442(x,y),g442(x,y),b442(x,y))を(0,0,0)とし、S41800に進む。S41600で、色(r442(x,y),g442(x,y),b442(x,y))を(r222(x,y),g222(x,y),b222(x,y))とし、S41800に進む。S41700で、色(r442(x,y),g442(x,y),b442(x,y))を(r232(x,y),g232(x,y),b232(x,y))とし、S41800に進む。 In S41400, it is checked whether or not the value of x is smaller than z (y). If smaller, the process proceeds to S41600, and if not smaller, the process proceeds to S41700. In S41500, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are set to (0, 0, 0), and the process proceeds to S41800. In S41600, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are changed to (r 222 (x, y), g 222 (x, y), b 222 ( x, y)), and the process proceeds to S41800. In S41700, the colors (r 442 (x, y), g 442 (x, y), b 442 (x, y)) are changed to (r 232 (x, y), g 232 (x, y), b 232 ( x, y)), and the process proceeds to S41800.

S41800で、xをプラス1する。S41850で、xがwP2より小さいかどうかを調べ、小さい場合はS41300に戻り、小さくない場合はS41900に進む。S41900で、yをプラス1する。S41950で、yがhP2より小さいかどうかを調べ、小さい場合はS41200に戻り、小さくない場合はS41000を終了する。 In S41800, x is incremented by one. In S41850, x is examined whether smaller than w P2, if small returns to S41300, if not less, the process proceeds to S41900. In S41900, y is incremented by one. In S41950, y is examined whether smaller than h P2, if small returns to S41200, if not less ends the S41000.

次に、図24を参照して、内挿処理(S42000)について説明する。
まず、S42100で、補正画像442を画素ごとに変換lで光量比例な値に変換し、その画像を452とする。画像452の値を(R452(x,y),G452(x,y),B452(x,y))とすると、数43のようになる。
Next, the interpolation process (S42000) will be described with reference to FIG.
First, in S42100, the corrected image 442 is converted into a light quantity proportional value by conversion 1 for each pixel, and the image is set to 452. Assuming that the value of the image 452 is (R 452 (x, y), G 452 (x, y), B 452 (x, y)), Expression 43 is obtained.

Figure 2009021771
S42200でyの値を0とする。
Figure 2009021771
The value of y is set to 0 in S42200.

S42300における、Y座標yに関しての制御点を決定する手順を図25により説明する。
制御点は4点決定するとし、その4点のX座標を値の小さい方から順に、c、c、c、cと表す。負でない整数aとして、マージンをaピクセルとし、例えば数44の値とする。
The procedure for determining the control point for the Y coordinate y in S42300 will be described with reference to FIG.
Assume that four control points are determined, and the X coordinates of the four points are expressed as c 0 , c 1 , c 2 , and c 3 in order from the smallest value. As Integer a m non-negative, a margin and a m pixels, for example, a value of a few 44.

Figure 2009021771
マージンの値は、ユーザに入力させてもよい。
S42310で、s、s、c、cの初期値を、数45とする。
Figure 2009021771
The margin value may be input by the user.
In S42310, initial values of s L , s R , c 1 , and c 2 are set to Expression 45.

Figure 2009021771
S42320で、cの値を、数46とする。
Figure 2009021771
In S42320, the value of c 0 is set to Equation 46.

Figure 2009021771
S42330で、座標(c,y)がマスクm上にあるかどうか調べ、あるときはS42350に進み、ないときは42340に進む。S42340で、sを0.8倍し、S42320に戻る。なお、0.8倍の代わりに、(0,1)の範囲の実数を用いてもよい。
S42350で、cの値を、数47とする。
Figure 2009021771
In S42330, it is checked whether or not the coordinates (c 0 , y) are on the mask m S. If there is, the process proceeds to S42350, and if not, the process proceeds to 42340. In S42340, s L is multiplied by 0.8, and the flow returns to S42320. A real number in the range of (0, 1) may be used instead of 0.8.
In S42350, the values of c 3, and the number 47.

Figure 2009021771
S42360で、座標(c,y)がマスクm上にあるかどうか調べ、あるときはS42300を終了し、ないときは42370に進む。S42370で、sを0.8倍し、S42350に戻る。なお、0.8倍の代わりに、(0,1)の範囲の実数を用いてもよい。
Figure 2009021771
In S42360, it is checked whether or not the coordinates (c 3 , y) are on the mask m S. If there is, the process ends S42300, and if not, the process proceeds to 42370. In S42370, the s R 0.8 multiplied by, returns to S42350. A real number in the range of (0, 1) may be used instead of 0.8.

Y座標yに関して内挿する手順(S42400)について、図26により説明する。
S42410で、4点(c,R452(c,y))、(c,R452(c,y))、(c,R452(c,y))、(c,R452(c,y))を通る自然境界の3次スプライン補間を(x,S(x))とする。
4点(c,G452(c,y))、(c,G452(c,y))、(c,G452(c,y))、(c,G452(c,y))を通る自然境界の3次スプライン補間を(x,S(x))とする。
4点(c,B452(c,y))、(c,B452(c,y))、(c,B452(c,y))、(c,B452(c,y))を通る自然境界の3次スプライン補間を(x,S(x))とする。
The procedure for interpolating the Y coordinate y (S42400) will be described with reference to FIG.
In S42410, four points (c 0 , R 452 (c 0 , y)), (c 1 , R 452 (c 1 , y)), (c 2 , R 452 (c 2 , y)), (c 3 , R 452 (c 3 , y)) is assumed to be (x, S R (x)) for the cubic spline interpolation of the natural boundary.
4 points (c 0 , G 452 (c 0 , y)), (c 1 , G 452 (c 1 , y)), (c 2 , G 452 (c 2 , y)), (c 3 , G 452 Let (x, S G (x)) be the cubic spline interpolation of the natural boundary passing through (c 3 , y)).
4 points (c 0 , B 452 (c 0 , y)), (c 1 , B 452 (c 1 , y)), (c 2 , B 452 (c 2 , y)), (c 3 , B 452 Let (x, S B (x)) be the cubic spline interpolation of the natural boundary passing through (c 3 , y)).

また、2点(c,R452(c,y))、(c,R452(c,y))を通る直線補間を(x,L(x))とする。
2点(c,G452(c,y))、(c,G452(c,y))を通る直線補間を(x,L(x))とする。
2点(c,B452(c,y))、(c,B452(c,y))を通る直線補間を(x,L(x))とする。
Further, linear interpolation passing through two points (c 1 , R 452 (c 1 , y)) and (c 2 , R 452 (c 2 , y)) is defined as (x, L R (x)).
Linear interpolation passing through two points (c 1 , G 452 (c 1 , y)) and (c 2 , G 452 (c 2 , y)) is defined as (x, L G (x)).
A linear interpolation passing through two points (c 1 , B 452 (c 1 , y)) and (c 2 , B 452 (c 2 , y)) is defined as (x, L B (x)).

S42420で、xの値をc+1とする。S42430で、s≧sMINかつs≧sMINかどうか調べ、共に満たすときS42440に進み、共には満たさないときS42450に進む。ただし、sMINを数48とする。 In S44220, the value of x is set to c 1 +1. In S42430, it is checked whether s L ≧ s MIN and s R ≧ s MIN . If both are satisfied, the process proceeds to S42440, and if both are not satisfied, the process proceeds to S42450. However, s MIN is assumed to be 48.

Figure 2009021771
数48で、sMINが10より小さくなったときは、sMINの値を10とする。
S42440で、値(R452(x,y),G452(x,y),B452(x,y))の値を、数49のように更新する。
Figure 2009021771
When s MIN becomes smaller than 10 in Equation 48, the value of s MIN is set to 10.
In S42440, the values (R 452 (x, y), G 452 (x, y), B 452 (x, y)) are updated as shown in Equation 49.

Figure 2009021771
S42450で、値(R452(x,y),G452(x,y),B452(x,y))の値を、数50のように更新する。
Figure 2009021771
In S42450, the values (R 452 (x, y), G 452 (x, y), B 452 (x, y)) are updated as in Formula 50.

Figure 2009021771
S42460で、xの値をプラス1する。
S42470で、xがc未満かどうかを調べ、未満のときはS42430に戻り、そうでないときは、S42400を終了する。
Figure 2009021771
In S42460, the value of x is incremented by one.
In S42470, x is checked whether or not less than c 2, when less than return to S42430, and if not, to end the S42400.

以上のように、2次導関数まで連続である3次スプライン補間を用いて画像452を内挿することで、見た目に滑らかな補間を行うことができる。また、制御点cとcの距離や制御点cとcの距離が近いとき直線補間を用いることで、3次スプライン補間では変動が不自然に大きくなってしまうことを回避することができる。 As described above, visually interpolating can be performed by interpolating the image 452 using cubic spline interpolation that is continuous up to the second derivative. Also, by using linear interpolation when the distance between the control points c 0 and c 1 and the distance between the control points c 2 and c 3 are close, it is possible to avoid unnaturally large fluctuations in the cubic spline interpolation. Can do.

さらに、本実施例では、仮補正データが存在する4つの点(c,y)、(c,y)、(c,y)、(c,y)の色を光量比例化した値を補間したが、同じようにして、幾何情報などの値を補間することもできる。 Further, in this embodiment, the colors of the four points (c 0 , y), (c 1 , y), (c 2 , y), and (c 3 , y) where the provisional correction data exist are proportional to the light amount. Although values are interpolated, values such as geometric information can be interpolated in the same manner.

次に、補正画像確定処理(S43000)について説明する。
画像452を、数51のように、画素(x,y)ごとに、変換l−1で補正画像442に戻す。
Next, the corrected image confirmation process (S43000) will be described.
The image 452 is returned to the corrected image 442 by conversion l −1 for each pixel (x, y) as shown in Equation 51.

Figure 2009021771
補正画像442に戻す前に、平滑化フィルタを画像452にかけてもよい。
以上の手順により、別途生成する領域の補正データが仮補正データに基づいて生成され、滑らかにつながる補正画像442を求めることができる。
画像221や233の、補正データが求まっていない部分については、線形外挿などの公知技術で外挿して生成すればよいが、映像投映領域が重複する部分のデータの平均値を鏡像コピーした後に本特許の方法で内挿することで生成することもできる。
Figure 2009021771
A smoothing filter may be applied to the image 452 before returning to the corrected image 442.
Through the above procedure, correction data for a region to be separately generated is generated based on the temporary correction data, and a correction image 442 that is smoothly connected can be obtained.
The portions of the images 221 and 233 for which correction data is not obtained may be generated by extrapolation by a known technique such as linear extrapolation, but after the average value of the data of the portion where the video projection areas overlap is copied as a mirror image It can also be generated by interpolation using the method of this patent.

[実施例2]
図27は、第二の一実施例による映像調整のためのシステムである。
映像投映部601〜608がスクリーン500に映像を投映する。撮影部701、703、705、707はスクリーン500内に設置し、撮影が終わったら撮影部701、703、705、707は取り除いてもよい。
[Example 2]
FIG. 27 shows a video adjustment system according to the second embodiment.
Video projection units 601 to 608 project video onto the screen 500. The photographing units 701, 703, 705, and 707 may be installed in the screen 500, and the photographing units 701, 703, 705, and 707 may be removed after photographing.

図28は、スクリーン500上の映像投映範囲と撮影範囲の様子を示す。
スクリーン500を平面に展開しており、左右両端の辺501は、実際のスクリーン500上で同一の場所となる。映像投映範囲611〜618はそれぞれ、映像投映部601〜608がスクリーン500に投映する映像の投映範囲である。
映像投映範囲611と612、612と613、613と614、614と615、615と616、616と617、617と618、618と611がそれぞれ、スクリーン500上で互いに重なるように、映像投映部601〜608とスクリーン500は配置されている。
FIG. 28 shows the video projection range and the shooting range on the screen 500.
The screen 500 is developed in a plane, and the left and right sides 501 are the same location on the actual screen 500. Video projection ranges 611 to 618 are video projection ranges that the video projection units 601 to 608 project onto the screen 500, respectively.
Video projection unit 601 so that video projection ranges 611 and 612, 612 and 613, 613 and 614, 614 and 615, 615 and 616, 616 and 617, 617 and 618, and 618 and 611 overlap each other on screen 500, respectively. ˜608 and the screen 500 are arranged.

撮影範囲711が映像投映範囲611を覆うように撮影部701を設置し、撮影範囲713が映像投映範囲613を覆うように撮影部703を設置し、撮影範囲715が映像投映範囲615を覆うように撮影部705を設置し、撮影範囲717が映像投映範囲617を覆うように撮影部707を設置して、それぞれ計測を行うことで、実施例1と同様にして、映像投映部601〜608に対する色補正データを求めることができる。   The imaging unit 701 is installed so that the imaging range 711 covers the video projection range 611, the imaging unit 703 is installed so that the imaging range 713 covers the video projection range 613, and the imaging range 715 covers the video projection range 615. The shooting unit 705 is installed, the shooting unit 707 is installed so that the shooting range 717 covers the video projection range 617, and each measurement is performed, so that the colors for the video projection units 601 to 608 are the same as in the first embodiment. Correction data can be obtained.

実施例2では、幾何補正データを補間する例を示す。
例えば、特許文献1(国際公開番号WO99/31877)に記載された、マルチプロジェクション映像表示装置に、本実施例を適用することで、実施例2のように円筒などループする構造でも幾何が滑らかにつながるようになる。
The second embodiment shows an example in which geometric correction data is interpolated.
For example, by applying the present embodiment to a multi-projection video display device described in Patent Document 1 (International Publication No. WO99 / 31877), even in a loop structure such as a cylinder as in Embodiment 2, the geometry is smooth. To be connected.

映像投映部601〜608が投映する映像の座標の集合をそれぞれP601〜P608とし、撮影範囲701、703、705、707の座標の集合をそれぞれC701、C703、C705、C707とする。
608の集合からC701の集合への写像をfC701P608、P601の集合からC701の集合への写像をfC701P601、P602の集合からC701の集合への写像をfC701P602、P602の集合からC703の集合への写像をfC703P602、P603の集合からC703の集合への写像をfC703P603、P604の集合からC703の集合への写像をfC703P604、P604の集合からC705の集合への写像をfC705P604、P605の集合からC705の集合への写像をfC705P605、P606の集合からC705の集合への写像をfC705P606、P606の集合からC707の集合への写像をfC707P606、P607の集合からC707の集合への写像をfC707P607、P608の集合からC707の集合への写像をfC707P608とする。
The set of coordinates of the images projected by the image projection units 601 to 608 are P 601 to P 608 , respectively, and the set of coordinates of the shooting ranges 701 , 703 , 705 , and 707 are C 701 , C 703 , C 705 , and C 707 , respectively. To do.
F C701P608 a mapping to a set of C 701 from the set of P 608, mapping f set from to the set of C 701 in the P 601 C701P601, a mapping from a set of P 602 to a collection of C 701 f C701P602, P 602 set a mapping to mapping to a set of C 703 from the set of f C703P602, P 603 to a set of C 703 from the set of f C703P603, P 604 from the set mapping to a set of C 703 of f C703P604, P 604 of C a mapping to a set of C 705 from the set of f C705P606, P 606 a mapping to a set of C 705 from the set of f C705P605, P 606 a mapping to a set of C 705 from the set of f C705P604, P 605 from the mapping of the 707 to a set from the set of f C707P606, P 607 A mapping 707 to the set of the mapping from the set of f C707P607, P 608 to a set of C 707 and f C707P608.

701の集合からP608の集合への写像をf−1 C701P608、C701の集合からP601の集合への写像をf−1 C701P601、C701の集合からP602の集合への写像をf−1 C701P602、C703の集合からP602の集合への写像をf−1 C703P602、C703の集合からP603の集合への写像をf−1 C703P603、C703の集合からP604の集合への写像をf−1 C703P604、C705の集合からP604の集合への写像をf−1 C705P604、C705の集合からP605の集合への写像をf−1 C705P605、C705の集合からP606の集合への写像をf−1 C705P606、C707の集合からP606の集合への写像をf−1 C707P606、C707の集合からP607の集合への写像をf−1 C707P607、C707の集合からP608の集合への写像をf−1 C707P608とする。 F -1 C701P608 a mapping to a set of P 608 from the set of C 701, a mapping from the set of C 701 a mapping to a set of P 601 from the set of f -1 C701P601, C 701 to a set of P 602 f -1 C701P602, a mapping of the mapping from the set of C 703 to a set of P 602 from the set of f -1 C703P602, C 703 to a set of P 603 from the set of f -1 C703P603, C 703 to a set of P 604 P a mapping mapping a mapping from a set of f -1 C703P604, C 705 to a set of P 604 from the set of f -1 C705P604, C 705 to a set of P 605 from the set of f -1 C705P605, C 705 mapping to a set of P 606 a mapping 606 to the set from the set of f -1 C705P606, C 707 The mapping from the set of f -1 C707P606, C 707 a mapping to a set of P 607 from the set of f -1 C707P607, C 707 to a set of P 608 and f -1 C707P608.

撮影範囲701の撮影で、実施例1と同様にして、fC701P608、fC701P601、fC701P602、f−1 C701P608、f−1 C701P601、f−1 C701P602を求めることができる。
撮影範囲703の撮影で、実施例1と同様にして、fC703P602、fC703P603、fC703P604、f−1 C703P602、f−1 C703P603、f−1 C703P604を求めることができる。
撮影範囲705の撮影で、実施例1と同様にして、fC705P604、fC705P605、fC705P606、f−1 C705P604、f−1 C705P605、f−1 C705P606を求めることができる。
撮影範囲707の撮影で、実施例1と同様にして、fC707P606、fC707P607、fC707P608、f−1 C707P606、f−1 C707P607、f−1 C707P608を求めることができる。
In the photographing of the photographing range 701, f C701P608 , f C701P601 , f C701P602 , f −1 C701P608 , f −1 C701P601 , and f −1 C701P602 can be obtained in the same manner as in the first embodiment.
In the photographing of the photographing range 703, f C703P602 , f C703P603 , f C703P604 , f −1 C703P602 , f −1 C703P603 , and f −1 C703P604 can be obtained in the same manner as in the first embodiment.
In the photographing of the photographing range 705, f C705P604 , f C705P605 , f C705P606 , f −1 C705P604 , f −1 C705P605 , and f −1 C705P606 can be obtained in the same manner as in the first embodiment.
In the shooting of the shooting range 707, f C707P606 , f C707P607 , f C707P608 , f −1 C707P606 , f −1 C707P607 , and f −1 C707P608 can be obtained in the same manner as in the first embodiment.

601の集合からP602の集合への写像をqP601P602、P602の集合からP603の集合への写像をqP602P603、P603の集合からP604の集合への写像をqP603P604、P604の集合からP605の集合への写像をqP604P605、P605の集合からP606の集合への写像をqP605P606、P606の集合からP607の集合への写像をqP606P607、P607の集合からP608の集合への写像をqP607P608、P608の集合からP601の集合への写像をqP608P601、P601の集合からP608の集合への写像をqP601P608、P602の集合からP601の集合への写像をqP602P601、P603の集合からP602の集合への写像をqP603P602、P604の集合からP603の集合への写像をqP604P603、P605の集合からP604の集合への写像をqP605P604、P606の集合からP605の集合への写像をqP606P605、P607の集合からP606の集合への写像をqP607P606、P608の集合からP607の集合への写像をqP608P607、とすると、数52のように定義できる。 The mapping from a set of P 601 to a set of P 602 q P601P602, a mapping from a set of P 602 to a set of P 603 q P602P603, a mapping from a set of P 603 to a set of P 604 q P603P604, P 604 set a mapping from a set of the set of P 605 a mapping from a set of q P604P605, P 605 to a set of P 606 from the set of q P605P606, P 606 a mapping to a set of P 607 of q P606P607, P 607 P a mapping to a set of P 608 from the set of q P601P608, P 602 a mapping to a set of P 601 from the set of q P608P601, P 601 a mapping to a set of P 608 from the set of q P607P608, P 608 from the mapping of the 601 to a set from the set of q P602P601, P 603 A mapping 602 to the set of the set of q P603P602, P 604 a mapping to mapping to a set of P 603 from the set of q P604P603, P 605 to a set of P 604 from the set of q P605P604, P 606 of P 605 If the mapping to the set q P606P605, a mapping from a set of P 607 to a set of P 606 q P607P606, q the mapping to a set of P 607 from the set of P 608 P608P607, that can be defined as the number 52 .

Figure 2009021771
映像投映部608、601、602、603、604の幾何の仮補正データをそれぞれuA8(x,y)、uA1(x,y)、uA2(x,y)、uA3(x,y)、uA4(x,y)とすると、qP608P601、qP601P608、qP601P602、qP602P601、qP602P603、qP603P602、qP603P604、qP604P603に対して国際公開番号WO99/31877の方法を用いることで、uA8(x,y)、uA1(x,y)、uA2(x,y)、uA3(x,y)、uA4(x,y)が求まる。
Figure 2009021771
The geometric temporary correction data of the video projection units 608, 601, 602, 603, and 604 are respectively converted to u A8 (x, y), u A1 (x, y), u A2 (x, y), and u A3 (x, y). ), U A4 (x, y), q P608P601 , qP601P608 , qP601P602 , qP602P601 , qP602P603 , qP603P602 , qP603P604 , qP604P603 are used in the international publication number WO99 / 31877. , U A8 (x, y), u A1 (x, y), u A2 (x, y), u A3 (x, y), u A4 (x, y) are obtained.

映像投映部604、605、606、607、608の幾何の仮補正データをそれぞれuB4(x,y)、uB5(x,y)、uB6(x,y)、uB7(x,y)、uB8(x,y)とすると、qP604P605、qP605P604、qP605P606、qP606P605、qP606P607、qP607P606、qP607P608、qP608P607に対して国際公開番号WO99/31877の方法を用いることで、uB4(x,y)、uB5(x,y)、uB6(x,y)、uB7(x,y)、uB8(x,y)が求まる。
映像投映部601〜608の幾何の補正データをそれぞれu〜uとすると、uとu以外は数53のように定まる。
The geometric temporary correction data of the video projection units 604, 605, 606, 607, and 608 are respectively converted to u B4 (x, y), u B5 (x, y), u B6 (x, y), and u B7 (x, y). ), U B8 (x, y), q P604P605 , qP605P604 , qP605P606 , qP606P605 , qP606P607 , qP607P606 , qP607P608 , qP608P607 are used in the international publication number WO99 / 31877. , U B4 (x, y), u B5 (x, y), u B6 (x, y), u B7 (x, y), and u B8 (x, y) are obtained.
When the geometric correction data of the video projection unit 601 to 608 and u 1 ~u 8 respectively, except u 4 and u 8 is determined as number 53.

Figure 2009021771
は、uA4とuB4から、本特許の方法で内挿して定まる。
は、uA8とuB8から、本特許の方法で内挿して定まる。
以上のように、実施例2によれば、円筒などループする構造でも幾何がつながるようになる。
Figure 2009021771
u 4 is determined by interpolating from u A4 and u B4 by the method of this patent.
u 8 is determined by interpolating from u A8 and u B8 by the method of this patent.
As described above, according to the second embodiment, the geometry is connected even with a looping structure such as a cylinder.

[実施例3]
この例は、図29に示すように、スクリーン上の映像投映範囲の配置が縦に並んだ例である。実施例1において、X座標とY座標を便宜上適宜置き換えることで、本実施例においても補正データが求まる。
この実施例によれば、映像投映範囲が縦に並んだ場合でも、スクリーン上で滑らかに映像が繋がるようになる。
[Example 3]
In this example, as shown in FIG. 29, the arrangement of video projection ranges on the screen is arranged vertically. In the first embodiment, correction data can be obtained also in this embodiment by appropriately replacing the X coordinate and the Y coordinate for convenience.
According to this embodiment, even when the video projection ranges are arranged vertically, the video is smoothly connected on the screen.

[実施例4]
この例は、図30に示すように、映像投映範囲が互いに重複しないマルチプロジェクション映像表示装置に適用した例である。
実施例1と同様に、それぞれの撮影範囲の目標色特性を近づけ、ハッチングを施した映像投映範囲に対して本特許の方法で補正データを内挿することで、マルチプロジェクション映像表示装置においても、スクリーン上で滑らかに映像が繋がるようになる。
[Example 4]
This example is an example applied to a multi-projection video display device in which video projection ranges do not overlap each other as shown in FIG.
As in the first embodiment, the target color characteristics of the respective shooting ranges are brought close to each other, and the correction data is interpolated by the method of this patent with respect to the hatched video projection range. Images are smoothly connected on the screen.

第一の実施例による映像調整のためのシステムを示す図である。It is a figure which shows the system for the image adjustment by a 1st Example. 第一の実施例における映像調整方法のフロー図である。It is a flowchart of the image | video adjustment method in a 1st Example. 画像の座標と画素の説明図である。It is explanatory drawing of the coordinate of an image, and a pixel. 撮影範囲311のマスクを示す図である。FIG. 6 is a diagram illustrating a mask in an imaging range 311. 撮影部301での明るさ・色調整処理のフロー図である。FIG. 6 is a flowchart of brightness / color adjustment processing in an imaging unit. 第一の目標色決定処理のフロー図である。It is a flowchart of a 1st target color determination process. 第一のフィードバックループ処理のフロー図である。It is a flowchart of a 1st feedback loop process. 映像投映範囲211、212と撮影範囲311の関係図である。FIG. 6 is a relationship diagram between video projection ranges 211 and 212 and a shooting range 311. 撮影範囲312のマスクを示す図である。FIG. 6 is a diagram illustrating a mask of an imaging range 312. 撮影部302での明るさ・色調整処理のフロー図である。FIG. 6 is a flowchart of brightness / color adjustment processing in an imaging unit. 第二の目標色決定処理のフロー図である。It is a flowchart of the 2nd target color determination process. 第二のフィードバックループ処理のフロー図である。It is a flowchart of a 2nd feedback loop process. 映像投映範囲212、213と撮影範囲312の関係図である。FIG. 6 is a relationship diagram between video projection ranges 212 and 213 and a shooting range 312. バイリニア方式で参照する画素の図である。It is a figure of the pixel referred with a bilinear system. 領域の分類処理のフロー図である。It is a flowchart of an area | region classification process. 映像投映範囲212のマスクを示す図である。It is a figure which shows the mask of the image | video projection range. 第一の基準線算出処理のフロー図である。It is a flowchart of a 1st reference line calculation process. 第二の基準線算出処理のフロー図である。It is a flowchart of a 2nd reference line calculation process. 内挿確定範囲左端の決定処理のフロー図である。It is a flowchart of the determination process of the left end of an interpolation confirmation range. 内挿確定範囲右端の決定処理のフロー図である。It is a flowchart of the determination process of the interpolation end right end. 中心線と内挿確定範囲と3種類に分類された領域を示す図である。It is a figure which shows the area | region classified into the centerline, the interpolation fixed range, and three types. 補正データの生成処理のフロー図である。It is a flowchart of the production | generation process of correction data. 補正画像の初期値生成処理のフロー図である。It is a flowchart of the initial value generation process of a correction image. 内挿のフロー図である。It is a flowchart of interpolation. 制御点の決定のフロー図である。It is a flowchart of determination of a control point. 補間処理のフロー図である。It is a flowchart of an interpolation process. 第二の実施例による映像調整のためのシステムを示す図である。It is a figure which shows the system for the video adjustment by a 2nd Example. 映像投映範囲と撮影範囲の関係を示す図である。It is a figure which shows the relationship between a video projection range and an imaging | photography range. 第三の実施例による映像調整のためのシステムを示す図である。It is a figure which shows the system for the video adjustment by a 3rd Example. 第四の実施例による映像調整のためのシステムを示す図である。It is a figure which shows the system for the image adjustment by the 4th Example.

符号の説明Explanation of symbols

100:スクリーン、
201〜203:映像投映部、
211〜213:映像投映範囲、
221、222:第一の撮影のフィードバックループ用投映画像、
232、233:第二の撮影のフィードバックループ用投映画像、
301、302:撮影部、
311、312:撮影範囲、
321、322、325〜327:第一の撮影のマスク
330:第一の撮影の目標色決定用画像、
340:第一の撮影のフィードバックループ用撮影画像、
352、353、355〜357:第二の撮影のマスク
360:第二の撮影の目標色決定用画像、
370:360を光量比例な値に変換した画像
380:第二の撮影のフィードバックループ用撮影画像、
40:データ処理部
500:円筒スクリーン
501:円筒スクリーンの展開図の切断線
601〜608:映像投映部、
611〜618:映像投映範囲
701、703、705、707:撮影部
711、713、715、717:撮影範囲。
100: screen,
201-203: Video projection part,
211-213: Image projection range,
221, 222: Projected image for feedback loop of first shooting,
232, 233: Projection image for feedback loop of second shooting,
301, 302: photographing unit,
311 and 312: shooting range,
321, 322, 325 to 327: first shooting mask 330: first shooting target color determination image,
340: Shooting image for feedback loop of first shooting,
352, 353, 355-357: mask for second imaging 360: target color determining image for second imaging,
370: An image obtained by converting 360 into a value proportional to the amount of light 380: a captured image for the feedback loop of the second imaging,
40: Data processing unit 500: Cylindrical screen 501: Cutting lines 601 to 608 of the development view of the cylindrical screen: Video projection unit,
611 to 618: video projection ranges 701, 703, 705, 707: photographing units 711, 713, 715, 717: photographing ranges.

Claims (6)

少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正するための補正データを算出する映像調整方法であって、
映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成し、
撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割し、
該仮補正データに基づいて、別途生成する領域の補正データを生成することを特徴とする映像調整方法。
At least three projection units are used to project an image on a screen, and the displayed test pattern is photographed by the photographing unit to obtain a photographed image. Based on the obtained photographed image, the display characteristics of the video display device are obtained. A video adjustment method for calculating correction data for correction,
Shoot one or more locations where the video projection range is adjacent, and generate temporary correction data corresponding to each location,
Divide the area where the shooting range is adjacent and the surrounding video projection range into at least two types of areas: the area for selecting correction data by selecting any temporary correction data and the area for generating correction data separately And
A video adjustment method, wherein correction data for a separately generated region is generated based on the temporary correction data.
該補正データは、色か輝度か幾何情報のうち1つ以上を含むことを特徴とする請求項1の映像調整方法。 2. The image adjustment method according to claim 1, wherein the correction data includes at least one of color, luminance, and geometric information. 投映部の画素単位に該領域の分割を行うことを特徴とする請求項1又は2の映像調整方法。 3. The image adjustment method according to claim 1, wherein the area is divided in units of pixels of the projection unit. 該仮補正データは、該撮影部により取得した該撮影画像をフィードバックして生成することを特徴とする請求項1乃至3のいずれかの映像調整方法。 4. The video adjustment method according to claim 1, wherein the temporary correction data is generated by feeding back the captured image acquired by the imaging unit. 少なくとも3台以上の投映部を用いて映像をスクリーンに投映し、かつ表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正して、補正された表示特性に従って映像を投映する投映表示装置において、
映像投映範囲が隣り合う1つ以上の箇所をそれぞれ撮影して各撮影箇所に対応する仮補正データを生成する手段と、撮影範囲が隣接する箇所とその周辺の映像投映範囲を、いずれかの仮補正データを選択して補正データとする領域と補正データを別途生成する領域との少なくとも2種類のいずれかの領域に分割する手段と、該仮補正データに基づいて、別途生成する領域の補正データを生成する手段と、該補正データに従って補正した映像を投映する投映部と、を有することを特徴とする映像表示装置。
At least three projection units are used to project an image on a screen, and the displayed test pattern is photographed by the photographing unit to obtain a photographed image. Based on the obtained photographed image, the display characteristics of the video display device are obtained. In a projection display device that corrects and projects an image according to the corrected display characteristics,
Means for capturing one or more locations where the video projection ranges are adjacent to each other and generating temporary correction data corresponding to each of the shooting locations; Means for dividing the correction data into at least two types of areas, ie, an area for selecting correction data and an area for generating correction data separately, and correction data for the area generated separately based on the provisional correction data A video display device comprising: means for generating a video image; and a projection unit that projects a video image corrected according to the correction data.
スクリーンに少なくとも1台以上のプロジェクタで映像を投映する映像表示装置に表示したテストパターンを撮影部で撮影して撮影画像を取得し、取得した撮影画像に基づいて該映像表示装置の表示特性を補正するための補正データを算出する映像調整方法であって、
2つ以上の撮影範囲が必要となる場合に、異なる撮影範囲において目標とする目標色の色相が互いに変わらないように定めることを特徴とする映像調整方法。
A test pattern displayed on a video display device that projects video on at least one projector on the screen is shot by the shooting unit to obtain a shot image, and display characteristics of the video display device are corrected based on the acquired shot image. A video adjustment method for calculating correction data for performing
An image adjustment method characterized in that when two or more shooting ranges are required, a hue of a target color that is a target in different shooting ranges is determined so as not to change from each other.
JP2007182182A 2007-07-11 2007-07-11 Video adjustment method Pending JP2009021771A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007182182A JP2009021771A (en) 2007-07-11 2007-07-11 Video adjustment method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007182182A JP2009021771A (en) 2007-07-11 2007-07-11 Video adjustment method

Publications (1)

Publication Number Publication Date
JP2009021771A true JP2009021771A (en) 2009-01-29

Family

ID=40361016

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007182182A Pending JP2009021771A (en) 2007-07-11 2007-07-11 Video adjustment method

Country Status (1)

Country Link
JP (1) JP2009021771A (en)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012134698A (en) * 2010-12-21 2012-07-12 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and image output method
JP2012517621A (en) * 2009-02-11 2012-08-02 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Multi-projector system and method
US8866902B2 (en) 2010-02-26 2014-10-21 Seiko Epson Corporation Correction information calculating device, image processing apparatus, image display system, and image correcting method
JP2020034935A (en) * 2019-11-01 2020-03-05 セイコーエプソン株式会社 Image projection system and control method of image projection system
US10635373B2 (en) 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same
US10735820B2 (en) 2016-10-10 2020-08-04 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device
US10939083B2 (en) 2018-08-30 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
US12022241B2 (en) 2021-10-20 2024-06-25 Seiko Epson Corporation Image projection method and projector

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239504A (en) * 1994-03-01 1995-09-12 Mitsubishi Heavy Ind Ltd Large display device
JP2002072359A (en) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd Image projection display device
JP2003046751A (en) * 2001-07-27 2003-02-14 Olympus Optical Co Ltd Multiple projection system
JP2005020314A (en) * 2003-06-25 2005-01-20 Olympus Corp Calculating method, calculating program and calculating apparatus for display characteristic correction data
WO2006030501A1 (en) * 2004-09-15 2006-03-23 Mitsubishi Denki Kabushiki Kaisha Image projection system and image geometry corrector

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07239504A (en) * 1994-03-01 1995-09-12 Mitsubishi Heavy Ind Ltd Large display device
JP2002072359A (en) * 2000-08-29 2002-03-12 Olympus Optical Co Ltd Image projection display device
JP2003046751A (en) * 2001-07-27 2003-02-14 Olympus Optical Co Ltd Multiple projection system
JP2005020314A (en) * 2003-06-25 2005-01-20 Olympus Corp Calculating method, calculating program and calculating apparatus for display characteristic correction data
WO2006030501A1 (en) * 2004-09-15 2006-03-23 Mitsubishi Denki Kabushiki Kaisha Image projection system and image geometry corrector

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012517621A (en) * 2009-02-11 2012-08-02 ヒューレット−パッカード デベロップメント カンパニー エル.ピー. Multi-projector system and method
US8866902B2 (en) 2010-02-26 2014-10-21 Seiko Epson Corporation Correction information calculating device, image processing apparatus, image display system, and image correcting method
JP2012134698A (en) * 2010-12-21 2012-07-12 Samsung Yokohama Research Institute Co Ltd Imaging apparatus and image output method
US10735820B2 (en) 2016-10-10 2020-08-04 Samsung Electronics Co., Ltd. Electronic device and method for controlling the electronic device
US10635373B2 (en) 2016-12-14 2020-04-28 Samsung Electronics Co., Ltd. Display apparatus and method of controlling the same
US10939083B2 (en) 2018-08-30 2021-03-02 Samsung Electronics Co., Ltd. Electronic apparatus and control method thereof
JP2020034935A (en) * 2019-11-01 2020-03-05 セイコーエプソン株式会社 Image projection system and control method of image projection system
US12022241B2 (en) 2021-10-20 2024-06-25 Seiko Epson Corporation Image projection method and projector

Similar Documents

Publication Publication Date Title
JP4126564B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP2009021771A (en) Video adjustment method
US7190395B2 (en) Apparatus, method, program and recording medium for image restoration
WO2005002240A1 (en) Method for calculating display characteristic correction data, program for calculating display characteristic correction data, and device for calculating display characteristic correction data
US7580566B2 (en) Image processing device, image processing method, storage medium, and program
EP1061500A2 (en) Color correction in image display
JP2002262094A (en) Image processing method and image processor
JP2015097350A (en) Image processing apparatus and multi-projection system
JP5735846B2 (en) Image processing apparatus and method
JP2003179762A (en) Conversion of color image to gray value image
JP6047008B2 (en) Image processing apparatus, imaging apparatus including the same, and control method of image processing apparatus
JP2002271638A (en) White balance correction method and device, and recording medium recorded with program for executing the method
JP2007271771A (en) Image display system and control method therefor
JP4304846B2 (en) Image processing method and recording medium recording image processing program
JP2002044469A (en) Image processing method and recording medium with recorded image processing program stored
JP6140987B2 (en) Image processing apparatus and image processing method
JP7051365B2 (en) Image processing equipment, image processing methods, and programs
JP5952574B2 (en) Image processing apparatus and control method thereof
JP2000224418A (en) Mask for changing lightness profile of photo copying
JPH08110603A (en) Color adjusting method and device
JP2004157641A (en) Image processing method, image processing apparatus, image processing program and recording medium with image processing program recorded thereon
WO2020084894A1 (en) Multi-camera system, control value calculation method and control device
JP2605011B2 (en) Color image processing method
WO2023189456A1 (en) Information processing device, information processing method, and recording medium
JP3716786B2 (en) Video display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100222

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120619

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20121016