JP6790766B2 - Projection system, image processing equipment and programs - Google Patents
Projection system, image processing equipment and programs Download PDFInfo
- Publication number
- JP6790766B2 JP6790766B2 JP2016232010A JP2016232010A JP6790766B2 JP 6790766 B2 JP6790766 B2 JP 6790766B2 JP 2016232010 A JP2016232010 A JP 2016232010A JP 2016232010 A JP2016232010 A JP 2016232010A JP 6790766 B2 JP6790766 B2 JP 6790766B2
- Authority
- JP
- Japan
- Prior art keywords
- projection
- image
- projected
- correction
- coordinate system
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000012545 processing Methods 0.000 title claims description 95
- 238000012937 correction Methods 0.000 claims description 163
- 230000009466 transformation Effects 0.000 claims description 41
- 238000004364 calculation method Methods 0.000 claims description 37
- 238000003384 imaging method Methods 0.000 claims description 35
- 238000006243 chemical reaction Methods 0.000 claims description 24
- 238000000605 extraction Methods 0.000 claims description 23
- 238000005452 bending Methods 0.000 claims description 11
- 230000003287 optical effect Effects 0.000 claims description 5
- 238000000034 method Methods 0.000 description 46
- 230000008569 process Effects 0.000 description 35
- 238000010586 diagram Methods 0.000 description 13
- 238000002156 mixing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 9
- 238000009795 derivation Methods 0.000 description 8
- 230000010354 integration Effects 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 230000005484 gravity Effects 0.000 description 5
- 239000003550 marker Substances 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000008602 contraction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 241000226585 Antennaria plantaginifolia Species 0.000 description 1
- 241000282414 Homo sapiens Species 0.000 description 1
- 241001290864 Schoenoplectus Species 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 239000006227 byproduct Substances 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000013403 standard screening design Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000004804 winding Methods 0.000 description 1
Landscapes
- Controls And Circuits For Display Device (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
本発明は、1以上の投影手段により被投影面上に像を投影するための投影システム、画像処理装置および該画像処理装置を実現するためのプログラムに関する。 The present invention relates to a projection system for projecting an image on a surface to be projected by one or more projection means, an image processing device, and a program for realizing the image processing device.
近年、プロジェクタを用いたデジタルサイネージが行われている。電車などの室内の側面や天井などや、天井がアーチ状になった通路やトンネル、アーケード商店街など、平面を垂直方向にのみ曲げた曲面状の部分は身の回りに多く存在する。また、電車の窓上のスペースなどを活用して広告を掲示することも行われている。このような背景から、上述したような曲面へ映像を投影したいという要望がある。 In recent years, digital signage using a projector has been performed. There are many curved parts around us, such as the sides and ceilings of the interior of trains, passages and tunnels with arched ceilings, and arcade shopping streets, where the plane is bent only in the vertical direction. In addition, advertisements are posted in the space above the train window. From such a background, there is a desire to project an image on a curved surface as described above.
プロジェクタにより投影体へ所望の映像を投影する際に、スクリーンとなる投影体へ投影するための校正作業が行われる。例えば、マルチ・プロジェクションにおける校正処理として、特開2015−056834号公報(特許文献1)が知られている。特許文献1の従来技術では、校正パターンを投影し、カメラなどの撮像装置を用いて複数回に分けて撮像することにより校正を行う。上記校正により、複数のプロジェクタにより、適切な補正をかけて平面状のスクリーン上に画像を投影することが可能となる。 When a desired image is projected onto a projectile by a projector, calibration work is performed to project the desired image onto a projectile to be a screen. For example, Japanese Patent Application Laid-Open No. 2015-056834 (Patent Document 1) is known as a calibration process in multi-projection. In the prior art of Patent Document 1, calibration is performed by projecting a calibration pattern and imaging it in a plurality of times using an imaging device such as a camera. With the above calibration, it becomes possible for a plurality of projectors to project an image on a flat screen with appropriate correction.
しかしながら、円筒内壁のようなスクリーンが1方向(例えば垂直方向)に曲がった曲面を有する投影体に投影する場合、観察者に違和感を与えてしまう場合があった。例えば、曲面を有する投影体に投影された投影像を観察する際に、校正時のカメラの視点の位置と離れた視点から観察した場合に、全体の補正後の画像が両端で膨らんでいるように見えてしまう場合があった。 However, when a screen such as an inner wall of a cylinder projects on a projection body having a curved surface bent in one direction (for example, in the vertical direction), the observer may feel uncomfortable. For example, when observing a projected image projected on a projection body having a curved surface, when observing from a viewpoint distant from the position of the viewpoint of the camera at the time of calibration, the entire corrected image seems to bulge at both ends. It sometimes looked like.
本発明は、上記点に鑑みてなされたものであり、本発明は、1以上の投影手段により被投影面上に像を投影するための投影システムにおいて、1つの方向で曲がりを有する被投影面に対し、簡単な作業で投影像を補正することが可能な投影システムを提供することを目的とする。 The present invention has been made in view of the above points, and the present invention is a projection system for projecting an image on a projected surface by one or more projection means, the projected surface having a bend in one direction. On the other hand, it is an object of the present invention to provide a projection system capable of correcting a projected image with a simple operation.
本発明は、上記点に鑑みてなされたものであり、下記特徴を有する投影システムを提供する。本投影システムは、準備された1以上の校正用撮像画像各々から、上記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、上記校正用撮像画像の撮像手段との相対的な位置関係を含む上記被投影面の幾何学情報の入力を受ける情報入力手段と、上記格子点データおよび前記幾何学情報に基づいて、上記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段とを含む。 The present invention has been made in view of the above points, and provides a projection system having the following features. This projection system includes a grid point extraction means that extracts grid point data indicating distortion of a projected image for each of the one or more projection means from each of the prepared one or more calibration captured images, and a grid point extraction means of the calibration captured image. Correction for each of the one or more projection means based on the information input means that receives the input of the geometric information of the projected surface including the relative positional relationship with the image pickup means, the grid point data, and the geometric information. Includes a correction coefficient calculation means for calculating the coefficient.
上記構成により、1以上の投影手段により被投影面上に像を投影するための投影システムにおいて、1つの方向で曲がりを有する被投影面に対し、簡単な作業で投影像を補正することが可能となる。 With the above configuration, in a projection system for projecting an image on a projected surface by one or more projection means, it is possible to correct the projected image with a simple operation on a projected surface having a bend in one direction. It becomes.
以下、本実施形態について説明するが、本実施形態は、以下に説明する実施形態に限定されるものではない。なお、以下に説明する実施形態では、投影システムの一例として、投影手段である1以上のプロジェクタと、撮像手段である1つのカメラと、全体制御を行う画像処理装置とを含む映像投影システムを用いて説明する。 Hereinafter, the present embodiment will be described, but the present embodiment is not limited to the embodiments described below. In the embodiment described below, as an example of the projection system, a video projection system including one or more projectors as projection means, one camera as an imaging means, and an image processing device that performs overall control is used. I will explain.
(全体構成)
図1は、本実施形態による映像投影システム100の全体構成を示す概略図である。図1に示す映像投影システム100は、システムの全体制御を行う画像処理装置110と、1以上のプロジェクタ150と、カメラ160と、入力装置170とを含み構成される。なお、説明する実施形態では、映像投影システム100は、上下2台のプロジェクタ150a,150bの投影像を投影面上で合成し、単一のプロジェクタよりも大きな領域に画像を投影する、いわゆる大画面のマルチ・プロジェクションに対応した構成とされている。
(overall structure)
FIG. 1 is a schematic view showing the overall configuration of the image projection system 100 according to the present embodiment. The image projection system 100 shown in FIG. 1 includes an image processing device 110 that controls the entire system, one or more projectors 150, a camera 160, and an input device 170. In the embodiment described, the image projection system 100 synthesizes the projected images of the two upper and lower projectors 150a and 150b on the projection surface and projects the image on a region larger than that of a single projector, that is, a so-called large screen. It is said to be configured to support multi-projection.
しかしながら、プロジェクタ150の数は、特に限定されるものではない。他の実施形態では、1台のプロジェクタ150を用いた通常のプロジェクションに対応した構成としてもよい。さらに他の実施形態では、複数台のプロジェクタ150の投影像を投影面上で重ねて単一のプロジェクタ程度の領域に画像を投影する、いわゆるスタック・プロジェクションに対応した構成としてもよい。 However, the number of projectors 150 is not particularly limited. In another embodiment, a configuration corresponding to a normal projection using one projector 150 may be used. In still another embodiment, a configuration corresponding to so-called stack projection, in which projected images of a plurality of projectors 150 are superimposed on a projection surface and an image is projected onto an area of about a single projector, may be used.
画像処理装置110は、典型的には、パーソナル・コンピュータ、ワークステーションなどの汎用コンピュータとして構成される。なお、画像処理装置110は、汎用コンピュータに限定されるものではなく、専用コントローラとして実装されてもよいし、いずれかのプロジェクタ150に組み込まれてもよい。 The image processing device 110 is typically configured as a general purpose computer such as a personal computer or workstation. The image processing device 110 is not limited to a general-purpose computer, and may be mounted as a dedicated controller or incorporated in any of the projectors 150.
プロジェクタ150は、それぞれ、液晶方式、CRT(Cathode Ray Tube)方式、DLP(Digital Light Processing)方式、LCOS(Liquid Crystal On Silicon)方式などを採用する投影装置である。プロジェクタ150は、超短焦点プロジェクタであってもよい。カメラ160は、CMOS(Complementary Metal Oxide Semiconductor)やCCD(Charge Coupled Device)などのイメージセンサと、イメージセンサの受光領域上に結像するためレンズなどの結像光学系とを含む撮像装置である。カメラ160は、WEBカメラ、デジタル・スチル・カメラ、デジタル・ビデオ・カメラ、全天球カメラなどの専用デバイスとして構成されてもよいし、あるいは、スマートフォン端末やタブレット端末などの汎用デバイスに組み込まれたデバイスとして構成されてもよい。 The projector 150 is a projection device that employs a liquid crystal system, a CRT (Cathode Ray Tube) system, a DLP (Digital Light Processing) system, an LCOS (Liquid Crystal On Silicon) system, or the like, respectively. The projector 150 may be an ultra-short throw projector. The camera 160 is an imaging device including an image sensor such as a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) and an imaging optical system such as a lens for forming an image on a light receiving region of the image sensor. The camera 160 may be configured as a dedicated device such as a WEB camera, a digital still camera, a digital video camera, a spherical camera, or is incorporated in a general-purpose device such as a smartphone terminal or a tablet terminal. It may be configured as a device.
入力装置170は、マウス、キーボード、タッチパネル、操作パネルなどの入力装置であり、ユーザからの指示を受け付ける。入力装置170は、校正の初期パラメータを入力する際や校正結果を観察しながらの微調整の際に利用される。なお、入力装置170は、画像処理装置110、プロジェクタ150またはカメラ160に接続されたデバイスとして構成されてもよく、あるいは、これらの装置に組み込まれたデバイスとして構成されてもよい。 The input device 170 is an input device such as a mouse, keyboard, touch panel, and operation panel, and receives instructions from the user. The input device 170 is used when inputting the initial parameters of calibration and when making fine adjustments while observing the calibration results. The input device 170 may be configured as a device connected to the image processing device 110, the projector 150, or the camera 160, or may be configured as a device incorporated in these devices.
本映像投影システム100においては、被投影面を提供する投影体であるスクリーン102が設置されている。説明する実施形態において、スクリーン102は、水平方向に曲がりを有する円筒(縦円筒)形状を有しており、その円筒形状の一部または全部の内壁が投影面となっている。図1に示す複数のプロジェクタ150は、スクリーン102の曲がりと略垂直な垂直方向に、それぞれ、投影中心の位置をずらしながらスクリーン102上に投影像を投影するように設置されている。なお、説明する実施形態では、水平方向に曲がりを有する円筒の内壁をスクリーン102としているが、特に限定されるものではなく、1つの方向で曲がりを有し、幾何学形状が既知な如何なる曲面を有していてもよい。 In the image projection system 100, a screen 102, which is a projection body that provides a projection surface, is installed. In the embodiment described, the screen 102 has a cylindrical (vertical cylindrical) shape having a bend in the horizontal direction, and a part or all of the inner wall of the cylindrical shape is a projection surface. The plurality of projectors 150 shown in FIG. 1 are installed so as to project a projected image on the screen 102 while shifting the position of the projection center in the vertical direction substantially perpendicular to the bending of the screen 102. In the embodiment described, the inner wall of the cylinder having a bend in the horizontal direction is the screen 102, but the screen 102 is not particularly limited, and any curved surface having a bend in one direction and a known geometric shape can be used. You may have.
画像処理装置110は、複数のプロジェクタ150a,150bに投影させる複数の投影画像を生成し、対応するプロジェクタ150各々に投影画像各々を出力する。プロジェクタ150は、それぞれ、画像処理装置110から入力される投影画像をスクリーン102上に投影する。スクリーン102上には、図1に示すように、複数のプロジェクタ150a,150b各々からの複数の投影像104a,104bが投影されている。この複数の投影像104a,104bは、投影面上で重なり合わせられて、単一の投影像106に合成される。 The image processing device 110 generates a plurality of projected images to be projected on the plurality of projectors 150a and 150b, and outputs each of the projected images to each of the corresponding projectors 150. Each of the projectors 150 projects a projected image input from the image processing device 110 onto the screen 102. As shown in FIG. 1, a plurality of projected images 104a and 104b from each of the plurality of projectors 150a and 150b are projected on the screen 102. The plurality of projected images 104a and 104b are overlapped on the projection plane and combined into a single projected image 106.
映像投影システム100は、投影モード中、上述したように複数のプロジェクタ150a,150dを用いて単一の投影像106を投影するが、上述した投影モード前に、校正処理が行われる。図1に示すカメラ160は、この校正処理の際に用いられる。画像処理装置110は、校正モード中、複数のプロジェクタ150それぞれに校正用の画像を出力し、スクリーン102上に校正用の投影像を投影させる。そして、所定のプロジェクタ150により投影されたスクリーン102上の投影像104がカメラ160の画角内に入るように、カメラ視点および視野が設定され、1または複数回の校正用の撮影が行われることになる。 The image projection system 100 projects a single projection image 106 using the plurality of projectors 150a and 150d as described above in the projection mode, but the calibration process is performed before the projection mode described above. The camera 160 shown in FIG. 1 is used in this calibration process. During the calibration mode, the image processing device 110 outputs a calibration image to each of the plurality of projectors 150, and projects a projection image for calibration on the screen 102. Then, the camera viewpoint and the field of view are set so that the projected image 104 on the screen 102 projected by the predetermined projector 150 is within the angle of view of the camera 160, and one or a plurality of imaging for calibration is performed. become.
カメラ160で撮像された撮像画像(以下、校正用投影像が写り込んだ撮像画像を校正用撮像画像と参照する。)は、それぞれ、無線LAN(Local Area Network)、Bluetooth(登録商標)などの無線接続、または有線USBや有線LANなどの有線接続を介して、画像処理装置110へ送信される。あるいは、カメラ160で撮像された校正用撮像画像は、SDカードやコンパクトフラッシュ(登録商標)などのリムーバブル・メディアを介して、画像処理装置110で読み取られる。 The captured image captured by the camera 160 (hereinafter, the captured image in which the projected image for calibration is captured is referred to as the captured image for calibration) is a wireless LAN (Local Area Network), Bluetooth (registered trademark), or the like, respectively. It is transmitted to the image processing device 110 via a wireless connection or a wired connection such as a wired USB or a wired LAN. Alternatively, the calibration captured image captured by the camera 160 is read by the image processing device 110 via a removable medium such as an SD card or CompactFlash®.
画像処理装置110は、入力された複数の校正用撮像画像を用いて、複数のプロジェクタ150a,150bの投影像各々の各種補正係数を計算する。画像処理装置110は、投影モード中、計算された各種補正係数に基づき、プロジェクタ150a,150b各々に投影させるための補正された投影画像を生成する。以下、図2〜図14を参照しながら、円筒補正処理、各種補正係数の計算処理および補正係数に基づく補正処理について説明する。 The image processing device 110 calculates various correction coefficients for each of the projected images of the plurality of projectors 150a and 150b by using the plurality of input images for calibration. The image processing device 110 generates a corrected projected image for projection on each of the projectors 150a and 150b based on various calculated correction coefficients in the projection mode. Hereinafter, the cylinder correction process, the calculation process of various correction coefficients, and the correction process based on the correction coefficients will be described with reference to FIGS. 2 to 14.
(機能構成)
図2は、本実施形態による映像投影システム100の機能ブロック図である。図2に示すシステム100は、画像処理装置110上で動作する複数の機能ブロックを含む。画像処理装置110は、コンテンツ格納部112と、プロジェクタ毎の補正処理部114a,114bと、プロジェクタ毎の投影画像出力部116a,116bと、プロジェクタ毎の切替部122a,122bとを含み構成される。画像処理装置110は、さらに、校正用画像格納部124と、校正用撮像画像入力部126と、校正パラメータ入力部128と、補正係数算出部130とを含み構成される。
(Functional configuration)
FIG. 2 is a functional block diagram of the image projection system 100 according to the present embodiment. The system 100 shown in FIG. 2 includes a plurality of functional blocks operating on the image processing device 110. The image processing device 110 includes a content storage unit 112, correction processing units 114a and 114b for each projector, projected image output units 116a and 116b for each projector, and switching units 122a and 122b for each projector. The image processing device 110 further includes a calibration image storage unit 124, a calibration image capture image input unit 126, a calibration parameter input unit 128, and a correction coefficient calculation unit 130.
コンテンツ格納部112は、単一の投影像106として投影する対象であるコンテンツ画像を格納する。コンテンツ格納部112は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、着脱可能なリムーバブル・メディアなどの記憶領域として提供される。なお、投影対象となるコンテンツ画像は、プレゼンテーションなどのアプリケーションやオペレーティング・システムで生成される表示画面、静止画像ファイルの静止画、動画ファイル中の任意のタイミングのフレーム、外部入力される映像として与えられ得る。以下、説明の便宜上、静止画像としてコンテンツ画像が与えられた場合を一例に説明する。 The content storage unit 112 stores a content image to be projected as a single projected image 106. The content storage unit 112 is provided as a storage area for HDD (Hard Disk Drive), SSD (Solid State Drive), removable removable media, and the like. The content image to be projected is given as a display screen generated by an application such as a presentation or an operating system, a still image of a still image file, a frame at an arbitrary timing in a moving image file, or an externally input image. obtain. Hereinafter, for convenience of explanation, a case where a content image is given as a still image will be described as an example.
補正処理部114a,114bおよび投影画像出力部116a,116bは、システム100に含まれるプロジェクタ150a,150bに対応して設けられている。補正処理部114は、それぞれ、コンテンツ格納部112からコンテンツ画像を読み出し、補正処理を施し、対応するプロジェクタ用の投影画像を生成する。投影画像出力部116は、それぞれ、対応するプロジェクタ150に接続されるディスプレイ出力を含み構成され、接続されるプロジェクタに対し、切替部122で選択された入力画像を映像出力する。 The correction processing units 114a and 114b and the projected image output units 116a and 116b are provided corresponding to the projectors 150a and 150b included in the system 100. Each of the correction processing units 114 reads a content image from the content storage unit 112, performs correction processing, and generates a projection image for the corresponding projector. Each of the projected image output units 116 includes a display output connected to the corresponding projector 150, and outputs an input image selected by the switching unit 122 to the connected projector as a video.
切替部122a,122bは、当該システム100の動作モードに応じて、画像のフローを切り替える。コンテンツ画像を投影する投影モード中は、切替部122は、補正処理部114の出力に入力側を切り替える。これに伴い、投影画像出力部116は、それぞれ、対応する補正処理部114によるコンテンツ画像に基づく処理結果を映像出力する。一方、校正モード中は、切替部122は、校正用画像格納部124の出力に入力側を切り替える。これに伴い、投影画像出力部116は、それぞれ、校正用画像格納部124から読みだされた校正用画像を映像出力する。 The switching units 122a and 122b switch the image flow according to the operation mode of the system 100. During the projection mode for projecting the content image, the switching unit 122 switches the input side to the output of the correction processing unit 114. Along with this, the projection image output unit 116 outputs a video of the processing result based on the content image by the corresponding correction processing unit 114, respectively. On the other hand, during the calibration mode, the switching unit 122 switches the input side to the output of the calibration image storage unit 124. Along with this, each of the projected image output units 116 outputs the calibration image read from the calibration image storage unit 124 as a video.
校正用画像格納部124は、校正モード中にプロジェクタ150から投影させるための校正用画像を格納する。校正用画像格納部124は、HDD、SSD、着脱可能なリムーバブル・メディアの記憶領域として提供される。校正画像は、特に限定されるものではないが、典型的には、事前に準備された静止画像として与えられる。 The calibration image storage unit 124 stores a calibration image to be projected from the projector 150 during the calibration mode. The calibration image storage unit 124 is provided as a storage area for HDDs, SSDs, and removable removable media. The proof image is not particularly limited, but is typically given as a pre-prepared still image.
ここで、校正用画像は、投影像の格子点を規定する校正パターンおよび投影像の位置合わせ点を規定する位置合わせパターンの両方もしくは一方を含む。図3は、本実施形態による映像投影システム100で用いられる2種類の校正用画像を例示する図である。図3(A)は、位置合わせパターン202LT,202RT,202LB,202RBおよび校正パターン206の両方を含む第1校正用画像200を例示する。図3(B)は、位置合わせパターン212LT,212RT,212LB,212RBのみを含む第2校正用画像210を例示する。 Here, the calibration image includes both or one of a calibration pattern that defines the grid points of the projected image and an alignment pattern that defines the alignment points of the projected image. FIG. 3 is a diagram illustrating two types of calibration images used in the image projection system 100 according to the present embodiment. FIG. 3A illustrates a first calibration image 200 that includes both alignment patterns 202LT, 202RT, 202LB, 202RB and calibration pattern 206. FIG. 3B illustrates a second calibration image 210 containing only the alignment patterns 212LT, 212RT, 212LB, 212RB.
校正パターン206は、プロジェクタ・メモリ上の座標を規定するものであり、任意の図形要素204が所定の規則で配置されてなす模様として構成される。スクリーン102上に投影された校正パターン206を撮像し、その格子点を抽出することにより、投影像の台形歪みや局所的な歪みを検出することができる。位置合わせパターン202,212は、校正用に撮像した画像間での投影像の基準位置(位置合わせ点)を規定するものであり、複数の任意の図形要素が所定の位置に配置されて構成される。スクリーン102上に投影された共通の位置合わせパターン202,212を収めて複数回撮像することにより、複数の撮像画像間で、位置合わせを行うことができる。 The calibration pattern 206 defines the coordinates on the projector memory, and is configured as a pattern formed by arranging arbitrary graphic elements 204 according to a predetermined rule. By imaging the calibration pattern 206 projected on the screen 102 and extracting the grid points thereof, trapezoidal distortion and local distortion of the projected image can be detected. The alignment patterns 202 and 212 define the reference position (alignment point) of the projected image between the images captured for calibration, and are configured by arranging a plurality of arbitrary graphic elements at predetermined positions. To. By accommodating the common alignment patterns 202 and 212 projected on the screen 102 and taking images a plurality of times, alignment can be performed between the plurality of captured images.
図3を参照しながら具体的なパターンについて説明したが、校正パターン206および位置合わせパターン202,212は、特に限定されるものではない。 Although the specific pattern has been described with reference to FIG. 3, the calibration pattern 206 and the alignment patterns 202 and 212 are not particularly limited.
ここで、再び図2を参照する。本実施形態による校正処理では、1または複数回に分けて、プロジェクタ150各々の投影像の幾何歪みを検出するための校正パターンの撮像が行われ、位置合わせパターンにより複数の撮像結果が統合される。 Now, refer to FIG. 2 again. In the calibration process according to the present embodiment, the calibration pattern for detecting the geometric distortion of the projected image of each projector 150 is imaged in one or a plurality of times, and the plurality of imaging results are integrated by the alignment pattern. ..
まず、上述した校正用画像格納部124から各校正用画像が読み出され、複数のプロジェクタ150a,150b各々に対し、適切な校正用画像が選択されて出力される。ここでは、全体として過不足なく各プロジェクタ150の校正結果が得られるように校正処理の各段階に応じて校正用画像が選択される。このとき、ユーザは、カメラ160を用いて、校正用投影シーン毎に、投影された校正用投影像が画角に収まるようにして撮影を行う。校正用撮像画像入力部126は、カメラ160からの無線接続、有線接続、リムーバブル・メディアを介して各撮像画像の入力を受けて、複数の校正用撮像画像を準備する。 First, each calibration image is read out from the above-mentioned calibration image storage unit 124, and an appropriate calibration image is selected and output for each of the plurality of projectors 150a and 150b. Here, the calibration image is selected according to each stage of the calibration process so that the calibration result of each projector 150 can be obtained without excess or deficiency as a whole. At this time, the user uses the camera 160 to take a picture for each calibration projection scene so that the projected calibration projection image fits in the angle of view. The calibration captured image input unit 126 receives input of each captured image from the camera 160 via a wireless connection, a wired connection, or a removable medium, and prepares a plurality of calibration captured images.
補正係数算出部130は、投影された校正用画像が撮像され、準備された1以上の校正用撮像画像に基づき、特に、撮像時の透視変換に由来する歪みをキャンセルするようにして、上記複数のプロジェクタに対する補正係数を計算する。 The correction coefficient calculation unit 130 captures the projected calibration image, and based on one or more prepared calibration images, particularly cancels the distortion caused by the fluoroscopic conversion at the time of imaging. Calculate the correction factor for the projector.
ここで、具体的な校正処理について説明する前に、以下、図4および図5を参照しながら、円筒内壁のような1方向(例えば水平方向)に曲がった曲面を有する投影体に投影する場合に、観察者に与えられる違和感について検討する。 Here, before explaining the specific calibration process, the case of projecting onto a projection body having a curved surface curved in one direction (for example, the horizontal direction) such as the inner wall of a cylinder, with reference to FIGS. 4 and 5 below. First, consider the discomfort given to the observer.
図4(A)は、透視投影モデルについて説明する図である。図4(B)は、平行投影モデルについて説明する図である。図5(A)は、カメラ160と、縦円筒内壁のスクリーン102との関係を示す図である。図5(B)は、カメラで撮像された縦円筒内壁のスクリーン220を示す図である。図5(C)は、コンテンツを投影するために設定される、撮像画像座標系上で矩形形状を有する投影目標領域222を示す。図5(D)は、投影目標領域に収まるよう補正された補正後投影像を平行投影した補正後画像226を示す。 FIG. 4A is a diagram illustrating a perspective projection model. FIG. 4B is a diagram illustrating a parallel projection model. FIG. 5A is a diagram showing the relationship between the camera 160 and the screen 102 on the inner wall of the vertical cylinder. FIG. 5B is a diagram showing a screen 220 of the inner wall of the vertical cylinder imaged by the camera. FIG. 5C shows a projection target region 222 having a rectangular shape on the captured image coordinate system, which is set to project the content. FIG. 5D shows a corrected image 226 in which the corrected projected image corrected so as to fit in the projection target area is projected in parallel.
円筒内壁のようなスクリーン102に投影する場合に、通常の校正方法では、上述したように、全体の補正後の画像が上下両端で膨らんでいるように見えてしまい、観察者に違和感を与えてしまう場合がある。これは、カメラを用いて校正を行う場合、通常、撮像画像の座標をスクリーン座標と同一とみなして、撮像画像座標系において、補正後の投影像が矩形となるような補正を行うためである。 When projecting onto a screen 102 such as the inner wall of a cylinder, with the usual calibration method, as described above, the entire corrected image appears to bulge at both the upper and lower ends, giving the observer a sense of discomfort. It may end up. This is because when calibrating using a camera, the coordinates of the captured image are usually regarded as the same as the screen coordinates, and the corrected projected image is corrected to be rectangular in the captured image coordinate system. ..
カメラによる撮像は、3次元座標系(X,Y,Z)を2次元座標系(x、y)に変換することに相当するが、下記式上段に表されるような、透視投影変換(図4(A)に示す。)によりモデル化することができる。しかしながら、透視投影変換は、下記下段に表されるような3次元座標系での(X,Y,Z)の(X,Y)座標をそのまま射影する正射影(または平行投影:図4(B)に示す。)とは異なる結果を生じさせる。 Imaging with a camera is equivalent to converting a three-dimensional coordinate system (X, Y, Z) to a two-dimensional coordinate system (x, y), but perspective projection conversion (figure) as shown in the upper part of the following equation. 4 (A)) can be modeled. However, the perspective projection conversion is a normal projection (or parallel projection: FIG. 4B) that directly projects the (X, Y) coordinates of (X, Y, Z) in the three-dimensional coordinate system as shown in the lower row below. ) Gives different results.
矩形の平面スクリーンを正面から撮像した場合には、透視投影変換では、スクリーンとの距離に反比例して大きさが変化することにはなるが、透視投影変換であっても正射影の場合と同じように矩形に見えることになる。これに対し、奥行きのある縦円筒内壁のような曲面スクリーンを正面から撮像した場合、正射影では矩形に変換されることになるが、透視投影変換では、図5(B)に示すような糸巻き形状に見えることになる。すなわち、図5(A)および図5(B)において点線および破線で示すように、スクリーン102の各位置の奥行きに応じて、大きさが異なるため、手前にある部分は大きく、奥にある部分は小さく映り、矩形にはならず、上述した糸巻き形状に歪んで見えることになる。つまり、スクリーンが曲面となった場合には、撮像画像の座標は、曲面スクリーンを正面から見たときのxy座標系で表したもの(平行射影したx、y座標系)とは形状が異なることになる。 When a rectangular flat screen is imaged from the front, the size of the perspective projection conversion changes in inverse proportion to the distance from the screen, but the perspective projection conversion is the same as in the case of normal projection. It will look like a rectangle. On the other hand, when a curved screen such as the inner wall of a vertical cylinder with depth is imaged from the front, it is converted into a rectangle in normal projection, but in perspective projection conversion, it is wound as shown in FIG. 5 (B). It will look like a shape. That is, as shown by the dotted line and the broken line in FIGS. 5A and 5B, the size differs depending on the depth of each position of the screen 102, so that the front part is large and the back part is large. Appears small, does not become rectangular, and appears distorted in the pincushion shape described above. That is, when the screen is a curved surface, the coordinates of the captured image are different from those represented by the xy coordinate system when the curved screen is viewed from the front (parallel projected x, y coordinate system). become.
ここで、図5(C)に示すように、この糸巻き形状に歪んだ撮像画像座標系において矩形の投影目標領域222に収まるように画像の補正を行うと、結果的に補正後の画像224は、カメラ視点で見た場合のみ矩形に見えることになり、矩形の壁紙を曲面に貼ったような補正とはならない。図5(D)は、補正後の投影像を平行投影した画像を模式的に表しているが、このように、逆にたる型に膨らんだ壁紙を曲面に貼ったようになってしまうことになる。このため、カメラ視点から見た場合は、矩形に見え、カメラ視点から見るだけなら違和感はないが、例えばスクリーン上下端の正面から見た場合に、矩形の壁紙を貼ったような補正に比べてたる型に膨らんで投影されているで、観察者に違和感を与えることになる。 Here, as shown in FIG. 5C, when the image is corrected so as to fit in the rectangular projection target area 222 in the captured image coordinate system distorted in the thread winding shape, as a result, the corrected image 224 is obtained. , It looks like a rectangle only when viewed from the camera's point of view, and it is not a correction like pasting a rectangular wallpaper on a curved surface. FIG. 5 (D) schematically shows an image obtained by parallel-projecting the corrected projected image, but in this way, the wallpaper bulging in a barrel shape is pasted on the curved surface. Become. For this reason, it looks like a rectangle when viewed from the camera's point of view, and there is no sense of discomfort when viewed from the camera's point of view, but compared to, for example, when viewed from the front of the upper and lower edges of the screen, a rectangular wallpaper is attached. Since it is projected in a barrel shape, it gives the observer a sense of discomfort.
上述した通常の補正は、視聴者が1人であり、視聴位置がスクリーン正面中央に固定される場合は、視聴者の位置にカメラを置いて校正すれば問題がない。しかしながら、投影された投影像を、種々の位置の視点から複数人が見る場合は、投影像の端の方で観察した際にたる形状に膨らんで見えてしまうと、人は違和感を覚えやすい。 In the above-mentioned normal correction, when there is only one viewer and the viewing position is fixed to the center of the front of the screen, there is no problem if the camera is placed at the viewer's position and calibrated. However, when a plurality of people view the projected projected image from various viewpoints, it is easy for the person to feel a sense of discomfort if the projected image appears to bulge into a barrel shape when observed toward the edge of the projected image.
したがって、上述したような場合には、矩形の壁紙を曲面に貼ったように見せる補正の方が望ましい。それは、人間は、曲面に貼られたポスターやワインボトルのラベルのように、矩形の画像が曲面に貼られているものとして元の矩形の画像を想像して違和感なく認識することが期待されるからある。 Therefore, in the above cases, it is desirable to make a correction that makes the rectangular wallpaper look like it is attached to a curved surface. It is expected that human beings can imagine the original rectangular image as if it were affixed to a curved surface, such as a poster affixed to a curved surface or a label of a wine bottle, and recognize it without discomfort. There is from.
そこで、本実施形態では、画像処理装置110は、準備された1以上の校正用撮像画像各々から、プロジェクタ150各々について投影像の歪みを示す格子点データを抽出する。また、画像処理装置110は、校正用撮像画像を撮像したカメラ160との相対的な位置関係を含むスクリーン102の幾何学情報の入力を受け付ける。さらに、画像処理装置110は、抽出された格子点データおよび入力された幾何学情報に基づいて、スクリーン102の形状に起因した撮像時の透視変換による歪みを相殺させるように、1以上のプロジェクタ150各々に対する補正係数を計算する。これにより、1つの方向で曲がりを有するようなスクリーン102に対し、複数の視点からの観察でも違和感を与えないような投影像の補正を図る。 Therefore, in the present embodiment, the image processing device 110 extracts grid point data indicating distortion of the projected image for each of the projectors 150 from each of the prepared one or more calibration captured images. Further, the image processing device 110 accepts an input of geometric information of the screen 102 including a relative positional relationship with the camera 160 that has captured the image for calibration. Further, the image processing apparatus 110 is based on the extracted grid point data and the input geometric information, so that the distortion due to the fluoroscopic conversion at the time of imaging due to the shape of the screen 102 is offset by the one or more projectors 150. Calculate the correction factor for each. As a result, the projected image of the screen 102 having a bend in one direction is corrected so as not to give a sense of discomfort even when observed from a plurality of viewpoints.
再び図2を参照しながら、上述した補正を実現するための校正用撮像画像入力部126、校正パラメータ入力部128および補正係数算出部130の機能について、説明する。 With reference to FIG. 2 again, the functions of the calibration image input unit 126, the calibration parameter input unit 128, and the correction coefficient calculation unit 130 for realizing the above-mentioned correction will be described.
校正用撮像画像入力部126は、上述した各校正用投影シーンで投影された投影像を撮像した撮像画像の入力を受けて、複数の校正用撮像画像を記憶領域上に準備する。 The calibration image capture image input unit 126 receives the input of the image captured by capturing the projection image projected in each of the above-mentioned calibration projection scenes, and prepares a plurality of calibration image images on the storage area.
校正パラメータ入力部128は、ユーザからのスクリーン102のサイズおよびカメラ160との幾何学的関係を示す校正パラメータの入力を受け付ける。校正パラメータ入力部128は、本実施形態におけるスクリーン102の幾何学情報の入力を受ける情報入力手段を構成する。 The calibration parameter input unit 128 accepts input from the user of calibration parameters indicating the size of the screen 102 and the geometric relationship with the camera 160. The calibration parameter input unit 128 constitutes an information input means for receiving the input of the geometric information of the screen 102 in the present embodiment.
補正係数算出部130は、より詳細には、特徴点抽出統合部132と、円筒補正部134と、幾何補正係数計算部136と、ブレンディング係数計算部138とを含み構成される。 More specifically, the correction coefficient calculation unit 130 includes a feature point extraction integration unit 132, a cylindrical correction unit 134, a geometric correction coefficient calculation unit 136, and a blending coefficient calculation unit 138.
特徴点抽出統合部132は、準備された1以上の校正用撮像画像各々から、各特徴点を抽出する。ここでは、各校正用撮像画像と、上述した校正用投影シーンとが対応付けられて校正用撮像画像入力部126に与えられるものとする。説明する実施形態では、校正用画像には、この校正用画像を投影するプロジェクタの投影像の歪みを検出するための校正パターンの配列が含まれる。特徴点抽出統合部132は、この校正パターンの配列が規定する格子点の組を抽出し、格子点データを生成する。各校正用撮像画像から抽出された格子点は、抽出元画像の座標系上の座標位置として抽出されるが、適宜、位置合わせマーカにより、単一の座標系(以下、統合座標系と参照する。)上に統合される。特徴点抽出統合部132は、本実施形態における格子点抽出手段および格子点変換手段を構成する。 The feature point extraction integration unit 132 extracts each feature point from each of the prepared one or more calibration captured images. Here, it is assumed that each calibration image and the above-mentioned calibration projection scene are associated with each other and given to the calibration image input unit 126. In the embodiments described, the calibration image includes an array of calibration patterns for detecting distortion of the projected image of the projector that projects the calibration image. The feature point extraction integration unit 132 extracts a set of grid points defined by the arrangement of the calibration pattern and generates grid point data. The grid points extracted from each calibration image are extracted as coordinate positions on the coordinate system of the extraction source image, and are appropriately referred to as a single coordinate system (hereinafter referred to as an integrated coordinate system) by an alignment marker. .) Integrated on. The feature point extraction integration unit 132 constitutes the grid point extraction means and the grid point conversion means in the present embodiment.
円筒補正部134は、上述した校正用撮像画像の統合座標系(元座標系)から、スクリーン102の円筒形状に応じた座標系(補正後座標系)へと補正する。円筒補正部134は、より具体的には、特徴点抽出統合部132により得られた統合座標系上の格子点データに対し、上記元座標系から補正後座標系への補正を施す。円筒補正部134は、本実施形態による補正手段を構成する。なお、円筒補正については、詳細を後述する。 The cylinder correction unit 134 corrects the integrated coordinate system (original coordinate system) of the above-mentioned calibration image to a coordinate system (corrected coordinate system) corresponding to the cylindrical shape of the screen 102. More specifically, the cylindrical correction unit 134 corrects the grid point data on the integrated coordinate system obtained by the feature point extraction integration unit 132 from the original coordinate system to the corrected coordinate system. The cylindrical correction unit 134 constitutes the correction means according to the present embodiment. The details of the cylinder correction will be described later.
幾何補正係数計算部136は、円筒補正部134により補正された各プロジェクタ150毎の格子点データに基づいて、幾何補正係数を計算し、補正処理部114a,114bに対し設定する。幾何補正係数は、位置合わせ、スケール合わせ、歪み補正などの幾何学的な補正を織り込んだ補正係数であり、プロジェクタ150各々から投影する投影画像を与えるものである。 The geometric correction coefficient calculation unit 136 calculates the geometric correction coefficient based on the grid point data for each projector 150 corrected by the cylindrical correction unit 134, and sets it for the correction processing units 114a and 114b. The geometric correction coefficient is a correction coefficient that incorporates geometric corrections such as alignment, scale adjustment, and distortion correction, and gives a projected image projected from each of the projectors 150.
ブレンディング係数計算部138は、同様に、投影像のブレンディングの補正係数を算出し、補正処理部114a,114bに設定する。ブレンディング係数は、重複領域の重ね合わせの際の色および輝度調整を行うための補正係数である。ブレンディング係数計算部138、より具体的には、複数のプロジェクタ150各々に対し、注目するプロジェクタの投影像と、この注目するプロジェクタに隣接するプロジェクタ各々の投影像との間の重複領域を検出し、重複領域の検出結果に基づき、ブレンディング係数を計算する。このプロジェクタ毎のブレンディング係数により、スクリーン102上における複数のプロジェクタ150の投影像が重なる部分において、画像が滑らかに合成される。 Similarly, the blending coefficient calculation unit 138 calculates the correction coefficient for the blending of the projected image and sets it in the correction processing units 114a and 114b. The blending coefficient is a correction coefficient for adjusting the color and brightness when superimposing overlapping regions. The blending coefficient calculation unit 138, more specifically, for each of the plurality of projectors 150, detects an overlapping region between the projected image of the projector of interest and the projected image of each of the projectors adjacent to the projector of interest. The blending coefficient is calculated based on the detection result of the overlapping region. Due to the blending coefficient for each projector, the images are smoothly combined at the portion where the projected images of the plurality of projectors 150 overlap on the screen 102.
このようにして、補正係数算出部130は、抽出された格子点データおよび入力された幾何学情報に基づいて、スクリーン形状に起因した撮像時の透視変換による歪みを相殺させるように、各プロジェクタ150各々に対する補正係数を計算する。補正係数算出部130は、本実施形態における補正係数計算手段を構成する。 In this way, the correction coefficient calculation unit 130 cancels out the distortion due to the fluoroscopic conversion at the time of imaging due to the screen shape based on the extracted grid point data and the input geometric information. Calculate the correction factor for each. The correction coefficient calculation unit 130 constitutes the correction coefficient calculation means in the present embodiment.
補正処理部114は、それぞれ、補正係数算出部130によって計算された各種補正係数に基づき、コンテンツ画像からプロジェクタ毎の投影画像を生成する。投影画像出力部116は、補正された複数の補正画像を各々対応する複数のプロジェクタ150により投影するよう出力する。投影画像出力部116は、本実施形態における画像出力手段を構成する。 The correction processing unit 114 generates a projection image for each projector from the content image based on various correction coefficients calculated by the correction coefficient calculation unit 130, respectively. The projected image output unit 116 outputs the corrected plurality of corrected images so as to be projected by the corresponding plurality of projectors 150. The projected image output unit 116 constitutes the image output means in the present embodiment.
上述したように計算された補正係数に基づき補正された複数の補正画像を各々対応する複数のプロジェクタ150により投影する。これによって、円筒形状のスクリーン102に投影した場合における奥行きのある辺(曲がりを有する1つの方向)の撮像時の透視変換に起因する湾曲歪みが補正される。 A plurality of corrected images corrected based on the correction coefficients calculated as described above are projected by the corresponding plurality of projectors 150. As a result, the curvature distortion caused by the fluoroscopic transformation at the time of imaging of a deep side (one direction having a bend) when projected onto the cylindrical screen 102 is corrected.
好ましい実施形態では、入力された幾何学情報による初期補正にもかかわらず、湾曲歪みが残存する場合に、より良好な結果を得るために、校正パラメータ入力部128は、さらに、幾何学情報の微調整量の入力を受け付けることができる。この場合、補正係数算出部130は、入力された微調整量を加味して、補正係数を再計算する。ユーザは、再計算された修正補正係数に基づいて複数のプロジェクタ150により投影した投影結果を観察しながら、湾曲歪みが十分補正されたと判断するまで、微調整量入力および修正補正係数に基づく投影を繰り返すことができる。これにより、撮像時の透視変換に起因する湾曲歪みをより高精度に補正し、スクリーン102に投影領域を適合させることが可能となる。 In a preferred embodiment, in order to obtain a better result when the curvature distortion remains despite the initial correction by the input geometric information, the calibration parameter input unit 128 further makes a minute of the geometric information. The input of the adjustment amount can be accepted. In this case, the correction coefficient calculation unit 130 recalculates the correction coefficient in consideration of the input fine adjustment amount. While observing the projection results projected by the plurality of projectors 150 based on the recalculated correction correction coefficient, the user performs fine adjustment amount input and projection based on the correction correction coefficient until it is determined that the curvature distortion is sufficiently corrected. Can be repeated. This makes it possible to correct the curvature distortion caused by the fluoroscopic transformation at the time of imaging with higher accuracy and to adapt the projection region to the screen 102.
なお、図2に示す実施形態では、各機能部112〜138が単一の画像処理装置110上で実現されるものとして説明したが、映像投影システム100の実施形態は、図2に示すものに限定されるものではない。他の実施形態では、台数の増加に伴う画像処理装置に集中する負荷を軽減するため、補正処理部114各々をプロジェクタ150各々上で実現してもよい。さらに他の実施形態では、各機能部112〜138を複数の画像処理装置上に分散実装してもよいし、すべての機能部112〜138をいずれかのプロジェクタ150上で実装してもよいし、画像処理装置110の機能と、複数のプロジェクタの機能とを備える単一の装置として構成してもよい。さらに、他の実施形態では、補正係数算出部130の機能をサービスとしてネットワークを介して提供するサーバとして実装してもよい。 In the embodiment shown in FIG. 2, each functional unit 112 to 138 has been described as being realized on a single image processing device 110, but the embodiment of the image projection system 100 is the one shown in FIG. It is not limited. In another embodiment, each of the correction processing units 114 may be realized on each of the projectors 150 in order to reduce the load concentrated on the image processing apparatus due to the increase in the number of units. In still other embodiments, the functional units 112 to 138 may be distributed and mounted on a plurality of image processing devices, or all the functional units 112 to 138 may be mounted on any of the projectors 150. , The image processing apparatus 110 may be configured as a single apparatus having the functions of the image processing apparatus 110 and the functions of a plurality of projectors. Further, in another embodiment, the function of the correction coefficient calculation unit 130 may be implemented as a server that is provided as a service via a network.
(全体処理フロー)
以下、本実施形態による校正処理について、図6に示すフローチャートおよび図7に示す校正用投影シーンを参照しながら、全体的な流れを説明する。図6は、本実施形態による校正処理の全体的な処理の流れを示すフローチャートである。図6に示す処理は、ユーザからの校正処理開始の指示に応答して、ステップS100から開始される。
(Overall processing flow)
Hereinafter, the overall flow of the calibration process according to the present embodiment will be described with reference to the flowchart shown in FIG. 6 and the calibration projection scene shown in FIG. 7. FIG. 6 is a flowchart showing the overall processing flow of the calibration process according to the present embodiment. The process shown in FIG. 6 is started from step S100 in response to an instruction from the user to start the calibration process.
ステップS101では、画像処理装置110は、ユーザからのスクリーン102のサイズおよびカメラ160との幾何学的関係を示す校正パラメータの入力を受け付ける。この入力は、画像処理装置110に接続されたディスプレイに条件入力画面を表示することにより、条件入力画面を介して入力装置170で受け付けられる。ここで、説明する実施形態において、被投影面は、略円筒面の少なくとも一部であり、上述した幾何学情報を構成する校正パラメータは、スクリーン102の円筒形状の半径、略円筒面上に画定される被投影面の範囲(以下、カーソル領域と参照する場合がある。)を規定する中心角といったサイズ情報、スクリーン102のカメラ160からの距離情報、およびスクリーン102のカメラ160との中心のずれ情報を含み得る。 In step S101, the image processing device 110 accepts input from the user of calibration parameters indicating the size of the screen 102 and the geometric relationship with the camera 160. This input is received by the input device 170 via the condition input screen by displaying the condition input screen on the display connected to the image processing device 110. Here, in the embodiment described, the projected surface is at least a part of a substantially cylindrical surface, and the calibration parameters constituting the above-mentioned geometric information are defined on the radius of the cylindrical shape of the screen 102, the substantially cylindrical surface. Size information such as a central angle that defines the range of the projected surface to be projected (hereinafter, may be referred to as a cursor area), distance information of the screen 102 from the camera 160, and a deviation of the center of the screen 102 from the camera 160. May contain information.
ステップS1102では、画像処理装置110は、複数のプロジェクタ150a,150bを用いて、生成された各校正用投影シーンを順番に投影し、カメラ160により各校正用投影シーンに対応して撮像された各校正用撮像画像を取得する。 In step S1102, the image processing device 110 sequentially projects each of the generated calibration projection scenes using the plurality of projectors 150a and 150b, and each image is taken by the camera 160 corresponding to each calibration projection scene. Acquire an image for calibration.
図7は、本実施形態による画像処理装置110が上下2段のプロジェクタ150a,150bから投影させる校正用投影シーンを例示する図である。図7には、図3(A)および(B)に示した校正用画像を各プロジェクタから交互に投影する2つの校正用投影シーンが示されている。 FIG. 7 is a diagram illustrating a calibration projection scene projected by the image processing device 110 according to the present embodiment from the upper and lower two-stage projectors 150a and 150b. FIG. 7 shows two calibration projection scenes in which the calibration images shown in FIGS. 3 (A) and 3 (B) are alternately projected from each projector.
図7(A)に示す撮像1回目の第1校正用投影シーンでは、画像処理装置110は、まず、下段プロジェクタ150aから図3(A)に示す第1校正用画像を投影させ、上段プロジェクタ150bからは図3(B)に示す第2校正用画像を投影させる。図7(B)に示す撮像2回目の第2シーンでは、反対に、下段プロジェクタ150aおよび上段プロジェクタ150bから、それぞれ、図3(B)に示す第2校正用画像および図3(A)に示す第1校正用画像が投影される。 In the first calibration projection scene shown in FIG. 7A, the image processing device 110 first projects the first calibration image shown in FIG. 3A from the lower projector 150a, and then projects the first calibration image shown in FIG. 3A, and then the upper projector 150b. The second calibration image shown in FIG. 3 (B) is projected from. In the second scene of the second imaging shown in FIG. 7B, on the contrary, the second calibration image shown in FIG. 3B and the second calibration image shown in FIG. 3A are shown from the lower projector 150a and the upper projector 150b, respectively. The first calibration image is projected.
ユーザは、連結するすべてのプロジェクタ150a,150bの投影像の全体が画角内に収まるようにカメラ160を三脚などで固定してあるいは手持ちで、上述した各段階での複数回の撮影を行う。カメラ160からの校正用投影シーン各々に対応した校正用撮像画像各々は、一括で、または順次に、画像処理装置110に取得され、ステップS103へ処理が進められる。 The user fixes the camera 160 with a tripod or the like so that the entire projected image of all the connected projectors 150a and 150b fits within the angle of view, or holds the camera 160 and performs a plurality of shootings at each of the above-mentioned stages. Each of the calibration captured images corresponding to each of the calibration projection scenes from the camera 160 is acquired by the image processing device 110 collectively or sequentially, and processing proceeds to step S103.
なお、説明する実施形態では、複数のプロジェクタ150a,150bの投影像の全体がカメラ160の視野角に収まるようして撮像され、カメラ160の位置は略同一であるものとする。カメラ160は、三脚により物理的に固定されてもよいし、手持ちで固定されていなくともよい。カメラ160が固定されない場合でも、複数のプロジェクタ150a,150bの投影像の全体がカメラ160の視野角に収まるようして撮像されれば、上述した位置合わせパターン202,212が一致するように射影変換することにより撮像結果の統合することができる。なお、以下、カメラが固定されて撮像された場合について、一例として、説明する。 In the embodiment to be described, it is assumed that the entire projected images of the plurality of projectors 150a and 150b are imaged so as to fit in the viewing angle of the camera 160, and the positions of the cameras 160 are substantially the same. The camera 160 may or may not be physically fixed by a tripod or may not be hand-held. Even if the camera 160 is not fixed, if the entire projected image of the plurality of projectors 150a and 150b is imaged so as to fit in the viewing angle of the camera 160, the projection conversion is performed so that the above-mentioned alignment patterns 202 and 212 match. By doing so, the imaging results can be integrated. Hereinafter, the case where the camera is fixed and the image is taken will be described as an example.
ステップS103では、画像処理装置110は、取得された1以上の校正用撮像画像各々から特徴点を抽出する特徴点抽出統合処理を実行する。特徴点抽出統合処理では、各プロジェクタの格子点の組および位置合わせマーカが規定する基準点の座標位置が、統合された座標系において抽出される。 In step S103, the image processing device 110 executes a feature point extraction integrated process for extracting feature points from each of the acquired one or more calibration captured images. In the feature point extraction integrated processing, the coordinate position of the reference point defined by the set of grid points of each projector and the alignment marker is extracted in the integrated coordinate system.
より具体的には、画像処理装置110は、まず、各々の撮像画像におけるプロジェクタ150各々の投影像の校正パターン(円形状)を検出し、撮像画像の座標系におけるその重心座標を、格子点の座標として抽出する。円形状の重心座標は、例えば、画像を2値化し、白画素のかたまりをパターンマッチングなどで切り出し、その重心座標を求めることによって、計算することができる。また、位置合わせマーカも同様であり、画像処理装置110は、複数の撮像画像から、各々の撮像画像の座標系における位置合わせマーカの重心座標を検出し、その重心座標を基準点の座標として抽出する。 More specifically, the image processing device 110 first detects the calibration pattern (circular shape) of the projected image of each projector 150 in each captured image, and sets the coordinates of the center of gravity in the coordinate system of the captured image to the grid points. Extract as coordinates. The coordinates of the center of gravity of the circular shape can be calculated, for example, by binarizing the image, cutting out a mass of white pixels by pattern matching or the like, and obtaining the coordinates of the center of gravity. The same applies to the alignment marker. The image processing device 110 detects the coordinates of the center of gravity of the alignment marker in the coordinate system of each captured image from the plurality of captured images, and extracts the coordinates of the center of gravity as the coordinates of the reference point. To do.
以下、下段および上段3プロジェクタ150a,150bの格子点の座標をL1,L2で表し、位置合わせマーカの基準点の座標をM1,M2で表す。説明する実施形態では、カメラ160を固定して撮像しているため、複数回にわたる撮像画像の座標系が実質的にずれないので、得られる格子点座標L1,L2および基準点座標M1,M2は、単一の座標系(統合座標系)の座標である。 Hereinafter, represent lower and upper 3 projector 150a, the coordinates of the lattice points 150b in L 1, L 2, representing the coordinates of the reference point of the alignment marker at M 1, M 2. In the embodiment described, since the camera 160 is fixedly imaged, the coordinate system of the captured images over a plurality of times does not substantially deviate. Therefore, the obtained grid point coordinates L 1 , L 2 and the reference point coordinates M 1 are obtained. , M 2 are the coordinates of a single coordinate system (integrated coordinate system).
ステップS104では、詳細を後述するが、上記ステップS101で入力された校正パラメータに基づいて、上記算出された格子点座標L1,L2に対し円筒補正を施す。ステップS105では、上記補正された格子点座標L1’,L2’に基づいて、各プロジェクタの幾何補正係数を計算する。ステップS106では、画像処理装置110は、各プロジェクタのブレンディング係数を計算する。ステップS107では、画像処理装置110は、各補正処理部114に対し、ステップS105およびステップS106で計算されたプロジェクタ毎の幾何補正係数およびブレンディング係数を設定する。 In step S104, the details will be described later, but based on the calibration parameters input in step S101, the calculated grid point coordinates L 1 and L 2 are subjected to cylindrical correction. In step S105, the corrected grid point coordinate L 1 ', L 2' based on, to calculate the geometric correction factor for each projector. In step S106, the image processing device 110 calculates the blending coefficient of each projector. In step S107, the image processing apparatus 110 sets the geometric correction coefficient and the blending coefficient for each projector calculated in steps S105 and S106 for each correction processing unit 114.
ステップS108では、画像処理装置110は、投影すべきコンテンツ画像を読み出し、ステップS109では、コンテンツ画像に対し、プロジェクタ毎の補正処理部114で補正処理を実行する。補正処理の開始により、切替部122は、補正処理部114の出力に、投影画像出力部116の入力を切り替えて、投影モードに移行する。ステップS110では、画像処理装置110は、補正されたプロジェクタ毎の投影画像をプロジェクタ毎の投影画像出力部116からそれぞれ出力させる。これにより、全体としてコンテンツ画像がスクリーン102内に投影されるようになる。 In step S108, the image processing device 110 reads out the content image to be projected, and in step S109, the correction processing unit 114 for each projector executes correction processing on the content image. Upon starting the correction process, the switching unit 122 switches the input of the projected image output unit 116 to the output of the correction processing unit 114, and shifts to the projection mode. In step S110, the image processing device 110 outputs the corrected projected image for each projector from the projected image output unit 116 for each projector. As a result, the content image is projected on the screen 102 as a whole.
上記投影モードの初期において、コンテンツ画像が投影される領域の四隅をスクリーン102に一致させる調整作業、入力した校正パラメータを増減させて投影像の歪みを調整する調整作業を行うためのユーザ・インタフェースが表示される。これらのユーザ・インタフェースは、プロジェクタ150が投影する画面の一部や、別途設けられたディスプレイ画面上に表示され得る。 In the initial stage of the projection mode, there is a user interface for adjusting the four corners of the area where the content image is projected to match the screen 102 and adjusting the distortion of the projected image by increasing or decreasing the input calibration parameters. Is displayed. These user interfaces may be displayed on a part of the screen projected by the projector 150 or on a separately provided display screen.
ユーザは、このユーザ・インタフェースを用いて、目視により、コンテンツ画像を投影する投影目標領域の四隅や校正パラメータを微調整する。そして、ユーザは、コンテンツ画像がスクリーン102にぴったり収まり、歪みが補正されたと判断した場合、調整終了の指示を行う。調整作業の詳細については、図9および図10を参照しながら後述する。 Using this user interface, the user visually fine-tunes the four corners of the projection target area on which the content image is projected and the calibration parameters. Then, when it is determined that the content image fits perfectly on the screen 102 and the distortion is corrected, the user gives an instruction to end the adjustment. Details of the adjustment work will be described later with reference to FIGS. 9 and 10.
ステップS111では、画像処理装置110は、ユーザから終了指示を受け付けたか否かを判定する。ステップS111で、調整終了指示を受け付けていないと判定された場合(NO)は、ステップS112へ処理が進められる。ステップS112では、画像処理装置110は、ユーザ・インタフェースを介して入力された調整量に基づき、投影目標領域の四隅を規定する基準点の位置座標および校正パラメータを更新し、ステップS104へ処理をループさせる。これにより、調整結果が反映された状態で、特徴点の補正、各プロジェクタの幾何補正係数およびブレンディング係数の再計算が行われる。 In step S111, the image processing device 110 determines whether or not the end instruction has been received from the user. If it is determined in step S111 that the adjustment end instruction is not accepted (NO), the process proceeds to step S112. In step S112, the image processing apparatus 110 updates the position coordinates and calibration parameters of the reference points that define the four corners of the projection target area based on the adjustment amount input via the user interface, and loops the process to step S104. Let me. As a result, the feature points are corrected and the geometric correction coefficient and blending coefficient of each projector are recalculated while the adjustment result is reflected.
一方、ステップS111で、調整終了指示を受け付けたと判定された場合(YES)は、ステップS113へ処理を分岐させ、調整を完了させて、通常の投影モードに移行する。 On the other hand, if it is determined in step S111 that the adjustment end instruction has been accepted (YES), the process is branched to step S113, the adjustment is completed, and the normal projection mode is entered.
(円筒補正の概要)
以下、撮像時の透視変換による垂直方向および水平方向のスケールの伸縮を補正する処理の概要について説明する。なお、ここでは、図8(A)に示すように、縦円筒形状のスクリーン102に対し、天地に設置した2台のプロジェクタ150a,150bで縦連結投影する場合を一例として説明する。
(Outline of cylinder correction)
Hereinafter, the outline of the process of correcting the expansion and contraction of the scale in the vertical direction and the horizontal direction due to the fluoroscopic conversion at the time of imaging will be described. Here, as shown in FIG. 8A, a case where two projectors 150a and 150b installed on the top and bottom perform vertical connection projection on the vertically cylindrical screen 102 will be described as an example.
図8(A)において、円筒スクリーンの中心軸をy軸とし、円筒スクリーン面と正対してz-y平面を取り、円筒スクリーンの中心位置を原点(x,y)=(0、0)とする。図8(B)は、図8(A)に示した円筒スクリーンを真上から見た図である。図8(C)は、円筒面の水平方向の円弧に沿った湾曲した軸をx’軸とし、この円筒面上のx’軸上の等間隔なスケールを、無限遠から撮像した場合、および、近接撮像した場合にそれぞれどのように変化するかを模式的に示している。 In FIG. 8A, the central axis of the cylindrical screen is the y-axis, the z-y plane is taken facing the cylindrical screen surface, and the center position of the cylindrical screen is the origin (x, y) = (0,0). To do. FIG. 8B is a view of the cylindrical screen shown in FIG. 8A as viewed from directly above. FIG. 8C shows a case where a curved axis along the horizontal arc of the cylindrical surface is the x'axis, and equidistant scales on the x'axis on the cylindrical surface are imaged from infinity, and It schematically shows how each changes when a close-up image is taken.
無限遠から撮像した場合は、図8(C)の中央に示すような仮想投影平面に平行投影したものとなり、これをx軸で表す。近接撮像した場合は、図8(C)の右側に示すように、撮像面へ透視変換投影したものになり、これをu軸で表す。 When the image is taken from infinity, it is projected in parallel to the virtual projection plane as shown in the center of FIG. 8C, and this is represented by the x-axis. In the case of close-up imaging, as shown on the right side of FIG. 8C, perspective transformation projection is performed on the imaging surface, and this is represented by the u-axis.
円筒面の中心角が十分小さければ、仮想投影平面に平行投影したx軸と円筒面上のx’軸のスケールの伸び縮みは大きくはない。しかしながら、近接撮像した場合は、図8(C)に示すように、撮像距離が小さくなればなるほど、その撮像面上のu軸でのスケールの伸び縮みは大きくなる。 If the central angle of the cylindrical surface is sufficiently small, the scales of the x-axis projected parallel to the virtual projective plane and the x'axis on the cylindrical surface do not expand or contract significantly. However, in the case of close-up imaging, as shown in FIG. 8C, the smaller the imaging distance, the greater the expansion and contraction of the scale on the u-axis on the imaging surface.
円筒面上の湾曲したx’軸と近接撮像での撮像面上のu軸の対応関係を解析的に解くことができれば、撮像画像上の水平座標を、円筒面上の水平座標(円筒面を展開した平面の水平座標)に対応する撮像画像の座標系に変換することができる。この対応関係の解析を含めて、近接撮像した格子点座標を、円筒面を展開した平面座標へ変換する処理の詳細については、図11から図14を参照しながら後述する。 If the correspondence between the curved x'axis on the cylindrical surface and the u-axis on the imaging surface in close-up imaging can be analytically solved, the horizontal coordinates on the captured image can be changed to the horizontal coordinates on the cylindrical surface (cylindrical surface). It can be converted to the coordinate system of the captured image corresponding to the horizontal coordinates of the developed plane). Details of the process of converting the grid point coordinates of the close-up image to the plane coordinates of the expanded cylindrical surface, including the analysis of this correspondence, will be described later with reference to FIGS. 11 to 14.
円筒面のサイズ情報およびカメラ160の円筒面に対する相対的な位置情報の初期値による補正で、十分に湾曲歪みを補正しきれなかった場合は、ユーザ入力により、残存する上下辺の湾曲歪みをさらに微調整することができる。この場合、ユーザは、カメラ160がスクリーン102に正対はしているという前提の下、カメラ160の円筒面に対するスクリーン中心からの左右上下のずれ(xoffset,yoffset)および撮像距離(distance)のずれを微調整しながら補正結果を投影、目視で湾曲歪みをスクリーンに合わせ込むことができる。 If the initial values of the size information of the cylindrical surface and the position information relative to the cylindrical surface of the camera 160 cannot sufficiently correct the curvature distortion, the remaining curvature distortion of the upper and lower sides is further corrected by user input. Can be fine-tuned. In this case, the user assumes that the camera 160 faces the screen 102, and the deviation of the camera 160 from the center of the screen to the left, right, up and down (xoffset, yoffset) and the imaging distance (distance) with respect to the cylindrical surface of the camera 160. The correction result can be projected while making fine adjustments, and the curvature distortion can be visually adjusted to the screen.
(初期補正から調整までの作業の流れ)
以下、本実施形態による校正処理におけるユーザによる調整作業について、図9に示すフローチャートおよび図10に示す表を参照しながら説明する。図9は、本実施形態による校正処理における調整作業の流れを示すフローチャートである。図10は、本実施形態による調整作業における校正パラメータの調整の仕方を説明する表である。
(Work flow from initial correction to adjustment)
Hereinafter, the adjustment work by the user in the calibration process according to the present embodiment will be described with reference to the flowchart shown in FIG. 9 and the table shown in FIG. FIG. 9 is a flowchart showing a flow of adjustment work in the calibration process according to the present embodiment. FIG. 10 is a table for explaining how to adjust the calibration parameters in the adjustment work according to the present embodiment.
図9に示す処理は、ステップS200から開始される。ステップS201では、画像処理装置110は、校正パラメータの初期値に基づいて補正された初期補正画像を出力する。ここでは、詳細を後述する校正パラメータについて、概略の設計値、実測値またはデフォルト値が入力されているものとする。 The process shown in FIG. 9 is started from step S200. In step S201, the image processing device 110 outputs an initial corrected image corrected based on the initial value of the calibration parameter. Here, it is assumed that the approximate design value, actual measurement value, or default value is input for the calibration parameter whose details will be described later.
ステップS202では、画像処理装置110は、投影目標領域の外形を規定する四隅の基準点の微調整量を受け付ける。ここでは、ユーザは、初期補正画像および微調整後の補正画像の投影像を観察しながら、補正画像の四隅がスクリーン102上の目標となる領域に一致するように、四隅の基準点の微調整量を入力する。 In step S202, the image processing device 110 receives the fine adjustment amount of the reference points at the four corners that define the outer shape of the projection target area. Here, the user fine-tunes the reference points of the four corners so that the four corners of the corrected image match the target area on the screen 102 while observing the projected image of the initial corrected image and the corrected image after the fine adjustment. Enter the amount.
ステップS203では、画像処理装置110は、校正パラメータの一つである距離パラメータ(distance)の微調整を受け付ける。ここで、ユーザは、微調整後の補正画像の投影像を観察しながら、上下辺のたる形の歪みが軽減されるように距離パラメータ(distance)の微調整量を入力する。 In step S203, the image processing device 110 accepts fine adjustment of the distance parameter (distance), which is one of the calibration parameters. Here, the user inputs the fine adjustment amount of the distance parameter (distance) so as to reduce the distortion of the barrel shape on the upper and lower sides while observing the projected image of the corrected image after the fine adjustment.
ここで、図10に示す上2段の行を参照すると、距離パラメータの調整の仕方が説明されている。図10の表の第1段目に示すように、端辺が膨らんでいる傾向が観察される場合は、カメラの位置が、正しい位置よりも遠くに設定されている場合に該当すると考えられる。このため、距離パラメータを減らすことにより、上側および下側共に現状よりも膨らみを軽減することができる。一方、図10の表の第2段目に示すように、端辺がへこんでいる傾向が観察される場合は、カメラの位置が正しい位置よりも近くに設定されている場合に該当すると考えられる。このため、距離パラメータを増やすことにより、上側および下側共に現状より膨らませることができる。なお、ここで、正しい位置とは、補正結果が矩形貼り付け状に補正される距離パラメータの値をいい、必ずしも物理的なカメラ位置とは一致しない点に留意されたい。 Here, referring to the upper two rows shown in FIG. 10, how to adjust the distance parameter is explained. As shown in the first row of the table of FIG. 10, when the tendency of the edge to bulge is observed, it is considered that the position of the camera is set farther than the correct position. Therefore, by reducing the distance parameter, it is possible to reduce the bulge on both the upper side and the lower side than the current state. On the other hand, as shown in the second row of the table in FIG. 10, when the tendency of the edge to be dented is observed, it is considered that it corresponds to the case where the position of the camera is set closer than the correct position. .. Therefore, by increasing the distance parameter, both the upper side and the lower side can be inflated from the current state. It should be noted that the correct position here means the value of the distance parameter in which the correction result is corrected in a rectangular pasted shape, and does not necessarily match the physical camera position.
ステップS204では、画像処理装置110は、歪みの上下および左右のバランスが崩れているか否かの問い合わせを行い、ユーザからの入力を受け付ける。カメラ160がスクリーン102に正対してスクリーン102中央に設置されているのであれば、バランスは崩れず、上下左右対称に歪みが発生することになる。ステップS204で、バランスが崩れているとのユーザからの回答を受け付けた場合(YES)は、ステップS205へ処理を分岐させる。 In step S204, the image processing device 110 inquires whether or not the distortion is out of balance vertically and horizontally, and accepts input from the user. If the camera 160 is installed in the center of the screen 102 facing the screen 102, the balance will not be lost and distortion will occur symmetrically in the vertical and horizontal directions. When the response from the user that the balance is lost is received in step S204 (YES), the process is branched to step S205.
ステップS205では、画像処理装置110は、校正パラメータの一部である左右および上下のオフセットパラメータの微調整を受け付ける。左右および上下のオフセットパラメータ(xoffset,yoffset)は、上下辺の湾曲膨らみの上下バランスおよび左右バランスを調整するためのものである。ここで、ユーザは、微調整後の補正画像の投影像を観察しながら、上下および左右のバランスの崩れが軽減されるようにオフセットパラメータの微調整量を入力する。 In step S205, the image processing apparatus 110 accepts fine adjustment of the left-right and up-down offset parameters that are part of the calibration parameters. The left-right and up-down offset parameters (xoffset, yoffset) are for adjusting the up-down balance and the left-right balance of the curved bulges on the upper and lower sides. Here, the user inputs the fine adjustment amount of the offset parameter so as to reduce the imbalance between the vertical and horizontal directions while observing the projected image of the corrected image after the fine adjustment.
ここで、図10に示す中2段の行を参照すると、左右オフセットパラメータ(xoffset)の調整の仕方が説明されている。図10に示す下2段の行を参照すると、上下オフセットパラメータ(yoffset)の調整の仕方が説明されている。 Here, referring to the middle two rows shown in FIG. 10, how to adjust the left-right offset parameter (xoffset) is explained. With reference to the lower two rows shown in FIG. 10, how to adjust the vertical offset parameter (yoffset) is explained.
図10の表の第3段目に示すように、端辺の左側に偏ったふくらみが観察される場合は、カメラの位置がカーソル領域中心よりも左にずれている場合に該当すると考えられる。このため、左右方向オフセット(xoffset)を負に設定することにより、左側を現状よりへこませ、右側を現状よりより膨らませることができる。一方、図10の表の第4段目に示すように、端辺の右側に偏ったふくらみが観察される場合は、カメラの位置がカーソル領域中心よりも右にずれている場合に該当すると考えられる。このため、左右方向オフセット(xoffset)を正に設定することにより、左側を現状より膨らませ、右側を現状よりへこませることができる。 As shown in the third row of the table in FIG. 10, when a bulge biased to the left side of the edge is observed, it is considered that the position of the camera is shifted to the left from the center of the cursor area. Therefore, by setting the left-right offset (xoffset) to be negative, the left side can be dented from the current state and the right side can be bulged more than the current state. On the other hand, as shown in the fourth row of the table in FIG. 10, when a bulge biased to the right side of the edge is observed, it is considered that the position of the camera is shifted to the right from the center of the cursor area. Be done. Therefore, by setting the left-right offset (xoffset) to be positive, the left side can be inflated from the current state and the right side can be dented from the current state.
さらに、図10の表の第5段目に示すように、下辺が上辺より下へへこむ傾向が観察される場合は、カメラの位置がカーソル領域中心よりも上にずれている場合に該当すると考えられる。このため、上下オフセット(yoffset)を負に設定することにより、上側を現状より膨らませ、下側を現状よりへこませることができる。一方、図10の表の第6段目に示すように、上辺が下辺より上へ盛り上がる傾向が観察される場合は、カメラの位置がカーソル領域中心よりも下にずれている場合に該当すると考えられる。このため、上下オフセット(yoffset)を正に設定することにより、上側を現状よりへこませ、下側を現状より膨らませることができる。 Further, as shown in the fifth row of the table in FIG. 10, when the tendency of the lower side to dent below the upper side is observed, it is considered that the position of the camera is shifted above the center of the cursor area. Be done. Therefore, by setting the vertical offset (yoffset) to be negative, the upper side can be inflated from the current state and the lower side can be dented from the current state. On the other hand, as shown in the sixth row of the table in FIG. 10, when the tendency of the upper side to rise above the lower side is observed, it is considered that the camera position is deviated below the center of the cursor area. Be done. Therefore, by setting the vertical offset (yoffset) to be positive, the upper side can be dented from the current state and the lower side can be inflated from the current state.
このように、ユーザは、たる形の歪みの量を距離パラメータ(distance)によって調整した後、左右オフセットパラメータ(xoffset)および上下オフセットパラメータ(yoffset)で微調整する。そして、ユーザは、微調整後の補正画像を投影したものを見ながら、上下辺のたる形の歪みの上下、左右バランスを左右および上下対照な状態となるように補正する。これにより、矩形を円筒にそのまま張ったような矩形貼り付け状態に近づけることができる。 In this way, the user adjusts the amount of barrel distortion by the distance parameter (distance), and then fine-tunes it by the left-right offset parameter (xoffset) and the vertical offset parameter (yoffset). Then, the user corrects the vertical and horizontal balances of the barrel-shaped distortions on the upper and lower sides so as to be in a horizontal and vertical contrast state while looking at the projected corrected image after the fine adjustment. As a result, it is possible to approach the state in which the rectangle is attached as if the rectangle was stretched as it is on the cylinder.
ステップS205が完了すると、ステップS206で、本調整作業が終了される。ステップS204で、バランスが崩れていないとのユーザからの回答を受け付けた場合(NO)は、ステップS206へ処理が直接進められ、本調整作業が終了する。 When step S205 is completed, the main adjustment work is completed in step S206. When the response from the user that the balance is not lost is received in step S204 (NO), the process directly proceeds to step S206, and the main adjustment work is completed.
(円筒補正処理の詳細)
以下、図11〜図14を参照しながら、近接撮像した格子点座標を、円筒面を展開した平面座標へ変換する円筒補正処理について、より詳細を説明する。まず、以下、図11および図12を参照しながら、x軸方向の補正について説明する。
(Details of cylinder correction processing)
Hereinafter, with reference to FIGS. 11 to 14, a more detailed description will be made of the cylinder correction process for converting the grid point coordinates taken in close proximity to the plane coordinates in which the cylindrical surface is expanded. First, the correction in the x-axis direction will be described below with reference to FIGS. 11 and 12.
以下、図11(A)および(B)を参照しながら、校正パラメータの初期値の与え方、および、校正パラメータから導出される、内部的な計算に用いるための導出パラメータおよび導出関数について説明する。なお、図11(A)および図11(B)は、円筒スクリーンを真上から見た場合のx-z平面を表している。円筒スクリーンにおける投影像が投影される範囲(カーソル領域)は、左右のカーソルにより定められる。 Hereinafter, with reference to FIGS. 11A and 11B, a method of giving initial values of calibration parameters, and derivation parameters and derivation functions derived from the calibration parameters for use in internal calculations will be described. .. 11 (A) and 11 (B) show the xz plane when the cylindrical screen is viewed from directly above. The range (cursor area) on which the projected image is projected on the cylindrical screen is determined by the left and right cursors.
図11(A)は、当該円筒面モデルで与えられる校正パラメータを説明する図である。図11(A)に示すように、校正パラメータの初期値の与え方として、二通りの方法が考えられる。第1の方法では、サイズ情報として、円筒面上の被投影面の範囲(カーソル領域)を規定するカーソル中心角θおよび曲率半径Rを与えることができる。第2の方法では、サイズ情報として、円筒面上の被投影面の範囲(カーソル領域)を規定する左右カーソル間距離Aおよび左右カーソル間の中点における湾曲奥行きEを与えることができる。 FIG. 11A is a diagram illustrating calibration parameters given by the cylindrical surface model. As shown in FIG. 11A, two methods can be considered as a method of giving initial values of calibration parameters. In the first method, the cursor central angle θ and the radius of curvature R that define the range (cursor area) of the projected surface on the cylindrical surface can be given as the size information. In the second method, the distance between the left and right cursors A and the bending depth E at the midpoint between the left and right cursors, which defines the range (cursor area) of the projected surface on the cylindrical surface, can be given as the size information.
ここで、円筒スクリーン上の点Lと、カーソル領域の中点Kと、中点Kに関する点Lの点対称L’を用いて二等辺三角形△OLMと△MLL’を考えると、この2つの三角形は相似の関係を有しており、下記関係 Here, considering the isosceles triangles ΔOLM and ΔMLL'using the point L on the cylindrical screen, the midpoint K of the cursor area, and the point symmetry L'of the point L with respect to the midpoint K, these two triangles. Have a similar relationship, the following relationship
図11(B)は、当該円筒面モデルで与えられる校正パラメータから導出される導出パラメータおよび導出関数について説明する図である。ここで、後述する計算を容易にするために、下記に示す導出パラメータ(a,s,e)を定義することができる。 FIG. 11B is a diagram illustrating a derivation parameter and a derivation function derived from the calibration parameters given by the cylindrical surface model. Here, in order to facilitate the calculation described later, the derivation parameters (a, s, e) shown below can be defined.
さらに、あるxにおける補正奥行きd(x)を、図11(B)に点線で示した三角形に三平方の定理を適用することにより、下記の通りに定義することができる。なお、下記式において、xは、曲率中心Oを通るx軸上の値である。 Further, the correction depth d (x) at a certain x can be defined as follows by applying the three-square theorem to the triangle shown by the dotted line in FIG. 11 (B). In the following equation, x is a value on the x-axis passing through the center of curvature O.
以上示したように、θが与えられない場合でも、AおよびEからθを導出する必要はなく、上記第2の方法で校正パラメータが与えられた場合は、事前にAとEからRを計算しておけばよいということになる。 As shown above, even if θ is not given, it is not necessary to derive θ from A and E, and if the calibration parameters are given by the second method above, R is calculated in advance from A and E. It means that it should be done.
続いて、図12(A)を参照して、x’軸上の座標値と、x軸上の座標値との関係について説明する。ここで、円筒スクリーンに沿ったx’軸を考えると、x=0の場合の円筒上の点をQとして、円筒上の点Pのx軸での座標値およびx’軸での座標値をそれぞれx,x’とした場合、下記式 Subsequently, the relationship between the coordinate value on the x'axis and the coordinate value on the x-axis will be described with reference to FIG. 12 (A). Here, considering the x'axis along the cylindrical screen, the coordinate value of the point P on the cylinder on the x-axis and the coordinate value on the x'-axis are set, where Q is the point on the cylinder when x = 0. When x and x'are used respectively, the following formula
が得られ、上記式からφを消去して、下記式(1)で表すことができる。なお、ここまでは、カメラ160に依存しない、スクリーンの円筒形状から決定される事項である。 Is obtained, and φ can be eliminated from the above equation and expressed by the following equation (1). Up to this point, the items are determined from the cylindrical shape of the screen, which does not depend on the camera 160.
計算の途中経過をすべてx’の表式で進めることは非常に煩雑であるため、以下、まずxの表式で説明を進めながら、x’を求める必要が出てきた際に上式(1)に基づいてxからx’へ変換するものとする。 Since it is very complicated to proceed with all the progress of the calculation by the formula of x', the above formula (1) when it becomes necessary to obtain x'while proceeding with the explanation by the formula of x first. ) Shall be converted from x to x'.
次に、図12(B)を参照して、円筒に沿ったx’軸と、撮像画像のu軸との関係について説明する。ここで、カーソル平面(左右カーソルがなす平面)からDだけ奥行き方向に離れ、曲率中心からx0だけ水平方向にずれたJ点に焦点距離Fのカメラレンズを置いて、撮像平面上に像を結ぶ場合を考える。ここで、撮像画像上の水平軸をu軸とし、水平座標値がxである円筒上の点Iが撮像画像上の座標u(L点)に対応するとき、2つの三角形△IJKと、△JLMが相似の関係にあることから、下記式(2)が導かれる。 Next, the relationship between the x'axis along the cylinder and the u-axis of the captured image will be described with reference to FIG. 12 (B). Here, a camera lens having a focal length F is placed at point J, which is separated from the cursor plane (the plane formed by the left and right cursors) by D in the depth direction and shifted horizontally by x0 from the center of curvature, and an image is formed on the imaging plane. Consider the case. Here, when the horizontal axis on the captured image is the u-axis and the point I on the cylinder whose horizontal coordinate value is x corresponds to the coordinate u (L point) on the captured image, the two triangles ΔIJK and Δ Since JLM has a similar relationship, the following equation (2) is derived.
ここで、座標値uの取り得る範囲を検討すると、右カーソル位置x=aに対応するu軸上の座標値u[a]は、右カーソル位置で奥行きがゼロ(d(a)=0)であることを考慮すると、下記式で表される。 Here, when examining the possible range of the coordinate value u, the coordinate value u [a] on the u axis corresponding to the right cursor position x = a has a depth of zero at the right cursor position (d (a) = 0). Considering that, it is expressed by the following equation.
上記式と、上記式(2)とから焦点距離Fを消去することにより、下記式が得られる。 By eliminating the focal length F from the above equation and the above equation (2), the following equation can be obtained.
ここで、uがu[a]に比例していることから、u軸のスケールには、定数倍の自由度があるので、u[a]=a‐x0と便宜上置くことによって式を簡略化することができ、下記式のようになる。このとき、左カーソル位置に対応するu軸上の座標値は、u[a]=‐(a-x0)となる。 Here, since u is proportional to u [a], the scale of the u axis has a constant multiple of degrees of freedom, so the equation is simplified by setting u [a] = a-x0 for convenience. It can be done by the following formula. At this time, the coordinate value on the u axis corresponding to the left cursor position is u [a] =-(a-x0).
上述した式(1)および(3)を用いることにより、撮像画像上の水平軸上の座標値uから、x軸上の座標値xをへて、円筒(x’軸)上の座標値x’へ変換することができる。 By using the above equations (1) and (3), the coordinate value u on the horizontal axis on the captured image, the coordinate value x on the x-axis, and the coordinate value x on the cylinder (x'axis) are passed. Can be converted to'.
以下、引き続き、図13(A)を参照しながら、y軸方向の補正について説明する。図13(A)は、スクリーンの円筒面を真横から見て、円筒面の奥行き差(Z軸方向)に起因する近接撮像での透視変換による垂直方向(Y軸方向)の歪みを説明する。上述したように、補正奥行きd(x)は、あるxにおける湾曲奥行きであり、ここでは、円筒に沿った軸上のx’ではなく水平座標xを用いて説明を続ける。上述したようにDは、カメラレンズからカーソル平面までの距離を表す。図13(A)に示すように、円筒面の同じ高さの上下辺の2点の奥行き差と撮像距離Dから、撮像面上でのそれぞれのy軸方向の像の高さが求まることになる。 Hereinafter, the correction in the y-axis direction will be described with reference to FIG. 13 (A). FIG. 13A describes the distortion in the vertical direction (Y-axis direction) due to the perspective transformation in close-up imaging due to the depth difference (Z-axis direction) of the cylindrical surface when the cylindrical surface of the screen is viewed from the side. As described above, the correction depth d (x) is the bending depth at a certain x, and here, the description will be continued using the horizontal coordinates x instead of x'on the axis along the cylinder. As described above, D represents the distance from the camera lens to the cursor plane. As shown in FIG. 13A, the height of each image in the y-axis direction on the imaging surface can be obtained from the depth difference between the two points on the upper and lower sides of the same height of the cylindrical surface and the imaging distance D. Become.
湾曲奥行きがあるため、図13(A)に示すように、物理的な円筒スクリーン上の高さhの位置にある点Pの部分像は、撮像画像上の垂直位置yの画素として記録される。これを、従来の平面スクリーンを前提とした歪み補正を施すと、同じ像が点P’に見えるように補正が働くことになる。つまり、垂直位置yにあった画素がy’へ移るような凸効果がかかり、それが、円筒スクリーンの投影に際して端辺曲がりを引き起こすことになる。この余分な凸効果を相殺するには、撮像画像上でPに対応する画素の位置yを、あたかも最初からy’にあるかのように補正すればよいということになる。 Due to the curved depth, as shown in FIG. 13 (A), the partial image of the point P at the height h on the physical cylindrical screen is recorded as the pixel at the vertical position y on the captured image. .. If this is subjected to distortion correction on the premise of a conventional flat screen, the correction works so that the same image appears at the point P'. That is, a convex effect is applied such that the pixel at the vertical position y moves to y', which causes edge bending when the cylindrical screen is projected. In order to cancel out this extra convex effect, the position y of the pixel corresponding to P on the captured image may be corrected as if it were in y'from the beginning.
カメラレンズの焦点距離Fを用いて、相似三角形に注目すると、下記関係式が導かれる。
そして、上記式を整理すると、下記式が得られる。 Then, by rearranging the above equations, the following equations can be obtained.
上記によれば、y=0のとき、xにかかわらずy=y’=0となる。y=y0のとき、xにかかわらずy=y’=y0となるように上記式を修正すると、下記式(4)が得られる。 According to the above, when y = 0, y = y'= 0 regardless of x. When the above equation is modified so that y = y'= y0 regardless of x when y = y0, the following equation (4) is obtained.
上記式より、x‘またはx軸上の座標と、円筒形状のサイズ情報がわかれば、そのx’またはx座標のときの奥行き差が求まるので、y軸方向の歪みが補正できる。 From the above equation, if the coordinates on the x'or x-axis and the size information of the cylindrical shape are known, the depth difference at the x'or x-coordinate can be obtained, so that the distortion in the y-axis direction can be corrected.
以上、図11〜図13(A)を参照して説明した、水平方向および垂直方向の補正により、近接撮像した格子点座標を、円筒面を展開した平面座標へ変換することができる。 By the correction in the horizontal direction and the vertical direction described above with reference to FIGS. 11 to 13 (A), the grid point coordinates captured in close proximity can be converted into the plane coordinates in which the cylindrical surface is expanded.
以下、図14を参照しながら、円筒補正処理の流れについてより詳細に説明する。図14は、本実施形態による円筒補正処理を示すフローチャートである。図14に示す処理は、図6に示すステップS104の処理で呼び出されて、ステップS300から開始される。 Hereinafter, the flow of the cylinder correction process will be described in more detail with reference to FIG. FIG. 14 is a flowchart showing a cylinder correction process according to the present embodiment. The process shown in FIG. 14 is called by the process of step S104 shown in FIG. 6 and is started from step S300.
ステップS301では、画像処理装置110は、校正パラメータ入力部128により、校正パラメータの初期値を取得し、基準点座標M1,M2からカーソル4点座標を取得する。図8(A)に示す配置では、下段プロジェクタ150aの四隅の基準点M1のうちの下2つと、上段プロジェクタ150の四隅の基準点M2のうちの上2つとが取得される。校正パラメータの初期値としては、上記R,θ、D(Distance)、x0(xoffset)およびy0(yoffset)の組、または、A,E、D(Distance)、x0(xoffset)およびy0(yoffset)の組が取得される。 In step S301, the image processing device 110 acquires the initial value of the calibration parameter by the calibration parameter input unit 128, and acquires the coordinates of the four cursor points from the reference point coordinates M 1 and M 2 . In the arrangement shown in FIG. 8 (A), bract under two of the reference point M 1 of the four corners of the lower projector 150a, 2 bract is obtained on one of the reference point M 2 of the four corners of the upper projector 150. The initial values of the calibration parameters are the set of R, θ, D (Distance), x0 (xoffset) and y0 (yoffset), or A, E, D (Distance), x0 (xoffset) and y0 (yoffset). Pair is obtained.
ステップS301では、画像処理装置110は、入力された校正パラメータに基づいて、導出パラメータ(a,s,e)および補正奥行き関数(d(x))を計算する。 In step S301, the image processing apparatus 110 calculates the derivation parameters (a, s, e) and the correction depth function (d (x)) based on the input calibration parameters.
ステップS303では、画像処理装置110は、全体投影領域の外形を規定するカーソルの複数の基準点に基づいて、カーソルのなす四辺形が矩形状(規格化された形状)になるような平面射影変換Hを求める。その際に、図13(B)に示すように、カーソル左上および右下座標が(‐(a+x0),−1) と(a‐x0,1)になるように設定し、正規化を行うことができる。補正前に座標値の正規化を行うことによって、投影目標領域の四隅位置調整後にこの補正を行うにあたり、補正後に投影目標領域の四隅位置が変動しないようにすることができる。 In step S303, the image processing device 110 performs a planar projective transformation such that the quadrilateral formed by the cursor becomes a rectangular shape (standardized shape) based on a plurality of reference points of the cursor that define the outer shape of the entire projection area. Find H. At that time, as shown in FIG. 13B, the upper left and lower right coordinates of the cursor are set to be (-(a + x0), -1) and (a-x0,1), and normalization is performed. Can be done. By normalizing the coordinate values before the correction, it is possible to prevent the four corner positions of the projection target area from fluctuating after the correction when performing this correction after adjusting the four corner positions of the projection target area.
ステップS304では、画像処理装置110は、格子点座標に対し、四隅の位置合わせマーカがなす四辺形が、撮像位置(x軸方向)に応じた想定位置の矩形になるよう、上記で求められた平面射影変換Hを適用し、座標値の正規化を行う。 In step S304, the image processing device 110 is obtained above so that the quadrilateral formed by the alignment markers at the four corners becomes a rectangle at an assumed position according to the imaging position (x-axis direction) with respect to the grid point coordinates. The plane projection transformation H is applied to normalize the coordinate values.
ステップS305では、画像処理装置110は、格子点座標のうちの水平座標値Xに対し、上記平面射影変換Hをかけたものをuとして、上記式(3)で表される対応関係に基づいて、前記元座標系の値uから仮想被投影平面上の座標の値xを未知数として求める。ここで、上記式(3)で表される対応関係とは、仮想被投影平面上の座標値xによる元座標上のL点と被投影面上の座標上のI点との対応関係である。このとき、副産物として補正奥行きd(x)も得られる。 In step S305, the image processing device 110 is based on the correspondence represented by the above equation (3), where u is obtained by multiplying the horizontal coordinate value X of the grid point coordinates by the plane projection transformation H. , The value x of the coordinates on the virtual projective plane is obtained as an unknown number from the value u of the original coordinate system. Here, the correspondence relationship represented by the above equation (3) is a correspondence relationship between the L point on the original coordinates based on the coordinate value x on the virtual projective plane and the I point on the coordinates on the projected plane. .. At this time, a corrected depth d (x) is also obtained as a by-product.
ここで、上記式(3)から未知数xを得る方法について説明する。上記式(3)中、補正奥行きd(x)は、平方根の中にx2項が含まれているため、複雑であり、上記式(3)を直接xについて解くことは困難と考えられる。そのため、まず、中間ステップとして、上記式(3)を「未知数dについての方程式」に変形した後にdを求めることとする。 Here, a method of obtaining the unknown number x from the above equation (3) will be described. In the above formula (3), corrected depth d (x), since it contains x 2 term in the square root is complex, solving for x above equation (3) directly is considered difficult. Therefore, first, as an intermediate step, d is obtained after transforming the above equation (3) into an "equation for unknown number d".
説明の便宜上、関数d(x)をdとして記載すると、上記(3)の変形から、下記式が得られる。 If the function d (x) is described as d for convenience of explanation, the following equation can be obtained from the modification of (3) above.
さらに、両辺を2乗することにより、下記式(5)が得られる。 Further, by squaring both sides, the following equation (5) can be obtained.
一方、上記補正奥行きd(x)の定義より、下記式(6)が得られる。 On the other hand, from the definition of the correction depth d (x), the following equation (6) can be obtained.
一方、上記式(6)を上記式(5)の右辺に代入して、さらに、dの多項式として整理する(R2-S2=a2の関係を使用する。)と、下記式(7)が得られる。 On the other hand, the above equation (6) is substituted into the right side of the equation (5), further, to organize a polynomial d and (R 2 -S 2 = use the relation a 2.), The following equation (7 ) Is obtained.
上記式(7)の2次方程式の解の公式からdを求めることができ、dが求まれば(6)からxが求める。なお、上記2次方程式および(6)に関する、実数解の存在、2つの実数解のどちらを採用すべきか、(6)の平方根をとったとき、正負どちらをxとして採用すべきかなどの詳細な考察については後述する。 D can be obtained from the formula of the solution of the quadratic equation of the above equation (7), and if d is obtained, x can be obtained from (6). Regarding the above quadratic equation and (6), details such as the existence of a real number solution, which of the two real number solutions should be adopted, and which of the positive and negative should be adopted as x when the square root of (6) is taken. The discussion will be described later.
再び、図14を参照すると、ステップS306では、画像処理装置110は、仮想被投影平面と被投影面との曲率半径に応じた幾何学的関係を規定する上記式(1)に基づいて、上記で得られた仮想被投影平面上の座標の値xから被投影面上の座標の値x’を求める。 Again, referring to FIG. 14, in step S306, the image processing apparatus 110 is based on the above equation (1), which defines the geometric relationship between the virtual projective plane and the projected plane according to the radius of curvature. The coordinate value x'on the projective plane is obtained from the coordinate value x on the virtual projective plane obtained in.
ステップS307では、画像処理装置110は、得られたx’に線形変換を施し、前記被投影面上の座標の値x’から'前記補正後座標系の値u’をuに対する補正結果として得る。ここで、線形変換は、左および右カーソル位置の撮像画像座標値ul,urを用いて、下記式で表される。 In step S307, the image processing apparatus 110 linearly transforms the obtained x'to obtain the'corrected coordinate system value u'from the coordinate value x'on the projected surface as the correction result for u. .. Here, the linear transformation is expressed by the following equation using the captured image coordinate values ul and ur at the left and right cursor positions.
ステップS308では、画像処理装置110は、格子点の垂直座標Yに対し、上述した平面射影変換をかけたものをyとして、上記式(4)に基づいて、曲がりによる光学的な効果をキャンセルするように前記元座標系の値yから、補正後座標系への値y’を得る。なお、座標変換の仕方として、撮像画像自体を変形することもできるが、本実施形態の目的においては、撮像画像自体を変形する必要はなく、格子点座標に対してy→y’への変換を行っても同じことである。 In step S308, the image processing device 110 cancels the optical effect due to bending based on the above equation (4), where y is obtained by applying the above-mentioned planar projective transformation to the vertical coordinates Y of the grid points. As described above, the value y'to the corrected coordinate system is obtained from the value y of the original coordinate system. As a method of coordinate conversion, the captured image itself can be deformed, but for the purpose of this embodiment, it is not necessary to deform the captured image itself, and the conversion from y to y'with respect to the grid point coordinates. It is the same even if you do.
ステップS309では、画像処理装置110は、得られた(u’,y’)に対し、上記平面射影変換の逆変換H−1をかけ、ステップS310で、座標値(X’,Y’)で格子点の座標を書き換える。 In step S309, the image processing apparatus 110 multiplies the obtained (u', y') by the inverse transformation H- 1 of the above-mentioned planar projective transformation, and in step S310, the coordinate values (X', Y') are used. Rewrite the coordinates of the grid points.
このようにして、円筒補正部134は、特徴点抽出統合部132により抽出された格子点データ(X,Y)に対し、射影変換Hを施す。そして、円筒補正部134は、射影変換後の格子点データに元座標系(u,y)から補正後座標系(u’,y’)への補正を施す。さらに、円筒補正部134は、補正後の格子点データにさらに射影変換の逆変換H−1を施して、補正後の格子点データ(X’,Y’)を得る。そして、補正係数算出部130は、射影変換後、かつ、補正後、かつ、逆変換後の格子点データ(X’,Y’)に基づいて補正係数を計算する。 In this way, the cylinder correction unit 134 performs the projective transformation H on the grid point data (X, Y) extracted by the feature point extraction integration unit 132. Then, the cylinder correction unit 134 corrects the grid point data after the projective transformation from the original coordinate system (u, y) to the corrected coordinate system (u', y'). Further, the cylindrical correction unit 134 further applies the inverse transformation H- 1 of the projective transformation to the corrected grid point data to obtain the corrected grid point data (X', Y'). Then, the correction coefficient calculation unit 130 calculates the correction coefficient based on the grid point data (X', Y') after the projection conversion, the correction, and the inverse conversion.
(円筒補正におけるu→x変換の詳細な考察)
上記式(7)において、以下場合分けして検討する。
[1]u=a‐x0またはu=−(a+x0)の場合:
この場合は、左右カーソル位置に対応する座標であるため、奥行きd=0であるはずであり、実際d=0は上記2次方程式(7)の解になっている。このため、u=a‐x0またはu=−(a+x0)の場合は、決め打ちでd=0とすればよい。
(Detailed consideration of u → x conversion in cylinder correction)
In the above formula (7), the following cases will be examined separately.
[1] When u = a-x0 or u =-(a + x0):
In this case, since the coordinates correspond to the left and right cursor positions, the depth d = 0 should be, and in fact d = 0 is the solution of the quadratic equation (7). Therefore, in the case of u = a-x0 or u =-(a + x0), d = 0 may be set by a fixed decision.
[2]−(a+x0)<u<a‐x0の場合:
左右カーソルの間の座標であるため、d>0となる実数解を持つはずである。実際にu+x0+a>0,u+x0−a<0になるため、C<0であり、また、常にA>0であるから、判別式B2−AC>0で、実数解を持つ。解と係数の関係によりC<0であるならば2つの解は異符号である。よって、この場合は大きい方の解を採用すればよく、すなわち、下記式により計算することができる。
[2]-(a + x0) <u <a-x0:
Since it is the coordinates between the left and right cursors, it should have a real solution such that d> 0. Since u + x0 + a> 0 and u + x0-a <0 actually, C <0 and always A> 0, the discriminant B 2- AC> 0 has a real number solution. If C <0 due to the relationship between the solution and the coefficient, the two solutions have different signs. Therefore, in this case, the larger solution may be adopted, that is, it can be calculated by the following formula.
[3]u<−(a+x0)またはu>a‐x0の場合:
格子点が、左右カーソルの外側のu座標まで取り得るため、このケースも考察しておく必要がある。
[3] When u <-(a + x0) or u> a-x0:
This case also needs to be considered because the grid points can take up to the u coordinate outside the left and right cursors.
[3−イ]判別式B2−AC<0の場合:
ここで、u→x変換を少し別の観点から考えると、撮像画像上の位置uとレンズ中心を通る直線(=図12(B)のL,Jを通る直線)と円弧を360度まで延長した全円との交点を求める問題に帰着することになる。ここで、判別式<0は、この直線と全円が交点を持たないということを意味する。撮像距離が、曲率直径2Rを超えて遠くなると現実的に発生し得る。この場合は、d=不能ということにする。
[3-a] Discriminant B 2- AC <0:
Here, considering the u → x conversion from a slightly different point of view, the position u on the captured image, the straight line passing through the center of the lens (= the straight line passing through L and J in FIG. 12B) and the arc are extended to 360 degrees. It comes down to the problem of finding the intersection with the whole circle. Here, the discriminant <0 means that this straight line and the whole circle do not have an intersection. It can realistically occur when the imaging distance exceeds the curvature diameter of 2R. In this case, d = impossible.
ここからは、判別式≧0で実数解を持つ場合に限定してよい。先の「直線と全円との交点を求める問題」として図形的に考えると、この場合の交点は、左右カーソルを結ぶ直線よりも下にある、つまり補正奥行きd(x)がマイナスとなるので、上記(7)2次方程式の2つの解はどちらも負値である。そして、図形的に上側にある方、より0に近い方の解を採用すべきであることもわかる。ここで、dをそのようにして採用された値であるとする。 From here, it may be limited to the case where the discriminant ≧ 0 and the real number solution is obtained. Considering graphically as the above "problem of finding the intersection of a straight line and a whole circle", the intersection in this case is below the straight line connecting the left and right cursors, that is, the correction depth d (x) is negative. , The two solutions of the above (7) quadratic equation are both negative values. Then, it can be seen that the solution that is graphically on the upper side and that is closer to 0 should be adopted. Here, it is assumed that d is a value adopted in this way.
[3−ロ]d>-sの場合:
dに対応する交点が「上半円」に含まれる場合に対応する。この場合は、上記[2]の自然な拡張としてX方向もY方向も[2]と同じように処理して問題ない。X方向は、スケールを保つよう、不動のカーソル位置に向かって「寄っていく」ような変換がかかることになる。一方、Y方向は、上記式(4)が負となるので、y0に向かって「寄っていく」ような変換がかかることになり、曲がりを真っすぐにする効果が得られる。なお、プログラム実装上、d<−sよりもっと条件を厳しくしたほうが好ましい。
[3-B] When d> -s:
Corresponds to the case where the intersection corresponding to d is included in the "upper semicircle". In this case, as a natural extension of the above [2], there is no problem in processing both the X direction and the Y direction in the same manner as in [2]. In the X direction, a transformation that "approaches" toward the immovable cursor position is applied so as to maintain the scale. On the other hand, in the Y direction, since the above equation (4) is negative, a conversion such as "approaching" toward y0 is applied, and the effect of straightening the bend can be obtained. In terms of program implementation, it is preferable that the conditions are stricter than d <-s.
[3−ハ]d≦−sの場合:
dに対応する交点が「下半円」に含まれる場合に対応する。この場合は、そのまま上記[2]のロジックをあてはめると、交点のx座標が|x|<Rとなり、さらには|x|<aとなり、上記[2]のケースの結果に重なりあってしまうおそれがある。円筒に沿ったx’座標で表現することにより重なりを回避できるとも考えられるが、コンテンツが投影されないカーソル領域外であまり煩雑なことをしても仕方がないため、簡便に、XもYも変換しない対応とすることができる。不動のカーソル位置やy0に向かって寄っていく変換をしないだけであるため、格子点の全列行内の座標値の大小関係を壊すことはなく、後続の処理に不都合はないと考えられる。
[3-c] When d ≤ -s:
Corresponds to the case where the intersection corresponding to d is included in the "lower semicircle". In this case, if the logic of the above [2] is applied as it is, the x coordinate of the intersection becomes | x | <R, and further | x | <a, which may overlap with the result of the case of the above [2]. There is. It is thought that overlapping can be avoided by expressing with x'coordinates along the cylinder, but since it is unavoidable to do too complicated things outside the cursor area where the content is not projected, it is easy to convert both X and Y. Can be dealt with. Since only the immovable cursor position and the conversion toward y0 are not performed, the magnitude relation of the coordinate values in all the columns and rows of the lattice points is not broken, and it is considered that there is no inconvenience in the subsequent processing.
なお、[3−ロ]のケースも変換しないですませるという考え方もあるが、投影コンテンツ端の画素がバイリニア補間元として依拠する格子点が[3−ロ]のケースのものであることはあり得るので、滑らかさを保つため[3−ロ]では変換を行うがよい。 There is also the idea that the case of [3-B] is not converted, but it is possible that the grid points on which the pixels at the edge of the projected content depend as the bilinear interpolation source are those of the case of [3-B]. Therefore, in order to maintain smoothness, it is better to perform conversion in [3-B].
以上により補正奥行きd(左右カーソル上とその内側では非負値、外側では負値)またはd=不能が得られる。d=不能ならばxも求まらないため、X,Yを変換しない扱いとする。不能でなければ、上記式(3)から、下記のように整理して、xが求まる。 From the above, the correction depth d (non-negative value on and inside the left and right cursor, negative value on the outside) or d = impossible can be obtained. If d = impossible, x cannot be obtained, so X and Y are treated as not being converted. If it is not impossible, x can be obtained from the above equation (3) by arranging as follows.
(ハードウェア構成)
以下、図15を参照しながら、上述までの実施形態における画像処理装置110のハードウェア構成について説明する。画像処理装置110は、典型的には、汎用コンピュータ装置として構成される。図15は、本実施形態による汎用コンピュータ装置のハードウェア構成を示す図である。
(Hardware configuration)
Hereinafter, the hardware configuration of the image processing apparatus 110 according to the above-described embodiment will be described with reference to FIG. The image processing device 110 is typically configured as a general-purpose computer device. FIG. 15 is a diagram showing a hardware configuration of a general-purpose computer device according to the present embodiment.
図24に示す汎用コンピュータ装置110は、CPU12と、CPU12とメモリとの接続を担うノースブリッジ14と、サウスブリッジ16とを含む。サウスブリッジ16は、上記ノースブリッジ14と専用バスまたはPCIバスを介して接続され、PCIバスやUSBなどのI/Oとの接続を担う。 The general-purpose computer device 110 shown in FIG. 24 includes a CPU 12, a north bridge 14 for connecting the CPU 12 and a memory, and a south bridge 16. The south bridge 16 is connected to the north bridge 14 via a dedicated bus or a PCI bus, and is responsible for connecting to an I / O such as a PCI bus or USB.
ノースブリッジ14には、CPU12の作業領域を提供するRAM18と、映像信号を出力するグラフィックボード20とが接続される。グラフィックボード20には、アナログRGB、HDMI(High-Definition Multimedia Interface;HDMIおよびHigh-Definition Multimedia Interfaceは登録商標または商標である)、DVI(Digital Visual Interface)、DisplayPort(登録商標)などの映像出力インタフェースを介してディスプレイ50や上記プロジェクタ150に接続される。 A RAM 18 that provides a work area for the CPU 12 and a graphic board 20 that outputs a video signal are connected to the north bridge 14. The graphic board 20 has a video output interface such as analog RGB, HDMI (High-Definition Multimedia Interface; HDMI and High-Definition Multimedia Interface are registered trademarks or trademarks), DVI (Digital Visual Interface), DisplayPort (registered trademark), and the like. It is connected to the display 50 and the projector 150 via the above.
サウスブリッジ16には、PCI(Peripheral Component Interconnect)22、LANポート24、IEEE1394、USBポート28、補助記憶装置30、オーディオ入出力32、シリアルポート34が接続される。補助記憶装置30は、HDDやSSDなどであり、コンピュータ装置を制御するためのOS、上記機能部を実現するためのプログラムや各種システム情報や各種設定情報を格納する。LANポート24は、汎用コンピュータ装置110を有線および無線でネットワークに接続させるインタフェース機器である。 A PCI (Peripheral Component Interconnect) 22, a LAN port 24, an IEEE 1394, a USB port 28, an auxiliary storage device 30, an audio input / output 32, and a serial port 34 are connected to the south bridge 16. The auxiliary storage device 30 is an HDD, SSD, or the like, and stores an OS for controlling a computer device, a program for realizing the above-mentioned functional unit, various system information, and various setting information. The LAN port 24 is an interface device that connects the general-purpose computer device 110 to the network by wire and wirelessly.
USBポート28には、キーボード52およびマウス54などの入力装置170が接続されてもよく、操作者からの各種指示の入力を受け付けるためのユーザ・インタフェースを提供することができる。本実施形態による汎用コンピュータ装置110は、補助記憶装置30からプログラムを読み出し、RAM18が提供する作業空間に展開することにより、CPU12の制御の下、上述した各機能部および各処理を実現する。なお、プロジェクタ150およびカメラ160については、特に説明を行わないが、同様に、CPUおよびRAM等などのハードウェアや、特定の用途に応じたハードウェアを備えている。 An input device 170 such as a keyboard 52 and a mouse 54 may be connected to the USB port 28, and a user interface for receiving input of various instructions from the operator can be provided. The general-purpose computer device 110 according to the present embodiment reads a program from the auxiliary storage device 30 and deploys it in the work space provided by the RAM 18 to realize each of the above-mentioned functional units and each process under the control of the CPU 12. Although the projector 150 and the camera 160 will not be described in particular, they are similarly provided with hardware such as a CPU and RAM, and hardware suitable for a specific application.
以上説明したように、本発明の実施形態によれば、1以上の投影手段により被投影面上に像を投影するための投影システムにおいて、1つの方向で曲がりを有する被投影面に対し、簡単な作業で投影像を補正することが可能な投影システム、該投影システムを構成する画像処理装置および該画像処理装置を実現するためのプログラムを提供することができる。 As described above, according to the embodiment of the present invention, in the projection system for projecting an image on the projected surface by one or more projection means, it is easy for the projected surface having a bend in one direction. It is possible to provide a projection system capable of correcting a projected image by various operations, an image processing device constituting the projection system, and a program for realizing the image processing device.
上述した実施形態による校正処理は、円筒形状の被投影面を有し、カメラの画角に全プロジェクタの画面が納まる程度の連結数の少ないマルチ・プロジェクションの場合に特に有効である。分割撮像する場合と比較して、撮像枚数や撮像位置を増やさずにすみ、円筒スクリーン両端でのたる形の歪みを好適に補正することができ、かつ円筒面を展開した平面にコンテンツをマッピングするような幾何補正することができる。 The calibration process according to the above-described embodiment is particularly effective in the case of multi-projection having a cylindrical projected surface and a small number of connections so that the screens of all projectors fit in the angle of view of the camera. Compared to the case of divided imaging, it is not necessary to increase the number of images to be imaged and the imaging position, it is possible to appropriately correct the distortion of the barrel shape at both ends of the cylindrical screen, and the content is mapped to the plane where the cylindrical surface is developed. Such geometric correction can be performed.
特に、縦型円筒のスクリーンでは、上端位置での撮像も必要になり、高さ3m程度の円筒スクリーンの場合、通常の三脚などでは届かない高さでの撮像が必要になるが、本実施形態による校正処理ではこれらが不要となる。さらに、上述した実施形態による校正処理によれば、プロジェクタ投影領域全体に対して幾何学的を好適に補正することができる。 In particular, in the case of a vertical cylindrical screen, it is necessary to take an image at the upper end position, and in the case of a cylindrical screen having a height of about 3 m, it is necessary to take an image at a height that cannot be reached by a normal tripod or the like. These are not required in the calibration process by. Further, according to the calibration process according to the above-described embodiment, the geometry can be suitably corrected for the entire projector projection area.
さらに、微調整量を受け付けることにより、一旦補正した後に、たる形歪みが補正しきれない場合でも、残存する湾曲歪みがまっすぐになるようユーザがユーザ・インタフェースを介して、目視で補正結果を見ながら微調整できるように構成されている。さらに、好適には、上述した補正前後に平面射影変換を施すことにより、一旦投影領域の四隅位置の微調整を行った後に、このたる形の歪みを軽減する微調整を行うに際して、投影領域の四隅位置を固定することができる。 Furthermore, by accepting the fine adjustment amount, even if the barrel distortion cannot be completely corrected after the correction is made, the user can visually check the correction result through the user interface so that the remaining bending distortion is straightened. However, it is configured so that it can be fine-tuned. Further, preferably, by performing the plane projection transformation before and after the above-mentioned correction, once the four corner positions of the projection area are finely adjusted, the fine adjustment for reducing the distortion of the barrel shape is performed, and the projection area is preferably adjusted. The positions of the four corners can be fixed.
なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。 The above functional unit can be realized by a computer-executable program written in a legacy programming language such as an assembler, C, C ++, C #, Java (registered trademark) or an object-oriented programming language, and is ROM, EEPROM, EPROM. , Flash memory, flexible disk, CD-ROM, CD-RW, DVD-ROM, DVD-RAM, DVD-RW, Blu-ray disk, SD card, MO, etc. Stored in a device-readable recording medium, or through a telecommunication line Can be distributed.
これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。 Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may think of other embodiments, additions, changes, deletions, and the like. It can be changed within the range possible, and is included in the scope of the present invention as long as the action / effect of the present invention is exhibited in any of the embodiments.
100…投影システム、102…スクリーン、104…投影像、106…単一の投影像、110…画像処理装置、112…コンテンツ格納部、114…補正処理部、116…投影画像出力部、122…切替部、124…校正用画像格納部、126…校正用撮像画像入力部、128…校正パラメータ入力部、130…補正係数算出部、132…特徴点抽出統合部、134…円筒補正部、136…幾何補正係数計算部、138…ブレンディング係数計算部、150…プロジェクタ、160…カメラ、170…入力装置、200…校正用画像、210,212,214,216,230…校正用投影像、12…CPU、14…ノースブリッジ、16…サウスブリッジ、18…RAM、20…グラフィックボード、22…PCI、24…LANポート、26…IEEE1394ポート、28…USBポート、30…補助記憶装置、32…オーディオ入出力、34…シリアルポート、52…キーボード、54…マウス 100 ... Projection system, 102 ... Screen, 104 ... Projection image, 106 ... Single projection image, 110 ... Image processing device, 112 ... Content storage unit, 114 ... Correction processing unit, 116 ... Projection image output unit, 122 ... Switching Unit, 124 ... Calibration image storage unit, 126 ... Calibration captured image input unit, 128 ... Calibration parameter input unit, 130 ... Correction coefficient calculation unit, 132 ... Feature point extraction integration unit, 134 ... Cylindrical correction unit, 136 ... Geometry Correction coefficient calculation unit, 138 ... Blending coefficient calculation unit, 150 ... Projector, 160 ... Camera, 170 ... Input device, 200 ... Calibration image, 210, 212, 214, 216, 230 ... Calibration projection image, 12 ... CPU, 14 ... North Bridge, 16 ... South Bridge, 18 ... RAM, 20 ... Graphic Board, 22 ... PCI, 24 ... LAN Port, 26 ... IEEE1394 Port, 28 ... USB Port, 30 ... Auxiliary Storage, 32 ... Audio Input / Output, 34 ... serial port, 52 ... keyboard, 54 ... mouse
Claims (10)
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段と
を含み、
前記補正手段は、
前記曲がりを有する前記少なくとも1つの方向に関し、
仮想被投影平面上の座標値による前記元座標上の点と前記被投影面上の座標上の点との対応関係に基づいて、前記元座標系の値から前記仮想被投影平面上の座標の値を求める手段と、
前記仮想被投影平面と前記被投影面との前記少なくとも1つの方向での前記曲がりに応じた幾何学的関係に基づいて、前記仮想被投影平面上の座標の値から前記被投影面上の座標の値を求める手段と、
線形変換に基づいて、前記被投影面上の座標の値から前記補正後座標系の値を求める手段と
を含み、
さらに、前記少なくとも1つの方向と直交する方向に関し、
前記少なくとも1つの方向での前記曲がりによる光学的な効果をキャンセルするように前記元座標系の値から、前記補正後座標系への値を求める手段
を含む、投影システム。 A projection system for projecting an image onto a projected surface having a bend in at least one direction by one or more projection means.
A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the grid point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. With a correction coefficient calculation means including a correction means for correcting to a coordinate system after correction according to the shape of the projection surface
Including
The correction means
With respect to the at least one direction having the bend
Based on the correspondence between the point on the original coordinate based on the coordinate value on the virtual projective plane and the point on the coordinate on the projected plane, the value of the original coordinate system is used to determine the coordinate on the virtual projective plane. The means to find the value and
Coordinates on the projected plane from the values of the coordinates on the virtual projected plane based on the geometric relationship between the virtual projected plane and the projected plane according to the bending in at least one direction. And the means to find the value of
As a means for obtaining the value of the corrected coordinate system from the value of the coordinate on the projected surface based on the linear transformation.
Including
Further, with respect to a direction orthogonal to the at least one direction.
A projection system comprising a means of obtaining a value from a value in the original coordinate system to the corrected coordinate system so as to cancel the optical effect of the bend in at least one direction .
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、 A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、 An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段と A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the grid point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. With a correction coefficient calculation means including a correction means for correcting to a coordinate system after correction according to the shape of the projection surface
を含み、 Including
前記補正係数計算手段は、 The correction coefficient calculation means is
前記1以上の投影手段による全体投影領域の外形を規定する複数の基準点に基づいて、前記複数の基準点が規定する外形が所定の規格化された形状となるような射影変換を求める手段を含み、 A means for obtaining a projective transformation such that the outer shape defined by the plurality of reference points has a predetermined standardized shape based on a plurality of reference points defining the outer shape of the entire projection area by the one or more projection means. Including
前記格子点抽出手段により抽出された格子点データに対し前記射影変換を施し、射影変換後の格子点データに前記元座標系から前記補正後座標系への補正を施し、前記補正後の格子点データにさらに前記射影変換の逆変換を施して、前記射影変換後、かつ、前記補正後、かつ、前記逆変換後の格子点データに基づいて前記補正係数を計算することを特徴とする、 The projective transformation is performed on the lattice point data extracted by the lattice point extraction means, the lattice point data after the projection transformation is corrected from the original coordinate system to the corrected coordinate system, and the corrected lattice points are applied. The data is further subjected to the inverse transformation of the projective transformation, and the correction coefficient is calculated based on the grid point data after the projective transformation, after the correction, and after the inverse conversion.
投影システム。 Projection system.
前記補正係数計算手段で計算された複数の投影手段各々に対する補正係数に基づき補正された複数の補正画像を各々対応する複数の投影手段により投影する画像出力手段と
をさらに含む、請求項1〜5のいずれか1項に記載の投影システム。 A grid point conversion means for converting the grid point data of each projection means extracted from the plurality of calibration images to a common coordinate system, and
Claims 1 to 5 further include an image output means for projecting a plurality of corrected images corrected based on the correction coefficients for each of the plurality of projection means calculated by the correction coefficient calculation means by the corresponding plurality of projection means. The projection system according to any one of the above.
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段と
を含み、
前記補正手段は、
前記曲がりを有する前記少なくとも1つの方向に関し、
仮想被投影平面上の座標値による前記元座標上の点と前記被投影面上の座標上の点との対応関係に基づいて、前記元座標系の値から前記仮想被投影平面上の座標の値を求める手段と、
前記仮想被投影平面と前記被投影面との前記少なくとも1つの方向での前記曲がりに応じた幾何学的関係に基づいて、前記仮想被投影平面上の座標の値から前記被投影面上の座標の値を求める手段と、
線形変換に基づいて、前記被投影面上の座標の値から前記補正後座標系の値を求める手段と
を含み、
さらに、前記少なくとも1つの方向と直交する方向に関し、
前記少なくとも1つの方向での前記曲がりによる光学的な効果をキャンセルするように前記元座標系の値から、前記補正後座標系への値を求める手段
を含む、画像処理装置。 An image processing device for projecting an image onto a projected surface having a bend in at least one direction by one or more projection means.
A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the grid point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. With a correction coefficient calculation means including a correction means for correcting to a coordinate system after correction according to the shape of the projection surface
Including
The correction means
With respect to the at least one direction having the bend
Based on the correspondence between the point on the original coordinate based on the coordinate value on the virtual projective plane and the point on the coordinate on the projected plane, the value of the original coordinate system is used to determine the coordinate on the virtual projective plane. The means to find the value and
Coordinates on the projected plane from the values of the coordinates on the virtual projected plane based on the geometric relationship between the virtual projected plane and the projected plane according to the bending in at least one direction. And the means to find the value of
As a means for obtaining the value of the corrected coordinate system from the value of the coordinate on the projected surface based on the linear transformation.
Including
Further, with respect to a direction orthogonal to the at least one direction.
An image processing apparatus comprising a means for obtaining a value from a value in the original coordinate system to the corrected coordinate system so as to cancel the optical effect of the bending in at least one direction .
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、 A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、 An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段と A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the grid point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. With a correction coefficient calculation means including a correction means for correcting to a coordinate system after correction according to the shape of the projection surface
を含み、 Including
前記補正係数計算手段は、 The correction coefficient calculation means is
前記1以上の投影手段による全体投影領域の外形を規定する複数の基準点に基づいて、前記複数の基準点が規定する外形が所定の規格化された形状となるような射影変換を求める手段を含み、 A means for obtaining a projective transformation such that the outer shape defined by the plurality of reference points has a predetermined standardized shape based on a plurality of reference points defining the outer shape of the entire projection area by the one or more projection means. Including
前記格子点抽出手段により抽出された格子点データに対し前記射影変換を施し、射影変換後の格子点データに前記元座標系から前記補正後座標系への補正を施し、前記補正後の格子点データにさらに前記射影変換の逆変換を施して、前記射影変換後、かつ、前記補正後、かつ、前記逆変換後の格子点データに基づいて前記補正係数を計算することを特徴とする、 The projective transformation is performed on the lattice point data extracted by the lattice point extraction means, the lattice point data after the projection transformation is corrected from the original coordinate system to the corrected coordinate system, and the corrected lattice points are applied. The data is further subjected to the inverse transformation of the projective transformation, and the correction coefficient is calculated based on the grid point data after the projective transformation, after the correction, and after the inverse conversion.
画像処理装置。 Image processing device.
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段
として機能させ、
前記補正手段は、
前記曲がりを有する前記少なくとも1つの方向に関し、
仮想被投影平面上の座標値による前記元座標上の点と前記被投影面上の座標上の点との対応関係に基づいて、前記元座標系の値から前記仮想被投影平面上の座標の値を求める手段と、
前記仮想被投影平面と前記被投影面との前記少なくとも1つの方向での前記曲がりに応じた幾何学的関係に基づいて、前記仮想被投影平面上の座標の値から前記被投影面上の座標の値を求める手段と、
線形変換に基づいて、前記被投影面上の座標の値から前記補正後座標系の値を求める手段
として機能し、
さらに、前記少なくとも1つの方向と直交する方向に関し、
前記少なくとも1つの方向での前記曲がりによる光学的な効果をキャンセルするように前記元座標系の値から、前記補正後座標系への値を求める手段
として機能する、プログラム。 A program for projecting an image onto a projected surface having a bend in at least one direction by one or more projection means, the computer.
A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the lattice point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. Correction coefficient calculation means including correction means for correcting to the coordinate system after correction according to the shape of the projection surface
To function as
The correction means
With respect to the at least one direction having the bend
Based on the correspondence between the point on the original coordinate based on the coordinate value on the virtual projective plane and the point on the coordinate on the projected plane, the value of the original coordinate system is used to determine the coordinate on the virtual projective plane. The means to find the value and
Coordinates on the projected plane from the values of the coordinates on the virtual projected plane based on the geometric relationship between the virtual projected plane and the projected plane according to the bending in at least one direction. And the means to find the value of
A means for obtaining the value of the corrected coordinate system from the value of the coordinate on the projected surface based on the linear transformation.
Acts as
Further, with respect to a direction orthogonal to the at least one direction.
A means for obtaining a value from a value in the original coordinate system to the corrected coordinate system so as to cancel the optical effect of the bending in at least one direction.
A program that acts as .
準備された1以上の校正用撮像画像各々から、前記1以上の投影手段各々について投影像の歪みを示す格子点データを抽出する格子点抽出手段と、 A grid point extraction means for extracting grid point data indicating distortion of the projected image for each of the one or more projection means from each of the prepared one or more calibration images.
前記校正用撮像画像の撮像手段との相対的な位置関係を含む前記被投影面の幾何学情報の入力を受ける情報入力手段と、 An information input means for receiving the input of geometric information of the projected surface including the relative positional relationship of the calibration image to the image pickup means.
前記格子点データおよび前記幾何学情報に基づいて、前記1以上の投影手段各々に対する補正係数を計算する補正係数計算手段であって、前記1以上の校正用撮像画像の元座標系から、前記被投影面の形状に応じた補正後座標系へ補正する補正手段を含む補正係数計算手段 A correction coefficient calculating means for calculating a correction coefficient for each of the one or more projection means based on the lattice point data and the geometric information, and the subject is described from the original coordinate system of the one or more calibration captured images. Correction coefficient calculation means including correction means for correcting to the coordinate system after correction according to the shape of the projection surface
として機能させ、 To function as
前記補正係数計算手段は、 The correction coefficient calculation means is
前記1以上の投影手段による全体投影領域の外形を規定する複数の基準点に基づいて、前記複数の基準点が規定する外形が所定の規格化された形状となるような射影変換を求める手段として機能し、 As a means for obtaining a projective transformation such that the outer shape defined by the plurality of reference points has a predetermined standardized shape based on a plurality of reference points defining the outer shape of the entire projection area by the one or more projection means. Function,
前記格子点抽出手段により抽出された格子点データに対し前記射影変換を施し、射影変換後の格子点データに前記元座標系から前記補正後座標系への補正を施し、前記補正後の格子点データにさらに前記射影変換の逆変換を施して、前記射影変換後、かつ、前記補正後、かつ、前記逆変換後の格子点データに基づいて前記補正係数を計算することを特徴とする、 The projective transformation is performed on the lattice point data extracted by the lattice point extraction means, the lattice point data after the projection transformation is corrected from the original coordinate system to the corrected coordinate system, and the corrected lattice points are applied. The data is further subjected to the inverse transformation of the projective transformation, and the correction coefficient is calculated based on the grid point data after the projective transformation, after the correction, and after the inverse conversion.
プログラム。 program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016232010A JP6790766B2 (en) | 2016-11-30 | 2016-11-30 | Projection system, image processing equipment and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016232010A JP6790766B2 (en) | 2016-11-30 | 2016-11-30 | Projection system, image processing equipment and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018088654A JP2018088654A (en) | 2018-06-07 |
JP6790766B2 true JP6790766B2 (en) | 2020-11-25 |
Family
ID=62494611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016232010A Expired - Fee Related JP6790766B2 (en) | 2016-11-30 | 2016-11-30 | Projection system, image processing equipment and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6790766B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110148171B (en) * | 2019-04-18 | 2021-03-23 | 北京森焱精创科技有限公司 | Dynamic projection method, system, computer device and storage medium |
JP7493774B2 (en) * | 2020-08-21 | 2024-06-03 | 株式会社ソーシャル・キャピタル・デザイン | Tunnel wall projection system |
CN114567763B (en) * | 2022-02-22 | 2023-03-24 | 湖南泊湾科技有限公司 | Bilinear geometric correction method and system capable of adding points randomly |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3914891B2 (en) * | 2003-04-18 | 2007-05-16 | Necビューテクノロジー株式会社 | Approximate correction method for geometric correction of projected images |
JP2011182078A (en) * | 2010-02-26 | 2011-09-15 | Seiko Epson Corp | Correction information calculation device, image correction device, image display system, and correction information calculation method |
JP6318576B2 (en) * | 2013-11-22 | 2018-05-09 | 株式会社リコー | Image projection system, image processing apparatus, image projection method, and program |
JP2015126340A (en) * | 2013-12-26 | 2015-07-06 | ソニー株式会社 | Image processing method and image projection device |
JP6364899B2 (en) * | 2014-04-08 | 2018-08-01 | セイコーエプソン株式会社 | Projector, projector control method, and program |
JP6344050B2 (en) * | 2014-05-16 | 2018-06-20 | 株式会社リコー | Image processing system, image processing apparatus, and program |
-
2016
- 2016-11-30 JP JP2016232010A patent/JP6790766B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2018088654A (en) | 2018-06-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6569742B2 (en) | Projection system, image processing apparatus, projection method, and program | |
US9818377B2 (en) | Projection system, image processing apparatus, and correction method | |
TWI637230B (en) | Projector system and display image calibration method thereof | |
CN110809786B (en) | Calibration device, calibration chart, chart pattern generation device, and calibration method | |
JP4435145B2 (en) | Method and apparatus for providing panoramic image by calibrating geometric information | |
US10296783B2 (en) | Image processing device and image display device | |
CN111935465B (en) | Projection system, projection device and correction method for displaying images thereof | |
CN105026997B (en) | Projection system, semiconductor integrated circuit, and image correction method | |
JP6645151B2 (en) | Projection apparatus, projection method, and computer program for projection | |
JP5558973B2 (en) | Image correction apparatus, correction image generation method, correction table generation apparatus, correction table generation method, correction table generation program, and correction image generation program | |
US10572971B2 (en) | Projection device, projection method and program storage medium | |
US11962946B2 (en) | Image processing apparatus, display system, image processing method, and medium | |
JP2015026992A (en) | Projection system, image processing device, projection method, and program | |
CN111694528B (en) | Typesetting identification method of display wall and electronic device using the method | |
JP2015219679A (en) | Image processing system, information processing device, and program | |
JPWO2013018173A1 (en) | Image processing apparatus, image processing method, and image processing program | |
JP6790766B2 (en) | Projection system, image processing equipment and programs | |
JP6318576B2 (en) | Image projection system, image processing apparatus, image projection method, and program | |
JP2020068514A (en) | Image processing device, image processing method, and program | |
JP2011155412A (en) | Projection system and distortion correction method in the same | |
EP3606061B1 (en) | Projection device, projection system and an image calibration method | |
JP2006109088A (en) | Geometric correction method in multi-projection system | |
JP2012113244A (en) | Image processor, image processing method and program | |
JP5734080B2 (en) | Information processing apparatus, processing method thereof, and program | |
JP2023546037A (en) | image recording device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190806 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200525 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200602 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200803 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201006 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201019 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6790766 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |