Nothing Special   »   [go: up one dir, main page]

JP2021061510A - Projection control device, method, program, and storage medium - Google Patents

Projection control device, method, program, and storage medium Download PDF

Info

Publication number
JP2021061510A
JP2021061510A JP2019184076A JP2019184076A JP2021061510A JP 2021061510 A JP2021061510 A JP 2021061510A JP 2019184076 A JP2019184076 A JP 2019184076A JP 2019184076 A JP2019184076 A JP 2019184076A JP 2021061510 A JP2021061510 A JP 2021061510A
Authority
JP
Japan
Prior art keywords
image
projection
projector
deviation
projected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019184076A
Other languages
Japanese (ja)
Inventor
徹 小池
Toru Koike
徹 小池
雄太 浦野
Yuta Urano
雄太 浦野
浩平 稲村
Kohei Inamura
浩平 稲村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019184076A priority Critical patent/JP2021061510A/en
Publication of JP2021061510A publication Critical patent/JP2021061510A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a projection control device that can detect pixel shifts of a plurality of projectors without using a special test pattern.SOLUTION: A projection control device includes an acquisition unit that acquires a captured image obtained by capturing a region of a projection surface including at least a superimposed region in which a first projection image projected on the projection surface by a first projector and a second projection image projected on the projection surface by a second projector overlap, and a detection unit that analyzes the captured image, and detects the magnitude and the direction of the displacement between the first projection image and the second projection image in the superimposed region.SELECTED DRAWING: Figure 2

Description

本発明は、複数のプロジェクタで投影された複数の投影画像のずれを検知する投影制御装置に関するものである。 The present invention relates to a projection control device that detects a deviation of a plurality of projected images projected by a plurality of projectors.

プロジェクタからスクリーンに画像を投影して表示する場合、投影輝度または投影解像度を向上させるために、複数台のプロジェクタを用いて画素を重ねて投影することがある。 When an image is projected from a projector onto a screen and displayed, pixels may be projected in an overlapping manner using a plurality of projectors in order to improve the projection brightness or the projection resolution.

特許文献1には、複数台のプロジェクタを用いた投影の画素の重なりを解析するために、テストパターンを用いて画素の重なりのずれ(以下、画素ずれとする)を検出して複数台のプロジェクタの投影の位置を合わせる技術が開示されている。 In Patent Document 1, in order to analyze the pixel overlap of a projection using a plurality of projectors, a test pattern is used to detect the pixel overlap deviation (hereinafter referred to as pixel deviation) and the plurality of projectors. A technique for aligning the projection position of is disclosed.

特開2011−182076号公報Japanese Unexamined Patent Publication No. 2011-182076

しかしながら、上記の従来技術では、複数台のプロジェクタの投影表示の画素ずれを検出するために、各プロジェクタを特定できるユニークなテストパターンを表示する機能が必要となり、装置の構成が複雑になるという問題があった。 However, in the above-mentioned conventional technique, in order to detect the pixel shift of the projection display of a plurality of projectors, a function of displaying a unique test pattern that can identify each projector is required, which causes a problem that the configuration of the device becomes complicated. was there.

本発明は上述した課題に鑑みてなされたものであり、その目的は、特殊なテストパターンを用いることなく、複数のプロジェクタの画素ずれを検出することができる投影制御装置を提供することである。 The present invention has been made in view of the above-mentioned problems, and an object of the present invention is to provide a projection control device capable of detecting pixel deviations of a plurality of projectors without using a special test pattern.

本発明に係わる投影制御装置は、第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが重なる重畳領域を少なくとも含む前記投影面の領域を撮像した撮像画像を取得する取得手段と、前記撮像画像を解析して、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれの大きさおよび当該ずれの方向を検出する検出手段と、を備えることを特徴とする。 The projection control device according to the present invention is a region of the projection surface including at least an overlapping region in which the first projection image projected on the projection surface by the first projector and the second projection image projected on the projection surface by the second projector overlap. The acquisition means for acquiring the captured image obtained by capturing the image and the captured image are analyzed to detect the magnitude of the displacement and the direction of the displacement between the first projected image and the second projected image in the superimposed region. It is characterized in that it is provided with a detection means for

本発明によれば、特殊なテストパターンを用いることなく、複数のプロジェクタの画素ずれを検出することが可能となる。 According to the present invention, it is possible to detect pixel shifts of a plurality of projectors without using a special test pattern.

本発明の第1の実施形態に係わる投影システムの構成を示す図。The figure which shows the structure of the projection system which concerns on 1st Embodiment of this invention. プロジェクタの構成を示すブロック図。A block diagram showing the configuration of a projector. 画素ずれ特性を説明するための概念図。The conceptual diagram for demonstrating the pixel shift characteristic. 画素ずれ特性を説明するための概念図。The conceptual diagram for demonstrating the pixel shift characteristic. プロジェクタの処理を示すフローチャート。A flowchart showing the processing of the projector. 第2の実施形態における画素ずれ補正処理を示すフローチャート。The flowchart which shows the pixel shift correction processing in 2nd Embodiment. 第3の実施形態における画像の分割処理を示すフローチャート。The flowchart which shows the image division processing in 3rd Embodiment. 第3の実施形態における分割画像の概念図。The conceptual diagram of the divided image in 3rd Embodiment. 第4の実施形態におけるプロジェクタの構成を示す図。The figure which shows the structure of the projector in 4th Embodiment. 第4の実施形態におけるプロジェクタの処理を示すフローチャート。The flowchart which shows the processing of the projector in 4th Embodiment. 第5の実施形態におけるプロジェクタの処理を示すフローチャート。The flowchart which shows the processing of the projector in 5th Embodiment. マルチ投影とブレンド部の概念図。Conceptual diagram of multi-projection and blend section. 第6の実施形態の画像投影システムの構成を示す図。The figure which shows the structure of the image projection system of 6th Embodiment. 第7の実施形態におけるユーザーインターフェースの概念図。The conceptual diagram of the user interface in the 7th Embodiment.

以下、添付図面を参照して実施形態を詳しく説明する。尚、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。 Hereinafter, embodiments will be described in detail with reference to the accompanying drawings. The following embodiments do not limit the invention according to the claims. Although a plurality of features are described in the embodiment, not all of the plurality of features are essential to the invention, and the plurality of features may be arbitrarily combined. Further, in the attached drawings, the same or similar configurations are designated by the same reference numbers, and duplicate explanations are omitted.

(第1の実施形態)
図1は、本発明の第1の実施形態に係わる、複数のプロジェクタを含む投影システムの構成を示す図である。投影システム160は、プロジェクタ100a、プロジェクタ100b、スクリーン150、および信号源152を備える。
(First Embodiment)
FIG. 1 is a diagram showing a configuration of a projection system including a plurality of projectors according to the first embodiment of the present invention. The projection system 160 includes a projector 100a, a projector 100b, a screen 150, and a signal source 152.

プロジェクタ100aおよびプロジェクタ100bは、信号源152から入力された画像データに基づいて、スクリーンに投影画像を投影する投影装置である。プロジェクタ100aおよびプロジェクタ100bの機能の詳細は後述する。なお、プロジェクタ100aおよびプロジェクタ100bについてまとめて記述する場合は、プロジェクタ100と表記する。それぞれを個別に示す場合は、プロジェクタ100a、およびプロジェクタ100bと表記する。投影システム160は、プロジェクタ100aが投影する投影画像A、およびプロジェクタ100bが投影する投影画像Bをスクリーン上で重ねて投影するスタック投影システムである。 The projector 100a and the projector 100b are projection devices that project a projected image onto a screen based on image data input from the signal source 152. Details of the functions of the projector 100a and the projector 100b will be described later. When the projector 100a and the projector 100b are described together, it is referred to as the projector 100. When each is shown individually, it is referred to as a projector 100a and a projector 100b. The projection system 160 is a stack projection system in which the projection image A projected by the projector 100a and the projection image B projected by the projector 100b are superimposed and projected on the screen.

スクリーン150は、プロジェクタ100aおよびプロジェクタ100bによって画像を投影される投影面である。スクリーン150は、壁面であってもよいし、平面でなくともよい。 The screen 150 is a projection surface on which an image is projected by the projector 100a and the projector 100b. The screen 150 may be a wall surface or may not be a flat surface.

信号源152は、プロジェクタ100a、およびプロジェクタ100bに入力する画像データを出力する出力装置である。信号源152は、例えば、PCや映像分配器である。 The signal source 152 is an output device that outputs image data to be input to the projector 100a and the projector 100b. The signal source 152 is, for example, a PC or a video distributor.

なお、本実施形態では、複数のプロジェクタとして2台のプロジェクタ100a,100bを示しているが、3台以上のプロジェクタを用いてもよいことは言うまでもない。 In this embodiment, two projectors 100a and 100b are shown as a plurality of projectors, but it goes without saying that three or more projectors may be used.

図2はプロジェクタ100の構成を示すブロック図である。 FIG. 2 is a block diagram showing the configuration of the projector 100.

プロジェクタ100は、撮像部101、フーリエ変換部102、画素ずれ解析部103、出力部104、メモリ105、画像入力部110、画像処理部111、光源112、パネル113、投影光学系114、CPU120、バス121を備える。 The projector 100 includes an imaging unit 101, a Fourier transform unit 102, a pixel shift analysis unit 103, an output unit 104, a memory 105, an image input unit 110, an image processing unit 111, a light source 112, a panel 113, a projection optical system 114, a CPU 120, and a bus. 121 is provided.

撮像部101は、スクリーン150の周辺を撮影可能であり、複数台のプロジェクタ100(本実施形態では、プロジェクタ100a,100b)によりスクリーン150に投影された画像を撮影して、撮像画像を生成する。撮像部101は、複数台のプロジェクタ100がスクリーン150に投影した複数の画像が互いに重なる領域(重畳領域)を含むスクリーン150の領域を撮像して撮像画像を取得する。本実施形態では、プロジェクタ100aが投影した画像の全体とプロジェクタ100bが投影した画像の全体とが重なるように投影する。したがって、撮像部101は、プロジェクタ100a,100bがそれぞれ投影する画像を撮影する。撮像部101は撮影した画像をフーリエ変換部102に出力する。 The imaging unit 101 can capture the periphery of the screen 150, and captures an image projected on the screen 150 by a plurality of projectors 100 (projectors 100a and 100b in this embodiment) to generate an captured image. The imaging unit 101 acquires an image captured by capturing an area of the screen 150 including a region (overlapping area) in which a plurality of images projected on the screen 150 by a plurality of projectors 100 overlap each other. In the present embodiment, the entire image projected by the projector 100a and the entire image projected by the projector 100b are projected so as to overlap each other. Therefore, the imaging unit 101 captures the images projected by the projectors 100a and 100b, respectively. The imaging unit 101 outputs the captured image to the Fourier transform unit 102.

なお、撮像部101は、被写体の光学像を取得するレンズ、レンズを駆動するアクチュエータ、アクチュエータを制御するマイクロプロセッサ、レンズを介して取得した光学像を画像信号に変換する撮像素子、撮像素子により得られた画像信号をデジタル信号に変換するAD変換部などを備える。なお、撮像部101は、プロジェクタ100の外部装置(撮像装置)として設けられてもよい。その場合、プロジェクタ100は、撮像部101と接続する接続インターフェースを備え、接続インターフェースを介して撮像部101から撮像画像を取得する。 The image pickup unit 101 is obtained by a lens that acquires an optical image of a subject, an actuator that drives the lens, a microprocessor that controls the actuator, an image pickup element that converts an optical image acquired via the lens into an image signal, and an image pickup element. It is provided with an AD conversion unit or the like that converts the generated image signal into a digital signal. The image pickup unit 101 may be provided as an external device (imaging device) of the projector 100. In that case, the projector 100 includes a connection interface that connects to the image pickup unit 101, and acquires an captured image from the image pickup unit 101 via the connection interface.

フーリエ変換部102は、撮像部101からスクリーンの投影像を撮影した画像を取得した後に2次元フーリエ変換を行い、周波数スペクトルを生成して画素ずれ解析部103に出力する。 The Fourier transform unit 102 performs a two-dimensional Fourier transform after acquiring an image obtained by capturing a projected image of the screen from the image pickup unit 101, generates a frequency spectrum, and outputs the frequency spectrum to the pixel shift analysis unit 103.

なお、撮像部101が取得する撮像画像の解像度が投影した画像の解像度よりも高い場合がある。そのような場合は、撮影部101はスクリーン周辺まで含めた範囲を撮影した撮影画像をメモリ105に記憶した後に、CPU120が撮影画像から投影画像部分を切り出し、フーリエ変換部102に出力する。そして、フーリエ変換部102は、切り出した画像を周波数スペクトルに変換して画素ずれ解析部103に出力する。 The resolution of the captured image acquired by the imaging unit 101 may be higher than the resolution of the projected image. In such a case, the photographing unit 101 stores the photographed image in which the range including the periphery of the screen is photographed in the memory 105, and then the CPU 120 cuts out the projected image portion from the photographed image and outputs the projected image portion to the Fourier transform unit 102. Then, the Fourier transform unit 102 converts the cut out image into a frequency spectrum and outputs it to the pixel shift analysis unit 103.

画素ずれ解析部103は、フーリエ変換部102が生成した周波数スペクトルを解析して、複数台のプロジェクタで投影した画素ずれを検出する。画素ずれ解析部103は例えばパターンマッチングにより後述する画素ずれ特性とフーリエ変換部102が生成した周波数スペクトルを比較して画素ずれを検出する。 The pixel shift analysis unit 103 analyzes the frequency spectrum generated by the Fourier transform unit 102 and detects the pixel shift projected by a plurality of projectors. The pixel shift analysis unit 103 detects the pixel shift by comparing the pixel shift characteristic, which will be described later, with the frequency spectrum generated by the Fourier transform unit 102, for example, by pattern matching.

出力部104は、画素ずれ解析部103の画素ずれ検出結果を外部に通知する。例えば、外部のサーバーに不図示のネットワークを介して画素ずれ検出結果を送信する。メモリ105は、ワークメモリとして一時的に制御プログラムやデータを格納する。 The output unit 104 notifies the outside of the pixel shift detection result of the pixel shift analysis unit 103. For example, the pixel shift detection result is transmitted to an external server via a network (not shown). The memory 105 temporarily stores a control program and data as a work memory.

画像入力部110は、外部装置(図1の信号源152)から映像信号を受信する機能を有し、例えば、HDMI(登録商標)(High-Definition Multimedia Interface)端子、SDI(Serial Digital Interface)端子、 DisplayPort(登録商標)(DP)端子等を含む。ここで、外部装置は映像信号を出力するパーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機等である。画像入力部110は、受信した映像信号を画像処理部111に送信する。 The image input unit 110 has a function of receiving a video signal from an external device (signal source 152 in FIG. 1), and is, for example, an HDMI (registered trademark) (High-Definition Multimedia Interface) terminal or an SDI (Serial Digital Interface) terminal. , DisplayPort® (DP) terminal and the like. Here, the external device is a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, a game machine, or the like that outputs a video signal. The image input unit 110 transmits the received video signal to the image processing unit 111.

画像処理部111は、映像入力部110から受信した映像信号にフレーム数、画素数、画像形状などの変更処理を施して、パネル113に送信する機能を有し、例えば画像処理用のマイクロプロセッサからなる。なお、画像処理部111は、専用のマイクロプロセッサである必要はなく、例えば、メモリ105に記憶されたプログラムによって、CPU120が画像処理部111と同様の処理を実行してもよい。画像処理部111は、フレーム間引き処理、フレーム補間処理、解像度変換処理、メニュー等のOSD重畳処理、歪み補正処理(キーストン補正処理)、エッジブレンディング処理といった機能を実行することが可能である。また、画像処理部111は、映像入力部110から受信した映像信号以外にも、CPU110によって再生された画像や映像に対して前述の変更処理を施すこともできる。 The image processing unit 111 has a function of changing the number of frames, the number of pixels, the image shape, etc. of the video signal received from the video input unit 110 and transmitting it to the panel 113, for example, from a microprocessor for image processing. Become. The image processing unit 111 does not have to be a dedicated microprocessor. For example, the CPU 120 may execute the same processing as the image processing unit 111 by a program stored in the memory 105. The image processing unit 111 can execute functions such as frame thinning processing, frame interpolation processing, resolution conversion processing, OSD superimposition processing such as menus, distortion correction processing (keystone correction processing), and edge blending processing. In addition to the video signal received from the video input unit 110, the image processing unit 111 can also perform the above-mentioned change processing on the image or video reproduced by the CPU 110.

光源112は、パネル113に光を出力(照射)する光源である。光源112は、発光可能な部材であればよく、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、LED(Light Emitting Diode)、レーザーなどである。 The light source 112 is a light source that outputs (irradiates) light to the panel 113. The light source 112 may be any member as long as it can emit light, and may be, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, an LED (Light Emitting Diode), a laser, or the like.

パネル113は、光源112から照射された光を変調して画像(画像を表す光)を出力する変調パネルである。パネル113は、光源112から照射された光を、画像処理回路111から入力された画像データに基づく透過率(透過率分布)で透過させる。もしくは、パネル113は、光源112から照射された光を、画像処理回路111から入力された画像データに基づく反射率(反射率分布)で反射する。本実施形態では、パネル113が透過型の液晶パネルであるものとする。なお、パネル113は液晶パネルに限定されるものではない。 The panel 113 is a modulation panel that modulates the light emitted from the light source 112 and outputs an image (light representing an image). The panel 113 transmits the light emitted from the light source 112 at a transmittance (transmittance distribution) based on the image data input from the image processing circuit 111. Alternatively, the panel 113 reflects the light emitted from the light source 112 with a reflectance (reflectance distribution) based on the image data input from the image processing circuit 111. In the present embodiment, it is assumed that the panel 113 is a transmissive liquid crystal panel. The panel 113 is not limited to the liquid crystal panel.

投影光学系114は、パネル113から出力された画像をスクリーン150に投影するための光学系である。投影光学系114は、複数のレンズ、レンズ駆動用のアクチュエータなどから構成されており、レンズをアクチュエータにより駆動することによって、投影画像の拡大/縮小、投影位置のシフト調整、投影光学系114の焦点調節などを行う。なお、投影画像は、パネル113から出力された画像の投影によってスクリーン上に表示された画像であり、投影位置は、パネル113から出力された画像が投影される、スクリーン150上の位置である。 The projection optical system 114 is an optical system for projecting the image output from the panel 113 onto the screen 150. The projection optical system 114 is composed of a plurality of lenses, an actuator for driving the lens, and the like. By driving the lens by the actuator, the projection image is enlarged / reduced, the projection position is shifted, and the focal point of the projection optical system 114 is focused. Make adjustments. The projected image is an image displayed on the screen by projecting the image output from the panel 113, and the projection position is a position on the screen 150 on which the image output from the panel 113 is projected.

CPU120は、プロジェクタ100の動作を制御するためのプロセッサである。CPU120は、メモリ105から読み出したプログラムを実行して後述の制御(機能)を実行する。なお、CPU120は、複数のプロセッサで構成されてもよい。また、CPU120が実行する制御の一部もしくはすべてを、プログラムを用いずに電子回路で実行してもよい。 The CPU 120 is a processor for controlling the operation of the projector 100. The CPU 120 executes a program read from the memory 105 to execute a control (function) described later. The CPU 120 may be composed of a plurality of processors. Further, a part or all of the control executed by the CPU 120 may be executed by an electronic circuit without using a program.

続いて、図3を用いて画素ずれ特性について説明する。2台のプロジェクタ100a,100bを用いて画素を重ねて投影した際の画素の重なりと画素ずれ特性について説明する。 Subsequently, the pixel shift characteristic will be described with reference to FIG. Pixel overlap and pixel misalignment characteristics when pixels are projected on top of each other using two projectors 100a and 100b will be described.

スクリーン150上で、プロジェクタ100aが投影する投影画像の画素200は、プロジェクタ100bが投影する投影画像の対応する画素201と重ねて投影されるとする。 It is assumed that the pixels 200 of the projected image projected by the projector 100a are projected on the screen 150 so as to be superimposed on the corresponding pixels 201 of the projected image projected by the projector 100b.

しかし、プロジェクタ100の投影位置の経時的な変化などによって、投影画像の投影位置がずれる場合がある。この場合、画素200と画素201との投影位置が一致しない。 However, the projection position of the projected image may shift due to changes in the projection position of the projector 100 over time. In this case, the projection positions of the pixel 200 and the pixel 201 do not match.

図3(a)〜(e)は、それぞれ、画素200と画素201との投影位置の関係を示す模式図である。なお、スクリーン150上には画素200、201以外の画素も投影されていることは言うまでもない。 3A to 3E are schematic views showing the relationship between the projection positions of the pixel 200 and the pixel 201, respectively. Needless to say, pixels other than the pixels 200 and 201 are also projected on the screen 150.

図3(a)は、2台のプロジェクタ100a,100bでスクリーン150上に画素が重なるように投影した際に、プロジェクタ100aの画素200(白で塗りつぶされた円)とプロジェクタ100bの画素201(斜線の円)が重なっている状態(画素ずれなしの状態)を示す。 FIG. 3A shows the pixels 200 of the projector 100a (circles filled with white) and the pixels 201 of the projector 100b (diagonal lines) when the two projectors 100a and 100b project the pixels on the screen 150 so as to overlap each other. Indicates a state in which (circles) overlap (a state in which there is no pixel shift).

図3(b)は、画素200と画素201が垂直方向にずれている状態を示す。図3(c)は、画素200と画素201が水平方向にずれている状態を示す。図3(d)は、画素200と画素201が斜め方向にずれている状態を示す。図3(e)は、画素200と画素201が図3(d)とは異なる斜め方向にずれている状態を示す。 FIG. 3B shows a state in which the pixels 200 and the pixels 201 are vertically displaced. FIG. 3C shows a state in which the pixels 200 and the pixels 201 are displaced in the horizontal direction. FIG. 3D shows a state in which the pixels 200 and the pixels 201 are displaced in the oblique direction. FIG. 3E shows a state in which the pixels 200 and the pixels 201 are displaced in an oblique direction different from that in FIG. 3D.

画素ずれ特性は、撮像画像に対して2次元フーリエ変換処理を適用して得られた画像(周波数スペクトル画像)から判定することができる。図3(f)〜(j)は、それぞれ、プロジェクタ100aが投影する投影画像とプロジェクタ100bが投影する投影画像との位置が図3(a)〜(e)で示した関係にある場合の周波数スペクトル画像を示す。 The pixel shift characteristic can be determined from an image (frequency spectrum image) obtained by applying a two-dimensional Fourier transform process to the captured image. 3 (f) to 3 (j) show frequencies when the positions of the projected image projected by the projector 100a and the projected image projected by the projector 100b are in the relationship shown in FIGS. 3 (a) to 3 (e), respectively. A spectrum image is shown.

周波数スペクトル画像の中心付近は、画像のずれの高周波成分の強度を示す。また、周波数スペクトル画像の四隅付近は低周波成分の強度を示す。以下では、周波数スペクトルを4分割した場合に、第1象限と第3象限、第2象限と第4象限を入れ替えた周波数スペクトルを、画素ずれ特性と呼ぶことにする。この入れ替えにより、中心付近に低周波成分が含まれ、中心から離れるにしたがって高周波成分が含まるようになる。 Frequency spectrum Near the center of the image shows the intensity of the high frequency component of the image shift. In addition, the intensity of the low frequency component is shown near the four corners of the frequency spectrum image. In the following, when the frequency spectrum is divided into four, the frequency spectrum in which the first quadrant and the third quadrant and the second quadrant and the fourth quadrant are exchanged will be referred to as a pixel shift characteristic. By this replacement, a low frequency component is contained near the center, and a high frequency component is contained as the distance from the center increases.

図3(f)は、図3(a)に示すように2台のプロジェクタ100a,100bの投影画像がスクリーン150上で重なっている状態(画素ずれなしの状態)における周波数スペクトル画像を示す。 FIG. 3 (f) shows a frequency spectrum image in a state where the projected images of the two projectors 100a and 100b are overlapped on the screen 150 (a state without pixel deviation) as shown in FIG. 3 (a).

図3(g)は、図3(b)に示すように2台のプロジェクタ100a,100bの投影画像がスクリーン150上で垂直方向にずれている状態における周波数スペクトル画像を示す。このとき、周波数スペクトル画像には、水平方向の暗線が現れる。 FIG. 3 (g) shows a frequency spectrum image in a state where the projected images of the two projectors 100a and 100b are vertically displaced on the screen 150 as shown in FIG. 3 (b). At this time, a dark line in the horizontal direction appears in the frequency spectrum image.

図3(h)は、図3(c)に示すように2台のプロジェクタ100a,100bの投影画像がスクリーン150上で水平方向にずれている状態における周波数スペクトル画像を示す。このとき、周波数スペクトル画像には、垂直方向の暗線が現れる。 FIG. 3H shows a frequency spectrum image in a state where the projected images of the two projectors 100a and 100b are horizontally displaced on the screen 150 as shown in FIG. 3C. At this time, a dark line in the vertical direction appears in the frequency spectrum image.

図3(i)は、図3(d)に示すように2台のプロジェクタ100a,100bの投影画像がスクリーン150上でななめ方向にずれている状態における周波数スペクトル画像を示す。このとき、周波数スペクトル画像には、ななめ方向の暗線が現れる。 FIG. 3 (i) shows a frequency spectrum image in a state where the projected images of the two projectors 100a and 100b are shifted in the licking direction on the screen 150 as shown in FIG. 3 (d). At this time, a dark line in the licking direction appears in the frequency spectrum image.

図3(j)は、図3(e)に示すように2台のプロジェクタ100a,100bの投影画像がスクリーン150上でななめ方向にずれている状態における周波数スペクトル画像を示す。このとき、周波数スペクトル画像には、ななめ方向の暗線が現れる。 FIG. 3J shows a frequency spectrum image in a state where the projected images of the two projectors 100a and 100b are shifted in the licking direction on the screen 150 as shown in FIG. 3E. At this time, a dark line in the licking direction appears in the frequency spectrum image.

すなわち、投影画像がずれている場合、周波数スペクトル画像には、ずれの方向に対して垂直な方向の暗線が現れる。 That is, when the projected image is deviated, a dark line in the direction perpendicular to the deviating direction appears in the frequency spectrum image.

また、画素がずれている方向だけでなく、画素と画素のずれ量と画素ずれ特性にも相関がある。図4(a)〜(e)はそれぞれ、画素201と画素202とが水平方向にずれている場合の周波数スペクトル画像を示す。図4(a)は水平方向に1画素ずれている場合の画素ずれ特性を示す。図4(b)は水平方向に2画素ずれている場合の画素ずれ特性を示す。図4(c)は水平方向に4画素ずれている場合の画素ずれ特性を示す。図4(d)は水平方向に8画素ずれている場合の画素ずれ特性を示す。図4(e)は水平方向に10画素ずれている場合の画素ずれ特性を示す。すなわち、ずれ量が大きいほど、周波数スペクトル画像に現れる暗線の数が増加することがわかる。垂直、斜め方向においても同様に画素ずれ量と暗線の変化に相関がある。 Further, there is a correlation not only in the direction in which the pixels are displaced, but also in the amount of pixel-to-pixel deviation and the pixel deviation characteristic. 4 (a) to 4 (e) show frequency spectrum images when the pixels 201 and 202 are displaced in the horizontal direction, respectively. FIG. 4A shows a pixel shift characteristic when the pixel is shifted by one pixel in the horizontal direction. FIG. 4B shows a pixel shift characteristic when the pixel is shifted by two pixels in the horizontal direction. FIG. 4C shows a pixel shift characteristic when the pixel is shifted by 4 pixels in the horizontal direction. FIG. 4D shows a pixel shift characteristic when the pixel is shifted by 8 pixels in the horizontal direction. FIG. 4E shows the pixel shift characteristic when the shift is 10 pixels in the horizontal direction. That is, it can be seen that the larger the deviation amount, the larger the number of dark lines appearing in the frequency spectrum image. Similarly, there is a correlation between the amount of pixel shift and the change in dark lines in the vertical and diagonal directions.

したがって、フーリエ変換部102から得られた撮像画像に基づく周波数スペクトル画像から、スクリーン150における投影画像のずれの方向を判定することができる。具体的には、あらかじめ種々のずれの大きさおよび方向に関連付けられた複数の周波数スペクトル画像(参照画像)をメモリなどの記憶媒体に格納する。そして、フーリエ変換部102から得られた撮像画像に基づく周波数スペクトル画像と参照画像とを比較することで、スクリーン150における投影画像のずれの大きさおよびを判定することができる。なお、周波数スペクトル画像と参照画像との比較はパターンマッチングなどの既知の比較方法を採用することができる。 Therefore, the direction of deviation of the projected image on the screen 150 can be determined from the frequency spectrum image based on the captured image obtained from the Fourier transform unit 102. Specifically, a plurality of frequency spectrum images (reference images) associated with various magnitudes and directions of deviations in advance are stored in a storage medium such as a memory. Then, by comparing the frequency spectrum image based on the captured image obtained from the Fourier transform unit 102 with the reference image, the magnitude and deviation of the projected image on the screen 150 can be determined. For comparison between the frequency spectrum image and the reference image, a known comparison method such as pattern matching can be adopted.

なお、周波数スペクトル画像の特徴とずれの大きさおよび方向との関係は上述の例に限らない。計算方法を変えることによって特徴の現れ方は変化しうる。 The relationship between the characteristics of the frequency spectrum image and the magnitude and direction of the deviation is not limited to the above example. The appearance of features can change by changing the calculation method.

図5は、プロジェクタ100が実行するずれ通知処理を示すフローチャートである。ずれ通知処理は、プロジェクタ100がスタック投影で画像を投影している状態で実行される。ずれ通知処理は、あらかじめユーザーによってずれ通知機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ通知処理は、プロジェクタ100a,100bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ通知機能が有効に設定され、プロジェクタ100bのずれ通知機能が無効と設定されているとする。 FIG. 5 is a flowchart showing a deviation notification process executed by the projector 100. The deviation notification process is executed in a state where the projector 100 is projecting an image by stack projection. It is assumed that the deviation notification process is repeatedly executed when the user has previously set to enable the deviation notification function. The deviation notification process may be executed by both the projectors 100a and 100b, or may be executed by either one. In the present embodiment, it is assumed that the deviation notification function of the projector 100a is enabled and the deviation notification function of the projector 100b is disabled.

S1では、撮像部101がスクリーンに投影された画像を撮影して撮影画像を生成する。 In S1, the imaging unit 101 captures an image projected on the screen to generate a captured image.

S2では、フーリエ変換部102がS1で生成した撮影画像に対して2次元フーリエ変換を行い、周波数スペクトル画像を生成する。

S3では、画素ずれ解析部103が、S2で生成した周波数スペクトル画像から、スクリーン150に投影されたプロジェクタ100a,100bの投影画像の画素ずれ特性(大きさ、方向)を取得する。
In S2, the Fourier transform unit 102 performs a two-dimensional Fourier transform on the captured image generated in S1 to generate a frequency spectrum image.

In S3, the pixel shift analysis unit 103 acquires the pixel shift characteristics (magnitude, direction) of the projected images of the projectors 100a and 100b projected on the screen 150 from the frequency spectrum image generated in S2.

S4では、CPU120が、画素ずれ解析部103の解析結果に基づき、画素ずれが発生しているか否かを判定する。CPU120が画素ずれの発生を検出した場合は、S5に進む。また、CPU120が画素ずれの発生を検出しない場合は、S6に進む。なお、S4の判定処理は、画素ずれ特性が示すずれの大きさが閾値以上である場合にS5に進み、そうでない場合にS6に進む判定処理であってもよい。 In S4, the CPU 120 determines whether or not the pixel shift has occurred based on the analysis result of the pixel shift analysis unit 103. When the CPU 120 detects the occurrence of pixel shift, the process proceeds to S5. If the CPU 120 does not detect the occurrence of pixel shift, the process proceeds to S6. The determination process of S4 may be a determination process of proceeding to S5 when the magnitude of the shift indicated by the pixel shift characteristic is equal to or greater than the threshold value, and proceeding to S6 when the magnitude of the shift is not equal to or greater than the threshold value.

S5では、CPU120が画素ずれの発生を通知する処理を行う。CPU120は、画素ずれ解析部103の検出結果を、出力部104を介して外部サーバーにネットワークを経由して出力する。 In S5, the CPU 120 performs a process of notifying the occurrence of pixel shift. The CPU 120 outputs the detection result of the pixel shift analysis unit 103 to the external server via the output unit 104 via the network.

S6では、ユーザーがずれ通知処理の終了を指示したか否かをCPU120が判定する。例えば、ユーザーがメニュー画面などを操作して、ずれ通知機能を無効(オフ)に設定することをもって、終了指示が入力されたとする。終了指示が入力された場合、図4のフローチャートの処理を終了し、終了操作が行われなかった場合は処理がS1に戻る。 In S6, the CPU 120 determines whether or not the user has instructed the end of the shift notification process. For example, it is assumed that the end instruction is input by the user operating the menu screen or the like to disable (off) the deviation notification function. When the end instruction is input, the process of the flowchart of FIG. 4 is ended, and when the end operation is not performed, the process returns to S1.

以上説明したように、第1の実施形態によれば、複数台のプロジェクタ100がスタック投影を続けたまま、スタック投影の画素ずれを検出することが出来る。この方法では、画素ずれ検出のためのテストパターンを用いる必要がないため、映像の視聴中に画素ずれの検出を行っても、視聴を阻害することが防止される。 As described above, according to the first embodiment, it is possible to detect the pixel shift of the stack projection while the plurality of projectors 100 continue the stack projection. In this method, it is not necessary to use a test pattern for detecting pixel deviation, so that even if pixel deviation is detected during viewing of a moving image, viewing is prevented from being hindered.

なお、上記の実施形態では、撮像部101、フーリエ変換部102、画素ずれ解析部103、出力部104からなる画素ずれを検出する構成が、全てプロジェクタ100に搭載されているものとして説明した。しかし、これらの画素ずれを検出する機能部分の全て又は一部が、プロジェクタ100の外部の制御装置に搭載されていてもよい。外部の制御装置としては、投影制御用に作成された制御装置、あるいはパーソナルコンピュータなどを用いることができる。 In the above embodiment, the configuration for detecting the pixel shift including the imaging unit 101, the Fourier transform unit 102, the pixel shift analysis unit 103, and the output unit 104 has been described as being mounted on the projector 100. However, all or part of the functional parts for detecting these pixel shifts may be mounted on an external control device of the projector 100. As the external control device, a control device created for projection control, a personal computer, or the like can be used.

(第2の実施形態)
以下、本発明の第2の実施形態について説明する。第1の実施形態では、スタック投影を続けたままテストパターンを用いずに画素ずれを検出する方法について説明した。第2の実施形態では、第1の実施形態の画素ずれ検出を行った後に、画素ずれ補正処理を行う構成について説明する。第2の実施形態のプロジェクタ100の構成は、図2に示した第1の実施形態の構成と同様であるため、その説明は省略する。
(Second embodiment)
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, a method of detecting pixel shift without using a test pattern while continuing stack projection has been described. In the second embodiment, a configuration in which the pixel shift correction process is performed after the pixel shift detection of the first embodiment will be described. Since the configuration of the projector 100 of the second embodiment is the same as the configuration of the first embodiment shown in FIG. 2, the description thereof will be omitted.

図6のフローチャートを用いて、第2の実施形態の画素ずれ補正処理について説明する。ずれ補正処理は、プロジェクタ100がスタック投影で画像を投影している状態で実行される。ずれ補正処理は、あらかじめユーザーによってずれ補正機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ補正処理は、プロジェクタ100a,100bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ補正機能が有効に設定され、プロジェクタ100bのずれ補正機能が無効と設定されているとする。すなわち、プロジェクタ100aが画素ずれ特性を検出し、検出された画素ずれ特性に応じて、プロジェクタ100aの投影画像の投影位置を補正する。 The pixel shift correction process of the second embodiment will be described with reference to the flowchart of FIG. The deviation correction process is executed in a state where the projector 100 is projecting an image by stack projection. It is assumed that the deviation correction process is repeatedly executed when the user has previously set to enable the deviation correction function. The deviation correction process may be executed by both the projectors 100a and 100b, or may be executed by either one. In the present embodiment, it is assumed that the deviation correction function of the projector 100a is set to be valid and the deviation correction function of the projector 100b is set to be invalid. That is, the projector 100a detects the pixel shift characteristic and corrects the projection position of the projected image of the projector 100a according to the detected pixel shift characteristic.

S100では、第1の実施形態のS1と同様に、スタック投影したスクリーンの撮影を行う。S101では、第1の実施形態のS2と同様に、撮影画像のフーリエ変換処理を行う。S102では、第1の実施形態のS3と同様に、画素ずれ解析を行う。 In S100, the stack-projected screen is photographed in the same manner as in S1 of the first embodiment. In S101, the Fourier transform process of the captured image is performed in the same manner as in S2 of the first embodiment. In S102, the pixel shift analysis is performed in the same manner as in S3 of the first embodiment.

S103では、CPU120が画素ずれ解析部103から画素ずれ検出結果を取得して、画素ずれが発生したか否かを判定する。CPU120が画素ずれの発生を検出した場合は、S104に進む。また、画素ずれの発生を検出しない場合は、S106に進む。 In S103, the CPU 120 acquires the pixel shift detection result from the pixel shift analysis unit 103, and determines whether or not the pixel shift has occurred. When the CPU 120 detects the occurrence of pixel shift, the process proceeds to S104. If the occurrence of pixel shift is not detected, the process proceeds to S106.

S104では、CPU120が画素ずれ解析部103から画素ずれ検出結果を取得して、画素ずれ方向と画素ずれ量を推測する。 In S104, the CPU 120 acquires the pixel shift detection result from the pixel shift analysis unit 103, and estimates the pixel shift direction and the pixel shift amount.

S105では、画素ずれ補正処理を行う。CPU120は、S104で求めた画素ずれ方向と画素ずれ量に基づいて、投影光学系114の投影位置のシフト量の調整を行う。また、画像処理部111の歪み補正処理機能を用いて画素ずれの補正を行うことも可能である。 In S105, pixel shift correction processing is performed. The CPU 120 adjusts the shift amount of the projection position of the projection optical system 114 based on the pixel shift direction and the pixel shift amount obtained in S104. It is also possible to correct the pixel deviation by using the distortion correction processing function of the image processing unit 111.

S106では、ユーザーが終了操作(図6のフローチャートを終了する操作)を行ったか否かをCPU120が判定する。終了操作が行われた場合は、図6のフローチャートが終了し、終了操作が行われなかった場合は処理がS100に戻る。 In S106, the CPU 120 determines whether or not the user has performed an end operation (an operation to end the flowchart of FIG. 6). When the end operation is performed, the flowchart of FIG. 6 ends, and when the end operation is not performed, the process returns to S100.

以上説明したように、第2の実施形態によれば、複数台のプロジェクタ100がスタック投影を続けたまま、スタック投影の画素ずれを補正することが出来る。この方法では、画素ずれの検出のためのテストパターンを用いる必要がないため、映像の視聴中に画素ずれの検出を行っても、視聴を阻害することが防止される。 As described above, according to the second embodiment, it is possible to correct the pixel deviation of the stack projection while the plurality of projectors 100 continue the stack projection. In this method, since it is not necessary to use a test pattern for detecting pixel deviation, even if pixel deviation is detected during video viewing, viewing is prevented from being hindered.

(第3の実施形態)
以下、本発明の第3の実施形態について説明する。上述したように、第1及び第2の実施形態のプロジェクタ100では、スタック投影を続けたままテストパターンを用いずに画素ずれを検出、補正することが可能である。しかし、スクリーンの形状(歪みなど)や、プロジェクタ100に対するスクリーン150の角度などにより、補正条件はスクリーン150上で一様にならない。例えば、プロジェクタ100の投影方向がスクリーンに対して大きく傾いている場合、つまり斜め設置の場合は、比較的複雑な補正を行う必要がある。そこで、第3の実施形態では、投影内容を分割して解析することにより、複雑な補正を行うことを可能としている。第3の実施形態のプロジェクタ100の構成は、図2に示した第1の実施形態の構成と同様であるので、その説明は省略する。
(Third Embodiment)
Hereinafter, a third embodiment of the present invention will be described. As described above, in the projector 100 of the first and second embodiments, it is possible to detect and correct the pixel shift without using the test pattern while continuing the stack projection. However, the correction conditions are not uniform on the screen 150 due to the shape of the screen (distortion, etc.), the angle of the screen 150 with respect to the projector 100, and the like. For example, when the projection direction of the projector 100 is greatly tilted with respect to the screen, that is, when the projector 100 is installed at an angle, it is necessary to perform relatively complicated correction. Therefore, in the third embodiment, it is possible to perform complicated correction by dividing and analyzing the projected contents. Since the configuration of the projector 100 of the third embodiment is the same as the configuration of the first embodiment shown in FIG. 2, the description thereof will be omitted.

図7は、第3の実施形態の処理を説明するためのフローチャートである。ずれ補正処理は、プロジェクタ100がスタック投影で画像を投影している状態で実行される。ずれ補正処理は、あらかじめユーザーによってずれ補正機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ補正処理は、プロジェクタ100a,100bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ補正機能が有効に設定され、プロジェクタ100bのずれ補正機能が無効と設定されているとする。すなわち、プロジェクタ100aが画素ずれ特性を検出し、検出された画素ずれ特性に応じて、プロジェクタ100aの投影画像の投影位置を補正する。 S201では、第1の実施形態のS1と同様に、スタック投影したスクリーンの撮影を行う。撮像部101が生成した撮影画像300を図8に示す。CPU120は、撮影画像300をメモリ105に記憶させる。撮影画像300の解像度は一例として、3840×2160とする。 FIG. 7 is a flowchart for explaining the processing of the third embodiment. The deviation correction process is executed in a state where the projector 100 is projecting an image by stack projection. It is assumed that the deviation correction process is repeatedly executed when the user has previously set to enable the deviation correction function. The deviation correction process may be executed by both the projectors 100a and 100b, or may be executed by either one. In the present embodiment, it is assumed that the deviation correction function of the projector 100a is set to be valid and the deviation correction function of the projector 100b is set to be invalid. That is, the projector 100a detects the pixel shift characteristic and corrects the projection position of the projected image of the projector 100a according to the detected pixel shift characteristic. In S201, the stack-projected screen is photographed in the same manner as in S1 of the first embodiment. The photographed image 300 generated by the imaging unit 101 is shown in FIG. The CPU 120 stores the captured image 300 in the memory 105. As an example, the resolution of the captured image 300 is 3840 × 2160.

S202では、撮影画像300を分割して解析するために、CPU120が画像を分割する領域を算出する。ここでは一例として、撮影画像300を24分割(横方向に6分割、縦方向に4分割)するものとする。図8の分割画像301から分割画像324までの各分割画像のそれぞれの解像度は640×540である。CPU120は、撮影画像300の座標を用いて各分割画像の座標を生成し、メモリ105に記憶させる。 In S202, in order to divide and analyze the captured image 300, the CPU 120 calculates an area for dividing the image. Here, as an example, it is assumed that the captured image 300 is divided into 24 (6 divisions in the horizontal direction and 4 divisions in the vertical direction). The resolution of each of the divided images from the divided image 301 to the divided image 324 of FIG. 8 is 640 × 540. The CPU 120 generates the coordinates of each divided image using the coordinates of the captured image 300 and stores them in the memory 105.

S203では、撮影画像300から分割画像を生成する処理を行う。CPU120は、メモリ105に記憶された各分割画像の座標を読み出し、同じくメモリ105に記憶された撮影画像300から分割画像の座標に相当する画像を切り出して分割画像を生成した後に、フーリエ変換部102に出力する。 In S203, a process of generating a divided image from the captured image 300 is performed. The CPU 120 reads out the coordinates of each divided image stored in the memory 105, cuts out an image corresponding to the coordinates of the divided image from the captured image 300 also stored in the memory 105, generates a divided image, and then generates a divided image, and then the Fourier transform unit 102. Output to.

S204では、分割画像のフーリエ変換処理を行う。フーリエ変換部102は、それぞれの分割画像に2次元フーリエ変換処理を行い、分割画像の周波数スペクトル画像を生成した後に、メモリ105に記憶させる。 In S204, the Fourier transform process of the divided image is performed. The Fourier transform unit 102 performs a two-dimensional Fourier transform process on each of the divided images, generates a frequency spectrum image of the divided images, and then stores the divided images in the memory 105.

S205では、分割画像の周波数スペクトル画像を用いて画素ずれ解析を行う。画素ずれ解析部103は、メモリ105に記憶された全ての分割画像(24分割画像分)の周波数スペクトル画像の画素ずれ特性を解析して、スタック投影の画素がずれているか否かを検出する。 In S205, pixel shift analysis is performed using the frequency spectrum image of the divided image. The pixel shift analysis unit 103 analyzes the pixel shift characteristics of the frequency spectrum images of all the divided images (24 divided images) stored in the memory 105, and detects whether or not the pixels of the stack projection are shifted.

S206では、CPU120が分割画像の画素ずれの発生を検出したか否かを判定する。CPU120が画素ずれの発生を検出した場合は、S207に進む。また、画素ずれの発生を検出しない場合はステップS209に進む。 In S206, it is determined whether or not the CPU 120 has detected the occurrence of pixel shift in the divided image. When the CPU 120 detects the occurrence of pixel shift, the process proceeds to S207. If the occurrence of pixel shift is not detected, the process proceeds to step S209.

S207では、S104と同様に、CPU120が分割画像毎に画素ずれ方向と画素ずれ量を推測する処理を行う。 In S207, similarly to S104, the CPU 120 performs a process of estimating the pixel shift direction and the pixel shift amount for each divided image.

S208では、S105と同様に、各分割画像に相当する領域毎に、画素ずれ補正処理を行う。CPU120は、S207で推測した画素ずれ方向と画素ずれ量に基づき、分割画像に相当する領域に対して、画像処理部111の歪み補正処理機能を用いて画素ずれ補正を行う。 In S208, as in S105, pixel shift correction processing is performed for each region corresponding to each divided image. Based on the pixel shift direction and the pixel shift amount estimated in S207, the CPU 120 corrects the pixel shift in the region corresponding to the divided image by using the distortion correction processing function of the image processing unit 111.

S209では、CPU120が全ての分割画像(分割画像301〜分割画像324)の処理を終了したか否かを判断する。全ての分割画像の処理が行われた場合は、S210に進み、全ての分割画像の処理がまだ終了していない場合はS203に戻り、分割画像の処理を継続する。 In S209, it is determined whether or not the CPU 120 has completed the processing of all the divided images (divided images 301 to 324). If all the divided images have been processed, the process proceeds to S210, and if the processing of all the divided images has not been completed, the process returns to S203 to continue the processing of the divided images.

S210では、ユーザーが終了操作(図7のフローチャートを終了する操作)を行ったか否かをCPU120が判定する。終了操作が行われた場合は、図7のフローチャートが終了し、終了操作が行われなかった場合は処理がS201に戻る。 In S210, the CPU 120 determines whether or not the user has performed an end operation (an operation to end the flowchart of FIG. 7). When the end operation is performed, the flowchart of FIG. 7 ends, and when the end operation is not performed, the process returns to S201.

以上説明したように、第3の実施形態によれば、スクリーンが歪んだ状況、又はスクリーンに対してプロジェクタ100が正対していない状況において、投影領域を分割して画素ずれを高精度に検出し、補正することが出来る。 As described above, according to the third embodiment, in a situation where the screen is distorted or the projector 100 does not face the screen, the projection area is divided and pixel deviation is detected with high accuracy. , Can be corrected.

(第4の実施形態)
以下、本発明の第4の実施形態について説明する。上述したように、第1乃至第3の実施形態のプロジェクタ100では、スタック投影を続けたままテストパターンを用いずに画素ずれを検出し、補正することが可能である。しかし、投影画像の解像度が撮像部の解像度よりも大きい場合(解析条件)は、画素ずれの解析精度が落ちてしまうことが問題になる。そこで、第4の実施形態では、撮像部がズーム機能を持つ構成について説明する。第4の実施形態のプロジェクタ700の構成は、図2に示した第1の実施形態の構成と一部が同様であるため、重複する部分の説明は省略する。
(Fourth Embodiment)
Hereinafter, a fourth embodiment of the present invention will be described. As described above, in the projector 100 of the first to third embodiments, it is possible to detect and correct the pixel deviation without using the test pattern while continuing the stack projection. However, when the resolution of the projected image is larger than the resolution of the imaging unit (analysis condition), there is a problem that the analysis accuracy of the pixel shift is lowered. Therefore, in the fourth embodiment, a configuration in which the imaging unit has a zoom function will be described. Since the configuration of the projector 700 of the fourth embodiment is partially the same as the configuration of the first embodiment shown in FIG. 2, the description of the overlapping portion will be omitted.

図9はプロジェクタ700の構成図である。第1の実施形態のプロジェクタ100との違いは、撮像部701にズームレンズを備えていてズーム機能を備える点である。 FIG. 9 is a configuration diagram of the projector 700. The difference from the projector 100 of the first embodiment is that the imaging unit 701 is provided with a zoom lens and has a zoom function.

プロジェクタ700は、撮像部701、ズーム比算出部702、ズーム制御部703、フーリエ変換部102、画素ずれ解析部103、出力部104、メモリ105、画像入力部110、画像処理部111、光源112、パネル113、投影光学系114、CPU120、バス710を備える。 The projector 700 includes an image pickup unit 701, a zoom ratio calculation unit 702, a zoom control unit 703, a Fourier transform unit 102, a pixel shift analysis unit 103, an output unit 104, a memory 105, an image input unit 110, an image processing unit 111, and a light source 112. It includes a panel 113, a projection optical system 114, a CPU 120, and a bus 710.

撮像部701は、撮像部101と同様であるが、ズームレンズを備え、ズーム機能を用いてスクリーンの投影画像の一部を拡大して撮影することが出来る。ズーム比算出部702は、予めメモリ105に記憶した画素ずれ特性と同一条件で撮影できるように、ズーム比率を決定する。ズーム制御部703は、ズーム比算出部702の決定したズーム比率を用いて、撮像部701に備えられたズームレンズを制御する。 The image pickup unit 701 is the same as the image pickup unit 101, but is provided with a zoom lens, and a part of the projected image on the screen can be magnified and photographed by using the zoom function. The zoom ratio calculation unit 702 determines the zoom ratio so that the image can be taken under the same conditions as the pixel shift characteristic stored in the memory 105 in advance. The zoom control unit 703 controls the zoom lens provided in the image pickup unit 701 by using the zoom ratio determined by the zoom ratio calculation unit 702.

続いて、図10のフローチャートを用いて、プロジェクタ700の処理について説明する。ずれ通知処理は、プロジェクタ700がスタック投影で画像を投影している状態で実行される。ずれ通知処理は、あらかじめユーザーによってずれ通知機能を有効とする設定がされている場合に、繰り返し実行されるとする。ずれ通知処理は、プロジェクタ700a,700bの両方が実行してもよいし、いずれか一方が実行してもよい。本実施形態ではプロジェクタ100aのずれ通知機能が有効に設定され、プロジェクタ100bのずれ通知機能が無効と設定されているとする。 Subsequently, the processing of the projector 700 will be described with reference to the flowchart of FIG. The deviation notification process is executed in a state where the projector 700 is projecting an image by stack projection. It is assumed that the deviation notification process is repeatedly executed when the user has previously set to enable the deviation notification function. The deviation notification process may be executed by both the projectors 700a and 700b, or may be executed by either one. In the present embodiment, it is assumed that the deviation notification function of the projector 100a is enabled and the deviation notification function of the projector 100b is disabled.

S300では、ズーム比算出部702が、撮像部701で撮影する画像が画素ずれ特性を生成した画像と同一の条件になるように、撮像部701のズームレンズのズーム比を算出する。 In S300, the zoom ratio calculation unit 702 calculates the zoom ratio of the zoom lens of the image pickup unit 701 so that the image captured by the image pickup unit 701 has the same conditions as the image that generated the pixel shift characteristic.

S301では、CPU120がS300で算出したズーム比に基づいて、撮像部701に備えられたズームレンズのズーム比を設定する。 In S301, the zoom ratio of the zoom lens provided in the imaging unit 701 is set based on the zoom ratio calculated by the CPU 120 in S300.

S302では、撮像部701がスクリーンのスタック投影を撮影した画像をメモリ105に記憶させる。 In S302, the image pickup unit 701 stores the captured image of the stack projection of the screen in the memory 105.

S303では、第1の実施形態のS2と同様に撮影画像にフーリエ変換処理を行い周波数スペクトル画像の生成を行う。 In S303, a Fourier transform process is performed on the captured image to generate a frequency spectrum image in the same manner as in S2 of the first embodiment.

S304では、第1の実施形態のS3と同様に画素ずれ解析を行う。 In S304, pixel shift analysis is performed in the same manner as in S3 of the first embodiment.

S305では、CPU120が画素ずれの発生を検出したか否かを判定する。CPU120が画素ずれの発生を検出した場合はS306に進む。また、画素ずれの発生を検出しない場合はステップS307に進む。 In S305, it is determined whether or not the CPU 120 has detected the occurrence of pixel shift. If the CPU 120 detects the occurrence of pixel shift, the process proceeds to S306. If the occurrence of pixel shift is not detected, the process proceeds to step S307.

S306では、第1の実施形態のS5と同様に画素ずれを外部サーバーに出力する処理を行う。 In S306, the process of outputting the pixel shift to the external server is performed as in S5 of the first embodiment.

S307では、ユーザーが終了操作(図10のフローチャートを終了する操作)を行ったか否かをCPU120が判定する。終了操作が行われた場合は図9のフローチャートが終了し、終了操作が行われなかった場合は処理がS302に戻る。 In S307, the CPU 120 determines whether or not the user has performed an end operation (an operation to end the flowchart of FIG. 10). When the end operation is performed, the flowchart of FIG. 9 ends, and when the end operation is not performed, the process returns to S302.

なお、本実施形態においては説明を省略したが、第2の実施形態と同様に画素ずれ検出結果から画素ずれ方向、画素ずれ量を推測して画素ずれ補正を実施することが出来る。 Although the description is omitted in this embodiment, the pixel shift correction can be performed by estimating the pixel shift direction and the pixel shift amount from the pixel shift detection result as in the second embodiment.

以上説明したように、第4の実施形態によれば、投影画像の解像度が撮像部の解像度よりも大きい場合に、画素ずれの解析精度を落とさずに、複数のプロジェクタ700がスタック投影を続けたまま、画素ずれを補正することが出来る。 As described above, according to the fourth embodiment, when the resolution of the projected image is larger than the resolution of the imaging unit, the plurality of projectors 700 continue the stack projection without degrading the analysis accuracy of the pixel shift. As it is, the pixel shift can be corrected.

(第5の実施形態)
以下、本発明の第5の実施形態について説明する。上述したように、プロジェクタ700では、撮像部のズーム機能を用いて解析精度を落とさずに画素ずれを検出することが可能である。しかし、複数のプロジェクタ100により高解像度化を行うマルチ投影の場合も、同様に各プロジェクタの投影する境界(以下、ブレンド部とする)において画素を正確に重ねる必要があり、ブレンド部において画素ずれを検出、補正することが必要になる。
(Fifth Embodiment)
Hereinafter, a fifth embodiment of the present invention will be described. As described above, in the projector 700, it is possible to detect the pixel shift without degrading the analysis accuracy by using the zoom function of the imaging unit. However, even in the case of multi-projection in which the resolution is increased by a plurality of projectors 100, it is necessary to accurately overlap the pixels at the projection boundary of each projector (hereinafter referred to as the blend portion), and the pixel shift occurs in the blend portion. It is necessary to detect and correct.

そこで、第5の実施形態では、スタック投影時とマルチ投影時でスクリーンの投影の解析場所を変える構成について説明する。第5の実施形態のプロジェクタ100の構成は、図2に示した第1の実施形態の構成と同様であるので、その説明は省略する。 Therefore, in the fifth embodiment, a configuration in which the analysis location of the projection of the screen is changed between the stack projection and the multi-projection will be described. Since the configuration of the projector 100 of the fifth embodiment is the same as the configuration of the first embodiment shown in FIG. 2, the description thereof will be omitted.

図11は、第5の実施形態の処理を説明するフローチャートである。ずれ補正処理は、プロジェクタ100がマルチ投影、又はスタック投影で画像を投影している状態で実行される。ずれ補正処理は、あらかじめユーザーによってずれ補正機能を有効とする設定がされている場合に、繰り返し実行されるとする。 FIG. 11 is a flowchart illustrating the processing of the fifth embodiment. The deviation correction process is executed in a state where the projector 100 is projecting an image by multi-projection or stack projection. It is assumed that the deviation correction process is repeatedly executed when the user has previously set to enable the deviation correction function.

S400では、第1の実施形態のS1と同様にマルチ投影又はスタック投影したスクリーンの撮影を行う。 In S400, the screen is photographed by multi-projection or stack projection as in S1 of the first embodiment.

S401では、複数のプロジェクタ100のスクリーンへの投影方法を判定する処理を行う。プロジェクタ100に設けられた操作部をユーザーが操作することにより、投影方法をあらかじめ設定する。CPU120は設定された投影方法の設定を取得して、投影方法としてマルチ投影が選択されている場合はS402に進む。また、投影方法としてスタック投影が選択されている場合はS405に進む。 In S401, a process of determining a method of projecting the plurality of projectors 100 onto the screen is performed. The projection method is set in advance by the user operating the operation unit provided on the projector 100. The CPU 120 acquires the set projection method setting, and proceeds to S402 when multi-projection is selected as the projection method. If stack projection is selected as the projection method, the process proceeds to S405.

S402では、マルチ投影のブレンド部分の画像を取得する。CPU120は、画像処理部111内のエッジブレンディング機能部からブレンド部分の座標を取得し、ブレンド部の画像を生成する。以下、図12を用いてブレンド部分の処理について説明する。 In S402, an image of the blended portion of the multi-projection is acquired. The CPU 120 acquires the coordinates of the blend portion from the edge blending function unit in the image processing unit 111 and generates an image of the blend unit. Hereinafter, the processing of the blend portion will be described with reference to FIG.

図12は、スクリーン150のマルチ投影画像を撮像部101が撮影した撮影画像800を示す。撮影画像800は、4台のプロジェクタ100で投影して形成した画像を撮像部101が撮影したものである。撮影画像801は、第1のプロジェクタ100が投影したものを撮影した画像である。以下、撮影画像802、803、804は第2、第3、第4のプロジェクタ100がそれぞれ投影したものを撮影した画像である。 FIG. 12 shows a captured image 800 captured by the imaging unit 101 of the multi-projected image of the screen 150. The captured image 800 is an image captured by the imaging unit 101, which is formed by projecting the images projected by the four projectors 100. The captured image 801 is an image captured of what is projected by the first projector 100. Hereinafter, the captured images 802, 803, and 804 are images captured by the second, third, and fourth projectors 100, respectively.

ブレンド部810は、投影画像801と投影画像802の境界を目立たなくするために画素を重ねて投影する部分である。同様に、ブレンド部811は、投影画像803と投影画像804の境界部分の画像から形成される。また、同様にブレンド部812は、投影画像801と投影画像803の境界部分の画像から形成される。また、同様にブレンド部813は、投影画像802と投影画像804の境界部分の画像から形成される。なお、ブレンド部の幅はあらかじめ設定した設定値から決定することが出来る。また、プロジェクタ100のエッジブレンディング量から決定することも可能である。 The blending portion 810 is a portion in which pixels are superimposed and projected in order to make the boundary between the projected image 801 and the projected image 802 inconspicuous. Similarly, the blend portion 811 is formed from an image of a boundary portion between the projected image 803 and the projected image 804. Similarly, the blend portion 812 is formed from an image of a boundary portion between the projected image 801 and the projected image 803. Similarly, the blend portion 813 is formed from an image of a boundary portion between the projected image 802 and the projected image 804. The width of the blend portion can be determined from a preset value. It can also be determined from the amount of edge blending of the projector 100.

図11のフローチャートに戻り、S403では、ブレンド部の画像を2次元フーリエ変換する処理を行う。ブレンド部810の画像を2次元フーリエ変換した周波数スペクトル画像を周波数スペクトル画像Aとする。同様にブレンド部811、ブレンド部812、ブレンド部813を2次元フーリエ変換した周波数スペクトル画像をそれぞれ周波数スペクトル画像B、C、Dとする。 Returning to the flowchart of FIG. 11, in S403, a process of performing a two-dimensional Fourier transform on the image of the blended portion is performed. The frequency spectrum image obtained by performing the two-dimensional Fourier transform of the image of the blend unit 810 is referred to as the frequency spectrum image A. Similarly, the frequency spectrum images obtained by performing the two-dimensional Fourier transform of the blend unit 811, the blend unit 812, and the blend unit 813 are referred to as frequency spectrum images B, C, and D, respectively.

S404では、ブレンド部の画素ずれ解析を行う。画素ずれ解析部103が周波数スペクトル画像A、B、C、Dの画素ずれ特性を解析し、ブレンド部の画像の画素がずれているか否かを検出する。また、CPU120は、画素ずれ解析部103の解析結果から、画素ずれ量と画素ずれ方向を推測し、メモリ105に記憶させる。その後、S407に進む。 In S404, the pixel shift analysis of the blended portion is performed. The pixel shift analysis unit 103 analyzes the pixel shift characteristics of the frequency spectrum images A, B, C, and D, and detects whether or not the pixels of the image in the blend section are shifted. Further, the CPU 120 estimates the pixel shift amount and the pixel shift direction from the analysis result of the pixel shift analysis unit 103, and stores them in the memory 105. Then, the process proceeds to S407.

一方、S401でスタック投影を選択した場合の処理について説明する。 On the other hand, the process when the stack projection is selected in S401 will be described.

S405では、スタック投影時の画素ずれ検出を行うために、撮影画像800を用いて第1の実施形態のS2と同様に、撮影画像800に対して2次元フーリエ変換を行い、周波数スペクトル画像に変換する処理を行う。 In S405, in order to detect pixel shift during stack projection, the captured image 800 is subjected to a two-dimensional Fourier transform on the captured image 800 and converted into a frequency spectrum image in the same manner as in S2 of the first embodiment. Perform the processing to be performed.

S406では、第1の実施形態のS3と同様に、画素ずれ解析部103が周波数スペクトル画像の画素ずれ特性を解析し、投影した画像の画素がずれているか否かを検出する。また、CPU120は、画素ずれ解析部103の解析結果から、画素ずれ量と画素ずれ方向を推測してメモリ105に記憶させる。 In S406, similarly to S3 of the first embodiment, the pixel shift analysis unit 103 analyzes the pixel shift characteristic of the frequency spectrum image and detects whether or not the pixels of the projected image are shifted. Further, the CPU 120 estimates the pixel shift amount and the pixel shift direction from the analysis result of the pixel shift analysis unit 103 and stores them in the memory 105.

S407では、CPU120が、S404又はS406で解析した結果を用いて、画素ずれの発生を検出したか否かを判定する。CPU120が画素ずれの発生を検出した場合は、S408に進む。また、画素ずれの発生を検出しない場合は、ステップS410に進む。 In S407, it is determined whether or not the CPU 120 has detected the occurrence of pixel shift using the result of analysis in S404 or S406. When the CPU 120 detects the occurrence of pixel shift, the process proceeds to S408. If the occurrence of pixel shift is not detected, the process proceeds to step S410.

S408では、画素ずれ補正を行うか否かを判定する。画素ずれ量が一定値以上の場合は、S409に進んで、画素ずれ補正を行う。また、画素ずれ量が一定値未満の場合は、S410に進む。 In S408, it is determined whether or not to perform pixel shift correction. If the amount of pixel misalignment is equal to or greater than a certain value, the process proceeds to S409 to correct the pixel misalignment. If the pixel shift amount is less than a certain value, the process proceeds to S410.

S409では、画素ずれ補正処理を行う。CPU120は、投影方法の設定と、メモリ105に記憶された画素ずれ量と画素ずれ方向とを用いて、画像処理部111の歪み補正処理機能を用いて画素ずれ補正を行う。 In S409, pixel shift correction processing is performed. The CPU 120 corrects the pixel shift by using the distortion correction processing function of the image processing unit 111 by using the setting of the projection method and the pixel shift amount and the pixel shift direction stored in the memory 105.

S410では、ユーザーが終了操作(図11のフローチャートを終了する操作)を行ったか否かをCPU120が判定する。終了操作が行われた場合は、図11のフローチャートを終了し、終了操作が行われなかった場合は処理がS400に戻る。 In S410, the CPU 120 determines whether or not the user has performed an end operation (an operation to end the flowchart of FIG. 11). When the end operation is performed, the flowchart of FIG. 11 is terminated, and when the end operation is not performed, the process returns to S400.

以上説明したように、第5の実施形態によれば、スタック投影とマルチ投影を検出して解析方法を切り替えることにより、複数台のプロジェクタ100のスタック投影又はマルチ投影を続けたまま、投影を中止することなく画素ずれを検出し、補正することが出来る。本実施形態でも、画素ずれの検出のためのテストパターンを用いる必要がないため、映像の視聴中に画素ずれの検出及び補正を行っても、視聴を阻害することが防止される。 As described above, according to the fifth embodiment, by detecting the stack projection and the multi-projection and switching the analysis method, the projection is stopped while the stack projection or the multi-projection of the plurality of projectors 100 is continued. Pixel misalignment can be detected and corrected without the need for. Also in this embodiment, since it is not necessary to use a test pattern for detecting pixel deviation, even if pixel deviation is detected and corrected during video viewing, viewing is prevented from being hindered.

(第6の実施形態)
上記の第5の実施形態では、プロジェクタ100はスタック投影とマルチ投影を判定して投影を続けたまま、画素ずれを検出して補正することが出来る。しかし、撮像部101がプロジェクタとは独立している構成が考えられる。例えば、Webカメラ、デジタルカメラ、監視カメラなどを用いる場合である。そこで、第6の実施形態ではWebカメラとパーソナルコンピュータを用いて画素ずれ解析を行う構成について説明する。
(Sixth Embodiment)
In the fifth embodiment described above, the projector 100 can detect and correct the pixel deviation while determining the stack projection and the multi-projection and continuing the projection. However, it is conceivable that the imaging unit 101 is independent of the projector. For example, a Web camera, a digital camera, a surveillance camera, or the like is used. Therefore, in the sixth embodiment, a configuration for performing pixel shift analysis using a Web camera and a personal computer will be described.

図13は、第6の実施形態の画像投影システムの構成を示す図である。第6の実施形態の画像投影システム900を構成するプロジェクタ950は、図2に示した第1の実施形態のプロジェクタ100から、撮像部101、フーリエ変換部102、画素ずれ解析部103、出力部104等の画素ずれを検出する機能部分を削除した構成で、その他は共通である。 FIG. 13 is a diagram showing a configuration of an image projection system according to a sixth embodiment. The projector 950 constituting the image projection system 900 of the sixth embodiment is the image pickup unit 101, the Fourier transform unit 102, the pixel shift analysis unit 103, and the output unit 104 from the projector 100 of the first embodiment shown in FIG. The configuration is such that the functional part for detecting pixel deviation such as is deleted, and the others are common.

画像投影システム900は、カメラ901と、パーソナルコンピュータ910と、複数のプロジェクタ950が接続されて構成される。 The image projection system 900 is configured by connecting a camera 901, a personal computer 910, and a plurality of projectors 950.

カメラ901は、プロジェクタ950がスタック投影するスクリーンを含む領域を撮像する。カメラ901が撮像した映像は、画像データとしてネットワークを介してパーソナルコンピュータ910に送られ、パーソナルコンピュータ910は撮像した画像データをメモリ912に蓄積する。 The camera 901 captures an area including a screen on which the projector 950 stacks. The image captured by the camera 901 is sent to the personal computer 910 as image data via the network, and the personal computer 910 stores the captured image data in the memory 912.

パーソナルコンピュータ910は、画像入力I/F911、メモリ912、CPU913、グラフィックス合成部914、画像出力I/F915、バス916を備えて構成される。 The personal computer 910 includes an image input I / F 911, a memory 912, a CPU 913, a graphics compositing unit 914, an image output I / F 915, and a bus 916.

画像入力I/F911は、カメラ901からネットワークを介して撮影した画像データを取得するネットワークインターフェースである。例えば、ネットワークにはUSB(Universal Serial Bus)規格が用いられる。 The image input I / F 911 is a network interface that acquires image data taken from the camera 901 via a network. For example, the USB (Universal Serial Bus) standard is used for networks.

メモリ912は、画像入力I/F911から入力された画像データを記憶する。また、CPU913の制御プログラムを記憶する。さらに、CPU913によりワークメモリとして使用される。 The memory 912 stores the image data input from the image input I / F 911. It also stores the control program of the CPU 913. Further, it is used as a work memory by the CPU 913.

CPU913は、画像データを加工し、第1の実施形態の画素ずれ解析部103で実施していた画素ずれ解析処理を行う。また、バス916を介して画像入力I/F911、メモリ912、グラフィックス合成部914、画像出力I/F915の各構成要素を制御する。 The CPU 913 processes the image data and performs the pixel shift analysis process performed by the pixel shift analysis unit 103 of the first embodiment. Further, each component of the image input I / F 911, the memory 912, the graphics compositing unit 914, and the image output I / F 915 is controlled via the bus 916.

グラフィックス合成部914は、画像にグラフィックスを合成して画像出力I/F915に出力する。また、グラフィックス合成部914は、画像にグラフィックスを合成してメモリ912に記憶する。 The graphics synthesizing unit 914 synthesizes graphics with an image and outputs the graphics to the image output I / F 915. Further, the graphics synthesizing unit 914 synthesizes graphics with an image and stores them in the memory 912.

画像出力I/F915は、メモリ912に記憶された画像を読み出し、映像信号に変換した後に、外部機器に通信ケーブルを用いて出力する。例えば、通信規格としてはHDMI(登録商標)、DisplayPort(登録商標)を用いる。 The image output I / F 915 reads out the image stored in the memory 912, converts it into a video signal, and then outputs the image to an external device using a communication cable. For example, HDMI (registered trademark) and DisplayPort (registered trademark) are used as communication standards.

プロジェクタ950は、画像入力I/F110、画像処理部111、メモリ105、CPU120、光源112、パネル113、投影光学系114を備える。プロジェクタ950は、パーソナルコンピュータ910の出力する映像を投影する。 The projector 950 includes an image input I / F 110, an image processing unit 111, a memory 105, a CPU 120, a light source 112, a panel 113, and a projection optical system 114. The projector 950 projects an image output by the personal computer 910.

以上説明したように、第6の実施形態によれば、カメラと画素ずれ解析機能をプロジェクタから独立させた構成においても、投影を中止することなく画素ずれを補正することが出来る。本実施形態でも、画素ずれの検出のためのテストパターンを用いる必要がないため、映像の視聴中に画素ずれの検出及び補正を行っても、視聴を阻害することが防止される。 As described above, according to the sixth embodiment, even in a configuration in which the camera and the pixel shift analysis function are independent of the projector, the pixel shift can be corrected without stopping the projection. Also in this embodiment, since it is not necessary to use a test pattern for detecting pixel deviation, even if pixel deviation is detected and corrected during video viewing, viewing is prevented from being hindered.

(第7の実施形態)
以上説明した第1乃至第6の実施形態では、複数のプロジェクタはスタック投影を続けたまま、テストパターンを用いて投影を中止することなく画素ずれを補正することが出来る。しかし、プロジェクタの設置時などに、スクリーン上にずれ情報を重畳表示して画素ずれを確認したい場合がある。そこで、第7の実施形態では投影画像にずれ情報を重畳する場合について説明する。なお、本実施形態の投影システムの構成は、第1の実施形態と同様である。
(7th Embodiment)
In the first to sixth embodiments described above, the plurality of projectors can correct the pixel shift without stopping the projection by using the test pattern while continuing the stack projection. However, when installing a projector, there are cases where it is desired to superimpose the shift information on the screen and check the pixel shift. Therefore, in the seventh embodiment, the case where the deviation information is superimposed on the projected image will be described. The configuration of the projection system of this embodiment is the same as that of the first embodiment.

図14(a)は、ユーザーが周波数スペクトルを見ながら画素ずれを修正するためのユーザーインターフェース(以下、UIとする)の概念図である。投影画像400は、プロジェクタ100によりスクリーン上にスタック投影された投影画像である。 FIG. 14A is a conceptual diagram of a user interface (hereinafter referred to as UI) for the user to correct pixel deviation while looking at the frequency spectrum. The projected image 400 is a projected image stacked and projected on the screen by the projector 100.

周波数スペクトル画像401は、撮像部101により投影画像400を撮影した撮影画像をCPU120が2次元フーリエ変換し、その結果である周波数スペクトル画像を投影画像400に重畳表示したものである。ユーザーは、この周波数スペクトル画像に縞模様が無くなるようにプロジェクタの位置を調整する。 In the frequency spectrum image 401, the CPU 120 two-dimensionally Fourier transforms the captured image obtained by capturing the projected image 400 by the imaging unit 101, and the resulting frequency spectrum image is superimposed and displayed on the projected image 400. The user adjusts the position of the projector so that the frequency spectrum image has no streaks.

図14(b)は、第7の実施形態の設置時の画素ずれを合わせる際に、画素ずれ方向を示すUI(ユーザーインターフェース)を見ながら調整を行う場合の、UI452を説明する概念図である。 FIG. 14B is a conceptual diagram illustrating the UI 452 when the adjustment is performed while looking at the UI (user interface) indicating the pixel shift direction when the pixel shift at the time of installation of the seventh embodiment is adjusted. ..

分割領域450は、投影画像400を撮影した撮影画像を分割して解析するための分割領域である。ここでは一例として、撮影画像を15分割(横方向に5分割、縦方向に3分割)するものとする。CPU120は、撮影画像400の座標を用いて各分割画像を生成し、メモリ105に記憶させる。 The divided area 450 is a divided area for dividing and analyzing the captured image obtained by capturing the projected image 400. Here, as an example, it is assumed that the captured image is divided into 15 (5 in the horizontal direction and 3 in the vertical direction). The CPU 120 generates each divided image using the coordinates of the captured image 400 and stores it in the memory 105.

UI452は、CPU120がメモリ105に記憶した分割画像を読み出した後に、2次元フーリエ変換処理と画素ずれ解析を行った結果を表示した一例である。ユーザーはUI452の矢印を見ながら、プロジェクタの位置を調整することが出来る。 The UI 452 is an example of displaying the result of performing the two-dimensional Fourier transform process and the pixel shift analysis after the CPU 120 reads the divided image stored in the memory 105. The user can adjust the position of the projector while looking at the arrow of UI452.

以上説明したように、第7の実施形態によれば、ユーザーは、投影画像に重畳された画素ずれ情報を見ながらプロジェクタ100の位置の調整を行うことが出来る。 As described above, according to the seventh embodiment, the user can adjust the position of the projector 100 while looking at the pixel shift information superimposed on the projected image.

(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
(Other embodiments)
The present invention also supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads the program. It can also be realized by the processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。 The invention is not limited to the above embodiments, and various modifications and modifications can be made without departing from the spirit and scope of the invention. Therefore, a claim is attached to make the scope of the invention public.

100:プロジェクタ、101:撮像部、102:フーリエ変換部、103:画素ずれ解析部、104:出力部、105:メモリ、110:画像入力部、111:画像処理部、112:光源、113:パネル、114:投影光学系、120:CPU、121:バス、150:スクリーン、152:信号源 100: Projector, 101: Imaging unit, 102: Fourier transform unit, 103: Pixel shift analysis unit, 104: Output unit, 105: Memory, 110: Image input unit, 111: Image processing unit, 112: Light source, 113: Panel , 114: Projection optics, 120: CPU, 121: Bus, 150: Screen, 152: Signal source

Claims (19)

第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが重なる重畳領域を少なくとも含む前記投影面の領域を撮像した撮像画像を取得する取得手段と、
前記撮像画像を解析して、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれの大きさおよび当該ずれの方向を検出する検出手段と、
を備えることを特徴とする投影制御装置。
Acquisition of an image of an image of the projection surface including at least a superposed area in which the first projection image projected on the projection surface by the first projector and the second projection image projected on the projection surface by the second projector overlap. Means and
A detection means that analyzes the captured image to detect the magnitude of the positional deviation between the first projected image and the second projected image in the superimposed region and the direction of the deviation.
A projection control device comprising.
前記検出手段は、前記撮像画像に対して2次元フーリエ変換処理を適用して得られた周波数スペクトル画像に基づいて、前記ずれの大きさおよび前記ずれの方向を検出することを特徴とする請求項1に記載の投影制御装置。 The claim is characterized in that the detection means detects the magnitude of the deviation and the direction of the deviation based on a frequency spectrum image obtained by applying a two-dimensional Fourier transform process to the captured image. The projection control device according to 1. あらかじめずれの大きさおよび方向と関連付けられた複数の周波数スペクトル画像を示す複数の参照画像を記憶する記憶手段をさらに備え、
前記検出手段は、前記周波数スペクトル画像を示す画像と、前記記憶手段に記憶された前記複数の参照画像とを比較して、前記ずれの大きさおよび方向を検出することを特徴とする請求項2に記載の投影制御装置。
Further provided with a storage means for storing a plurality of reference images indicating a plurality of frequency spectrum images associated with the magnitude and direction of the shift in advance.
2. The detection means is characterized in that an image showing the frequency spectrum image is compared with the plurality of reference images stored in the storage means to detect the magnitude and direction of the deviation. The projection control device according to.
前記重畳領域を含む前記投影面の領域を撮像する撮像手段と接続する接続手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の投影制御装置。 The projection control device according to any one of claims 1 to 3, further comprising a connecting means for connecting to an imaging means for imaging a region of the projection surface including the superposed region. 前記検出手段の検出結果に基づいて、前記ずれを補正するように前記第1プロジェクタおよび前記第2プロジェクタの少なくとも一方を制御する制御手段を備えることを特徴とする請求項1乃至4のいずれか1項に記載の投影制御装置。 Any one of claims 1 to 4, further comprising a control means for controlling at least one of the first projector and the second projector so as to correct the deviation based on the detection result of the detection means. The projection control device according to the section. 前記制御手段は、前記検出手段による前記撮像画像の解析条件に基づいて、前記プロジェクタのズームを制御することを特徴とする請求項5に記載の投影制御装置。 The projection control device according to claim 5, wherein the control means controls the zoom of the projector based on the analysis conditions of the captured image by the detection means. 前記検出手段の検出結果を外部に出力する出力手段を備えることを特徴とする請求項1乃至6のいずれか1項に記載の投影制御装置。 The projection control device according to any one of claims 1 to 6, further comprising an output means for outputting the detection result of the detection means to the outside. 前記検出手段は、前記第1プロジェクタおよび第2プロジェクタがスタック投影を行うかマルチ投影を行うかに応じて、前記検出手段が解析する前記撮像画像の部分を変更することを特徴とする請求項1乃至7のいずれか1項に記載の投影制御装置。 1. The detection means is characterized in that a portion of the captured image analyzed by the detection means is changed according to whether the first projector and the second projector perform stack projection or multi-projection. 7. The projection control device according to any one of 7. 請求項1乃至8のいずれか1項に記載の投影制御装置と、
画像を投影する投影手段と、
を備えることを特徴とする投影装置。
The projection control device according to any one of claims 1 to 8.
Projection means for projecting images and
A projection device characterized by comprising.
第1プロジェクタが投影面に投影した第1投影画像と第2プロジェクタが前記投影面に投影した第2投影画像とが重なる重畳領域を少なくとも含む前記投影面の領域を撮像した撮像画像を取得する取得工程と、
前記撮像画像を解析して、前記重畳領域における前記第1投影画像と前記第2投影画像との位置のずれの大きさおよび当該ずれの方向を検出する検出工程と、
を有することを特徴とする投影制御方法。
Acquisition of an image of an image of the projection surface including at least a superposed area in which the first projection image projected on the projection surface by the first projector and the second projection image projected on the projection surface by the second projector overlap. Process and
A detection step of analyzing the captured image to detect the magnitude of the positional deviation between the first projected image and the second projected image in the superimposed region and the direction of the deviation.
A projection control method characterized by having.
前記検出工程では、前記撮像画像に対して2次元フーリエ変換処理を適用して得られた周波数スペクトル画像に基づいて、前記ずれの大きさおよび前記ずれの方向を検出することを特徴とする請求項10に記載の投影制御方法。 The claim is characterized in that the detection step detects the magnitude of the deviation and the direction of the deviation based on a frequency spectrum image obtained by applying a two-dimensional Fourier transform process to the captured image. 10. The projection control method according to 10. あらかじめずれの大きさおよび方向と関連付けられた複数の周波数スペクトル画像を示す複数の参照画像を記憶する記憶工程をさらに有し、
前記検出工程では、前記周波数スペクトル画像を示す画像と、前記記憶工程で記憶された前記複数の参照画像とを比較して、前記ずれの大きさおよび方向を検出することを特徴とする請求項11に記載の投影制御方法。
It further has a storage step of storing a plurality of reference images showing a plurality of frequency spectrum images associated with the magnitude and direction of the shift in advance.
11. The detection step is characterized in that an image showing the frequency spectrum image is compared with the plurality of reference images stored in the storage step to detect the magnitude and direction of the deviation. The projection control method described in.
前記重畳領域を含む前記投影面の領域を撮像する撮像手段と接続する接続工程を有することを特徴とする請求項10乃至12のいずれか1項に記載の投影制御方法。 The projection control method according to any one of claims 10 to 12, wherein the projection control method includes a connection step for connecting to an imaging means for imaging an area of the projection surface including the superimposed area. 前記検出工程の検出結果に基づいて、前記ずれを補正するように前記第1プロジェクタおよび前記第2プロジェクタの少なくとも一方を制御する制御工程を有することを特徴とする請求項10乃至13のいずれか1項に記載の投影制御方法。 Any one of claims 10 to 13, further comprising a control step of controlling at least one of the first projector and the second projector so as to correct the deviation based on the detection result of the detection step. The projection control method described in the section. 前記制御工程では、前記検出工程における前記撮像画像の解析条件に基づいて、前記プロジェクタのズームを制御することを特徴とする請求項14に記載の投影制御方法。 The projection control method according to claim 14, wherein in the control step, the zoom of the projector is controlled based on the analysis conditions of the captured image in the detection step. 前記検出工程の検出結果を外部に出力する出力工程を有することを特徴とする請求項10乃至15のいずれか1項に記載の投影制御方法。 The projection control method according to any one of claims 10 to 15, further comprising an output step of outputting the detection result of the detection step to the outside. 前記検出工程では、前記第1プロジェクタおよび第2プロジェクタがスタック投影を行うかマルチ投影を行うかに応じて、前記検出工程で解析する前記撮像画像の部分を変更することを特徴とする請求項10乃至16のいずれか1項に記載の投影制御方法。 10. The detection step is characterized in that a portion of the captured image to be analyzed in the detection step is changed depending on whether the first projector and the second projector perform stack projection or multi-projection. The projection control method according to any one of 16 to 16. コンピュータを、請求項1乃至8のいずれか1項に記載の投影制御装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the projection control device according to any one of claims 1 to 8. コンピュータを、請求項1乃至8のいずれか1項に記載の投影制御装置の各手段として機能させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。 A computer-readable storage medium that stores a program for causing the computer to function as each means of the projection control device according to any one of claims 1 to 8.
JP2019184076A 2019-10-04 2019-10-04 Projection control device, method, program, and storage medium Pending JP2021061510A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019184076A JP2021061510A (en) 2019-10-04 2019-10-04 Projection control device, method, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019184076A JP2021061510A (en) 2019-10-04 2019-10-04 Projection control device, method, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2021061510A true JP2021061510A (en) 2021-04-15

Family

ID=75380569

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019184076A Pending JP2021061510A (en) 2019-10-04 2019-10-04 Projection control device, method, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2021061510A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024147479A1 (en) * 2023-01-02 2024-07-11 삼성전자주식회사 Electronic device for setting plurality of projection areas, and control method therefor

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219148A (en) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> Image projection system and image projection method
JP2011164246A (en) * 2010-02-08 2011-08-25 Seiko Epson Corp Detection device of amount of projection position deviation, detection method of amount of projection position deviation, and projection system
JP2011182291A (en) * 2010-03-03 2011-09-15 Seiko Epson Corp Display position adjusting method, display position adjusting apparatus, projector, and display system
US20140035904A1 (en) * 2012-05-16 2014-02-06 Digizig Media Inc. Multi-Dimensional Stacking With Self-Correction
JP2016119522A (en) * 2014-12-18 2016-06-30 キヤノン株式会社 Information processing apparatus and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008219148A (en) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> Image projection system and image projection method
JP2011164246A (en) * 2010-02-08 2011-08-25 Seiko Epson Corp Detection device of amount of projection position deviation, detection method of amount of projection position deviation, and projection system
JP2011182291A (en) * 2010-03-03 2011-09-15 Seiko Epson Corp Display position adjusting method, display position adjusting apparatus, projector, and display system
US20140035904A1 (en) * 2012-05-16 2014-02-06 Digizig Media Inc. Multi-Dimensional Stacking With Self-Correction
JP2016119522A (en) * 2014-12-18 2016-06-30 キヤノン株式会社 Information processing apparatus and image processing method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024147479A1 (en) * 2023-01-02 2024-07-11 삼성전자주식회사 Electronic device for setting plurality of projection areas, and control method therefor

Similar Documents

Publication Publication Date Title
JP3844076B2 (en) Image processing system, projector, program, information storage medium, and image processing method
JP3879858B2 (en) Image processing system, projector, and image processing method
US9122138B2 (en) Projector, image display system, and projector control method
US7401929B2 (en) Projector and image correction method
JP4232042B2 (en) Projection control system, projector, program, information storage medium, and projection control method
US9723281B2 (en) Projection apparatus for increasing pixel usage of an adjusted projection area, and projection method and program medium for the same
CN102365865B (en) Multiprojection display system and screen forming method
JP5343441B2 (en) Image processing apparatus, image display apparatus, image processing method, image display method, and program
JP2006121240A (en) Image projection method, projector, and computer program
US8727538B2 (en) Image processing apparatus and image processing method
JP6645687B2 (en) Display device and control method
US10924718B2 (en) Image processing device and method
JP2006060447A (en) Keystone correction using partial side of screen
JP2010130225A (en) Projection display device and adjustment method for projection
JP2007078821A (en) Projector, projecting method and program
JP2018125819A (en) Control device, control method, program, and storage medium
JP2010085563A (en) Image adjusting apparatus, image display system and image adjusting method
JP6330371B2 (en) Image projection apparatus and image projection method
US20180278905A1 (en) Projection apparatus that reduces misalignment between printed image and projected image projected on the printed image, control method therefor, and storage medium
JP2021061510A (en) Projection control device, method, program, and storage medium
JP4578341B2 (en) Image projection method, projector, and computer program
JP6295635B2 (en) Image projection apparatus, image projection system, and image projection method
JP2014176053A (en) Image signal processor
JP2012220709A (en) Projection type image display apparatus and control method for the same
WO2020162051A1 (en) Projection type video display system

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20210103

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210113

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221003

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230714

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240119