Nothing Special   »   [go: up one dir, main page]

JP2021064848A - Control device, projection device, projection system, control method of the projection device, program, and storage medium - Google Patents

Control device, projection device, projection system, control method of the projection device, program, and storage medium Download PDF

Info

Publication number
JP2021064848A
JP2021064848A JP2019187543A JP2019187543A JP2021064848A JP 2021064848 A JP2021064848 A JP 2021064848A JP 2019187543 A JP2019187543 A JP 2019187543A JP 2019187543 A JP2019187543 A JP 2019187543A JP 2021064848 A JP2021064848 A JP 2021064848A
Authority
JP
Japan
Prior art keywords
projection
image
screen
unit
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019187543A
Other languages
Japanese (ja)
Inventor
正樹 藤岡
Masaki Fujioka
正樹 藤岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019187543A priority Critical patent/JP2021064848A/en
Publication of JP2021064848A publication Critical patent/JP2021064848A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Projection Apparatus (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

To provide a control device, a projection device, a projection system, a projection method, a program, and a storage medium capable of suppressing an occurrence of uneven luminance in an area where a plurality of projected images are superimposed without installing an imaging apparatus for adjustment when performing multiple projections on a curved screen.SOLUTION: A control device 120 for controlling a projection device 100 that displays an image on a screen in multi-projection has a communication unit 233 that acquires transformation information regarding geometric correction processing for an input image input to the projection device 100, and a gain determining unit 235 that determines a blend curve used for attenuation processing applied by the projection device 100 to the input image based on the transformation information.SELECTED DRAWING: Figure 1

Description

本発明は、マルチ投影で画像を表示する投影システムにおける制御装置、投影装置、投影装置の制御方法、プログラム、および記憶媒体、およびその投影システムに関する。 The present invention relates to a control device, a projection device, a control method of the projection device, a program, and a storage medium in a projection system for displaying an image by multi-projection, and the projection system thereof.

複数の投影装置からスクリーンに投影した複数の投影画像の少なくとも一部を重ねて、1つの画像を投影する投影システムがある。このような投影システムでは、他の投影画像と重なる投影画像の領域(重畳領域)に対して減光処理(エッジブレンド処理)を適用する。 There is a projection system that projects one image by superimposing at least a part of a plurality of projected images projected on a screen from a plurality of projection devices. In such a projection system, a dimming process (edge blending process) is applied to an area (superimposed area) of a projected image that overlaps with another projected image.

特許文献1には、複数のプロジェクタを連続的に並べて、大画面を構成する表示装置が開示されている。特許文献1の表示装置は、撮像装置によって取得した画像から検出した各画面の重ね合わせ部分の重なり開始点から終了点の間の輝度が取得した画像上で線形に減少するように、調整する。 Patent Document 1 discloses a display device in which a plurality of projectors are continuously arranged to form a large screen. The display device of Patent Document 1 is adjusted so that the brightness between the overlapping start point and the end point of the overlapping portion of each screen detected from the image acquired by the imaging device is linearly reduced on the acquired image.

また、曲面スクリーンを用いる場合、投影画像に対して幾何変形(幾何補正)処理が適用されることがある。幾何変形処理は、ワーピングなどと呼ばれる。幾何変形処理を投影画像に対して適用した場合、スクリーン上における投影画像の画素の大きさが必ずしも均一にならない。 Further, when a curved screen is used, geometric deformation (geometric correction) processing may be applied to the projected image. The geometric transformation process is called warping or the like. When the geometric transformation process is applied to the projected image, the pixel size of the projected image on the screen is not always uniform.

特開平11−98439号公報Japanese Unexamined Patent Publication No. 11-98439

しかしながら、上述の特許文献1に開示された技術では、エッジブレンド処理の設定のために撮像装置が必要となる。したがって、ユーザーは、マルチ投影システムを設置するために調整用の撮像装置を準備する必要があった。 However, in the technique disclosed in Patent Document 1 described above, an imaging device is required for setting the edge blending process. Therefore, the user had to prepare an imaging device for adjustment in order to install the multi-projection system.

本発明は、曲面スクリーンに対してマルチ投影を行う場合に、調整用の撮像装置を設けることなく、複数の投影画像が重ね合わされた領域において、輝度むらの発生を抑制することが可能な制御装置、投影装置、投影システム、投影方法、プログラム、および記憶媒体を提供することを目的とする。 The present invention is a control device capable of suppressing the occurrence of uneven brightness in a region where a plurality of projected images are superimposed without providing an imaging device for adjustment when performing multi-projection on a curved screen. , Projection devices, projection systems, projection methods, programs, and storage media.

上記目的を達成するために、本発明の一の形態は、複数の投影手段で、夫々の投影装置が投影する画像の一部を重畳して単一の画像を表示するマルチ投影システムにおいて、夫々の投影画像の位置を調整する変形処理手段と、重畳領域のブレンド率を定めるブレンドカーブに基づいてエッジブレンド処理を行うブレンド処理手段と、前記ブレンドカーブの形状を設定するブレンドカーブ設定手段と、を有し、前記変形処理手段による変形処理の後に前記ブレンド処理手段によるブレンド処理を行う場合に、投影面上の画素サイズを取得する画素サイズ取得手段をさらに備え、前記ブレンドカーブ設定手段は前記画素サイズ取得手段が取得する投影面上の画素サイズに応じて、前記ブレンドカーブ設定手段に設定するブレンドカーブを決定することを特徴とする。 In order to achieve the above object, one embodiment of the present invention is in a multi-projection system in which a part of an image projected by each projection device is superimposed and a single image is displayed by a plurality of projection means, respectively. A deformation processing means for adjusting the position of the projected image, a blend processing means for performing edge blending based on a blend curve for determining the blend ratio of the superposed region, and a blend curve setting means for setting the shape of the blend curve. Further, the blend size acquisition means for acquiring the pixel size on the projection surface is further provided when the blending process is performed by the blending processing means after the deformation processing by the deformation processing means, and the blend curve setting means has the pixel size. The blend curve to be set in the blend curve setting means is determined according to the pixel size on the projection surface acquired by the acquisition means.

本発明の制御装置、投影装置、投影システム、投影方法、プログラム、および記憶媒体によれば、曲面スクリーンに対してマルチ投影を行う場合に、調整用の撮像装置を設けることなく、複数の投影画像が重ね合わされた領域において、輝度むらの発生を抑制することを可能とする。 According to the control device, projection device, projection system, projection method, program, and storage medium of the present invention, when performing multi-projection on a curved screen, a plurality of projected images are performed without providing an image pickup device for adjustment. It is possible to suppress the occurrence of uneven brightness in the area where the above are superimposed.

マルチ投影システムの構成図である。It is a block diagram of a multi-projection system. 投影システムにおける投影装置とスクリーンとの関係を示す上面図である。It is a top view which shows the relationship between the projection apparatus and a screen in a projection system. 投影装置、出力装置、および制御装置の各機能ブロックを示す模式図である。It is a schematic diagram which shows each functional block of a projection device, an output device, and a control device. 投影装置の画像処理部の機能ブロックを示すブロック図である。It is a block diagram which shows the functional block of the image processing part of a projection apparatus. 減光処理部が適用する減光処理について示す模式図である。It is a schematic diagram which shows the dimming processing applied by a dimming processing part. 出力装置の画像処理部の機能ブロックを示す模式図である。It is a schematic diagram which shows the functional block of the image processing part of an output device. 元画像と部分画像との関係を示す模式図である。It is a schematic diagram which shows the relationship between the original image and a partial image. 幾何変形処理部が実行する幾何補正処理における画素の補間方法を示す模式図である。It is a schematic diagram which shows the interpolation method of the pixel in the geometric correction processing executed by the geometric transformation processing part. スクリーン上における各投影画像の重畳領域の画素の大きさを示す模式図である。It is a schematic diagram which shows the size of the pixel of the superimposition area of each projection image on a screen. 投影画像をスクリーン上で重ねた場合における輝度分布を示す模式図である。It is a schematic diagram which shows the luminance distribution when the projected image is superposed on the screen. 投影システムにおける位置調整フローを示すフローチャートである。It is a flowchart which shows the position adjustment flow in a projection system. 格子点パターンの一例を示す模式図である。It is a schematic diagram which shows an example of a grid point pattern. 表示部に表示される位置調整アプリケーションのGUIを示す模式図である。It is a schematic diagram which shows the GUI of the position adjustment application displayed on the display part. 格子点の移動先を示す模式図である。It is a schematic diagram which shows the moving destination of a grid point. スクリーン上における投影画像の垂直方向における中心列の画素群の大きさおよび境界を示す模式図である。It is a schematic diagram which shows the size and boundary of the pixel group of the central row in the vertical direction of the projected image on a screen. 水平方向の画素列における画素の位置に対する画素のサイズの変化を示す模式図である。It is a schematic diagram which shows the change of the size of a pixel with respect to the position of a pixel in a pixel array in a horizontal direction. ゲイン決定部が決定したブレンドカーブを示す模式図である。It is a schematic diagram which shows the blend curve determined by the gain determination part.

以下に、本発明の好ましい実施の形態を、添付の図面に基づいて詳細に説明する。 Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

図1は、マルチ投影システムの構成図である。 FIG. 1 is a configuration diagram of a multi-projection system.

マルチ投影システムは、投影装置100a、投影装置100b、出力装置110、制御装置120、およびLANハブ130を有する。マルチ投影システムは、投影装置100aがスクリーン140に投影した投影画像101aの重畳領域と、投影装置100bがスクリーン140に投影した投影画像101bの重畳領域とを重ねて、1つの画像を投影する。スクリーン140は、投影装置100aおよび投影装置100bに向けて凹型の曲面を有するスクリーンであるとする。図1において、重畳領域が重なる領域は、ハッチングで示された領域である。 The multi-projection system includes a projection device 100a, a projection device 100b, an output device 110, a control device 120, and a LAN hub 130. The multi-projection system projects one image by superimposing the superposed region of the projected image 101a projected on the screen 140 by the projection device 100a and the superposed region of the projected image 101b projected on the screen 140 by the projection device 100b. It is assumed that the screen 140 is a screen having a concave curved surface toward the projection device 100a and the projection device 100b. In FIG. 1, the region where the overlapping regions overlap is the region indicated by hatching.

投影装置100a、100bは、共通の構成を有する投影装置(プロジェクタ)である。以降、それぞれの投影装置の個別の機能や動作に関して説明する場合、投影装置100a、100bと表記する。一方、投影装置100a、100bの両方に共通する機能や動作に関して説明する場合には、投影装置100と表記する。 The projection devices 100a and 100b are projection devices (projectors) having a common configuration. Hereinafter, when the individual functions and operations of each projection device are described, they are referred to as projection devices 100a and 100b. On the other hand, when the functions and operations common to both the projection devices 100a and 100b are described, the term “projection device 100” is used.

投影装置100は、出力装置110から出力された画像に基づいて、スクリーン140に投影画像を投影する。また、投影装置100は、制御装置120から入力された制御信号に基づいて、画像の重畳領域に対して減光処理を適用する。 The projection device 100 projects a projected image on the screen 140 based on the image output from the output device 110. Further, the projection device 100 applies the dimming process to the superimposed region of the image based on the control signal input from the control device 120.

出力装置110は、投影装置100に画像データを出力する出力装置である。出力装置110は、マルチ投影システムが投影する画像(元画像)のうち、各投影装置100が投影する部分を切り出した画像(部分画像)を生成し、各部分画像を各投影装置100に出力する。 The output device 110 is an output device that outputs image data to the projection device 100. The output device 110 generates an image (partial image) obtained by cutting out a portion projected by each projection device 100 from the image (original image) projected by the multi-projection system, and outputs each partial image to each projection device 100. ..

出力装置110は、メディアサーバーであるとする。出力装置110は、パーソナルコンピュータ、カメラ、携帯電話、スマートフォン、ハードディスクレコーダ、ゲーム機など、画像を出力可能な装置であればよい。出力装置110が生成する複数の部分画像は、それぞれ他の部分画像と共通する部分(重畳領域)を有する。投影装置100は部分画像の重畳領域に対して減光処理を適用する。 It is assumed that the output device 110 is a media server. The output device 110 may be any device capable of outputting images, such as a personal computer, a camera, a mobile phone, a smartphone, a hard disk recorder, and a game machine. Each of the plurality of partial images generated by the output device 110 has a portion (superimposed region) common to other partial images. The projection device 100 applies the dimming process to the superposed region of the partial image.

また、出力装置110は、スクリーン140上で、元画像が所定のアスペクト比で投影されるように、各部分画像にあらかじめ幾何変形処理を適用する。 Further, the output device 110 applies a geometric transformation process to each partial image in advance so that the original image is projected on the screen 140 with a predetermined aspect ratio.

制御装置120は、投影装置100a、100b、および出力装置110とLANハブ130を介して制御するPCである。制御装置120は、タブレット等であってもよい。制御装置120は、スクリーン140の曲率や、スクリーン140における投影画像の画素の大きさに応じて、各投影装置100が重畳領域に適用する減光処理のゲインカーブを決定する。制御装置120は、決定したゲインカーブを示す情報を、各投影装置100に出力する。 The control device 120 is a PC that is controlled via the projection devices 100a and 100b, the output device 110, and the LAN hub 130. The control device 120 may be a tablet or the like. The control device 120 determines the gain curve of the dimming process applied to the superposed region by each projection device 100 according to the curvature of the screen 140 and the size of the pixels of the projected image on the screen 140. The control device 120 outputs information indicating the determined gain curve to each projection device 100.

LANハブ130は、投影装置100a、投影装置100b、出力装置110および制御装置120の間の通信を制御するハブ端末である。投影装置100a、投影装置100b、出力装置110および制御装置120はそれぞれ、LANハブ130に有線LANを介して接続するとする。なお、投影装置100a、投影装置100b、出力装置110および制御装置120はそれぞれとLANハブ130との接続の一部もしくはすべては、無線LANを介して実行してもよい。 The LAN hub 130 is a hub terminal that controls communication between the projection device 100a, the projection device 100b, the output device 110, and the control device 120. It is assumed that the projection device 100a, the projection device 100b, the output device 110, and the control device 120 are each connected to the LAN hub 130 via a wired LAN. The projection device 100a, the projection device 100b, the output device 110, and the control device 120 may be partially or all connected to the LAN hub 130 via a wireless LAN.

図2は、投影システムにおける投影装置100a、100bと、スクリーン140との関係を示す上面図である。スクリーン140は、一定曲率を有する曲面スクリーンである。また、スクリーン140は、投影装置100の投影方向に対して凸形状の面であるとする。 FIG. 2 is a top view showing the relationship between the projection devices 100a and 100b in the projection system and the screen 140. The screen 140 is a curved screen having a constant curvature. Further, it is assumed that the screen 140 is a surface having a convex shape with respect to the projection direction of the projection device 100.

スクリーン140の形成する曲面は円柱状であり、スクリーン140が形成する円柱(円)の中心を各投影装置100の光軸が通るように、各投影装置100が設置される。スクリーン140に投影された投影画像において、スクリーン140に対する投影装置100の投写距離の長い中央部のほうが周辺部よりも輝度が低くなることがあるが、あらかじめ輝度を補正することにより均一な輝度で画像を表示可能であるとする。投射距離とは、投影装置100の投影光学系のレンズの先端から、スクリーン140上の画素の位置から光軸に対して垂線を引いたときの交点までの距離である。 The curved surface formed by the screen 140 is a cylinder, and each projection device 100 is installed so that the optical axis of each projection device 100 passes through the center of the cylinder (circle) formed by the screen 140. In the projected image projected on the screen 140, the brightness of the central portion where the projection distance of the projection device 100 with respect to the screen 140 is long may be lower than that of the peripheral portion. Can be displayed. The projection distance is the distance from the tip of the lens of the projection optical system of the projection device 100 to the intersection when a perpendicular line is drawn with respect to the optical axis from the position of the pixel on the screen 140.

図3は、投影システムの投影装置100a、100b、出力装置110、および制御装置120の各機能ブロックを示す模式図である。なお、投影装置100bの構造は、投影装置100aの構造と同様であるので、説明を省略する。 FIG. 3 is a schematic view showing each functional block of the projection devices 100a and 100b, the output device 110, and the control device 120 of the projection system. Since the structure of the projection device 100b is the same as that of the projection device 100a, the description thereof will be omitted.

投影装置100は、入力部201、通信部202、制御部203、画像処理部204、駆動部205、操作部206、ROM207、光源208、照明光学系209、液晶表示素子210、および投影光学系211を備える。 The projection device 100 includes an input unit 201, a communication unit 202, a control unit 203, an image processing unit 204, a drive unit 205, an operation unit 206, a ROM 207, a light source 208, an illumination optical system 209, a liquid crystal display element 210, and a projection optical system 211. To be equipped.

入力部201は、出力装置110から入力される画像を入力する入力部である。入力部201は、入力端子と、入力された画像を投影装置100の各機能ブロックが処理可能な形式に変換する処理部と、を備える。 The input unit 201 is an input unit for inputting an image input from the output device 110. The input unit 201 includes an input terminal and a processing unit that converts the input image into a format that can be processed by each functional block of the projection device 100.

入力部201は、例えば、コンポジット、コンポーネント、DVI−D、HDMI(登録商標)などを有する構成としてもよい。など、どのようなものであってもよい。さらには、USBフラッシュメモリやSDカードのようなメディアに記録された画像を読み込むこともできる。入力部201は、受信した画像を画像処理部204へ出力する。 The input unit 201 may be configured to include, for example, a composite, a component, DVI-D, HDMI (registered trademark), or the like. And so on. Furthermore, it is also possible to read an image recorded on a medium such as a USB flash memory or an SD card. The input unit 201 outputs the received image to the image processing unit 204.

通信部202は、外部機器との通信データを送受信する通信インターフェースである。通信部202は、LANハブ130を介して、出力装置110、制御装置120、投影装置100bと通信を行うことができる。通信部202が対応可能な通信方式は。有線、無線何れでもでもよい。通信部202は、制御装置120から制御信号を受信する。 The communication unit 202 is a communication interface for transmitting and receiving communication data with an external device. The communication unit 202 can communicate with the output device 110, the control device 120, and the projection device 100b via the LAN hub 130. What communication method can the communication unit 202 support? It may be wired or wireless. The communication unit 202 receives the control signal from the control device 120.

制御部203は、投影装置10内の各部の動作を制御するプロセッサである。制御部203は、例えばマイコン、CPU等からなる。制御部203は、通信部202や、操作部206から入力された制御信号を受信して、投影装置100の各機能ブロックを制御する。 The control unit 203 is a processor that controls the operation of each unit in the projection device 10. The control unit 203 includes, for example, a microcomputer, a CPU, and the like. The control unit 203 receives the control signals input from the communication unit 202 and the operation unit 206, and controls each functional block of the projection device 100.

画像処理部204は、入力部201から取得した画像に、拡大縮小処理、色変換処理、ダイナミックレンジ変換処理、変形処理および減光処理(エッジブレンド処理)などの画像処理を適用する処理回路である。画像処理部204は、例えば、画像処理用のマイクロプロセッサ(GPU)であるとする。 The image processing unit 204 is a processing circuit that applies image processing such as enlargement / reduction processing, color conversion processing, dynamic range conversion processing, deformation processing, and dimming processing (edge blending processing) to the image acquired from the input unit 201. .. It is assumed that the image processing unit 204 is, for example, a microprocessor (GPU) for image processing.

画像処理部204は、マルチ投影の際に、重畳領域とそれ以外の領域(非重畳領域)の黒輝度レベルを合わせるための黒レベル補正処理などの処理を実行可能である。 The image processing unit 204 can execute processing such as black level correction processing for matching the black luminance level of the superposed region and the other region (non-superimposed region) at the time of multi-projection.

画像処理部204は、入力部201から取得した画像以外にも、制御部203によって再生された画像に対して前述の画像処理を適用することもできる。 The image processing unit 204 can also apply the above-mentioned image processing to the image reproduced by the control unit 203 in addition to the image acquired from the input unit 201.

画像処理部204は、制御部203からの指示に基づき、GUIのような任意のOSDやテストパターンを受信した画像に重畳して出力することもできる。詳細は後述する。 Based on the instruction from the control unit 203, the image processing unit 204 can superimpose and output an arbitrary OSD or test pattern such as a GUI on the received image. Details will be described later.

液晶駆動部205は、画像処理部204から出力された画像に基づいて、液晶表示素子210の画素の光変調素子に印加する電圧を制御して、液晶表示素子210の光変調率を制御する。 The liquid crystal driving unit 205 controls the voltage applied to the light modulation element of the pixels of the liquid crystal display element 210 based on the image output from the image processing unit 204, and controls the light modulation rate of the liquid crystal display element 210.

操作部206は、ユーザーの指示を受け付け、制御部203に指示信号を送信する。操作部206は、投影装置100に設けられたスイッチ、ダイヤル、カーソルボタンなどであるとする。また、操作部206としてタッチパネルを有していてもよい。操作部206は、例えば、リモコンなどの遠隔操作装置から信号を受信する受信部を有し、受信した信号に基づいて制御信号を制御部203に送信するものであってもよい。 The operation unit 206 receives the user's instruction and transmits an instruction signal to the control unit 203. It is assumed that the operation unit 206 is a switch, a dial, a cursor button, or the like provided in the projection device 100. Further, the operation unit 206 may have a touch panel. The operation unit 206 may have a reception unit that receives a signal from a remote control device such as a remote controller, and may transmit a control signal to the control unit 203 based on the received signal.

ROM207は、制御部202により使用されるプログラム等のデータを記憶する記憶媒体である。 The ROM 207 is a storage medium for storing data such as a program used by the control unit 202.

光源208は、液晶表示素子210に光を供給するものであり、例えば、ハロゲンランプ、キセノンランプ、高圧水銀ランプ、レーザー、LED、蛍光体、またそれらを組み合わせたものであっても良い。 The light source 208 supplies light to the liquid crystal display element 210, and may be, for example, a halogen lamp, a xenon lamp, a high-pressure mercury lamp, a laser, an LED, a phosphor, or a combination thereof.

照明光学系209は、光源108から発せられた光を平行化して光束として出力し、液晶表示素子210に供給する。 The illumination optical system 209 parallelizes the light emitted from the light source 108, outputs the light as a luminous flux, and supplies the light to the liquid crystal display element 210.

液晶表示素子210は1枚あるいは複数枚で構成され、液晶表示素子210上に画像が形成される。なお、デジタルマイクロミラーデバイス(DMD)を表示素子として用いる構成としてもよい。 The liquid crystal display element 210 is composed of one or a plurality of elements, and an image is formed on the liquid crystal display element 210. A digital micromirror device (DMD) may be used as a display element.

投影光学系110は、液晶表示素子210から出力された光(投影画像)をスクリーン140に投影する光学系である。投影光学系110は、複数のレンズと、レンズを操作する駆動部を有する。 The projection optical system 110 is an optical system that projects the light (projected image) output from the liquid crystal display element 210 onto the screen 140. The projection optical system 110 includes a plurality of lenses and a drive unit for operating the lenses.

出力装置110は、制御部221、通信部222、記憶部223、画像処理部224、および出力部225を備える。 The output device 110 includes a control unit 221, a communication unit 222, a storage unit 223, an image processing unit 224, and an output unit 225.

制御部221は、出力装置110内の各部の動作を制御するプロセッサである。制御部221は、例えばマイコン、CPU等からなる。制御部221は、制御装置120から通信部222を介して入力された制御信号を受信して、出力装置110の各動作ブロックを制御する。 The control unit 221 is a processor that controls the operation of each unit in the output device 110. The control unit 221 includes, for example, a microcomputer, a CPU, and the like. The control unit 221 receives a control signal input from the control device 120 via the communication unit 222, and controls each operation block of the output device 110.

通信部222は、外部機器との通信データを送受信する通信インターフェースである。通信部222は、LANハブ130を介して、投影装置100a、投影装置100b、および制御装置120と通信することが可能である。なお、通信部222の通信方式は有線、無線何れでもでもよい。通信部222は、制御装置120から制御信号を受信する。出力装置110は、制御装置120から受信する制御信号に基づいて、制御部221が処理を実行することによって、動作する。 The communication unit 222 is a communication interface for transmitting and receiving communication data with an external device. The communication unit 222 can communicate with the projection device 100a, the projection device 100b, and the control device 120 via the LAN hub 130. The communication method of the communication unit 222 may be either wired or wireless. The communication unit 222 receives the control signal from the control device 120. The output device 110 operates when the control unit 221 executes a process based on the control signal received from the control device 120.

記憶部223は、投影装置100が投影する投影画像のもととなる元画像を格納する記憶媒体である。記憶部223は、通信部222を介して送信されてきた映像コンテンツを元画像として格納する。記憶部223は、制御部221の指示に基づいて、元画像を画像処理部224へ出力する。記憶部223は、例えば、SSDやHDDといった不揮発性の記憶媒体である。 The storage unit 223 is a storage medium that stores the original image that is the source of the projected image projected by the projection device 100. The storage unit 223 stores the video content transmitted via the communication unit 222 as an original image. The storage unit 223 outputs the original image to the image processing unit 224 based on the instruction of the control unit 221. The storage unit 223 is a non-volatile storage medium such as an SSD or an HDD.

画像処理部224は、記憶部223から読み出した元画像から各投影装置100に出力する部分画像を生成する画像処理回路である。画像処理部224は記憶部223から入力されてきた元画像のうち、各投影装置100が投影する投影画像に対応する領域を切り出して部分画像を生成する。画像処理部224は、元画像、もしくは部分画像に対して解像度変換、画像分割処理、色補正、幾何学変形処理を行うことも可能である。 The image processing unit 224 is an image processing circuit that generates a partial image to be output to each projection device 100 from the original image read from the storage unit 223. The image processing unit 224 cuts out a region corresponding to the projected image projected by each projection device 100 from the original image input from the storage unit 223 to generate a partial image. The image processing unit 224 can also perform resolution conversion, image division processing, color correction, and geometric deformation processing on the original image or the partial image.

出力部505は、画像処理部224が生成した部分画像を対応する投影装置100に出力する。 The output unit 505 outputs the partial image generated by the image processing unit 224 to the corresponding projection device 100.

制御装置120は、制御部231、操作部232、通信部233、投影条件取得部234、ゲイン決定部235、ROM236、RAM237、および表示制御部238を有する。 The control device 120 includes a control unit 231, an operation unit 232, a communication unit 233, a projection condition acquisition unit 234, a gain determination unit 235, a ROM 236, a RAM 237, and a display control unit 238.

制御部231は、制御装置120内の各部の動作を制御するプロセッサである。制御部231は、例えばマイコン、CPU等からなる。制御部231は、ROM236に格納しているプログラムを実行し、制御装置120の各動作ブロックを制御する。制御部231は、操作部232から入力された制御信号を受信して、制御装置120の各動作ブロックを制御する。 The control unit 231 is a processor that controls the operation of each unit in the control device 120. The control unit 231 includes, for example, a microcomputer, a CPU, and the like. The control unit 231 executes the program stored in the ROM 236 and controls each operation block of the control device 120. The control unit 231 receives the control signal input from the operation unit 232 and controls each operation block of the control device 120.

操作部232は、ユーザーからの指示を受け付け、制御部231に制御信号を送信する。操作部232は、例えば、キーボードやマウス、ダイヤル、ボタン、およびタッチパネルなどの少なくともいずれかをからなる。 The operation unit 232 receives an instruction from the user and transmits a control signal to the control unit 231. The operation unit 232 comprises at least one of, for example, a keyboard, a mouse, a dial, a button, and a touch panel.

通信部233は、外部機器との通信データを送受信する通信インターフェースである。通信部233は、LANハブ130を介して、出力装置110、および投影装置100a、100bと通信を行うことができる。通信部233が対応可能な通信方式は。有線、無線何れでもでもよい。通信部233を介して、制御装置120から出力装置110、および投影装置100a、100bへ制御信号が送信される。 The communication unit 233 is a communication interface for transmitting and receiving communication data with an external device. The communication unit 233 can communicate with the output device 110 and the projection devices 100a and 100b via the LAN hub 130. What communication methods can the communication unit 233 support? It may be wired or wireless. A control signal is transmitted from the control device 120 to the output device 110 and the projection devices 100a and 100b via the communication unit 233.

投影条件取得部234は、スクリーン140における投影画像の画素のサイズ(画素サイズ)を取得する。投影条件取得部234は、RAM237に記憶された変形情報に基づき、画素サイズを算出する。投影条件取得部234は、ゲイン決定部235に画素サイズを示す情報を出力する。 The projection condition acquisition unit 234 acquires the pixel size (pixel size) of the projected image on the screen 140. The projection condition acquisition unit 234 calculates the pixel size based on the deformation information stored in the RAM 237. The projection condition acquisition unit 234 outputs information indicating the pixel size to the gain determination unit 235.

ゲイン決定部235は、投影条件取得部234が取得した画素サイズに基づいて、各投影装置100の画像処理部204が画像の重畳領域に対して適用する減光処理に用いるゲインを決定する。ゲインは、重畳領域において投影画像が隣接するする方向に対して徐々に変化するブレンドカーブとして表される。ブレンドカーブは、重畳領域において始端から終端の間の画素ごとのゲインをテーブル化したカーブ形状で表されるとする。ゲイン決定部235が決定したブレンドカーブを示す情報(ブレンドカーブ設定情報)は、RAM237に格納される。 The gain determination unit 235 determines the gain to be used for the dimming process applied to the superimposed region of the image by the image processing unit 204 of each projection device 100 based on the pixel size acquired by the projection condition acquisition unit 234. The gain is represented as a blend curve that gradually changes with respect to the direction in which the projected images are adjacent in the superimposed region. It is assumed that the blend curve is represented by a curve shape in which the gain for each pixel between the start end and the end end is tabulated in the superposed region. The information indicating the blend curve determined by the gain determination unit 235 (blend curve setting information) is stored in the RAM 237.

ROM236は、制御部231が実行するプログラム、各種設定データ、およびテーブルを記憶する記憶媒体である。ROM236は、出力装置110が部分画像に対して幾何変形処理を適用するために用いる変形情報および投影装置100のブレンドカーブを決定するためのアプリケーションを格納する。 The ROM 236 is a storage medium that stores a program executed by the control unit 231, various setting data, and a table. The ROM 236 stores the deformation information used by the output device 110 to apply the geometric deformation process to the partial image and the application for determining the blend curve of the projection device 100.

RAM237は、一時的なデータやテーブルを記憶する記憶媒体である。RAM237は、出力装置110が部分画像に対して幾何変形処理を適用するために用いる変形情報および投影装置100のブレンドカーブをそれぞれ格納する。 The RAM 237 is a storage medium for storing temporary data and tables. The RAM 237 stores the deformation information used by the output device 110 to apply the geometric deformation process to the partial image and the blend curve of the projection device 100, respectively.

表示制御部238は、液晶ディスプレイ等の表示部に、ユーザーが制御装置120や出力装置110、投影装置100a、100bの制御を行うために用いるGuraphical User Interface画像(GUI画像)を表示させる制御部である。表示部は、制御装置120が有していてもよいし、制御装置120の外部に設けられていてもよい。 The display control unit 238 is a control unit that displays a Graphical User Interface image (GUI image) used by the user to control the control device 120, the output device 110, and the projection devices 100a and 100b on a display unit such as a liquid crystal display. is there. The display unit may be included in the control device 120, or may be provided outside the control device 120.

図4は、投影装置100の画像処理部204の機能ブロックを示すブロック図である。 FIG. 4 is a block diagram showing a functional block of the image processing unit 204 of the projection device 100.

画像処理部204は、解像度変換部401、色補正部402、減光処理部403、設定部404、および出力部205を有する。 The image processing unit 204 includes a resolution conversion unit 401, a color correction unit 402, a dimming processing unit 403, a setting unit 404, and an output unit 205.

解像度変換部401は、入力された部分画像の解像度を、あらかじめ設定された解像度へ変換する解像度変換処理を実行する。解像度変換部401は、解像度変換処理が適用された部分画像を色補正部402に出力する。設定された解像度は、例えば、液晶表示素子210の解像度であるとする。ここで、解像度は、画像の画素数の意味である。 The resolution conversion unit 401 executes a resolution conversion process for converting the resolution of the input partial image into a preset resolution. The resolution conversion unit 401 outputs a partial image to which the resolution conversion process has been applied to the color correction unit 402. It is assumed that the set resolution is, for example, the resolution of the liquid crystal display element 210. Here, the resolution means the number of pixels of the image.

液晶表示素子210の解像度が1920×1080であり、入力された部分画像の解像度が1280×720であるとする。この場合、解像度変換部401は、入力された部分画像を縦横共に1.5倍に拡大して、1920×1080の解像度を有する画像に変換する。このように液晶表示素子の解像度と入力された部分画像の解像度のアスペクト比が同じ場合には単純に拡大すればよい。 It is assumed that the resolution of the liquid crystal display element 210 is 1920 × 1080 and the resolution of the input partial image is 1280 × 720. In this case, the resolution conversion unit 401 enlarges the input partial image 1.5 times in both vertical and horizontal directions and converts it into an image having a resolution of 1920 × 1080. When the aspect ratio of the resolution of the liquid crystal display element and the resolution of the input partial image are the same as described above, the image may be simply enlarged.

入力された部分画像の解像度が1024×768である場合、部分画像のアスペクト比が液晶表示素子のアスペクト比と異なる。この場合、解像度変換部401は、縦もしくは横の幅の比に合わせて拡大した部分画像を中央に配置し、周辺の余った画素については黒画像を付加する。 When the resolution of the input partial image is 1024 × 768, the aspect ratio of the partial image is different from the aspect ratio of the liquid crystal display element. In this case, the resolution conversion unit 401 arranges a partial image enlarged according to the ratio of the vertical or horizontal width in the center, and adds a black image to the remaining pixels in the periphery.

色補正部402は、カラーマトリクス変換、クロマ処理、ガンマ処理、シャープネス、色空間変換などの色補正処理を解像度変換部401から取得した部分画像に適用する。色補正部402は、色補正処理が適用された部分画像を減光処理部403へ出力する。 The color correction unit 402 applies color correction processing such as color matrix conversion, chroma processing, gamma processing, sharpness, and color space conversion to the partial image acquired from the resolution conversion unit 401. The color correction unit 402 outputs a partial image to which the color correction processing has been applied to the dimming processing unit 403.

減光処理部403は、設定部404から取得したブレンドカーブ情報に基づいて、色補正部402から取得した部分画像の重畳領域に対して、減光処理(ゲイン処理)を適用する。 The dimming processing unit 403 applies the dimming processing (gain processing) to the superimposed region of the partial image acquired from the color correction unit 402 based on the blend curve information acquired from the setting unit 404.

図5は、減光処理部403が適用する減光処理について示す模式図である。 FIG. 5 is a schematic view showing the dimming treatment applied by the dimming processing unit 403.

図5(a)は、投影装置100aに対して設定されたブレンドカーブを示す模式図である。図5(a)において、横軸は画像の水平方向の位置を示す。投影装置100aの投影画像101aが投影画像101bと隣接する方向における位置であるともいえる。縦軸は、減光処理部403が画像に適用するゲインを示す。 FIG. 5A is a schematic view showing a blend curve set for the projection device 100a. In FIG. 5A, the horizontal axis indicates the horizontal position of the image. It can be said that the projected image 101a of the projection device 100a is a position in a direction adjacent to the projected image 101b. The vertical axis shows the gain applied to the image by the dimming processing unit 403.

図5(a)に示すように、投影装置100aに対して設定されたブレンドカーブでは、画像の重畳領域の始端(画像の端部)から終端(重畳領域の左側の端部)にかけてゲインが小さくなる。図5(a)に示したブレンドカーブは、重畳領域の始点から終端にかけてゲインが線形に変化するように設定される。すなわち、減光処理を施す重畳領域の座標は始端のゲインを0、終端のゲインを1とし、重畳領域の中央のゲインが0.5となる。 As shown in FIG. 5A, in the blend curve set for the projection device 100a, the gain is small from the start end (edge of the image) to the end (left end of the overlay region) of the superimposed region of the image. Become. The blend curve shown in FIG. 5A is set so that the gain changes linearly from the start point to the end of the superposed region. That is, the coordinates of the superposed region to be dimmed are 0 at the start, 1 at the end, and 0.5 at the center of the superposed region.

図5(b)は、投影装置100bに対して設定されたブレンドカーブを示す模式図である。 FIG. 5B is a schematic view showing a blend curve set for the projection device 100b.

図5(b)に示すように、投影装置100bに対して設定されたブレンドカーブでは、画像の重畳領域の始端(画像の端部)から終端(重畳領域の右側の端部)にかけてゲインが小さくなる。図5(b)に示したブレンドカーブは、重畳領域の始点から終端にかけてゲインが線形に変化するように設定される。すなわち、減光処理を施す重畳領域の座標は始端のゲインを0、終端のゲインを1とし、重畳領域の中央のゲインが0.5となる。 As shown in FIG. 5B, in the blend curve set for the projection device 100b, the gain is small from the start end (edge of the image) to the end (right end of the overlay region) of the superimposed region of the image. Become. The blend curve shown in FIG. 5B is set so that the gain changes linearly from the start point to the end of the superposed region. That is, the coordinates of the superposed region to be dimmed are 0 at the start, 1 at the end, and 0.5 at the center of the superposed region.

図5(c)は、図5(a)、(b)で示されたブレンドカーブを適用された画像に基づいて各投影装置100が画像を投影した場合におけるスクリーン140上の画像の輝度を示す。ここで、出力装置120から出力された各部分画像の輝度は一定であるとする。 5 (c) shows the brightness of the image on the screen 140 when each projection device 100 projects the image based on the image to which the blend curve shown in FIGS. 5 (a) and 5 (b) is applied. .. Here, it is assumed that the brightness of each partial image output from the output device 120 is constant.

重畳領域に対して減光処理を適用された部分画像に基づいて投影画像を投影した場合に、スクリーン140上において重畳領域を含めた投影画像の全体が一定の輝度で投影されるように、図5(a)、(b)で示されたブレンドカーブがあらかじめ設定される。言い換えれば、投影画像101aと投影画像101bとが重なった領域(重畳領域)の明るさが、投影画像101aと投影画像101bとのの重畳領域以外の部分の明るさと均一になるようにブレンドカーブが設定されている。 When a projected image is projected based on a partial image to which a dimming process is applied to a superposed region, the entire projected image including the superposed region is projected on the screen 140 with a constant brightness. The blend curves shown in 5 (a) and (b) are preset. In other words, the blend curve is such that the brightness of the region where the projected image 101a and the projected image 101b overlap (superimposed region) is uniform with the brightness of the portion other than the superposed region of the projected image 101a and the projected image 101b. It is set.

設定部404は、制御装置120から受信したブレンドカーブ設定情報に基づいて、減光処理部403で施すブレンドカーブ情報を設定する。設定部404は、ブレンドカーブ情報を減光処理部403へ出力する。具体的には図3(a)(b)に示すようなカーブを算出設定する。このカーブは重畳領域40の幅や制御装置120から受信したブレンドカーブ設定情報に基づき設定される。 The setting unit 404 sets the blend curve information to be applied by the dimming processing unit 403 based on the blend curve setting information received from the control device 120. The setting unit 404 outputs the blend curve information to the dimming processing unit 403. Specifically, the curve as shown in FIGS. 3A and 3B is calculated and set. This curve is set based on the width of the superposed region 40 and the blend curve setting information received from the control device 120.

出力部405は、減光処理部404から取得した部分画像、および、制御部202から受信したパターン情報に基づいて決定されたパターン画像のいずれかを、出力画像として、駆動部205に出力する。パターン画像は、例えばラスター画像やランプ画像、カラーバーなどのテストパターンである。出力部405は、制御部202から受信した制御信号に基づいて、減光処理部404から取得した部分画像、および、パターン画像のどちらを出力するかを決定する。 The output unit 405 outputs either the partial image acquired from the dimming processing unit 404 or the pattern image determined based on the pattern information received from the control unit 202 to the drive unit 205 as an output image. The pattern image is, for example, a test pattern such as a raster image, a lamp image, or a color bar. The output unit 405 determines whether to output the partial image acquired from the dimming processing unit 404 or the pattern image based on the control signal received from the control unit 202.

図6は、出力装置110の画像処理部224の機能ブロックを示す模式図である。 FIG. 6 is a schematic view showing a functional block of the image processing unit 224 of the output device 110.

画像処理部224は、解像度変換部601、部分画像生成部602、色補正部603、パターン生成部604、幾何変形処理部605、およびフレームメモリ606を有する。 The image processing unit 224 includes a resolution conversion unit 601, a partial image generation unit 602, a color correction unit 603, a pattern generation unit 604, a geometric deformation processing unit 605, and a frame memory 606.

解像度変換部601は、記憶部223から取得した元画像の解像度を、あらかじめ設定された解像度の画像に変換する。 The resolution conversion unit 601 converts the resolution of the original image acquired from the storage unit 223 into an image having a preset resolution.

部分画像生成部602は、解像度変換部601から出力された元画像に基づいて、投影装置100a、および投影装置100bへ出力する部分画像を生成する。 The partial image generation unit 602 generates a partial image to be output to the projection device 100a and the projection device 100b based on the original image output from the resolution conversion unit 601.

図7は、元画像と部分画像との関係を示す模式図である。 FIG. 7 is a schematic diagram showing the relationship between the original image and the partial image.

画像701は、元画像を示す。部分画像生成部602は、画像701から各部分画像が重畳領域を共通部分として含むように、各部分画像を切り出す。画像702は、投影装置100aに出力されるための部分画像である。画像703は、投影装置100bに出力されるための部分画像である。 Image 701 shows the original image. The partial image generation unit 602 cuts out each partial image from the image 701 so that each partial image includes a superposed region as a common portion. The image 702 is a partial image to be output to the projection device 100a. The image 703 is a partial image to be output to the projection device 100b.

部分画像生成部602は、制御部222から取得したブレンドカーブ設定情報に示された重畳領域の始端と終端との位置に基づいて各部分画像の切り出し位置を決定する。 The partial image generation unit 602 determines the cutout position of each partial image based on the positions of the start end and the end of the superimposed region shown in the blend curve setting information acquired from the control unit 222.

部分画像生成部602は、画像701の左端を画像702の切り出しの始端とし、切り出しの始端から投影装置100aに入力する画像の幅だけ右側の位置を画像702の切り出しの終端とする。 The partial image generation unit 602 sets the left end of the image 701 as the start end of the cutout of the image 702, and the position on the right side of the width of the image input to the projection device 100a from the start end of the cutout as the end of the cutout of the image 702.

部分画像生成部602は、画像701の右端を画像703の切り出しの始端とし、切り出しの始端から投影装置100bに入力する画像の幅だけ左側の位置を画像703の切り出しの終端とする。 The partial image generation unit 602 sets the right end of the image 701 as the start end of the cutout of the image 703, and the position on the left side of the width of the image input to the projection device 100b from the start end of the cutout as the end of the cutout of the image 703.

部分画像生成部602は、画像702の切り出しの始端と終端および、画像703の切り出しの始端と終端に基づいて、画像701から、画像702、703をそれぞれ切り出して部分画像を生成する。 The partial image generation unit 602 cuts out images 702 and 703 from the image 701 based on the start and end of the cutout of the image 702 and the start and end of the cutout of the image 703, and generates a partial image.

例えば、画像701の解像度が3520×1200であり、投影装置100aおよび投影装置100bへの入力画像の解像度は1920×1200とする。画像702の重畳領域の始端の水平方向座標が1919、終端の水平方向座標が1600であり、画像703の重畳領域の始端の水平方向座標が0、終端の水平方向座標が319とする。いずれも重畳領域の幅は320画素となるようにしている。このとき画像702は画像701から水平方向座標0〜1919を切り出す。画像703は画像701から水平方向座標1600〜3519を切り出す。このように切り出すと、画像701の1600〜1919が重畳領域となる。 For example, the resolution of the image 701 is 3520 × 1200, and the resolution of the input image to the projection device 100a and the projection device 100b is 1920 × 1200. The horizontal coordinates of the start end of the superimposed region of the image 702 are 1919, the horizontal coordinates of the end are 1600, the horizontal coordinates of the start end of the superimposed region of the image 703 are 0, and the horizontal coordinates of the end are 319. In each case, the width of the superimposed region is set to 320 pixels. At this time, the image 702 cuts out the horizontal coordinates 0 to 1919 from the image 701. Image 703 cuts out horizontal coordinates 1600 to 3519 from image 701. When cut out in this way, 1600 to 1919 of the image 701 becomes a superposed region.

色補正部603の動作は、色補正部402と同様のため説明を割愛する。 Since the operation of the color correction unit 603 is the same as that of the color correction unit 402, the description thereof will be omitted.

パターン生成部604は、制御部221から受信したパターン情報に基づき、ラスター画像やランプ画像、カラーバーなどのテストパターンを生成し、出力する。また、パターン生成部604は、後述の幾何変形処理部605に与える変形情報を制御部222が算出するために必要な格子点パターンを生成して、出力することもできる。制御部221からテストパターンを出力する指示が出た場合、パターン生成部604は、色補正部603から出力された画像を出力せず、テストパターンを出力する。一方、制御部221からテストパターンを出力する指示が出ていない場合、パターン生成部604は、色補正部603から出力された画像をそのまま出力する。 The pattern generation unit 604 generates and outputs a test pattern such as a raster image, a lamp image, and a color bar based on the pattern information received from the control unit 221. Further, the pattern generation unit 604 can also generate and output a grid point pattern necessary for the control unit 222 to calculate the deformation information given to the geometric deformation processing unit 605, which will be described later. When the control unit 221 issues an instruction to output the test pattern, the pattern generation unit 604 does not output the image output from the color correction unit 603, but outputs the test pattern. On the other hand, when the control unit 221 does not give an instruction to output the test pattern, the pattern generation unit 604 outputs the image output from the color correction unit 603 as it is.

幾何変形処理部605は、色補正部603から入力された画像を任意形状に変形する。幾何変形処理部605は、画像を変形し、フレームメモリ606に書き込む。幾何変形処理部605は、フレームメモリ606から変形後の画像を読み出し、出力する。幾何変形処理部605は、所定の変形式に基づいて変形前後の画素の座標を求め、変形後の画像を出力する。幾何変形処理部605は、画像を任意形状に変形する方法として、格子点補間を用いる。 The geometric deformation processing unit 605 transforms the image input from the color correction unit 603 into an arbitrary shape. The geometric deformation processing unit 605 deforms the image and writes it in the frame memory 606. The geometric deformation processing unit 605 reads the deformed image from the frame memory 606 and outputs it. The geometric deformation processing unit 605 obtains the coordinates of the pixels before and after the deformation based on a predetermined deformation formula, and outputs the image after the deformation. The geometric transformation processing unit 605 uses grid point interpolation as a method of transforming an image into an arbitrary shape.

図8は、幾何変形処理部605が実行する幾何補正処理における画素の補間方法を示す模式図である。図8(a)は、変形前の画像を示す。図8(b)は変形後の画像を示す。格子点P1、P2、P3、P4は、変形後の画像における画素Dの補間に用いる格子点である。 FIG. 8 is a schematic diagram showing a pixel interpolation method in the geometric correction processing executed by the geometric deformation processing unit 605. FIG. 8A shows an image before deformation. FIG. 8B shows an image after deformation. The grid points P1, P2, P3, and P4 are grid points used for interpolating the pixel D in the deformed image.

図8(a)の変形前画像の座標Sは、格子点P1を移動させた図8(b)の変形後画像の座標Dに対応する。P1’は、格子点P1と座標Sを通る直線と、格子点P2とP4を結ぶ線分との交点である。変形前画像の座標Sの位置を線分P1−P1’のα:1−αの位置とする。点P1’の位置は格子点P2とP4のβ:1−βの位置とする。 The coordinates S of the pre-deformation image of FIG. 8 (a) correspond to the coordinates D of the post-deformation image of FIG. 8 (b) in which the grid point P1 is moved. P1'is an intersection of a straight line passing through the grid points P1 and the coordinates S and a line segment connecting the grid points P2 and P4. The position of the coordinates S of the image before deformation is defined as the position of α: 1-α of the line segment P1-P1'. The position of the point P1'is the position of β: 1-β of the lattice points P2 and P4.

変形後画像の座標Dも、各格子点P1、P2、P3、P4の座標と各比率とから求めることができる。このとき、変形後画像の座標Dが整数であれば、これをそのまま変形前画像の座標Sの画素値としてよい。しかし、補間で求められる変形後の座標は整数になるとは限らない。その場合は、変形後画像の座標Dの周辺画素の画素値を用いて補間することで、変形後画像の座標Dの持つ画素値を求める。補間の方法は、バイリニア、バイキュービック、その他の任意の補間方法を用いればよい。 The coordinates D of the deformed image can also be obtained from the coordinates of the grid points P1, P2, P3, and P4 and each ratio. At this time, if the coordinate D of the transformed image is an integer, this may be used as it is as the pixel value of the coordinate S of the untransformed image. However, the transformed coordinates obtained by interpolation are not always integers. In that case, the pixel value of the coordinate D of the deformed image is obtained by interpolating using the pixel values of the peripheral pixels of the coordinate D of the deformed image. As the interpolation method, bilinear, bicubic, or any other interpolation method may be used.

また、幾何変形処理部605によって変形された画像は変形前の画像より小さくなるとする。変形によって、液晶表示素子210上に、有効画像領域に含まれない領域が発生する場合には、その画素値は黒またはユーザーが設定した背景色とする。 Further, it is assumed that the image deformed by the geometric deformation processing unit 605 is smaller than the image before deformation. When a region not included in the effective image region is generated on the liquid crystal display element 210 due to the deformation, the pixel value is black or the background color set by the user.

なお、変形前画像の座標Sの変形後画像における移動先の座標Dを求める方法はこれに限定しない。 The method of obtaining the coordinates D of the movement destination in the deformed image of the coordinates S of the untransformed image is not limited to this.

幾何変形処理部605は、以上の手順で変形後画像の座標の全てについて画素値を求めることで、変形後の画像を作成する。 The geometric deformation processing unit 605 creates the deformed image by obtaining the pixel values for all the coordinates of the deformed image by the above procedure.

幾何変形処理は、スクリーン140のように曲面の投影面に画像を投影する場合に、スクリーン140上の投影画像の形状を調整するために用いられる。スクリーン140のように水平方向に湾曲している投影面に、矩形の投影画像を出力する場合、投影画像の中心部が端部よりも上下方向(垂直方向)に拡大した樽型に投影されてしまう。幾何変形処理であらかじめ投影画像の中央部の垂直方向の幅(高さ)を縮小することにより、スクリーン140上で矩形に投影画像が投影される。 The geometric deformation process is used to adjust the shape of the projected image on the screen 140 when the image is projected on the projection surface of a curved surface such as the screen 140. When a rectangular projected image is output on a horizontally curved projection surface such as the screen 140, the center of the projected image is projected into a barrel shape that is enlarged in the vertical direction (vertical direction) from the edges. It ends up. The projected image is projected onto the screen 140 in a rectangular shape by reducing the vertical width (height) of the central portion of the projected image in advance by the geometric transformation process.

図1などで示した本実施例におけるマルチ投影システムの場合、マルチ投影で投影される1つの画像の中央部分に対応する各部分画像の領域を垂直方向に縮小することによって矩形の形状でマルチ投影画像を表示することが可能となる。 In the case of the multi-projection system in the present embodiment shown in FIG. It is possible to display an image.

次に、本発明で解決される課題について、詳細に説明する。 Next, the problems solved by the present invention will be described in detail.

スクリーン140に投影画像を投影した場合、各投影装置100の投影光学系211の出力面からスクリーン140までの距離は、投影画像の水平方向の位置に応じて異なる。図2に示すように、各投影画像において、水平方向における中心部と投影光学系211の距離は、投影画像の端部と投影光学系211の距離よりも長い。したがって、各投影画像において、水平方向における中心部の画素のサイズは、投影画像の端部の画素のサイズよりも大きい。 When a projected image is projected on the screen 140, the distance from the output surface of the projection optical system 211 of each projection device 100 to the screen 140 differs depending on the position of the projected image in the horizontal direction. As shown in FIG. 2, in each projected image, the distance between the central portion and the projected optical system 211 in the horizontal direction is longer than the distance between the end portion of the projected image and the projected optical system 211. Therefore, in each projected image, the size of the pixel at the center in the horizontal direction is larger than the size of the pixel at the end of the projected image.

図9は、スクリーン140上における各投影画像の重畳領域の画素の大きさを示す模式図である。図9はそれぞれ簡単のため、各投影画像の重畳領域のうち、垂直方向における中心の画素列のみを示す。図9(a)は、投影画像101aの重畳領域の画素サイズを示す。図9(b)は、投影画像101bの重畳領域の画素サイズを示す。 FIG. 9 is a schematic diagram showing the size of pixels in the superimposed region of each projected image on the screen 140. For the sake of simplicity, FIG. 9 shows only the central pixel sequence in the vertical direction in the superimposed region of each projected image. FIG. 9A shows the pixel size of the superimposed region of the projected image 101a. FIG. 9B shows the pixel size of the superimposed region of the projected image 101b.

各四角形は、投影面上における画素を示し、四角形の中の数値は投影画像の左端を0とした時の画素の座標である。投影画像31は重畳領域の始端の画素が1919画素目で、終端が1913画素目である。投影画像32は重畳領域の始端が0画素目で、終端が6画素目である。上述したように、投影画像の中心から端部にかけて画素サイズが大きくなるとすると、投影画像101aにおいては、1919画素目から1913画素目に向って画素サイズが大きくなる。また、同様に、投影装置101bにおいては、0画素目から6画素目に向かって画素サイズが大きくなる。 Each quadrangle indicates a pixel on the projection surface, and the numerical value in the quadrangle is the coordinate of the pixel when the left end of the projected image is 0. In the projected image 31, the pixel at the beginning of the superimposed region is the 1919th pixel, and the pixel at the end is the 1913th pixel. In the projected image 32, the start end of the superimposed region is the 0th pixel and the end is the 6th pixel. As described above, assuming that the pixel size increases from the center to the edge of the projected image, the pixel size of the projected image 101a increases from the 1919th pixel to the 1913th pixel. Similarly, in the projection device 101b, the pixel size increases from the 0th pixel to the 6th pixel.

図5に示すように、重畳領域の幅の中央の画素の輝度が50%となるように各投影装置100に設定するブレンドカーブを決定したとする。投影画像において重畳領域の中央の画素は、投影画像101aにおいては、1916画素目であり、投影画像101bにおいては3画素目である。 As shown in FIG. 5, it is assumed that the blend curve to be set in each projection device 100 is determined so that the brightness of the pixel in the center of the width of the overlapping region is 50%. In the projected image, the central pixel of the superimposed region is the 1916th pixel in the projected image 101a and the third pixel in the projected image 101b.

図9(c)は、スクリーン140上で各投影画像101の重畳領域を重ねた場合の画素を示す模式図である。図9(c)において実線の矩形は、投影画像101aの画素を示す。また、破線の矩形は、投影画像101bの画素を示す。 FIG. 9C is a schematic view showing pixels when the superimposed regions of the projected images 101 are overlapped on the screen 140. In FIG. 9C, the solid rectangle indicates the pixels of the projected image 101a. The broken line rectangle indicates the pixels of the projected image 101b.

上述したように、画素のサイズが水平方向で異なることから、投影画像101aの重畳領域の中央の画素(1916画素目)と、投影画像101bの重畳領域の中央の画素(3画素目)とは、スクリーン140上で重ならない。 As described above, since the pixel sizes differ in the horizontal direction, the central pixel (1916th pixel) of the superposed region of the projected image 101a and the central pixel (third pixel) of the superposed region of the projected image 101b are different. , Do not overlap on screen 140.

図10は、図5に示したブレンドカーブを適用した投影画像101を図9(c)に示すようにスクリーン140上で重ねた場合における重畳領域の水平方向における輝度分布を示す模式図である。 FIG. 10 is a schematic diagram showing the brightness distribution in the horizontal direction of the superimposed region when the projected image 101 to which the blend curve shown in FIG. 5 is applied is overlapped on the screen 140 as shown in FIG. 9 (c).

図10において、一点破線で示した分布1001は、投影画像101aの重畳領域の輝度分布を示す。図9(a)で示した通り、投影画像101aの重畳領域の画素サイズは、投影画像101aの中心部(図中左側)から端部(図中右側)に亘って徐々に小さくなる。 In FIG. 10, the distribution 1001 shown by the alternate long and short dash line indicates the luminance distribution of the superimposed region of the projected image 101a. As shown in FIG. 9A, the pixel size of the superimposed region of the projected image 101a gradually decreases from the central portion (left side in the figure) to the end portion (right side in the figure) of the projected image 101a.

図10において、点線で示した分布1002は、投影画像101bの重畳領域の輝度分布を示す。図9(b)で示した通り、投影画像101bの重畳領域の画素サイズは、投影画像101bの中心部(図中右側)から端部(図中左側)に亘って徐々に小さくなる。 In FIG. 10, the distribution 1002 shown by the dotted line indicates the luminance distribution of the superimposed region of the projected image 101b. As shown in FIG. 9B, the pixel size of the superimposed region of the projected image 101b gradually decreases from the central portion (right side in the figure) to the end portion (left side in the figure) of the projected image 101b.

図10において、太線で示した分布1003は、投影画像101aの重畳領域と投影画像101bの重畳領域とを重ね合わせた場合の輝度分布を示す。図10に示した例はいずれも、各投影装置100に入力された部分画像が、輝度レベルが面内に亘って均一ないわゆるベタ画像である場合を示す。 In FIG. 10, the distribution 1003 shown by the thick line shows the luminance distribution when the superposed region of the projected image 101a and the superposed region of the projected image 101b are superposed. Each of the examples shown in FIG. 10 shows a case where the partial image input to each projection device 100 is a so-called solid image in which the brightness level is uniform over the plane.

図5に示したブレンドカーブは、スクリーン140上の画素サイズが水平方向に均等である各投影画像101の重畳領域を重ね合わせることによって、スクリーン140上の輝度分布が均一になるように設定された特性である。 The blend curve shown in FIG. 5 is set so that the brightness distribution on the screen 140 becomes uniform by superimposing the overlapping regions of the projected images 101 whose pixel sizes on the screen 140 are even in the horizontal direction. It is a characteristic.

図9(c)のようにスクリーン140上の画素サイズが均一でない場合、投影画像101aの重畳領域の分布1001に対して、当該画素に重畳する投影画像101bの分布1002は補間の関係を満たさない。したがって、スクリーン140上の輝度分布1003は、重畳領域において不均一となり、輝度むらとして認識されることがある。 When the pixel size on the screen 140 is not uniform as shown in FIG. 9C, the distribution 1002 of the projected image 101b superimposed on the pixel does not satisfy the interpolation relationship with respect to the distribution 1001 of the superimposed region of the projected image 101a. .. Therefore, the luminance distribution 1003 on the screen 140 becomes non-uniform in the superimposed region and may be recognized as luminance unevenness.

本実施例の制御装置120は、スクリーン140上の投影画像の画素サイズから、スクリーン140に投影される画像の輝度を推定した結果に基づいて、ブレンドカーブ設定情報を決定する。これにより、スクリーン140上の画素サイズに応じて、スクリーン140上の投影画像101の重畳領域が補間しあう様に、減光処理を適用することが可能となる。したがって、スクリーン140に投影された画像において、輝度むらの発生を抑制することが可能となる。 The control device 120 of this embodiment determines the blend curve setting information based on the result of estimating the brightness of the image projected on the screen 140 from the pixel size of the projected image on the screen 140. This makes it possible to apply the dimming process so that the superimposed regions of the projected image 101 on the screen 140 are interpolated according to the pixel size on the screen 140. Therefore, it is possible to suppress the occurrence of luminance unevenness in the image projected on the screen 140.

図11は、投影システムにおける位置調整フローを示すフローチャートである。 FIG. 11 is a flowchart showing a position adjustment flow in the projection system.

出力装置110に電源が投入されると、記憶部223から映像信号が出力され、画像処理部224で画像処理が施され、出力部505から投影装置10および投影装置20に対して画像が出力される。さらに、投影装置10および20に電源が投入され、制御部203が入力部201に入力画像が入力されたことを検知すると、入力部201から画像処理部103に画像を入力する。制御部102が画像処理部103、液晶駆動部104を駆動させ、画像を投影する。その後、ユーザーが投影装置本体の位置合わせ等を行い、不図示のGUIを介したユーザーからの指示に基づいて操作部206がエッジブレンド処理を有効する。 When the power is turned on to the output device 110, a video signal is output from the storage unit 223, image processing is performed by the image processing unit 224, and an image is output from the output unit 505 to the projection device 10 and the projection device 20. To. Further, when the power is turned on to the projection devices 10 and 20 and the control unit 203 detects that the input image has been input to the input unit 201, the input unit 201 inputs the image to the image processing unit 103. The control unit 102 drives the image processing unit 103 and the liquid crystal drive unit 104 to project an image. After that, the user aligns the main body of the projection device, and the operation unit 206 enables the edge blending process based on an instruction from the user via a GUI (not shown).

制御部231は、ユーザーからの位置調整アプリケーション実行指示があったことを検知すると、フローチャートの処理を開始する。 When the control unit 231 detects that the position adjustment application execution instruction has been given by the user, the control unit 231 starts processing the flowchart.

S1101で、制御部231は、投影装置100と出力装置110とを制御して、投影装置100a、100bの少なくとも一方に、格子点パターンを投影させる。制御部231は、通信部233を介して出力装置110の制御部221に対して、格子点パターンを生成して投影装置100a、100bの少なくとも一方に出力させるための制御信号を出力する。制御部221は、パターン生成部604に格子点パターンを生成させる。また制御部221は、出力部225に生成されたパターン画像を各投影装置100に画像を出力させる。 In S1101, the control unit 231 controls the projection device 100 and the output device 110 to project the grid point pattern onto at least one of the projection devices 100a and 100b. The control unit 231 outputs a control signal for generating a grid point pattern to at least one of the projection devices 100a and 100b to the control unit 221 of the output device 110 via the communication unit 233. The control unit 221 causes the pattern generation unit 604 to generate a grid point pattern. Further, the control unit 221 causes each projection device 100 to output the pattern image generated by the output unit 225.

図12は、格子点パターンの一例を示す模式図である。格子点パターンは、水平方向5点、垂直方向5点のマトリクス状に配置された格子点群P00〜P44から構成されるとする。液晶表示素子210の解像度が1920x1200とすると、格子点(マーカー)の座標は水平方向が0、480、960、1440、1919であり、垂直方向が0、300、600、900、1199となる。各格子点の座標は、これらの組み合わせで表現される。 FIG. 12 is a schematic diagram showing an example of a grid point pattern. It is assumed that the grid point pattern is composed of grid point groups P00 to P44 arranged in a matrix of 5 points in the horizontal direction and 5 points in the vertical direction. Assuming that the resolution of the liquid crystal display element 210 is 1920x1200, the coordinates of the lattice points (markers) are 0,480,960,1440,1919 in the horizontal direction and 0,300,600,900,1199 in the vertical direction. The coordinates of each grid point are represented by a combination of these.

ユーザーは、投影された格子点パターンのうち調整対象の格子点(対象格子点)を選択し、対象格子点を移動することにより、投影画像の変形処理のパラメータ(変形情報)を設定することができる。 The user can select the grid points to be adjusted (target grid points) from the projected grid point patterns and set the parameters (deformation information) of the projection image deformation processing by moving the target grid points. it can.

S1102で、制御部231は、位置調整アプリケーションのGUIを表示部240に表示するように表示制御部238を制御する。図13は、表示部240に表示される位置調整アプリケーションのGUIを示す模式図である。GUIは、ユーザーが調整する格子点を選択する選択エリア1301と、選択した格子点の移動先を指定する移動エリア1302とを有する。またGUIは、格子点の移動位置の指定が完了したことを示す指示を出力するためのボタン1303を有する。 In S1102, the control unit 231 controls the display control unit 238 so that the GUI of the position adjustment application is displayed on the display unit 240. FIG. 13 is a schematic view showing the GUI of the position adjustment application displayed on the display unit 240. The GUI has a selection area 1301 for selecting a grid point to be adjusted by the user, and a movement area 1302 for designating a movement destination of the selected grid point. The GUI also has a button 1303 for outputting an instruction indicating that the designation of the moving position of the grid point is completed.

移動エリア1302の表示アスペクト比は、幾何変形処理部605の扱う座標系と同等とし、投影装置100の液晶表示素子210のアスペクト比と同じとする。例えば、液晶表示素子210の解像度が1920x1200であり、移動エリア1302が480x300の解像度で表示されていた場合は、4分の1に縮小している状態となる。 The display aspect ratio of the moving area 1302 is the same as the coordinate system handled by the geometric deformation processing unit 605, and is the same as the aspect ratio of the liquid crystal display element 210 of the projection device 100. For example, if the resolution of the liquid crystal display element 210 is 1920x1200 and the moving area 1302 is displayed at a resolution of 480x300, the movement area 1302 is reduced to a quarter.

S1103で、制御部231は、S1102で表示されたGUIに対するユーザーの操作により、対象格子点が選択されたか否かを判定する。選択エリア1301は、格子点パターンに含まれる格子点群から対象格子点を選択するためのGUIであり、各格子点に対応するラジオボタンを有する。ユーザーが操作部232を用いて選択エリア1301のラジオボタンのいずれかを選択することにより、対応する格子点が対象格子点として選択される。制御部231は、ユーザーにより対象格子点が選択されたと判定した場合、S1104へ移行する。制御部231は、ユーザーにより格子点が選択されていないと判定した場合、S1103の処理を繰り返す。 In S1103, the control unit 231 determines whether or not the target grid point is selected by the user's operation on the GUI displayed in S1102. The selection area 1301 is a GUI for selecting a target grid point from a grid point group included in the grid point pattern, and has a radio button corresponding to each grid point. When the user selects one of the radio buttons in the selection area 1301 using the operation unit 232, the corresponding grid point is selected as the target grid point. When the control unit 231 determines that the target grid point has been selected by the user, the control unit 231 shifts to S1104. When the control unit 231 determines that the grid points have not been selected by the user, the control unit 231 repeats the process of S1103.

S1104で、制御部231は、S1102で表示されたGUIに対するユーザーの操作により、対象格子点の移動位置が指定されたか否かを判定する。制御部231は、ユーザーにより格子点の移動位置が指定されたことを検出するとS1105へ移行する。制御部231は、ユーザーにより格子点の移動先が指定されたことを検出できない場合はS1104の処理を繰り返す。 In S1104, the control unit 231 determines whether or not the movement position of the target grid point is specified by the user's operation on the GUI displayed in S1102. When the control unit 231 detects that the movement position of the grid point has been specified by the user, the control unit 231 shifts to S1105. If the control unit 231 cannot detect that the destination of the grid points has been specified by the user, the control unit 231 repeats the process of S1104.

S1105で、制御部231は、S1104でユーザーが指定した対象格子点の移動位置(座標)を取得する。上述したように、移動エリア1302の解像度が幾何変形処理部605の座標系に対して1/4に縮小している場合に、移動エリア1302の座標(50,100)が移動位置として指定されたとする。この場合、幾何変形処理部605における対象格子点の移動位置は座標(200,400)である。 In S1105, the control unit 231 acquires the moving position (coordinates) of the target grid point specified by the user in S1104. As described above, when the resolution of the moving area 1302 is reduced to 1/4 of the coordinate system of the geometric deformation processing unit 605, the coordinates (50,100) of the moving area 1302 are specified as the moving position. To do. In this case, the moving position of the target lattice point in the geometric deformation processing unit 605 is the coordinates (200, 400).

S1106で、S1105で取得した格子点の移動位置を用いて、出力装置110の幾何変形処理部605に送信するための変形情報を更新する。 In S1106, the deformation information to be transmitted to the geometric deformation processing unit 605 of the output device 110 is updated by using the moving position of the grid point acquired in S1105.

S1107で、制御部231は、格子点の移動位置の指定が完了したか否かを判定する。格子点の移動位置の指定が完了したことを示す指示は、ユーザーがGUIのボタン1303を押下することによって入力される。制御部231は、ユーザーから格子点の移動が完了したことを示す指示が有ったと判定した場合、処理をS1108へ移行する。格子点の移動が完了したことを示す指示が無いと判定した場合、S1103へ処理を移行する。 In S1107, the control unit 231 determines whether or not the designation of the moving position of the grid point is completed. The instruction indicating that the designation of the moving position of the grid point is completed is input by the user pressing the button 1303 of the GUI. When the control unit 231 determines that the user has instructed that the movement of the grid points has been completed, the control unit 231 shifts the process to S1108. When it is determined that there is no instruction indicating that the movement of the grid points is completed, the process is shifted to S1103.

S1108で、制御部231がS1107までに更新した変形情報を、通信部233を介して、出力装置110に送信する。制御部221は、通信部222を介して受信した変形情報を用いて、幾何変形処理を適用するように幾何変形処理部605を制御する。幾何変形処理部605は制御部221から受信した変形情報に従って、入力された画像に対して幾何学変形を適用する。 In S1108, the deformation information updated by the control unit 231 up to S1107 is transmitted to the output device 110 via the communication unit 233. The control unit 221 controls the geometric deformation processing unit 605 so as to apply the geometric deformation processing by using the deformation information received via the communication unit 222. The geometric deformation processing unit 605 applies the geometric deformation to the input image according to the deformation information received from the control unit 221.

図14は、S1107で格子点の移動位置の指定が完了した時点での格子点の移動先を示す模式図である。図14(a)は、幾何変形処理部605の座標系における格子点の移動先を示す。図14(b)は、投影画像101aにおける格子点の移動先を示す。 FIG. 14 is a schematic diagram showing the destination of the movement of the grid points when the designation of the movement position of the grid points is completed in S1107. FIG. 14A shows the destination of the grid points in the coordinate system of the geometric deformation processing unit 605. FIG. 14B shows the destination of the grid points in the projected image 101a.

図14(a)の実線で示した枠1401は、格子点の移動先を指定する前の格子点パターンの形状(変形前形状)を示す。点線で示した枠1402は、S1107までの処理で指定された格子点の移動が反映された格子点パターンの形状(変形後形状)を示す。 The frame 1401 shown by the solid line in FIG. 14A shows the shape of the grid point pattern (shape before deformation) before designating the movement destination of the grid points. The frame 1402 shown by the dotted line shows the shape (deformed shape) of the grid point pattern reflecting the movement of the grid points specified in the processing up to S1107.

図14(b)の実線で示した枠1403は、図14(a)で示した変形前形状の格子点パターンに基づいて投影装置100aが画像を投影した場合にスクリーン140上に投影される画像(格子点パターン)を示す。図14(b)の点線で示した枠1404は、図14(a)で示した変形後形状の格子点パターンに基づいて投影装置100aが画像を投影した場合にスクリーン140上に投影される画像(格子点パターン)を示す。図14(b)の一点破線で示した枠1405は、投影装置100bに対して同様に幾何変形処置が適用された場合の投影画像101bの投影位置を示す。 The frame 1403 shown by the solid line in FIG. 14 (b) is an image projected on the screen 140 when the projection device 100a projects an image based on the grid point pattern of the shape before deformation shown in FIG. 14 (a). (Lattice point pattern) is shown. The frame 1404 shown by the dotted line in FIG. 14 (b) is an image projected on the screen 140 when the projection device 100a projects an image based on the grid point pattern of the deformed shape shown in FIG. 14 (a). (Lattice point pattern) is shown. The frame 1405 shown by the alternate long and short dash line in FIG. 14B shows the projection position of the projected image 101b when the geometric deformation treatment is similarly applied to the projection device 100b.

S1109で、制御部231は、投影条件取得部234にスクリーン140上の画素サイズを推定するよう指示を出す。本実施例において、スクリーン140は、水平方向に一定の曲率を有する円筒型のスクリーンである。また、各投影画像の重畳領域は、投影画像の水平方向の右端または左端である。したがって、投影条件取得部234は、水平方向の画素サイズについて推定する。 In S1109, the control unit 231 instructs the projection condition acquisition unit 234 to estimate the pixel size on the screen 140. In this embodiment, the screen 140 is a cylindrical screen having a constant curvature in the horizontal direction. Further, the superimposed region of each projected image is the right end or the left end in the horizontal direction of the projected image. Therefore, the projection condition acquisition unit 234 estimates the pixel size in the horizontal direction.

図15は、スクリーン上における投影画像の垂直方向における中心列の画素群の大きさおよび境界を示す模式図である。 FIG. 15 is a schematic view showing the size and boundary of the pixel group of the central row in the vertical direction of the projected image on the screen.

投影条件取得部234は、図14(a)における格子点P20〜P24の移動位置(座標)を用いて3次スプライン補間を行うことにより、各画素間の境界座標xを算出する。この3次スプライン補間により、図15に示すように水平方向の全画素間の移動後の境界座標x(i=0〜1920)が求められる。 The projection condition acquisition unit 234 calculates the boundary coordinates x i between each pixel by performing tertiary spline interpolation using the moving positions (coordinates) of the grid points P20 to P24 in FIG. 14A. By this cubic spline interpolation, as shown in FIG. 15, the boundary coordinates x i (i = 0 to 1920) after the movement between all the pixels in the horizontal direction can be obtained.

P21とP23は、P22に近づくように移動されているため、外側の画素ほど移動量が大きくなるような変形を幾何変形処理部605で施している。図15に示すように幾何変形処理部605の座標系における移動後の各画素の画素サイズXwは、画素間の境界座標xの間の距離であり、式1を用いて表される。 Since P21 and P23 are moved so as to approach P22, the geometric deformation processing unit 605 performs deformation so that the amount of movement increases as the outer pixel increases. Pixel size Xw i of each pixel after the movement in the coordinate system of the geometric transformation processing section 605 as shown in FIG. 15 is the distance between the boundary coordinate x i between the pixels is represented using Equation 1.

Xw=xi+1−x ・・・(式1)
Xwの最大値を1として正規化したものをXw’とする。図16(a)は、幾何変形処理部605の座標系における水平方向の画素列における画素の位置に対する画素のサイズ(境界座標間の距離)Xw’の変化を示す模式図である。
Xw i = x i + 1 −x i ... (Equation 1)
Those obtained by normalizing the maximum value of xw i as 1 and xw i '. Figure 16 (a) is a schematic diagram showing changes in Xw i '(the distance between the boundary coordinates) size of the pixel relative to the position of pixels in the horizontal direction of the pixel rows in the coordinate system of the geometric transformation processing unit 605.

投影面上の画素サイズXSは幾何変形処理部605の座標系で求めた画素サイズの逆数となり、式2を用いて表される。 The pixel size XS i on the projection surface is the reciprocal of the pixel size obtained in the coordinate system of the geometric deformation processing unit 605, and is expressed using Equation 2.

XS=1/Xw’ ・・・(式2)
図16(b)は、スクリーン140上における水平方向の画素列における画素の位置に対する画素のサイズ(境界座標間の距離)XSの変化を示す模式図である。幾何変形処理部605の座標系において格子点間隔が狭い箇所ほど、スクリーン140上では画素サイズが大きくなる。
XS i = 1 / Xw i '・ ・ ・ (Equation 2)
FIG. 16B is a schematic diagram showing a change in pixel size (distance between boundary coordinates) XS i with respect to a pixel position in a horizontal pixel array on the screen 140. In the coordinate system of the geometric deformation processing unit 605, the narrower the grid point spacing, the larger the pixel size on the screen 140.

S1110で、ゲイン決定部235は、S1112で求めたスクリーン140上の画素サイズXSとブレンド幅に基づき、各画素のブレンド率を示すブレンドカーブを算出する。 In S1110, the gain determination unit 235 calculates a blend curve indicating the blend ratio of each pixel based on the pixel size XS i on the screen 140 and the blend width obtained in S1112.

ゲイン決定部235は、スクリーン140上に投影された投影画像の重畳領域の中央の画素bを特定する。ゲイン決定部235は、重畳領域の半分の幅Bwを求める。幅Bwは、式3に基づいて取得される。なお、bは重畳領域の始端画素座標(画像の中央から遠いほうの端。ブレンド率0%)、bは重畳領域の終端画素座標(画像の中央に近いほうの端。ブレンド率100%)である。 Gain determining unit 235 identifies the center pixel b c of the overlapping region of the projection image on the screen 140. The gain determination unit 235 obtains a width Bw that is half the width of the superposed region. The width Bw is obtained based on Equation 3. Incidentally, b s are the starting end pixel coordinates of the superimposed region (farthest end from the center of the image. Blend ratio 0%), b e the end closer to the center of the end pixel coordinates (image of the superimposed region. Blend 100% ).

Figure 2021064848
Figure 2021064848

この重畳領域の半分の幅Bwに最も近い位置にある画素をbとして求める。 Obtain the pixel located closest to the half of the width Bw of the overlapping region as a b c.

画素サイズの分布XSが図16(b)に示した分布であり、重畳領域が水平位置における1630画素から1919画素の間であるとする。画素bは、図16(b)の斜線領域の面積を二等分する位置の画素である。 It is assumed that the pixel size distribution XS i is the distribution shown in FIG. 16 (b), and the overlapping region is between 1630 pixels and 1919 pixels in the horizontal position. The pixel b c is a pixel at a position that bisects the area of the shaded area in FIG. 16 (b).

ゲイン決定部235は、画素bにおいてブレンド率50%となるように重畳領域の始端から終端をつなぐブレンドカーブを生成する。例えば、ブレンド率0%の始端b、ブレンド率50%のb、ブレンド率100%の終端bの3点の3次スプライン補間によって、各点間の画素のブレンド率を算出でき、ブレンドカーブを生成できる。投影装置10と投影装置20のそれぞれのブレンドカーブを生成する。生成したブレンドカーブを、ブレンドカーブ設定情報としてRAM237に格納する。 Gain determining unit 235 generates a blend curve connecting the end from the beginning of the overlap region so that the blend ratio of 50% in the pixel b c. For example, the blend ratio of 0% starting b s, blend ratio of 50% b c, the cubic spline interpolation three points of the blend of 100% termination b e, can be calculated blending ratio of the pixels between points, the blend Can generate curves. Each blend curve of the projection device 10 and the projection device 20 is generated. The generated blend curve is stored in the RAM 237 as the blend curve setting information.

図17は、ゲイン決定部235が決定したブレンドカーブを示す模式図である。図17(a)は、投影装置100aに対して設定されたブレンドカーブを示す模式図である。図17(a)において、横軸は画像の水平方向の位置を示す。投影装置100aの投影画像101aが投影画像101bと隣接する方向における位置であるともいえる。縦軸は、減光処理部403が画像に適用するゲインを示す。 FIG. 17 is a schematic diagram showing a blend curve determined by the gain determination unit 235. FIG. 17A is a schematic view showing a blend curve set for the projection device 100a. In FIG. 17A, the horizontal axis indicates the horizontal position of the image. It can be said that the projected image 101a of the projection device 100a is a position in a direction adjacent to the projected image 101b. The vertical axis shows the gain applied to the image by the dimming processing unit 403.

図17(a)に示すように、投影装置100aに対して設定されたブレンドカーブでは、画像の重畳領域の始端(画像の端部)から終端(重畳領域の左側の端部)にかけてゲインが小さくなる。また、点線で示したブレンドカーブは、図5(a)に示した平面の投影面を想定したブレンドカーブである。スクリーン140上における各投影画素の距離(画素サイズ)に基づいてブレンドカーブを決定したことにより、重畳領域は平面を想定したブレンドカーブよりも下に凸の形状となる。すなわち、重畳領域におけるゲインが平面を想定した場合のゲイン以下に決定される。 As shown in FIG. 17A, in the blend curve set for the projection device 100a, the gain is small from the start end (the end portion of the image) to the end (the left end portion of the overlay region) of the superimposed region of the image. Become. The blend curve shown by the dotted line is a blend curve assuming the projection plane of the plane shown in FIG. 5 (a). By determining the blend curve based on the distance (pixel size) of each projected pixel on the screen 140, the superimposed region has a shape that is convex downward from the blend curve assuming a flat surface. That is, the gain in the superposed region is determined to be less than or equal to the gain when a plane is assumed.

図17(b)に示すように、投影装置100bに対して設定されたブレンドカーブでは、画像の重畳領域の始端(画像の端部)から終端(重畳領域の左側の端部)にかけてゲインが小さくなる。また、点線で示したブレンドカーブは、図5(b)に示した平面の投影面を想定したブレンドカーブである。スクリーン140上における各投影画素の距離(画素サイズ)に基づいてブレンドカーブを決定したことにより、重畳領域は平面を想定したブレンドカーブよりも下に凸の形状となる。すなわち、重畳領域におけるゲインが平面を想定した場合のゲイン以下に決定される。 As shown in FIG. 17B, in the blend curve set for the projection device 100b, the gain is small from the start end (edge of the image) to the end (left end of the overlay region) of the superimposed region of the image. Become. The blend curve shown by the dotted line is a blend curve assuming the projection plane of the plane shown in FIG. 5 (b). By determining the blend curve based on the distance (pixel size) of each projected pixel on the screen 140, the superimposed region has a shape that is convex downward from the blend curve assuming a flat surface. That is, the gain in the superposed region is determined to be less than or equal to the gain when a plane is assumed.

図17(c)は、図17(a)、(b)で示されたブレンドカーブを適用された画像に基づいて各投影装置100が画像を投影した場合におけるスクリーン140上の画像の輝度を示す。スクリーン140上における各投影画素の距離(画素サイズ)に基づいてブレンドカーブを決定したことにより、スクリーン140上で重ね合わされた重畳領域における輝度むらの発生が抑制される。 FIG. 17 (c) shows the brightness of the image on the screen 140 when each projection device 100 projects the image based on the image to which the blend curve shown in FIGS. 17 (a) and 17 (b) is applied. .. By determining the blend curve based on the distance (pixel size) of each projected pixel on the screen 140, the occurrence of luminance unevenness in the superimposed region superimposed on the screen 140 is suppressed.

S1111で、ゲイン決定部235がS1110で生成したブレンドカーブ設定情報を通信部233を介して、各投影装置100へ送信する。 In S1111, the gain determination unit 235 transmits the blend curve setting information generated in S1110 to each projection device 100 via the communication unit 233.

制御部203は、通信部202を介して受信したブレンドカーブ設定情報を設定部404に送信し、減光処理部403は当該ブレンドカーブ設定情報に基づくブレンドカーブで減光処理を適用する。 The control unit 203 transmits the blend curve setting information received via the communication unit 202 to the setting unit 404, and the dimming processing unit 403 applies the dimming processing with the blend curve based on the blend curve setting information.

S1112で、制御部231は、ユーザーが操作部232を介して一連の操作を完了する指示が有ったか否かを判断する。制御部231は、操作を完了する指示が有ったと判断した場合は、位置調整アプリケーションを終了させ本フローチャートの処理を終了する。制御部231は、操作を完了する指示が無く、再調整等を行うための指示が有ったと判断した場合は、S1103へ戻る。 In S1112, the control unit 231 determines whether or not the user has been instructed to complete a series of operations via the operation unit 232. When the control unit 231 determines that there is an instruction to complete the operation, the control unit 231 terminates the position adjustment application and ends the processing of this flowchart. When the control unit 231 determines that there is no instruction to complete the operation and there is an instruction to perform readjustment or the like, the process returns to S1103.

以上で、重畳領域のブレンドカーブの調整を行う方法について説明した。本実施例では、ブレンドカーブを算出する際、ブレンド率50%となる位置を基準に求めるものとして説明したが、重畳領域の輝度が均一になるようにブレンドカーブを算出できれば、本発明の要旨内で変更可能である。 The method of adjusting the blend curve of the superposed region has been described above. In the present embodiment, the blend curve is calculated based on the position where the blend ratio is 50%. However, if the blend curve can be calculated so that the brightness of the superimposed region becomes uniform, it is within the gist of the present invention. It can be changed with.

本実施例では、ブレンドカーブは3次スプライン補間によって、代表点(始端、終端、ブレンド率50%の座標)間の画素のブレンド率を算出した。例えば、投影画像101aと投影画像101bの重なり合う画素の関係を画素サイズ算出結果に基づいて求め、重なり合う画素に対するブレンド率の合計が100%になるようにブレンドカーブを決めるように計算してもよい。 In this embodiment, the blend curve calculates the blend rate of pixels between representative points (coordinates of start end, end point, and blend rate of 50%) by cubic spline interpolation. For example, the relationship between the overlapping pixels of the projected image 101a and the projected image 101b may be obtained based on the pixel size calculation result, and the blend curve may be determined so that the total blending ratio for the overlapping pixels is 100%.

また、投影条件取得部234で取得した画素サイズに基づいて、重畳領域の端部のうち画像の中心に近いほうの端部(終端)の画素サイズで正規化した画素サイズ比を、基準ブレンドカーブに乗算することで、ブレンドカーブの形状を算出する構成としてもよい。このとき、基準ブレンドカーブは、すべての画素の画素サイズ比が1であるときに、投影面上で重なり合う画素に対するブレンド率の合計が100%になるように決定すればよい。 Further, based on the pixel size acquired by the projection condition acquisition unit 234, the pixel size ratio normalized by the pixel size of the end (terminal) closer to the center of the image among the edges of the superposed region is used as a reference blend curve. The shape of the blend curve may be calculated by multiplying by. At this time, the reference blend curve may be determined so that when the pixel size ratio of all the pixels is 1, the total blending ratio of the overlapping pixels on the projection surface is 100%.

また、本実施例では、画素サイズの算出を、幾何変形処理部605で変形するための変形情報から算出する方法を説明したが、投影面上における画素サイズを推定できる情報であれば、これに限定しない。例えば、投影面上の曲率半径と投射距離からスクリーン140上の画素サイズを算出してもよい。 Further, in this embodiment, the method of calculating the pixel size from the deformation information for deformation by the geometric deformation processing unit 605 has been described, but if the information can estimate the pixel size on the projection surface, it can be calculated. Not limited. For example, the pixel size on the screen 140 may be calculated from the radius of curvature on the projection surface and the projection distance.

また、本実施例では投影装置100a、100b、出力装置110、制御装置120の構成で説明したが、出力装置110と制御装置120を1つの装置として構成してもよい。投影条件取得部234、ゲイン決定部235を制御装置120でなく、他の装置(例えば投影装置10,20)に内蔵してもよい。これらの構成は、要旨の範囲内で種々の変形及び変更が可能である。 Further, in this embodiment, the configurations of the projection devices 100a and 100b, the output device 110, and the control device 120 have been described, but the output device 110 and the control device 120 may be configured as one device. The projection condition acquisition unit 234 and the gain determination unit 235 may be built in other devices (for example, projection devices 10 and 20) instead of the control device 120. These configurations can be modified and modified in various ways within the scope of the gist.

(その他の実施例)
本発明は、上述の実施例の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other Examples)
The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to these embodiments, and various modifications and modifications can be made within the scope of the gist thereof.

100 投影装置
110 出力装置
120 制御装置
140 スクリーン
201 入力部
202 通信部
203 制御部
204 画像処理部204
208 光源
209 照明光学系
210 液晶表示素子
211 投影光学系
221 制御部
222 通信部
224 画像処理部
225 出力部
231 制御部
233 通信部
234 投影条件取得部
235 ゲイン決定部
100 Projection device 110 Output device 120 Control device 140 Screen 201 Input unit 202 Communication unit 203 Control unit 204 Image processing unit 204
208 Light source 209 Illumination optical system 210 Liquid crystal display element 211 Projection optical system 221 Control unit 222 Communication unit 224 Image processing unit 225 Output unit 231 Control unit 233 Communication unit 234 Projection condition acquisition unit 235 Gain determination unit

Claims (14)

マルチ投影でスクリーン上に画像を表示する投影装置を制御する制御装置であって、
前記投影装置に入力される入力画像に対して幾何補正処理に関する情報を取得する取得手段と、
前記情報に基づいて、前記投影装置が前記入力画像に対して適用する減光処理に用いるゲインを決定する決定手段と、
を有する制御装置。
A control device that controls a projection device that displays an image on the screen in multi-projection.
An acquisition means for acquiring information on geometric correction processing for an input image input to the projection device, and
Based on the information, a determining means for determining the gain used for the dimming process applied to the input image by the projection device, and
Control device with.
前記取得手段は、前記入力画像を生成し、前記投影装置に出力する出力装置から前記情報を取得することを特徴とする請求項1に記載の制御装置。 The control device according to claim 1, wherein the acquisition means acquires the information from an output device that generates the input image and outputs the input image to the projection device. 前記決定手段は、前記情報に基づいて前記スクリーン上に投影される画像のうち複数の投影装置が投影した画像が重なる重畳領域における画素のサイズを取得し、前記画素のサイズに基づいて、前記ゲインを決定することを特徴とする請求項1または2に記載の制御装置。 The determination means acquires the size of a pixel in a superposed region where images projected by a plurality of projection devices overlap among the images projected on the screen based on the information, and the gain is based on the size of the pixel. The control device according to claim 1 or 2, wherein the control device is determined. 前記取得手段は、前記スクリーンの形状と投射距離とを取得し、
前記決定手段は、前記スクリーンの形状と前記投射距離とに基づいて、前記スクリーン上に投影される画像のうち複数の投影装置が投影した画像が重なる重畳領域における画素のサイズを取得し、前記画素のサイズに基づいて、前記ゲインを決定することを特徴とする請求項1または2に記載の制御装置。
The acquisition means acquires the shape of the screen and the projection distance, and obtains the image.
Based on the shape of the screen and the projection distance, the determination means acquires the size of pixels in a superposed region in which images projected by a plurality of projection devices overlap among the images projected on the screen, and the pixels. The control device according to claim 1 or 2, wherein the gain is determined based on the size of the above.
前記決定手段は、
前記画素のサイズに基づいて、前記重畳領域の端部のうち画像の中心に近いほうの端部の画素サイズで正規化した画素サイズ比を算出し、
全ての画素の画素サイズ比が1であるときに、前記スクリーン上で重なり合う画素に対するブレンド率の合計が100%になるようにあらかじめ定められたブレンドカーブを基準ブレンドカーブというとき、
前記画素サイズ比を前記基準ブレンドカーブに乗算することでブレンドカーブの形状を設定する
ことを特徴とする請求項3または4に記載の制御装置。
The determination means is
Based on the pixel size, the pixel size ratio normalized by the pixel size of the edge of the superposed region closer to the center of the image is calculated.
When the blend curve predetermined so that the total blend ratio for the overlapping pixels on the screen is 100% when the pixel size ratio of all the pixels is 1, the reference blend curve is defined as the reference blend curve.
The control device according to claim 3 or 4, wherein the shape of the blend curve is set by multiplying the reference blend curve by the pixel size ratio.
出力装置から取得した入力画像に基づいて、マルチ投影でスクリーン上に画像を表示する投影装置であって、
前記出力装置が前記入力画像に対して適用した幾何補正処理に関する情報から決定されたゲインを取得する取得手段と、
前記ゲインに基づいて、前記入力画像のうち、他の投影装置が投影する画像と重畳する領域に対して減光処理を適用する処理手段と、
を有する投影装置。
It is a projection device that displays an image on the screen by multi-projection based on the input image acquired from the output device.
An acquisition means for acquiring a gain determined from information on the geometric correction process applied to the input image by the output device.
A processing means for applying dimming processing to a region of the input image that overlaps with an image projected by another projection device based on the gain.
Projection device with.
マルチ投影でスクリーン上に画像を表示する投影システムであって、
複数の投影装置と、
前記複数の投影装置に対して幾何補正処理を適用した入力画像を出力する出力装置と、
前記複数の投影装置と前記出力装置とを制御する制御装置と、を有し、
前記投影装置は、前記入力画像に対して適用された幾何補正処理に関する情報に基づいて、前記入力画像のうち複数の投影装置から投影された画像が重畳する領域に対して減光処理を適用する
ことを特徴とする投影システム。
It is a projection system that displays an image on the screen with multi-projection.
With multiple projection devices
An output device that outputs an input image to which geometric correction processing is applied to the plurality of projection devices, and an output device.
It has a control device for controlling the plurality of projection devices and the output device.
The projection device applies a dimming process to a region of the input image on which images projected from a plurality of projection devices are superimposed, based on information on the geometric correction process applied to the input image. A projection system characterized by that.
マルチ投影でスクリーン上に画像を表示する投影装置の制御方法であって、
前記投影装置に入力される入力画像に対して幾何補正処理に関する情報を取得する取得工程と、
前記情報に基づいて、前記投影装置が前記入力画像に対して適用する減光処理に用いるゲインを決定する決定工程と、
を有する制御方法。
It is a control method of a projection device that displays an image on the screen by multi-projection.
An acquisition process for acquiring information on geometric correction processing for an input image input to the projection device, and
A determination step of determining the gain used for the dimming process applied to the input image by the projection device based on the information.
Control method having.
前記取得工程は、前記入力画像を生成し前記投影装置に出力する出力装置から前記情報を取得することを特徴とする請求項8に記載の制御方法。 The control method according to claim 8, wherein the acquisition step acquires the information from an output device that generates the input image and outputs the input image to the projection device. 前記決定工程は、前記情報に基づいて前記スクリーン上に投影される画像のうち複数の投影装置が投影した画像が重なる重畳領域における画素のサイズを取得し、前記画素のサイズに基づいて、前記ゲインを決定することを特徴とする請求項8または9に記載の制御方法。 In the determination step, the pixel size in the superposed region where the images projected by the plurality of projection devices overlap among the images projected on the screen based on the information is acquired, and the gain is obtained based on the pixel size. The control method according to claim 8 or 9, wherein the control method is determined. 前記取得工程は、前記スクリーンの形状と投射距離とを取得し、
前記決定工程は、前記スクリーンの形状と前記投射距離とに基づいて、前記スクリーン上に投影される画像のうち複数の投影装置が投影した画像が重なる重畳領域における画素のサイズを取得し、前記画素のサイズに基づいて、前記ゲインを決定することを特徴とする請求項8または9に記載の制御方法。
In the acquisition step, the shape of the screen and the projection distance are acquired.
In the determination step, based on the shape of the screen and the projection distance, the size of the pixel in the superposed region where the images projected by the plurality of projection devices overlap among the images projected on the screen is acquired, and the pixel size is obtained. The control method according to claim 8 or 9, wherein the gain is determined based on the size of the above.
前記決定工程は、
前記画素のサイズに基づいて、前記重畳領域の端部のうち画像の中心に近いほうの端部の画素サイズで正規化した画素サイズ比を算出し、
全ての画素の画素サイズ比が1であるときに、前記スクリーン上で重なり合う画素に対するブレンド率の合計が100%になるようにあらかじめ定められたブレンドカーブを基準ブレンドカーブというとき、
前記画素サイズ比を前記基準ブレンドカーブに乗算することでブレンドカーブの形状を設定する
ことを特徴とする請求項10または11に記載の制御方法。
The determination step is
Based on the pixel size, the pixel size ratio normalized by the pixel size of the edge of the superposed region closer to the center of the image is calculated.
When the blend curve predetermined so that the total blend ratio for the overlapping pixels on the screen is 100% when the pixel size ratio of all the pixels is 1, the reference blend curve is defined as the reference blend curve.
The control method according to claim 10 or 11, wherein the shape of the blend curve is set by multiplying the reference blend curve by the pixel size ratio.
請求項8から12のいずれか1項に記載の制御方法をプロセッサが実行するためのプログラム。 A program for a processor to execute the control method according to any one of claims 8 to 12. 請求項8から12のいずれか1項に記載の制御方法をプロセッサが実行するためのプログラムを記憶する記憶媒体。 A storage medium for storing a program for a processor to execute the control method according to any one of claims 8 to 12.
JP2019187543A 2019-10-11 2019-10-11 Control device, projection device, projection system, control method of the projection device, program, and storage medium Pending JP2021064848A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187543A JP2021064848A (en) 2019-10-11 2019-10-11 Control device, projection device, projection system, control method of the projection device, program, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187543A JP2021064848A (en) 2019-10-11 2019-10-11 Control device, projection device, projection system, control method of the projection device, program, and storage medium

Publications (1)

Publication Number Publication Date
JP2021064848A true JP2021064848A (en) 2021-04-22

Family

ID=75486598

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187543A Pending JP2021064848A (en) 2019-10-11 2019-10-11 Control device, projection device, projection system, control method of the projection device, program, and storage medium

Country Status (1)

Country Link
JP (1) JP2021064848A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115424523A (en) * 2022-06-27 2022-12-02 安顺市联顺达科技有限公司 Intelligent display method and device for partition image rotation processing and electronic equipment
US12022241B2 (en) 2021-10-20 2024-06-25 Seiko Epson Corporation Image projection method and projector

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US12022241B2 (en) 2021-10-20 2024-06-25 Seiko Epson Corporation Image projection method and projector
CN115424523A (en) * 2022-06-27 2022-12-02 安顺市联顺达科技有限公司 Intelligent display method and device for partition image rotation processing and electronic equipment
CN115424523B (en) * 2022-06-27 2023-11-03 安顺市联顺达科技有限公司 Intelligent display method and device for partitioned image rotation processing and electronic equipment

Similar Documents

Publication Publication Date Title
EP2887658B1 (en) Geometric correction adjustment method
JP2012108479A (en) Projection type display device and control method thereof
JP2020088691A (en) Projection control device, control method of the same, and projection system
JP6793483B2 (en) Display devices, electronic devices and their control methods
JP5870586B2 (en) Projector control device, display device, and program.
JP3630166B2 (en) Adjusting the amount of distortion correction in the projected image
US11069038B2 (en) Information processing apparatus, information processing method, and image display apparatus
JP2017156581A (en) Projection device and control method of the same
JP2021064848A (en) Control device, projection device, projection system, control method of the projection device, program, and storage medium
US20220309967A1 (en) Projection image adjustment method, information processing device, and projection system
JP2020178221A (en) Projection control device, projection control method, and program
JP5245805B2 (en) Projector, control method therefor, and control program therefor
JP2010130385A (en) Image display method and image display device
JP2019033339A (en) Information processing apparatus, projection apparatus, information processing method, and program
JP3959740B2 (en) Projector and image correction method
JP6028372B2 (en) Display control apparatus, image processing apparatus, image control method, and program
JP2021118465A (en) Control device, projection control method, projection system, program, and storage medium
WO2015163251A1 (en) Image-outputting device, image-outputting method, and recording medium
JP2019191443A (en) Projection device
JP2017032679A (en) Projector, image processing device, image projection system, program and image projection method
JP2020191586A (en) Projection device
US11917341B2 (en) Control method for projector and projector
JP7322910B2 (en) Information processing device and information processing system
JP7327958B2 (en) Display device
JP7224969B2 (en) image projection device