Nothing Special   »   [go: up one dir, main page]

JP6051828B2 - Display device and control method of display device - Google Patents

Display device and control method of display device Download PDF

Info

Publication number
JP6051828B2
JP6051828B2 JP2012269090A JP2012269090A JP6051828B2 JP 6051828 B2 JP6051828 B2 JP 6051828B2 JP 2012269090 A JP2012269090 A JP 2012269090A JP 2012269090 A JP2012269090 A JP 2012269090A JP 6051828 B2 JP6051828 B2 JP 6051828B2
Authority
JP
Japan
Prior art keywords
image
unit
output
display
indicator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012269090A
Other languages
Japanese (ja)
Other versions
JP2014115802A (en
Inventor
博行 市枝
博行 市枝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2012269090A priority Critical patent/JP6051828B2/en
Priority to US14/098,638 priority patent/US9904414B2/en
Publication of JP2014115802A publication Critical patent/JP2014115802A/en
Application granted granted Critical
Publication of JP6051828B2 publication Critical patent/JP6051828B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

本発明は、表示面に画像を表示する表示装置、及び、表示装置の制御方法に関する。   The present invention relates to a display device that displays an image on a display surface and a control method for the display device.

従来、プロジェクター等の表示装置は、リモコン装置等を利用して各種機能を実行するよう構成されている(例えば、特許文献1参照)。特許文献1記載の装置は、リモコン装置を操作することで、例えば、複数の映像ソースから供給される画像を切り替える動作を行う。また、従来、表示装置において、ペン型のデバイス等を用いて位置入力操作を行うものが提案されている(例えば、特許文献2参照)。   Conventionally, a display device such as a projector is configured to execute various functions using a remote control device or the like (see, for example, Patent Document 1). The device described in Patent Literature 1 performs an operation of switching images supplied from a plurality of video sources, for example, by operating a remote control device. Conventionally, a display device that performs a position input operation using a pen-type device or the like has been proposed (see, for example, Patent Document 2).

特開2006−285167号公報JP 2006-285167 A 特開2004−272433号公報JP 2004-272433 A

特許文献2記載のように位置入力操作を行う装置においては、位置入力操作により全ての機能を操作することは難しく、例えば表示する画像を切り替える等の制御機能はリモコン装置の操作が必須とされる場合があった。このような場合、ユーザーは、位置入力操作に用いるデバイスとリモコン装置等の両方を操作しなければならず、煩雑であった。
本発明は、上述した従来の技術が有する課題を解消し、表示装置の各種機能を実行する際の操作性の向上を図ることを目的とする。
In a device that performs a position input operation as described in Patent Document 2, it is difficult to operate all functions by a position input operation, and for example, a control function such as switching an image to be displayed requires an operation of a remote control device. There was a case. In such a case, the user has to operate both the device used for the position input operation and the remote control device, which is complicated.
An object of the present invention is to solve the problems of the conventional technology described above and to improve operability when executing various functions of a display device.

上記目的を達成するために、本発明は、画像供給部から供給される画像データに基づいて画像を表示する表示手段と、指示体による操作を検出する検出手段と、前記検出手段により操作が検出された場合に操作位置を前記画像供給部に出力する出力手段と、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による前記操作位置の出力を制限する制御手段と、を備えることを特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと画像供給部への操作位置の出力が制限されるので、その後に、ユーザーは表示装置に対する指示を指示体で行うことが可能となる。これにより、指示体により操作を行う場合の操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a display unit that displays an image based on image data supplied from an image supply unit, a detection unit that detects an operation by a pointer, and an operation detected by the detection unit. An output unit that outputs the operation position to the image supply unit when the operation is performed, and an output of the operation position by the output unit when the operation detected by the detection unit is an operation that satisfies a preset condition. And a control means for restricting.
According to this configuration, when the user performs an operation corresponding to the condition set in advance by the indicator, the output of the operation position to the image supply unit is limited. Can be performed. Thereby, it is possible to improve the operability when the operation is performed with the indicator.

本発明は、上記表示装置であって、前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記表示手段による画像の表示状態を変更する機能を実行することを特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと表示状態を変更する機能が実行される。このため、ユーザーは、指示体を他のデバイス等に持ち替えることなく、表示状態を変更できるので、表示装置の表示状態を変更する際の操作性の向上を図ることができる。
The present invention is the display device, wherein the control unit changes the display state of the image by the display unit when the operation detected by the detection unit is an operation corresponding to a preset condition. It is characterized by executing a function.
According to this configuration, the function of changing the display state is executed when the user performs an operation corresponding to a condition preset by the indicator. For this reason, since the user can change the display state without changing the indicator to another device or the like, it is possible to improve the operability when changing the display state of the display device.

本発明は、上記表示装置であって、前記検出手段は、前記指示体として、ユーザーの手指を検出することを特徴とする。
この構成によれば、ユーザーは指示体となるデバイスを用意する必要がなく、手で直感的に操作できる。これにより、より一層の操作性の向上を図ることができる。
The present invention is the display device described above, wherein the detection unit detects a finger of a user as the indicator.
According to this configuration, the user does not need to prepare a device serving as an indicator and can be operated intuitively by hand. Thereby, the further improvement of operativity can be aimed at.

また、本発明は、上記表示装置であって、前記制御手段は、前記検出手段によって検出された前記手指の本数に基づいて、実行する前記機能を変更することを特徴とする。
この構成によれば、検出される手指の数に基づいて実行する機能を変更することができるので、手指の操作に対して様々な機能を割り当てることができる。これにより、ユーザーが手指で様々な操作を行えるので、より一層の操作性の向上を図ることができる。
Further, the present invention is the display device described above, wherein the control unit changes the function to be executed based on the number of fingers detected by the detection unit.
According to this configuration, since the function to be executed can be changed based on the number of detected fingers, various functions can be assigned to the operation of the fingers. Thereby, since a user can perform various operations with fingers, the operability can be further improved.

また、本発明は、上記表示装置であって、前記予め設定された条件に該当する操作は、前記操作位置の軌跡が所定の形状となるような操作であることを特徴とする。
この構成によれば、操作の特異性を高めることが可能なため、ユーザーの意図に反して表示状態に関する機能の制御を行ってしまうことがなく、より一層の操作性の向上を図ることができる。
Further, the present invention is the display device described above, wherein the operation corresponding to the preset condition is an operation such that a locus of the operation position takes a predetermined shape.
According to this configuration, since it is possible to increase the specificity of the operation, the function relating to the display state is not controlled against the user's intention, and the operability can be further improved. .

また、本発明は、上記表示装置であって、前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による操作位置の出力を停止させることを特徴とする。   Further, the present invention is the above display device, wherein the control means outputs the operation position by the output means when the operation detected by the detection means is an operation that satisfies a preset condition. It is characterized by being stopped.

また、上記目的を達成するために、本発明は、画像供給部から供給される画像データに基づいて画像を表示する表示手段を備えた表示装置の制御方法であって、指示体による操作を検出し、操作を検出した場合に操作位置を前記画像供給部に出力し、検出した操作が予め設定された条件に該当する操作である場合に、前記操作位置の出力を制限すること、を特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと画像供給部への操作位置の出力が制限されるので、その後に、ユーザーは表示装置に対する指示を指示体で行うことが可能となる。これにより、指示体により操作を行う場合の操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a control method for a display device including a display unit that displays an image based on image data supplied from an image supply unit, and detects an operation by an indicator. When the operation is detected, the operation position is output to the image supply unit, and when the detected operation is an operation corresponding to a preset condition, the output of the operation position is limited. To do.
According to this configuration, when the user performs an operation corresponding to the condition set in advance by the indicator, the output of the operation position to the image supply unit is limited. Can be performed. Thereby, it is possible to improve the operability when the operation is performed with the indicator.

本発明によれば、ユーザーが指示体を他のデバイス等に持ち替えることなく、表示状態に関する機能を制御でき、操作性の向上を図ることができる。   According to the present invention, it is possible to control functions related to the display state without changing the indicator to another device or the like, and to improve operability.

本発明の実施形態に係る表示システムの構成を示す図である。It is a figure which shows the structure of the display system which concerns on embodiment of this invention. 表示システムを構成する各部の機能ブロック図である。It is a functional block diagram of each part which comprises a display system. 表示システムの動作を示すフローチャートである。It is a flowchart which shows operation | movement of a display system. 位置指示操作に対応して表示状態を制御する機能の一例を示す図である。It is a figure which shows an example of the function which controls a display state corresponding to position instruction | indication operation. 位置指示操作に対応して表示状態を制御する機能の一例を示す図である。It is a figure which shows an example of the function which controls a display state corresponding to position instruction | indication operation. 位置指示操作に対応して表示状態を制御する機能の一例を示す図である。It is a figure which shows an example of the function which controls a display state corresponding to position instruction | indication operation. 位置指示操作に対応して表示状態を制御する機能の一例を示す図である。It is a figure which shows an example of the function which controls a display state corresponding to position instruction | indication operation.

以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、実施形態に係るプロジェクター11を用いた表示システム10の構成を示す図である。
表示装置としてのプロジェクター11は、画像供給部としてのPC(Personal Computer)13に画像信号ケーブル等により有線接続されている。PC13はモニター144を有し、例えば、モニター144に表示中の画像と同じ画像の画像データをプロジェクター11に出力する。図1には2台のPC13を図示しているが、表示システム10に接続可能なPC13の数は特に制限されない。
プロジェクター11は入力された画像データに基づいて、投射面(表示面)としてのスクリーンSCに表示画像を投射する。PC13から入力される画像データは動画像(映像)データおよび静止画像データのいずれであってもよく、プロジェクター11は入力される画像データに基づき動画像および静止画像のいずれも投射できる。また、プロジェクター11は、画像データを伝送する画像信号ケーブル等とは別に、USBケーブルやLANケーブル等の制御信号伝送用の通信回線によりPC13に接続され、この通信回線を介してPC13との間で制御データ等を送受信する。なお、制御信号伝送用の通信回線として無線通信回線を用いることも可能である。また、PC13とプロジェクター11とを接続する1本のケーブルに、画像データと、制御データとを重畳して伝送する構成としてもよい。
スクリーンSCとしては、壁面や床面に設置された幕または平板の他、壁面自体を使用してもよい。
図1に示すように、スクリーンSC上において、プロジェクター11が画像を投射可能な範囲(領域)を実投射領域5(表示可能領域)とする。なお、スクリーンSCに斜め方向から画像を投射する場合に生じる台形歪みを補正するキーストーン補正をプロジェクター11が行う場合には、補正後の矩形の領域を実投射領域5とする。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a display system 10 using a projector 11 according to an embodiment.
The projector 11 as a display device is connected to a PC (Personal Computer) 13 as an image supply unit by an image signal cable or the like. The PC 13 has a monitor 144, and for example, outputs image data of the same image as the image currently displayed on the monitor 144 to the projector 11. Although two PCs 13 are illustrated in FIG. 1, the number of PCs 13 that can be connected to the display system 10 is not particularly limited.
Based on the input image data, the projector 11 projects a display image on a screen SC as a projection surface (display surface). The image data input from the PC 13 may be either moving image (video) data or still image data, and the projector 11 can project both moving images and still images based on the input image data. The projector 11 is connected to the PC 13 via a control signal transmission communication line such as a USB cable or a LAN cable, separately from the image signal cable or the like for transmitting image data, and is connected to the PC 13 via this communication line. Send and receive control data. It is also possible to use a wireless communication line as a control signal transmission communication line. Alternatively, the image data and the control data may be superimposed and transmitted on a single cable connecting the PC 13 and the projector 11.
As the screen SC, a wall surface itself may be used in addition to a curtain or a flat plate installed on a wall surface or a floor surface.
As shown in FIG. 1, a range (area) in which the projector 11 can project an image on the screen SC is defined as an actual projection area 5 (displayable area). When the projector 11 performs keystone correction for correcting trapezoidal distortion that occurs when an image is projected on the screen SC from an oblique direction, the corrected rectangular area is set as the actual projection area 5.

また、プロジェクター11には、図示は省略するが、画像供給部として、複数のPC13の他に、DVDプレーヤーやビデオレコーダー等の画像供給装置を接続することもできる。また、プロジェクター11は、画像供給部を内蔵している構成であってもよい。すなわち、プロジェクター11が内蔵する回路により、プロジェクター11が投射する画像データを生成する構成であってもよい。
プロジェクター11は、実投射領域5内に一つの表示領域を設けて一つの画像供給部から入力された画像データに基づく画像を表示するシングル画面表示、および、実投射領域5に複数の表示領域を設けて、複数の画像供給部から入力された画像データを、複数の表示領域のそれぞれに表示させるマルチ画面表示を実行できる。
Although not shown, the projector 11 can be connected to an image supply device such as a DVD player or a video recorder in addition to a plurality of PCs 13 as an image supply unit. Further, the projector 11 may be configured to incorporate an image supply unit. In other words, the image data projected by the projector 11 may be generated by a circuit built in the projector 11.
The projector 11 provides a single display area in the actual projection area 5 and displays a single screen display based on image data input from one image supply unit, and a plurality of display areas in the actual projection area 5. It is possible to execute multi-screen display in which image data input from a plurality of image supply units is displayed in each of a plurality of display areas.

表示システム10では、スクリーンSC上で、指示体70を用いて位置指示操作を行うことが可能である。指示体70は、例えばペン型のデバイスであり、ユーザーは軸部71を手に持って、先端をスクリーンSCに押しつけるように使用する。指示体70の先端には押圧操作を検出する操作スイッチ72が設けられ、ユーザーが指示体70の先端をスクリーンSCに押し付けた場合に、操作スイッチ72がオンになる。
プロジェクター11は、指示体70の先端位置を指示位置70Aとして検出する機能を有する。プロジェクター11は、検出した指示位置70Aの座標を含む制御データを、プロジェクター11内部の回路により処理して、例えば検出した指示位置70Aの座標に基づいて画像を描画する等の処理を行うことができる。また、プロジェクター11は、指示位置70Aの座標を含む制御データをPC13に出力することもできる。
In the display system 10, it is possible to perform a position instruction operation using the indicator 70 on the screen SC. The indicator 70 is, for example, a pen-type device, and the user uses the shaft portion 71 in his hand and presses the tip against the screen SC. An operation switch 72 that detects a pressing operation is provided at the tip of the indicator 70, and the operation switch 72 is turned on when the user presses the tip of the indicator 70 against the screen SC.
The projector 11 has a function of detecting the tip position of the indicator 70 as the indication position 70A. The projector 11 can process the control data including the coordinates of the detected designated position 70A by a circuit inside the projector 11 and perform processing such as drawing an image based on the detected coordinates of the designated position 70A, for example. . The projector 11 can also output control data including the coordinates of the designated position 70 </ b> A to the PC 13.

また、表示システム10では、ペン型の指示体70に代えて、ユーザーの手の指(手指)を指示体として操作を行うことも可能である。プロジェクター11は、ユーザーの手指の位置を指示位置として検出する。さらに、プロジェクター11は、ユーザーの手指がスクリーンSCに接している場合に、接触位置を検出することが可能である。プロジェクター11は、ユーザーの手指の位置、および、手指がスクリーンSCに接触する接触位置のいずれかを指示位置として検出でき、どちらを指示位置とするかを設定できる。この場合、プロジェクター11は、ユーザーの1本の手指による操作を検出するだけでなく、複数の指により操作が行われた場合に、これら複数の指による指示位置を全て検出することもできる。   In the display system 10, it is also possible to perform an operation using a finger (finger) of the user's hand as an indicator instead of the pen-type indicator 70. The projector 11 detects the position of the user's finger as the designated position. Further, the projector 11 can detect the contact position when the user's finger is in contact with the screen SC. The projector 11 can detect either the position of the user's finger or the contact position where the finger touches the screen SC as the designated position, and can set which is designated as the designated position. In this case, the projector 11 can detect not only the operation of the user's one finger, but also can detect all the pointing positions by the plurality of fingers when the operation is performed by the plurality of fingers.

図2は、表示システム10の機能的構成を示すブロック図である。
プロジェクター11は、PC13から入力される画像データに基づいて、スクリーンSCに画像を表示するための画像処理を実行する画像処理ユニット110と、画像処理ユニット110によって処理された画像をスクリーンSCに投射する投射ユニット(表示手段)3と、スクリーンSC上の指示体70の指示位置70Aを検出する位置検出ユニット(位置検出手段)150と、これらの各部を制御する制御部103と、を備えている。
制御部103は、図示しないCPU、不揮発性メモリー、RAM等により構成され、制御部103に接続された記憶部105に記憶されている制御プログラム105Aを読み出して実行し、プロジェクター11の各部を制御する。記憶部105は、磁気的、光学的記録装置または半導体記憶素子により構成され、制御プログラム105Aを含む各種プログラム、及び、各種設定値等のデータを記憶する。
FIG. 2 is a block diagram illustrating a functional configuration of the display system 10.
Based on the image data input from the PC 13, the projector 11 projects an image processing unit 110 that performs image processing for displaying an image on the screen SC, and an image processed by the image processing unit 110 on the screen SC. A projection unit (display means) 3, a position detection unit (position detection means) 150 that detects the indicated position 70 </ b> A of the indicator 70 on the screen SC, and a control unit 103 that controls these parts are provided.
The control unit 103 includes a CPU, a non-volatile memory, a RAM, and the like (not shown). The control unit 103 reads out and executes a control program 105A stored in the storage unit 105 connected to the control unit 103, and controls each unit of the projector 11. . The storage unit 105 is configured by a magnetic or optical recording device or a semiconductor storage element, and stores various programs including a control program 105A and data such as various setting values.

制御部103には、操作部としての操作パネル41、及び、操作部としてのリモコンの操作を検出するリモコン受光部45が接続されている。
操作パネル41は、各種スイッチ及びインジケーターランプを備え、プロジェクター11の外装筐体(図示略)に配置されている。操作パネル41のスイッチが操作されると、操作されたスイッチに対応する操作信号が制御部103に出力される。
リモコン受光部45は、プロジェクター11を操作する操作者としてのユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部45は、上記リモコンから受光した赤外線信号を復調およびデコードし、リモコンにおける操作を示す操作信号を制御部103に出力する。
なお、プロジェクター11の操作は、指示体70、操作パネル41およびリモコンの他、PC13によっても実行できる。この場合、PC13はプロジェクター11を操作するための制御データを出力し、操作部として機能する。
制御部103は、操作パネル41、リモコン受光部45から入力される操作信号に基づいて、ユーザーの操作を検出し、この操作に従ってプロジェクター11を制御する。
The control unit 103 is connected with an operation panel 41 as an operation unit and a remote control light receiving unit 45 that detects an operation of a remote control as an operation unit.
The operation panel 41 includes various switches and indicator lamps, and is disposed in an exterior housing (not shown) of the projector 11. When a switch on the operation panel 41 is operated, an operation signal corresponding to the operated switch is output to the control unit 103.
The remote control light receiving unit 45 receives an infrared signal transmitted in response to a button operation by a remote control (not shown) used by a user as an operator who operates the projector 11. The remote control light receiving unit 45 demodulates and decodes the infrared signal received from the remote control, and outputs an operation signal indicating an operation on the remote control to the control unit 103.
The operation of the projector 11 can be executed by the PC 13 in addition to the indicator 70, the operation panel 41, and the remote controller. In this case, the PC 13 outputs control data for operating the projector 11 and functions as an operation unit.
The control unit 103 detects a user operation based on operation signals input from the operation panel 41 and the remote control light receiving unit 45, and controls the projector 11 according to the operation.

投射部30は、照明光学系31、光変調装置32(光変調手段)、及び投射光学系33を備えて構成される。照明光学系31は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)等からなる光源を備える。また、照明光学系31は、光源が発した光を光変調装置32に導くリフレクター及び補助リフレクター、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光を減光させる調光素子等を備えていてもよい。
光変調装置32は、照明光学系31からの光を変調して画像光を形成する。本実施形態では、透過型液晶パネルを用いて光変調装置32を構成した場合を例に挙げる。この構成では、光変調装置32はRGBの三原色に対応した3枚の液晶パネルを有し、照明光学系31が発した光はRGBの3色の色光に分離され、各色光が対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系33に射出される。
The projection unit 30 includes an illumination optical system 31, a light modulation device 32 (light modulation unit), and a projection optical system 33. The illumination optical system 31 includes a light source including a xenon lamp, an ultra high pressure mercury lamp, an LED (Light Emitting Diode), and the like. The illumination optical system 31 also includes a reflector and auxiliary reflector that guides light emitted from the light source to the light modulation device 32, a lens group (not shown) for enhancing the optical characteristics of the projection light, a polarizing plate, or light emitted from the light source. A dimming element or the like for dimming light may be provided.
The light modulation device 32 modulates the light from the illumination optical system 31 to form image light. In the present embodiment, a case where the light modulation device 32 is configured using a transmissive liquid crystal panel will be described as an example. In this configuration, the light modulation device 32 has three liquid crystal panels corresponding to the three primary colors of RGB, and the light emitted from the illumination optical system 31 is separated into three color lights of RGB, and each liquid crystal corresponds to each color light. Incident on the panel. The color light modulated by passing through each liquid crystal panel is combined by a combining optical system such as a cross dichroic prism and emitted to the projection optical system 33.

投射光学系33は、投射する画像の拡大・縮小および焦点の調整を行うレンズまたはレンズ群と、レンズを駆動してズームの度合いを調整するズーム調整用モーターおよびフォーカスの調整を行うフォーカス調整用モーター等を備える。
投射ユニット3は、投射部30とともに、投射光学系駆動部121、光変調装置駆動部119、及び、光源駆動部117を備えている。投射光学系駆動部121は、画像処理ユニット110の表示制御部107の制御に従って投射光学系33が備える各モーターを駆動する。光変調装置駆動部119は、表示制御部107から出力される画像信号に基づいて光変調装置32を駆動して描画を行う。光源駆動部117は、制御部103の制御に従って照明光学系31が備える光源を駆動する。
The projection optical system 33 includes a lens or a lens group that performs enlargement / reduction and focus adjustment of an image to be projected, a zoom adjustment motor that adjusts the degree of zoom by driving the lens, and a focus adjustment motor that performs focus adjustment. Etc.
The projection unit 3 includes a projection optical system drive unit 121, a light modulation device drive unit 119, and a light source drive unit 117 together with the projection unit 30. The projection optical system drive unit 121 drives each motor included in the projection optical system 33 according to the control of the display control unit 107 of the image processing unit 110. The light modulation device driving unit 119 performs drawing by driving the light modulation device 32 based on the image signal output from the display control unit 107. The light source driving unit 117 drives a light source included in the illumination optical system 31 according to the control of the control unit 103.

画像処理ユニット110は、PC13に接続される画像入力部104を備えている。画像入力部104は、PC13を含む各種画像供給部が画像データを入力するインターフェイスであり、例えば、DVIインターフェイス、USBインターフェイス、LANインターフェイス、HDMI(登録商標)インターフェイス、Bluetooth(登録商標)インターフェイス等の汎用インターフェイスを用いることができる。また、画像入力部104に、無線通信を利用して画像データを入力してもよい。また、画像入力部104が、アナログ映像信号をデジタル画像データに変換するA/D変換回路と、VGA端子等のアナログ映像信号入力端子を備えていてもよい。また、画像入力部104がDisplayPort(商標)インターフェイスを備えていてもよく、この場合、プロジェクター11は、PC13や、PC13と同等の機能を有する携帯型デバイスが備えるDisplayPortに接続することができる。
画像処理ユニット110は、画像入力部104を介して入力された画像データを処理する表示制御部107、および、表示制御部107の制御に従って画像をフレームメモリー115に展開し、投射部30が投射する画像を生成する画像処理部113を備えている。画像処理部113は、プロジェクター11が内蔵する画像供給部として機能する。
The image processing unit 110 includes an image input unit 104 connected to the PC 13. The image input unit 104 is an interface through which various image supply units including the PC 13 input image data. For example, a general-purpose interface such as a DVI interface, a USB interface, a LAN interface, an HDMI (registered trademark) interface, or a Bluetooth (registered trademark) interface is used. An interface can be used. In addition, image data may be input to the image input unit 104 using wireless communication. The image input unit 104 may include an A / D conversion circuit that converts an analog video signal into digital image data and an analog video signal input terminal such as a VGA terminal. Further, the image input unit 104 may include a DisplayPort (trademark) interface. In this case, the projector 11 can be connected to the DisplayPort included in the PC 13 or a portable device having the same function as the PC 13.
The image processing unit 110 develops the image in the frame memory 115 according to the control of the display control unit 107 that processes the image data input via the image input unit 104 and the display control unit 107, and the projection unit 30 projects the image. An image processing unit 113 that generates an image is provided. The image processing unit 113 functions as an image supply unit built in the projector 11.

表示制御部107は、画像入力部104を介して入力される画像データのフォーマット(フレームレート、解像度、圧縮状態)の判別等を行い、光変調装置32に表示画像を表示するために必要な処理を決定し、画像処理部113を制御して当該処理を実行する。ここで実行される処理は、例えば、フレームレート変換、インターレース/プログレッシブ変換、解像度変換、圧縮された画像データの伸張処理、立体画像データのフォーマット変換等である。画像処理部113は、表示制御部107の制御に従って、画像入力部104に入力された画像データをフレームメモリー115に展開し、上述したような各種処理を実行する。画像処理部113はフレームメモリー115に描画した処理後の画像に基づいて、この画像を表示するための所定フォーマットの画像信号を生成し、表示制御部107に出力する。表示制御部107は、画像処理部113が生成した画像信号を光変調装置駆動部119に出力する。
また、画像処理部113は、表示制御部107の制御に従って、キーストーン補正、カラーモードに対応した色調補正、画像の拡大/縮小処理等の各種の画像処理を実行することも可能である。すなわち、制御部103が、操作パネル41またはリモコン受光部45から入力された操作信号に基づいて、表示制御部107に対し、キーストーン補正の実行、表示画像の拡大/縮小処理を実行させる。表示制御部107は、キーストーン補正や表示画像の拡大/縮小処理に必要な各種パラメーターを算出し、画像処理部113を制御して、キーストーン補正や表示画像の拡大/縮小処理を実行する。
The display control unit 107 determines the format (frame rate, resolution, compression state) of image data input via the image input unit 104 and performs processing necessary for displaying the display image on the light modulation device 32. And the image processing unit 113 is controlled to execute the process. The processing executed here is, for example, frame rate conversion, interlace / progressive conversion, resolution conversion, compressed image data expansion processing, stereoscopic image data format conversion, and the like. The image processing unit 113 expands the image data input to the image input unit 104 in the frame memory 115 under the control of the display control unit 107, and executes various processes as described above. The image processing unit 113 generates an image signal of a predetermined format for displaying the image based on the processed image drawn in the frame memory 115 and outputs the image signal to the display control unit 107. The display control unit 107 outputs the image signal generated by the image processing unit 113 to the light modulation device driving unit 119.
The image processing unit 113 can also perform various image processing such as keystone correction, color tone correction corresponding to the color mode, and image enlargement / reduction processing under the control of the display control unit 107. That is, the control unit 103 causes the display control unit 107 to execute keystone correction and display image enlargement / reduction processing based on an operation signal input from the operation panel 41 or the remote control light receiving unit 45. The display control unit 107 calculates various parameters necessary for keystone correction and display image enlargement / reduction processing, and controls the image processing unit 113 to execute keystone correction and display image enlargement / reduction processing.

ユーザーが操作する指示体70は、上述した操作スイッチ72と、操作スイッチ72がオンの場合に発光する発光部74とを備える。発光部74が発する光は、可視光であっても、可視光以外の光(例えば、赤外光)であってもよい。
指示体70による指示位置は、上述のように位置検出ユニット150(検出手段)により検出される。また、位置検出ユニット150は、発光部74の発光の有無に基づいて操作スイッチ72の操作状態を検出する。
The indicator 70 operated by the user includes the operation switch 72 described above and a light emitting unit 74 that emits light when the operation switch 72 is on. The light emitted from the light emitting unit 74 may be visible light or light other than visible light (for example, infrared light).
The position indicated by the indicator 70 is detected by the position detection unit 150 (detection means) as described above. Further, the position detection unit 150 detects the operation state of the operation switch 72 based on the presence or absence of light emission of the light emitting unit 74.

位置検出ユニット150は、撮像部153、撮影制御部155、及び、位置検出処理部157を有する位置検出部151と、位置検出部151が検出した指示位置70Aの座標を算出する座標算出部159と、を備えている。
撮像部153は、投射光学系33が画像光を投射する方向を撮影するようにプロジェクター11に搭載されたデジタルカメラである。撮像部153が撮影する画角は、スクリーンSC上の実投射領域5を含む。撮像部153は、撮影制御部155の制御に従って撮影を実行し、撮影画像データを出力する。撮影制御部155は、制御部103の制御に従って、撮像部153を制御して撮影を実行させる。撮像部153が撮影時のズーム倍率、フォーカス、絞りの調整を行う機構を有する場合、撮影制御部155は、これらの機構を制御して予め設定された条件で撮影を実行させる。撮影後、撮影制御部155は撮像部153が出力する撮影画像データを取得して、位置検出処理部157に出力する。撮像部153から出力される撮影画像データは、RGBやYUV等の形式で表されるものであっても良く、輝度成分のみを表すものであってもよい。指示体70の発光部74が可視光以外の光(例えば赤外光)を発する場合には、撮像部153が可視光カットフィルターを通して撮影する構成であってもよい。また、撮影制御部155は、撮像部153から出力される撮影画像データをそのまま位置検出処理部157へ出力してもよく、解像度の調整や所定のファイルフォーマット(JPEG、BMPなど)への変換等を行った上で位置検出処理部157へ出力してもよい。
The position detection unit 150 includes an image capturing unit 153, a photographing control unit 155, and a position detection processing unit 157, and a coordinate calculation unit 159 that calculates the coordinates of the indicated position 70A detected by the position detection unit 151. It is equipped with.
The imaging unit 153 is a digital camera mounted on the projector 11 so as to capture the direction in which the projection optical system 33 projects image light. The angle of view captured by the imaging unit 153 includes the actual projection area 5 on the screen SC. The imaging unit 153 performs imaging in accordance with the control of the imaging control unit 155, and outputs captured image data. The imaging control unit 155 controls the imaging unit 153 to execute imaging in accordance with the control of the control unit 103. When the imaging unit 153 has mechanisms for adjusting zoom magnification, focus, and aperture during shooting, the shooting control unit 155 controls these mechanisms to execute shooting under preset conditions. After shooting, the shooting control unit 155 acquires the shot image data output by the imaging unit 153 and outputs it to the position detection processing unit 157. The captured image data output from the imaging unit 153 may be expressed in a format such as RGB or YUV, or may represent only a luminance component. When the light emission part 74 of the indicator 70 emits light other than visible light (for example, infrared light), the imaging part 153 may be configured to take an image through a visible light cut filter. Further, the shooting control unit 155 may output the shot image data output from the imaging unit 153 as it is to the position detection processing unit 157, and adjusts the resolution, converts it into a predetermined file format (JPEG, BMP, etc.), etc. May be output to the position detection processing unit 157.

位置検出処理部157は、撮影制御部155から入力される撮影画像データを解析することにより、指示体70の先端の位置、すなわち指示位置70Aを検出する。本実施形態では、撮影制御部155の制御により撮像部153が所定時間毎に撮影を実行し、位置検出処理部157は、撮影制御部155から所定時間毎に入力される撮影画像データに基づいて指示位置70Aを検出し、検出した指示位置70Aを示す情報を出力する。また、位置検出処理部157は、操作スイッチ72のオン操作を検出した場合に、指示位置70Aを示す情報とともに操作スイッチ72のオン操作を示す情報を出力する。   The position detection processing unit 157 detects the position of the tip of the indicator 70, that is, the indicated position 70A by analyzing the captured image data input from the imaging control unit 155. In the present embodiment, the imaging unit 153 performs imaging at predetermined time intervals under the control of the imaging control unit 155, and the position detection processing unit 157 is based on captured image data input from the imaging control unit 155 at predetermined time intervals. The designated position 70A is detected, and information indicating the detected designated position 70A is output. Further, when detecting the ON operation of the operation switch 72, the position detection processing unit 157 outputs information indicating the ON operation of the operation switch 72 together with information indicating the designated position 70A.

位置検出処理部157は、ペン型の指示体70だけでなく、ユーザーの手指を指示体として検出できる。位置検出処理部157は、撮影画像データから指の画像を検出し、この指の先端の位置を特定する。位置検出処理部157は、撮影画像データに複数の手指の画像が含まれている場合に、これら複数の手指を全て指示体として検出し、各手指の位置を指示位置として特定することもできる。複数の指示体は、複数の指示体70が使用される場合、指示体70とユーザーの手指、および、複数の手指のいずれの組み合わせであってもよい。
また、位置検出処理部157は、撮影画像データに含まれる手指の画像に基づいて、指示体としての手指がスクリーンSCに接しているか否かを判定できる。例えば、位置検出処理部157は、撮影画像データから指の画像と指の影の画像とを検出し、検出した各画像の間の距離に基づいて、検出した指がスクリーンSCに接しているか否かを判定する。位置検出処理部157は、撮影画像データから検出した指の位置を指示位置として検出することができ、指がスクリーンSCに接した位置を指示位置とすることもできる。例えば、位置検出処理部157は、撮影画像データから検出した指の先端の位置を指示位置として出力し、この指がスクリーンSCに接している場合は接触位置を指示位置として出力するとともに指の接触を示す情報を出力する。この場合、指の接触を示す情報は、指示体70の操作時に操作スイッチ72がオンであることを示す情報と同じ情報であってもよい。
The position detection processing unit 157 can detect not only the pen-type indicator 70 but also the user's finger as an indicator. The position detection processing unit 157 detects a finger image from the captured image data, and specifies the position of the tip of the finger. When the captured image data includes a plurality of finger images, the position detection processing unit 157 can also detect all of the plurality of fingers as indicators and specify the positions of the fingers as indicated positions. When a plurality of indicators 70 are used, the plurality of indicators may be any combination of the indicator 70, the user's finger, and the plurality of fingers.
Further, the position detection processing unit 157 can determine whether or not the finger as the indicator is in contact with the screen SC based on the image of the finger included in the captured image data. For example, the position detection processing unit 157 detects a finger image and a finger shadow image from the captured image data, and based on the distance between the detected images, whether or not the detected finger is in contact with the screen SC. Determine whether. The position detection processing unit 157 can detect the position of the finger detected from the captured image data as the designated position, and can also designate the position where the finger is in contact with the screen SC as the designated position. For example, the position detection processing unit 157 outputs the position of the tip of the finger detected from the captured image data as the designated position, and when the finger is in contact with the screen SC, outputs the contact position as the designated position and touches the finger. The information indicating is output. In this case, the information indicating the finger contact may be the same information as the information indicating that the operation switch 72 is turned on when the indicator 70 is operated.

座標算出部159は、位置検出処理部157が検出した指示位置70Aの座標を算出する。座標算出部159が算出する座標は、指示位置70Aの撮影画像データにおける座標であり、その後でスクリーンSCの表示画像上に仮想的に設けられた座標軸における座標を算出する。撮影画像データにおける座標は、プロジェクター11とスクリーンSCとの距離、投射光学系33におけるズーム率、プロジェクター11の設置角度、撮像部153とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部159は、事前に実施されるキャリブレーションの結果に基づき、撮影画像データにおける指示位置70Aの座標から、スクリーンSCの表示画像における指示位置70Aの座標を算出して、算出した座標を示す座標データを、操作スイッチ72がオンかオフか(または指示体としての手指がスクリーンSCに接触しているか否か)を示す情報(タッチ情報)等とともに、制御データとして出力する。なお、キャリブレーションでは、所定のパターン画像を投射ユニット3からスクリーンSCに投射して、表示されたパターン画像を撮像部153で撮影することにより、撮影画像データにおける座標と、スクリーンSC(実投射領域5)の表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。なお、キャリブレーションの具体的な方法については、ここでは説明を省略するが、例えば、本出願人により開示された特願2011−204289号に記載されている方法を用いることができる。
さらに、座標算出部159は、位置検出処理部157が複数の指示体の指示位置を検出して、複数の指示位置を出力した場合、これら複数の指示位置の座標をそれぞれ算出して座標変換部160に出力することができる。
The coordinate calculation unit 159 calculates the coordinates of the designated position 70A detected by the position detection processing unit 157. The coordinates calculated by the coordinate calculation unit 159 are the coordinates in the captured image data at the designated position 70A, and thereafter, the coordinates on the coordinate axes virtually provided on the display image of the screen SC are calculated. The coordinates in the captured image data are affected by various factors such as the distance between the projector 11 and the screen SC, the zoom ratio in the projection optical system 33, the installation angle of the projector 11, and the distance between the imaging unit 153 and the screen SC. The coordinate calculation unit 159 calculates the coordinates of the designated position 70A in the display image of the screen SC from the coordinates of the designated position 70A in the captured image data based on the result of calibration performed in advance, and indicates the calculated coordinates. The coordinate data is output as control data together with information (touch information) indicating whether the operation switch 72 is on or off (or whether a finger as an indicator is in contact with the screen SC) or the like. In the calibration, a predetermined pattern image is projected from the projection unit 3 onto the screen SC, and the displayed pattern image is captured by the imaging unit 153, whereby the coordinates in the captured image data and the screen SC (actual projection area) are captured. The correspondence (coordinate conversion parameter) with the coordinates on the display image of 5) is derived. A specific method of calibration is not described here, but for example, a method described in Japanese Patent Application No. 2011-204289 disclosed by the present applicant can be used.
Furthermore, when the position detection processing unit 157 detects the indication positions of a plurality of indicators and outputs a plurality of indication positions, the coordinate calculation unit 159 calculates the coordinates of the plurality of indication positions, respectively, and converts the coordinate conversion unit 160 can be output.

位置検出ユニット150は、座標算出部159が出力する座標データおよびタッチ情報等からなる制御データを、制御部103に入力する。制御部103は、位置検出ユニット150から入力される制御データに基づいて、予め設定された特定の操作を検出する操作判定部103A(制御手段)を備える。操作判定部103Aには、通常の位置指示操作とは異なる特定の操作を検出する条件が予め設定されている。操作判定部103Aは、設定された条件に該当する操作を検出した場合に、その操作に関係する座標データ等の出力を制御する一方、制御プログラム105Aに従って、予め設定されたプロジェクター11の機能を実行する。
具体的には、操作判定部103Aは、設定された条件に該当する操作を検出した場合に、座標変換部160を制御して、当該操作の座標データ等の出力を中止、または一時停止させる。この操作を検出した場合、操作判定部103Aは、画像の表示状態を変更する機能を実行する。例えば、画像入力部104を制御してスクリーンSCに表示する画像の画像ソースを、PC13から別のPC13または他の画像供給部に切り替える機能を実行する。また、例えば、スクリーンSCに画像を表示する位置を変更する機能、表示中の画像を拡大/縮小する機能、表示中の画像を回転させる機能、シングル画面表示とマルチ画面表示とを切り替える機能等を実行する。
The position detection unit 150 inputs control data including coordinate data output from the coordinate calculation unit 159 and touch information to the control unit 103. The control unit 103 includes an operation determination unit 103A (control unit) that detects a specific operation set in advance based on control data input from the position detection unit 150. Conditions for detecting a specific operation different from the normal position instruction operation are preset in the operation determination unit 103A. When the operation determination unit 103A detects an operation corresponding to the set condition, the operation determination unit 103A controls the output of coordinate data and the like related to the operation, and executes the function of the projector 11 set in advance according to the control program 105A. To do.
Specifically, when the operation determination unit 103A detects an operation corresponding to the set condition, the operation determination unit 103A controls the coordinate conversion unit 160 to stop or temporarily stop the output of the coordinate data and the like of the operation. When this operation is detected, the operation determination unit 103A executes a function of changing the display state of the image. For example, the function of switching the image source of the image to be displayed on the screen SC by controlling the image input unit 104 from the PC 13 to another PC 13 or another image supply unit is executed. In addition, for example, a function of changing the position at which an image is displayed on the screen SC, a function of enlarging / reducing the displayed image, a function of rotating the displayed image, a function of switching between single screen display and multi-screen display, etc. Run.

また、操作判定部103Aは、位置検出ユニット150から入力される指示位置のデータを所定期間、一時的に記憶して指示位置の軌跡を作成し、この軌跡の形状が予め設定された条件に該当するか否かを判定することもできる。また、例えば、操作判定部103Aは作成した指示位置の軌跡に基づいて操作の方向を決定し、この方向と、予め設定された方向との一致/不一致を判定する。この場合、例えば、複雑で特異的な操作のみが該当するように条件を設定できるので、ユーザーの意図に反して上記条件に該当する操作をしてしまうことがなくなる。   In addition, the operation determination unit 103A temporarily stores the data of the designated position input from the position detection unit 150 for a predetermined period to create a locus of the designated position, and the shape of the locus corresponds to a preset condition. It can also be determined whether or not. Further, for example, the operation determination unit 103A determines the direction of the operation based on the created locus of the designated position, and determines whether this direction matches a preset direction. In this case, for example, the condition can be set so that only a complicated and specific operation is applicable, so that an operation corresponding to the above condition is not performed against the user's intention.

座標算出部159が出力する制御データ(座標データ等)は座標変換部160に入力される。座標変換部160は、制御部103の制御に従って座標データの変換を行い、変換後の座標データ等をPC13または画像処理ユニット110に出力する。座標データ等をPC13に出力する場合、座標変換部160は、座標算出部159から入力された座標データを、PC13が画像入力部104に入力する画像データのフレームにおける座標を示す座標データに変換する。この変換処理は、PC13が画像入力部104に入力する画像データの解像度や、画像処理部113により画像データに対して行った処理に基づいて実行される。また、座標データ等を画像処理ユニット110に出力する場合、座標変換部160は、座標算出部159から入力された座標データを、画像処理部113が生成する画像のフレームにおける座標を示す座標データへ変換する。つまり、座標変換部160は、外部接続された画像供給部であるPC13、および、プロジェクター11が内蔵する画像供給部である画像処理ユニット110に対応する座標への変換を行うことが可能であり、座標データの出力先の画像供給部に対応する座標に変換する。
座標変換部160が座標を変換する処理において必要な情報としては、例えば、画像処理部113が生成する画像全体の高さおよび幅、画像入力部104に入力された画像データに基づく画像(表示画像)の高さおよび幅、画像全体における表示画像の位置、画像データの解像度、光変調装置32の液晶表示パネルにおける表示サイズ等の情報がある。これらの情報は、制御部103の制御または座標変換部160が要求を行うことにより、画像処理部113から座標変換部160に出力される。
座標変換部160は、画像処理ユニット110に対応して座標を変換した場合、変換後の座標データを、タッチ情報等とともに画像処理部113に出力する。また、座標変換部160は、PC13に対応して座標を変換した場合、変換後の座標データを、タッチ情報等とともに出力部101に出力する。つまり、変換処理の際に制御部103により指定された画像供給部に対して、変換後の座標データ等を出力する。なお、座標変換部160による座標変換の具体的な方法については、ここでは説明を省略するが、例えば、本出願人により開示された特願2011−204289号に記載されている方法を用いることができる。
Control data (such as coordinate data) output from the coordinate calculation unit 159 is input to the coordinate conversion unit 160. The coordinate conversion unit 160 converts coordinate data according to the control of the control unit 103 and outputs the converted coordinate data and the like to the PC 13 or the image processing unit 110. When outputting coordinate data or the like to the PC 13, the coordinate conversion unit 160 converts the coordinate data input from the coordinate calculation unit 159 into coordinate data indicating coordinates in a frame of image data input to the image input unit 104 by the PC 13. . This conversion process is executed based on the resolution of the image data input to the image input unit 104 by the PC 13 and the process performed on the image data by the image processing unit 113. When outputting coordinate data or the like to the image processing unit 110, the coordinate conversion unit 160 converts the coordinate data input from the coordinate calculation unit 159 into coordinate data indicating the coordinates in the frame of the image generated by the image processing unit 113. Convert. That is, the coordinate conversion unit 160 can perform conversion into coordinates corresponding to the PC 13 that is an externally connected image supply unit and the image processing unit 110 that is an image supply unit built in the projector 11. The coordinates are converted into coordinates corresponding to the output destination image supply unit.
Examples of information necessary for the process of converting coordinates by the coordinate conversion unit 160 include, for example, an image based on the height and width of the entire image generated by the image processing unit 113 and image data input to the image input unit 104 (display image). ), The position of the display image in the entire image, the resolution of the image data, the display size on the liquid crystal display panel of the light modulation device 32, and the like. These pieces of information are output from the image processing unit 113 to the coordinate conversion unit 160 when the control of the control unit 103 or the coordinate conversion unit 160 makes a request.
When the coordinate conversion unit 160 converts the coordinates corresponding to the image processing unit 110, the coordinate conversion unit 160 outputs the converted coordinate data to the image processing unit 113 together with the touch information and the like. When the coordinate conversion unit 160 converts the coordinates corresponding to the PC 13, the coordinate conversion unit 160 outputs the converted coordinate data to the output unit 101 together with the touch information and the like. That is, the converted coordinate data and the like are output to the image supply unit designated by the control unit 103 during the conversion process. Note that a specific method of coordinate transformation by the coordinate transformation unit 160 is omitted here, but for example, a method described in Japanese Patent Application No. 2011-204289 disclosed by the present applicant may be used. it can.

出力部101は、座標変換部160の変換した処理後の座標データ等をPC13に出力するインターフェイスであり、例えば、USBインターフェイス、有線LANインターフェイス、IEEE1394等の汎用インターフェイスで構成され、無線通信インターフェイスを用いてもよい。ここで、画像入力部104と出力部101とを統合し、物理的に一つのUSBインターフェイスで出力部101と画像入力部104との両方の機能を実現してもよい。出力部101には複数のPC13が接続され、出力部101は、制御部103の制御により一つ以上のPC13を選択して、座標データ等を出力する。通常、出力部101は、画像入力部104に対して画像データを供給しているPC13を選択する。画像データを供給しているPC13が複数存在する場合、出力部101は、制御部103の制御に従って、これらPC13の中から一つ以上のPC13を出力先として選択する。
出力部101がPC13に出力する座標データ等は、各PC13において、マウス、トラックボール、デジタイザー、或いはペンタブレット等のポインティングデバイスが出力するデータと同様のデータとして入力される。
また、出力部101が、画像処理ユニット110が備える画像処理部113に接続され、座標変換部160が出力した変換後の座標データ等を画像処理ユニット110に出力してもよい。
The output unit 101 is an interface for outputting the coordinate data after processing converted by the coordinate conversion unit 160 to the PC 13, and is configured by a general-purpose interface such as a USB interface, a wired LAN interface, IEEE1394, etc., and uses a wireless communication interface. May be. Here, the image input unit 104 and the output unit 101 may be integrated, and the functions of both the output unit 101 and the image input unit 104 may be realized by a single physical USB interface. A plurality of PCs 13 are connected to the output unit 101, and the output unit 101 selects one or more PCs 13 under the control of the control unit 103 and outputs coordinate data and the like. Normally, the output unit 101 selects the PC 13 that supplies image data to the image input unit 104. When there are a plurality of PCs 13 that supply image data, the output unit 101 selects one or more PCs 13 as an output destination from the PCs 13 according to the control of the control unit 103.
Coordinate data or the like output from the output unit 101 to the PC 13 is input as data similar to data output from a pointing device such as a mouse, trackball, digitizer, or pen tablet in each PC 13.
Further, the output unit 101 may be connected to the image processing unit 113 provided in the image processing unit 110, and may output the coordinate data after conversion output by the coordinate conversion unit 160 to the image processing unit 110.

PC13において、出力部101から出力される座標データ等を汎用的なポインティングデバイスが出力するデータと同等に扱う場合、これらの汎用的なポインティングデバイスに対応した汎用のデバイスドライバープログラムを利用できる。このような汎用のデバイスドライバープログラムは、通常、PC13のOS(オペレーティングシステム)の一部として予めインストールされているため、デバイスドライバープログラムのインストールを行うことなく利用できる。
このように汎用のデバイスドライバープログラムを利用する場合、専用のデバイスドライバープログラムを必要としないという利点があるが、プロジェクター11とPC13との間でやり取りできる情報は、汎用のデバイスドライバープログラムの仕様で定められた範囲に限定される。そこで、プロジェクター11に対応した専用のデバイスドライバープログラムをPC13にインストールして、このデバイスドライバープログラムによって出力部101が出力する座標データ等を処理してもよい。この場合、プロジェクター11とPCとの間でやり取りできる情報は、専用のデバイスドライバープログラムの仕様に応じて任意に設定できる。
When the PC 13 handles the coordinate data output from the output unit 101 in the same manner as the data output by the general-purpose pointing device, a general-purpose device driver program corresponding to these general-purpose pointing devices can be used. Such a general-purpose device driver program is normally installed in advance as a part of the OS (operating system) of the PC 13, and thus can be used without installing the device driver program.
When a general-purpose device driver program is used in this way, there is an advantage that a dedicated device driver program is not required, but information that can be exchanged between the projector 11 and the PC 13 is determined by the specifications of the general-purpose device driver program. Limited to the specified range. Therefore, a dedicated device driver program corresponding to the projector 11 may be installed in the PC 13, and the coordinate data output by the output unit 101 may be processed by this device driver program. In this case, information that can be exchanged between the projector 11 and the PC can be arbitrarily set according to the specifications of the dedicated device driver program.

座標変換部160が座標データ等をPC13に出力する場合、PC13は、出力部101から入力された座標データ等に基づいて、例えば線や図形を描画し、描画した線や図形を、プロジェクター11に出力中の画像に重ねて新たな画像データを生成し、この画像データをプロジェクター11に出力する。
また、座標変換部160が座標データ等を画像処理ユニット110に出力する場合、画像処理部113は、座標変換部160から入力される座標データ等に基づいて、フレームメモリー115に展開している表示用の画像に重ねて、例えば線や図形を描画し、描画後の画像を表示するための画像信号を生成して光変調装置駆動部119に出力する。なお、画像を重ねて描画する際には、フレームメモリーに直接描画するようにしてもよいし、フレームメモリーに展開されている画像とは異なるレイヤーに描画して、それぞれのレイヤーを重ねるようにしてもよい。
これにより、表示システム10では、ユーザーが指示体70の操作によって位置指示操作を行うことにより、操作した位置に対応して、スクリーンSCに表示中の画像に重ねて図形等が描画され、表示される。
When the coordinate conversion unit 160 outputs coordinate data or the like to the PC 13, the PC 13 draws, for example, a line or a figure based on the coordinate data or the like input from the output unit 101, and sends the drawn line or figure to the projector 11. New image data is generated over the image being output, and this image data is output to the projector 11.
Further, when the coordinate conversion unit 160 outputs coordinate data or the like to the image processing unit 110, the image processing unit 113 displays the display developed in the frame memory 115 based on the coordinate data or the like input from the coordinate conversion unit 160. For example, a line or a figure is drawn on the image, and an image signal for displaying the drawn image is generated and output to the light modulation device driving unit 119. Note that when drawing images in layers, they may be drawn directly in the frame memory, or they may be drawn on a layer different from the image developed in the frame memory, and each layer may be overlaid. Also good.
As a result, in the display system 10, when the user performs a position instruction operation by operating the indicator 70, a figure or the like is drawn and displayed over the image being displayed on the screen SC corresponding to the operated position. The

次に、プロジェクター11の動作について、図3〜図7を参照して説明する。
図3は、プロジェクター11の動作を示すフローチャートである。
プロジェクター11の使用開始に伴い、操作判定部103Aは、指示体による操作が予め設定された条件に該当するか否かの判定を開始する(ステップS1)。位置検出処理部157が指示体の操作を検出すると(ステップS2)、その指示位置が位置検出ユニット150から制御部103に入力され、操作判定部103Aは入力された指示位置を取得する(ステップS3)。ここで操作判定部103Aが取得する指示位置のデータは、指示体の指示位置を示す座標データであればよい。操作判定部103Aは、例えば指示体70を使用する場合に、操作スイッチ72がオンになっている場合の指示位置のみを取得しても良いし、操作スイッチ72がオフである場合を含む全ての指示位置を取得してもよい。
Next, the operation of the projector 11 will be described with reference to FIGS.
FIG. 3 is a flowchart showing the operation of the projector 11.
With the start of use of the projector 11, the operation determination unit 103A starts determining whether or not the operation by the indicator satisfies a preset condition (step S1). When the position detection processing unit 157 detects an operation of the indicator (step S2), the instruction position is input from the position detection unit 150 to the control unit 103, and the operation determination unit 103A acquires the input instruction position (step S3). ). Here, the data of the designated position acquired by the operation determination unit 103A may be coordinate data indicating the designated position of the pointer. For example, when the indicator 70 is used, the operation determination unit 103A may acquire only the indication position when the operation switch 72 is on, or all cases including the case where the operation switch 72 is off. The indicated position may be acquired.

操作判定部103Aは、取得した指示位置、または、取得した指示位置と過去の指示位置とにより形成される指示位置の軌跡が、設定された条件に該当するか否かを判定する(ステップS4)。ここで、条件に該当しない場合(ステップS4;No)、操作判定部103Aは、座標変換部160を制御して座標の変換を行わせ(ステップS5)、座標変換部160および出力部101を制御して座標変換部160が変換した座標を出力させ(ステップS6)、ステップS2に戻る。この場合、座標変換部160は、操作判定部103Aの制御に従って上述したように座標の変換を実行し、出力部101または画像処理ユニット110に座標データ等を出力する。   The operation determination unit 103A determines whether or not the acquired instruction position or the locus of the instruction position formed by the acquired instruction position and the past instruction position satisfies the set condition (step S4). . If the condition is not met (step S4; No), the operation determination unit 103A controls the coordinate conversion unit 160 to perform coordinate conversion (step S5), and controls the coordinate conversion unit 160 and the output unit 101. Then, the coordinate converted by the coordinate conversion unit 160 is output (step S6), and the process returns to step S2. In this case, the coordinate conversion unit 160 performs coordinate conversion as described above according to the control of the operation determination unit 103A, and outputs the coordinate data and the like to the output unit 101 or the image processing unit 110.

指示位置または指示位置の軌跡が予め設定された条件に該当する操作(第1の操作)である場合(ステップS4;Yes)、操作判定部103Aは、座標変換部160および出力部101を制御して、ステップS2で位置検出処理部157が検出した操作、およびこれ以降の操作に関して指示位置の座標の出力を停止させる(ステップS7)。次いで、操作判定部103Aは、ステップS4で該当した条件に対応する機能を判定する(ステップS8)。操作判定部103Aには、指示位置または指示位置の軌跡に関する条件を複数設定可能であり、条件毎に、対応する機能を設定できる。操作判定部103Aは、ステップS4で該当した条件に対応する機能を特定して、この機能を実行するためにさらに追加の操作(第2の操作)が必要か否かを判定する(ステップS9)。例えば、画像の表示位置を変更する機能の実行時には、表示位置を移動する方向と移動量を指定するための操作が追加の操作として必要となる。   When the designated position or the locus of the designated position is an operation (first operation) corresponding to a preset condition (step S4; Yes), the operation determination unit 103A controls the coordinate conversion unit 160 and the output unit 101. Thus, the output of the coordinates of the designated position is stopped for the operation detected by the position detection processing unit 157 in step S2 and the subsequent operations (step S7). Next, the operation determination unit 103A determines a function corresponding to the condition corresponding in step S4 (step S8). A plurality of conditions regarding the designated position or the locus of the designated position can be set in the operation determination unit 103A, and a corresponding function can be set for each condition. The operation determination unit 103A specifies a function corresponding to the condition that was met in step S4, and determines whether or not an additional operation (second operation) is necessary to execute this function (step S9). . For example, when a function for changing the display position of an image is executed, an operation for designating the direction and amount of movement of the display position is required as an additional operation.

追加の操作が不要な場合(ステップS9;No)、操作判定部103Aは、条件に対応する機能を実行し(ステップS10)、座標変換部160および出力部101を制御して、座標の出力を停止した状態を解除して出力を再開する(ステップS11)。
一方、追加の操作が必要な場合(ステップS9;Yes)、操作判定部103Aは、次の操作が位置検出処理部157により検出されるまで待機し(ステップS12)、操作が検出されると(ステップS12;Yes)、検出された操作の指示位置を取得し(ステップS13)。取得した指示位置に基づいて、ステップS8で特定した機能を実行する(ステップS14)。
その後、操作判定部103Aは、座標変換部160または出力部101による座標出力の制限を解除可能か否か判定する(ステップS15)。ステップS14で実行した機能が完了して、通常の位置指示操作の機能に復帰できる場合、操作判定部103AはステップS11に移行して、座標出力の停止を解除する。また、通常の位置指示操作の機能に復帰すべきでない場合には(ステップS15;No)、操作判定部103AはステップS12に戻る。座標出力の停止を解除する条件は、操作判定部103Aが実行する機能毎に予め定められている。例えば、ステップS14で画像の表示位置を変更する機能を実行した場合、その後の操作により続けて表示位置を変更できる方が、ユーザーの所望の位置に画像を移動できるので有用である。座標出力の停止を解除する条件としては、ステップS12〜S14を連続して実行した回数や、ステップS12で検出した操作が特定の条件を満たす操作であること等が挙げられる。
When an additional operation is not necessary (step S9; No), the operation determination unit 103A executes a function corresponding to the condition (step S10), and controls the coordinate conversion unit 160 and the output unit 101 to output coordinates. The stopped state is canceled and output is resumed (step S11).
On the other hand, when an additional operation is necessary (step S9; Yes), the operation determination unit 103A waits until the next operation is detected by the position detection processing unit 157 (step S12), and when an operation is detected (step S12). (Step S12; Yes), the designated position of the detected operation is acquired (Step S13). Based on the acquired indicated position, the function specified in step S8 is executed (step S14).
Thereafter, the operation determination unit 103A determines whether or not the restriction on the coordinate output by the coordinate conversion unit 160 or the output unit 101 can be removed (step S15). When the function executed in step S14 is completed and the normal position pointing operation function can be restored, the operation determination unit 103A proceeds to step S11 and releases the stop of the coordinate output. In addition, when it should not return to the normal position instruction operation function (step S15; No), the operation determination unit 103A returns to step S12. The condition for canceling the stop of the coordinate output is determined in advance for each function executed by the operation determination unit 103A. For example, when the function of changing the display position of the image is executed in step S14, it is useful to be able to move the image to a position desired by the user if the display position can be changed by subsequent operations. Conditions for canceling the stop of coordinate output include the number of times Steps S12 to S14 are executed continuously, the operation detected in Step S12 being an operation that satisfies a specific condition, and the like.

図4〜図7は、図3のフローチャートに基づく動作の具体例を示す図であり、位置指示操作に対応してプロジェクター11が表示状態を制御する機能の一例を示す図である。
図4は画像の位置を変更する画像移動機能に関する一例を示す。(A)は機能実行前の投射状態を示し、(B)は位置を変更する機能に関する操作を示し、(C)は位置を変更する機能の実行例を示し、(D)は通常の位置指示操作に復帰した状態を示す。
この例ではユーザーの手指を指示体として操作が行われ、図4(A)に示すように、スクリーンSCの実投射領域5の全体に一つの表示領域6が配置され、画像61が投射される。この例では指示体の操作により画像61に重ねて図形を描く動作が可能であり、図4(A)には指示位置の軌跡に沿って図形61Aが描画された状態を示す。
4 to 7 are diagrams illustrating a specific example of the operation based on the flowchart of FIG. 3, and are diagrams illustrating an example of a function that the projector 11 controls the display state in response to the position instruction operation.
FIG. 4 shows an example of an image moving function for changing the position of an image. (A) shows the projection state before the function is executed, (B) shows an operation related to the function for changing the position, (C) shows an execution example of the function for changing the position, and (D) shows a normal position instruction. Indicates the state returned to operation.
In this example, the operation is performed using the user's finger as an indicator, and as shown in FIG. 4A, one display area 6 is arranged over the entire actual projection area 5 of the screen SC, and an image 61 is projected. . In this example, it is possible to draw a figure over the image 61 by operating the indicator, and FIG. 4A shows a state in which the figure 61A is drawn along the locus of the designated position.

図4の例ではユーザーが複数の指を同時にスクリーンSCに接触させることで、表示領域6における画像の位置を移動する画像移動機能が実行される。
例えば図4(A)に示すように、ユーザーが第1の操作として5本の指をスクリーンSCに接触(タッチ)させ、位置検出処理部157が5点の指示位置73Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像61の位置を移動する画像移動機能を実行する。画像移動機能が実行されると、ユーザーにより移動方向および移動量が指定される。図4(B)に示すように、ユーザーが、第2の操作(追加の操作)として、5本の指をスクリーンSCに接触させたままで指を移動する操作を行うと、操作判定部103Aは、指示位置73Aの移動方向および移動量に基づき、表示位置の移動方向および移動量を決定する。図4(B)の例では、スクリーンSCに接触させた5本の指を下向きに移動しており、指示位置73Aの移動量だけ画像61も下方に移動される。 移動後は、図4(C)に示すように、スクリーンSCの上部は何も表示されない非表示領域6Aとなり、画像61の下部がスクリーンSCから逸脱する。なお、スクリーンSCの外側、すなわち表示領域6の外は光変調装置32で変調された画像光が届かないため、スクリーンSCの外には画像61は投射されない。
また、ユーザーは、スクリーンSCに接触させた5本の指を上向き、横向き、或いは斜め方向等の任意の方向に移動させることも可能であり、操作判定部103Aは、指の移動方向および移動量に対応して、画像61の位置を移動させる。
図4(C)に示すように画像61が移動された後、操作判定部103Aは、画像供給部に対する座標データ等の出力を再開させ、プロジェクター11は、指示体の操作により描画を行う状態に復帰する。このため、指示体である指により位置指示操作がなされると、プロジェクター11は、図4(D)に示すように、操作に応じて図形61Bを描画する。
In the example of FIG. 4, the image moving function for moving the position of the image in the display area 6 is executed by the user simultaneously touching the screen SC with a plurality of fingers.
For example, as shown in FIG. 4A, when the user touches (touches) five fingers as the first operation and the position detection processing unit 157 detects five designated positions 73A, The determination unit 103A stops the output of the coordinate data and the like to the image supply unit and executes an image moving function for moving the position of the image 61. When the image moving function is executed, the moving direction and moving amount are designated by the user. As shown in FIG. 4B, when the user performs an operation of moving a finger while keeping five fingers in contact with the screen SC as a second operation (additional operation), the operation determination unit 103A Based on the moving direction and moving amount of the designated position 73A, the moving direction and moving amount of the display position are determined. In the example of FIG. 4B, the five fingers in contact with the screen SC are moved downward, and the image 61 is also moved downward by the amount of movement of the designated position 73A. After the movement, as shown in FIG. 4C, the upper part of the screen SC becomes a non-display area 6A where nothing is displayed, and the lower part of the image 61 deviates from the screen SC. Since the image light modulated by the light modulation device 32 does not reach outside the screen SC, that is, outside the display area 6, the image 61 is not projected outside the screen SC.
In addition, the user can move the five fingers in contact with the screen SC in any direction such as upward, lateral, or diagonal directions, and the operation determination unit 103A can move the finger in the moving direction and the moving amount. In response to this, the position of the image 61 is moved.
After the image 61 is moved as shown in FIG. 4C, the operation determination unit 103A resumes outputting coordinate data and the like to the image supply unit, and the projector 11 enters a state in which drawing is performed by operating the indicator. Return. For this reason, when a position instruction operation is performed with a finger as an indicator, the projector 11 draws a figure 61B in accordance with the operation, as shown in FIG.

図5は表示する画像を切り替える入力切替機能の一例を示す。(A)は機能実行前の状態を示し、(B)は入力切替機能の実行例を示し、(C)は再び入力切替機能が指示された例を示し、(D)は入力切替機能の実行例を示す。
この例もユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11が入力切替機能を実行する。入力切替機能の実行時には、画像入力部104に複数のPC13から入力される画像データのうち、スクリーンSCに表示される画像データが順次切り替えられる。すなわち、プロジェクター11に接続された画像供給部としてのPC13が順次切り替えられる。切替の順序は正順と逆順とを指定可能であり、正順の場合には、例えば、上記操作が行われる毎に、PC13A、PC13B、PC13C…、PC13Aの順に、循環して切り替えられ、逆順の場合には、正順とは逆の順番で切り替えられる。なお、プロジェクター11に外部接続されたPC13に限らず、画像供給部としてプロジェクター11が内蔵する画像処理ユニット110を切替の順序に含めることも可能である。プロジェクター11が画像データを生成する画像供給部を複数備えている場合には、これら複数の画像供給部を含む切替の順序を設定可能である。
FIG. 5 shows an example of an input switching function for switching an image to be displayed. (A) shows the state before function execution, (B) shows an execution example of the input switching function, (C) shows an example in which the input switching function is instructed again, and (D) shows the execution of the input switching function. An example is shown.
In this example, the operation is performed using the user's finger as an indicator, and when the indicator is moved in a specific direction, the projector 11 executes the input switching function. When executing the input switching function, image data displayed on the screen SC among the image data input from the plurality of PCs 13 to the image input unit 104 is sequentially switched. That is, the PC 13 serving as an image supply unit connected to the projector 11 is sequentially switched. The order of switching can be designated as normal order or reverse order. In the normal order, for example, every time the above operation is performed, the PC13A, PC13B, PC13C,. In the case of, switching is performed in the reverse order to the normal order. Note that the image processing unit 110 built in the projector 11 as an image supply unit is not limited to the PC 13 externally connected to the projector 11, and can be included in the switching order. When the projector 11 includes a plurality of image supply units that generate image data, a switching order including the plurality of image supply units can be set.

図5(A)に示すように、ユーザーが第1の操作として2本の指をスクリーンSCに接触させ、位置検出処理部157が2点の指示位置75Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像入力部104を制御して入力切替機能を実行する。入力切替機能が実行されると、ユーザーにより切替順序が指定される。ユーザーが第2の操作(追加の操作)として、2本の指をスクリーンSCに接触させたままで指を移動する操作を行うと、操作判定部103Aは、指示位置75Aの移動方向に基づき、切替順序を決定する。図5(A)の例のように、指示位置75Aが下向きに移動した場合には、切替順序は正順となり、図5(B)に示すように、正順で次の画像供給部が供給する画像データに基づく画像に切り替えられる。操作判定部103Aは、画像の切替が終了すると、画像供給部に対する座標データ等の出力を再開させ、通常の位置指示操作が可能な状態に移行する。
そして、図5(C)に示すように、2本の指を再度スクリーンSCに接触させて、指を下向きに移動する操作を行うと、図5(D)に示すように、正順でさらに次の画像供給部が供給する画像データに基づく画像に切り替えられる。このように、2本の指を下向きに移動する操作を繰り返すことによって所望の画像に切り替えることができる。なお、図示は省略するが、2本の指をスクリーンSCに接触させて、指を上向きに移動する操作を行った場合には、逆順で次の画像供給部が供給する画像データに基づく画像に切り替えられる。
As shown in FIG. 5A, when the user makes two fingers touch the screen SC as the first operation, and the position detection processing unit 157 detects two designated positions 75A, the operation determination unit 103A The output of the coordinate data and the like to the image supply unit is stopped, and the image input unit 104 is controlled to execute the input switching function. When the input switching function is executed, the switching order is designated by the user. As the second operation (additional operation), when the user moves the finger while keeping two fingers in contact with the screen SC, the operation determination unit 103A switches based on the moving direction of the indicated position 75A. Determine the order. When the designated position 75A moves downward as in the example of FIG. 5A, the switching order is the normal order, and as shown in FIG. 5B, the next image supply unit supplies in the normal order. The image is switched to the image based on the image data. When the image switching ends, the operation determination unit 103A resumes outputting coordinate data and the like to the image supply unit, and shifts to a state where a normal position instruction operation is possible.
Then, as shown in FIG. 5C, when two fingers are brought into contact with the screen SC again and the finger is moved downward, as shown in FIG. The image is switched to an image based on the image data supplied by the next image supply unit. In this way, it is possible to switch to a desired image by repeating the operation of moving two fingers downward. Although illustration is omitted, when an operation of moving the finger upward with two fingers in contact with the screen SC is performed, an image based on the image data supplied by the next image supply unit in the reverse order is displayed. Can be switched.

図6はシングル画面表示とマルチ画面表示とを切り替える表示切替機能の一例を示す。(A)は機能実行前の状態を示し、(B)は上記機能の実行例を示し、(C)は上記機能を指示する操作の例を示し、(D)は上記機能の実行例を示す。
この例でもユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11がシングル画面表示とマルチ画面表示とを切り替える。シングル画面表示時に表示される画像、および、マルチ画面表示時に表示される画像は、複数のPC13から入力される画像データのいずれかに予め設定されている。
図6(A)ではシングル画面表示がされており、表示領域6に一つの画像61が配置されている。ユーザーが第1の操作として3本の指をスクリーンSCに接触させ、位置検出処理部157が3点の指示位置75Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像処理ユニット110を制御して表示切替機能を実行する。その後、ユーザーが、第2の操作(追加の操作)として、3本の指をスクリーンSCに接触させたままで、図中に矢印で示すように、指を左向きに移動する操作を行うと、操作判定部103Aは、図6(B)に示すようにマルチ画面表示に移行する。図6(B)の状態では表示領域6に2つの表示領域6B、6Cが配置され、各表示領域6B、6Cにはそれぞれ画像61、62が表示される。表示領域6B、6Cのアスペクト比を表示領域6と同様にする場合には、図6(B)に示すように表示領域6の上部および下部に帯状の非表示領域6Aが形成される。マルチ画面表示への切替が完了すると、操作判定部103Aは、画像供給部に対する座標データ等の出力を再開させ、通常の位置指示操作が可能な状態に移行する。
FIG. 6 shows an example of a display switching function for switching between single screen display and multi-screen display. (A) shows a state before function execution, (B) shows an example of execution of the function, (C) shows an example of an operation for instructing the function, and (D) shows an example of execution of the function. .
Also in this example, the operation is performed using the user's finger as an indicator, and when the indicator is moved in a specific direction, the projector 11 switches between single screen display and multi-screen display. An image displayed at the time of single screen display and an image displayed at the time of multi-screen display are set in advance to any of image data input from a plurality of PCs 13.
In FIG. 6A, a single screen is displayed, and one image 61 is arranged in the display area 6. When the user makes three fingers touch the screen SC as the first operation, and the position detection processing unit 157 detects the three designated positions 75A, the operation determination unit 103A outputs coordinate data and the like to the image supply unit And the image processing unit 110 is controlled to execute the display switching function. Thereafter, as a second operation (additional operation), when the user performs an operation of moving the finger to the left as indicated by an arrow in the figure while keeping the three fingers in contact with the screen SC, The determination unit 103A shifts to the multi-screen display as illustrated in FIG. In the state of FIG. 6B, two display areas 6B and 6C are arranged in the display area 6, and images 61 and 62 are displayed in the display areas 6B and 6C, respectively. When the aspect ratio of the display areas 6B and 6C is set to be the same as that of the display area 6, strip-like non-display areas 6A are formed above and below the display area 6 as shown in FIG. When the switching to the multi-screen display is completed, the operation determination unit 103A resumes outputting coordinate data and the like to the image supply unit, and shifts to a state where a normal position instruction operation is possible.

さらに、マルチ画面表示の実行中に、図6(C)に示すように3本の指を再度スクリーンSCに接触させて左向きに移動する操作を行うと、操作判定部103Aは、図6(D)に示すようにシングル画面表示への切り替えを実行する。ここで、操作判定部103Aは、表示領域6に表示されていた画像61、62のうち、指示位置75Aに重なる画像62を、シングル画面表示において表示する。つまり、マルチ画面表示の実行中に3本の指による左向きの操作が検出された場合、操作判定部103Aは、その操作の指示位置に重なる画像をシングル画面表示する。これにより、指示体による1回の操作で、シングル画面表示への切り替えの指示と、シングル画面表示する画像の指定とを行うことができる。   Further, during the execution of the multi-screen display, when the operation of moving the left direction by bringing the three fingers into contact with the screen SC again as shown in FIG. ) Switch to single screen display as shown in. Here, the operation determination unit 103A displays, in the single screen display, the image 62 that overlaps the designated position 75A among the images 61 and 62 displayed in the display area 6. That is, when a leftward operation with three fingers is detected during execution of multi-screen display, the operation determination unit 103A displays a single screen image that overlaps the operation instruction position. Thereby, it is possible to perform an instruction to switch to single screen display and to designate an image to be displayed on a single screen by a single operation by the indicator.

図7は、マルチ画面表示の実行中に、入力切替機能を実行する例を示す。(A)は機能実行前の状態を示し、(B)は切替機能を指示する操作の例を示し、(C)は切替機能の実行例を示す。
この例では図5(A)〜(D)に示した例と同様、ユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11が入力切替機能を実行する。入力切替機能の実行時における画像供給部の切り替え順序は、図5を参照して説明した場合と同様である。
図7(A)に示す例では、表示領域6に複数の表示領域6B、6Cが配置され、画像61、62が各表示領域6B、6Cに表示されている。
図7(B)に示すように、ユーザーが2本の指をスクリーンSCに接触させ、位置検出処理部157が2点の指示位置75Aを検出した場合、操作判定部103Aは、画像入力部104を制御して入力切替機能を実行する。ここで、操作判定部103Aは、表示領域6に表示された画像61、62のうち、指示位置75Aに重なる側の画像を特定する。ユーザーがタッチした2本の指を下向きまたは上向きに移動する操作を行うと、操作判定部103Aは、特定された画像を、図7(C)に示すように他の画像63に切り替える。操作判定部103Aは、画像の切替が完了すると、通常の位置指示操作が可能な状態に移行する。この図7の例では、指示体による1回の操作で、画像の切り替えの指示と、切り替えの対象となる画像の指定とを行うことができる。
FIG. 7 shows an example in which the input switching function is executed during execution of multi-screen display. (A) shows the state before executing the function, (B) shows an example of an operation for instructing the switching function, and (C) shows an execution example of the switching function.
In this example, similar to the example shown in FIGS. 5A to 5D, the operation is performed using the user's finger as an indicator, and the projector 11 executes the input switching function when the indicator is moved in a specific direction. The switching order of the image supply units when the input switching function is executed is the same as that described with reference to FIG.
In the example shown in FIG. 7A, a plurality of display areas 6B and 6C are arranged in the display area 6, and images 61 and 62 are displayed in the display areas 6B and 6C.
As shown in FIG. 7B, when the user makes two fingers touch the screen SC and the position detection processing unit 157 detects two designated positions 75A, the operation determination unit 103A displays the image input unit 104. To control the input and execute the input switching function. Here, the operation determination unit 103 </ b> A specifies the image on the side overlapping the designated position 75 </ b> A among the images 61 and 62 displayed in the display area 6. When an operation of moving the two fingers touched by the user downward or upward is performed, the operation determination unit 103A switches the specified image to another image 63 as illustrated in FIG. 7C. When the image switching is completed, the operation determination unit 103A shifts to a state in which a normal position instruction operation is possible. In the example of FIG. 7, an instruction to switch images and an image to be switched can be designated by a single operation with the indicator.

以上説明したように、本発明を適用した実施形態におけるプロジェクター11は、画像供給部としてのPC13または画像処理ユニット110から供給される画像データに基づいて画像を表示する投射ユニット3と、指示体による操作を検出する位置検出ユニット150と、位置検出ユニット150により操作が検出された場合に操作位置を画像供給部に出力する座標変換部160または出力部101と、位置検出ユニット150により検出された操作が予め設定された条件に該当する操作である場合に、操作位置の出力を制限し、投射ユニット3による画像の表示状態を変更する機能を実行する操作判定部103Aと、を備えるので、指示体により予め設定された条件に該当する操作が行われると、表示状態を変更する機能が実行される。このため、ユーザーは、指示体を他のデバイス等に持ち替えることなく、例えば、スクリーンSCに表示される画像の切り替え、拡大、縮小、シングル画面表示とマルチ画面表示との切り替え等の表示状態を変更する機能を実行させることができ、操作性の向上を図ることができる。   As described above, the projector 11 according to the embodiment to which the present invention is applied includes the projection unit 3 that displays an image based on the image data supplied from the PC 13 as the image supply unit or the image processing unit 110, and the indicator. The position detection unit 150 that detects the operation, the coordinate conversion unit 160 or the output unit 101 that outputs the operation position to the image supply unit when the operation is detected by the position detection unit 150, and the operation detected by the position detection unit 150 And an operation determination unit 103A that executes a function of limiting the output of the operation position and changing the display state of the image by the projection unit 3 when the operation corresponds to a preset condition. When an operation corresponding to a preset condition is performed, a function for changing the display state is executed. For this reason, the user can change the display state such as switching of the image displayed on the screen SC, enlargement, reduction, switching between single screen display and multi-screen display without changing the indicator to another device or the like. The function to perform can be performed, and operativity can be improved.

プロジェクター11は、第1の操作でスクリーンSCに接触する手指の本数に応じて異なる機能を実行するようにしている。また、第2の操作によって機能の実行内容を決定するようにしているため、手指を指示体とした操作だけで、様々な動作を行わせることが可能となる。   The projector 11 performs different functions depending on the number of fingers that touch the screen SC in the first operation. In addition, since the execution contents of the function are determined by the second operation, various operations can be performed only by an operation using a finger as an indicator.

また、操作判定部103Aは、位置検出ユニット150により検出された操作が予め設定された条件に該当する操作である場合に、この操作およびそれ以後の操作に関して座標変換部160による操作位置の出力を停止させるので、表示状態に関する機能について操作した内容が、それ以前に実行していた機能に対する操作として出力されてしまうことがない。従って、複数の操作を効率よく切り換えて、ユーザーが意図しない入力を防止できる。   In addition, when the operation detected by the position detection unit 150 is an operation corresponding to a preset condition, the operation determination unit 103A outputs an operation position by the coordinate conversion unit 160 regarding this operation and subsequent operations. Since the operation is stopped, the content of the operation related to the display state is not output as the operation for the function executed before that. Therefore, a plurality of operations can be switched efficiently to prevent an input unintended by the user.

なお、上記実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記の実施形態(図4〜図7)では、ユーザーの手指を指示体として表示状態を変更する例を示したが、ペン型の指示体70を用いて表示状態を変更する態様としてもよい。また、指示体としては、手指やペン型の指示体70に限定されず、棒形状の操作デバイスやレーザーポインター等のポインターを指示体として用いてもよい。また、複数の指示体70を備え、各々の指示体70に異なる機能を割り当てて、同一の操作領域に対する同様の操作であっても、指示体70によって異なる機能を操作することができる構成であってもよい。また、異種の指示体70との組み合わせによって、同一の操作領域に対する同様の操作であっても、異なる機能を操作することができる構成であってもよい。
また、位置検出処理部157は、複数の指示体による操作を同時に検出可能としてもよい。この場合、操作判定部103Aは、位置検出処理部157により検出された複数の指示体の操作のうち、いずれかの指示体による操作が予め設定された条件に該当する場合に、この操作を行った指示体を特定し、特定された指示体の操作に関して座標変換部160および/または出力部101による操作位置の出力を制限し、投射ユニット3による画像の表示状態に関する機能を実行してもよい。この構成によれば、複数の指示体により操作が行われている場合に、指示体毎に、予め設定された条件に該当する操作を検出して、表示状態に関する制御を行うことが可能となる。これにより、複数の指示体を用いて操作を行う場合の操作性の向上を図ることができる。
In addition, the said embodiment is only an example of the specific aspect to which this invention is applied, This invention is not limited, It is also possible to apply this invention as an aspect different from the said embodiment. For example, in the above-described embodiment (FIGS. 4 to 7), an example in which the display state is changed using the user's finger as an indicator is shown, but the display state may be changed using a pen-type indicator 70. Good. Further, the indicator is not limited to the finger or the pen-type indicator 70, and a pointer such as a rod-shaped operation device or a laser pointer may be used as the indicator. In addition, a plurality of indicators 70 are provided, and different functions are assigned to the respective indicators 70 so that different functions can be operated by the indicators 70 even in the same operation on the same operation area. May be. In addition, by combining with different types of indicators 70, a configuration in which different functions can be operated even with the same operation on the same operation area may be employed.
Further, the position detection processing unit 157 may be capable of simultaneously detecting operations by a plurality of indicators. In this case, the operation determination unit 103A performs this operation when the operation by any one of the indicators detected by the position detection processing unit 157 meets a preset condition. A function relating to the display state of the image by the projection unit 3 may be executed by specifying the specified indicator, restricting the output of the operation position by the coordinate conversion unit 160 and / or the output unit 101 regarding the operation of the specified indicator. . According to this configuration, when an operation is performed using a plurality of indicators, it is possible to detect an operation corresponding to a preset condition for each indicator and perform control related to the display state. . Thereby, the operativity in the case of operating using a some indicator can be aimed at.

上記実施形態において、指示体70の発光部74は、操作スイッチ72がオンのときに発光する構成になっているが、操作スイッチ72の操作状態(オン/オフ)に応じて発光部74の明滅(発光/非発光)のパターンが変化するような構成にしてもよい。この構成にすれば、位置検出ユニット150は、操作スイッチ72の操作状態(オン/オフ)に拘らず、指示体70の指示位置を常に検出できるため、ユーザーは、他のポインティングデバイスのように、指示体70を動かすだけで画面上のポインターを移動させることが可能となる。また、常に発光する発光部74とともに、操作スイッチ72の操作状態を電波で送信する送信部を備えた構成にしても同様の効果を得ることができる。   In the above embodiment, the light emitting unit 74 of the indicator 70 is configured to emit light when the operation switch 72 is turned on, but the light emitting unit 74 blinks according to the operation state (on / off) of the operation switch 72. A configuration in which the pattern of (light emission / non-light emission) changes may be used. With this configuration, the position detection unit 150 can always detect the indication position of the indicator 70 regardless of the operation state (ON / OFF) of the operation switch 72, so that the user can, like other pointing devices, The pointer on the screen can be moved simply by moving the indicator 70. In addition, the same effect can be obtained even when the light emitting unit 74 that always emits light and the transmission unit that transmits the operation state of the operation switch 72 by radio waves are provided.

ユーザーの操作内容と、それに応じて実行する機能との対応付けは、上記実施形態(図4〜図7)で示した態様に限定されず、第1の操作における手指の本数と第2の操作における手指の移動方向の各種組み合わせに対して、上記実施形態とは異なる機能を割り当てるようにしてもよい。また、第3の操作、第4の操作など、さらに多くの操作の組み合わせによって機能を指定するようにしてもよい。   The association between the user's operation content and the function to be executed accordingly is not limited to the mode shown in the above embodiment (FIGS. 4 to 7), and the number of fingers and the second operation in the first operation. A different function from the above embodiment may be assigned to various combinations of finger movement directions. Further, the function may be designated by a combination of more operations such as the third operation and the fourth operation.

上記実施形態において、第1の操作(例えば、複数の指による接触)の後に、第2の操作(例えば、指の移動)を行った場合に、操作判定部103Aが、画像の表示状態を変更する機能を実行するようにしているが、第1の操作のみで機能を実行するようにしてもよい。例えば、図6に示した表示切替機能において、3本の指をスクリーンSCに接触させただけ、或いは接触させた状態を所定時間継続させただけで、操作判定部103Aがシングル画面表示とマルチ画面表示を切り替えるようにしてもよい。   In the above embodiment, when the second operation (for example, movement of the finger) is performed after the first operation (for example, contact with a plurality of fingers), the operation determination unit 103A changes the display state of the image. Although the function to perform is performed, you may make it perform a function only by 1st operation. For example, in the display switching function shown in FIG. 6, the operation determination unit 103 </ b> A can display the single screen display and the multi-screen only by touching three fingers with the screen SC or by keeping the touched state for a predetermined time. The display may be switched.

上記実施形態では、ユーザーが第1の操作を行った場合に、プロジェクター11の表示状態を変更する機能を実行するようにしているが、実行する機能は、表示状態を変更する機能に限定されず、それ以外の機能を実行するようにしてもよい。   In the above embodiment, when the user performs the first operation, the function of changing the display state of the projector 11 is executed. However, the function to be executed is not limited to the function of changing the display state. Other functions may be executed.

上記実施形態において、ユーザーによって第1の操作がなされた場合に、座標データ等の出力先を切り替えるようにしてもよい。例えば、外部の画像供給部に座標データ等を出力している状態において第1の操作(例えば、複数本の指をスクリーンSCに接触させる操作)がなされた場合に、座標データ等の出力先をプロジェクター11の内部の画像供給部に切り替えるようにすることができる。また、プロジェクター11の外部に複数の画像供給部が接続されている場合や、プロジェクター11の内部に複数の画像供給部が備わる場合において、第1の操作がなされる度に出力先を順次切り替えるようにしてもよいし、操作内容(例えば、接触させる指の本数)によって出力先を指定できるようにしてもよい。   In the above embodiment, when the first operation is performed by the user, the output destination of the coordinate data or the like may be switched. For example, when a first operation (for example, an operation of bringing a plurality of fingers into contact with the screen SC) is performed in a state where coordinate data or the like is being output to an external image supply unit, the output destination of the coordinate data or the like is set. It is possible to switch to the image supply unit inside the projector 11. In addition, when a plurality of image supply units are connected to the outside of the projector 11 or when a plurality of image supply units are provided inside the projector 11, the output destination is sequentially switched every time the first operation is performed. Alternatively, the output destination may be designated by the operation content (for example, the number of fingers to be contacted).

上記実施形態において、複数本の指によるスクリーンSCへの接触を第1の操作としているが、第1の操作はこれに限定されない。例えば、手のひらをスクリーンSCに接触させる操作を第1の操作としてもよいし、指示位置を所定の軌跡で動かす操作、即ち指示体で所定の形状(マーク等)を描く操作を第1の操作としてもよい。   In the above embodiment, the first operation is a contact with the screen SC by a plurality of fingers, but the first operation is not limited to this. For example, an operation of bringing the palm into contact with the screen SC may be the first operation, and an operation of moving the indicated position along a predetermined locus, that is, an operation of drawing a predetermined shape (such as a mark) with the indicator as the first operation. Also good.

上記実施形態のように、複数の指によるスクリーンSCへの接触を検出する際には、一人のユーザーによる操作であることを識別するために、検出された複数の指示位置の間隔が所定の距離内である場合に、複数の指による接触として判断するようにしてもよい。   As in the above embodiment, when detecting contact with the screen SC by a plurality of fingers, in order to identify the operation by one user, the interval between the plurality of detected indication positions is a predetermined distance. If it is within the range, it may be determined as contact with a plurality of fingers.

ステップS14(図3参照)において、操作判定部103Aが対応する機能を実行中に、指示体による新たな操作が位置検出ユニット150によって検出された場合には、操作判定部103Aは、当該操作を無視するようにしてもよいし、実行中の機能を中断するようにしてもよい。   In step S14 (see FIG. 3), when a new operation by the indicator is detected by the position detection unit 150 while the operation determination unit 103A is executing the corresponding function, the operation determination unit 103A performs the operation. It may be ignored or the function being executed may be interrupted.

上記実施形態(図4〜図7)では、ユーザーが片手で操作する態様を示したが、ユーザーが両手を使って操作する態様とすれば、より直感的な操作が可能となる。例えば、第1の操作として、位置検出ユニット150が、一方の手の指(1本または複数本の指)による接触を検出して所定時間が経過した場合、または一方の手の指(複数本の指)による接触を検出した場合に、操作判定部103Aが画像供給部への座標の出力を停止し、その後、ユーザーが第1の操作を行いつつ、第2の操作として、他方の手の指(1本または複数本の指)をスクリーンSCに接触させながら移動させ、位置検出ユニット150がこの操作を検出した場合に、画像移動機能を実行するようにしてもよい。また、第1の操作を行っている位置(指が接触している位置)に対して、他方の手の指の接触位置を近づけたり遠ざけたりした場合に、画像を縮小したり拡大したりしてもよい。また、第1の操作を行っている位置を中心にして、他方の手の指で円弧を描いた場合に、画像を回転させるようにしてもよい。また、一方の手で第1の操作を行いながら、他方の手の指を所定の方向に移動させた場合に、入力切替機能や表示切替機能を実行するようにしてもよい。また、一方の手で第1の操作を行いながら、他方の手でスクリーンSCに接触させた指の本数に応じて、マルチ画面表示における画面(表示領域)の数を設定できるようにしてもよい。例えば、一方の手で第1の操作を行いながら、他方の手で4本の指をスクリーンSCに接触させた場合には、4つの画面を有するマルチ画面表示を行うようにすることができる。また、第1の操作で接触する指の本数と、第2の操作で接触する指の本数の組み合わせに応じて、異なる機能を実行できるようにしてもよい。   In the above-described embodiment (FIGS. 4 to 7), the mode in which the user operates with one hand is shown. However, if the mode is operated with the user using both hands, a more intuitive operation is possible. For example, as the first operation, when the position detection unit 150 detects contact with a finger (one or a plurality of fingers) of one hand and a predetermined time has elapsed, or the fingers of one hand (a plurality of fingers) Operation determination unit 103A stops outputting coordinates to the image supply unit, and then the user performs the first operation while the second operation is performed as the second operation. When the finger (one or a plurality of fingers) is moved while being in contact with the screen SC and the position detection unit 150 detects this operation, the image moving function may be executed. Further, when the contact position of the finger of the other hand is moved closer to or away from the position where the first operation is performed (the position where the finger is in contact), the image is reduced or enlarged. May be. Further, the image may be rotated when an arc is drawn with the finger of the other hand around the position where the first operation is performed. Further, when the first operation is performed with one hand and the finger of the other hand is moved in a predetermined direction, the input switching function and the display switching function may be executed. In addition, while performing the first operation with one hand, the number of screens (display areas) in the multi-screen display may be set according to the number of fingers touching the screen SC with the other hand. . For example, when the first operation is performed with one hand and four fingers are brought into contact with the screen SC with the other hand, a multi-screen display having four screens can be performed. Further, different functions may be executed in accordance with the combination of the number of fingers touching in the first operation and the number of fingers touching in the second operation.

操作判定部103Aが、第1の操作を受けて画像供給部への座標データ等の出力を停止し、プロジェクター11の表示状態を変更する機能を実行している間、画像供給部において第1の操作に対応する動作がなされたままになってしまうことがないように、第1の操作を受けた後で、第1の操作を取り消す情報を画像供給部に出力するようにしてもよい。このようにすれば、画像供給部への座標データ等の出力が再開した際に、画像供給部で予期しない動作が起きてしまうことを抑制することが可能となる。   While the operation determination unit 103A receives the first operation and stops outputting the coordinate data and the like to the image supply unit and executes the function of changing the display state of the projector 11, the first operation is performed in the image supply unit. After receiving the first operation, information for canceling the first operation may be output to the image supply unit so that the operation corresponding to the operation is not left. In this way, it is possible to prevent an unexpected operation from occurring in the image supply unit when output of coordinate data or the like to the image supply unit is resumed.

上記実施形態において、位置検出処理部157による指示位置の検出方法としては、指示体70の発光部74が発する光を検出する方法や、撮像画像データを解析して手指を検出し、その先端位置を指示位置として特定する方法の他にも、様々な方法を採用可能である。例えば、指示体の操作面でもある表示面(スクリーンSC)に向けて、或いは表示面に平行に赤外光を照射し、その反射光に基づいて指示体の先端位置(指示位置)を検出するようにしてもよい。   In the above-described embodiment, as the detection method of the indicated position by the position detection processing unit 157, a method of detecting light emitted from the light emitting unit 74 of the indicator 70, a finger is detected by analyzing captured image data, and the tip position thereof is detected. In addition to the method of specifying as the pointing position, various methods can be adopted. For example, infrared light is irradiated toward the display surface (screen SC), which is also the operation surface of the indicator, or in parallel with the display surface, and the tip position (indication position) of the indicator is detected based on the reflected light. You may do it.

また、上記実施形態の構成において、位置検出ユニット150が有する撮像部153及び撮影制御部155を、プロジェクター11に外部接続されたデジタルカメラにより代替することも可能である。この場合のデジタルカメラは、制御部103の制御により撮影を実行して撮影画像データを位置検出処理部157に出力するものであればよい。また、このデジタルカメラとプロジェクター11とを接続するインターフェイスとしてはUSB等の汎用インターフェイスを利用できるので、容易に実現可能である。
また、撮像部153は、非可視光(赤外光など)を撮像可能な構成であっても良く、非可視光を撮像可能な場合には、指示体70が非可視光を射出して、撮像部153が指示体70から射出された非可視光を撮像する構成や、指示体70が非可視光を反射可能な反射部を備えており、制御部103の制御によってプロジェクター11からスクリーンSCに対して非可視光を投射し、指示体70の反射部によって反射された非可視光を撮像部153によって撮像する構成等を採用することができる。
In the configuration of the above embodiment, the imaging unit 153 and the imaging control unit 155 included in the position detection unit 150 may be replaced with a digital camera externally connected to the projector 11. The digital camera in this case only needs to execute photographing under the control of the control unit 103 and output photographed image data to the position detection processing unit 157. In addition, a general-purpose interface such as a USB can be used as an interface for connecting the digital camera and the projector 11 and can be easily realized.
In addition, the imaging unit 153 may be configured to be able to image invisible light (such as infrared light). When the invisible light can be imaged, the indicator 70 emits invisible light, A configuration in which the imaging unit 153 captures the invisible light emitted from the indicator 70, and the indicator 70 includes a reflection unit that can reflect the invisible light. The control unit 103 controls the projector 11 to the screen SC. On the other hand, a configuration in which invisible light is projected and invisible light reflected by the reflecting portion of the indicator 70 is imaged by the imaging unit 153 can be employed.

また、上記実施形態では、光源が発した光を変調する手段として、光変調装置32がRGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、反射型の液晶パネルを用いてもよいし、デジタルミラーデバイス(DMD)を用いた方式、デジタルミラーデバイスとカラーホイールを組み合わせた方式等により構成してもよい。ここで、表示部として1枚の液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。さらに、スクリーンSCの背面側から画像光を投射する背面投射型のプロジェクターとしてもよい。   In the above-described embodiment, the light modulation device 32 is described as an example of a configuration using three transmissive liquid crystal panels corresponding to RGB colors as means for modulating the light emitted from the light source. The present invention is not limited to this. For example, a reflective liquid crystal panel may be used, or a configuration using a digital mirror device (DMD), a combination of a digital mirror device and a color wheel, or the like may be used. May be. Here, when a single liquid crystal panel or DMD is used as the display unit, a member corresponding to a composite optical system such as a cross dichroic prism is unnecessary. In addition to the liquid crystal panel and the DMD, any configuration that can modulate the light emitted from the light source can be used without any problem. Further, it may be a rear projection type projector that projects image light from the back side of the screen SC.

また、本発明の表示装置は、スクリーンSCに画像を投射するプロジェクターに限定されず、液晶表示パネルに画像/画像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像/画像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像/画像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが表示手段に相当し、その表示画面が表示面に相当する。
さらに、上記実施形態の構成では、位置検出ユニット150が撮影画像データに基づいて指示体70による指示位置70Aを検出する構成を例に挙げて説明したが、本発明はこれに限定されず、例えば、表示面としてのスクリーンSC或いは他の表示方式における表示画面に、感圧式や静電容量式のタッチパネルを設け、このタッチパネルによって指示体70としてのユーザーの指や棒体等の接触を検出する構成としてもよい。また、指示体が発する赤外線信号を検出して指示位置を特定する方法や、スクリーンSC上に設けられた複数の装置により指示体までの距離を検出することで、指示位置を特定する方法を採用してもよい。
Further, the display device of the present invention is not limited to a projector that projects an image on the screen SC, and the image / image is displayed on a liquid crystal monitor or a liquid crystal television that displays an image / image on a liquid crystal display panel, or a plasma display panel (PDP). Monitor device or TV receiver, OLED (Organic light-emitting diode), OEL (Organic Electro-Luminescence) OLED (Organic Electro-Luminescence), etc. Various display devices such as a type display device are also included in the image display device of the present invention. In this case, the liquid crystal display panel, the plasma display panel, and the organic EL display panel correspond to display means, and the display screen corresponds to the display surface.
Furthermore, in the configuration of the above embodiment, the configuration in which the position detection unit 150 detects the pointing position 70A by the pointer 70 based on the captured image data has been described as an example. However, the present invention is not limited to this, for example, A configuration in which a pressure-sensitive or capacitive touch panel is provided on a screen SC as a display surface or a display screen in another display method, and the touch of a user's finger or bar as an indicator 70 is detected by this touch panel. It is good. In addition, a method of specifying an indication position by detecting an infrared signal emitted from the indicator, or a method of specifying an indication position by detecting a distance to the indicator by a plurality of devices provided on the screen SC is adopted. May be.

また、図2に示した表示システム10の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、プロジェクター11及びPC13を含む表示システム10の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、上記実施形態において記憶部105が記憶していた制御プログラム105Aを、プロジェクター11が通信ネットワークを介して接続された他の装置からダウンロードして実行してもよいし、可搬型の記録媒体に制御プログラム105Aを記録して、この記録媒体から上記各プログラムを読み取って実行する構成としてもよい。
Moreover, each function part of the display system 10 shown in FIG. 2 shows the functional structure implement | achieved by cooperation with hardware and software, Comprising: A specific mounting form is not restrict | limited in particular. Therefore, it is not always necessary to mount hardware corresponding to each function unit individually, and it is of course possible to realize a function of a plurality of function units by one processor executing a program. In addition, in the above embodiment, a part of the function realized by software may be realized by hardware, or a part of the function realized by hardware may be realized by software. In addition, specific detailed configurations of other parts of the display system 10 including the projector 11 and the PC 13 can be arbitrarily changed without departing from the spirit of the present invention.
In addition, the control program 105A stored in the storage unit 105 in the above-described embodiment may be downloaded from another apparatus connected to the projector 11 via a communication network and executed, or may be stored in a portable recording medium. The control program 105A may be recorded, and the above programs may be read from the recording medium and executed.

3…投射ユニット(表示手段)、5…実投射領域、6、6B、6C…表示領域、10…表示システム、11…プロジェクター、13…PC(画像供給部)、30…投射部、70、75…指示体、101…出力部(出力手段)、103…制御部、103A…操作判定部(制御手段)、110…画像処理ユニット(画像供給部)、150…位置検出ユニット(検出手段)、151…位置検出部、153…撮像部、157…位置検出処理部、160…座標変換部(出力手段)、SC…スクリーン   DESCRIPTION OF SYMBOLS 3 ... Projection unit (display means), 5 ... Actual projection area | region, 6, 6B, 6C ... Display area | region, 10 ... Display system, 11 ... Projector, 13 ... PC (image supply part), 30 ... Projection part, 70, 75 ... indicator, 101 ... output unit (output unit), 103 ... control unit, 103A ... operation determination unit (control unit), 110 ... image processing unit (image supply unit), 150 ... position detection unit (detection unit), 151 ... Position detection unit, 153 ... Imaging unit, 157 ... Position detection processing unit, 160 ... Coordinate conversion unit (output means), SC ... Screen

Claims (6)

像を投射して表示する表示手段と、
指示体による操作を検出する検出手段と、
前記検出手段により操作が検出された場合に操作位置を出力する出力手段と、
前記出力手段から出力された前記操作位置に基づいて、前記画像に重ねて第1の図形を描画する処理を行う画像処理手段と、
前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による前記操作位置の出力を制限する制御手段と、を備え、
前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記指示位置の移動方向及び移動量に基づいて、前記画像と前記第1の図形の位置を移動させる画像移動機能を実行し、
前記画像移動機能により前記画像及び前記第1の図形を移動させた後に、前記制御手段は、前記操作位置の出力を再開し、前記画像処理手段は、前記操作位置に基づいて、前記画像移動機能により移動した状態の前記画像に重ねて第2の図形を描画することを特徴とする表示装置。
Display means for displaying by projecting images,
Detecting means for detecting an operation by the indicator;
And output means for output the operating position when the operation is detected by said detecting means,
Image processing means for performing a process of drawing a first graphic on the image based on the operation position output from the output means;
Control means for limiting the output of the operation position by the output means when the operation detected by the detection means is an operation corresponding to a preset condition ;
The control means, when the operation detected by the detection means is an operation corresponding to a preset condition, based on the moving direction and the moving amount of the indicated position, the image and the first graphic. Execute the image movement function to move the position,
After the image and the first graphic are moved by the image movement function, the control unit resumes outputting the operation position, and the image processing unit is configured to perform the image movement function based on the operation position. A display device , wherein a second graphic is drawn on the image that has been moved as described above .
請求項1に記載の表示装置であって、
前記検出手段は、前記指示体として、ユーザーの手指を検出することを特徴とする表示装置。
The display device according to claim 1 ,
The display device is characterized in that a user's finger is detected as the indicator.
請求項に記載の表示装置であって、
前記制御手段は、前記検出手段によって検出された前記手指の本数に基づいて、実行する機能を変更することを特徴とする表示装置。
The display device according to claim 2 ,
Wherein, said detected by the detecting means based on the number of fingers, a display device, characterized in that to change the to run functions.
請求項1からのいずれかに記載の表示装置であって、
前記予め設定された条件に該当する操作は、前記操作位置の軌跡が所定の形状となるような操作であることを特徴とする表示装置。
The display device according to any one of claims 1 to 3 ,
The display apparatus according to claim 1, wherein the operation corresponding to the preset condition is an operation such that a locus of the operation position has a predetermined shape.
請求項1からのいずれかに記載の表示装置であって、
前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による操作位置の出力を停止させることを特徴とする表示装置。
The display device according to any one of claims 1 to 4 ,
The control device stops the output of the operation position by the output device when the operation detected by the detection device is an operation corresponding to a preset condition.
像を投射して表示する表示手段を備えた表示装置の制御方法であって、
指示体による操作を検出し、
操作を検出した場合に操作位置を出力し、
出力された前記操作位置に基づいて、前記画像に重ねて第1の図形を描画する処理を行い、
検出した操作が予め設定された条件に該当する操作である場合に、前記操作位置の出力を制限
検出した操作が予め設定された条件に該当する操作である場合に、前記指示位置の移動方向及び移動量に基づいて、前記画像と前記第1の図形の位置を移動させる画像移動機能を実行し、
前記画像移動機能により前記画像及び前記第1の図形を移動させた後に、前記操作位置の出力を再開し、前記操作位置に基づいて、前記画像移動機能により移動した状態の前記画像に重ねて第2の図形を描画すること、
を特徴とする表示装置の制御方法。
A control method of a display apparatus with a display means for displaying by projecting images,
Detecting an operation with a pointer,
And output the operation position when it detects the operation,
Based on the output operation position, a process of drawing a first graphic superimposed on the image,
If the detected operation is an operation that corresponds to the preset condition, it restricts the output of the operating position,
When the detected operation is an operation corresponding to a preset condition, an image moving function for moving the position of the image and the first graphic is executed based on the moving direction and moving amount of the indicated position. ,
After the image and the first graphic are moved by the image movement function, the output of the operation position is resumed, and the second image is superimposed on the image moved by the image movement function based on the operation position. Drawing 2 figures,
A control method of a display device characterized by the above.
JP2012269090A 2012-12-10 2012-12-10 Display device and control method of display device Expired - Fee Related JP6051828B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012269090A JP6051828B2 (en) 2012-12-10 2012-12-10 Display device and control method of display device
US14/098,638 US9904414B2 (en) 2012-12-10 2013-12-06 Display device, and method of controlling display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012269090A JP6051828B2 (en) 2012-12-10 2012-12-10 Display device and control method of display device

Publications (2)

Publication Number Publication Date
JP2014115802A JP2014115802A (en) 2014-06-26
JP6051828B2 true JP6051828B2 (en) 2016-12-27

Family

ID=51171741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012269090A Expired - Fee Related JP6051828B2 (en) 2012-12-10 2012-12-10 Display device and control method of display device

Country Status (1)

Country Link
JP (1) JP6051828B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6350175B2 (en) * 2014-09-26 2018-07-04 セイコーエプソン株式会社 POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD
JP6350261B2 (en) * 2014-12-17 2018-07-04 コニカミノルタ株式会社 Object operation system, object operation control program, and object operation control method
CN107979748A (en) * 2016-10-21 2018-05-01 中强光电股份有限公司 Projector, optical projection system and image projecting method
JP2019121207A (en) * 2018-01-09 2019-07-22 セイコーエプソン株式会社 Image provision device, image provision device control method, and program
JP7135721B2 (en) 2018-10-25 2022-09-13 セイコーエプソン株式会社 Display device and display method
JP7416033B2 (en) 2021-10-15 2024-01-17 セイコーエプソン株式会社 Display method, display system and display program

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004110439A (en) * 2002-09-18 2004-04-08 Ricoh Co Ltd Program and display integrated coordinate input device
JP4272904B2 (en) * 2003-03-06 2009-06-03 キヤノン株式会社 Display device and display device control method
JP2005141151A (en) * 2003-11-10 2005-06-02 Seiko Epson Corp Projector and method for setting projector function
US9696808B2 (en) * 2006-07-13 2017-07-04 Northrop Grumman Systems Corporation Hand-gesture recognition method
JP2010139686A (en) * 2008-12-11 2010-06-24 Seiko Epson Corp Projector, program, and information storage medium
JP5472569B2 (en) * 2008-12-15 2014-04-16 セイコーエプソン株式会社 Projection system
JP5536690B2 (en) * 2011-02-10 2014-07-02 シャープ株式会社 Touch drawing display device and operation method thereof
JP5817149B2 (en) * 2011-03-04 2015-11-18 株式会社ニコン Projection device
JP5879864B2 (en) * 2011-09-22 2016-03-08 カシオ計算機株式会社 Projector system, projector, control method, and program
JP5278576B2 (en) * 2012-04-27 2013-09-04 カシオ計算機株式会社 Gesture recognition device, gesture recognition method and program thereof

Also Published As

Publication number Publication date
JP2014115802A (en) 2014-06-26

Similar Documents

Publication Publication Date Title
JP6064319B2 (en) Projector and projector control method
JP5849560B2 (en) Display device, projector, and display method
JP6088127B2 (en) Display device, display device control method, and program
JP5927845B2 (en) Display device, display device control method, and program
US9904414B2 (en) Display device, and method of controlling display device
US9645678B2 (en) Display device, and method of controlling display device
US9324295B2 (en) Display device and method of controlling display device
US9134814B2 (en) Input device, display system and input method
JP6051828B2 (en) Display device and control method of display device
JP2012129594A (en) Projector and method for screen shape correction of projector
JP6286814B2 (en) Display device, display control method, and display system
JP2013222280A (en) Projector, control method for the same, program and projection system
JP6269801B2 (en) Projector and projector control method
JP6665415B2 (en) Projector and projector control method
JP6273671B2 (en) Projector, display system, and projector control method
JP6255810B2 (en) Display device and control method of display device
JP6098153B2 (en) Display device and control method of display device
JP6056447B2 (en) Display device and control method of display device
JP6111682B2 (en) Display device and control method of display device
JP6145963B2 (en) Projector, display system, and projector control method
JP2014119530A (en) Display control device, projector, and control method of projector

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20150108

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151110

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160610

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160624

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160823

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161014

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161101

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161114

R150 Certificate of patent or registration of utility model

Ref document number: 6051828

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees