JP6051828B2 - Display device and control method of display device - Google Patents
Display device and control method of display device Download PDFInfo
- Publication number
- JP6051828B2 JP6051828B2 JP2012269090A JP2012269090A JP6051828B2 JP 6051828 B2 JP6051828 B2 JP 6051828B2 JP 2012269090 A JP2012269090 A JP 2012269090A JP 2012269090 A JP2012269090 A JP 2012269090A JP 6051828 B2 JP6051828 B2 JP 6051828B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- output
- display
- indicator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
本発明は、表示面に画像を表示する表示装置、及び、表示装置の制御方法に関する。 The present invention relates to a display device that displays an image on a display surface and a control method for the display device.
従来、プロジェクター等の表示装置は、リモコン装置等を利用して各種機能を実行するよう構成されている(例えば、特許文献1参照)。特許文献1記載の装置は、リモコン装置を操作することで、例えば、複数の映像ソースから供給される画像を切り替える動作を行う。また、従来、表示装置において、ペン型のデバイス等を用いて位置入力操作を行うものが提案されている(例えば、特許文献2参照)。
Conventionally, a display device such as a projector is configured to execute various functions using a remote control device or the like (see, for example, Patent Document 1). The device described in
特許文献2記載のように位置入力操作を行う装置においては、位置入力操作により全ての機能を操作することは難しく、例えば表示する画像を切り替える等の制御機能はリモコン装置の操作が必須とされる場合があった。このような場合、ユーザーは、位置入力操作に用いるデバイスとリモコン装置等の両方を操作しなければならず、煩雑であった。
本発明は、上述した従来の技術が有する課題を解消し、表示装置の各種機能を実行する際の操作性の向上を図ることを目的とする。
In a device that performs a position input operation as described in Patent Document 2, it is difficult to operate all functions by a position input operation, and for example, a control function such as switching an image to be displayed requires an operation of a remote control device. There was a case. In such a case, the user has to operate both the device used for the position input operation and the remote control device, which is complicated.
An object of the present invention is to solve the problems of the conventional technology described above and to improve operability when executing various functions of a display device.
上記目的を達成するために、本発明は、画像供給部から供給される画像データに基づいて画像を表示する表示手段と、指示体による操作を検出する検出手段と、前記検出手段により操作が検出された場合に操作位置を前記画像供給部に出力する出力手段と、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による前記操作位置の出力を制限する制御手段と、を備えることを特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと画像供給部への操作位置の出力が制限されるので、その後に、ユーザーは表示装置に対する指示を指示体で行うことが可能となる。これにより、指示体により操作を行う場合の操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a display unit that displays an image based on image data supplied from an image supply unit, a detection unit that detects an operation by a pointer, and an operation detected by the detection unit. An output unit that outputs the operation position to the image supply unit when the operation is performed, and an output of the operation position by the output unit when the operation detected by the detection unit is an operation that satisfies a preset condition. And a control means for restricting.
According to this configuration, when the user performs an operation corresponding to the condition set in advance by the indicator, the output of the operation position to the image supply unit is limited. Can be performed. Thereby, it is possible to improve the operability when the operation is performed with the indicator.
本発明は、上記表示装置であって、前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記表示手段による画像の表示状態を変更する機能を実行することを特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと表示状態を変更する機能が実行される。このため、ユーザーは、指示体を他のデバイス等に持ち替えることなく、表示状態を変更できるので、表示装置の表示状態を変更する際の操作性の向上を図ることができる。
The present invention is the display device, wherein the control unit changes the display state of the image by the display unit when the operation detected by the detection unit is an operation corresponding to a preset condition. It is characterized by executing a function.
According to this configuration, the function of changing the display state is executed when the user performs an operation corresponding to a condition preset by the indicator. For this reason, since the user can change the display state without changing the indicator to another device or the like, it is possible to improve the operability when changing the display state of the display device.
本発明は、上記表示装置であって、前記検出手段は、前記指示体として、ユーザーの手指を検出することを特徴とする。
この構成によれば、ユーザーは指示体となるデバイスを用意する必要がなく、手で直感的に操作できる。これにより、より一層の操作性の向上を図ることができる。
The present invention is the display device described above, wherein the detection unit detects a finger of a user as the indicator.
According to this configuration, the user does not need to prepare a device serving as an indicator and can be operated intuitively by hand. Thereby, the further improvement of operativity can be aimed at.
また、本発明は、上記表示装置であって、前記制御手段は、前記検出手段によって検出された前記手指の本数に基づいて、実行する前記機能を変更することを特徴とする。
この構成によれば、検出される手指の数に基づいて実行する機能を変更することができるので、手指の操作に対して様々な機能を割り当てることができる。これにより、ユーザーが手指で様々な操作を行えるので、より一層の操作性の向上を図ることができる。
Further, the present invention is the display device described above, wherein the control unit changes the function to be executed based on the number of fingers detected by the detection unit.
According to this configuration, since the function to be executed can be changed based on the number of detected fingers, various functions can be assigned to the operation of the fingers. Thereby, since a user can perform various operations with fingers, the operability can be further improved.
また、本発明は、上記表示装置であって、前記予め設定された条件に該当する操作は、前記操作位置の軌跡が所定の形状となるような操作であることを特徴とする。
この構成によれば、操作の特異性を高めることが可能なため、ユーザーの意図に反して表示状態に関する機能の制御を行ってしまうことがなく、より一層の操作性の向上を図ることができる。
Further, the present invention is the display device described above, wherein the operation corresponding to the preset condition is an operation such that a locus of the operation position takes a predetermined shape.
According to this configuration, since it is possible to increase the specificity of the operation, the function relating to the display state is not controlled against the user's intention, and the operability can be further improved. .
また、本発明は、上記表示装置であって、前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による操作位置の出力を停止させることを特徴とする。 Further, the present invention is the above display device, wherein the control means outputs the operation position by the output means when the operation detected by the detection means is an operation that satisfies a preset condition. It is characterized by being stopped.
また、上記目的を達成するために、本発明は、画像供給部から供給される画像データに基づいて画像を表示する表示手段を備えた表示装置の制御方法であって、指示体による操作を検出し、操作を検出した場合に操作位置を前記画像供給部に出力し、検出した操作が予め設定された条件に該当する操作である場合に、前記操作位置の出力を制限すること、を特徴とする。
この構成によれば、ユーザーが指示体によって予め設定された条件に該当する操作を行うと画像供給部への操作位置の出力が制限されるので、その後に、ユーザーは表示装置に対する指示を指示体で行うことが可能となる。これにより、指示体により操作を行う場合の操作性の向上を図ることができる。
In order to achieve the above object, the present invention provides a control method for a display device including a display unit that displays an image based on image data supplied from an image supply unit, and detects an operation by an indicator. When the operation is detected, the operation position is output to the image supply unit, and when the detected operation is an operation corresponding to a preset condition, the output of the operation position is limited. To do.
According to this configuration, when the user performs an operation corresponding to the condition set in advance by the indicator, the output of the operation position to the image supply unit is limited. Can be performed. Thereby, it is possible to improve the operability when the operation is performed with the indicator.
本発明によれば、ユーザーが指示体を他のデバイス等に持ち替えることなく、表示状態に関する機能を制御でき、操作性の向上を図ることができる。 According to the present invention, it is possible to control functions related to the display state without changing the indicator to another device or the like, and to improve operability.
以下、図面を参照して本発明を適用した実施形態について説明する。
図1は、実施形態に係るプロジェクター11を用いた表示システム10の構成を示す図である。
表示装置としてのプロジェクター11は、画像供給部としてのPC(Personal Computer)13に画像信号ケーブル等により有線接続されている。PC13はモニター144を有し、例えば、モニター144に表示中の画像と同じ画像の画像データをプロジェクター11に出力する。図1には2台のPC13を図示しているが、表示システム10に接続可能なPC13の数は特に制限されない。
プロジェクター11は入力された画像データに基づいて、投射面(表示面)としてのスクリーンSCに表示画像を投射する。PC13から入力される画像データは動画像(映像)データおよび静止画像データのいずれであってもよく、プロジェクター11は入力される画像データに基づき動画像および静止画像のいずれも投射できる。また、プロジェクター11は、画像データを伝送する画像信号ケーブル等とは別に、USBケーブルやLANケーブル等の制御信号伝送用の通信回線によりPC13に接続され、この通信回線を介してPC13との間で制御データ等を送受信する。なお、制御信号伝送用の通信回線として無線通信回線を用いることも可能である。また、PC13とプロジェクター11とを接続する1本のケーブルに、画像データと、制御データとを重畳して伝送する構成としてもよい。
スクリーンSCとしては、壁面や床面に設置された幕または平板の他、壁面自体を使用してもよい。
図1に示すように、スクリーンSC上において、プロジェクター11が画像を投射可能な範囲(領域)を実投射領域5(表示可能領域)とする。なお、スクリーンSCに斜め方向から画像を投射する場合に生じる台形歪みを補正するキーストーン補正をプロジェクター11が行う場合には、補正後の矩形の領域を実投射領域5とする。
Embodiments to which the present invention is applied will be described below with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a
The
Based on the input image data, the
As the screen SC, a wall surface itself may be used in addition to a curtain or a flat plate installed on a wall surface or a floor surface.
As shown in FIG. 1, a range (area) in which the
また、プロジェクター11には、図示は省略するが、画像供給部として、複数のPC13の他に、DVDプレーヤーやビデオレコーダー等の画像供給装置を接続することもできる。また、プロジェクター11は、画像供給部を内蔵している構成であってもよい。すなわち、プロジェクター11が内蔵する回路により、プロジェクター11が投射する画像データを生成する構成であってもよい。
プロジェクター11は、実投射領域5内に一つの表示領域を設けて一つの画像供給部から入力された画像データに基づく画像を表示するシングル画面表示、および、実投射領域5に複数の表示領域を設けて、複数の画像供給部から入力された画像データを、複数の表示領域のそれぞれに表示させるマルチ画面表示を実行できる。
Although not shown, the
The
表示システム10では、スクリーンSC上で、指示体70を用いて位置指示操作を行うことが可能である。指示体70は、例えばペン型のデバイスであり、ユーザーは軸部71を手に持って、先端をスクリーンSCに押しつけるように使用する。指示体70の先端には押圧操作を検出する操作スイッチ72が設けられ、ユーザーが指示体70の先端をスクリーンSCに押し付けた場合に、操作スイッチ72がオンになる。
プロジェクター11は、指示体70の先端位置を指示位置70Aとして検出する機能を有する。プロジェクター11は、検出した指示位置70Aの座標を含む制御データを、プロジェクター11内部の回路により処理して、例えば検出した指示位置70Aの座標に基づいて画像を描画する等の処理を行うことができる。また、プロジェクター11は、指示位置70Aの座標を含む制御データをPC13に出力することもできる。
In the
The
また、表示システム10では、ペン型の指示体70に代えて、ユーザーの手の指(手指)を指示体として操作を行うことも可能である。プロジェクター11は、ユーザーの手指の位置を指示位置として検出する。さらに、プロジェクター11は、ユーザーの手指がスクリーンSCに接している場合に、接触位置を検出することが可能である。プロジェクター11は、ユーザーの手指の位置、および、手指がスクリーンSCに接触する接触位置のいずれかを指示位置として検出でき、どちらを指示位置とするかを設定できる。この場合、プロジェクター11は、ユーザーの1本の手指による操作を検出するだけでなく、複数の指により操作が行われた場合に、これら複数の指による指示位置を全て検出することもできる。
In the
図2は、表示システム10の機能的構成を示すブロック図である。
プロジェクター11は、PC13から入力される画像データに基づいて、スクリーンSCに画像を表示するための画像処理を実行する画像処理ユニット110と、画像処理ユニット110によって処理された画像をスクリーンSCに投射する投射ユニット(表示手段)3と、スクリーンSC上の指示体70の指示位置70Aを検出する位置検出ユニット(位置検出手段)150と、これらの各部を制御する制御部103と、を備えている。
制御部103は、図示しないCPU、不揮発性メモリー、RAM等により構成され、制御部103に接続された記憶部105に記憶されている制御プログラム105Aを読み出して実行し、プロジェクター11の各部を制御する。記憶部105は、磁気的、光学的記録装置または半導体記憶素子により構成され、制御プログラム105Aを含む各種プログラム、及び、各種設定値等のデータを記憶する。
FIG. 2 is a block diagram illustrating a functional configuration of the
Based on the image data input from the
The
制御部103には、操作部としての操作パネル41、及び、操作部としてのリモコンの操作を検出するリモコン受光部45が接続されている。
操作パネル41は、各種スイッチ及びインジケーターランプを備え、プロジェクター11の外装筐体(図示略)に配置されている。操作パネル41のスイッチが操作されると、操作されたスイッチに対応する操作信号が制御部103に出力される。
リモコン受光部45は、プロジェクター11を操作する操作者としてのユーザーが使用するリモコン(図示略)がボタン操作に対応して送信した赤外線信号を受光する。リモコン受光部45は、上記リモコンから受光した赤外線信号を復調およびデコードし、リモコンにおける操作を示す操作信号を制御部103に出力する。
なお、プロジェクター11の操作は、指示体70、操作パネル41およびリモコンの他、PC13によっても実行できる。この場合、PC13はプロジェクター11を操作するための制御データを出力し、操作部として機能する。
制御部103は、操作パネル41、リモコン受光部45から入力される操作信号に基づいて、ユーザーの操作を検出し、この操作に従ってプロジェクター11を制御する。
The
The
The remote control
The operation of the
The
投射部30は、照明光学系31、光変調装置32(光変調手段)、及び投射光学系33を備えて構成される。照明光学系31は、キセノンランプ、超高圧水銀ランプ、LED(Light Emitting Diode)等からなる光源を備える。また、照明光学系31は、光源が発した光を光変調装置32に導くリフレクター及び補助リフレクター、投射光の光学特性を高めるためのレンズ群(図示略)、偏光板、或いは光源が発した光を減光させる調光素子等を備えていてもよい。
光変調装置32は、照明光学系31からの光を変調して画像光を形成する。本実施形態では、透過型液晶パネルを用いて光変調装置32を構成した場合を例に挙げる。この構成では、光変調装置32はRGBの三原色に対応した3枚の液晶パネルを有し、照明光学系31が発した光はRGBの3色の色光に分離され、各色光が対応する各液晶パネルに入射する。各液晶パネルを通過して変調された色光はクロスダイクロイックプリズム等の合成光学系によって合成され、投射光学系33に射出される。
The
The
投射光学系33は、投射する画像の拡大・縮小および焦点の調整を行うレンズまたはレンズ群と、レンズを駆動してズームの度合いを調整するズーム調整用モーターおよびフォーカスの調整を行うフォーカス調整用モーター等を備える。
投射ユニット3は、投射部30とともに、投射光学系駆動部121、光変調装置駆動部119、及び、光源駆動部117を備えている。投射光学系駆動部121は、画像処理ユニット110の表示制御部107の制御に従って投射光学系33が備える各モーターを駆動する。光変調装置駆動部119は、表示制御部107から出力される画像信号に基づいて光変調装置32を駆動して描画を行う。光源駆動部117は、制御部103の制御に従って照明光学系31が備える光源を駆動する。
The projection
The
画像処理ユニット110は、PC13に接続される画像入力部104を備えている。画像入力部104は、PC13を含む各種画像供給部が画像データを入力するインターフェイスであり、例えば、DVIインターフェイス、USBインターフェイス、LANインターフェイス、HDMI(登録商標)インターフェイス、Bluetooth(登録商標)インターフェイス等の汎用インターフェイスを用いることができる。また、画像入力部104に、無線通信を利用して画像データを入力してもよい。また、画像入力部104が、アナログ映像信号をデジタル画像データに変換するA/D変換回路と、VGA端子等のアナログ映像信号入力端子を備えていてもよい。また、画像入力部104がDisplayPort(商標)インターフェイスを備えていてもよく、この場合、プロジェクター11は、PC13や、PC13と同等の機能を有する携帯型デバイスが備えるDisplayPortに接続することができる。
画像処理ユニット110は、画像入力部104を介して入力された画像データを処理する表示制御部107、および、表示制御部107の制御に従って画像をフレームメモリー115に展開し、投射部30が投射する画像を生成する画像処理部113を備えている。画像処理部113は、プロジェクター11が内蔵する画像供給部として機能する。
The
The
表示制御部107は、画像入力部104を介して入力される画像データのフォーマット(フレームレート、解像度、圧縮状態)の判別等を行い、光変調装置32に表示画像を表示するために必要な処理を決定し、画像処理部113を制御して当該処理を実行する。ここで実行される処理は、例えば、フレームレート変換、インターレース/プログレッシブ変換、解像度変換、圧縮された画像データの伸張処理、立体画像データのフォーマット変換等である。画像処理部113は、表示制御部107の制御に従って、画像入力部104に入力された画像データをフレームメモリー115に展開し、上述したような各種処理を実行する。画像処理部113はフレームメモリー115に描画した処理後の画像に基づいて、この画像を表示するための所定フォーマットの画像信号を生成し、表示制御部107に出力する。表示制御部107は、画像処理部113が生成した画像信号を光変調装置駆動部119に出力する。
また、画像処理部113は、表示制御部107の制御に従って、キーストーン補正、カラーモードに対応した色調補正、画像の拡大/縮小処理等の各種の画像処理を実行することも可能である。すなわち、制御部103が、操作パネル41またはリモコン受光部45から入力された操作信号に基づいて、表示制御部107に対し、キーストーン補正の実行、表示画像の拡大/縮小処理を実行させる。表示制御部107は、キーストーン補正や表示画像の拡大/縮小処理に必要な各種パラメーターを算出し、画像処理部113を制御して、キーストーン補正や表示画像の拡大/縮小処理を実行する。
The display control unit 107 determines the format (frame rate, resolution, compression state) of image data input via the
The image processing unit 113 can also perform various image processing such as keystone correction, color tone correction corresponding to the color mode, and image enlargement / reduction processing under the control of the display control unit 107. That is, the
ユーザーが操作する指示体70は、上述した操作スイッチ72と、操作スイッチ72がオンの場合に発光する発光部74とを備える。発光部74が発する光は、可視光であっても、可視光以外の光(例えば、赤外光)であってもよい。
指示体70による指示位置は、上述のように位置検出ユニット150(検出手段)により検出される。また、位置検出ユニット150は、発光部74の発光の有無に基づいて操作スイッチ72の操作状態を検出する。
The
The position indicated by the
位置検出ユニット150は、撮像部153、撮影制御部155、及び、位置検出処理部157を有する位置検出部151と、位置検出部151が検出した指示位置70Aの座標を算出する座標算出部159と、を備えている。
撮像部153は、投射光学系33が画像光を投射する方向を撮影するようにプロジェクター11に搭載されたデジタルカメラである。撮像部153が撮影する画角は、スクリーンSC上の実投射領域5を含む。撮像部153は、撮影制御部155の制御に従って撮影を実行し、撮影画像データを出力する。撮影制御部155は、制御部103の制御に従って、撮像部153を制御して撮影を実行させる。撮像部153が撮影時のズーム倍率、フォーカス、絞りの調整を行う機構を有する場合、撮影制御部155は、これらの機構を制御して予め設定された条件で撮影を実行させる。撮影後、撮影制御部155は撮像部153が出力する撮影画像データを取得して、位置検出処理部157に出力する。撮像部153から出力される撮影画像データは、RGBやYUV等の形式で表されるものであっても良く、輝度成分のみを表すものであってもよい。指示体70の発光部74が可視光以外の光(例えば赤外光)を発する場合には、撮像部153が可視光カットフィルターを通して撮影する構成であってもよい。また、撮影制御部155は、撮像部153から出力される撮影画像データをそのまま位置検出処理部157へ出力してもよく、解像度の調整や所定のファイルフォーマット(JPEG、BMPなど)への変換等を行った上で位置検出処理部157へ出力してもよい。
The
The
位置検出処理部157は、撮影制御部155から入力される撮影画像データを解析することにより、指示体70の先端の位置、すなわち指示位置70Aを検出する。本実施形態では、撮影制御部155の制御により撮像部153が所定時間毎に撮影を実行し、位置検出処理部157は、撮影制御部155から所定時間毎に入力される撮影画像データに基づいて指示位置70Aを検出し、検出した指示位置70Aを示す情報を出力する。また、位置検出処理部157は、操作スイッチ72のオン操作を検出した場合に、指示位置70Aを示す情報とともに操作スイッチ72のオン操作を示す情報を出力する。
The position
位置検出処理部157は、ペン型の指示体70だけでなく、ユーザーの手指を指示体として検出できる。位置検出処理部157は、撮影画像データから指の画像を検出し、この指の先端の位置を特定する。位置検出処理部157は、撮影画像データに複数の手指の画像が含まれている場合に、これら複数の手指を全て指示体として検出し、各手指の位置を指示位置として特定することもできる。複数の指示体は、複数の指示体70が使用される場合、指示体70とユーザーの手指、および、複数の手指のいずれの組み合わせであってもよい。
また、位置検出処理部157は、撮影画像データに含まれる手指の画像に基づいて、指示体としての手指がスクリーンSCに接しているか否かを判定できる。例えば、位置検出処理部157は、撮影画像データから指の画像と指の影の画像とを検出し、検出した各画像の間の距離に基づいて、検出した指がスクリーンSCに接しているか否かを判定する。位置検出処理部157は、撮影画像データから検出した指の位置を指示位置として検出することができ、指がスクリーンSCに接した位置を指示位置とすることもできる。例えば、位置検出処理部157は、撮影画像データから検出した指の先端の位置を指示位置として出力し、この指がスクリーンSCに接している場合は接触位置を指示位置として出力するとともに指の接触を示す情報を出力する。この場合、指の接触を示す情報は、指示体70の操作時に操作スイッチ72がオンであることを示す情報と同じ情報であってもよい。
The position
Further, the position
座標算出部159は、位置検出処理部157が検出した指示位置70Aの座標を算出する。座標算出部159が算出する座標は、指示位置70Aの撮影画像データにおける座標であり、その後でスクリーンSCの表示画像上に仮想的に設けられた座標軸における座標を算出する。撮影画像データにおける座標は、プロジェクター11とスクリーンSCとの距離、投射光学系33におけるズーム率、プロジェクター11の設置角度、撮像部153とスクリーンSCとの距離等の様々な要素の影響を受ける。座標算出部159は、事前に実施されるキャリブレーションの結果に基づき、撮影画像データにおける指示位置70Aの座標から、スクリーンSCの表示画像における指示位置70Aの座標を算出して、算出した座標を示す座標データを、操作スイッチ72がオンかオフか(または指示体としての手指がスクリーンSCに接触しているか否か)を示す情報(タッチ情報)等とともに、制御データとして出力する。なお、キャリブレーションでは、所定のパターン画像を投射ユニット3からスクリーンSCに投射して、表示されたパターン画像を撮像部153で撮影することにより、撮影画像データにおける座標と、スクリーンSC(実投射領域5)の表示画像上の座標との対応関係(座標変換パラメーター)が導かれる。なお、キャリブレーションの具体的な方法については、ここでは説明を省略するが、例えば、本出願人により開示された特願2011−204289号に記載されている方法を用いることができる。
さらに、座標算出部159は、位置検出処理部157が複数の指示体の指示位置を検出して、複数の指示位置を出力した場合、これら複数の指示位置の座標をそれぞれ算出して座標変換部160に出力することができる。
The coordinate
Furthermore, when the position
位置検出ユニット150は、座標算出部159が出力する座標データおよびタッチ情報等からなる制御データを、制御部103に入力する。制御部103は、位置検出ユニット150から入力される制御データに基づいて、予め設定された特定の操作を検出する操作判定部103A(制御手段)を備える。操作判定部103Aには、通常の位置指示操作とは異なる特定の操作を検出する条件が予め設定されている。操作判定部103Aは、設定された条件に該当する操作を検出した場合に、その操作に関係する座標データ等の出力を制御する一方、制御プログラム105Aに従って、予め設定されたプロジェクター11の機能を実行する。
具体的には、操作判定部103Aは、設定された条件に該当する操作を検出した場合に、座標変換部160を制御して、当該操作の座標データ等の出力を中止、または一時停止させる。この操作を検出した場合、操作判定部103Aは、画像の表示状態を変更する機能を実行する。例えば、画像入力部104を制御してスクリーンSCに表示する画像の画像ソースを、PC13から別のPC13または他の画像供給部に切り替える機能を実行する。また、例えば、スクリーンSCに画像を表示する位置を変更する機能、表示中の画像を拡大/縮小する機能、表示中の画像を回転させる機能、シングル画面表示とマルチ画面表示とを切り替える機能等を実行する。
The
Specifically, when the
また、操作判定部103Aは、位置検出ユニット150から入力される指示位置のデータを所定期間、一時的に記憶して指示位置の軌跡を作成し、この軌跡の形状が予め設定された条件に該当するか否かを判定することもできる。また、例えば、操作判定部103Aは作成した指示位置の軌跡に基づいて操作の方向を決定し、この方向と、予め設定された方向との一致/不一致を判定する。この場合、例えば、複雑で特異的な操作のみが該当するように条件を設定できるので、ユーザーの意図に反して上記条件に該当する操作をしてしまうことがなくなる。
In addition, the
座標算出部159が出力する制御データ(座標データ等)は座標変換部160に入力される。座標変換部160は、制御部103の制御に従って座標データの変換を行い、変換後の座標データ等をPC13または画像処理ユニット110に出力する。座標データ等をPC13に出力する場合、座標変換部160は、座標算出部159から入力された座標データを、PC13が画像入力部104に入力する画像データのフレームにおける座標を示す座標データに変換する。この変換処理は、PC13が画像入力部104に入力する画像データの解像度や、画像処理部113により画像データに対して行った処理に基づいて実行される。また、座標データ等を画像処理ユニット110に出力する場合、座標変換部160は、座標算出部159から入力された座標データを、画像処理部113が生成する画像のフレームにおける座標を示す座標データへ変換する。つまり、座標変換部160は、外部接続された画像供給部であるPC13、および、プロジェクター11が内蔵する画像供給部である画像処理ユニット110に対応する座標への変換を行うことが可能であり、座標データの出力先の画像供給部に対応する座標に変換する。
座標変換部160が座標を変換する処理において必要な情報としては、例えば、画像処理部113が生成する画像全体の高さおよび幅、画像入力部104に入力された画像データに基づく画像(表示画像)の高さおよび幅、画像全体における表示画像の位置、画像データの解像度、光変調装置32の液晶表示パネルにおける表示サイズ等の情報がある。これらの情報は、制御部103の制御または座標変換部160が要求を行うことにより、画像処理部113から座標変換部160に出力される。
座標変換部160は、画像処理ユニット110に対応して座標を変換した場合、変換後の座標データを、タッチ情報等とともに画像処理部113に出力する。また、座標変換部160は、PC13に対応して座標を変換した場合、変換後の座標データを、タッチ情報等とともに出力部101に出力する。つまり、変換処理の際に制御部103により指定された画像供給部に対して、変換後の座標データ等を出力する。なお、座標変換部160による座標変換の具体的な方法については、ここでは説明を省略するが、例えば、本出願人により開示された特願2011−204289号に記載されている方法を用いることができる。
Control data (such as coordinate data) output from the coordinate
Examples of information necessary for the process of converting coordinates by the coordinate
When the coordinate
出力部101は、座標変換部160の変換した処理後の座標データ等をPC13に出力するインターフェイスであり、例えば、USBインターフェイス、有線LANインターフェイス、IEEE1394等の汎用インターフェイスで構成され、無線通信インターフェイスを用いてもよい。ここで、画像入力部104と出力部101とを統合し、物理的に一つのUSBインターフェイスで出力部101と画像入力部104との両方の機能を実現してもよい。出力部101には複数のPC13が接続され、出力部101は、制御部103の制御により一つ以上のPC13を選択して、座標データ等を出力する。通常、出力部101は、画像入力部104に対して画像データを供給しているPC13を選択する。画像データを供給しているPC13が複数存在する場合、出力部101は、制御部103の制御に従って、これらPC13の中から一つ以上のPC13を出力先として選択する。
出力部101がPC13に出力する座標データ等は、各PC13において、マウス、トラックボール、デジタイザー、或いはペンタブレット等のポインティングデバイスが出力するデータと同様のデータとして入力される。
また、出力部101が、画像処理ユニット110が備える画像処理部113に接続され、座標変換部160が出力した変換後の座標データ等を画像処理ユニット110に出力してもよい。
The
Coordinate data or the like output from the
Further, the
PC13において、出力部101から出力される座標データ等を汎用的なポインティングデバイスが出力するデータと同等に扱う場合、これらの汎用的なポインティングデバイスに対応した汎用のデバイスドライバープログラムを利用できる。このような汎用のデバイスドライバープログラムは、通常、PC13のOS(オペレーティングシステム)の一部として予めインストールされているため、デバイスドライバープログラムのインストールを行うことなく利用できる。
このように汎用のデバイスドライバープログラムを利用する場合、専用のデバイスドライバープログラムを必要としないという利点があるが、プロジェクター11とPC13との間でやり取りできる情報は、汎用のデバイスドライバープログラムの仕様で定められた範囲に限定される。そこで、プロジェクター11に対応した専用のデバイスドライバープログラムをPC13にインストールして、このデバイスドライバープログラムによって出力部101が出力する座標データ等を処理してもよい。この場合、プロジェクター11とPCとの間でやり取りできる情報は、専用のデバイスドライバープログラムの仕様に応じて任意に設定できる。
When the
When a general-purpose device driver program is used in this way, there is an advantage that a dedicated device driver program is not required, but information that can be exchanged between the
座標変換部160が座標データ等をPC13に出力する場合、PC13は、出力部101から入力された座標データ等に基づいて、例えば線や図形を描画し、描画した線や図形を、プロジェクター11に出力中の画像に重ねて新たな画像データを生成し、この画像データをプロジェクター11に出力する。
また、座標変換部160が座標データ等を画像処理ユニット110に出力する場合、画像処理部113は、座標変換部160から入力される座標データ等に基づいて、フレームメモリー115に展開している表示用の画像に重ねて、例えば線や図形を描画し、描画後の画像を表示するための画像信号を生成して光変調装置駆動部119に出力する。なお、画像を重ねて描画する際には、フレームメモリーに直接描画するようにしてもよいし、フレームメモリーに展開されている画像とは異なるレイヤーに描画して、それぞれのレイヤーを重ねるようにしてもよい。
これにより、表示システム10では、ユーザーが指示体70の操作によって位置指示操作を行うことにより、操作した位置に対応して、スクリーンSCに表示中の画像に重ねて図形等が描画され、表示される。
When the coordinate
Further, when the coordinate
As a result, in the
次に、プロジェクター11の動作について、図3〜図7を参照して説明する。
図3は、プロジェクター11の動作を示すフローチャートである。
プロジェクター11の使用開始に伴い、操作判定部103Aは、指示体による操作が予め設定された条件に該当するか否かの判定を開始する(ステップS1)。位置検出処理部157が指示体の操作を検出すると(ステップS2)、その指示位置が位置検出ユニット150から制御部103に入力され、操作判定部103Aは入力された指示位置を取得する(ステップS3)。ここで操作判定部103Aが取得する指示位置のデータは、指示体の指示位置を示す座標データであればよい。操作判定部103Aは、例えば指示体70を使用する場合に、操作スイッチ72がオンになっている場合の指示位置のみを取得しても良いし、操作スイッチ72がオフである場合を含む全ての指示位置を取得してもよい。
Next, the operation of the
FIG. 3 is a flowchart showing the operation of the
With the start of use of the
操作判定部103Aは、取得した指示位置、または、取得した指示位置と過去の指示位置とにより形成される指示位置の軌跡が、設定された条件に該当するか否かを判定する(ステップS4)。ここで、条件に該当しない場合(ステップS4;No)、操作判定部103Aは、座標変換部160を制御して座標の変換を行わせ(ステップS5)、座標変換部160および出力部101を制御して座標変換部160が変換した座標を出力させ(ステップS6)、ステップS2に戻る。この場合、座標変換部160は、操作判定部103Aの制御に従って上述したように座標の変換を実行し、出力部101または画像処理ユニット110に座標データ等を出力する。
The
指示位置または指示位置の軌跡が予め設定された条件に該当する操作(第1の操作)である場合(ステップS4;Yes)、操作判定部103Aは、座標変換部160および出力部101を制御して、ステップS2で位置検出処理部157が検出した操作、およびこれ以降の操作に関して指示位置の座標の出力を停止させる(ステップS7)。次いで、操作判定部103Aは、ステップS4で該当した条件に対応する機能を判定する(ステップS8)。操作判定部103Aには、指示位置または指示位置の軌跡に関する条件を複数設定可能であり、条件毎に、対応する機能を設定できる。操作判定部103Aは、ステップS4で該当した条件に対応する機能を特定して、この機能を実行するためにさらに追加の操作(第2の操作)が必要か否かを判定する(ステップS9)。例えば、画像の表示位置を変更する機能の実行時には、表示位置を移動する方向と移動量を指定するための操作が追加の操作として必要となる。
When the designated position or the locus of the designated position is an operation (first operation) corresponding to a preset condition (step S4; Yes), the
追加の操作が不要な場合(ステップS9;No)、操作判定部103Aは、条件に対応する機能を実行し(ステップS10)、座標変換部160および出力部101を制御して、座標の出力を停止した状態を解除して出力を再開する(ステップS11)。
一方、追加の操作が必要な場合(ステップS9;Yes)、操作判定部103Aは、次の操作が位置検出処理部157により検出されるまで待機し(ステップS12)、操作が検出されると(ステップS12;Yes)、検出された操作の指示位置を取得し(ステップS13)。取得した指示位置に基づいて、ステップS8で特定した機能を実行する(ステップS14)。
その後、操作判定部103Aは、座標変換部160または出力部101による座標出力の制限を解除可能か否か判定する(ステップS15)。ステップS14で実行した機能が完了して、通常の位置指示操作の機能に復帰できる場合、操作判定部103AはステップS11に移行して、座標出力の停止を解除する。また、通常の位置指示操作の機能に復帰すべきでない場合には(ステップS15;No)、操作判定部103AはステップS12に戻る。座標出力の停止を解除する条件は、操作判定部103Aが実行する機能毎に予め定められている。例えば、ステップS14で画像の表示位置を変更する機能を実行した場合、その後の操作により続けて表示位置を変更できる方が、ユーザーの所望の位置に画像を移動できるので有用である。座標出力の停止を解除する条件としては、ステップS12〜S14を連続して実行した回数や、ステップS12で検出した操作が特定の条件を満たす操作であること等が挙げられる。
When an additional operation is not necessary (step S9; No), the
On the other hand, when an additional operation is necessary (step S9; Yes), the
Thereafter, the
図4〜図7は、図3のフローチャートに基づく動作の具体例を示す図であり、位置指示操作に対応してプロジェクター11が表示状態を制御する機能の一例を示す図である。
図4は画像の位置を変更する画像移動機能に関する一例を示す。(A)は機能実行前の投射状態を示し、(B)は位置を変更する機能に関する操作を示し、(C)は位置を変更する機能の実行例を示し、(D)は通常の位置指示操作に復帰した状態を示す。
この例ではユーザーの手指を指示体として操作が行われ、図4(A)に示すように、スクリーンSCの実投射領域5の全体に一つの表示領域6が配置され、画像61が投射される。この例では指示体の操作により画像61に重ねて図形を描く動作が可能であり、図4(A)には指示位置の軌跡に沿って図形61Aが描画された状態を示す。
4 to 7 are diagrams illustrating a specific example of the operation based on the flowchart of FIG. 3, and are diagrams illustrating an example of a function that the
FIG. 4 shows an example of an image moving function for changing the position of an image. (A) shows the projection state before the function is executed, (B) shows an operation related to the function for changing the position, (C) shows an execution example of the function for changing the position, and (D) shows a normal position instruction. Indicates the state returned to operation.
In this example, the operation is performed using the user's finger as an indicator, and as shown in FIG. 4A, one
図4の例ではユーザーが複数の指を同時にスクリーンSCに接触させることで、表示領域6における画像の位置を移動する画像移動機能が実行される。
例えば図4(A)に示すように、ユーザーが第1の操作として5本の指をスクリーンSCに接触(タッチ)させ、位置検出処理部157が5点の指示位置73Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像61の位置を移動する画像移動機能を実行する。画像移動機能が実行されると、ユーザーにより移動方向および移動量が指定される。図4(B)に示すように、ユーザーが、第2の操作(追加の操作)として、5本の指をスクリーンSCに接触させたままで指を移動する操作を行うと、操作判定部103Aは、指示位置73Aの移動方向および移動量に基づき、表示位置の移動方向および移動量を決定する。図4(B)の例では、スクリーンSCに接触させた5本の指を下向きに移動しており、指示位置73Aの移動量だけ画像61も下方に移動される。 移動後は、図4(C)に示すように、スクリーンSCの上部は何も表示されない非表示領域6Aとなり、画像61の下部がスクリーンSCから逸脱する。なお、スクリーンSCの外側、すなわち表示領域6の外は光変調装置32で変調された画像光が届かないため、スクリーンSCの外には画像61は投射されない。
また、ユーザーは、スクリーンSCに接触させた5本の指を上向き、横向き、或いは斜め方向等の任意の方向に移動させることも可能であり、操作判定部103Aは、指の移動方向および移動量に対応して、画像61の位置を移動させる。
図4(C)に示すように画像61が移動された後、操作判定部103Aは、画像供給部に対する座標データ等の出力を再開させ、プロジェクター11は、指示体の操作により描画を行う状態に復帰する。このため、指示体である指により位置指示操作がなされると、プロジェクター11は、図4(D)に示すように、操作に応じて図形61Bを描画する。
In the example of FIG. 4, the image moving function for moving the position of the image in the
For example, as shown in FIG. 4A, when the user touches (touches) five fingers as the first operation and the position
In addition, the user can move the five fingers in contact with the screen SC in any direction such as upward, lateral, or diagonal directions, and the
After the
図5は表示する画像を切り替える入力切替機能の一例を示す。(A)は機能実行前の状態を示し、(B)は入力切替機能の実行例を示し、(C)は再び入力切替機能が指示された例を示し、(D)は入力切替機能の実行例を示す。
この例もユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11が入力切替機能を実行する。入力切替機能の実行時には、画像入力部104に複数のPC13から入力される画像データのうち、スクリーンSCに表示される画像データが順次切り替えられる。すなわち、プロジェクター11に接続された画像供給部としてのPC13が順次切り替えられる。切替の順序は正順と逆順とを指定可能であり、正順の場合には、例えば、上記操作が行われる毎に、PC13A、PC13B、PC13C…、PC13Aの順に、循環して切り替えられ、逆順の場合には、正順とは逆の順番で切り替えられる。なお、プロジェクター11に外部接続されたPC13に限らず、画像供給部としてプロジェクター11が内蔵する画像処理ユニット110を切替の順序に含めることも可能である。プロジェクター11が画像データを生成する画像供給部を複数備えている場合には、これら複数の画像供給部を含む切替の順序を設定可能である。
FIG. 5 shows an example of an input switching function for switching an image to be displayed. (A) shows the state before function execution, (B) shows an execution example of the input switching function, (C) shows an example in which the input switching function is instructed again, and (D) shows the execution of the input switching function. An example is shown.
In this example, the operation is performed using the user's finger as an indicator, and when the indicator is moved in a specific direction, the
図5(A)に示すように、ユーザーが第1の操作として2本の指をスクリーンSCに接触させ、位置検出処理部157が2点の指示位置75Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像入力部104を制御して入力切替機能を実行する。入力切替機能が実行されると、ユーザーにより切替順序が指定される。ユーザーが第2の操作(追加の操作)として、2本の指をスクリーンSCに接触させたままで指を移動する操作を行うと、操作判定部103Aは、指示位置75Aの移動方向に基づき、切替順序を決定する。図5(A)の例のように、指示位置75Aが下向きに移動した場合には、切替順序は正順となり、図5(B)に示すように、正順で次の画像供給部が供給する画像データに基づく画像に切り替えられる。操作判定部103Aは、画像の切替が終了すると、画像供給部に対する座標データ等の出力を再開させ、通常の位置指示操作が可能な状態に移行する。
そして、図5(C)に示すように、2本の指を再度スクリーンSCに接触させて、指を下向きに移動する操作を行うと、図5(D)に示すように、正順でさらに次の画像供給部が供給する画像データに基づく画像に切り替えられる。このように、2本の指を下向きに移動する操作を繰り返すことによって所望の画像に切り替えることができる。なお、図示は省略するが、2本の指をスクリーンSCに接触させて、指を上向きに移動する操作を行った場合には、逆順で次の画像供給部が供給する画像データに基づく画像に切り替えられる。
As shown in FIG. 5A, when the user makes two fingers touch the screen SC as the first operation, and the position
Then, as shown in FIG. 5C, when two fingers are brought into contact with the screen SC again and the finger is moved downward, as shown in FIG. The image is switched to an image based on the image data supplied by the next image supply unit. In this way, it is possible to switch to a desired image by repeating the operation of moving two fingers downward. Although illustration is omitted, when an operation of moving the finger upward with two fingers in contact with the screen SC is performed, an image based on the image data supplied by the next image supply unit in the reverse order is displayed. Can be switched.
図6はシングル画面表示とマルチ画面表示とを切り替える表示切替機能の一例を示す。(A)は機能実行前の状態を示し、(B)は上記機能の実行例を示し、(C)は上記機能を指示する操作の例を示し、(D)は上記機能の実行例を示す。
この例でもユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11がシングル画面表示とマルチ画面表示とを切り替える。シングル画面表示時に表示される画像、および、マルチ画面表示時に表示される画像は、複数のPC13から入力される画像データのいずれかに予め設定されている。
図6(A)ではシングル画面表示がされており、表示領域6に一つの画像61が配置されている。ユーザーが第1の操作として3本の指をスクリーンSCに接触させ、位置検出処理部157が3点の指示位置75Aを検出した場合、操作判定部103Aは、画像供給部に対する座標データ等の出力を停止させるとともに、画像処理ユニット110を制御して表示切替機能を実行する。その後、ユーザーが、第2の操作(追加の操作)として、3本の指をスクリーンSCに接触させたままで、図中に矢印で示すように、指を左向きに移動する操作を行うと、操作判定部103Aは、図6(B)に示すようにマルチ画面表示に移行する。図6(B)の状態では表示領域6に2つの表示領域6B、6Cが配置され、各表示領域6B、6Cにはそれぞれ画像61、62が表示される。表示領域6B、6Cのアスペクト比を表示領域6と同様にする場合には、図6(B)に示すように表示領域6の上部および下部に帯状の非表示領域6Aが形成される。マルチ画面表示への切替が完了すると、操作判定部103Aは、画像供給部に対する座標データ等の出力を再開させ、通常の位置指示操作が可能な状態に移行する。
FIG. 6 shows an example of a display switching function for switching between single screen display and multi-screen display. (A) shows a state before function execution, (B) shows an example of execution of the function, (C) shows an example of an operation for instructing the function, and (D) shows an example of execution of the function. .
Also in this example, the operation is performed using the user's finger as an indicator, and when the indicator is moved in a specific direction, the
In FIG. 6A, a single screen is displayed, and one
さらに、マルチ画面表示の実行中に、図6(C)に示すように3本の指を再度スクリーンSCに接触させて左向きに移動する操作を行うと、操作判定部103Aは、図6(D)に示すようにシングル画面表示への切り替えを実行する。ここで、操作判定部103Aは、表示領域6に表示されていた画像61、62のうち、指示位置75Aに重なる画像62を、シングル画面表示において表示する。つまり、マルチ画面表示の実行中に3本の指による左向きの操作が検出された場合、操作判定部103Aは、その操作の指示位置に重なる画像をシングル画面表示する。これにより、指示体による1回の操作で、シングル画面表示への切り替えの指示と、シングル画面表示する画像の指定とを行うことができる。
Further, during the execution of the multi-screen display, when the operation of moving the left direction by bringing the three fingers into contact with the screen SC again as shown in FIG. ) Switch to single screen display as shown in. Here, the
図7は、マルチ画面表示の実行中に、入力切替機能を実行する例を示す。(A)は機能実行前の状態を示し、(B)は切替機能を指示する操作の例を示し、(C)は切替機能の実行例を示す。
この例では図5(A)〜(D)に示した例と同様、ユーザーの手指を指示体として操作が行われ、指示体を特定の方向に移動するとプロジェクター11が入力切替機能を実行する。入力切替機能の実行時における画像供給部の切り替え順序は、図5を参照して説明した場合と同様である。
図7(A)に示す例では、表示領域6に複数の表示領域6B、6Cが配置され、画像61、62が各表示領域6B、6Cに表示されている。
図7(B)に示すように、ユーザーが2本の指をスクリーンSCに接触させ、位置検出処理部157が2点の指示位置75Aを検出した場合、操作判定部103Aは、画像入力部104を制御して入力切替機能を実行する。ここで、操作判定部103Aは、表示領域6に表示された画像61、62のうち、指示位置75Aに重なる側の画像を特定する。ユーザーがタッチした2本の指を下向きまたは上向きに移動する操作を行うと、操作判定部103Aは、特定された画像を、図7(C)に示すように他の画像63に切り替える。操作判定部103Aは、画像の切替が完了すると、通常の位置指示操作が可能な状態に移行する。この図7の例では、指示体による1回の操作で、画像の切り替えの指示と、切り替えの対象となる画像の指定とを行うことができる。
FIG. 7 shows an example in which the input switching function is executed during execution of multi-screen display. (A) shows the state before executing the function, (B) shows an example of an operation for instructing the switching function, and (C) shows an execution example of the switching function.
In this example, similar to the example shown in FIGS. 5A to 5D, the operation is performed using the user's finger as an indicator, and the
In the example shown in FIG. 7A, a plurality of
As shown in FIG. 7B, when the user makes two fingers touch the screen SC and the position
以上説明したように、本発明を適用した実施形態におけるプロジェクター11は、画像供給部としてのPC13または画像処理ユニット110から供給される画像データに基づいて画像を表示する投射ユニット3と、指示体による操作を検出する位置検出ユニット150と、位置検出ユニット150により操作が検出された場合に操作位置を画像供給部に出力する座標変換部160または出力部101と、位置検出ユニット150により検出された操作が予め設定された条件に該当する操作である場合に、操作位置の出力を制限し、投射ユニット3による画像の表示状態を変更する機能を実行する操作判定部103Aと、を備えるので、指示体により予め設定された条件に該当する操作が行われると、表示状態を変更する機能が実行される。このため、ユーザーは、指示体を他のデバイス等に持ち替えることなく、例えば、スクリーンSCに表示される画像の切り替え、拡大、縮小、シングル画面表示とマルチ画面表示との切り替え等の表示状態を変更する機能を実行させることができ、操作性の向上を図ることができる。
As described above, the
プロジェクター11は、第1の操作でスクリーンSCに接触する手指の本数に応じて異なる機能を実行するようにしている。また、第2の操作によって機能の実行内容を決定するようにしているため、手指を指示体とした操作だけで、様々な動作を行わせることが可能となる。
The
また、操作判定部103Aは、位置検出ユニット150により検出された操作が予め設定された条件に該当する操作である場合に、この操作およびそれ以後の操作に関して座標変換部160による操作位置の出力を停止させるので、表示状態に関する機能について操作した内容が、それ以前に実行していた機能に対する操作として出力されてしまうことがない。従って、複数の操作を効率よく切り換えて、ユーザーが意図しない入力を防止できる。
In addition, when the operation detected by the
なお、上記実施形態は本発明を適用した具体的態様の例に過ぎず、本発明を限定するものではなく、上記実施形態とは異なる態様として本発明を適用することも可能である。例えば、上記の実施形態(図4〜図7)では、ユーザーの手指を指示体として表示状態を変更する例を示したが、ペン型の指示体70を用いて表示状態を変更する態様としてもよい。また、指示体としては、手指やペン型の指示体70に限定されず、棒形状の操作デバイスやレーザーポインター等のポインターを指示体として用いてもよい。また、複数の指示体70を備え、各々の指示体70に異なる機能を割り当てて、同一の操作領域に対する同様の操作であっても、指示体70によって異なる機能を操作することができる構成であってもよい。また、異種の指示体70との組み合わせによって、同一の操作領域に対する同様の操作であっても、異なる機能を操作することができる構成であってもよい。
また、位置検出処理部157は、複数の指示体による操作を同時に検出可能としてもよい。この場合、操作判定部103Aは、位置検出処理部157により検出された複数の指示体の操作のうち、いずれかの指示体による操作が予め設定された条件に該当する場合に、この操作を行った指示体を特定し、特定された指示体の操作に関して座標変換部160および/または出力部101による操作位置の出力を制限し、投射ユニット3による画像の表示状態に関する機能を実行してもよい。この構成によれば、複数の指示体により操作が行われている場合に、指示体毎に、予め設定された条件に該当する操作を検出して、表示状態に関する制御を行うことが可能となる。これにより、複数の指示体を用いて操作を行う場合の操作性の向上を図ることができる。
In addition, the said embodiment is only an example of the specific aspect to which this invention is applied, This invention is not limited, It is also possible to apply this invention as an aspect different from the said embodiment. For example, in the above-described embodiment (FIGS. 4 to 7), an example in which the display state is changed using the user's finger as an indicator is shown, but the display state may be changed using a pen-
Further, the position
上記実施形態において、指示体70の発光部74は、操作スイッチ72がオンのときに発光する構成になっているが、操作スイッチ72の操作状態(オン/オフ)に応じて発光部74の明滅(発光/非発光)のパターンが変化するような構成にしてもよい。この構成にすれば、位置検出ユニット150は、操作スイッチ72の操作状態(オン/オフ)に拘らず、指示体70の指示位置を常に検出できるため、ユーザーは、他のポインティングデバイスのように、指示体70を動かすだけで画面上のポインターを移動させることが可能となる。また、常に発光する発光部74とともに、操作スイッチ72の操作状態を電波で送信する送信部を備えた構成にしても同様の効果を得ることができる。
In the above embodiment, the
ユーザーの操作内容と、それに応じて実行する機能との対応付けは、上記実施形態(図4〜図7)で示した態様に限定されず、第1の操作における手指の本数と第2の操作における手指の移動方向の各種組み合わせに対して、上記実施形態とは異なる機能を割り当てるようにしてもよい。また、第3の操作、第4の操作など、さらに多くの操作の組み合わせによって機能を指定するようにしてもよい。 The association between the user's operation content and the function to be executed accordingly is not limited to the mode shown in the above embodiment (FIGS. 4 to 7), and the number of fingers and the second operation in the first operation. A different function from the above embodiment may be assigned to various combinations of finger movement directions. Further, the function may be designated by a combination of more operations such as the third operation and the fourth operation.
上記実施形態において、第1の操作(例えば、複数の指による接触)の後に、第2の操作(例えば、指の移動)を行った場合に、操作判定部103Aが、画像の表示状態を変更する機能を実行するようにしているが、第1の操作のみで機能を実行するようにしてもよい。例えば、図6に示した表示切替機能において、3本の指をスクリーンSCに接触させただけ、或いは接触させた状態を所定時間継続させただけで、操作判定部103Aがシングル画面表示とマルチ画面表示を切り替えるようにしてもよい。
In the above embodiment, when the second operation (for example, movement of the finger) is performed after the first operation (for example, contact with a plurality of fingers), the
上記実施形態では、ユーザーが第1の操作を行った場合に、プロジェクター11の表示状態を変更する機能を実行するようにしているが、実行する機能は、表示状態を変更する機能に限定されず、それ以外の機能を実行するようにしてもよい。
In the above embodiment, when the user performs the first operation, the function of changing the display state of the
上記実施形態において、ユーザーによって第1の操作がなされた場合に、座標データ等の出力先を切り替えるようにしてもよい。例えば、外部の画像供給部に座標データ等を出力している状態において第1の操作(例えば、複数本の指をスクリーンSCに接触させる操作)がなされた場合に、座標データ等の出力先をプロジェクター11の内部の画像供給部に切り替えるようにすることができる。また、プロジェクター11の外部に複数の画像供給部が接続されている場合や、プロジェクター11の内部に複数の画像供給部が備わる場合において、第1の操作がなされる度に出力先を順次切り替えるようにしてもよいし、操作内容(例えば、接触させる指の本数)によって出力先を指定できるようにしてもよい。
In the above embodiment, when the first operation is performed by the user, the output destination of the coordinate data or the like may be switched. For example, when a first operation (for example, an operation of bringing a plurality of fingers into contact with the screen SC) is performed in a state where coordinate data or the like is being output to an external image supply unit, the output destination of the coordinate data or the like is set. It is possible to switch to the image supply unit inside the
上記実施形態において、複数本の指によるスクリーンSCへの接触を第1の操作としているが、第1の操作はこれに限定されない。例えば、手のひらをスクリーンSCに接触させる操作を第1の操作としてもよいし、指示位置を所定の軌跡で動かす操作、即ち指示体で所定の形状(マーク等)を描く操作を第1の操作としてもよい。 In the above embodiment, the first operation is a contact with the screen SC by a plurality of fingers, but the first operation is not limited to this. For example, an operation of bringing the palm into contact with the screen SC may be the first operation, and an operation of moving the indicated position along a predetermined locus, that is, an operation of drawing a predetermined shape (such as a mark) with the indicator as the first operation. Also good.
上記実施形態のように、複数の指によるスクリーンSCへの接触を検出する際には、一人のユーザーによる操作であることを識別するために、検出された複数の指示位置の間隔が所定の距離内である場合に、複数の指による接触として判断するようにしてもよい。 As in the above embodiment, when detecting contact with the screen SC by a plurality of fingers, in order to identify the operation by one user, the interval between the plurality of detected indication positions is a predetermined distance. If it is within the range, it may be determined as contact with a plurality of fingers.
ステップS14(図3参照)において、操作判定部103Aが対応する機能を実行中に、指示体による新たな操作が位置検出ユニット150によって検出された場合には、操作判定部103Aは、当該操作を無視するようにしてもよいし、実行中の機能を中断するようにしてもよい。
In step S14 (see FIG. 3), when a new operation by the indicator is detected by the
上記実施形態(図4〜図7)では、ユーザーが片手で操作する態様を示したが、ユーザーが両手を使って操作する態様とすれば、より直感的な操作が可能となる。例えば、第1の操作として、位置検出ユニット150が、一方の手の指(1本または複数本の指)による接触を検出して所定時間が経過した場合、または一方の手の指(複数本の指)による接触を検出した場合に、操作判定部103Aが画像供給部への座標の出力を停止し、その後、ユーザーが第1の操作を行いつつ、第2の操作として、他方の手の指(1本または複数本の指)をスクリーンSCに接触させながら移動させ、位置検出ユニット150がこの操作を検出した場合に、画像移動機能を実行するようにしてもよい。また、第1の操作を行っている位置(指が接触している位置)に対して、他方の手の指の接触位置を近づけたり遠ざけたりした場合に、画像を縮小したり拡大したりしてもよい。また、第1の操作を行っている位置を中心にして、他方の手の指で円弧を描いた場合に、画像を回転させるようにしてもよい。また、一方の手で第1の操作を行いながら、他方の手の指を所定の方向に移動させた場合に、入力切替機能や表示切替機能を実行するようにしてもよい。また、一方の手で第1の操作を行いながら、他方の手でスクリーンSCに接触させた指の本数に応じて、マルチ画面表示における画面(表示領域)の数を設定できるようにしてもよい。例えば、一方の手で第1の操作を行いながら、他方の手で4本の指をスクリーンSCに接触させた場合には、4つの画面を有するマルチ画面表示を行うようにすることができる。また、第1の操作で接触する指の本数と、第2の操作で接触する指の本数の組み合わせに応じて、異なる機能を実行できるようにしてもよい。
In the above-described embodiment (FIGS. 4 to 7), the mode in which the user operates with one hand is shown. However, if the mode is operated with the user using both hands, a more intuitive operation is possible. For example, as the first operation, when the
操作判定部103Aが、第1の操作を受けて画像供給部への座標データ等の出力を停止し、プロジェクター11の表示状態を変更する機能を実行している間、画像供給部において第1の操作に対応する動作がなされたままになってしまうことがないように、第1の操作を受けた後で、第1の操作を取り消す情報を画像供給部に出力するようにしてもよい。このようにすれば、画像供給部への座標データ等の出力が再開した際に、画像供給部で予期しない動作が起きてしまうことを抑制することが可能となる。
While the
上記実施形態において、位置検出処理部157による指示位置の検出方法としては、指示体70の発光部74が発する光を検出する方法や、撮像画像データを解析して手指を検出し、その先端位置を指示位置として特定する方法の他にも、様々な方法を採用可能である。例えば、指示体の操作面でもある表示面(スクリーンSC)に向けて、或いは表示面に平行に赤外光を照射し、その反射光に基づいて指示体の先端位置(指示位置)を検出するようにしてもよい。
In the above-described embodiment, as the detection method of the indicated position by the position
また、上記実施形態の構成において、位置検出ユニット150が有する撮像部153及び撮影制御部155を、プロジェクター11に外部接続されたデジタルカメラにより代替することも可能である。この場合のデジタルカメラは、制御部103の制御により撮影を実行して撮影画像データを位置検出処理部157に出力するものであればよい。また、このデジタルカメラとプロジェクター11とを接続するインターフェイスとしてはUSB等の汎用インターフェイスを利用できるので、容易に実現可能である。
また、撮像部153は、非可視光(赤外光など)を撮像可能な構成であっても良く、非可視光を撮像可能な場合には、指示体70が非可視光を射出して、撮像部153が指示体70から射出された非可視光を撮像する構成や、指示体70が非可視光を反射可能な反射部を備えており、制御部103の制御によってプロジェクター11からスクリーンSCに対して非可視光を投射し、指示体70の反射部によって反射された非可視光を撮像部153によって撮像する構成等を採用することができる。
In the configuration of the above embodiment, the
In addition, the
また、上記実施形態では、光源が発した光を変調する手段として、光変調装置32がRGBの各色に対応した3枚の透過型の液晶パネルを用いた構成を例に挙げて説明したが、本発明はこれに限定されるものではなく、例えば、反射型の液晶パネルを用いてもよいし、デジタルミラーデバイス(DMD)を用いた方式、デジタルミラーデバイスとカラーホイールを組み合わせた方式等により構成してもよい。ここで、表示部として1枚の液晶パネルまたはDMDを用いる場合には、クロスダイクロイックプリズム等の合成光学系に相当する部材は不要である。また、液晶パネル及びDMD以外にも、光源が発した光を変調可能な構成であれば問題なく採用できる。さらに、スクリーンSCの背面側から画像光を投射する背面投射型のプロジェクターとしてもよい。
In the above-described embodiment, the
また、本発明の表示装置は、スクリーンSCに画像を投射するプロジェクターに限定されず、液晶表示パネルに画像/画像を表示する液晶モニターまたは液晶テレビ、或いは、PDP(プラズマディスプレイパネル)に画像/画像を表示するモニター装置またはテレビ受像機、OLED(Organic light-emitting diode)、OEL(Organic Electro-Luminescence)等と呼ばれる有機EL表示パネルに画像/画像を表示するモニター装置またはテレビ受像機等の自発光型の表示装置など、各種の表示装置も本発明の画像表示装置に含まれる。この場合、液晶表示パネル、プラズマディスプレイパネル、有機EL表示パネルが表示手段に相当し、その表示画面が表示面に相当する。
さらに、上記実施形態の構成では、位置検出ユニット150が撮影画像データに基づいて指示体70による指示位置70Aを検出する構成を例に挙げて説明したが、本発明はこれに限定されず、例えば、表示面としてのスクリーンSC或いは他の表示方式における表示画面に、感圧式や静電容量式のタッチパネルを設け、このタッチパネルによって指示体70としてのユーザーの指や棒体等の接触を検出する構成としてもよい。また、指示体が発する赤外線信号を検出して指示位置を特定する方法や、スクリーンSC上に設けられた複数の装置により指示体までの距離を検出することで、指示位置を特定する方法を採用してもよい。
Further, the display device of the present invention is not limited to a projector that projects an image on the screen SC, and the image / image is displayed on a liquid crystal monitor or a liquid crystal television that displays an image / image on a liquid crystal display panel, or a plasma display panel (PDP). Monitor device or TV receiver, OLED (Organic light-emitting diode), OEL (Organic Electro-Luminescence) OLED (Organic Electro-Luminescence), etc. Various display devices such as a type display device are also included in the image display device of the present invention. In this case, the liquid crystal display panel, the plasma display panel, and the organic EL display panel correspond to display means, and the display screen corresponds to the display surface.
Furthermore, in the configuration of the above embodiment, the configuration in which the
また、図2に示した表示システム10の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現されている機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現されている機能の一部をソフトウェアで実現してもよい。その他、プロジェクター11及びPC13を含む表示システム10の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
また、上記実施形態において記憶部105が記憶していた制御プログラム105Aを、プロジェクター11が通信ネットワークを介して接続された他の装置からダウンロードして実行してもよいし、可搬型の記録媒体に制御プログラム105Aを記録して、この記録媒体から上記各プログラムを読み取って実行する構成としてもよい。
Moreover, each function part of the
In addition, the
3…投射ユニット(表示手段)、5…実投射領域、6、6B、6C…表示領域、10…表示システム、11…プロジェクター、13…PC(画像供給部)、30…投射部、70、75…指示体、101…出力部(出力手段)、103…制御部、103A…操作判定部(制御手段)、110…画像処理ユニット(画像供給部)、150…位置検出ユニット(検出手段)、151…位置検出部、153…撮像部、157…位置検出処理部、160…座標変換部(出力手段)、SC…スクリーン
DESCRIPTION OF
Claims (6)
指示体による操作を検出する検出手段と、
前記検出手段により操作が検出された場合に操作位置を出力する出力手段と、
前記出力手段から出力された前記操作位置に基づいて、前記画像に重ねて第1の図形を描画する処理を行う画像処理手段と、
前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による前記操作位置の出力を制限する制御手段と、を備え、
前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記指示位置の移動方向及び移動量に基づいて、前記画像と前記第1の図形の位置を移動させる画像移動機能を実行し、
前記画像移動機能により前記画像及び前記第1の図形を移動させた後に、前記制御手段は、前記操作位置の出力を再開し、前記画像処理手段は、前記操作位置に基づいて、前記画像移動機能により移動した状態の前記画像に重ねて第2の図形を描画することを特徴とする表示装置。 Display means for displaying by projecting images,
Detecting means for detecting an operation by the indicator;
And output means for output the operating position when the operation is detected by said detecting means,
Image processing means for performing a process of drawing a first graphic on the image based on the operation position output from the output means;
Control means for limiting the output of the operation position by the output means when the operation detected by the detection means is an operation corresponding to a preset condition ;
The control means, when the operation detected by the detection means is an operation corresponding to a preset condition, based on the moving direction and the moving amount of the indicated position, the image and the first graphic. Execute the image movement function to move the position,
After the image and the first graphic are moved by the image movement function, the control unit resumes outputting the operation position, and the image processing unit is configured to perform the image movement function based on the operation position. A display device , wherein a second graphic is drawn on the image that has been moved as described above .
前記検出手段は、前記指示体として、ユーザーの手指を検出することを特徴とする表示装置。 The display device according to claim 1 ,
The display device is characterized in that a user's finger is detected as the indicator.
前記制御手段は、前記検出手段によって検出された前記手指の本数に基づいて、実行する機能を変更することを特徴とする表示装置。 The display device according to claim 2 ,
Wherein, said detected by the detecting means based on the number of fingers, a display device, characterized in that to change the to run functions.
前記予め設定された条件に該当する操作は、前記操作位置の軌跡が所定の形状となるような操作であることを特徴とする表示装置。 The display device according to any one of claims 1 to 3 ,
The display apparatus according to claim 1, wherein the operation corresponding to the preset condition is an operation such that a locus of the operation position has a predetermined shape.
前記制御手段は、前記検出手段により検出された操作が予め設定された条件に該当する操作である場合に、前記出力手段による操作位置の出力を停止させることを特徴とする表示装置。 The display device according to any one of claims 1 to 4 ,
The control device stops the output of the operation position by the output device when the operation detected by the detection device is an operation corresponding to a preset condition.
指示体による操作を検出し、
操作を検出した場合に操作位置を出力し、
出力された前記操作位置に基づいて、前記画像に重ねて第1の図形を描画する処理を行い、
検出した操作が予め設定された条件に該当する操作である場合に、前記操作位置の出力を制限し、
検出した操作が予め設定された条件に該当する操作である場合に、前記指示位置の移動方向及び移動量に基づいて、前記画像と前記第1の図形の位置を移動させる画像移動機能を実行し、
前記画像移動機能により前記画像及び前記第1の図形を移動させた後に、前記操作位置の出力を再開し、前記操作位置に基づいて、前記画像移動機能により移動した状態の前記画像に重ねて第2の図形を描画すること、
を特徴とする表示装置の制御方法。 A control method of a display apparatus with a display means for displaying by projecting images,
Detecting an operation with a pointer,
And output the operation position when it detects the operation,
Based on the output operation position, a process of drawing a first graphic superimposed on the image,
If the detected operation is an operation that corresponds to the preset condition, it restricts the output of the operating position,
When the detected operation is an operation corresponding to a preset condition, an image moving function for moving the position of the image and the first graphic is executed based on the moving direction and moving amount of the indicated position. ,
After the image and the first graphic are moved by the image movement function, the output of the operation position is resumed, and the second image is superimposed on the image moved by the image movement function based on the operation position. Drawing 2 figures,
A control method of a display device characterized by the above.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012269090A JP6051828B2 (en) | 2012-12-10 | 2012-12-10 | Display device and control method of display device |
US14/098,638 US9904414B2 (en) | 2012-12-10 | 2013-12-06 | Display device, and method of controlling display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012269090A JP6051828B2 (en) | 2012-12-10 | 2012-12-10 | Display device and control method of display device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014115802A JP2014115802A (en) | 2014-06-26 |
JP6051828B2 true JP6051828B2 (en) | 2016-12-27 |
Family
ID=51171741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012269090A Expired - Fee Related JP6051828B2 (en) | 2012-12-10 | 2012-12-10 | Display device and control method of display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6051828B2 (en) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6350175B2 (en) * | 2014-09-26 | 2018-07-04 | セイコーエプソン株式会社 | POSITION DETECTION DEVICE, PROJECTOR, AND POSITION DETECTION METHOD |
JP6350261B2 (en) * | 2014-12-17 | 2018-07-04 | コニカミノルタ株式会社 | Object operation system, object operation control program, and object operation control method |
CN107979748A (en) * | 2016-10-21 | 2018-05-01 | 中强光电股份有限公司 | Projector, optical projection system and image projecting method |
JP2019121207A (en) * | 2018-01-09 | 2019-07-22 | セイコーエプソン株式会社 | Image provision device, image provision device control method, and program |
JP7135721B2 (en) | 2018-10-25 | 2022-09-13 | セイコーエプソン株式会社 | Display device and display method |
JP7416033B2 (en) | 2021-10-15 | 2024-01-17 | セイコーエプソン株式会社 | Display method, display system and display program |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004110439A (en) * | 2002-09-18 | 2004-04-08 | Ricoh Co Ltd | Program and display integrated coordinate input device |
JP4272904B2 (en) * | 2003-03-06 | 2009-06-03 | キヤノン株式会社 | Display device and display device control method |
JP2005141151A (en) * | 2003-11-10 | 2005-06-02 | Seiko Epson Corp | Projector and method for setting projector function |
US9696808B2 (en) * | 2006-07-13 | 2017-07-04 | Northrop Grumman Systems Corporation | Hand-gesture recognition method |
JP2010139686A (en) * | 2008-12-11 | 2010-06-24 | Seiko Epson Corp | Projector, program, and information storage medium |
JP5472569B2 (en) * | 2008-12-15 | 2014-04-16 | セイコーエプソン株式会社 | Projection system |
JP5536690B2 (en) * | 2011-02-10 | 2014-07-02 | シャープ株式会社 | Touch drawing display device and operation method thereof |
JP5817149B2 (en) * | 2011-03-04 | 2015-11-18 | 株式会社ニコン | Projection device |
JP5879864B2 (en) * | 2011-09-22 | 2016-03-08 | カシオ計算機株式会社 | Projector system, projector, control method, and program |
JP5278576B2 (en) * | 2012-04-27 | 2013-09-04 | カシオ計算機株式会社 | Gesture recognition device, gesture recognition method and program thereof |
-
2012
- 2012-12-10 JP JP2012269090A patent/JP6051828B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014115802A (en) | 2014-06-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6064319B2 (en) | Projector and projector control method | |
JP5849560B2 (en) | Display device, projector, and display method | |
JP6088127B2 (en) | Display device, display device control method, and program | |
JP5927845B2 (en) | Display device, display device control method, and program | |
US9904414B2 (en) | Display device, and method of controlling display device | |
US9645678B2 (en) | Display device, and method of controlling display device | |
US9324295B2 (en) | Display device and method of controlling display device | |
US9134814B2 (en) | Input device, display system and input method | |
JP6051828B2 (en) | Display device and control method of display device | |
JP2012129594A (en) | Projector and method for screen shape correction of projector | |
JP6286814B2 (en) | Display device, display control method, and display system | |
JP2013222280A (en) | Projector, control method for the same, program and projection system | |
JP6269801B2 (en) | Projector and projector control method | |
JP6665415B2 (en) | Projector and projector control method | |
JP6273671B2 (en) | Projector, display system, and projector control method | |
JP6255810B2 (en) | Display device and control method of display device | |
JP6098153B2 (en) | Display device and control method of display device | |
JP6056447B2 (en) | Display device and control method of display device | |
JP6111682B2 (en) | Display device and control method of display device | |
JP6145963B2 (en) | Projector, display system, and projector control method | |
JP2014119530A (en) | Display control device, projector, and control method of projector |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150108 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20151110 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20160610 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20160624 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160817 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160823 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161014 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161101 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161114 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6051828 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |