Nothing Special   »   [go: up one dir, main page]

JP5924577B2 - Position detection device - Google Patents

Position detection device Download PDF

Info

Publication number
JP5924577B2
JP5924577B2 JP2012062541A JP2012062541A JP5924577B2 JP 5924577 B2 JP5924577 B2 JP 5924577B2 JP 2012062541 A JP2012062541 A JP 2012062541A JP 2012062541 A JP2012062541 A JP 2012062541A JP 5924577 B2 JP5924577 B2 JP 5924577B2
Authority
JP
Japan
Prior art keywords
imaging
subject
light
image
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012062541A
Other languages
Japanese (ja)
Other versions
JP2013196348A (en
Inventor
毅 笠原
毅 笠原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Seiki Co Ltd
Original Assignee
Nippon Seiki Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Seiki Co Ltd filed Critical Nippon Seiki Co Ltd
Priority to JP2012062541A priority Critical patent/JP5924577B2/en
Publication of JP2013196348A publication Critical patent/JP2013196348A/en
Application granted granted Critical
Publication of JP5924577B2 publication Critical patent/JP5924577B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、操作位置を検出する位置検出装置に関する。   The present invention relates to a position detection device that detects an operation position.

従来の位置検出装置としては、例えば、特許文献1に開示されるタッチスクリーン装置がある。このタッチスクリーン装置は、半透明のスクリーンと、プロジェクタと、カメラと、制御装置と、から構成されており、スクリーンの背後からプロジェクタによって映像を投影し、操作者がスクリーンに指先等で触れた状態をスクリーンの背後からカメラで撮影し、撮影画像を制御装置内で解析することにより被写体であるスクリーン上の操作者の指先等を検出して操作位置を検出するものである。   As a conventional position detection device, for example, there is a touch screen device disclosed in Patent Document 1. This touch screen device is composed of a translucent screen, a projector, a camera, and a control device. The projector projects an image from behind the screen, and the operator touches the screen with a fingertip or the like. Is photographed with a camera from behind the screen, and the photographed image is analyzed in the control device, thereby detecting the fingertip of the operator on the screen, which is the subject, and detecting the operation position.

特開2007−223416号公報JP 2007-223416 A

しかしながら、特許文献1記載のタッチスクリーン装置は、操作者側から強い外光がスクリーンに照射した場合に、撮影画像が外光の影響で全体的に明るくなり、撮像画像におけるスクリーンに指先等が触れた場合と触れていない場合の輝度変化や別途設けられる照明光が指先等に照射されている場合と照射されていない場合の輝度変化が小さくなることで、操作位置が良好に検出できなくなる場合があるという問題点があった。   However, in the touch screen device described in Patent Document 1, when the screen is exposed to strong external light from the operator side, the captured image becomes bright overall due to the influence of external light, and a fingertip or the like touches the screen in the captured image. The operation position may not be detected well because the brightness change when touching or not touching, or when the illumination light provided separately is irradiated on the fingertip or the like is reduced. There was a problem that there was.

そこで本発明は、この問題に鑑みてなされたものであり、外光が強い環境下でも良好に操作位置を検出することが可能な位置検出装置を提供することを目的とする。   Therefore, the present invention has been made in view of this problem, and an object of the present invention is to provide a position detection device capable of detecting an operation position satisfactorily even in an environment with strong external light.

本発明は、前述の課題を解決するために、
表示画像が背面側から投影される透過型のスクリーン越しに被写体を撮像する撮像手段と、
前記スクリーンに照射される外光の強度を検出する外光検出手段と、
前記撮像手段が撮像した撮像画像における前記被写体の領域を検出する被写体領域検出手段と、
前記外光検出手段が検出した外光の強度に基づいて前記被写体領域検出手段が前記被写体の領域を検出する感度を調整する検出感度調整手段と、
前記被写体領域検出手段が検出した前記被写体の領域内の所定位置を操作位置として検出する操作位置検出手段と、備え、前記検出感度調整手段は、前記外光検出手段が検出した外光の強度が大きいほど、前記感度を高く調整することを特徴とする。
In order to solve the above-mentioned problems, the present invention
Imaging means for imaging a subject through a transmissive screen on which a display image is projected from the back side;
Outside light detecting means for detecting the intensity of outside light irradiated on the screen;
Subject area detection means for detecting the area of the subject in the captured image captured by the imaging means;
A detection sensitivity adjusting means for adjusting the sensitivity is the subject-region-detecting means for detecting a region of the object based on the intensity of external light detected by the external light detecting means,
Operating position detecting means for detecting a predetermined position in the subject area detected by the subject area detecting means as an operating position, and the detection sensitivity adjusting means has an intensity of outside light detected by the outside light detecting means. The larger the value, the higher the sensitivity is adjusted .

また、 前記被写体の撮像を2つのフィールドの撮像に分けて行う前記撮像手段と、
前記スクリーンの背面側から照明光を照射する光源と、
前記2つのフィールドの撮像うちの一方のフィールドの撮像においてのみ前記光源を発光させる発光制御手段と、
前記撮像画像を前記2つのフィールドで分離して第1、第2の撮像画像を生成する撮像画像生成手段と、
前記第1、第2の撮像画像を比較した場合の輝度差が閾値以上である領域を前記被写体の領域として検出する前記被写体領域検出手段と、
前記外光検出手段が検出した外光の強度に基づいて前記閾値を設定して前記感度を調整する前記検出感度調整手段と、を備え、
前記検出感度調整手段は、前記外光検出手段が検出した外光の強度が大きいほど、前記閾値を小さく設定することを特徴とする。
The imaging means for performing imaging of the subject divided into imaging of two fields;
A light source that emits illumination light from the back side of the screen;
Light emission control means for causing the light source to emit light only in imaging of one of the two fields;
A captured image generation means for generating the first and second captured images by separating the captured image by the two fields;
The subject region detection means for detecting, as the subject region, a region having a luminance difference equal to or greater than a threshold when the first and second captured images are compared;
The detection sensitivity adjustment means for adjusting the sensitivity by setting the threshold based on the intensity of external light detected by the external light detection means,
The detection sensitivity adjustment means sets the threshold value smaller as the intensity of the external light detected by the external light detection means is larger .

また、前記外光検出手段が検出した外光の強度に基づいて前記撮像手段の感度を調整する撮像感度調整手段を備えてなることを特徴とする。   Further, the image pickup apparatus includes an imaging sensitivity adjustment unit that adjusts the sensitivity of the imaging unit based on the intensity of the external light detected by the external light detection unit.

また、前記外光検出手段が検出した外光の強度に基づいて前記光源の点灯時間を設定する点灯時間設定手段を備えてなることを特徴とする。   Further, the present invention is characterized by comprising lighting time setting means for setting the lighting time of the light source based on the intensity of external light detected by the external light detection means.

本発明は、外光が強い環境下でも良好に操作位置を検出することが可能となるものである。   The present invention makes it possible to detect the operation position satisfactorily even in an environment with strong external light.

本発明の実施形態であるタッチスクリーン装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the touch screen apparatus which is embodiment of this invention. 制御装置の機能を説明するためのブロック図である。It is a block diagram for demonstrating the function of a control apparatus. フレームの構成を説明するための図である。It is a figure for demonstrating the structure of a flame | frame. (a)〜(c)は光源制御処理において、光源制御信号の送信タイミングを説明するためのタイミングチャートである。(A)-(c) is a timing chart for demonstrating the transmission timing of a light source control signal in a light source control process. 閾値設定テーブルを説明するための図である。It is a figure for demonstrating a threshold value setting table. 光源制御処理のフローチャートである。It is a flowchart of a light source control process. 操作位置検出処理のフローチャートである。It is a flowchart of an operation position detection process. フレーム画像の一例を示した図である。It is the figure which showed an example of the frame image. (a)は奇数フィールド画像の一例を示した図であり、(b)は偶数フィールド画像の一例を示した図である。(A) is a figure showing an example of an odd field image, (b) is a figure showing an example of an even field image. (a)は補間奇数フレーム画像の一例を示した図であり、(b)は補間偶数フレーム画像の一例を示した図である。(A) is a figure showing an example of an interpolation odd-numbered frame image, (b) is a figure showing an example of an interpolation even-numbered frame image. 被写体検出画像の一例を示した図である。It is the figure which showed an example of the to-be-photographed object detection image. (a)、(b)は、操作者の指先を被写体として、操作位置検出処理を実行した場合に、どのような被写体検出画像が得られるかを説明するための図である。(A), (b) is a figure for demonstrating what kind of subject detection image is obtained when the operation position detection process is executed with the fingertip of the operator as the subject. (a)、(b)は、重心検出処理を説明するための図である。(A), (b) is a figure for demonstrating a gravity center detection process.

以下、添付図面に基づいて本発明を適用した実施形態について図1〜図13を参照して説明する。   Embodiments to which the present invention is applied will be described below with reference to FIGS.

本実施形態にかかる位置検出装置は、図1及び図2に示す車両用のタッチスクリーン装置1である。タッチスクリーン装置1は、図示するように、スクリーン10と、プロジェクタ(投影手段)20と、光源30と、撮像部(撮像手段)40と、照度センサ(外光検出手段)50と、入力装置60と、制御装置70と、を備える。   The position detection device according to the present embodiment is the vehicle touch screen device 1 shown in FIGS. 1 and 2. As illustrated, the touch screen device 1 includes a screen 10, a projector (projection unit) 20, a light source 30, an imaging unit (imaging unit) 40, an illuminance sensor (external light detection unit) 50, and an input device 60. And a control device 70.

このような構成からなるタッチスクリーン装置1においては、制御装置70が、プロジェクタ20にスクリーン10の背面側から表示画像を示す表示光LDを投影させ、また、撮像部40に被写体2(本実施形態においては図2に示すように操作者の指先)をスクリーン10越しに撮像させると共に、予め設定された点灯時間で光源30により被写体2に照明光LIをスクリーン10越しに照射させる。そして、後述の操作位置検出処理を実行することによって、撮像画像における被写体2が写っている領域(以下、被写体領域という)を検出し、被写体2の位置を検出する。   In the touch screen device 1 having such a configuration, the control device 70 causes the projector 20 to project the display light LD indicating the display image from the back side of the screen 10, and the subject 2 (this embodiment) 2, the operator's fingertip) is imaged through the screen 10 as shown in FIG. 2, and the illumination light LI is irradiated onto the subject 2 through the screen 10 by the light source 30 for a preset lighting time. Then, an operation position detection process described later is executed to detect a region where the subject 2 is captured in the captured image (hereinafter referred to as a subject region) and detect the position of the subject 2.

スクリーン10は、プロジェクタ20からの表示光LDを透過して表示画像を表示する透過型のスクリーンであり、例えば光透過性の樹脂材料からなる基材に外光の差し込みを防止するルーバー層、着色層、拡散層あるいはハードコート層などを形成してなる。スクリーン10は、車両のインストルメントパネルに設けられる開口部(図示しない)に配置される。また、スクリーン10は、インストルメントパネルの表面形状に応じて上下方向に傾斜し、また、左右方向に湾曲しており、平面状でない曲面状のスクリーンである。   The screen 10 is a transmissive screen that transmits the display light LD from the projector 20 and displays a display image. For example, a louver layer that prevents insertion of external light into a base material made of a light-transmitting resin material, coloring A layer, a diffusion layer or a hard coat layer is formed. The screen 10 is arrange | positioned at the opening part (not shown) provided in the instrument panel of a vehicle. The screen 10 is a curved screen that is inclined in the vertical direction according to the surface shape of the instrument panel and curved in the left-right direction, and is not flat.

プロジェクタ20は、制御装置70のビデオメモリの内容を表示画像として表示し、表示光LDをスクリーン10に向けて出射するものであり、例えば、LCD(Liquid Crystal Display)と光源とから構成される。   The projector 20 displays the contents of the video memory of the control device 70 as a display image, and emits the display light LD toward the screen 10, and includes, for example, an LCD (Liquid Crystal Display) and a light source.

光源30は、被写体2に照明光LIを照射するものである。光源30は、例えば、照明光LIとして赤外線を出射する赤外線LED(Light Emitting Diode)であり、制御装置70から出力される光源制御信号に基づいて点灯、消灯する。   The light source 30 irradiates the subject 2 with the illumination light LI. The light source 30 is, for example, an infrared LED (Light Emitting Diode) that emits infrared light as the illumination light LI, and is turned on and off based on a light source control signal output from the control device 70.

撮像部40は、被写体2を撮像するものである。撮像部40は、例えば、複数のレンズと、CCD(Charged Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)、シャッター等の周知の固体撮像素子とを含むビデオカメラである。撮像部40は、シャッターが開いているときにレンズによって固体撮像素子の受光面に被写体2の像を結像させ、結像させた像の光の強弱を電気信号に変換し、その電気信号から画像信号を含むビデオ信号を制御装置70に出力する。なお、本実施形態においては、撮像部40は、固体撮像素子の受光面に赤外線を受光する構成であるため、撮像部40の前方には赤外線透過フィルタ(図示しない)を設けることが望ましい。   The imaging unit 40 images the subject 2. The imaging unit 40 is, for example, a video camera including a plurality of lenses and a known solid-state imaging device such as a CCD (Charged Coupled Device), a CMOS (Complementary Metal Oxide Semiconductor), and a shutter. The imaging unit 40 forms an image of the subject 2 on the light receiving surface of the solid-state image sensor with the lens when the shutter is open, converts the intensity of the light of the formed image into an electric signal, and uses the electric signal from the electric signal. A video signal including an image signal is output to the control device 70. In the present embodiment, since the imaging unit 40 is configured to receive infrared rays on the light receiving surface of the solid-state imaging device, it is desirable to provide an infrared transmission filter (not shown) in front of the imaging unit 40.

撮像部40の固体撮像素子の受光面に、被写体2の画像が、例えば図3に示すような2M行N列の画素からなるフレーム画像Aとして結像された場合について説明する。この場合、固体撮像素子を構成する格子状に配置されたフォトダイオード(前記の各画素に1対1で対応するように配置されている)は、シャッターが開いているときに受光した光量に応じた電荷を生成する。そして、撮像部40は、シャッターが閉じた後に、同期信号発生回路により出力される垂直同期信号、及び、水平同期信号に同期して、画像を構成する各ラインのフォトダイオードの電荷を電気信号として読み取る。   A case will be described in which an image of the subject 2 is formed on the light receiving surface of the solid-state imaging device of the imaging unit 40 as a frame image A made up of pixels of 2M rows and N columns as shown in FIG. 3, for example. In this case, the photodiodes (arranged so as to correspond to the respective pixels on a one-to-one basis) arranged in a lattice pattern constituting the solid-state imaging device correspond to the amount of light received when the shutter is open. Generate a charge. Then, after the shutter is closed, the imaging unit 40 synchronizes with the vertical synchronization signal and the horizontal synchronization signal output from the synchronization signal generation circuit, and uses the charges of the photodiodes of each line constituting the image as an electrical signal. read.

ここで、画像を構成する画素の横一行のラインを上から順に数えたときの番号をライン番号という(つまり、2M行N列のフレーム画像Aにおいてライン番号1は1行目を示し、ライン番号2Mは2M行目を示す)。そして、奇数番号のラインから構成されるライン群を「奇数フィールド」といい、偶数番号のラインから構成されるライン群を「偶数フィールド」という。また、あるフレーム画像Aにおいて奇数フィールドに対応する画像を「奇数フィールド画像」といい、偶数フィールドに対応する画像を「偶数フィールド画像」という。つまり、フレーム画像Aは、奇数フィールド画像と偶数フィールド画像とで構成されており、フレーム画像Aにおいて、奇数フィールド画像に係るラインと偶数フィールド画像に係るラインとは各々隣り合う。   Here, the number when the horizontal line of the pixels constituting the image is counted in order from the top is referred to as a line number (that is, in the frame image A of 2M rows and N columns, the line number 1 indicates the first row, and the line number 2M indicates the 2M line). A line group composed of odd-numbered lines is called “odd field”, and a line group composed of even-numbered lines is called “even field”. An image corresponding to an odd field in a frame image A is referred to as an “odd field image”, and an image corresponding to an even field is referred to as an “even field image”. That is, the frame image A is composed of an odd-numbered field image and an even-numbered field image. In the frame image A, a line related to the odd-numbered field image and a line related to the even-numbered field image are adjacent to each other.

撮像部40は、1つのフレーム画像Aの撮像において、奇数フィールドの撮像と偶数フィールドの撮像との2つのフィールドの撮像を行う。撮像部40は、各撮像において、シャッターを開閉し、受光素子に電荷を蓄積する。撮像部40は、フォトダイオードの電荷を読み取る際に、奇数フィールドの撮像では、奇数フィールドの各電荷を読み取り、偶数フィールドの撮像では、偶数フィールドの各電荷を読み取る。撮像部40は、このような読み取りを、水平同期信号に同期して行う。   In the imaging of one frame image A, the imaging unit 40 performs imaging of two fields, imaging of an odd field and imaging of an even field. In each imaging, the imaging unit 40 opens and closes the shutter, and accumulates charges in the light receiving element. When the charge of the photodiode is read, the imaging unit 40 reads each charge in the odd field in the odd field imaging, and reads each charge in the even field in the even field imaging. The imaging unit 40 performs such reading in synchronization with the horizontal synchronization signal.

具体的には、撮像部40は以下の手順で電荷の読み取りを行う。
1)垂直同期信号に同期して、フレーム画像Aにおけるライン番号が奇数のラインの電荷の読み取りを開始し、全ての奇数ラインの電荷を読み取る。すなわち、撮像部40は、ライン番号1、3、・・・、2M−1の順で水平同期信号に同期して各ラインの電荷を読み取る。このようにして、撮像部40は、奇数フィールドの電荷を読み取ることとなる。
2)次の垂直同期信号に同期して、フレーム画像Aにおけるライン番号が偶数のラインの電荷の読み取りを開始し、全ての偶数ラインの電荷を読み取る。すなわち、撮像部40は、ライン番号2、4、・・・、2Mの順で水平同期信号に同期して各ラインの電荷を読み取る。このようにして、撮像部40は、偶数フィールドの電荷を読み取ることとなる。
つまり、撮像部40は、被写体2の撮像を奇数フィールドの撮像と偶数フィールドの撮像とに分けて行う。
Specifically, the imaging unit 40 reads charges according to the following procedure.
1) In synchronization with the vertical synchronization signal, reading of the charges of the odd-numbered lines in the frame image A is started, and the charges of all the odd-numbered lines are read. That is, the imaging unit 40 reads the charges on each line in synchronization with the horizontal synchronization signal in the order of line numbers 1, 3,. In this way, the imaging unit 40 reads the charges in the odd field.
2) In synchronization with the next vertical synchronization signal, reading of the charges of the even-numbered lines in the frame image A is started, and the charges of all the even-numbered lines are read. That is, the imaging unit 40 reads the charges of each line in the order of the line numbers 2, 4,. In this way, the imaging unit 40 reads the charges in the even field.
That is, the imaging unit 40 performs imaging of the subject 2 separately for odd-field imaging and even-field imaging.

このような1つのフレーム画像Aを構成する奇数フィールド画像と偶数フィールド画像の電荷の読み取りは、それぞれ、例えば1/60秒の間隔で行われる。つまり、1フレーム当たりの電荷の読み取りは、1/30秒間隔で行われる。即ち、撮像部40は、1秒当たり30フレームの画像を撮影する。   The reading of the charges of the odd-numbered field image and the even-numbered field image constituting one frame image A is performed at an interval of 1/60 seconds, for example. That is, reading of the charge per frame is performed at 1/30 second intervals. That is, the imaging unit 40 captures an image of 30 frames per second.

そして、撮像部40は、読み取った電荷が表す電気信号である画像信号と、垂直同期信号と、水平同期信号を重畳した信号を、出力ビデオ信号として制御装置70に出力する。   Then, the imaging unit 40 outputs an image signal, which is an electrical signal represented by the read electric charge, a vertical synchronization signal, and a signal obtained by superimposing the horizontal synchronization signal to the control device 70 as an output video signal.

図1に戻って、照度センサ50は、スクリーン10に照射される外光LOの強度(照度)を検出(測定)するものである。照度センサ50は、スクリーン10の背面側に設けられ、スクリーン10を透過した外光LOを受光し、受光した外光LOの強度に応じた光検出信号を制御装置70に供給する。照度センサ50は、例えば、フォトダイオードからなる。   Returning to FIG. 1, the illuminance sensor 50 detects (measures) the intensity (illuminance) of the external light LO irradiated onto the screen 10. The illuminance sensor 50 is provided on the back side of the screen 10, receives the external light LO transmitted through the screen 10, and supplies a light detection signal corresponding to the intensity of the received external light LO to the control device 70. The illuminance sensor 50 is made of a photodiode, for example.

入力装置60は、ユーザの所定の入力操作を受け付けるものであり、例えば、電源スイッチや、ユーザの数値入力や上下左右の方向指示を受け付けるキーボード、マウス、タッチパネルから構成される。入力装置60に入力されたデータは、制御装置70に出力される。   The input device 60 receives a user's predetermined input operation, and includes, for example, a power switch, a keyboard, a mouse, and a touch panel that receive a user's numerical input and up / down / left / right direction instructions. Data input to the input device 60 is output to the control device 70.

制御装置70は、例えば、マイクロコンピュータから構成され、CPU71(Central Processing Unit)と、ROM72(Read-Only Memory)と、汎用メモリ73と、ビデオメモリ74と、同期分離回路75と、フィールド識別回路76と、外部デバイスインターフェース77(I/F)と、を備える。   The control device 70 is composed of, for example, a microcomputer, and includes a CPU 71 (Central Processing Unit), a ROM 72 (Read-Only Memory), a general-purpose memory 73, a video memory 74, a synchronization separation circuit 75, and a field identification circuit 76. And an external device interface 77 (I / F).

CPU71は、ROM72内に予め記憶された、後述の光源制御処理、操作位置検出処理を実行する為のプログラムを読み出し、実行する。そして、CPU71は、撮像部40から取得したビデオ信号、処理後の演算結果、画像データ等、を汎用メモリ73に一時的に記憶させる。また、CPU71は、汎用メモリ73に記憶された出力画像データをビデオメモリ74に転送し、転送した出力画像データに基づいてプロジェクタ20に出力画像データが表す画像を出力する。また、CPU71は、必要に応じて時間を計測することが可能なタイマ(図示せず)を内蔵するものとする。
なお、CPU71は、後述する光源制御処理、操作位置検出処理を実行して、請求項における発光制御手段、撮像画像生成手段、被写体領域検出手段、検出感度調整手段及び操作位置検出手段として機能する。
The CPU 71 reads out and executes a program for executing a light source control process and an operation position detection process, which will be described later, stored in advance in the ROM 72. Then, the CPU 71 temporarily stores the video signal acquired from the imaging unit 40, the processed calculation result, the image data, and the like in the general-purpose memory 73. Further, the CPU 71 transfers the output image data stored in the general-purpose memory 73 to the video memory 74, and outputs an image represented by the output image data to the projector 20 based on the transferred output image data. The CPU 71 is assumed to incorporate a timer (not shown) capable of measuring time as necessary.
The CPU 71 executes a light source control process and an operation position detection process, which will be described later, and functions as a light emission control unit, a captured image generation unit, a subject area detection unit, a detection sensitivity adjustment unit, and an operation position detection unit.

ROM72には、前記プログラムの他に、後述の光源制御処理において参照される光源30の点灯時間を規定するためのTOFF、TON(図4(c)参照)の初期値や、後述の操作位置検出処理において参照される検出閾値設定テーブルT1(図5)が、予め格納されている。 In the ROM 72, in addition to the program, initial values of T OFF and T ON (see FIG. 4C) for defining the lighting time of the light source 30 referred to in a light source control process described later, and operations described later are included. A detection threshold setting table T1 (FIG. 5) referred to in the position detection process is stored in advance.

図5に示す、検出閾値設定テーブルT1は、「照度センサ出力」から「検出閾値」を算出するためのテーブルである。図5において、「照度センサ出力」は、照度センサ50から供給される光検出信号の出力値、すなわち外光LOの強度であり、「検出閾値」は、後述する操作位置検出処理において被写体領域を検出する感度を定める検出閾値θである。検出閾値設定テーブルT1は、「照度センサ出力」の複数の設定値と、これら複数の設定値で定まる「検出閾値」を予め表した格納データである。CPU71は、この検出閾値設定テーブルT1を参照して、照度センサ50から供給された光検出信号に対応した検出閾値θを設定する。例えば、図示するように、「照度センサ出力」が“0〜49”であった場合、「検出閾値」は“240”と設定される。なお、図5に示す検出閾値設定テーブルT1は、「照度センサ出力」の値が増加するに従って(外光LOの強度が大きくなるに従って)、「検出閾値」の値が減少する(感度が高くなる)ように構成されている。これは、外光LOの強度が強くなると外光LOの回り込みによって撮像画像における被写体2が明るくなり、また、光源30から照明光LIを照射したとしても撮像部40によって変換できる光の強弱には限界があるため後述する第1補間フレーム画像と第2補間フレーム画像との間における輝度差が小さくなることによる。   The detection threshold value setting table T1 shown in FIG. 5 is a table for calculating the “detection threshold value” from the “illuminance sensor output”. In FIG. 5, “illuminance sensor output” is the output value of the light detection signal supplied from the illuminance sensor 50, that is, the intensity of the external light LO, and “detection threshold” is the subject area in the operation position detection process described later. This is a detection threshold θ that determines the sensitivity to be detected. The detection threshold setting table T1 is storage data that represents in advance a plurality of setting values of “illuminance sensor output” and “detection thresholds” determined by these setting values. The CPU 71 refers to the detection threshold setting table T1 and sets the detection threshold θ corresponding to the light detection signal supplied from the illuminance sensor 50. For example, as shown in the figure, when the “illuminance sensor output” is “0 to 49”, the “detection threshold value” is set to “240”. In the detection threshold value setting table T1 shown in FIG. 5, as the “illuminance sensor output” value increases (as the intensity of the external light LO increases), the “detection threshold value” decreases (sensitivity increases). ) Is configured as follows. This is because when the intensity of the external light LO increases, the subject 2 in the captured image becomes bright due to the external light LO wraparound, and the intensity of light that can be converted by the imaging unit 40 even when the illumination light LI is emitted from the light source 30. This is because the difference in luminance between a first interpolation frame image and a second interpolation frame image, which will be described later, becomes small due to a limit.

図1に戻って、同期分離回路75は、撮像部からのビデオ信号を、画像信号と、垂直同期信号(図4(a)参照)と、水平同期信号とに分離する回路である。   Returning to FIG. 1, the synchronization separation circuit 75 is a circuit that separates the video signal from the imaging unit into an image signal, a vertical synchronization signal (see FIG. 4A), and a horizontal synchronization signal.

フィールド識別回路76は、同期分離回路75により分離された、垂直同期信号、及び、水平同期信号から、ビデオ信号に含まれる画像信号が奇数フィールドと偶数フィールドの何れであるかを示すフィールド識別信号を生成する。フィールド識別信号は、一例として、図4(b)に示すように構成され、このようなフィールド識別信号に基づいて、CPU71は、撮像部から取得した画像信号が、奇数フィールドか、または、偶数フィールドかを判別することができる。   The field identification circuit 76 generates a field identification signal indicating whether the image signal included in the video signal is an odd field or an even field from the vertical synchronization signal and the horizontal synchronization signal separated by the synchronization separation circuit 75. Generate. As an example, the field identification signal is configured as shown in FIG. 4B. Based on such a field identification signal, the CPU 71 determines whether the image signal acquired from the imaging unit is an odd field or an even field. Can be determined.

外部デバイスI/F77は、プロジェクタ20、光源30、撮像部40、照度センサ50、入力装置60のような制御装置70以外の外部装置と、制御装置70とを接続するものである。   The external device I / F 77 is for connecting the control device 70 to an external device other than the control device 70 such as the projector 20, the light source 30, the imaging unit 40, the illuminance sensor 50, and the input device 60.

(光源制御処理)
制御装置70のCPU71が実行する光源制御処理を、図6等を参照して説明する。この処理は、例えば、制御装置70の起動を条件に開始される。
(Light source control processing)
The light source control process executed by the CPU 71 of the control device 70 will be described with reference to FIG. This process is started on condition that the control device 70 is activated, for example.

CPU71は、光源制御処理を開始すると、まず、ステップS101において、奇数フィールドの開始を検出したか否かを判定する。具体的には、垂直同期信号の立ち下り(図4(a)参照)と、フィールド識別信号の立ち上がり(図4(b)参照)と、が両方検出された場合に奇数フィールドの開始を検出したと判定する。これらの信号は、前述のように、撮像部40からのビデオ信号から同期分離回路75によって分離された信号である。CPU71は、奇数フィールドの開始を検出したと判定した場合(ステップS101;Yes)、ステップS102に処理を進める。一方、CPU71が、奇数フィールドの開始を検出したと判定しなかった場合(ステップS101;No)、ステップS103に処理を進める。   When starting the light source control process, the CPU 71 first determines whether or not the start of an odd field has been detected in step S101. Specifically, the start of the odd field is detected when both the falling edge of the vertical synchronization signal (see FIG. 4A) and the rising edge of the field identification signal (see FIG. 4B) are detected. Is determined. These signals are signals separated from the video signal from the imaging unit 40 by the synchronization separation circuit 75 as described above. If the CPU 71 determines that the start of the odd field has been detected (step S101; Yes), the process proceeds to step S102. On the other hand, if the CPU 71 does not determine that the start of the odd field has been detected (step S101; No), the process proceeds to step S103.

ステップS102で、CPU71はタイマの時刻tをt=0に設定し、タイマに時間の計測を開始させる。   In step S102, the CPU 71 sets the time t of the timer to t = 0, and causes the timer to start measuring time.

続いて、ステップS103で、CPU71は、時刻tがTON≦t≦TOFFを満たすか否かを判定する。ここで、TONとTOFFは、撮像部40の固体撮像素子を構成するフォトダイオードのうち、奇数フィールドに対応するフォトダイオードが受光している光量に応じた電荷の蓄積の開始時刻及び終了時刻に対応する。また、TONとTOFFは、予めROM72にデフォルト値として記憶されているか、ユーザにより入力装置60を介して設定され、記憶される。なお、光源30の点灯時間は(TOFF−TON)であり、TONとTOFFの設定によって点灯時間を設定することができる。 Subsequently, in step S103, the CPU 71 determines whether or not the time t satisfies T ON ≦ t ≦ T OFF . Here, T ON and T OFF are the charge accumulation start time and end time according to the amount of light received by the photodiode corresponding to the odd field among the photodiodes constituting the solid-state imaging device of the imaging unit 40. Corresponding to Further, T ON and T OFF are stored in advance as default values in the ROM 72, or set and stored by the user via the input device 60. Note that the lighting time of the light source 30 is (T OFF −T ON ), and the lighting time can be set by setting T ON and T OFF .

時刻tがTON≦t≦TOFFを満たすと判定した場合(ステップS103;Yes)、CPU71は、点灯を示す光源制御信号(図4(c)参照)を光源30に出力する(ステップS104)。そして、処理をステップS101に戻す。一方、時刻tがTON≦t≦TOFFを満たさないと判定した場合(ステップS103;No)、CPU71は、消灯を示す光源制御信号を光源30に出力する(ステップ105)。そして、処理をステップ101に戻す。 When it is determined that the time t satisfies T ON ≦ t ≦ T OFF (step S103; Yes), the CPU 71 outputs a light source control signal indicating lighting (see FIG. 4C) to the light source 30 (step S104). . Then, the process returns to step S101. On the other hand, when it is determined that the time t does not satisfy T ON ≦ t ≦ T OFF (step S103; No), the CPU 71 outputs a light source control signal indicating turning off to the light source 30 (step 105). Then, the process returns to step 101.

以上の処理からなる光源制御処理を、CPU71は、例えば、制御装置70の電源がオフされるまで繰り返す。本処理により、撮像部40が奇数フィールドを撮像しているタイミングで光源30を点灯させ、偶数フィールドを撮像しているタイミングで光源30を消灯させることができる。   For example, the CPU 71 repeats the light source control processing including the above processing until the control device 70 is powered off. With this processing, the light source 30 can be turned on at the timing when the imaging unit 40 is imaging the odd field, and the light source 30 can be turned off at the timing when imaging the even field.

(操作位置検出処理)
次に、制御装置70のCPU71が実行する操作位置検出処理を、図7等を参照して説明する。この処理は、例えば制御装置70の起動を条件に開始される。
(Operation position detection processing)
Next, operation position detection processing executed by the CPU 71 of the control device 70 will be described with reference to FIG. This process is started on condition that the control device 70 is activated, for example.

CPU71は、操作位置検出処理を開始すると、最初に、照度センサ50から光検出信号を取得する(ステップS201)。   When starting the operation position detection process, the CPU 71 first acquires a light detection signal from the illuminance sensor 50 (step S201).

次に、CPU71は、照度センサ50からの光検出信号の出力値と、図5の検出閾値設定テーブルT1とに基づき、検出閾値θを設定する(ステップS202)。   Next, the CPU 71 sets the detection threshold θ based on the output value of the light detection signal from the illuminance sensor 50 and the detection threshold setting table T1 of FIG. 5 (step S202).

続いて、ステップS203で、CPU71は、撮像部40が出力するビデオ信号から、垂直同期信号に基づいて1フレーム分の画像信号が表すフレーム画像を取得する。具体的には、CPU71は、垂直同期信号に同期して、撮像部40から出力されたビデオ信号から、1つの奇数フィールドの画像信号と1つの偶数フィールドの画像信号とにより構成される1フレーム分の画像信号を取得する。例えば、撮像部40が、図3に示すような被写体2を撮像した場合、CPU71が取得するフレーム画像は、図8に示すようなフレーム画像Bである。撮像部40の撮像中において、CPU71は、前述の光源制御処理を実行する為、フレーム画像Bでは、奇数フィールド中の被写体2の像は明るく、偶数フィールド中の被写体2の像は暗く撮像される。これは、撮像部40に撮像される被写体2を照らす光源30を、撮像部40が奇数フィールドを撮像しているタイミングで光源30を点灯させ、偶数フィールドを撮像しているときに光源30を消灯させる為である。なお、図3に示す背景3は照明光LIが反射されない部分であるため、この背景3に対応するフレーム画像Bの背景部分は光源30の影響を受けず、奇数フィールドでも偶数フィールドでもその明るさは変わらない。   Subsequently, in step S203, the CPU 71 acquires a frame image represented by the image signal for one frame based on the vertical synchronization signal from the video signal output from the imaging unit 40. Specifically, the CPU 71 synchronizes with the vertical synchronization signal, and from the video signal output from the imaging unit 40, the CPU 71 includes one odd field image signal and one even field image signal. The image signal of is acquired. For example, when the imaging unit 40 images the subject 2 as shown in FIG. 3, the frame image acquired by the CPU 71 is a frame image B as shown in FIG. During imaging by the imaging unit 40, the CPU 71 performs the above-described light source control processing, and therefore, in the frame image B, the image of the subject 2 in the odd field is bright and the image of the subject 2 in the even field is dark. . This is because the light source 30 that illuminates the subject 2 imaged by the imaging unit 40 is turned on at the timing when the imaging unit 40 is imaging the odd field, and the light source 30 is turned off when the even field is being imaged. This is to make it happen. Since the background 3 shown in FIG. 3 is a portion where the illumination light LI is not reflected, the background portion of the frame image B corresponding to the background 3 is not affected by the light source 30, and the brightness of the odd field and the even field is high. Will not change.

続いて、ステップS204で、CPU71は、ステップS203で取得したフレーム画像を、奇数フィールドと偶数フィールドに分離して、各フィールドから構成される奇数フィールド画像と偶数フィールド画像とを取得する。具体的には、例えば、図8に示すフレーム画像Bを取得した場合、CPU71は、図9(a)に示す奇数フィールドの画像を示す奇数フィールド画像C1と、図9(b)に示す偶数フィールドの画像を示す偶数フィールド画像C2と、を取得する。奇数フィールド画像C1と偶数フィールド画像C2とを構成するライン数は、ともにフレーム画像Bのライン数の半分となる。   Subsequently, in step S204, the CPU 71 separates the frame image acquired in step S203 into an odd field and an even field, and acquires an odd field image and an even field image composed of each field. Specifically, for example, when the frame image B shown in FIG. 8 is acquired, the CPU 71 detects the odd field image C1 showing the odd field image shown in FIG. 9A and the even field shown in FIG. 9B. And an even field image C2 indicating the image of. The number of lines constituting the odd field image C1 and the even field image C2 are both half the number of lines of the frame image B.

続いて、ステップS205で、CPU71は、ステップS203で取得した奇数フィールド画像と偶数フィールド画像から、第1補間フレーム画像(第1の撮像画像)と第2補間フレーム画像(第2の撮像画像)とを生成し、取得する。   Subsequently, in step S205, the CPU 71 calculates a first interpolation frame image (first captured image) and a second interpolation frame image (second captured image) from the odd field image and even field image acquired in step S203. Generate and get.

ここで、第1補間フレーム画像は、奇数フィールド画像を構成する各ライン間に新しいラインを補間して生成したフレーム画像である。また、第2補間フレーム画像は、偶数フィールド画像を構成する各ライン間に新しいラインを補間して生成したフレーム画像である。具体的には、
図9(a)と(b)に示す奇数フィールド画像C1と偶数フィールド画像C2のそれぞれについて、各ライン間に新しいラインを補間することにより、図10(a)と(b)に示す第1補間フレーム画像D1と第2補間フレーム画像D2とを生成し、各々を取得する。
Here, the first interpolation frame image is a frame image generated by interpolating a new line between each line constituting the odd field image. The second interpolation frame image is a frame image generated by interpolating a new line between each line constituting the even field image. In particular,
For each of the odd-numbered field image C1 and the even-numbered field image C2 shown in FIGS. 9A and 9B, a new line is interpolated between the respective lines, whereby the first interpolation shown in FIGS. 10A and 10B is performed. A frame image D1 and a second interpolation frame image D2 are generated, and each is acquired.

補間方法の一例として、奇数フィールド画像、または、偶数フィールド画像の各ラインの間に、輝度値として上下の画素の平均値を有するラインを補間することで、第1補間フレーム画像、または、第2補間フレーム画像を生成できる。具体的には、2M行N列の画素数を有し、i行j列目の画素の輝度値がIijで表されるフレーム画像Bを撮像部40で取得した場合、第1補間フレーム画像D1の輝度値I ijは以下の(式1)で表すことができ、第2補間フレーム画像D2の輝度値I ijは、以下の(式2)で表すことができる。

Figure 0005924577
なお、Iminは、フレーム画像Bの輝度値Iの取りうる最小値である。 As an example of the interpolation method, by interpolating a line having an average value of upper and lower pixels as a luminance value between each line of an odd field image or even field image, the first interpolation frame image or the second Interpolated frame images can be generated. Specifically, when the imaging unit 40 acquires the frame image B having the number of pixels of 2M rows and N columns and the luminance value of the pixel in the i row and j column represented by I ij , the first interpolation frame image The brightness value I O ij of D1 can be expressed by the following (formula 1), and the brightness value I E ij of the second interpolation frame image D2 can be expressed by the following (formula 2).
Figure 0005924577
Note that I min is the minimum value that the luminance value I of the frame image B can take.

図7に戻って、CPU71は、ステップS205において、第1補間フレーム画像と第2補間フレーム画像とを取得すると、ステップS206に処理を進める。   Returning to FIG. 7, when the CPU 71 obtains the first interpolation frame image and the second interpolation frame image in step S <b> 205, the process proceeds to step S <b> 206.

ステップS206で、CPU71は、第1補間フレーム画像と第2補間フレーム画像との比較に基づいて、被写体検出画像を取得する。具体的には、CPU71は、図10(a)、(b)に示すような第1補間フレーム画像D1と第2補間フレーム画像D2とについて、対応する位置にある画素の輝度値I ij、I ijを比較し、その画素の輝度値の差(I ij−I ij)がステップS202で設定された検出閾値θ以上である場合に(|I ij−I ij|≧θ)、その位置の画素は被写体領域内の画素であると判別する。そして、CPU71は、この判別処理を、第1補間フレーム画像D1及び第2補間フレーム画像D2の全域に対して行い、被写体領域内の画素であると判別する画素について、フレーム画像Bの輝度値の最大値Imaxを輝度値とし、それ以外の画素については、輝度値の最小値Iminを輝度値として有する被写体検出画像Eを取得する(図11参照)。数式で表現すると、被写体検出画像Eの輝度値I ijは、以下の(式3)のように表すことができる。

Figure 0005924577
In step S206, the CPU 71 acquires a subject detection image based on the comparison between the first interpolation frame image and the second interpolation frame image. Specifically, the CPU 71 determines the luminance values I O ij of the pixels at the corresponding positions for the first interpolation frame image D1 and the second interpolation frame image D2 as shown in FIGS. When I E ij is compared, and the difference in luminance value of the pixel (I O ij −I E ij ) is equal to or larger than the detection threshold θ set in step S202 (| I O ij −I E ij | ≧ θ ), The pixel at that position is determined to be a pixel in the subject area. Then, the CPU 71 performs this determination process on the entire area of the first interpolation frame image D1 and the second interpolation frame image D2, and determines the luminance value of the frame image B for the pixels determined to be pixels within the subject area. the maximum value I max and the luminance value, for the other pixels, to obtain the object detection image E having a minimum value I min of the luminance value as the luminance value (see FIG. 11). When expressed by a mathematical expression, the luminance value I D ij of the subject detection image E can be expressed as the following (Expression 3).
Figure 0005924577

例えば、本処理において取得できる被写体検出画像のより具体的な例を示せば、図12(a)に示すような、スクリーン10をタッチしている指先を撮像部40で撮像した場合、CPU71が取得する被写体検出画像は、図12(b)に示すような被写体検出画像E1となる。なお、被写体検出画像E1においては白色で示される部分が被写体領域である。このように、本処理によれば、撮像対象(被写体)である操作者の指先(被写体領域の一例)を検出し、取得することができる。   For example, if a more specific example of the subject detection image that can be acquired in this processing is shown, the CPU 71 acquires the image of the fingertip touching the screen 10 as shown in FIG. The subject detection image to be obtained is a subject detection image E1 as shown in FIG. Note that in the subject detection image E1, the portion indicated in white is the subject region. Thus, according to this process, the fingertip (an example of the subject area) of the operator who is the imaging target (subject) can be detected and acquired.

図7に戻って、ステップS207で、CPU71は重心検出処理を実行し、ステップS206で取得した被写体検出画像上における被写体領域内の重心位置を検出する。具体的には、CPU71は被写体領域内と判定された全画素の座標の平均をとる。例えば、ステップS207で得た被写体検出画像上における被写体領域の重心座標(i、j)は、以下の(式4)で与えられる。

Figure 0005924577
Returning to FIG. 7, in step S <b> 207, the CPU 71 executes a gravity center detection process, and detects the position of the gravity center in the subject area on the subject detection image acquired in step S <b> 206. Specifically, the CPU 71 averages the coordinates of all the pixels determined to be within the subject area. For example, the center-of-gravity coordinates (i D , j D ) of the subject area on the subject detection image obtained in step S207 are given by the following (formula 4).
Figure 0005924577

例えば、本処理において、図12(b)及び図13(a)に示す被写体検出画像E1における被写体領域に対して、CPU71が(式4)を用いて検出する重心座標は、図13(b)の+印で示した座標となる。このように、重心検出処理によれば、撮像部40で撮影したフレーム画像中の被写体領域を代表する所定の位置座標、即ち、操作位置座標として重心座標を検出し、取得することができる。なお、操作位置座標として被写体領域の重心座標以外の座標を検出してもよい。   For example, in this process, for the subject area in the subject detection image E1 shown in FIGS. 12B and 13A, the barycentric coordinates detected by the CPU 71 using (Equation 4) are as shown in FIG. The coordinates are indicated by + marks. Thus, according to the center of gravity detection process, the center of gravity coordinates can be detected and acquired as the predetermined position coordinates representing the subject area in the frame image photographed by the imaging unit 40, that is, the operation position coordinates. Note that coordinates other than the barycentric coordinates of the subject area may be detected as the operation position coordinates.

続いて、ステップS208で、CPU71は、検出した重心座標に基づき、スクリーン10上における操作位置座標に割り振られた機能を発揮させる操作信号を対象機器に出力する。例えば、CPU71は、操作信号をプロジェクタ20に出力し、スクリーン10に表示される表示画像の表示内容を更新する。さらに具体的には、スクリーン10に表示されるカーソルの位置を移動させる、表示内容を上位階層の選択項目に応じた下位階層の表示に切り替えるなどが挙げられる。また、ナビゲーション装置やオーディオ機器などの外部機器を対象機器として操作信号を出力し、ナビゲーション機能や音声再生機能などの外部機器が備える機能を実行させることも一例として挙げられる。   Subsequently, in step S208, the CPU 71 outputs, to the target device, an operation signal that performs a function assigned to the operation position coordinates on the screen 10 based on the detected barycentric coordinates. For example, the CPU 71 outputs an operation signal to the projector 20 and updates the display content of the display image displayed on the screen 10. More specifically, the position of the cursor displayed on the screen 10 is moved, and the display content is switched to a lower layer display corresponding to a selection item of the upper layer. Another example is that an operation signal is output using an external device such as a navigation device or an audio device as a target device, and a function of the external device such as a navigation function or an audio playback function is executed.

以上の処理からなる操作位置検出処理を、CPU71は、例えば制御装置70の電源がオフされるまで繰り返し実行する。   The CPU 71 repeatedly executes the operation position detection process including the above processes until, for example, the control device 70 is powered off.

以上のように、本実施形態に係るタッチスクリーン装置1は、撮像部40によって透過型のスクリーン10越しに被写体2を撮像し、また、CPU71によって、照度センサ50が検出した外光LOの強度に基づいて撮像部40が撮像した撮像画像(フレーム画像)における被写体領域を検出する感度を調整し、また、検出した被写体領域内の所定位置を操作位置として検出する。このような構成からなるタッチスクリーン装置1によれば、外光LOの強度が強い環境下でもそれに応じて操作位置を検出する処理の感度を変更することができるため、良好に操作位置を検出することが可能となる。   As described above, in the touch screen device 1 according to the present embodiment, the imaging unit 40 images the subject 2 through the transmissive screen 10, and the CPU 71 sets the intensity of the external light LO detected by the illuminance sensor 50. Based on this, the sensitivity for detecting the subject region in the captured image (frame image) captured by the imaging unit 40 is adjusted, and a predetermined position in the detected subject region is detected as the operation position. According to the touch screen device 1 having such a configuration, it is possible to change the sensitivity of the process for detecting the operation position according to the environment where the intensity of the external light LO is strong. It becomes possible.

また、制御装置70のCPU71は、照度センサ50が検出した外光LOの強度が大きいほど、感度を高く調整する。このようにすれば、フレーム画像における被写体2の像が明るくなり、第1補間フレーム画像と第2補間フレーム画像における輝度差が小さくなる場合であっても、良好に操作位置を検出することが可能となる。また、外光LOの強度が小さい場合には、感度を低く調整できるため、誤検出を抑制することができる。   Further, the CPU 71 of the control device 70 adjusts the sensitivity higher as the intensity of the external light LO detected by the illuminance sensor 50 is larger. By doing this, it is possible to detect the operation position satisfactorily even when the image of the subject 2 in the frame image becomes bright and the luminance difference between the first interpolation frame image and the second interpolation frame image becomes small. It becomes. Further, when the intensity of the external light LO is small, the sensitivity can be adjusted to be low, so that erroneous detection can be suppressed.

また、撮像部40は、被写体2の撮像を奇数フィールドと偶数フィールドの2つのフィールドの撮像に分けて行い、CPU71は、2つのフィールドの撮像うちの一方のフィールド(奇数フィールド)の撮像においてのみスクリーン10の背面側から照明光LIを照射する光源30を発光させ、撮像したフレーム画像を各フィールドで分離して第1、第2補間フレーム画像を生成し、第1、第2補間フレーム画像を比較した場合の輝度差が検出閾値θより大きい領域を被写体領域として検出し、照度センサ50が検出した外光の強度に基づいて検出閾値θを設定して前記感度を調整する。これにより、タッチスクリーン装置1は、背景の影響を受けにくい操作位置の検出を行うことができ、良好に操作位置を検出することが可能となる。また、高速撮影が可能なカメラを必要とすることなく、簡単な構成で画像中の被写体が存在する領域を検出することが可能である。   The imaging unit 40 divides the imaging of the subject 2 into the imaging of two fields of the odd field and the even field, and the CPU 71 screens only in imaging of one field (odd field) of the imaging of the two fields. 10, the light source 30 that emits the illumination light LI is emitted from the back side, and the captured frame images are separated by each field to generate the first and second interpolation frame images, and the first and second interpolation frame images are compared. In this case, an area where the luminance difference is larger than the detection threshold θ is detected as a subject area, and the sensitivity is adjusted by setting the detection threshold θ based on the intensity of external light detected by the illuminance sensor 50. Thereby, the touch screen device 1 can detect the operation position that is not easily affected by the background, and can detect the operation position satisfactorily. Further, it is possible to detect a region where an object is present in an image with a simple configuration without requiring a camera capable of high-speed shooting.

(変形例)
なお、本発明は、以上の実施形態に限定されず、種々の変形及び応用が可能である。本実施形態においては照度センサ50が検出した外光LOの強度に基づいて被写体領域を検出する感度のみを調整するものであったが、さらに、CPU71は、照度センサ50が検出した外光LOの強度に基づいて、撮像部40の感度を調整するものであってもよい。すなわち、CPU71が請求項の撮像感度調整手段として機能する。具体的には、外光LOの強度に基づいて撮像部40のシャッター時間を変更することで撮像部40の感度を調整することができる。これによれば、外光LOの強度が大きい環境下において、撮像部40の出力が飽和することを抑制でき、適切なコントラストを有する明瞭なフレーム画像を取得することができる。
(Modification)
In addition, this invention is not limited to the above embodiment, A various deformation | transformation and application are possible. In the present embodiment, only the sensitivity for detecting the subject area is adjusted based on the intensity of the external light LO detected by the illuminance sensor 50, but the CPU 71 further adjusts the sensitivity of the external light LO detected by the illuminance sensor 50. The sensitivity of the imaging unit 40 may be adjusted based on the intensity. That is, the CPU 71 functions as an imaging sensitivity adjustment unit. Specifically, the sensitivity of the imaging unit 40 can be adjusted by changing the shutter time of the imaging unit 40 based on the intensity of the external light LO. According to this, it is possible to suppress saturation of the output of the imaging unit 40 in an environment where the intensity of the external light LO is large, and a clear frame image having an appropriate contrast can be acquired.

また、さらに、CPU71は照度センサ50が検出した外光LOの強度に基づいて、光源30の点灯時間を設定するものであってもよい。すなわち、CPU71が請求項の点灯時間設定手段として機能する。これによれば、外光LOの強度が大きい環境下においては、照明光LIの発光量を増やすことで第1補間フレーム画像と第2補間フレーム画像との間の輝度差を大きくすることができ、検出の感度の調整を合わせて被写体2の周囲の環境に適した設定で、操作位置を良好に検出することができる。   Further, the CPU 71 may set the lighting time of the light source 30 based on the intensity of the external light LO detected by the illuminance sensor 50. That is, the CPU 71 functions as a lighting time setting unit. According to this, in an environment where the intensity of the external light LO is large, the luminance difference between the first interpolation frame image and the second interpolation frame image can be increased by increasing the light emission amount of the illumination light LI. The operation position can be satisfactorily detected by adjusting the detection sensitivity and setting suitable for the environment around the subject 2.

また、上記の実施形態においては、CPU71は、光源30が点灯した環境下の第1補間フレーム画像と光源30が消灯した環境下の第2補間フレーム画像との間に輝度差によって被写体領域を検出するものであったが、操作位置検出処理における被写体領域の検出方法はこれに限定されるものではない。例えば、被写体2によるプロジェクタ20の表示光LDの反射による輝度差、すなわち、操作者がスクリーン10をタッチしない場合の撮像画像とタッチした場合の操作画像との間で生じる輝度差(輝度変化)によって被写体領域を検出する処理を行ってもよい。また、高速撮影が可能なカメラを撮像部40として用い、光源30を所定時間間隔で点滅させ、ほぼ同時刻の光源30が点灯した環境下における撮像画像と光源30が消灯した環境下における撮像画像との輝度差によって被写体領域を検出する処理を行ってもよい。これらの場合も、検出の感度の調整は、輝度差の検出閾値を設定することで行う。   In the above-described embodiment, the CPU 71 detects a subject area based on a luminance difference between the first interpolation frame image under the environment where the light source 30 is turned on and the second interpolation frame image under the environment where the light source 30 is turned off. However, the method of detecting the subject area in the operation position detection process is not limited to this. For example, the luminance difference due to the reflection of the display light LD of the projector 20 by the subject 2, that is, the luminance difference (luminance change) generated between the captured image when the operator does not touch the screen 10 and the operation image when the operator touches the screen 10. Processing for detecting a subject area may be performed. In addition, a camera capable of high-speed shooting is used as the imaging unit 40, the light source 30 is blinked at predetermined time intervals, and a captured image in an environment where the light source 30 is turned on at almost the same time and a captured image in an environment where the light source 30 is turned off. Processing for detecting a subject area may be performed based on the luminance difference between the two. Also in these cases, adjustment of detection sensitivity is performed by setting a detection threshold for luminance difference.

また、上記の実施形態では、CPU71が、垂直同期信号の立ち下がりを検出し、かつフィールド識別信号が奇数フィールドを示すときに、時刻t=0としてタイマを設定している。しかし、CPU71が、垂直同期信号の立ち上がりを検出し、かつフィールド識別信号が奇数フィールドを示すときに、時刻t=0としてタイマを設定してもよい。この場合もCPU71は、光源30を制御することができる。   In the above embodiment, when the CPU 71 detects the falling edge of the vertical synchronization signal and the field identification signal indicates an odd field, the timer is set at time t = 0. However, the CPU 71 may set the timer at time t = 0 when the rising edge of the vertical synchronization signal is detected and the field identification signal indicates an odd field. Also in this case, the CPU 71 can control the light source 30.

また、上記の実施形態では、CPU71は、撮像部40が奇数フィールドを撮像しているときに光源30を点灯させ、偶数フィールドを撮像しているときに光源30を消灯させたが、これに限られない。撮像部40が偶数フィールドを撮像しているときに光源30を点灯させ、奇数フィールドを撮像しているときに光源30を消灯させてもよい。   In the above embodiment, the CPU 71 turns on the light source 30 when the imaging unit 40 is imaging an odd field, and turns off the light source 30 when imaging an even field. I can't. The light source 30 may be turned on when the imaging unit 40 is imaging an even field, and the light source 30 may be turned off when an odd field is being imaged.

本発明は、操作位置を検出する位置検出装置に適用できる。   The present invention can be applied to a position detection device that detects an operation position.

1 タッチスクリーン装置(位置検出装置)
10 スクリーン
20 プロジェクタ(投影手段)
30 光源
40 撮像部(撮像手段)
50 照度センサ(外光検出手段)
60 入力装置
70 制御装置
71 CPU
72 ROM
73 汎用メモリ
74 ビデオメモリ
75 同期分離回路
76 フィールド識別回路
77 外部デバイスインターフェース
2 被写体
3 背景
1 Touch screen device (position detection device)
10 screen 20 projector (projection means)
30 Light source 40 Imaging unit (imaging means)
50 Illuminance sensor (external light detection means)
60 Input device 70 Control device 71 CPU
72 ROM
73 General-purpose memory 74 Video memory 75 Sync separation circuit 76 Field identification circuit 77 External device interface 2 Subject 3 Background

Claims (4)

表示画像が背面側から投影される透過型のスクリーン越しに被写体を撮像する撮像手段と、
前記スクリーンに照射される外光の強度を検出する外光検出手段と、
前記撮像手段が撮像した撮像画像における前記被写体の領域を検出する被写体領域検出手段と、
前記外光検出手段が検出した外光の強度に基づいて前記被写体領域検出手段が前記被写体の領域を検出する感度を調整する検出感度調整手段と、
前記被写体領域検出手段が検出した前記被写体の領域内の所定位置を操作位置として検出する操作位置検出手段と、備え、前記検出感度調整手段は、前記外光検出手段が検出した外光の強度が大きいほど、前記感度を高く調整することを特徴とする位置検出装置。
Imaging means for imaging a subject through a transmissive screen on which a display image is projected from the back side;
Outside light detecting means for detecting the intensity of outside light irradiated on the screen;
Subject area detection means for detecting the area of the subject in the captured image captured by the imaging means;
A detection sensitivity adjusting means for adjusting the sensitivity is the subject-region-detecting means for detecting a region of the object based on the intensity of external light detected by the external light detecting means,
Operating position detecting means for detecting a predetermined position in the subject area detected by the subject area detecting means as an operating position, and the detection sensitivity adjusting means has an intensity of outside light detected by the outside light detecting means. The position detecting device is characterized in that the sensitivity is adjusted higher as the size is larger .
前記被写体の撮像を2つのフィールドの撮像に分けて行う前記撮像手段と、
前記スクリーンの背面側から照明光を照射する光源と、
前記2つのフィールドの撮像うちの一方のフィールドの撮像においてのみ前記光源を発光させる発光制御手段と、
前記撮像画像を前記2つのフィールドで分離して第1、第2の撮像画像を生成する撮像画像生成手段と、
前記第1、第2の撮像画像を比較した場合の輝度差が閾値以上である領域を前記被写体の領域として検出する前記被写体領域検出手段と、
前記外光検出手段が検出した外光の強度に基づいて前記閾値を設定して前記感度を調整する前記検出感度調整手段と、を備え、
前記検出感度調整手段は、前記外光検出手段が検出した外光の強度が大きいほど、前記閾値を小さく設定することを特徴とする請求項1に記載の位置検出装置。
The imaging means for performing imaging of the subject divided into imaging of two fields;
A light source that emits illumination light from the back side of the screen;
Light emission control means for causing the light source to emit light only in imaging of one of the two fields;
A captured image generation means for generating the first and second captured images by separating the captured image by the two fields;
The subject region detection means for detecting, as the subject region, a region having a luminance difference equal to or greater than a threshold when the first and second captured images are compared;
The detection sensitivity adjustment means for adjusting the sensitivity by setting the threshold based on the intensity of external light detected by the external light detection means,
The position detection apparatus according to claim 1, wherein the detection sensitivity adjustment unit sets the threshold value to be smaller as the intensity of the external light detected by the external light detection unit increases .
前記外光検出手段が検出した外光の強度に基づいて前記撮像手段の感度を調整する撮像感度調整手段を備えてなることを特徴とする請求項1または請求項に記載の位置検出装置。 Position detecting apparatus according to claim 1 or claim 2, characterized in that it comprises an imaging sensitivity adjusting means for adjusting the sensitivity of the imaging unit based on the intensity of external light the external light detecting means has detected. 前記外光検出手段が検出した外光の強度に基づいて前記光源の点灯時間を設定する点灯時間設定手段を備えてなることを特徴とする請求項または請求項に記載の位置検出装置。
Position detecting apparatus according to claim 2 or claim 3, characterized in that it comprises a lighting time setting means for setting a lighting time of the light source based on the intensity of external light detected by the external light detecting means.
JP2012062541A 2012-03-19 2012-03-19 Position detection device Expired - Fee Related JP5924577B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012062541A JP5924577B2 (en) 2012-03-19 2012-03-19 Position detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012062541A JP5924577B2 (en) 2012-03-19 2012-03-19 Position detection device

Publications (2)

Publication Number Publication Date
JP2013196348A JP2013196348A (en) 2013-09-30
JP5924577B2 true JP5924577B2 (en) 2016-05-25

Family

ID=49395216

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012062541A Expired - Fee Related JP5924577B2 (en) 2012-03-19 2012-03-19 Position detection device

Country Status (1)

Country Link
JP (1) JP5924577B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6197163B1 (en) * 2017-01-12 2017-09-20 株式会社ネットアプリ INPUT / OUTPUT SYSTEM, INPUT PROCESSING DEVICE, INPUT / OUTPUT METHOD, AND PROGRAM
KR20210016241A (en) * 2019-08-03 2021-02-15 주식회사 프라젠 Optical device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3410919B2 (en) * 1997-01-31 2003-05-26 株式会社東芝 Image extraction device
JP4708278B2 (en) * 2006-05-12 2011-06-22 株式会社アシスト Touch panel system and operation method thereof
US8004502B2 (en) * 2007-10-05 2011-08-23 Microsoft Corporation Correcting for ambient light in an optical touch-sensitive device
JP4697552B2 (en) * 2008-04-18 2011-06-08 ソニー株式会社 Image display device and driving method of image display device
JP2011209882A (en) * 2010-03-29 2011-10-20 Nippon Seiki Co Ltd Apparatus and method for processing image, and program

Also Published As

Publication number Publication date
JP2013196348A (en) 2013-09-30

Similar Documents

Publication Publication Date Title
KR101709817B1 (en) Ambient correction in rolling image capture system
JP6398248B2 (en) Position detection system and method for controlling position detection system
JP6417690B2 (en) Projector, display device, and projector control method
US9232152B2 (en) Image capturing apparatus and control method thereof for correcting exposure unevenness caused by an external light change
JP2008287142A (en) Image projector
JP2011043876A (en) Image display device
US20220108658A1 (en) Display device, photoelectric conversion device, electronic device, moving body, and wearable device
US20120218294A1 (en) Projection-type image display apparatus
EP2502132A1 (en) Interactive display
JP5924577B2 (en) Position detection device
JP6017749B1 (en) IMAGING DEVICE AND IMAGING DEVICE OPERATING METHOD
JP2020160808A (en) Position detection method, position detection device, and interactive projector
US10942607B2 (en) Manipulation detection device and video display system that are capable detecting an object on a video display surface
US8749688B2 (en) Portable device, operating method, and computer-readable storage medium
JP2015075628A (en) Light emission control device and imaging device
US9906705B2 (en) Image pickup apparatus
JP2011209882A (en) Apparatus and method for processing image, and program
JP2007322704A (en) Image display system and its control method
JP2015126281A (en) Projector, information processing method, and program
US10055026B2 (en) Interactive projector and method of controlling interactive projector
JP2005236878A (en) Image input device
TWI590656B (en) Image capturing device and auxiliary shooting method thereof
JP2010112990A (en) Projector
JP6340860B2 (en) POSITION DETECTION DEVICE, PROJECTOR, POSITION DETECTION SYSTEM, AND POSITION DETECTION DEVICE CONTROL METHOD
JP2013015896A (en) Portion detector and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150116

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151201

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160407

R150 Certificate of patent or registration of utility model

Ref document number: 5924577

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees