JP2003202957A - Coordinate detecting method, program by its method and storage medium with its program stored therein - Google Patents
Coordinate detecting method, program by its method and storage medium with its program stored thereinInfo
- Publication number
- JP2003202957A JP2003202957A JP2001400516A JP2001400516A JP2003202957A JP 2003202957 A JP2003202957 A JP 2003202957A JP 2001400516 A JP2001400516 A JP 2001400516A JP 2001400516 A JP2001400516 A JP 2001400516A JP 2003202957 A JP2003202957 A JP 2003202957A
- Authority
- JP
- Japan
- Prior art keywords
- light
- boundary line
- point
- coordinates
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、電子黒板システム
やパーソナルコンピュータなどに用いられる、光の遮断
方向を検出することにより座標を検出する座標検出方法
に係わり、特に、同時に複数の座標を検出することがで
きる座標検出方法に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a coordinate detecting method used in an electronic blackboard system, a personal computer or the like to detect coordinates by detecting a light blocking direction, and more particularly to detecting a plurality of coordinates at the same time. The present invention relates to a coordinate detection method that can perform.
【0002】[0002]
【従来の技術】従来より、電子黒板システムや一部のパ
ーソナルコンピュータなどでは、表示装置であり座標入
力装置である兼用装置として、後述するような座標入力
機能付表示装置を用いている。このような座標入力機能
付表示装置を用いたシステムでは、画面上の所望の位置
に指先などでタッチすることによりその位置を指示す
る。あるいは、指先などをタッチした状態で移動するこ
とにより線を引いたり、表示されている対象画像などを
移動(ドラッグ)させたりする。本発明に係わる座標検
出方法は、前記したような座標入力装置に用いられてい
る座標検出方法のうち、光の遮断方向を検出することに
より座標を検出する座標検出方法である。また、座標入
力機能付表示装置におけるタッチ操作では、マウスにお
ける「左ボタン」操作をエミュレートするのが一般的で
ある。これは、Windows(登録商標),MAC,
Linuxなど汎用OS(オペレーティングシステム)
の下で動作するAPL(アプリケーション)が左ボタン
ONによりメニュー表示を行い、機能を実行するように
なっているからである。この点については、本発明も同
様な方法によっている。また、従来のタッチパネルで
は、同時に2点がタッチされた場合、一般には、誤動作
をするか、後からタッチされたほうを無視するなどの処
理を行っている。一つの画面を複数の領域に分け、それ
ぞれ異なった領域に属する複数の点に同時にタッチし、
それぞれのタッチに応じた処理を並行に動作させるとい
うようなことはおこなっていないし、複数の領域に分け
ることによりタッチ座標を特定することもおこなってい
ない。なお、前記した座標入力機能付表示装置の座標入
力/検出装置としては、以下のようなものが知られてい
る。一つの例では、回転多面鏡を介して光ビームを2つ
の光出射部から出射して座標入力面を走査し、ペンの軸
先に設けられた反射部材からの反射光を2つの受光部に
より検出して、ペンの挿入位置を検出する(特開昭57
−211637号公報参照)。2つの受光部により受光
し、3角測量の原理を利用して指示された位置の座標を
算出するのである。なお、この座標入力/検出装置にお
ける座標入力面は第1および第2の例の座標入力/検出
装置における座標入力面のような物理的な面ではなく、
光出射部から出射される光ビームによって形成される面
である。2. Description of the Related Art Conventionally, in an electronic blackboard system and some personal computers, a display device with a coordinate input function, which will be described later, has been used as a dual-purpose device which is a display device and a coordinate input device. In a system using such a display device with a coordinate input function, a desired position on the screen is touched with a fingertip or the like to indicate the position. Alternatively, a line is drawn by moving while touching a fingertip or the like, or a displayed target image or the like is moved (drag). The coordinate detecting method according to the present invention is the coordinate detecting method used in the coordinate input device as described above to detect the coordinate by detecting the light blocking direction. In addition, a touch operation on a display device with a coordinate input function generally emulates a “left button” operation on a mouse. This is Windows (registered trademark), MAC,
General-purpose OS (operating system) such as Linux
This is because the APL (application) that operates under (1) displays the menu when the left button is turned on and executes the function. In this respect, the present invention uses a similar method. Further, in the conventional touch panel, when two points are touched at the same time, generally, a process such as a malfunction or ignoring the touched later is performed. Divide one screen into multiple areas, touch multiple points that belong to different areas at the same time,
It does not perform processing corresponding to each touch in parallel, nor does it specify touch coordinates by dividing into a plurality of regions. The following are known as the coordinate input / detection device of the display device with the coordinate input function described above. In one example, a light beam is emitted from two light emitting portions via a rotary polygon mirror to scan a coordinate input surface, and reflected light from a reflecting member provided at the tip of the pen is reflected by two light receiving portions. Then, the insertion position of the pen is detected.
-21637). The light is received by the two light receiving units, and the coordinates of the designated position are calculated using the principle of triangulation. The coordinate input surface in this coordinate input / detection device is not a physical surface like the coordinate input surface in the coordinate input / detection devices of the first and second examples,
It is a surface formed by the light beam emitted from the light emitting portion.
【0003】また、特開平9−91094号公報に示さ
れた光学式の座標入力/検出装置では、座標入力面の例
えば下方左右の隅に光出射・受光部を設け、それぞれの
光出射・受光部から出射方向(出射角度)を変えながら
光ビームを出射して座標入力面を走査し、その光ビーム
をパネルの上辺および左右辺に設けたコーナキューブア
レイ(光再帰性反射手段)で折り返させ(戻る方向に反
射させ)、それぞれの光出射・受光部により戻ってきた
光ビームを検出する。これにより、指などで光ビームが
遮られる左右の光出射・受光部の走査角度を検出するこ
とができ、3角測量の原理を利用して指示された位置の
座標を算出することができる。また、特開平11−11
0116号公報に示された光学式の座標入力/検出装置
では、座標入力面の例えば上方左右の隅に光出射・受光
部を設け、それぞれの光出射・受光部から出射方向(出
射角度)を変えながら光ビームを出射して座標入力面を
走査し、その光ビームをパネルの下辺および左右辺に設
けた光再帰性反射手段で折り返させ(戻る方向に反射さ
せ)、それぞれの光出射・受光部により戻ってきた光ビ
ームを検出する。これにより、指などで光ビームが遮ら
れる左右の光出射・受光部の走査角度の光遮断範囲を検
出して指示された位置の座標を算出する。また、特開2
000−284895公報に示された光学式の座標入力
/検出装置では、赤外線ビームにより同様にして指示さ
れた位置の座標を検出する場合に、表示板の歪みや座標
入力ペンの傾きなどがあっても安定な位置検出ができる
ようにしている。Further, in the optical coordinate input / detection device disclosed in Japanese Patent Application Laid-Open No. 9-91094, light emitting / receiving units are provided in, for example, the lower left and right corners of the coordinate input surface, and the respective light emitting / receiving units are provided. The light beam is emitted while changing the emission direction (emission angle) from the section, scans the coordinate input surface, and the light beam is folded back by the corner cube array (light retroreflecting means) provided on the upper side and left and right sides of the panel. (Reflect in the returning direction), and the light beams returned by the respective light emitting / receiving units are detected. This makes it possible to detect the scanning angles of the left and right light emitting / receiving portions where the light beam is blocked by a finger or the like, and the coordinates of the designated position can be calculated using the principle of triangulation. In addition, Japanese Patent Laid-Open No. 11-11
In the optical coordinate input / detection device disclosed in Japanese Patent No. 0116, light emitting / receiving units are provided in, for example, upper and left corners of the coordinate input surface, and the emitting directions (emission angles) are set from the respective light emitting / receiving units. The light beam is emitted while changing it, and the coordinate input surface is scanned, and the light beam is reflected by the light retroreflecting means provided on the bottom side and the left and right sides of the panel (reflected in the returning direction) to emit and receive each light. The light beam returned by the unit is detected. As a result, the coordinates of the instructed position are calculated by detecting the light blocking range of the scanning angles of the left and right light emitting / receiving parts where the light beam is blocked by the finger or the like. In addition, Japanese Patent Laid-Open No.
In the optical coordinate input / detection device disclosed in Japanese Patent Application Laid-Open No. 000-284895, when the coordinates of the position similarly designated by the infrared beam is detected, there is distortion of the display plate or inclination of the coordinate input pen. Is also capable of stable position detection.
【0004】[0004]
【発明が解決しようとする課題】前記したように、従来
技術においては、一つの画面を複数の領域に分け、それ
ぞれ異なった領域に属する複数の点に同時にタッチし、
それぞれのタッチに応じた処理を並行に動作させるとい
うようなことはおこなっていないし、複数の領域に分け
ることによりタッチ座標を特定することもおこなってい
ない。本発明の目的は、このような従来技術の問題を解
決することにあり、具体的には、光源から発射された光
を反射する反射手段を有し、発射された光を遮る遮光方
向を検出することにより座標を検出する座標検出方法に
おいて、それぞれ異なった領域に属する複数の点に同時
にタッチさせ、それによりタッチ座標を特定し、それぞ
れのタッチに応じた処理を並行に動作させることができ
るようにして、例えば電子黒板として使用したときに、
2人または、それ以上で同時に使用したりできる座標検
出方法を提供することにある。As described above, in the prior art, one screen is divided into a plurality of areas, and a plurality of points belonging to different areas are simultaneously touched,
It does not perform processing corresponding to each touch in parallel, nor does it specify touch coordinates by dividing into a plurality of regions. An object of the present invention is to solve such a problem of the conventional art. Specifically, it has a reflecting means for reflecting the light emitted from the light source, and detects the light blocking direction for blocking the emitted light. In the coordinate detection method for detecting coordinates by doing so, it is possible to simultaneously touch a plurality of points belonging to different areas, thereby specifying touch coordinates, and performing processing corresponding to each touch in parallel. And when using it as an electronic blackboard,
It is to provide a coordinate detection method that can be used by two or more people at the same time.
【0005】[0005]
【課題を解決するための手段】前記の課題を解決するた
めに、請求項1記載の発明では、複数の光源から発射さ
れ反射される光について、発射された光を遮る遮光方向
を検出することにより座標を検出する座標検出方法にお
いて、検出座標の遮光幅から、複数の検出座標がそれぞ
れ予め設けた境界線により区切られた異なる領域にある
とみなせるときに、同時に指示された複数の座標を、検
出された複数の座標の遮光方向と遮光幅比較の結果とか
ら算出する構成にしたことを特徴とする。また、請求項
2記載の発明では、請求項1記載の発明において、同時
に指示された座標が2点の場合に前記境界線を縦方向ま
たは横方向の1本の境界線とする構成か、3点の場合に
前記境界線を縦方向または横方向の2本の境界線とする
構成か、または、4点の場合に縦方向および横方向1本
づつ合わせて2本の境界線とする構成にしたことを特徴
とする。また、請求項3記載の発明では、請求項1また
は請求項2記載の発明において、予め境界線上の任意の
点にタッチしてそのときの遮光幅を検出することによ
り、複数の座標が同時に指示された際の境界線上の遮蔽
幅を算出し、その遮蔽幅を用いて前記遮光幅比較を行う
構成にしたことを特徴とする。また、請求項4記載の発
明では、請求項1、請求項2、または請求項3記載の発
明において、検出する座標数だけそれぞれの座標に対応
した前記領域内に処理内容を指示するための表示子を表
示する構成にしたことを特徴とする。また、請求項5記
載の発明では、請求項4記載の発明において、表示され
た異なる表示子を用いてそれぞれ異なる操作を行わせる
構成にしたことを特徴とする。また、請求項6記載の発
明では、情報処理装置上で動作するプログラムにおい
て、請求項1乃至請求項5のいずれか1項に記載の座標
検出方法に従ってプログラミングしたことを特徴とす
る。また、請求項7記載の発明では、プログラムを記憶
した記憶媒体において、請求項6記載のプログラムを記
憶したことを特徴とする。In order to solve the above-mentioned problems, in the invention described in claim 1, the light-shielding direction for interrupting the emitted light is detected for the light emitted from a plurality of light sources and reflected. In the coordinate detection method of detecting the coordinates by, from the light-shielding width of the detection coordinates, when it can be considered that the plurality of detection coordinates are in different regions separated by the boundary line provided in advance, respectively, the plurality of coordinates designated at the same time, The present invention is characterized in that the calculation is performed from the detected light shielding direction of a plurality of coordinates and the result of the light shielding width comparison. According to the invention of claim 2, in the invention of claim 1, when the coordinate pointed at the same time is two points, the boundary line is one boundary line in the vertical direction or the horizontal direction, or 3 In the case of a point, the boundary line has two boundary lines in the vertical direction or the horizontal direction, or in the case of four points, one boundary line in the vertical direction and one in the horizontal direction form two boundary lines. It is characterized by having done. Further, in the invention according to claim 3, in the invention according to claim 1 or claim 2, a plurality of coordinates are simultaneously indicated by touching an arbitrary point on the boundary line in advance and detecting the light shielding width at that time. It is characterized in that the shielding width on the boundary line at that time is calculated, and the shielding width is compared using the shielding width. Further, in the invention of claim 4, in the invention of claim 1, claim 2, or claim 3, a display for instructing processing contents in the area corresponding to each coordinate by the number of detected coordinates. The feature is that the child is displayed. The invention according to claim 5 is characterized in that, in the invention according to claim 4, different operations are performed by using different displayed indicators. Further, the invention according to claim 6 is characterized in that the program operating on the information processing device is programmed according to the coordinate detecting method according to any one of claims 1 to 5. Further, the invention according to claim 7 is characterized in that the program according to claim 6 is stored in a storage medium storing the program.
【0006】[0006]
【発明の実施の形態】以下、図面により本発明の実施の
形態を詳細に説明する。図1は本発明が実施される例え
ば電子黒板システムのシステム構成図である。図示した
ように、この実施例の電子黒板システムは、座標入力機
能付表示装置1と例えばパーソナルコンピュータなどに
より実現される制御装置2とから構成される。また、前
記座標入力機能付表示装置1は、指などで触れた画面上
の位置を指などで遮られた遮光方向を検出することによ
り光学的に検出して制御装置2へ送る座標検出部と、制
御装置2から送られてきた画像データを表示する表示部
を備える。座標検出部は表示画面の解像度(例えばX軸
方向ドット数:1024、Y軸方向ドット数:768)
に対応した表示画面上のX,Y座標を検知して、その座
標データを制御装置2へ送るのである。BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described in detail below with reference to the drawings. FIG. 1 is a system configuration diagram of, for example, an electronic blackboard system in which the present invention is implemented. As shown in the figure, the electronic blackboard system of this embodiment comprises a display device with coordinate input function 1 and a control device 2 realized by, for example, a personal computer. Further, the display device with coordinate input function 1 detects a position on the screen touched by a finger or the like optically by detecting a light-shielding direction blocked by the finger or the like, and sends it to the control device 2. A display unit that displays the image data sent from the control device 2 is provided. The coordinate detection unit has a display screen resolution (for example, the number of dots in the X-axis direction: 1024, the number of dots in the Y-axis direction: 768).
The X and Y coordinates on the display screen corresponding to are detected and the coordinate data is sent to the control device 2.
【0007】以下、図2により、まず、座標入力機能付
き表示装置1の座標検出部について説明する。図2にお
いて、座標入力領域3は、4角形の形状をした、例えば
電子的に画像を表示するディスプレイ表面や、ペンなど
で書き込むホワイトボードである。このような座標入力
領域3上を光学的に不透明な利用者の手指、ペン、支持
棒など指示手段6で触れたとき、座標入力機能付き表示
装置1の座標検出部は、触れられた位置の座標を検出す
るのである。図2に示したように、座標入力領域3の上
方両端には受発光部5が装着されていて、その受発光部
5からは座標入力領域3のあらゆる方向に向けて光が隙
間なく照射されている。図2においては、このような照
射光をL1,L2,L3,…Lmの光ビームの束(プロ
ーブ光)で示しているが、実際には、この照射光は、点
光源81から広がる、座標入力面に平行な面に沿って進
行する扇形板状の光波である。また、座標入力領域3の
周辺部分には、再帰性反射部材4が再帰反射面を座標入
力領域3の中央に向けて装着されている。この再帰性反
射部材4は入射した光を入射角度によらずに同じ方向に
反射する特性をもった部材である。例えば受発光部5か
ら発した扇形板状の光波のうちある一つのビーム12に
注目すると、ビーム12は再帰性反射部材4によって反
射されて再び同じ光路を再帰反射光11として受発光部
5に向かって戻るように進行する。受発光部5には、後
に述べる受光手段が設置されているので、プローブ光L
1〜Lmのそれぞれに対して、その再帰光が受発光部5
に再帰したかどうかを判断することができる。Hereinafter, referring to FIG. 2, the coordinate detecting section of the display device 1 with the coordinate input function will be described. In FIG. 2, the coordinate input area 3 is a quadrangular shape, for example, a display surface for electronically displaying an image, or a whiteboard for writing with a pen or the like. When touching the coordinate input area 3 with the optically opaque user's finger, pen, support rod, or the like, the coordinate detecting unit of the display device with coordinate input function 1 detects the touched position. The coordinates are detected. As shown in FIG. 2, the light emitting / receiving sections 5 are mounted on both upper ends of the coordinate input area 3, and light is emitted from the light emitting / receiving section 5 in all directions of the coordinate input area 3 without any gap. ing. In FIG. 2, such irradiation light is shown as a bundle of light beams L1, L2, L3, ... Lm (probe light), but in reality, the irradiation light spreads from the point light source 81 It is a fan-shaped plate-like light wave that travels along a plane parallel to the input surface. Further, a retroreflective member 4 is attached to the peripheral portion of the coordinate input area 3 with its retroreflective surface facing the center of the coordinate input area 3. The retroreflective member 4 is a member having a characteristic of reflecting incident light in the same direction regardless of the incident angle. For example, paying attention to one beam 12 of the fan-shaped plate-shaped light waves emitted from the light emitting / receiving unit 5, the beam 12 is reflected by the retroreflective member 4, and the same optical path is again reflected to the light receiving / emitting unit 5 as the retroreflected light 11. Proceed to return. Since the light receiving and emitting section 5 is provided with a light receiving means described later, the probe light L
For each of 1 to Lm, the recursive light is received and emitted by the light receiving and emitting unit
You can determine whether or not you have recurred to.
【0008】いま、指示手段6(例えば利用者の手)を
図示の位置に触れた場合について考える。このとき、プ
ローブ光10は指示手段6に遮られて再帰性反射部材4
には到達しない。したがって、プローブ光10の再帰光
は受発光部5には到達せず、プローブ光10に対応する
再帰光が受光されないことを検出することにより、プロ
ーブ光10の延長線(直線L)上に支持物体が挿入され
たことを検出することができる。同様に、図2の右上方
に設置された受発光部5からもプローブ光を照射し、プ
ローブ光13に対応する再帰光が受光されないことを検
出することにより、プローブ光13の延長線(直線R)
上に支持物体が挿入されたことを検出することができ
る。このようにして、直線Lおよび直線Rを求めること
ができれば、この交点座標を演算することにより、指示
手段6が挿入された座標を得ることができるのである。
受発光部5の内部の構造の概略を図3に示す。以下、図
3により、受発光部5の構成と、プローブ光L1からL
mのうちどのプローブ光が遮断されたかを検出する機構
について説明する。なお、図3は図2に示した受発光部
5を座標入力領域3に垂直な方向から見た図である。こ
こでは、簡単にするため、座標入力領域3に平行な2次
元平面で説明を行う。図示したように、この受発光部5
は、点光源81、集光レンズ51、および受光素子50
などを備えている。点光源81は、光源から見て受光素
子50と反対の方向に扇形に光を射出するものとする。
点光源81から射出された扇形の光は、矢印53、5
8、およびその他の方向へ進行するビームの集合である
と考える。このうち、矢印53の方向へ進行したビーム
は再帰性反射部材4で反射されて、集光レンズ51を通
り、受光素子50上の位置57に到達する。また、矢印
58に沿って進行したビームは再帰性反射部材4で反射
して受光素子50上の位置56に到達する。このよう
に、点光源81から発し、再帰性反射部材4で反射さ
れ、同じ経路を戻ってきた光は、集光レンズ51の作用
によって、それぞれ受光素子50上のそれぞれ異なる位
置に到達するのである。したがって、ある位置に指示手
段6が挿入され、あるビームが遮断されると、そのビー
ムに対応する受光素子50上の点に光が到達しなくな
る。よって、受光素子50上の光強度の分布を調べるこ
とにより、どのビームが遮られたかを知ることができる
のである。Now, consider a case where the pointing means 6 (for example, the user's hand) touches the position shown in the figure. At this time, the probe light 10 is blocked by the indicating means 6 and is reflected by the retroreflective member 4.
Does not reach. Therefore, the retroreflected light of the probe light 10 does not reach the light emitting / receiving unit 5, and by detecting that the retroreflected light corresponding to the probe light 10 is not received, it is supported on the extension line (straight line L) of the probe light 10. It can be detected that an object has been inserted. Similarly, by irradiating the probe light from the light emitting / receiving unit 5 installed on the upper right side of FIG. 2 and detecting that the recursive light corresponding to the probe light 13 is not received, the extension line (straight line) of the probe light 13 is detected. R)
It can be detected that a support object has been inserted above. If the straight line L and the straight line R can be obtained in this way, the coordinates in which the indicating means 6 is inserted can be obtained by calculating the coordinates of this intersection.
FIG. 3 schematically shows the internal structure of the light emitting / receiving unit 5. Hereinafter, referring to FIG. 3, the configuration of the light emitting / receiving unit 5 and the probe lights L1 to L
A mechanism for detecting which probe light of m is blocked will be described. 3 is a view of the light emitting / receiving unit 5 shown in FIG. 2 viewed from a direction perpendicular to the coordinate input area 3. Here, for simplification, description will be made on a two-dimensional plane parallel to the coordinate input area 3. As shown in the figure,
Is a point light source 81, a condenser lens 51, and a light receiving element 50.
And so on. The point light source 81 emits light in a fan shape in a direction opposite to the light receiving element 50 when viewed from the light source.
The fan-shaped light emitted from the point light source 81 has arrows 53, 5
8, and a set of beams traveling in other directions. Of these, the beam traveling in the direction of arrow 53 is reflected by the retroreflective member 4, passes through the condenser lens 51, and reaches the position 57 on the light receiving element 50. The beam traveling along the arrow 58 is reflected by the retroreflective member 4 and reaches the position 56 on the light receiving element 50. In this way, the light emitted from the point light source 81, reflected by the retroreflective member 4 and returning along the same path reaches different positions on the light receiving element 50 by the action of the condenser lens 51. . Therefore, when the pointing means 6 is inserted at a certain position and a certain beam is blocked, the light does not reach the point on the light receiving element 50 corresponding to that beam. Therefore, by examining the distribution of the light intensity on the light receiving element 50, it is possible to know which beam is blocked.
【0009】図4により、前記した動作をさらに詳しく
説明する。なお、図4において、受光素子50は集光レ
ンズ51の焦点面に設置されているものとする。このよ
うな構成で、点光源81から図4の右側に向けて発した
光は再帰性反射部材4によって反射され、同じ経路を戻
り、点光源81の位置に再び集光する。集光レンズ51
の中心は点光源位置と一致するように設置する。再帰性
反射部材4から戻った再帰光は集光レンズ51の中心を
通るので、レンズ後方(受光素子側)に対称の経路で進
行する。図4には、受光素子50上の位置に対応づけて
光強度分布を示しているが、図示したように、指示手段
6により光が遮られていない位置では、受光素子50上
の光強度分布はほぼ一定である。それに対して、指示手
段6により光が遮られている受光素子50上の位置Dn
は光強度の弱い領域(暗点)となる。この位置Dnは遮
られたビームの出射/入射角θnと対応しており、Dn
を検出することによりθnを知ることができる。つま
り、θnはDnの関数として、
θn=arctan(Dn/f) (式1)
と表すことができる。ここで、特に図2左上方の受発光
部1におけるθnをθnL、DnをDnLと置き換え
る。The above operation will be described in more detail with reference to FIG. In FIG. 4, the light receiving element 50 is assumed to be installed on the focal plane of the condenser lens 51. With such a configuration, the light emitted from the point light source 81 toward the right side in FIG. 4 is reflected by the retroreflective member 4, returns along the same path, and is condensed again at the position of the point light source 81. Condenser lens 51
Set the center of the so that it coincides with the position of the point light source. Since the retroreflected light returning from the retroreflective member 4 passes through the center of the condenser lens 51, the retroreflected light travels in a symmetrical path behind the lens (on the light receiving element side). In FIG. 4, the light intensity distribution is shown in association with the position on the light receiving element 50, but as shown in the figure, the light intensity distribution on the light receiving element 50 at the position where the light is not blocked by the indicating means 6. Is almost constant. On the other hand, the position Dn on the light receiving element 50 where the light is blocked by the indicating means 6
Indicates a region where the light intensity is weak (dark spot). This position Dn corresponds to the outgoing / incident angle θn of the blocked beam, and Dn
Θn can be known by detecting. That is, θn can be expressed as θn = arctan (Dn / f) (Equation 1) as a function of Dn. Here, in particular, θn and Dn in the light emitting / receiving unit 1 at the upper left of FIG. 2 are replaced with θnL and DnL, respectively.
【0010】さらに、図5において、受発光部1と座標
入力領域3との幾何学的な相対位置関係の変換gによ
り、指示手段6を左上方の受発光部1から見た方向に当
たる図示の角θLは、(式1)で求められるDnLの関
数として、
θL=g(θnL)
ただし θnL=arctan(DnL/f) (式2)
と表すことができる。同様に、図2右上方の受発光部1
についても(式2)のL記号をR記号に置き換えて、右
側の受発光部1と座標入力領域3との幾何学的な相対位
置関係の変換hにより、
θR=h(θnR)
ただし θnR=arctan(DnR/f) (式3)
と表すことができる。ここで、座標入力領域3上の、受
発光部1の取り付け間隔を図5に示したwとし、原点を
左上の角、原点から右方向をX軸正方向、原点から下方
向をY軸正方向とすれば、座標入力領域3上の指示手段
6で指示した点の座標(x,y)は次のように成る。
x=wtanθR/(tanθL+tanθR) (式4)
y=wtanθL・tanθR/(tanθL+tanθR) (式5)
このように、x,yは、DnL,DnRの関数として表
すことができる。つまり、左右の受発光部1内の受光素
子50上の暗点の位置DnL,DnRを検出し、受発光
部1の幾何学的配置を考慮することにより、指示手段6
で指示した点の座標を検出することができるのである。Further, in FIG. 5, the conversion means g of the geometrical relative positional relationship between the light emitting / receiving section 1 and the coordinate input area 3 causes the pointing means 6 to strike in the direction viewed from the upper left light receiving / emitting section 1. The angle θL can be expressed as θL = g (θnL) where θnL = arctan (DnL / f) (Equation 2) as a function of DnL obtained by (Equation 1). Similarly, the light emitting / receiving unit 1 at the upper right of FIG.
In the case of (Equation 2), the L symbol is replaced with the R symbol, and θR = h (θnR) where θnR = by the conversion h of the geometrical relative positional relationship between the light receiving / emitting unit 1 and the coordinate input region 3 on the right side. arctan (DnR / f) (Equation 3) Here, the mounting interval of the light emitting / receiving unit 1 on the coordinate input area 3 is w shown in FIG. 5, the origin is the upper left corner, the right direction from the origin is the X axis positive direction, and the downward direction is the Y axis positive direction. In terms of directions, the coordinates (x, y) of the point designated by the pointing means 6 on the coordinate input area 3 are as follows. x = wtan θR / (tan θL + tan θR) (Equation 4) y = wtan θL · tan θR / (tan θL + tan θR) (Equation 5) Thus, x and y can be expressed as a function of DnL and DnR. In other words, by detecting the positions DnL and DnR of the dark spots on the light receiving elements 50 in the left and right light receiving and emitting units 1 and considering the geometrical arrangement of the light receiving and emitting units 1, the instruction means 6 is provided.
The coordinates of the point designated by can be detected.
【0011】図6は、座標入力領域3に前記した光学系
を設置した例として、左右の受発光部1のうち一方をデ
ィスプレイ表面へ設置した実施例を示す。図6におい
て、座標入力領域3はディスプレイ面の断面を示してお
り、y軸の正方向を見たものである。また、同図におい
て、AおよびBは、説明のために、視点を変えて表示し
たものである。まず、受発光部1のうち発光手段につい
て説明する。この実施例では、光源83としてレーザー
ダイオードやピンポイントLEDなどスポットをある程
度絞ることが可能な光源を用いる。そのような光源83
からディスプレイ面(座標入力領域3)に垂直に発した
光はシリンドリカルレンズ84によってx方向のみ平行
光線となり、シリンドリカルレンズ84を出た後は、シ
リンドリカルレンズ84とは曲率の分布が直交する2枚
のシリンドリカルレンズ85、86により同図y方向に
対して集光される。同図A部分はこの様子を説明するた
めにシリンドリカルレンズ群の配置と集光状態を視点を
z軸に対して回転し、x方向から見たものである。この
シリンドリカルレンズ群の作用により、線状に集光した
領域がシリンドリカルレンズ86の後方に形成される。
ここに、y方向に狭くx方向に細長いスリット82を挿
入する。つまり、このスリット位置に線状の2次光源8
1を形成する。そして、2次光源81から発した光はハ
ーフミラー87で折り返され、ディスプレイ面の垂直方
向には広がらず、ディスプレイ面と平行方向には2次光
源81を中心に扇形状に広がりながらディスプレイ面に
沿って進行する。さらに、その光はディスプレイ周辺端
に設置してある再帰性反射部材4で反射し、同様の経路
でハーフミラー87方向(矢印C)へ戻る。そして、ハ
ーフミラー87を透過した光はディスプレイ面に平行に
進み、シリンドリカルレンズ51を通り受光素子50に
入射する。このとき、2次光源81とシリンドリカルレ
ンズ51はハーフミラー87に対して共役な位置関係に
ある。したがって、2次光源81は図4に示した光源8
1に対応し、シリンドリカルレンズ51は図4に示した
レンズ51に対応する。また、図6のB部分は受光側の
シリンドリカルレンズ51と受光素子50を視点を変え
てz軸方向から見たものであり、同様に、図4に示した
レンズ51と受光素子50に対応する。FIG. 6 shows an example in which one of the left and right light emitting / receiving sections 1 is installed on the display surface as an example of installing the above-mentioned optical system in the coordinate input area 3. In FIG. 6, the coordinate input area 3 shows a cross section of the display surface, and is viewed in the positive direction of the y-axis. Further, in the figure, A and B are displayed with different viewpoints for the sake of explanation. First, the light emitting means of the light emitting / receiving unit 1 will be described. In this embodiment, a light source such as a laser diode or a pinpoint LED capable of narrowing the spot to some extent is used as the light source 83. Such a light source 83
Light emitted perpendicularly to the display surface (coordinate input area 3) from the lens is converted into parallel rays only in the x direction by the cylindrical lens 84, and after exiting the cylindrical lens 84, the curvature distribution is orthogonal to that of the cylindrical lens 84. The light is focused by the cylindrical lenses 85 and 86 in the y direction in FIG. In order to explain this situation, part A in the figure shows the arrangement and condensing state of the cylindrical lens group as viewed from the x direction by rotating the viewpoint about the z axis. Due to the action of this cylindrical lens group, a linearly condensed region is formed behind the cylindrical lens 86.
Here, a slit 82 narrow in the y direction and elongated in the x direction is inserted. That is, the linear secondary light source 8 is located at this slit position.
1 is formed. Then, the light emitted from the secondary light source 81 is reflected by the half mirror 87, does not spread in the direction perpendicular to the display surface, and spreads in a fan shape around the secondary light source 81 in the direction parallel to the display surface while spreading on the display surface. Proceed along. Further, the light is reflected by the retroreflective member 4 installed at the peripheral edge of the display, and returns to the half mirror 87 direction (arrow C) along the same path. Then, the light transmitted through the half mirror 87 travels in parallel to the display surface, passes through the cylindrical lens 51, and enters the light receiving element 50. At this time, the secondary light source 81 and the cylindrical lens 51 have a conjugate positional relationship with the half mirror 87. Therefore, the secondary light source 81 is the light source 8 shown in FIG.
1 and the cylindrical lens 51 corresponds to the lens 51 shown in FIG. 6B is a view of the light-receiving side cylindrical lens 51 and the light-receiving element 50 seen from the z-axis direction with the viewpoint changed, and similarly corresponds to the lens 51 and the light-receiving element 50 shown in FIG. .
【0012】次に、前記したような座標検出部につい
て、本発明の第1の実施例として、2点検知の実施形態
を説明する。図7において、L1およびL2を検知対象
の2点とする。このL1,L2のディップ幅(遮光幅)
WL1,WL2は、光源(左上)からの距離がL1の方
がL2より小であるので、WL1>WL2となる。右側
の光源からの場合も同様なことが成り立つ。この実施例
では、このような関係を用いる。まず、ディスプレイ面
に、図示の例ではY軸に平行に所望のX座標位置に設定
した直線状の境界線上の2点のディップ幅とtanθと
の関係を導くキャリブレーションを行う。図8におい
て、前記境界線X上の2点、XA,XBにタッチするこ
とにより、XAにおけるディップ幅WXA、XBにおけ
るディップ幅WXB、およびtanθLXA,tanθ
LXB,tanθRXA,tanθRXBを検出して、
前記境界線上でのtanθと、ディップ幅の関係を算出
しておくことにより、複数の座標が同時に指示された際
の境界線上のディップ幅を算出し、そのディップ幅と複
数の各タッチ点における遮光幅とを後述するように比較
して前記複数の座標を算出するのである。Next, with respect to the coordinate detecting section as described above, an embodiment of two-point detection will be described as a first embodiment of the present invention. In FIG. 7, L1 and L2 are two points to be detected. Dip width (light-shielding width) of L1 and L2
Regarding WL1 and WL2, since the distance from the light source (upper left) at L1 is smaller than L2, WL1> WL2. The same holds true from the right light source. In this embodiment, such a relationship is used. First, on the display surface, in the illustrated example, calibration is performed to derive the relationship between tan θ and the dip width of two points on a linear boundary line set at a desired X coordinate position parallel to the Y axis. In FIG. 8, by touching two points on the boundary line X, XA and XB, a dip width WXA in XA, a dip width WXB in XB, and tan θLXA, tan θ.
LXB, tan θ RXA, tan θ RXB are detected,
By calculating the relationship between tan θ on the boundary line and the dip width, the dip width on the boundary line when a plurality of coordinates are designated at the same time is calculated, and the dip width and the light shielding at each of the plurality of touch points are calculated. The widths are compared as will be described later to calculate the plurality of coordinates.
【0013】次に、前記境界線Xの左側のA点(X1,
Y1)と右側のB点(X2,Y2)の同時検出を行う。
以下、図9に従って、この同時検出について説明する。
まず、前記各点に関して、
左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL
左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL
右側の光源で検出するA点の角度をθR1、ディップ幅
をWAR
右側の光源で検出するB点の角度をθR2、ディップ幅
をWBR
とする。また、前記のようにして既に算出されている境
界線上でのtanθとディップ幅との関係から、角度θ
L1のプローブ光と境界線Xとの交点におけるディップ
幅WxθL1角度θL2のプローブ光と境界線Xとの交
点におけるディップ幅WxθL2角度θR1のプローブ
光と境界線Xとの交点におけるディップ幅WxθR1角
度θR2のプローブ光と境界線Xとの交点におけるディ
ップ幅WxθR2を算出する。次に、WALとWxθL
1を比較する。そのとき、
WAL>WxθL1のときはA点は境界線Xの左側 (1)
WAL<WxθL1のときはA点は境界線Xの右側 (2)
に位置すると判定する。同様に、WBLとWxθL2を
比較する。そのとき、
WBL>WxθL2のときはB点は境界線Xの左側 (3)
WBL<WxθL2のときはB点は境界線Xの右側 (4)
に位置すると判定する。続いて、WARとWxθR1を
比較して、
WAR>WxθR1のときはA点は境界線の右側 (5)
WAR<WxθR1のときはA点は境界線の左側 (6)
に位置すると判定する。さらに、WBRとWxθR2を
比較して、
WBR>WxθR2のときはB点は境界線の右側 (7)
WBR<WxθR2のときはB点は境界線の左側 (8)
に位置すると判定する。Next, a point A (X1, on the left side of the boundary line X is
Simultaneous detection of Y1) and point B (X2, Y2) on the right side is performed.
The simultaneous detection will be described below with reference to FIG.
First, regarding each of the above points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL of the point A detected by the right light source. The angle is θR1, the dip width is WAR, the angle of the point B detected by the light source on the right side is θR2, and the dip width is WBR. Further, from the relationship between tan θ and the dip width on the boundary line already calculated as described above, the angle θ
The dip width WxθL1 at the intersection of the probe light L1 and the boundary line X The dip width WxθL2 at the intersection of the probe light of the angle θL2 and the boundary line X The dip width WxθR1 angle θR2 of the intersection of the probe light of the angle θR1 and the boundary X The dip width WxθR2 at the intersection of the probe light and the boundary line X is calculated. Next, WAL and WxθL
Compare 1 At that time, when WAL> WxθL1, point A is on the left side of boundary line X (1) When WAL <WxθL1, point A is on the right side of boundary line X (2). Similarly, WBL and WxθL2 are compared. At that time, when WBL> WxθL2, the point B is on the left side of the boundary line X (3). When WBL <WxθL2, the point B is on the right side of the boundary line X (4). Subsequently, WAR and WxθR1 are compared. When WAR> WxθR1, point A is on the right side of the boundary line (5). When WAR <WxθR1, point A is on the left side of the boundary line (6). Further, by comparing WBR and WxθR2, it is determined that the point B is located on the right side of the boundary line when WBR> WxθR2 (7) and the point B is located on the left side (8) of the boundary line when WBR <WxθR2.
【0014】A点とB点がそれぞれ境界線Xの左右の別
の側に位置するとした場合には、左側の光源での検出つ
いては、(1)の条件と(4)の条件が同時に成り立
ち、(2)の条件と(3)の条件が同時に成り立つ。ま
た、右側の光源での検出については、(5)の条件と
(8)の条件が同時に成り立ち、(6)の条件と(7)
の条件が同時に成り立つ。このような条件が同時に成り
立たない場合は、境界線Xの片側にA点、B点が同時に
検出されたか、2点同時にタッチしていない場合とみな
す。遮光方向は左右2本あり、その交点は図9から明ら
かなように4点あるが、A点(X1,Y1)およびB点
(X2,Y2)について前記の条件が成り立つ場合、そ
の座標は、
A点のX1=WtanθR1/(tanθL1+tan
θR1)
Y1=WtanθL1tanθR1/(tanθL1+
tanθR1)
B点のX2=WtanθR2/(tanθL2+tan
θR2)
Y2=WtanθL2tanθR2/(tanθL2+
tanθR2)
となる。When the points A and B are located on the left and right sides of the boundary line X, the conditions (1) and (4) are satisfied at the same time for the detection by the light source on the left side. The condition (2) and the condition (3) are satisfied at the same time. Regarding the detection by the light source on the right side, the condition (5) and the condition (8) are satisfied at the same time, and the condition (6) and the condition (7) are satisfied.
The conditions of are satisfied at the same time. When such conditions are not satisfied at the same time, it is considered that points A and B are detected on one side of the boundary line X at the same time, or two points are not touched at the same time. There are two light-shielding directions on the left and right, and there are four intersections as is clear from FIG. 9. However, when the above conditions are satisfied for point A (X1, Y1) and point B (X2, Y2), the coordinates are X1 at point A = Wtan θR1 / (tan θL1 + tan
θR1) Y1 = Wtan θL1 tan θR1 / (tan θL1 +
tan θR1) X2 at point B = Wtan θR2 / (tan θL2 + tan
θR2) Y2 = Wtan θL2 tan θR2 / (tan θL2 +
tan θR2).
【0015】次に、前記した2点検知と同様な方法で3
点を検知する例を説明する。3点検知の場合、図9のL
1,L2,L3のディップ幅WL1,WL2,WL3
は、光源からの距離がL1<L2<L3であるので、W
L1<WL2<WL3となる。右側の光源からの場合も
同様なことが成り立つ。この実施例では、このような関
係を用いる。3点検知の場合も、2点検知と同様にキャ
リブレーションを行い、まず、2本の境界線上のX1,
X2のディップ幅とtanθとの関係を求める。図11
において、その境界線X1上の2点XA1,XB1,X
2上の2点XA2,XB2をタッチすることにより、そ
れぞれ4点の角度とディップ幅を検出し、その境界線上
でのtanθとディップ幅の関係を算出するのである。Next, in the same way as the two-point detection described above, 3
An example of detecting points will be described. In case of 3-point detection, L in FIG.
1, L2, L3 dip width WL1, WL2, WL3
Since the distance from the light source is L1 <L2 <L3, W
L1 <WL2 <WL3. The same holds true from the right light source. In this embodiment, such a relationship is used. In the case of three-point detection, calibration is performed similarly to the two-point detection, and first, X1, on the two boundary lines
The relationship between the dip width of X2 and tan θ is obtained. Figure 11
, Two points XA1, XB1, X on the boundary line X1
By touching two points XA2 and XB2 on 2, the angle and the dip width at each of the four points are detected, and the relationship between tan θ and the dip width on the boundary line is calculated.
【0016】次に、図12に従って、境界線X1の左側
のA点(X1,Y1)、境界線X1とX2の間のB点
(X2,Y2)、境界線X2の右側のC点(X3,Y
3)の同時検出を行う場合を説明する。まず、このよう
な点に関して、
左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL
左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL
左側の光源で検出するC点の角度をθL3、ディップ幅
をWCL
右側の光源で検出するA点の角度をθR1、ディップ幅
をWAR
右側の光源で検出するB点の角度をθR2、ディップ幅
をWBR
右側の光源で検出するC点の角度をθR3、ディップ幅
をWCR
とする。また、前記のようにして既に算出されている境
界線上でのtanθとディップ幅との関係から、
角度θL1のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL1
角度θL1のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL1
角度θL2のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL2
角度θL2のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL2
角度θL3のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θL3
角度θL3のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θL3
角度θR1のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR1
角度θR1のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR1
角度θR2のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR2
角度θR2のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR2
角度θR3のプローブ光と境界線X1との交点でのディ
ップ幅をWX1θR3
角度θR3のプローブ光と境界線X2との交点でのディ
ップ幅をWX2θR3
を算出する。Next, according to FIG. 12, a point A (X1, Y1) on the left side of the boundary line X1, a point B (X2, Y2) between the boundary lines X1 and X2, and a point C (X3) on the right side of the boundary line X2. , Y
A case where the simultaneous detection of 3) is performed will be described. First, regarding such points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL the point C detected by the left light source. Is θL3, the dip width is WCL, the angle of the A point detected by the right light source is θR1, the dip width is WAR, the angle of the B point detected by the right light source is θR2, and the dip width is WBR the C detected by the right light source C Let θR3 be the angle of the point and WCR be the dip width. Further, from the relationship between tan θ and the dip width on the boundary line already calculated as described above, the dip width at the intersection of the probe light with the angle θL1 and the boundary line X1 is WX1θL1 with the probe light with the angle θL1 The dip width at the intersection with the line X2 is WX2θL1 The dip width at the intersection between the probe light having the angle θL2 and the boundary line X1 is WX1θL2 The dip width at the intersection with the probe light having the angle θL2 is WX2θL2 The angle θL3 The dip width at the intersection of the probe light and the boundary line X1 is WX1θL3 The dip width at the intersection of the probe light at the angle θL3 and the boundary line X2 is the dip width at the intersection of the probe light at the WX2θL3 angle θR1 and the boundary line X1. WX1θR1 The dip width at the intersection of the probe light with the angle θR1 and the boundary line X2 is defined as the boundary with the probe light with the WX2θR1 angle θR2. The dip width at the intersection with the line X1 is WX1θR2. The dip width at the intersection between the probe light with the angle θR2 and the boundary line X2 is WX2θR2 The dip width at the intersection with the boundary line X1 is WX1θR3 With the angle θR3 WX2θR3 is calculated as the dip width at the intersection of the probe light and the boundary line X2.
【0017】このとき、それぞれのディップ幅は、
WALは、WX1θL1<WAL
WARは、WX2θR1>WAR
WBLは、WX1θL2>WBL>WX2θL2
WBRは、WX1θR2<WBL<WX2θR2
WCLは、WX2θL3>WCL
WCRは、WX2θR3<WCR
が成り立つ。つまり、A点,B点,C点ともに、境界線
X1,X2に対してタッチ範囲に制約を加えているの
で、3点同時検出が可能となる。この方法によって求め
られたA点,B点,C点の座標は次のとおりである。
A点のX座標:X1=WtanθR1/(tanθL1
+tanθR1)
Y座標:Y1=WtanθL1・tanθR1/(ta
nθL1+tanθR1)
B点のX座標:X2=WtanθR2/(tanθL2
+tanθR2)
Y座標:Y2=WtanθL2・tanθR2/(ta
nθL2+tanθR2)
C点のX座標:X3=WtanθR3/(tanθL3
+tanθR3)
Y座標:Y3=WtanθL3・tanθR3/(ta
nθL3+tanθR3)
N点を同時に検出する場合も同様にN−1本の所望の境
界線を設けて、境界線で区切られた各領域内で1点ずつ
の検出であれば可能である。なお、以上説明した2点検
知および3点検知においては、境界線はY軸に平行(縦
方向)としたが、2つの光源を縦方向に並べた場合(左
端または右端に並べる)には、境界線はX軸に平行(横
方向)になる。At this time, the respective dip widths are: WAL, WX1θL1 <WAL WAR, WX2θR1> WAR WBL, WX1θL2>WBL> WX2θL2 WBR, WX1θR2 <WBL <WX2θR2 WCL, WX2θR3> WX2WR3, WCL2WR3, WX2WR3, <WCR is established. That is, since the touch range is restricted with respect to the boundary lines X1 and X2 at all of the points A, B, and C, simultaneous detection of three points is possible. The coordinates of points A, B, and C obtained by this method are as follows. X coordinate of point A: X1 = Wtan θR1 / (tan θL1
+ Tan θR1) Y coordinate: Y1 = Wtan θL1 · tan θR1 / (ta
nθL1 + tanθR1) X coordinate of point B: X2 = WtanθR2 / (tanθL2
+ Tan θR2) Y coordinate: Y2 = Wtan θL2 · tan θR2 / (ta
nθL2 + tanθR2) X coordinate of point C: X3 = WtanθR3 / (tanθL3
+ Tan θR3) Y coordinate: Y3 = Wtan θL3 · tan θR3 / (ta
n [theta] L3 + tan [theta] R3) When detecting N points at the same time, it is possible to provide N-1 desired boundary lines in the same manner and detect each one point in each area delimited by the boundary lines. In the two-point detection and the three-point detection described above, the boundary line is parallel to the Y axis (longitudinal direction), but when two light sources are arranged in the longitudinal direction (arranged at the left end or the right end), The boundary line is parallel to the X axis (horizontal direction).
【0018】次に、図13により、前記した2点検知と
同様な方法で4点を検知する例を説明する。図13にお
いて、その4点は、Y軸に平行に所望のX座標位置に設
定した直線状の境界線X、X軸に平行に所望のY座標位
置に設定した直線状の境界線Yを基準にして、左下側の
A点(X1,Y1)、右下側のB点(X2,Y2)、左
上側のC点(X3,Y3)、右上側のD点(X4,Y
4)である。なお、4点検知の場合も、2点検知と同様
に最初にキャリブレーションをおこなっておく。また、
前記4点に関して、
左側の光源で検出するA点の角度をθL1、ディップ幅
をWAL
左側の光源で検出するB点の角度をθL2、ディップ幅
をWBL
左側の光源で検出するC点の角度をθL3、ディップ幅
をWCL
左側の光源で検出するD点の角度をθL4、ディップ幅
をWDL
右側の光源で検出するA点の角度をθR1、ディップ幅
はWAR
右側の光源で検出するB点の角度をθR2、ディップ幅
はWBR
右側の光源で検出するC点の角度をθR3、ディップ幅
はWCR
右側の光源で検出するD点の角度をθR4、ディップ幅
はWDR
とする。また、
角度θL1のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL1
角度θL2のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL2
角度θL3のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL3
角度θL4のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθL4
角度θR1のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR1
角度θR2のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR2
角度θR3のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR3
角度θR4のプローブ光と境界線Xとの交点におけるデ
ィップ幅をWxθR4
とする。Next, an example in which four points are detected by the same method as the above-described two-point detection will be described with reference to FIG. In FIG. 13, the four points are based on a linear boundary line X set at a desired X coordinate position parallel to the Y axis and a linear boundary line Y set at a desired Y coordinate position parallel to the X axis. , The lower left side point A (X1, Y1), the lower right side point B (X2, Y2), the upper left side point C (X3, Y3), and the upper right side point D (X4, Y1).
4). In the case of four-point detection, the calibration is first performed as in the two-point detection. Also,
Regarding the four points, the angle of point A detected by the left light source is θL1, the dip width is WAL, the angle of point B detected by the left light source is θL2, and the dip width is WBL the angle of point C detected by the left light source. θL3, dip width WCL The angle of point D detected by the left light source is θL4, dip width is WDL the angle of point A detected by the right light source is θR1, and dip width is the angle of point B detected by the right light source. Is θR2, the dip width is θR3, the angle of the point C detected by the WBR right light source, the dip width is WCR, the angle of the D point detected by the right light source is θR4, and the dip width is WDR. Further, the dip width at the intersection of the probe light of the angle θL1 and the boundary line X is WxθL1 is the dip width at the intersection of the boundary light X of the probe light of the angle θL2 and the dip width at the intersection of the probe light of the angle θL3 and the boundary line X. The width of the probe beam with the width WxθL3 angle θL4 and the boundary line X is the dip width of the probe beam with the width WxθL4 angle θR1 and the boundary line X. The dip width is the intersection of the probe light with the width WxθR1 angle θR2 and the boundary line X. The dip width is WxθR2 and the dip width at the intersection of the probe line of the angle θR3 and the boundary line X is WxθR3. The dip width at the intersection of the probe light of the angle θR4 and the boundary line X is WxθR4.
【0019】次に、WALとWxθL1を比較して、
WAL>WxθL1のときはA点は境界線Xの左側 (11)
WAL<WxθL1のときはA点は境界線Xの右側 (12)
に位置すると判定する。WBLとWxθL2を比較して、
WBL>WxθL2のときはB点は境界線Xの左側 (13)
WBL<WxθL2のときはB点は境界線Xの右側 (14)
に位置すると判定する。WCLとWxθL3を比較して、
WCL>WxθL3のときはC点は境界線Xの左側 (15)
WCL<WxθL3のときはC点は境界線Xの右側 (16)
に位置すると判定する。WBLとWxθL4を比較して、
WDL>WxθL4のときはD点は境界線Xの左側 (17)
WDL<WxθL4のときはD点は境界線Xの右側 (18)
に位置すると判定する。WARとWxθR1を比較して、
WAR>WxθR1のときはA点は境界線Xの右側 (19)
WAR<WxθR1のときはA点は境界線Xの左側 (20)
に位置すると判定する。WBRとWxθR2を比較して、
WBR>WxθR2のときはB点は境界線Xの右側 (21)
WBR<WxθR2のときはB点は境界線Xの左側 (22)
に位置すると判定する。WCRとWxθR3を比較して、
WCR>WxθR3のときはC点は境界線Xの右側 (23)
WCR<WxθR3のときはC点は境界線Xの左側 (24)
に位置すると判定する。WDRとWxθR4を比較して、
WDR>WxθR4のときはD点は境界線Xの右側 (25)
WDR<WxθR4のときはD点は境界線Xの左側 (26)
に位置すると判定する。また、
角度θL1のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL1
角度θL2のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL2
角度θL3のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL3
角度θL4のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθL4
角度θR1のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR1
角度θR2のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR2
角度θR3のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR3
角度θR4のプローブ光と境界線Yとの交点におけるデ
ィップ幅をWYθR4
とする。Next, WAL and WxθL1 are compared. When WAL> WxθL1, point A is on the left side of boundary line X (11) When WAL <WxθL1, point A is on the right side of boundary line X (12) Then determine. By comparing WBL and WxθL2, it is determined that the point B is on the left side of the boundary line X when WBL> WxθL2 (13) and the point B is on the right side (14) of the boundary line X when WBL <WxθL2. By comparing WCL and WxθL3, it is determined that the point C is on the left side of the boundary line X when WCL> WxθL3 (15) and the point C is on the right side (16) of the boundary line X when WCL <WxθL3. By comparing WBL and WxθL4, it is determined that the point D is on the left side of the boundary line X when WDL> WxθL4 (17) and the point D is on the right side (18) of the boundary line X when WDL <WxθL4. By comparing WAR and WxθR1, it is determined that the point A is on the right side of the boundary line X (19) when WAR> WxθR1 and the point A is on the left side (20) of the boundary line X when WAR <WxθR1. By comparing WBR and WxθR2, it is determined that the point B is on the right side of the boundary line X when WBR> WxθR2 (21) and the point B is on the left side (22) of the boundary line X when WBR <WxθR2. By comparing WCR and WxθR3, it is determined that the point C is located on the right side of the boundary line X when WCR> WxθR3 (23) and the point C is located on the left side (24) of the boundary line X when WCR <WxθR3. By comparing WDR and WxθR4, it is determined that the point D is on the right side of the boundary line X when WDR> WxθR4 (25) and the point D is on the left side (26) of the boundary line X when WDR <WxθR4. Further, the dip width at the intersection of the probe light of the angle θL1 and the boundary line Y is WYθL1 and the dip width at the intersection of the boundary line Y of the probe light of WYθL2 is the dip at the intersection of the probe light of WYθL2 angle θL3. WYθL3 is the dip width at the intersection of the probe light of the angle θL4 and the boundary line Y, and WYθL4 is the dip width at the intersection of the probe light of the angle θR1 and the boundary line Y at the intersection of the probe light of the WYθR1 angle θR2 and the boundary line Y. The dip width is WYθR2 and the dip width at the intersection of the probe line with the angle θR3 and the boundary line Y is WYθR3. The dip width at the intersection of the probe light with the angle θR4 and the boundary line Y is WYθR4.
【0020】そして、WALとWYθL1を比較し、図
13に示したように光源が下側にあることから、
WAL>WYθL1のときはA点は境界線Yの下側 (27)
WAL<WYθL1のときはA点は境界線Yの上側 (28)
に位置すると判定する。WBLとWYθL2を比較して、
WBL>WYθL2のときはB点は境界線Yの下側 (29)
WBL<WYθL2のときはB点は境界線Yの上側 (30)
に位置すると判定する。WCLとWYθL3を比較して、
WCL>WYθL3のときはC点は境界線Yの下側 (31)
WCL<WYθL3のときはC点は境界線Yの上側 (32)
に位置すると判定する。WDLとWYθL4を比較して、
WDL>WYθL4のときはD点は境界線Yの下側 (33)
WDL<WYθL4のときはD点は境界線Yの上側 (34)
に位置すると判定する。WARとWYθR1を比較して、
WAR>WYθR1のときはA点は境界線Yの下側 (35)
WAR<WYθR1のときはA点は境界線Yの上側 (36)
に位置すると判定する。WBRとWYθR2を比較して、
WBR>WYθR2のときはB点は境界線Yの下側 (37)
WBR<WYθR2のときはB点は境界線Yの上側 (38)
に位置すると判定する。WCRとWYθR3を比較して、
WCR>WYθR3のときはC点は境界線Yの下側 (39)
WCR<WYθR3のときはC点は境界線Yの上側 (40)
に位置すると判定する。WDRとWYθR4を比較して、
WDR>WYθR4のときはD点は境界線Yの下側 (41)
WDR<WYθR4のときはD点は境界線Yの上側 (42)
に位置すると判定する。前記したように、A点(X1,
Y1)は左下側の領域、B点(X2,Y2)は右下側の
領域、C点(X3,Y3)は左上側の領域、D点(X
4,Y4)は右上側の領域の点であるので、下記の条件
が同時に成り立つ。下記の条件が成り立たない場合は、
4点が前記領域の点でないか、4点同時にタッチしてい
ない場合とみなす。
A点は(11),(20),(27),(35)が同時
に成り立つ。
B点は(14),(21),(29),(37)が同時
に成り立つ。
C点は(15),(24),(32),(40)が同時
に成り立つ。
D点は(18),(25),(34),(42)が同時
に成り立つ。Then, WAL and WYθL1 are compared. Since the light source is on the lower side as shown in FIG. 13, point A is on the lower side of the boundary line Y when WAL> WYθL1 (27) WAL <WYθL1 Then, it is determined that the point A is located above the boundary line Y (28). By comparing WBL and WYθL2, it is determined that the point B is below the boundary line Y (29) when WBL> WYθL2 and the point B is above the boundary line Y (30) when WBL <WYθL2. By comparing WCL and WYθL3, it is determined that the point C is located below the boundary line Y when WCL> WYθL3 (31), and the point C is located above the boundary line Y (32) when WCL <WYθL3. By comparing WDL and WYθL4, it is determined that the point D is below the boundary line Y when WDL> WYθL4 (33) and the point D is above the boundary line Y (34) when WDL <WYθL4. By comparing WAR and WYθR1, it is determined that when WAR> WYθR1, point A is below the boundary line Y (35), and when WAR <WYθR1, point A is above the boundary line Y (36). By comparing WBR and WYθR2, it is determined that the point B is below the boundary line Y (37) when WBR> WYθR2, and the point B is above the boundary line Y (38) when WBR <WYθR2. By comparing WCR and WYθR3, it is determined that the point C is located below the boundary line Y when WCR> WYθR3 (39) and the point C is located above the boundary line Y (40) when WCR <WYθR3. By comparing WDR and WYθR4, it is determined that the point D is below the boundary line Y when WDR> WYθR4 (41) and the point D is above the boundary line Y (42) when WDR <WYθR4. As described above, point A (X1,
Y1) is the lower left area, point B (X2, Y2) is the lower right area, point C (X3, Y3) is the upper left area, and point D (X
4, Y4) is a point in the upper right area, and therefore the following conditions are satisfied at the same time. If the following conditions are not met,
It is considered that 4 points are not points in the area or that 4 points are not touched at the same time. At point A, (11), (20), (27) and (35) are simultaneously established. At point B, (14), (21), (29), and (37) are simultaneously established. At the point C, (15), (24), (32), and (40) are simultaneously established. At the point D, (18), (25), (34) and (42) are simultaneously established.
【0021】前記した条件が成り立つ場合、A点(X
1,Y1)、B点(X2,Y2)、C点(X3,Y
3)、D点(X4,Y4)の座標は、
A点のX1=WtanθR1/(tanθL1+tan
θR1)
Y1=WtanθL1tanθR1/(tanθL1+
tanθR1)
B点のX2=WtanθR2/(tanθL2+tan
θR2)
Y2=WtanθL2tanθR2/(tanθL2+
tanθR2)
C点のX3=WtanθR3/(tanθL3+tan
θR3)
Y3=WtanθL3tanθR3/(tanθL3+
tanθR3)
D点のX4=WtanθR4/(tanθL4+tan
θR4)
Y4=WtanθL4tanθR4/(tanθL4+
tanθR4)
となる。If the above conditions are satisfied, point A (X
1, Y1), B point (X2, Y2), C point (X3, Y
3), the coordinates of point D (X4, Y4) are: X1 of point A = Wtan θR1 / (tan θL1 + tan
θR1) Y1 = Wtan θL1 tan θR1 / (tan θL1 +
tan θR1) X2 at point B = Wtan θR2 / (tan θL2 + tan
θR2) Y2 = Wtan θL2 tan θR2 / (tan θL2 +
tan θR2) X3 at point C = Wtan θR3 / (tan θL3 + tan
θR3) Y3 = Wtan θL3 tan θR3 / (tan θL3 +
tan θR3) X4 at point D = Wtan θR4 / (tan θL4 + tan
θR4) Y4 = Wtan θL4 tan θR4 / (tan θL4 +
tan θR4).
【0022】次に、本発明の第2の実施例について説明
する。この実施例では、境界線で区切られた各領域で、
それぞれ異なった処理を行うために、図14に示したよ
うにそれぞれの領域ごとに処理内容を指示する表示子で
あるツールバーを設ける。例えばAの領域内では描画モ
ード、Bの領域内では、削除モード、Cの領域内では指
差しモードとなっているとする。このような状態におけ
る動作を図15に従って説明する。前記したような状態
で、利用者がAの領域のツールバー中の「描画」アイコ
ンをクリック(タッチ)すると、制御装置2がこの情報
を取り込み、Aの領域を描画モードに設定する(S
1)。そして、描画モードに係わる処理および画面表示
を行う。その後、画面にタッチされたことを検出すると
(S2)、制御装置2はどの領域がタッチされたかを認
識する(S3)。そして、認識された領域に該当するモ
ードで動作させる。つまり、制御装置3内の制御部は検
知した領域のツールバーの表示を変え、その領域に設定
されたモードで入力を受付け(S4)、その処理結果を
例えば画面に表示する(S5)。以上、光源が2箇所に
ある場合で説明したが、光源の数をさらに増やして、例
えば一つの光源から見て2つのタッチ点が一列に並んで
後方のタッチ点のディップ幅が正確に検出できない場
合、他の光源を用いることも可能である。また、前記し
た各実施例において説明したような本発明による座標検
出方法に従ってプログラミングしたプログラムを例えば
着脱可能な記憶媒体に記憶し、その記憶媒体をこれまで
本発明によった座標検出を行えなかったパーソナルコン
ピュータなど制御装置に装着することにより、または、
そのようなプログラムをネットワークを介してそのよう
な制御装置へ転送することにより、その制御装置におい
ても本発明によった座標検出を行うことができる。Next, a second embodiment of the present invention will be described. In this example, in each area delimited by the boundary line,
In order to perform different processings, as shown in FIG. 14, a toolbar, which is an indicator for instructing processing contents, is provided for each area. For example, it is assumed that the drawing mode is in the area A, the deletion mode is in the area B, and the pointing mode is in the area C. The operation in such a state will be described with reference to FIG. When the user clicks (touches) the "draw" icon in the toolbar of the area A in the above-described state, the control device 2 takes in this information and sets the area A to the drawing mode (S).
1). Then, processing and screen display related to the drawing mode are performed. After that, when it is detected that the screen is touched (S2), the control device 2 recognizes which area is touched (S3). Then, it is operated in a mode corresponding to the recognized area. That is, the control unit in the control device 3 changes the display of the toolbar of the detected area, accepts the input in the mode set in the area (S4), and displays the processing result on the screen, for example (S5). As described above, the case where there are two light sources has been described. However, by further increasing the number of light sources, for example, two touch points are arranged in a line when viewed from one light source, and the dip width of the rear touch point cannot be accurately detected. In that case, it is also possible to use another light source. Further, a program programmed according to the coordinate detecting method according to the present invention as described in each of the above-described embodiments is stored in, for example, a removable storage medium, and the storage medium has not been able to perform coordinate detection according to the present invention. By mounting it on a control device such as a personal computer, or
By transferring such a program to such a control device via a network, the coordinate detection according to the present invention can also be performed in the control device.
【0023】[0023]
【発明の効果】以上説明したように、本発明によれば、
請求項1記載の発明では、発射された光を遮る遮光方向
を検出することにより座標を検出する際、検出座標の遮
光幅から、複数の検出座標がそれぞれ予め設けた境界線
により区切られた異なる領域にあるとみなせるとき、同
時に指示された複数の座標が、検出された複数の座標の
遮光方向と遮光幅の比較結果とから算出されるので、従
来は例えば2点同時タッチを検出すると、4点が検出さ
れてしまうが、この発明では、そのうちの真の2点を容
易に特定することができ、したがって、それぞれ異なっ
た領域に属する複数の点に同時にタッチし、それぞれの
タッチに応じた処理を並行に動作させることができる。
また、請求項2記載の発明では、請求項1記載の発明に
おいて、同時に指示された座標が2点の場合に前記境界
線は縦方向または横方向の1本の境界線とされ、3点の
場合に前記境界線は縦方向または横方向の2本の境界線
とされ、または、4点の場合に縦方向および横方向1本
づつ合わせた2本の境界線とされるので、境界線で区切
られた2領域、3領域、または4領域を容易に実現する
ことができ、それらの領域に属する複数の点に同時にタ
ッチし、それぞれのタッチに応じた処理を並行に動作さ
せることができる。また、請求項3記載の発明では、請
求項1または請求項2記載の発明において、予め境界線
上の任意の点にタッチしてそのときの遮光幅を検出して
境界線上の点の位置とディップ幅との関係を求めること
により、複数の座標が同時に指示された際のタッチ点の
遮光方向から境界線上の遮蔽幅が算出され、その遮蔽幅
を用いて遮光幅比較が行われるので、請求項1記載の遮
光幅比較を容易に実現することができる。また、請求項
4記載の発明では、請求項1、請求項2、または請求項
3記載の発明において、検出する座標数だけそれぞれの
座標に対応した領域内に処理内容を指示するための表示
子が表示されるので、その表示子にタッチすることによ
りそれぞれのタッチに応じた処理を並行に動作させるこ
とができる。また、請求項5記載の発明では、請求項4
記載の発明において、表示された異なる表示子を用いて
それぞれ異なる操作を行うことができるので、それぞれ
のタッチに応じた処理を並行に動作させることができ、
したがって、例えば電子黒板として使用したとき、2人
またはそれ以上で同時に使用することができる。また、
請求項6記載の発明では、請求項1乃至請求項5のいず
れか1項に記載の座標検出方法に従ってプログラミング
したプログラムを情報処理装置上で動作させることがで
きるので、その情報処理装置を制御装置として用いて請
求項1乃至請求項5のいずれか1項に記載の発明の効果
を得ることができる。また、請求項7記載の発明では、
請求項1乃至請求項5のいずれか1項に記載の座標検出
方法に従ってプログラミングしたプログラムが例えば着
脱可能な記憶媒体に記憶されるので、その記憶媒体をこ
れまで請求項1乃至請求項5のいずれか1項に記載の発
明によった座標検出を行えなかったパーソナルコンピュ
ータなど情報処理装置に装着することにより、その情報
処理装置を制御装置として用いて請求項1乃至請求項5
のいずれか1項に記載の発明の効果を得ることができ
る。As described above, according to the present invention,
According to the first aspect of the present invention, when the coordinates are detected by detecting the light-shielding direction that shields the emitted light, the plurality of detection coordinates are different from each other by the preliminarily provided boundary line from the light-shielding width of the detection coordinates. When it can be regarded as being in the area, a plurality of simultaneously designated coordinates are calculated from the comparison results of the light shielding direction and the light shielding width of the plurality of detected coordinates. Although points are detected, in the present invention, two true points can be easily specified. Therefore, a plurality of points belonging to different areas can be touched at the same time, and processing according to each touch can be performed. Can be operated in parallel.
Further, in the invention according to claim 2, in the invention according to claim 1, when the coordinate pointed at the same time is two points, the boundary line is one boundary line in the vertical direction or the horizontal direction, and the boundary line is three points. In this case, the boundary line is defined as two boundary lines in the vertical direction or the horizontal direction, or in the case of four points, the boundary line is defined as two boundary lines, one in the vertical direction and one in the horizontal direction. It is possible to easily realize the separated 2 areas, 3 areas, or 4 areas, and it is possible to simultaneously touch a plurality of points belonging to these areas and to perform processing in parallel according to each touch. In the invention according to claim 3, in the invention according to claim 1 or 2, the position of the point on the boundary line and the dip are detected by previously touching an arbitrary point on the boundary line and detecting the light shielding width at that time. By determining the relationship with the width, the shielding width on the boundary line is calculated from the shielding direction of the touch point when a plurality of coordinates are simultaneously designated, and the shielding width is compared using the shielding width. The light-shielding width comparison described in 1 can be easily realized. In the invention according to claim 4, in the invention according to claim 1, claim 2, or claim 3, an indicator for instructing the processing content in the area corresponding to each coordinate by the number of detected coordinates. Is displayed, it is possible to operate the processes corresponding to each touch in parallel by touching the indicator. According to the invention of claim 5,
In the described invention, since different operations can be performed using the different displayed indicators, processing corresponding to each touch can be operated in parallel,
Therefore, for example, when used as an electronic blackboard, it can be used by two or more people at the same time. Also,
In the invention described in claim 6, since the program programmed according to the coordinate detection method according to any one of claims 1 to 5 can be run on the information processing device, the information processing device is controlled by the control device. The effect of the invention according to any one of claims 1 to 5 can be obtained by using the above. In the invention according to claim 7,
Since the program programmed according to the coordinate detecting method according to any one of claims 1 to 5 is stored in, for example, a removable storage medium, the storage medium is any one of claims 1 to 5 so far. 6. The information processing apparatus is mounted on an information processing apparatus such as a personal computer that cannot detect coordinates according to the invention described in claim 1, and the information processing apparatus is used as a control apparatus.
It is possible to obtain the effect of the invention described in any one of 1.
【図1】本発明が実施される一例を示す電子黒板システ
ムのシステム構成図である。FIG. 1 is a system configuration diagram of an electronic blackboard system showing an example in which the present invention is implemented.
【図2】本発明に係わる座標検出方法の説明図である。FIG. 2 is an explanatory diagram of a coordinate detection method according to the present invention.
【図3】本発明に係わる座標検出方法の他の説明図であ
る。FIG. 3 is another explanatory diagram of the coordinate detecting method according to the present invention.
【図4】本発明に係わる座標検出方法の他の説明図であ
る。FIG. 4 is another explanatory diagram of the coordinate detecting method according to the present invention.
【図5】本発明に係わる座標検出方法の他の説明図であ
る。FIG. 5 is another explanatory diagram of the coordinate detecting method according to the present invention.
【図6】本発明に係わる座標検出方法の他の説明図であ
る。FIG. 6 is another explanatory diagram of the coordinate detecting method according to the present invention.
【図7】本発明の第1の実施例を示す座標検出方法の説
明図である。FIG. 7 is an explanatory diagram of a coordinate detection method showing the first embodiment of the present invention.
【図8】本発明の第1の実施例を示す座標検出方法の他
の説明図である。FIG. 8 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図9】本発明の第1の実施例を示す座標検出方法の他
の説明図である。FIG. 9 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図10】本発明の第1の実施例を示す座標検出方法の
他の説明図である。FIG. 10 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図11】本発明の第1の実施例を示す座標検出方法の
他の説明図である。FIG. 11 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図12】本発明の第1の実施例を示す座標検出方法の
他の説明図である。FIG. 12 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図13】本発明の第1の実施例を示す座標検出方法の
他の説明図である。FIG. 13 is another explanatory diagram of the coordinate detecting method according to the first embodiment of the present invention.
【図14】本発明の第2の実施例を示す座標検出方法の
説明図である。FIG. 14 is an explanatory diagram of a coordinate detection method showing a second embodiment of the present invention.
【図15】本発明の第2の実施例を示す座標検出方法の
動作フロー図である。FIG. 15 is an operation flowchart of the coordinate detecting method showing the second embodiment of the present invention.
1 座標入力機能付表示装置、2 制御装置、3 座標
入力領域、4 再帰性反射部材、5 受発光部、50
受光素子、51 集光レンズ、81 点光源1 display device with coordinate input function, 2 control device, 3 coordinate input area, 4 retroreflective member, 5 light emitting / receiving unit, 50
Light receiving element, 51 condenser lens, 81 point light source
Claims (7)
ついて、発射された光を遮る遮光方向を検出することに
より座標を検出する座標検出方法において、検出座標の
遮光幅から、複数の検出座標がそれぞれ予め設けた境界
線により区切られた異なる領域にあるとみなせるとき
に、同時に指示された複数の座標を、検出された複数の
座標の遮光方向と遮光幅比較の結果とから算出すること
を特徴とする座標検出方法。1. A coordinate detection method for detecting coordinates of light emitted from a plurality of light sources and reflected by detecting a light shielding direction for shielding the emitted light, wherein a plurality of detected coordinates are detected from a light shielding width of the detected coordinates. When it can be considered that each of them is in a different area delimited by a preliminarily provided boundary line, it is possible to calculate a plurality of simultaneously designated coordinates from the light-shielding direction of the detected plurality of coordinates and the result of the light-shielding width comparison. Characteristic coordinate detection method.
同時に指示された座標が2点の場合に前記境界線を縦方
向または横方向の1本の境界線としたこと、3点の場合
に前記境界線を縦方向または横方向の2本の境界線とし
たこと、または、4点の場合に縦方向および横方向1本
づつ合わせて2本の境界線としたことを特徴とする座標
検出方法。2. The coordinate detection method according to claim 1, wherein
When the coordinates designated at the same time are two points, the boundary line is one boundary line in the vertical direction or the horizontal direction, and when there are three points, the boundary line is two boundary lines in the vertical direction or the horizontal direction. Or in the case of four points, one in the vertical direction and one in the horizontal direction are combined to form two boundary lines.
いて、予め境界線上の任意の点にタッチしてそのときの
遮光幅を検出することにより、複数の座標が同時に指示
された際の境界線上の遮蔽幅を算出し、その遮蔽幅を用
いて前記遮光幅比較を行うことを特徴とする座標検出方
法。3. The invention according to claim 1 or 2, wherein an arbitrary point on the boundary line is touched in advance and the light-shielding width at that time is detected, so that the boundary when a plurality of coordinates are simultaneously indicated. A coordinate detection method characterized in that a shield width on a line is calculated and the shield width is compared using the shield width.
載の座標検出方法において、検出する座標数だけそれぞ
れの座標に対応した前記領域内に処理内容を指示するた
めの表示子を表示することを特徴とする座標検出方法。4. The coordinate detection method according to claim 1, 2, or 3, wherein an indicator for instructing processing contents is displayed in the area corresponding to each coordinate by the number of detected coordinates. A coordinate detection method characterized by:
表示された異なる表示子を用いてそれぞれ異なる操作を
行わせることを特徴とする座標検出方法。5. The coordinate detection method according to claim 4,
A coordinate detection method characterized in that different operations are performed using different displayed indicators.
おいて、請求項1乃至請求項5のいずれか1項に記載の
座標検出方法に従ってプログラミングしたことを特徴と
するプログラム。6. A program operating on an information processing device, which is programmed according to the coordinate detecting method according to any one of claims 1 to 5.
て、請求項6記載のプログラムを記憶したことを特徴と
する記憶媒体。7. A storage medium storing a program, wherein the program according to claim 6 is stored.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001400516A JP2003202957A (en) | 2001-10-30 | 2001-12-28 | Coordinate detecting method, program by its method and storage medium with its program stored therein |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001-333312 | 2001-10-30 | ||
JP2001333312 | 2001-10-30 | ||
JP2001400516A JP2003202957A (en) | 2001-10-30 | 2001-12-28 | Coordinate detecting method, program by its method and storage medium with its program stored therein |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2003202957A true JP2003202957A (en) | 2003-07-18 |
Family
ID=27666681
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001400516A Pending JP2003202957A (en) | 2001-10-30 | 2001-12-28 | Coordinate detecting method, program by its method and storage medium with its program stored therein |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2003202957A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006313437A (en) * | 2005-05-06 | 2006-11-16 | Canon Inc | Information processor and its control method and program |
JP2007213135A (en) * | 2006-02-07 | 2007-08-23 | Ricoh Elemex Corp | Coordinate detection device and coordinate detection method |
JP2009153072A (en) * | 2007-12-21 | 2009-07-09 | Sony Corp | Communication apparatus, input control method, and input control program |
KR100942431B1 (en) * | 2007-12-11 | 2010-02-17 | 주식회사 토비스 | Complementary metal oxide semiconductor, source of light using the touch coordinates preception method and the touch screen system |
KR101112640B1 (en) | 2009-08-04 | 2012-02-16 | (주)레이딕스텍 | Display apparatus and method for using with pointing device thereof |
JP2017076406A (en) * | 2008-01-11 | 2017-04-20 | オー−ネット ウェーブタッチ リミテッドO−Net WaveTouch Limited | Touch-sensitive device |
-
2001
- 2001-12-28 JP JP2001400516A patent/JP2003202957A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006313437A (en) * | 2005-05-06 | 2006-11-16 | Canon Inc | Information processor and its control method and program |
JP4592085B2 (en) * | 2005-05-06 | 2010-12-01 | キヤノン株式会社 | Information processing apparatus, control method therefor, and program |
JP2007213135A (en) * | 2006-02-07 | 2007-08-23 | Ricoh Elemex Corp | Coordinate detection device and coordinate detection method |
KR100942431B1 (en) * | 2007-12-11 | 2010-02-17 | 주식회사 토비스 | Complementary metal oxide semiconductor, source of light using the touch coordinates preception method and the touch screen system |
JP2009153072A (en) * | 2007-12-21 | 2009-07-09 | Sony Corp | Communication apparatus, input control method, and input control program |
JP4697551B2 (en) * | 2007-12-21 | 2011-06-08 | ソニー株式会社 | COMMUNICATION DEVICE, INPUT CONTROL METHOD, AND INPUT CONTROL PROGRAM |
US8446375B2 (en) | 2007-12-21 | 2013-05-21 | Sony Corporation | Communication apparatus, input control method and input control program |
JP2017076406A (en) * | 2008-01-11 | 2017-04-20 | オー−ネット ウェーブタッチ リミテッドO−Net WaveTouch Limited | Touch-sensitive device |
KR101112640B1 (en) | 2009-08-04 | 2012-02-16 | (주)레이딕스텍 | Display apparatus and method for using with pointing device thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6201519B2 (en) | Coordinate detection apparatus, coordinate detection method, and electronic information board system | |
EP2338104B1 (en) | Method and apparatus for detecting a multitouch event in an optical touch-sensitive device | |
US6710770B2 (en) | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device | |
JP4094796B2 (en) | Coordinate input system, method for controlling coordinate input system, and computer-readable recording medium recording program for causing computer to execute the method | |
JP2001084106A (en) | Coordinate inputting/detecting device and information storing medium | |
KR20030038732A (en) | Quasi-three-dimensional method and apparatus to detect and localize interaction of user-object and virtual transfer device | |
JP2000353048A (en) | Optical unit for detecting object, and position coordinate input device using the unit | |
EP2250546A2 (en) | Systems and methods for resolving multitouch scenarios for optical touchscreens | |
JP2014197384A (en) | Stylus, and optical touch panel device | |
US20110216041A1 (en) | Touch panel and touch position detection method of touch panel | |
JP2003241872A (en) | Drawing processing method, program thereby, and storage medium storing its program | |
JP2013210956A (en) | Display device | |
JP2007206935A (en) | Coordinate detection system, coordinate detection device, coordinate detection method and touch pen | |
JP2003202957A (en) | Coordinate detecting method, program by its method and storage medium with its program stored therein | |
JP3998116B2 (en) | Coordinate detection device | |
JP4560224B2 (en) | Information input device, information input / output system, program, and storage medium | |
JP4335468B2 (en) | Information input / output system, information control method, program, and recording medium | |
JP2002268807A (en) | Coordinate input device, program for performing coordinate input function and recording medium with the program recorded | |
JP2004199181A (en) | Coordinate input device, display device, coordinate input method and program | |
JP2003122494A (en) | Device and method for coordinate input/detection | |
JP4031594B2 (en) | Coordinate input / detection device | |
JP2001084104A (en) | Coordinate inputting/detecting device and information storage medium | |
JP2000347798A (en) | Coordinate detecting device | |
JP2001084108A (en) | Device for inputting and detecting and displaying coordinate | |
JP4011260B2 (en) | Coordinate detection apparatus, electronic blackboard system, coordinate position detection method, and storage medium |