JP2001117686A - Pen-inputting device and pointing processing method for the device - Google Patents
Pen-inputting device and pointing processing method for the deviceInfo
- Publication number
- JP2001117686A JP2001117686A JP29774499A JP29774499A JP2001117686A JP 2001117686 A JP2001117686 A JP 2001117686A JP 29774499 A JP29774499 A JP 29774499A JP 29774499 A JP29774499 A JP 29774499A JP 2001117686 A JP2001117686 A JP 2001117686A
- Authority
- JP
- Japan
- Prior art keywords
- input
- pen
- gesture
- button
- mouse
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】この発明は、ペン入力装置お
よびペン入力装置のポインティング処理方法に係り、ペ
ン入力による個人情報機器のユーザインターフェース技
術に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a pen input device and a pointing processing method of the pen input device, and more particularly to a user interface technology of a personal information device by pen input.
【0002】[0002]
【従来の技術】従来のペン入力指示可能なデータ処理装
置であるペン入力コンピュータ等は、オペレーティング
システム(以下、OSと称す)やアプリケーションプロ
グラムがディスプレイ画面上にグラフィックユーザイン
ターフェース(以下、GUIと称す)の画像であるオブ
ジェクト(アイコンやメニュー等)を表示し、タッチパ
ネルから入力される操作者の指示によりカーソルをその
オブジェクト上に移動して、そのオブジェクト上でタッ
プやダブルタップ操作を行うことによりそのオブジェク
トに対応する機能がデータ処理装置で処理されるように
構成されている。2. Description of the Related Art A conventional pen input computer, which is a data processing apparatus capable of instructing pen input, includes an operating system (hereinafter, referred to as OS) and an application program on a display screen with a graphic user interface (hereinafter, referred to as GUI). The object (icon, menu, etc.) that is an image of the object is displayed, the cursor is moved to the object by an operator's instruction input from the touch panel, and a tap or a double tap operation is performed on the object to perform the object. Is configured to be processed by the data processing device.
【0003】このタッチパネル方式ポインティングデバ
イスのタップとダブルタップ操作が、代表的なポインテ
ィングデバイスであるマウスにおけるクリックとダブル
クリック操作に相当するので、入力ペンや指でタッチパ
ネルからマウスと同様な入力を行うことができるように
構成されていた。The tap and double tap operations of the touch panel type pointing device correspond to the click and double click operations of a mouse which is a typical pointing device. Was configured to be able to.
【0004】[0004]
【発明が解決しようとする課題】しかしながら、従来の
ペン入力装置では、OSにキーボード・マウスを整備し
た通常のPC向けのものが多く流用され、ペンはあくま
でマウスの代用品としてしか機能していない。このた
め、キーボードやマウスのようなボタンが無い分、ペン
PCの操作性は通常のPCと比較して非常に悪いものに
なっていた。例えば、ディスプレイ画面上に表示された
ウインドウ内の予め指定されたエリアやアイコンは小さ
い面積で構成され、タップやダブルタップ操作を行うと
きにペン先をその目標エリアに正確にあてるのが難しく
入力ミスが頻繁に発生してしまうことがあった。このよ
うに、従来のペンPCではペン入力がマウスと同様な入
力を行うことができたが、複数ボタンを有するマウスと
同等の操作を快適に行うことができないという操作上の
問題点があった。However, many of the conventional pen input devices for a normal PC having a keyboard and a mouse in the OS are diverted, and the pen functions only as a substitute for the mouse. . For this reason, the operability of the pen PC is much worse than that of a normal PC because there are no buttons such as a keyboard and a mouse. For example, a pre-designated area or icon in a window displayed on the display screen has a small area, and it is difficult to accurately apply the pen tip to the target area when performing a tap or double-tap operation. Sometimes occurred frequently. As described above, in the conventional pen PC, the pen input can perform the same input as the mouse, but there is an operational problem that the same operation as the mouse having a plurality of buttons cannot be performed comfortably. .
【0005】本発明は上記の問題点を解決するためにな
されたものであり、ペンならではの入力操作であるジェ
スチャー入力を認識し、マウスやキーボードによる入力
が行われたことを示すイベントに変換を行うことによ
り、キーボード・マウスが整備された通常のPCで動作
することを前提としたOSをペンPCで利用した場合に
おいても、ペンならではの操作性の良さを実現できるペ
ン入力装置およびペン入力装置のポインティング処理方
法を提供することを目的としている。The present invention has been made to solve the above problem, and recognizes a gesture input which is an input operation unique to a pen, and converts the event into an event indicating that an input has been performed by a mouse or a keyboard. A pen input device and a pen input device capable of realizing good operability unique to a pen even when an OS premised on operating on a regular PC equipped with a keyboard and mouse is used by the pen PC It is an object of the present invention to provide a pointing processing method.
【0006】[0006]
【課題を解決するための手段】本発明の請求項1に係る
ペン入力装置は、ペンによるポインティング入力を検出
するタッチパネルが表面に装着されるとともに、マウス
を用いることを対象としたソフトウェアが動作するペン
入力装置において、前記ペンの入力モードを切替える切
替ボタンと、この切替ボタンの押下時に入力された前記
ペンによるポインティング入力を前記マウスの右ボタン
押下によるイベントに変換する第1の変換手段と、前記
切替ボタンの非押下時に入力された前記ペンによるポイ
ンティング入力を前記マウスの左ボタン押下によるイベ
ントに変換する第2の変換手段と、これら第1及び第2
の変換手段によって変換された前記各イベントを制御す
るイベント制御手段とを具備したことを特徴とする。In the pen input device according to the first aspect of the present invention, a touch panel for detecting a pointing input by a pen is mounted on a surface, and software for using a mouse operates. In the pen input device, a switching button for switching an input mode of the pen, first conversion means for converting a pointing input by the pen input when the switching button is pressed into an event by pressing a right button of the mouse, Second conversion means for converting a pointing input by the pen, which is input when the switching button is not pressed, into an event by pressing the left button of the mouse;
And an event control means for controlling each of the events converted by the conversion means.
【0007】このような構成によれば、キーボードやマ
ウスを具備した通常のペン入力装置のGUIをペンPC
で操作する際、左ボタンモードと右ボタンモードを切り
替えるボタンをペンPCに備えることにより、1つのペ
ンによる入力で、左右のマウスボタンによる操作を模擬
することができる。According to such a configuration, the GUI of a normal pen input device having a keyboard and a mouse is replaced with a pen PC.
When an operation is performed by using the pen PC, a button for switching between the left button mode and the right button mode is provided on the pen PC, so that an operation with the left and right mouse buttons can be simulated by an input with one pen.
【0008】本発明の請求項2に係るペン入力装置は、
ペンによるポインティング入力を検出するタッチパネル
が表面に装着されるとともに、マウスを用いることを対
象としたソフトウェアが動作するペン入力装置におい
て、前記ペンの入力モードを切替える切替ボタンと、こ
の切替ボタンの押下時に入力された入力軌跡の形状を少
なくとも1種類以上のジェスチャーとして認識する認識
手段と、前記認識手段の認識結果に応じたイベントを発
生させるイベント発生手段とを具備したことを特徴とす
る。[0008] The pen input device according to claim 2 of the present invention comprises:
A touch panel for detecting a pointing input by a pen is mounted on the surface, and a pen input device on which software intended for using a mouse operates, a switching button for switching the input mode of the pen, and when the switching button is pressed, It is characterized by comprising recognition means for recognizing the shape of the input trajectory as at least one or more types of gestures, and event generation means for generating an event according to the recognition result of the recognition means.
【0009】このような構成によれば、キーボードやマ
ウスを具備した通常のペン入力装置のGUIをペンPC
で操作する際、マウスモードとジェスチャーモードを切
り替えるボタンをペンPCに備え、ジェスチャーモード
時に入力された入力軌跡の形状を少なくとも1種類以上
のジェスチャーとして認識し、認識結果に応じたイベン
トを発生させることにより、ペンPCの操作性を向上さ
せることができる。According to such a configuration, the GUI of a normal pen input device having a keyboard and a mouse is replaced with a pen PC.
When operating with, the pen PC is provided with a button for switching between the mouse mode and the gesture mode, and the shape of the input trajectory input in the gesture mode is recognized as at least one or more gestures, and an event corresponding to the recognition result is generated. Thereby, the operability of the pen PC can be improved.
【0010】本発明の請求項3に係るペン入力装置は、
ペンによるポインティング入力を検出するタッチパネル
が表面に装着されるとともに、マウスを用いることを対
象としたソフトウェアが動作するペン入力装置におい
て、前記ペンの入力モードを切替える切替ボタンと、こ
の切替ボタンの押下時に入力された入力軌跡の形状を少
なくとも1種類以上のジェスチャーとして認識する認識
手段と、前記切替ボタンの押下時に入力された前記ペン
によるポインティング入力がジェスチャー入力であるか
否か判定するジェスチャー判定手段と、この判定手段に
よってジェスチャー入力と判定された場合、前記認識手
段により認識された前記ジェスチャーに応じたイベント
に変換する第1の変換手段と、前記判定手段によってジ
ェスチャー入力ではないと判定された場合、マウスの右
ボタン押下時のイベントに変換する第2の変換手段と、
これら第1及び第2の変換手段これら第1及び第2の変
換手段によって変換された前記各イベントを制御するイ
ベント制御手段とを具備したことを特徴とする。[0010] The pen input device according to claim 3 of the present invention comprises:
A touch panel for detecting a pointing input by a pen is mounted on the surface, and a pen input device on which software intended for using a mouse operates, a switching button for switching the input mode of the pen, and when the switching button is pressed, Recognition means for recognizing the shape of the input trajectory as at least one or more types of gestures, gesture determination means for determining whether or not the pointing input by the pen input when the switching button is pressed is a gesture input; When the gesture input is determined by the determination unit, a first conversion unit that converts the event into an event corresponding to the gesture recognized by the recognition unit; and when the determination unit determines that the input is not a gesture input, a mouse is used. Event when the right button is pressed Second conversion means for converting the bets,
An event control means for controlling each of the events converted by the first and second conversion means.
【0011】このような構成によれば、ペンによって入
力された軌跡がジェスチャーであるか否かを判定する手
段を設けることにより、切替ボタンによりマウスの左右
ボタンの切り替えを行う機能と、ジェスチャー入力を行
う機能を両立させることができるため、ペン入力の操作
性をより向上させることができる。According to such a configuration, by providing means for determining whether or not the trajectory inputted by the pen is a gesture, a function of switching between the left and right buttons of the mouse by the switching button and a gesture input Since the functions to be performed can be compatible, the operability of pen input can be further improved.
【0012】[0012]
【発明の実施の形態】以下、図面を用いて、本発明の実
施形態を説明する。 (第1の実施例)図1は、本発明の第1の実施形態にお
けるペン入力型パーソナルコンピュータの概略構成図で
ある。Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a schematic configuration diagram of a pen input type personal computer according to a first embodiment of the present invention.
【0013】ペン入力型パーソナルコンピュータ101
(以下、ペンPCと称す)本体には表面にタッチパネル
が貼付されたLCDパネル102が整備され、入力ペン
103でLCDパネル上を押下することにより、押下し
た座標点を取得することができる。ペンPC本体の左部
分にはペン入力の入力モードを切り替えるジェスチャー
ボタン104が備えられている。また、ペンPC本体に
は、別途キーボード105、マウス106を装着するこ
とができる。[0013] Pen input type personal computer 101
An LCD panel 102 having a touch panel affixed to the surface thereof is provided on a main body (hereinafter referred to as a pen PC). By pressing an input pen 103 on the LCD panel, the pressed coordinate point can be acquired. A gesture button 104 for switching the input mode of pen input is provided on the left part of the pen PC main body. A keyboard 105 and a mouse 106 can be separately attached to the pen PC main body.
【0014】図2は、ペンPCのソフトウエア構造のブ
ロック図である。以下の説明では、ペンPCのOSとし
て、またPCのOSとしてもっとも普及しているWin
dowsを例として話を進める。FIG. 2 is a block diagram of the software structure of the pen PC. In the following description, Win PC which is most widely used as the OS of the pen PC and the OS of the PC is described.
Let's take dows as an example.
【0015】第1図のペンPCでは、ペンPC101に
具備されている入力デバイスとして、タッチパネル10
2、ジェスチャーボタン104があり、またWindo
ws標準入力デバイスとしてマウス106、キーボード
105を装着することが可能である。入力デバイスのデ
バイスドライバーは、各デバイスのハードウエアからデ
ータを読み込み、OSに通知を行う。例えば、マウス2
07の場合、マウスドライバ206が一定周期でマウス
207の動きを監視し、マウスが動かされたことを検出
すると、マウスの移動量を画面上のカーソルに変換し、
OS201に対しMouseMoveイベントを送信す
る。このMouseMoveイベントを受信したOS2
01は、現在表示されているウインドウ210にMou
seMoveイベントを転送する。ウインドウ210で
は、このイベントに従い、所定の動作を行う。マウス2
07から発生されるイベントとしては、MouseMo
veイベントの他に、マウスの左ボタンが押されたLB
uttonDownイベント、右ボタンが押されたRB
uttonDownイベント、それぞれのボタンが離さ
れたLButtonUP、RButtonUPイベント
等がある。In the pen PC of FIG. 1, a touch panel 10 is used as an input device provided in the pen PC 101.
2. There is a gesture button 104 and Windows
It is possible to mount a mouse 106 and a keyboard 105 as ws standard input devices. The device driver of the input device reads data from hardware of each device and notifies the OS. For example, mouse 2
In the case of 07, the mouse driver 206 monitors the movement of the mouse 207 at regular intervals, and when detecting that the mouse has been moved, converts the amount of mouse movement into a cursor on the screen,
A MouseMove event is transmitted to the OS 201. OS2 that received this MouseMove event
01 is displayed on the currently displayed window 210 as Mou.
Forward the seMove event. In the window 210, a predetermined operation is performed according to this event. Mouse 2
The event generated from 07 is MouseMo
In addition to the ve event, LB when the left mouse button is pressed
upDown event, right button pressed RB
There are a buttonDown event, an LBButtonUP event where each button is released, and an RBButtonUP event.
【0016】一方、LCDパネル102上を入力ペン1
03でタッピングした場合、タッチパネル203がパネ
ル上の座標値を検出し、それをタッチパネルドライバ2
01がWindowsの座標系に変換して、OS201
にマウスイベントの形式で送信する。OSがイベントを
受信してからは、マウス207からのイベントと同様の
処理が行われる。すなわち、タッチパネルドライバ20
2は、タッチパネル203で検出した入力操作をあたか
もマウス207でイベントが発生したかのように変換
し、OS201に伝える役割を果たしている。この時、
入力ペン103にはマウスのような右ボタン、左ボタン
等が存在しないため、タッチパネルドライバ202は、
入力ペンによる入力操作をマウスの左ボタンが押された
時のマウスイベントに変換するようにしている。しか
し、ペンには右ボタンの動作を模擬する機能が無いた
め、Windowsの操作において不都合が発生するこ
とになる。On the other hand, the input pen 1
03, the touch panel 203 detects the coordinate value on the panel, and detects it by the touch panel driver 2.
01 is converted to the Windows coordinate system, and the OS 201
In the form of mouse events. After the OS receives the event, the same processing as the event from the mouse 207 is performed. That is, the touch panel driver 20
A function 2 converts an input operation detected on the touch panel 203 as if an event occurred with the mouse 207 and transmits the converted operation to the OS 201. At this time,
Since the input pen 103 does not have a right button, a left button, and the like like a mouse, the touch panel driver 202
The input operation with the input pen is converted into a mouse event when the left mouse button is pressed. However, since the pen does not have a function of simulating the operation of the right button, inconvenience occurs in the operation of Windows.
【0017】ここで、第1図のジェスチャーボタン10
4を利用して、右ボタンによる操作を模擬する方法につ
いて説明する。ユーザがペンPC101のGUIを操作
する際、マウスの左ボタンを用いた操作を行う場合は、
単純に画面上をタッピングする。一方、右ボタンによる
操作を行いたい場合は、ユーザは左手でジェスチャーボ
タン104を押したまま、ペンで画面上をタップする。
なお、このジェスチャーボタン104は、ペンPCのど
こに配置されていてもよく、例えば左利きのユーザのた
めに右側に配置されていてもよい。Here, the gesture button 10 shown in FIG.
A method of simulating the operation by the right button by using No. 4 will be described. When the user operates the GUI of the pen PC 101 by performing an operation using the left mouse button,
Simply tap on the screen. On the other hand, when the user wants to perform an operation using the right button, the user taps on the screen with a pen while holding down the gesture button 104 with the left hand.
The gesture button 104 may be arranged anywhere on the pen PC, for example, may be arranged on the right side for a left-handed user.
【0018】図3は、この時のタッチパネルドライバ2
02の動作の流れを示したフローチャートである。ま
ず、ユーザがペンでタッチパネル上をタップすると(ス
テップ301のY)、タッチパネルドライバ202は、
タップされた座標位置を検出する(ステップ303)。
その後、ジェスチャーボタン104が押下されているか
どうか判断し、押下されていなければ(ステップ305
のN)、マウスの左ボタンイベントとしてOSに送信す
る(ステップ307)。また、押下されていれば(ステ
ップ305のY)、マウスの右ボタンイベントとしてO
Sに送信する(ステップ309)。そして、OSは受信
した各イベントをマウスからの入力として通常の処理を
行う。FIG. 3 shows the touch panel driver 2 at this time.
12 is a flowchart showing the flow of the operation of the second embodiment. First, when the user taps on the touch panel with a pen (Y in step 301), the touch panel driver 202
The tapped coordinate position is detected (step 303).
Thereafter, it is determined whether or not the gesture button 104 has been pressed, and if it has not been pressed (step 305).
N), and sends it to the OS as a mouse left button event (step 307). If the button has been pressed (Y in step 305), O
It transmits to S (step 309). Then, the OS performs normal processing using the received events as inputs from the mouse.
【0019】このように、キーボード、マウスを具備し
た通常の計算機用のGUIをペンPCで操作する際、ペ
ンの入力をマウスのイベントに変換し、ボタンの押下、
非押下によってマウスの左右ボタンの切り替えができ、
1つのペンによる入力で、左右のマウスボタンによる操
作をすることができる。As described above, when operating a normal computer GUI having a keyboard and a mouse with the pen PC, the input of the pen is converted into a mouse event, and a button is pressed.
You can switch the left and right mouse button by not pressing,
With one pen input, the left and right mouse buttons can be operated.
【0020】(第2の実施例)次に、本発明の第2の実
施形態について説明する。図4は、画面のアイコン上で
「チェック」のジェスチャー動作を示したものである。(Second Embodiment) Next, a second embodiment of the present invention will be described. FIG. 4 shows a gesture operation of “check” on an icon on the screen.
【0021】この図に示すように、ペンPC本体に装備
されたLCDタッチパネル上にアイコン403が表示さ
れている状態で、ダブルクリックしたい対象(アイコン
403)の上で「 チェック(レ点)」 のジェスチャーを
行い、これを認識することでマウスによるダブルクリッ
ク入力の代替としている。ユーザはジェスチャー入力す
る時は、ジェスチャ−ボタン402を押下してから入力
ペン401で画面上にジェスチャーを書き込む。As shown in this figure, when the icon 403 is displayed on the LCD touch panel provided in the pen PC main body, the gesture of “check (check point)” is performed on the object (icon 403) to be double-clicked. By recognizing this, it replaces the double-click input with the mouse. When inputting a gesture, the user presses the gesture button 402 and then writes the gesture on the screen with the input pen 401.
【0022】図5は、ジェスチャー入力時のタッチパネ
ルドライバの動作の流れを示したフローチャートであ
る。まず、ユーザによってタッチパネルに入力操作が行
われると(ステップ501のY)、タッチパネルドライ
バ202は、その入力された座標位置を検出する(ステ
ップ503)。その後、ジェスチャーボタン402が押
下されているかどうか判断し、押下されていなければ
(ステップ505のN)、マウスの左ボタンイベントと
してOSに送信する(ステップ507)。また、押下さ
れていれば(ステップ505のY)、ジェスチャーの判
定処理を行う。このジェスチャー判定処理とは、入力が
1タップであるかどうか判定し1タップであれば非ジェ
スチャーとみなし、1タップでなければジェスチャーと
みなすものである。ここでタッチパネルドライバ202
により前記入力がジェスチャーであると判定されると
(ステップ509のY)、この入力の軌跡を取得し認識
を行うジェスチャー入力処理が行われる(ステップ51
3)。このジェスチャー入力処理の詳細な説明は後述す
る。FIG. 5 is a flowchart showing the flow of the operation of the touch panel driver at the time of gesture input. First, when an input operation is performed on the touch panel by the user (Y in step 501), the touch panel driver 202 detects the input coordinate position (step 503). Thereafter, it is determined whether or not the gesture button 402 has been pressed. If not, the gesture button 402 is transmitted to the OS as a mouse left button event (step 507). If the button is pressed (Y in step 505), a gesture determination process is performed. This gesture determination processing is to determine whether the input is one tap, and if the input is one tap, it is regarded as a non-gesture, and if it is not one tap, it is regarded as a gesture. Here, the touch panel driver 202
When the input is determined to be a gesture (Y in step 509), a gesture input process of acquiring and recognizing the trajectory of the input is performed (step 51).
3). A detailed description of this gesture input processing will be described later.
【0023】ジェスチャーの認識が終了すると、認識結
果に応じたイベントをOSに送信する(ステップ51
7)。例えば、第4図のような「 チェック(レ点)」 と
いうジェスチャーの場合は、マウスの左ボタンによるダ
ブルクリックイベントをOSに対して送信する。一方、
ジェスチャー判定処理で入力がジェスチャーではないと
判定された場合は(ステップ509のN)、マウスの右
ボタンによる操作イベントをOSに対して送信する(ス
テップ515)。OSは受信した各イベントをマウスか
らの入力として通常の処理を行う。When the gesture recognition is completed, an event corresponding to the recognition result is transmitted to the OS (step 51).
7). For example, in the case of the gesture of “check (check point)” as shown in FIG. 4, a double-click event by the left mouse button is transmitted to the OS. on the other hand,
If it is determined in the gesture determination processing that the input is not a gesture (N in step 509), an operation event by the right button of the mouse is transmitted to the OS (step 515). The OS performs normal processing using the received events as inputs from the mouse.
【0024】次に、ここではペンの軌跡をLCDパネル
上に描画する処理(前述したジェスチャー入力処理)に
ついて図7を用いて説明する。図7は、このジェスチャ
ー入力処理の流れを示したフローチャートである。Next, the process of drawing the locus of the pen on the LCD panel (the above-described gesture input process) will be described with reference to FIG. FIG. 7 is a flowchart showing the flow of the gesture input processing.
【0025】タッチパネルドライバ202は、タッチパ
ネルよりペンで押下されている座標値を取得する(ステ
ップ701)。この値がストローク(ペンがタッチパネ
ル上に置かれてから離されるまでの軌跡)の最初の点で
あるか否か判断し、最初の点であるときは(ステップ7
03のY)、この座標値を前回位置として保存して始め
のステップ処理に戻る(ステップ705)。最初の点で
ないとき(ステップ703のN)、つまり次の座標位置
が取得されると、現在の座標値と前回位置との間を直線
で描画し、現在の座標値を前回位置として保存し直す
(ステップ707,709)。これにより、ストローク
終了まで、ペンの軌跡をLCDに描画することになる。
その後、ストロークが終了したがどうか判断し、終了し
ていない場合には(ステップ711のN)、最初のステ
ップ処理に戻る。終了している場合は(ステップ711
のY)、後述するジェスチャー入力確定処理を行う(ス
テップ713)。そして、ジェスチャー未確定であれば
最初のステップ処理に戻り、ジェスチャー確定であれ
ば、描画された軌跡の消去処理が行われる(ステップ7
15)。The touch panel driver 202 acquires a coordinate value pressed by a pen from the touch panel (step 701). It is determined whether or not this value is the first point of the stroke (the trajectory from when the pen is placed on the touch panel to when it is released).
03, Y), this coordinate value is stored as the previous position, and the process returns to the first step processing (step 705). When it is not the first point (N in step 703), that is, when the next coordinate position is obtained, a straight line is drawn between the current coordinate value and the previous position, and the current coordinate value is stored again as the previous position. (Steps 707 and 709). Thus, the locus of the pen is drawn on the LCD until the end of the stroke.
Thereafter, it is determined whether or not the stroke has ended. If the stroke has not ended (N in step 711), the process returns to the first step. If it has been completed (step 711)
Y), a gesture input confirmation process described later is performed (step 713). If the gesture has not been determined, the process returns to the first step process. If the gesture has been determined, the drawn locus is deleted (step 7).
15).
【0026】また、前述した描画された軌跡の消去は、
ジェスチャー入力が確定した後に行われ、いつジェスチ
ャー入力が終了したかを確定するジェスチャー入力確定
処理(ステップ713)について8図を用いて説明す
る。The erasing of the drawn locus described above is performed by
The gesture input determination process (step 713), which is performed after the gesture input is determined and determines when the gesture input has ended, will be described with reference to FIG.
【0027】認識するジェスチャーが1ストロークのみ
によって成り立っているモードの場合(ステップ801
のY)、1ストローク終了時点、すなわちペンが上げら
れた時点でジェスチャー入力は確定したとみなす(ステ
ップ807)。一方、ジェスチャーが複数ストロークか
ら成り立つモードの場合(ステップ801のN)、ペン
を上げただけではジェスチャー入力の確定ができないた
め、ペンが離されてから一定時間内に次のストロークの
入力が行われない場合は(ステップ803のY)、ジェ
スチャー入力を確定とみなす。また、ペンが離されてか
ら一定時間内に次のストロークの入力が行われた場合
(ステップ803のN)で、ペンが離された後ジェスチ
ャーボタンが離された場合(ステップ805のY)、ジ
ェスチャー入力を確定とみなす。離されなければ(ステ
ップ805のN)、ジェスチャー入力を未確定として引
続きペン入力のデータ収集を行う(ステップ809)。In the case of the mode in which the gesture to be recognized consists of only one stroke (step 801)
Y) At the end of one stroke, that is, when the pen is raised, it is considered that the gesture input has been determined (step 807). On the other hand, in the mode in which the gesture is composed of a plurality of strokes (N in step 801), the gesture input cannot be determined only by raising the pen, so that the next stroke is input within a predetermined time after the pen is released. If not (Y in step 803), the gesture input is regarded as determined. If the next stroke is input within a predetermined time after the pen is released (N in step 803), and if the gesture button is released after the pen is released (Y in step 805), The gesture input is regarded as confirmed. If it is not released (N in step 805), the gesture input is determined to be unconfirmed, and pen input data collection is continued (step 809).
【0028】以上のように第2の実施例では、キーボー
ド、マウスを具備した通常の計算機用のGUIをペンP
Cで操作する際、マウスモードとジェスチャーモードを
切り替えるボタンをペンPCに備えることで、マウスの
ダブルクリックなどペン入力しづらい命令をジェスチャ
ーで表し、ペンPCの操作性を向上させることができ
る。As described above, in the second embodiment, the GUI for a normal computer having a keyboard and a mouse is
By providing a button for switching between the mouse mode and the gesture mode on the pen PC when operating with C, a command that is difficult to input with the pen, such as double-clicking of the mouse, is represented by a gesture, and the operability of the pen PC can be improved.
【0029】(第3の実施例)次に、本発明の第3の実
施形態について説明する。ここでは、ボタンによりマウ
スの左右ボタンの切り替えを行う第1の実施例の機能
と、ジェスチャー入力を行う第2の実施例の機能を両立
させる方法について説明する。(Third Embodiment) Next, a third embodiment of the present invention will be described. Here, a method of making the function of the first embodiment in which the left and right buttons of the mouse are switched by the buttons compatible with the function of the second embodiment in which the gesture input is performed will be described.
【0030】この2つの機能を両立させる仕組みは、第
5図のジェスチャー判定処理(ステップ509)が担っ
ている。このジェスチャー判定処理において、ボタン押
下時に入力されたペンのデータがジェスチャーであるか
否かを判定し、ジェスチャーであると判定された場合に
はそのジェスチャーに対応したイベントとしてOSに送
信する。また、ジェスチャーではないと判定された場合
には、マウス右ボタン押下状態でのマウスドラッグイベ
ントとしてOSに送信する。The mechanism for making these two functions compatible is performed by the gesture determination process (step 509) in FIG. In this gesture determination processing, it is determined whether or not the pen data input at the time of pressing the button is a gesture, and if it is determined to be a gesture, the gesture is transmitted to the OS as an event corresponding to the gesture. If it is determined that the gesture is not a gesture, it is transmitted to the OS as a mouse drag event when the right mouse button is pressed.
【0031】図6は、ジェスチャー判定処理の一例を示
したフローチャートである。ジェスチャーボタン押下時
に入力されたペンのデータがジェスチャーであるか否か
の判定処理を行う。この際、ジェスチャーボタン押下時
に、ペンによってタッチパネルに押下されてから一定時
間以内に離された場合(ステップ601のY)、ジェス
チャーではないと判断し、マウスの右ボタンによる操作
イベントをOSに対して送信する(ステップ515へ進
む)。FIG. 6 is a flowchart showing an example of the gesture determination process. A determination process is performed to determine whether or not the pen data input when the gesture button is pressed is a gesture. At this time, when the gesture button is pressed, if it is released within a predetermined time after being pressed by the pen on the touch panel (Y in step 601), it is determined that the gesture is not a gesture, and an operation event by the right mouse button is transmitted to the OS. Transmit (proceed to step 515).
【0032】また、一定時間以内に離されなかった場合
(ステップ601のN)で、一定時間以内にドラッグさ
れた場合は(ステップ603のY)、ジェスチャーであ
るとみなし、ジェスチャー入力処理(ステップ511)
へ進む。そしてステップ処理511では、前述したジェ
スチャー入力処理の手順に従って処理される。一方、一
定時間以内にドラッグされなかった場合は(ステップ6
03のN)、ジェスチャーではないと判断し、マウスの
右ボタンによる操作イベントをOSに対して送信する
(ステップ515へ進む)。If the user has not been released within a certain period of time (N in step 601), and if the user has been dragged within a certain period of time (Y in step 603), it is regarded as a gesture and a gesture input process (step 511). )
Proceed to. Then, in step processing 511, processing is performed according to the procedure of the gesture input processing described above. On the other hand, if it is not dragged within a certain time (step 6
(N of 03), it is determined that the gesture is not a gesture, and an operation event by the right button of the mouse is transmitted to the OS (proceed to step 515).
【0033】すなわち、この実施例ではユーザのペン操
作によるタッチパネル押下後すぐに離されたらマウスの
右クリックとし、タッチパネル押下後しばらくペンが停
止し、その後動いた場合はマウスの右クリックによるド
ラッグとしみなし、この2つの条件でジェスチャーと非
ジェスチャーを区別している。すなわち、ジェスチャー
ボタン押下時に、タッチパネル上にペンで書き込まれる
動作はすべてジェスチャーであると判定する。逆に、タ
ッチパネル上に1回だけタッピングをされた場合は右ボ
タンクリック、タッチパネル上をペンで押されてしばら
く静止し、その後動かされた場合は右ボタンによるドラ
ッグ入力であると判定する。That is, in this embodiment, the mouse is right-clicked if released immediately after the touch panel is pressed by the user's pen operation, and the pen is stopped for a while after the touch panel is pressed, and if the mouse is moved thereafter, it is regarded as a drag by the mouse right-click. Gestures and non-gestures are distinguished by these two conditions. That is, when the gesture button is pressed, all operations written with the pen on the touch panel are determined to be gestures. Conversely, when tapping is performed only once on the touch panel, the right button is clicked. On the touch panel, the pen is pressed with a pen to stand still for a while, and when moved thereafter, it is determined that the drag input is performed by the right button.
【0034】上記の方法により、1つのボタンによって
実施例1の機能と実施例2の機能の両立を果たすことが
できる。もちろん、右ボタン模擬用ボタンとジェスチャ
ーボタンといった複数のボタンをペンPCに配置し、モ
ードに応じたボタンを押下する方法も考えられる。According to the above-described method, both the functions of the first embodiment and the functions of the second embodiment can be achieved by one button. Of course, a method of arranging a plurality of buttons such as a right button simulation button and a gesture button on the pen PC and pressing a button according to the mode is also conceivable.
【0035】また前述したように、ペンによる入力が、
ボタン非押下時にはマウスの左ボタンによるイベントと
して、ボタン押下時にはマウスの右ボタンによるイベン
ト、又はジェスチャー入力として取り扱われる。つま
り、ボタンの押下/非押下によって、ペンの動作モード
が切り替わっている。このことを画面上に表示して、ユ
ーザにモードの違いをフィードバックすることがユーザ
インタフェースの観点から見て望ましい。その為、第1
図のカーソル107(ジェスチャーボタン非押下時のカ
ーソル)や第4図のカーソル405(ジェスチャーボタ
ン押下時のカーソル)のように、ボタン押下時と非押下
時でカーソルの形状や色を変化させることにより、ユー
ザにモードの違いをフィードバックさせるようにしても
よい。このように、ペン入力型コンピュータにジェスチ
ャー認識機能を組み込むことにより、ペンならではの操
作性を持つコンピュータを実現できる。As described above, the input by the pen is
When the button is not pressed, it is handled as an event by the left mouse button, and when the button is pressed, it is handled as an event by the right mouse button or a gesture input. That is, the operation mode of the pen is switched by pressing / non-pressing the button. It is desirable from the viewpoint of the user interface to display this on the screen and feed back the difference in the mode to the user from the viewpoint of the user interface. Therefore, the first
Like the cursor 107 (cursor when the gesture button is not pressed) in the figure and the cursor 405 (cursor when the gesture button is pressed) in FIG. 4, by changing the shape and color of the cursor between when the button is pressed and when it is not pressed. Alternatively, the user may be fed back the difference between the modes. As described above, by incorporating the gesture recognition function into the pen input type computer, a computer having operability unique to the pen can be realized.
【0036】[0036]
【発明の効果】以上詳述したように本発明のペン入力装
置によれば、ペンならではの入力操作であるジェスチャ
ー入力を認識し、マウスやキーボードによる入力が行わ
れたことを示すイベントに変換を行うことにより、キー
ボード・マウスが整備された通常のPCで動作すること
を前提としたOSをペンPCで利用した場合において
も、ペンならではの操作性の良さを実現できる。As described in detail above, according to the pen input device of the present invention, a gesture input, which is an input operation unique to a pen, is recognized and converted into an event indicating that an input has been performed by a mouse or a keyboard. By doing so, good operability unique to the pen can be realized even when the pen PC uses an OS that is supposed to operate on a regular PC equipped with a keyboard and mouse.
【図1】本発明の第1の実施形態に係わるペン入力型パ
ーソナルコンピュータの概略構成図である。FIG. 1 is a schematic configuration diagram of a pen input type personal computer according to a first embodiment of the present invention.
【図2】本発明の第2の実施形態に係わるペンPCのソ
フトウエア構造のブロック図である。FIG. 2 is a block diagram of a software structure of a pen PC according to a second embodiment of the present invention.
【図3】タッチパネルドライバ202の動作の流れを示
したフローチャートである。FIG. 3 is a flowchart illustrating a flow of an operation of the touch panel driver 202.
【図4】ペン入力型コンピュータの画面のアイコン上で
「チェック」のジェスチャー動作を示したものである。FIG. 4 shows a gesture operation of “check” on an icon on a screen of a pen input type computer.
【図5】ジェスチャー入力時のタッチパネルドライバの
動作の流れを示したフローチャートである。FIG. 5 is a flowchart showing a flow of operation of the touch panel driver at the time of gesture input.
【図6】本発明の第3の実施形態に係わるペンPCのジ
ェスチャー判定処理の一例を示したフローチャートであ
る。FIG. 6 is a flowchart illustrating an example of a gesture determination process of a pen PC according to a third embodiment of the present invention.
【図7】本発明の第2、3の実施形態に係わるペンPC
のジェスチャー入力処理の流れを示したフローチャート
である。FIG. 7 is a pen PC according to the second and third embodiments of the present invention.
5 is a flowchart showing a flow of a gesture input process of FIG.
【図8】ジェスチャー入力確定処理の流れを示したフロ
ーチャートである。FIG. 8 is a flowchart illustrating a flow of a gesture input confirmation process.
101 ペン入力型パーソナルコンピュータ 102 タッチパネル内蔵LCDパネル 103、401 入力ペン 104、402 ジェスチャーボタン 105 キーボード 106、405 カーソル 403 アイコン 404 ジェスチャー軌跡 101 Pen input type personal computer 102 LCD panel with built-in touch panel 103, 401 Input pen 104, 402 Gesture button 105 Keyboard 106, 405 Cursor 403 Icon 404 Gesture locus
Claims (8)
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置において、 前記ペンの入力モードを切替える切替ボタンと、 この切替ボタンの押下時に入力された前記ペンによるポ
インティング入力を前記マウスの右ボタン押下によるイ
ベントに変換する第1の変換手段と、 前記切替ボタンの非押下時に入力された前記ペンによる
ポインティング入力を前記マウスの左ボタン押下による
イベントに変換する第2の変換手段と、 これら第1及び第2の変換手段によって変換された前記
各イベントを制御するイベント制御手段とを具備したこ
とを特徴とするペン入力装置。1. A pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software for a mouse is operated, a switch button for switching an input mode of the pen, First conversion means for converting a pointing input by the pen input when the switching button is pressed into an event by pressing the right button of the mouse; and a pointing input by the pen input when the switching button is not pressed. A pen input device comprising: a second conversion means for converting the event into an event by pressing a left button of the user; and an event control means for controlling each of the events converted by the first and second conversion means. .
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置において、 前記ペンの入力モードを切替える切替ボタンと、 この切替ボタンの押下時に入力された入力軌跡の形状を
少なくとも1種類以上のジェスチャーとして認識する認
識手段と、 前記認識手段の認識結果に応じたイベントを発生させる
イベント発生手段とを具備したことを特徴とするペン入
力装置。2. A pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software for a mouse is operated, a switch button for switching an input mode of the pen, A recognition unit configured to recognize a shape of an input trajectory input when the switching button is pressed as at least one type of gesture; and an event generation unit configured to generate an event according to a recognition result of the recognition unit. Pen input device.
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置において、 前記ペンの入力モードを切替える切替ボタンと、 この切替ボタンの押下時に入力された入力軌跡の形状を
少なくとも1種類以上のジェスチャーとして認識する認
識手段と、 前記切替ボタンの押下時に入力された前記ペンによるポ
インティング入力がジェスチャー入力であるか否か判定
するジェスチャー判定手段と、 この判定手段によってジェスチャー入力と判定された場
合、前記認識手段により認識された前記ジェスチャーに
応じたイベントに変換する第1の変換手段と、 前記判定手段によってジェスチャー入力ではないと判定
された場合、マウスの右ボタン押下時のイベントに変換
する第2の変換手段と、 これら第1及び第2の変換手段これら第1及び第2の変
換手段によって変換された前記各イベントを制御するイ
ベント制御手段とを具備したことを特徴とするペン入力
装置。3. A pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software for a mouse is operated, a switch button for switching an input mode of the pen, Recognition means for recognizing the shape of the input trajectory input when the switch button is pressed as at least one type of gesture, and determining whether or not the pointing input by the pen input when the switch button is pressed is a gesture input Gesture determination means; first conversion means for converting to an event corresponding to the gesture recognized by the recognition means when the gesture input is determined by the determination means; determination that the input is not a gesture input by the determination means The right mouse button Second conversion means for converting the event into an event at the time of pressing the button, and event control means for controlling each of the events converted by the first and second conversion means. A pen input device characterized by the above-mentioned.
がタッチパネル上のある点に押下され一定時間以内に離
された場合、前記ジェスチャー入力ではないと判定する
ことを特徴とする請求項3記載のペン入力装置。4. The pen according to claim 3, wherein the gesture determination unit determines that the gesture input is not performed when the pen is pressed to a certain point on the touch panel and released within a predetermined time. Input device.
がタッチパネル上のある点に押下され一定時間経過後に
前記ペンが押下されたまま動かされた場合、前記ジェス
チャー入力ではないと判定することを特徴とする請求項
3記載のペン入力装置。5. The gesture determining unit determines that the gesture input is not performed when the pen is pressed at a certain point on a touch panel and is moved while being pressed after a predetermined time has elapsed. The pen input device according to claim 3, wherein
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置のポインティング処理方法において、 前記ペンの入力モードを切替える切替ボタンを備え、 この切替ボタンの押下時に入力された前記ペンによるポ
インティング入力は前記マウスの右ボタン押下によるイ
ベントに変換し、 前記切替ボタンの非押下時に入力された前記ペンによる
ポインティング入力は前記マウスの左ボタン押下による
イベントに変換し、 これら変換された各イベントを制御することを特徴とす
るペン入力装置のポインティング処理方法。6. A pointing processing method for a pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software intended for using a mouse is operated, wherein the input mode of the pen is switched. A pointing input by the pen input when the switching button is pressed is converted into an event by pressing the right button of the mouse, and the pointing input by the pen input when the switching button is not pressed is a mouse input. A pointing processing method for a pen input device, comprising converting the events into events by pressing a left button and controlling each of the converted events.
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置のポインティング処理方法において、 前記ペンの入力モードを切替える切替ボタンを備え、 この切替ボタンの押下時に入力された入力軌跡の形状を
少なくとも1種類以上のジェスチャーとして認識し、 この認識結果に応じたイベントを発生させることを特徴
とするペン入力装置のポインティング処理方法。7. A pointing processing method for a pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software intended for using a mouse is operated, wherein the input mode of the pen is switched. A pointing processing method for a pen input device, comprising: recognizing a shape of an input trajectory input when the switching button is pressed as at least one type of gesture, and generating an event in accordance with the recognition result. .
るタッチパネルが表面に装着されるとともに、マウスを
用いることを対象としたソフトウェアが動作するペン入
力装置のポインティング処理方法において、 前記ペンの入力モードを切替える切替ボタンを備え、 この切替ボタンの押下時に入力された入力軌跡の形状を
少なくとも1種類以上のジェスチャーとして認識し、 前記切替ボタンの押下時に入力された前記ペンによるポ
インティング入力がジェスチャー入力であるか否かを判
定し、 この判定結果によってジェスチャー入力と判定された場
合、上記認識されたジェスチャーに応じたイベントに変
換し、 この判定結果によってジェスチャー入力ではないと判定
された場合、マウスの右ボタン押下時のイベントに変換
し、 これら変換された各イベントを制御することを特徴とす
るペン入力装置。8. A pointing processing method for a pen input device in which a touch panel for detecting a pointing input by a pen is mounted on a surface and software intended for using a mouse is operated, wherein the input mode of the pen is switched. A button, and recognizes the shape of the input trajectory input when the switching button is pressed as at least one type of gesture, and determines whether the pointing input by the pen input when the switching button is pressed is a gesture input. If the gesture input is determined based on the determination result, the event is converted to an event corresponding to the recognized gesture. If the determination result indicates that the gesture input is not performed, the event when the right mouse button is pressed is determined. And convert them into events A pen input device for controlling each of the events.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29774499A JP2001117686A (en) | 1999-10-20 | 1999-10-20 | Pen-inputting device and pointing processing method for the device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP29774499A JP2001117686A (en) | 1999-10-20 | 1999-10-20 | Pen-inputting device and pointing processing method for the device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001117686A true JP2001117686A (en) | 2001-04-27 |
Family
ID=17850624
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29774499A Pending JP2001117686A (en) | 1999-10-20 | 1999-10-20 | Pen-inputting device and pointing processing method for the device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2001117686A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006085703A (en) * | 2004-09-13 | 2006-03-30 | Microsoft Corp | Flick gesture |
JP2006244038A (en) * | 2005-03-02 | 2006-09-14 | Nec Corp | Cellphone |
JP2009169493A (en) * | 2008-01-11 | 2009-07-30 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method, and touch panel display control program |
JP2011060322A (en) * | 2010-12-06 | 2011-03-24 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method, and touch panel display control program |
JP2011090532A (en) * | 2009-10-23 | 2011-05-06 | Rakuten Inc | Terminal device, method and program for executing function, and information processing system |
WO2011079747A1 (en) * | 2009-12-31 | 2011-07-07 | 华为终端有限公司 | Point-touch input method and touch-screen mobile phone |
JP2012502393A (en) * | 2008-09-09 | 2012-01-26 | マイクロソフト コーポレーション | Portable electronic device with relative gesture recognition mode |
JP2012168619A (en) * | 2011-02-10 | 2012-09-06 | Sharp Corp | Touch drawing display device and operation method therefor |
JP2013254467A (en) * | 2012-06-06 | 2013-12-19 | Areson Technology Corp | Method for simulating touch screen operation by using mouse |
JP2014029649A (en) * | 2012-07-31 | 2014-02-13 | Kyocera Document Solutions Inc | Gesture management program and information processing device |
JP2014093090A (en) * | 2012-11-02 | 2014-05-19 | Samsung Electronics Co Ltd | Display device and display device control method |
JP2014135093A (en) * | 2014-04-23 | 2014-07-24 | Sharp Corp | Touch drawing display device and operation method therefor |
JP2015515040A (en) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | Device, method, and graphical user interface for sharing content objects in a document |
JPWO2015029222A1 (en) * | 2013-08-30 | 2017-03-02 | 富士通株式会社 | Information processing apparatus, display control program, and display control method |
US10191648B2 (en) | 2011-02-10 | 2019-01-29 | Sharp Kabushiki Kaisha | Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus |
JP2022522491A (en) * | 2019-03-01 | 2022-04-19 | 華為技術有限公司 | Gesture processing method and device |
JP2022090171A (en) * | 2020-12-07 | 2022-06-17 | レノボ・シンガポール・プライベート・リミテッド | Information processing apparatus and information processing method |
JP7455277B2 (en) | 2020-04-30 | 2024-03-25 | コックス スペース カンパニー リミテッド | An electronic device for controlling a host device using motion and mouse signals |
-
1999
- 1999-10-20 JP JP29774499A patent/JP2001117686A/en active Pending
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9417701B2 (en) | 2004-09-13 | 2016-08-16 | Microsoft Technology Licensing, Llc | Flick gesture |
JP2006085703A (en) * | 2004-09-13 | 2006-03-30 | Microsoft Corp | Flick gesture |
JP2006244038A (en) * | 2005-03-02 | 2006-09-14 | Nec Corp | Cellphone |
JP2009169493A (en) * | 2008-01-11 | 2009-07-30 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method, and touch panel display control program |
JP2012502393A (en) * | 2008-09-09 | 2012-01-26 | マイクロソフト コーポレーション | Portable electronic device with relative gesture recognition mode |
JP2011090532A (en) * | 2009-10-23 | 2011-05-06 | Rakuten Inc | Terminal device, method and program for executing function, and information processing system |
WO2011079747A1 (en) * | 2009-12-31 | 2011-07-07 | 华为终端有限公司 | Point-touch input method and touch-screen mobile phone |
JP2011060322A (en) * | 2010-12-06 | 2011-03-24 | Ntt Docomo Inc | Touch panel display control system, touch panel display control method, and touch panel display control program |
JP2012168619A (en) * | 2011-02-10 | 2012-09-06 | Sharp Corp | Touch drawing display device and operation method therefor |
US10191648B2 (en) | 2011-02-10 | 2019-01-29 | Sharp Kabushiki Kaisha | Touch drawing display apparatus and operation method thereof, image display apparatus allowing touch-input, and controller for the display apparatus |
US10803235B2 (en) | 2012-02-15 | 2020-10-13 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
US11783117B2 (en) | 2012-02-15 | 2023-10-10 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
JP2015515040A (en) * | 2012-02-15 | 2015-05-21 | アップル インコーポレイテッド | Device, method, and graphical user interface for sharing content objects in a document |
US10289660B2 (en) | 2012-02-15 | 2019-05-14 | Apple Inc. | Device, method, and graphical user interface for sharing a content object in a document |
JP2013254467A (en) * | 2012-06-06 | 2013-12-19 | Areson Technology Corp | Method for simulating touch screen operation by using mouse |
JP2014029649A (en) * | 2012-07-31 | 2014-02-13 | Kyocera Document Solutions Inc | Gesture management program and information processing device |
JP2014093090A (en) * | 2012-11-02 | 2014-05-19 | Samsung Electronics Co Ltd | Display device and display device control method |
CN103813209A (en) * | 2012-11-02 | 2014-05-21 | 三星电子株式会社 | Display apparatus and control method for displaying an operational state of a user's input |
JPWO2015029222A1 (en) * | 2013-08-30 | 2017-03-02 | 富士通株式会社 | Information processing apparatus, display control program, and display control method |
JP2014135093A (en) * | 2014-04-23 | 2014-07-24 | Sharp Corp | Touch drawing display device and operation method therefor |
JP2022522491A (en) * | 2019-03-01 | 2022-04-19 | 華為技術有限公司 | Gesture processing method and device |
JP7391102B2 (en) | 2019-03-01 | 2023-12-04 | 華為技術有限公司 | Gesture processing methods and devices |
JP7455277B2 (en) | 2020-04-30 | 2024-03-25 | コックス スペース カンパニー リミテッド | An electronic device for controlling a host device using motion and mouse signals |
JP2022090171A (en) * | 2020-12-07 | 2022-06-17 | レノボ・シンガポール・プライベート・リミテッド | Information processing apparatus and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001117686A (en) | Pen-inputting device and pointing processing method for the device | |
TWI413922B (en) | Control method for touchpad and touch device using the same | |
JP3588201B2 (en) | Coordinate input device and control method thereof | |
US7533352B2 (en) | Method and apparatus for providing context menus on a hand-held device | |
JP2004265450A (en) | Coordinates input device | |
US8519960B2 (en) | Method and apparatus for switching of KVM switch ports using gestures on a touch panel | |
JP2006164238A (en) | Processing method of touch-pad input information, and processing apparatus of touch-pad input information | |
JP2011028524A (en) | Information processing apparatus, program and pointing method | |
JPH0580009B2 (en) | ||
JP3850570B2 (en) | Touchpad and scroll control method using touchpad | |
CN111770368A (en) | Control method and device for large-screen display equipment, storage medium and electronic equipment | |
CN102253744A (en) | Method for controlling touch panel and touch device using method | |
JP2012027957A (en) | Information processor, program and pointing method | |
EP0895153B1 (en) | Data input device and method | |
TWI547862B (en) | Multi - point handwriting input control system and method | |
JP2014241078A (en) | Information processing apparatus | |
JPH1195912A (en) | Coordinate input device, coordinate input method, and computer-readable recording medium recording coordinate input program | |
CN213780803U (en) | Intelligent wearable device with touch display screen | |
TWI709071B (en) | Touch pad driving system and method | |
KR101445720B1 (en) | A computer input apparatus | |
TWI682307B (en) | Computer system with mode switching capability and mode switching method | |
JP2002278699A (en) | Touch panel type input device | |
KR0135852B1 (en) | Operation data control device and method with remote contact input controller | |
CN116991291A (en) | Method for controlling computer by using mobile phone single hand | |
JPH08161107A (en) | Indirect input device for computer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050414 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050606 |