JP2013117784A - Input device, information terminal, input control method, and input control program - Google Patents
Input device, information terminal, input control method, and input control program Download PDFInfo
- Publication number
- JP2013117784A JP2013117784A JP2011263957A JP2011263957A JP2013117784A JP 2013117784 A JP2013117784 A JP 2013117784A JP 2011263957 A JP2011263957 A JP 2011263957A JP 2011263957 A JP2011263957 A JP 2011263957A JP 2013117784 A JP2013117784 A JP 2013117784A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- coordinates
- input
- finger
- detected
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04101—2.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/044—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、入力装置、情報端末、入力制御方法、および入力制御プログラムに関する。特に、タッチパネル等の物理表面に対するユーザの入力操作を受け付けるための技術に関する。 The present invention relates to an input device, an information terminal, an input control method, and an input control program. In particular, the present invention relates to a technique for accepting a user input operation on a physical surface such as a touch panel.
近年のスマートフォンを代表とする様々な携帯端末や、パーソナルコンピュータ等の情報処理機器においては、入力操作用のデバイスとしてタッチパネルを備えているものが多い。また、タッチパネルを用いた一般的な入力デバイスにおいては、タッチパネルの表面に対するユーザの指の接触/非接触の2種類の状態に基づいて入力操作を検出している。 In recent years, various portable terminals typified by smartphones and information processing devices such as personal computers often have a touch panel as a device for input operation. Further, in a general input device using a touch panel, an input operation is detected based on two types of states of contact / non-contact of a user's finger with respect to the surface of the touch panel.
また、スマートフォンのような携帯端末においては、種類が異なる様々な機能が備わっており、様々な機能の中からユーザが所望する機能をユーザの入力操作により選択的に実行する必要がある。しかし、一般的な入力デバイスでは、タッチパネルに対するタッチの有無だけでユーザの操作を識別しているので、様々な機能の中から所望の機能を選択して実行するために、ユーザは多くのタッチ操作を行わざるを得なかった。すなわち、ユーザ視点では、操作性は不十分であった。 In addition, a mobile terminal such as a smartphone has various functions of different types, and it is necessary to selectively execute a function desired by the user from among various functions by a user input operation. However, since a general input device identifies a user's operation only by touching the touch panel, in order to select and execute a desired function from various functions, the user performs many touch operations. I had to do it. That is, the operability is insufficient from the user viewpoint.
このような入力デバイスにおいてユーザの操作性を改善するための技術が、例えば特許文献1および特許文献2に開示されている。
For example,
特許文献1においては、タッチパネル面への物体(指やペン)の近接および接触を検知し、物体の接近する速度を把握して、この速度の高低に応じてコンテンツのモードを切り替えたりアイコンの拡大率を変更したりすることを提案している。
In
特許文献2においては、タッチパネル面へ指が接近した場合に、自動的に表示画面上に操作メニューを表示することを提案している。これによれば、表示される操作メニューの中に複数の操作ボタンを配置できるので、ユーザがタッチ操作するボタンを選択することで、実行すべき機能を切り替えることができる。 Patent Document 2 proposes that an operation menu is automatically displayed on a display screen when a finger approaches the touch panel surface. According to this, since a plurality of operation buttons can be arranged in the displayed operation menu, the function to be executed can be switched by selecting a button to be touched by the user.
しかしながら、特許文献1の技術では、どの程度の速度で指を近づければユーザが意図している動作が実行されるのかを事前にユーザが知ることはできない。従って、ユーザが思い通りに操作できない可能性が高く、ユーザは試行錯誤を繰り返しながら、時間をかけて操作方法を習得しなければならない。また、指を近づける速度を調整するために、ユーザは指をゆっくりと操作する必要があり、結果的に入力操作自体に時間がかかる。
However, in the technique of
特許文献2の技術では、ユーザから見て操作と実行される動作との対応関係が分かりやすいが、固定的にメニューを表示する動作だけであるため、汎用性がない。つまり、種類の異なる様々なメニューを表示することはできない。また、ユーザが操作のために指をタッチパネルに近づければ、意図していない場合でもメニューが表示されてしまうので、この動作をユーザが煩わしいと感じることも考えられる。 In the technique of Patent Document 2, the correspondence between the operation and the operation to be executed is easy to understand from the user's viewpoint, but since it is only the operation for displaying the menu in a fixed manner, it is not versatile. That is, various menus of different types cannot be displayed. In addition, if the user brings his finger close to the touch panel for operation, the menu is displayed even when not intended, so that the user may feel this operation troublesome.
本発明は、上記事情に鑑みてなされたものであって、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラムを提供することを目的とする。 The present invention has been made in view of the above circumstances, and can perform various types of operations according to user input operations and can improve user operability, An object is to provide an information terminal, an input control method, and an input control program.
本発明の入力装置は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、前記座標検出部により検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てる動作割当部と、前記座標検出部により検出されたいずれかの近接座標および前記座標検出部により検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、を備える。 The input device according to the present invention includes an input detection unit that detects the proximity and contact of a plurality of input units with respect to a predetermined coordinate area, and the proximity coordinate that is a proximity coordinate detected by the input detection unit and the input detection unit. A coordinate detection unit that detects a contact coordinate that is a detected coordinate at the time of contact, and each operation is assigned to each input means that is close to each proximity coordinate based on each proximity coordinate detected by the coordinate detection unit When the motion allocation unit and any of the proximity coordinates detected by the coordinate detection unit substantially match the contact coordinates detected by the coordinate detection unit, the motion allocation unit is configured to input means that has touched the contact coordinate. And an operation execution unit that executes the operation assigned by.
この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。 According to this configuration, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
また、本発明の情報端末は、上記入力装置を備える。 Moreover, the information terminal of this invention is provided with the said input device.
この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。 According to this configuration, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
また、本発明の入力制御方法は、所定の座標領域に対する複数の入力手段の近接および接触を検知するステップと、前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、前記検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てるステップと、前記検出されたいずれかの近接座標および前記検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、を有する。 The input control method of the present invention includes a step of detecting the proximity and contact of a plurality of input means with respect to a predetermined coordinate area, the proximity coordinates that are the detected proximity coordinates, and the detected coordinates at the time of contact. Detecting the contact coordinates, assigning each operation to each input means close to each proximity coordinate based on each detected proximity coordinate, any of the detected proximity coordinates and When the detected contact coordinates substantially coincide with each other, a step of executing the assigned operation on the input means that has touched the contact coordinates is included.
この方法によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。 According to this method, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
また、本発明の入力制御プログラムは、上記入力制御方法の各ステップをコンピュータに実行させるためのプログラムである。 The input control program of the present invention is a program for causing a computer to execute each step of the input control method.
このプログラムによれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。 According to this program, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference in the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.
本発明によれば、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能であり、ユーザの操作性を改善することも可能になる。 According to the present invention, various types of operations can be executed in accordance with the user's input operation, and the operability of the user can be improved.
本発明の実施形態について、各図を参照しながら以下に説明する。 Embodiments of the present invention will be described below with reference to the drawings.
本実施形態の入力装置の主要部の構成例が図1に示されている。入力装置100は、例えば、情報端末に搭載される。情報端末は、例えば、スマートフォン、携帯電話端末、携帯型情報端末、携帯型音楽プレーヤのような携帯型端末や、パーソナルコンピュータを代表とする様々な情報処理装置として構成されることが想定される。
An example of the configuration of the main part of the input device of this embodiment is shown in FIG. The
図1に示すように、この入力装置100は、表示部10、タッチパネル11、接近/接触判定部12、座標検出部13、動作制御部14、動作記憶部15、近接座標記憶部16、向き検出部17、および表示制御部18を備えている。
As illustrated in FIG. 1, the
なお、図1に示した近接/接触判定部12、座標検出部13、動作制御部14、および表示制御部18については、専用の電気回路のハードウェアで構成することもできるし、マイクロコンピュータが所定のプログラムを実行することにより実現することもできる。
Note that the proximity /
表示部10は、例えば液晶表示パネルにより構成され、文字、図形、画像などの様々な可視情報を表示可能な画面を有している。表示部10の表示内容は表示制御部18によって制御される。
The
タッチパネル11は、表示部10の画面と重ねた状態で配置された操作面を有しており、この操作面上の微小領域毎に、入力手段(指やスタイラスペンなど)の接近および接触を検出するために必要な機能を有している。
The
代表例としては、静電容量に基づいてタッチパネル11がその操作面に接近および接触する指などの入力手段を検出することが想定される。
As a representative example, it is assumed that the
接近/接触判定部12は、タッチパネル11が出力する電気信号に基づき、その操作面に接近した入力手段や接触した入力手段の有無を微小領域毎に判定する。タッチパネル11が静電容量を検出する場合には、操作面と入力手段との距離が小さくなるに従って静電容量が大きくなる。例えば、2種類の閾値と検出された静電容量の大きさとを比較することにより、「入力手段なし/近接した入力手段あり/接触した入力手段あり」の3種類の状態を識別できる。また、操作面の微小領域毎に入力手段を検出するので、互いに独立した異なる領域で複数の入力手段の接近および接触を同時に検出することができる。
Based on the electrical signal output from the
座標検出部13は、接近/接触判定部12が接近又は接触を検出したそれぞれの入力手段について、該当する位置の座標を検出する。タッチパネル11の操作面に対応する座標面11Aが、例えば図8に示すように左上を原点P1(0,0)とし、図8において右方向に向かうx軸と、下方向に向かうy座標とで構成される場合には、入力手段の検出位置と原点との距離に応じた(x,y)座標の値が、座標検出部13によって検出される。
The coordinate
動作制御部14は、接近/接触判定部12の判定結果および座標検出部13の検出結果に基づいて、検出された入力手段のそれぞれに動作を割り当てる。また、動作制御部14は、入力手段による入力操作を検出した場合、つまり接触状態を検出した場合に、割り当てられた動作を実行する。動作制御部14の具体的な動作については後で詳細に説明する。
The
動作記憶部15は、例えば読み出し専用メモリ(ROM)、あるいは不揮発性メモリのような記憶装置で構成されており、指などの入力手段のそれぞれに割り当てるべき動作を表す情報を保持している。例えば図6に示すような情報が動作記憶部15に予め保持されている。
The
近接座標記憶部16は、データの書き込み及び読み出しが自在なメモリ(RAM)により構成されており、動作制御部14の制御により、近接状態になった各入力手段の座標を表す情報を一時的に保持する。近接状態とは、タッチパネル11の操作面から比較的近い所定距離離れた状態(ホバー状態)である。
The proximity coordinate
向き検出部17は、表示部10やタッチパネル11の面がどのような向きで使用されているのかを検出する。例えば、加速度センサなどを用いてタッチパネル11の操作面の周端の4辺の中で最も地面に近い(低い)辺を検出したり、入力装置100を実際に使用しているユーザの体に近い辺を検出したりする。これにより、ユーザと入力装置100との相対的な位置関係を把握することができる。
The
表示制御部18は、ユーザが必要とする情報、例えば画像、図形、文字などを必要に応じて表示部10の画面上に表示させる。また、動作制御部14の状態に応じて、ユーザの操作に役立つ文字などのガイダンス情報を表示部10の画面上に表示させる。
The
次に、図1に示した入力装置100におけるタッチパネル11の操作面およびユーザの手の状態の例が図7及び図9に示されている。また、図7に示した状態で検出される座標面11A上の各指の領域が図8に示されている。
Next, examples of the operation surface of the
図7に示した状態では、タッチパネル11の操作面に比較的近い位置にユーザの手20が配置され、親指20a、人差し指20b、中指20c、薬指20d、小指20eの中で親指20a以外の指が操作面に対して近接状態になった場合を想定している。
In the state shown in FIG. 7, the user's
従って、図8に示すように、図7の人差し指20b、中指20c、薬指20d、小指20eの位置にそれぞれ対応する領域A1、A2、A3、A4で、近接状態の指がそれぞれ検出される。そして、動作制御部14が、領域A1、A2、A3、A4の指に対して、これらの並び順に従って番号を付与する。図8に示した例では、領域A1、A2、A3、A4の指に対して、x座標の値が小さい方から大きい方に向かって「指1」、「指2」、「指3」、「指4」の番号を付与している。
Therefore, as shown in FIG. 8, the fingers in the proximity state are respectively detected in the areas A1, A2, A3, and A4 corresponding to the positions of the
図9では、図7に示した状態からユーザが中指20cだけを更に動かして、中指20cをタッチパネル11の操作面に接触させた場合を想定している。つまり、ユーザが中指20cで何らかの操作を行おうとしている状態である。この時には、図8に示したように、4つの指の領域A1、A2、A3、A4がそれぞれ検出されており、接触した中指20cには指番号として「指2」が付与されている。
In FIG. 9, it is assumed that the user further moves only the
動作制御部14は、中指20cの接触検出により、「指2」に割り当てられた動作を実行する。「指2」に割り当てられた動作は、動作記憶部15に保持されている情報により決定される。例えば、図6に示したテーブルを利用する場合には、2番目の指番号(FN2)に対応付けられた動作を動作制御部14が実行する。
The
次に、図1に示した入力装置100の主要な動作の概要が図2に示されている。この動作を行う入力制御プログラムは、入力装置100内のROMに格納され、入力装置100内のCPUによって実行される。
Next, an outline of main operations of the
ステップS11では、動作制御部14は、接近/接触判定部12の状態を監視し、近接状態の指の有無および接触状態の指の有無を識別する。近接状態または接触状態の指が検出されている場合は次のステップS12に進む。基本的には、接近状態が検知される前に近接状態が検知される。
In step S <b> 11, the
ステップS12では、接近/接触判定部12が検出した近接状態の指および接触状態の指のそれぞれについて、座標検出部13が、該当する領域の位置座標(x,y)を検出する。また、動作制御部14が、検出された各々の指の位置座標の情報を、近接座標記憶部16に記憶する。
In step S12, the coordinate
ステップS13では、接近/接触判定部12が現在検出している全ての指について、動作制御部14が指番号を割り当てる。例えば、x座標の値が小さい順に並べて順番に番号を割り当てる。具体的な動作については後述する。
In step S <b> 13, the
ステップS14では、動作制御部14が、表示制御部18を制御して、表示部10の画面上に利用可能な指の操作に関する案内情報(ガイダンス)を表示させる。すなわち、近接状態になっているそれぞれの指を接触させた場合にどのような動作が行われるのかを表す文字などの情報を、指番号と動作記憶部15の内容とに基づいて表示する。
In step S <b> 14, the
例えば、図10に示した例では、人差し指20b、中指20cの2本の指が操作面に近接している状態を想定している。この場合、人差し指20bに近い位置に「拡大」のガイダンスG1が表示され、中指20cに近い位置に「詳細情報」のガイダンスG2が表示されている。この例では、1番目の指番号(指1)に割り当てられる動作が「拡大」であり、2番目の指番号(指2)に割り当てられる動作が「詳細情報(表示)」である。
For example, in the example shown in FIG. 10, it is assumed that two fingers, the
なお、指によりガイダンスG2が隠されないように、ガイダンスG2を指の位置座標(x、y)を避けて、例えば指の上方などに、表示しても良い。また、ユーザ設定により、ガイダンスの表示可否を選択可能にしてもよい。これにより、初心者に必要な情報を与え、熟練者に余計な提示をせず、必要に応じてガイダンスを表示させることで、使い勝手をよりよくする。 Note that the guidance G2 may be displayed, for example, above the finger, avoiding the position coordinates (x, y) of the finger so that the guidance G2 is not hidden by the finger. Further, whether to display the guidance may be selectable by user setting. As a result, necessary information is given to beginners, and guidance is displayed as needed without giving unnecessary presentation to skilled users, thereby improving usability.
ステップS15では、動作制御部14が、検出されている複数の指の中に接触状態の指があるか否かを識別する。接触した指がなければステップS11に戻り、接触した指がある場合はステップS16に進む。
In step S <b> 15, the
ステップS16では、動作制御部14が、検出されているそれぞれの指に割り当てられている動作を最終的に決定し、接触している指の操作に対応する動作を、入力操作として受け付ける。
In step S <b> 16, the
ステップS17では、動作制御部14が、表示部10の画面上に表示されている様々なコンテンツ(図示せず)の中で、接触が検出された指の位置座標に対応する特定のコンテンツを選択する。
In step S <b> 17, the
ステップS18では、動作制御部14が、ステップS16で受け付けた入力操作に従って、ステップS17で選択したコンテンツに関する処理を実行する。例えば、例えば画面上に様々な情報を表示する。
In step S18, the
なお、図2に示すステップS11〜S15の動作が繰り返し実行されるので、近接状態もしくは接触状態として検出される指は、ユーザの手および各指の操作状態に応じて逐次変化する。従って、実際に近接状態として検出される指の数などはユーザの意志に応じた手の位置などを反映した結果になる。つまり、ユーザは1本の指だけで操作することもできるし、2本〜5本の指を必要に応じて使い分けることもできる。また、検出される指の本数が変化すれば、各々の指に割り当てられる動作も逐次変更される。 Since the operations in steps S11 to S15 shown in FIG. 2 are repeatedly performed, the finger detected as the proximity state or the contact state sequentially changes according to the user's hand and the operation state of each finger. Therefore, the number of fingers that are actually detected as the proximity state reflects the position of the hand according to the user's will. That is, the user can operate with only one finger, and can use two to five fingers as needed. Further, if the number of detected fingers changes, the operation assigned to each finger is also changed sequentially.
次に、図2のステップS13に相当する詳細な動作が図3に示されている。 Next, a detailed operation corresponding to step S13 in FIG. 2 is shown in FIG.
ステップS21では、動作制御部14が、向き検出部17が出力する電気信号を監視して、タッチパネル11の向きが検出されているか否かを識別する。向きが検出されている場合は次のステップS22を実行する。
In step S <b> 21, the
ステップS22では、動作制御部14が、検出されたタッチパネル11の向きに応じた処理を行う。例えば、図8に示すような縦長の向きでユーザが入力装置100を使用している場合には、タッチパネル11の左上端部を原点P1とするx,y座標で位置が検出される。一方、横長の向きで使用する場合には、原点P1が左下端部、あるいは右上端部になるので、x,y軸の方向とユーザの手20および各指の並び方向との関係が変化する。
In step S <b> 22, the
従って、例えば、タッチパネル11を縦長の向きで使用する状態を基準とする場合には、動作制御部14が、横長の向きで使用する際に、縦長の場合と同様に原点P1がユーザから見て左上端部になるように座標変換を行う。これにより、複数の指の並び方向とx,y軸の方向との関係が変化するのを防止できる。あるいは、複数の指の領域(A1〜A4など)の並び順を特定する際に、x座標の代わりにy座標を参照する、又はx,y座標の値が大きい指から小さい指に向かって順番に番号を付けるようにしても良い。タッチパネル11を縦長の向きなど基準状態で使用する場合には、座標変換は行わず、予め定めた条件で複数の指の並び順を特定する。
Accordingly, for example, when the
ステップS23では、動作制御部14は、接近/接触判定部12が現在検出している近接状態の指(接触状態の指も含む)の数が複数か否かを識別する。複数の指を検出している場合はステップS26に進む。
In step S <b> 23, the
ステップS25では、ステップS23において検出中の指が複数でない場合には、動作制御部14は、検出中の指に指番号の初期値を割り当てる。例えば、図8に示す指番号の「指1」、「指2」、「指3」、「指4」、・・・や、図6に示す指番号FN1、FN2、FN3、・・・のように初期値である最小値が「1」の場合には、指番号の「指1(FN1)」を割り当てる。
In step S25, when there are not a plurality of fingers being detected in step S23, the
ステップS26では、ステップS23において検出中の指が複数である場合には、動作制御部14は、現在検出している近接状態の指(接触状態の指も含む)の全てについて、座標検出部13が検出した各指の位置座標をx座標の値が小さい順番に並べて、これらの指に順番に指番号を割り振る。
In step S26, when there are a plurality of fingers being detected in step S23, the
例えば、図7に示すように4本の指(20b,20c,20d,20e)が近接状態である時には、これらに対応する各領域A1〜A4の座標を図8に示すように、人差し指20b、中指20c、薬指20d、小指20eの順に並んでいる。従って、この場合はx軸方向の昇順で、人差し指20bに「指1」、中指20cに「指2」、薬指20dに「指3」、小指20eに「指4」の指番号を順に割り当てる。
For example, when four fingers (20b, 20c, 20d, 20e) are in proximity as shown in FIG. 7, the
ステップS27では、動作制御部14が、現在検出している近接状態の指(接触状態の指も含む)の全て、もしくは端部のみについて、隣接する指同士のy座標の値の差分Δyを算出し、これらを予め定めた閾値と比較する。
In step S <b> 27, the
例えば、図11に示すように、右手の5本の指20a、20b、20c、20d、20e全てがタッチパネル11の操作面に近接状態である時には、図12に示すように、各指20a、20b、20c、20d、20eに対応する領域A1〜A5が検出される。ここで、図12に示すように、領域A2〜A5の各位置のy座標は差がほとんどなくほぼ整列しているが、親指20aの領域A1のy座標だけが大きくずれている。
For example, as shown in FIG. 11, when all five
そこで、ステップS27では、複数の指の中で親指を特定するために、図12における領域A1−A2、A2−A3、A3−A4、A4−A5のy座標の差分Δyをそれぞれ算出し、これらを所定閾値と比較している。 Therefore, in step S27, in order to specify the thumb among the plurality of fingers, the difference Δy between the y coordinates of the regions A1-A2, A2-A3, A3-A4, A4-A5 in FIG. Is compared with a predetermined threshold.
ステップS28では、動作制御部14が、ステップS27の比較結果に基づき、端部の指のΔyが所定閾値以上か否か、つまり左端又は右端の指が親指か否かを識別する。
In step S28, based on the comparison result in step S27, the
ステップS29では、動作制御部14が、ステップS28で親指を検出した場合には、該当する端部の指を親指20aとして認識する。
In step S29, when the
ステップS30では、動作制御部14が、検出された親指20aに対して、特別な指番号を割り当てる。例えば親指だけに割り当て可能な指番号0「指0:FN0」を用意しておき、該当する指にこれを割り当てる。
In step S30, the
ステップS31では、動作制御部14が、ステップS29で検出した親指20aと、それ以外の指との並び順(位置関係)に基づいて、右手/左手を識別する。例えば、図12に示すようにy座標の差分Δyが大きい領域A1が左端側にあって、A1よりもx座標が大きい位置に他の指が存在する場合には、右手として認識する。逆に、図13に示すように、y座標の差分Δyが大きい領域A5が右端側にあって、A5よりもx座標が小さい位置に他の指が存在する場合には、左手として認識する。
In step S31, the
次に、図2のステップS16に相当する詳細な動作の第1例が図4に示されている。 Next, FIG. 4 shows a first example of detailed operation corresponding to step S16 of FIG.
ステップS41では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指があるかを識別する。親指が検出済みの場合はステップS42の処理に進み、親指が未検出であればステップS45に進む。例えば、図12に示すような状態であればステップS42に進み、図8に示すような状態であればステップS45に進む。
In step S41, the
ステップS42では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作(削除処理等)を親指20aに対して割り当てる。
In step S42, the
ステップS43では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS44に進み、未検出であればステップS45に進む。
In step S43, the
ステップS44では、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従い、それぞれの動作(例えば図6に示した動作)を順番に割り当てる。
In step S44, the
例えば図7、図8に示すように右手を使用する状態では、x座標の値の昇順に従ってS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順と、使用頻度が高い順番である人差し指20b、中指20c、薬指20d、小指20eの順とが一致している。従って、この場合はそのまま指番号の動作を割り当てる。つまり、左から1番目の指20bに指番号「指1」の動作を割り当て、左から2番目の指20cに「指2」の動作を割り当て、左から3番目の指20dに「指3」の動作を割り当て、左から4番目の指(20eに「指4」の動作を割り当てる。
For example, in the state where the right hand is used as shown in FIGS. 7 and 8, the finger numbers “
一方、図13に示すようにユーザが左手を使用している状態では、S26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順がx座標の値の降順になっている。従って、この場合は図13に示すように、指番号を付け替えてから各指に動作を割り当てる。すなわち、右から1番目の座標x1の指20bに指番号「指1」の動作を割り当て、右から2番目の座標x2の指20cに「指2」の動作を割り当て、右から3番目の座標x3の指20dに「指3」の動作を割り当て、右から4番目の座標x4の指20eに「指4」の動作を割り当てる。
On the other hand, when the user uses the left hand as shown in FIG. 13, the arrangement order of the finger numbers “
ステップS45では、右手/左手の区別ができない状態なので、動作制御部14は、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。
Since the right hand / left hand cannot be distinguished in step S45, the
次に、図2のステップS16に相当する詳細な動作の第2例が図5に示されている。 Next, a second example of detailed operation corresponding to step S16 in FIG. 2 is shown in FIG.
タッチパネル11の種類によっては、タッチパネル11の操作面における静電容量の検出により指の近接状態/接触状態を検出する場合には、指の接触時に接触した指以外の近接状態の各指の座標が検出できなくなるものがある。この場合は図5に示した処理を採用する。
Depending on the type of the
ステップS51では、動作制御部14が、近接座標が検出不可能な状態か否かを識別する。例えば、指の接触を検出した時、それまでに検出していた近接状態の指を検出できなくなった時、あるいは検出している指の数が減少した時のような場合には、近接座標が検出不可能であるとみなして次のステップS52に進む。それ以外の場合はステップS54に進む。
In step S51, the
ステップS52では、動作制御部14が、直前(指が接触する前)に検出された近接状態の各指の座標(近接座標)を近接座標記憶部16から読み込み、近接状態および接触状態の全ての指の座標位置を把握する。
In step S52, the
ステップS53では、動作制御部14が、図3の「指番号の割り当て処理」を再び実行する。つまり、近接座標記憶部16から読み込んだ各指の座標に基づいて、近接状態および接触状態の全ての指に指番号を割り当てる。
In step S53, the
ステップS54では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指を検出中か否かを識別する。親指が検出済みの場合はステップS55の処理に進み、親指が未検出であればステップS58に進む。
In step S54, the
ステップS55では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作を親指に対して割り当てる。
In step S55, the
ステップS56では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS57に進み、未検出であればステップS58に進む。
In step S56, the
ステップS57では、図4のステップS44と同様に、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従いそれぞれの動作(例えば図6に示した動作)を順番に割り当てる。
In step S57, as in step S44 of FIG. 4, the
ステップS58では、右手/左手の区別ができない状態なので、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。
Since the right hand / left hand cannot be distinguished in step S58, the finger numbers are not rearranged. For example, the finger numbers “
このような図5の処理によれば、タッチパネル11の種類によらず、複数の指に動作を割り当て、その動作を実行することができる。
According to the processing in FIG. 5, it is possible to assign an operation to a plurality of fingers and execute the operation regardless of the type of the
次に、状況と指番号と動作との対応関係を表すテーブルの構成例が図6に示されている。このテーブルは図1に示した動作記憶部15上に配置される。
Next, FIG. 6 shows a configuration example of a table indicating the correspondence between the situation, the finger number, and the action. This table is arranged on the
動作制御部14は、図6に示したような構成のテーブルを前述の各ステップS44、S45、S57、S58で参照することにより、入力装置100の現在の状況に応じて、ユーザの手の各指に割り当てる動作を切り替えることができる。
The
図6に示した例では、状況C1は、画像一覧を表示する特定のアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標が該当する画像のアイコンの座標とほぼ一致する場合に相当する。また、状況C2は、電子メールのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がメール一覧表示中のメールアイコン又はリスト中の1項目の座標とほぼ一致する場合に相当する。状況C3は、カメラのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がカメラプレビュー中の任意の場所の座標とほぼ一致する場合に相当する。
In the example illustrated in FIG. 6, the situation C <b> 1 is substantially coincident with the coordinates of the icon of the corresponding image when the
例えば、状況C1に該当する場合には、指番号「指1(FN1)」に対応する指に対して「選択画像の拡大表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「選択画像の詳細情報表示」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メーラのアプリケーションを起動して選択画像をメールに添付する」の動作が割り当てられる。 For example, in the case of the situation C1, the operation “enlarged display of selected image” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. Further, an operation of “display detailed information of selected image” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”. In addition, an operation of “launch mailer application and attach selected image to mail” is assigned to the finger corresponding to finger number “finger 3 (FN3)”.
また、状況C2に該当する場合には、指番号「指1(FN1)」に対応する指に対して「メールの本文表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「メールに返信」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メールを転送」の動作が割り当てられる。 Further, in the case of the situation C2, the operation of “display text of mail” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. In addition, the “reply to mail” operation is assigned to the finger corresponding to the finger number “finger 2 (FN2)”. In addition, an operation of “forward mail” is assigned to the finger corresponding to the finger number “finger 3 (FN3)”.
また、状況C3に該当する場合には、指番号「指1(FN1)」に対応する指に対して「接触箇所にフォーカスを合わせて撮影する」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「接触箇所にフォーカスを合わせてフォーカスをロックする」の動作が割り当てられる。 When the situation corresponds to the situation C3, an operation of “photograph with the focus on the contact location” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. In addition, an operation of “focus on the contact location and lock the focus” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”.
なお、図6に示したテーブルの内容は、指番号及び状況に対応付けて予め決定されて、動作記憶部15上にあらかじめ保持されるだけでなく、入力操作により書き換え可能となるようにしてもよい。これにより、ユーザの好みや環境に合わせて各指に割り当てる動作を変更することで、入力操作の効率をより改善することができる。
Note that the contents of the table shown in FIG. 6 are determined in advance in association with the finger number and the situation and are not only stored in advance in the
このように、本実施形態の入力装置(例えば入力装置100)は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部(例えばタッチパネル11)と、入力検知部により検知された近接時の座標である近接座標および入力検知部により検出された接触時の座標である接触座標を検出する座標検出部(例えば座標検出部13)と、座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部(例えば動作制御部14)と、座標検出部により検出された接触座標へ接触した入力手段に対して動作割当部により割り当てられた動作を実行する動作実行部(例えば動作制御部14)と、を備える。 As described above, the input device (for example, the input device 100) of the present embodiment is detected by the input detection unit (for example, the touch panel 11) that detects the proximity and contact of a plurality of input units with respect to a predetermined coordinate area, and the input detection unit. A coordinate detection unit (for example, coordinate detection unit 13) that detects the proximity coordinate that is the coordinate at the time of proximity and the contact coordinate that is the coordinate at the time of contact detected by the input detection unit, and each coordinate detected by the coordinate detection unit. Based on the motion allocation unit (for example, the motion control unit 14) that assigns each motion to each input unit that is close to or touches each coordinate, and the input unit that touches the contact coordinate detected by the coordinate detection unit An operation execution unit (for example, the operation control unit 14) that executes the operation allocated by the allocation unit.
これにより、例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。また、一般的なタッチパネルの操作と同様に、単純なタッチ操作だけで割り当てられた動作が実行されるので、操作方法の習得が容易である。また、実際に近接または接触した指の数に応じて実行可能な動作の数を変更できるので、汎用性が高い。 Thereby, the operation | movement performed by the difference of the finger to operate can be switched, for example using the several finger | toe of a user's hand. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. In addition, as with a general touch panel operation, the assigned operation is executed only by a simple touch operation, so that it is easy to learn the operation method. In addition, since the number of actions that can be executed can be changed according to the number of fingers that are actually approaching or touching, the versatility is high.
また、入力装置は、動作割当部により割り当てられる動作の情報を表示する表示部(例えば表示部10)を備えてもよい。 In addition, the input device may include a display unit (for example, the display unit 10) that displays information on operations assigned by the operation assigning unit.
これにより、ユーザは各々の指を操作して接触した場合にどのような動作が行われるのかを事前に知ることができ、操作を習熟していない場合であっても、簡単に操作可能になる。 As a result, the user can know in advance what kind of operation will be performed when each finger is operated and touched, and even if the user is not familiar with the operation, it can be easily operated. .
また、入力装置は、座標検出部により検出された第1の座標(例えば図12における領域A1の座標)以外の他の座標(例えば、図12における領域A2〜A5の座標)が第1の方向(例えば図12におけるx方向)に略整列している場合、第1の座標へ近接または接触した入力手段が親指(例えば親指20a)であると判定する入力手段判定部(例えば動作制御部14)を備えてもよい。また、動作割当部は、入力手段判定部により親指であると判定された場合、親指に対して、他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作(例えば削除等の動作)を割り当ててもよい。
In addition, the input device has other coordinates (for example, coordinates of areas A2 to A5 in FIG. 12) other than the first coordinates (for example, coordinates of area A1 in FIG. 12) detected by the coordinate detection unit in the first direction. An input unit determination unit (for example, the operation control unit 14) that determines that the input unit that is close to or in contact with the first coordinate is the thumb (for example, the
これにより、ユーザは親指も利用できるため使用可能な指の数が増え、様々な種類の動作を指の違いで使い分けることが可能になる。さらに、親指には使用頻度の低い動作が割り当てられるので、効率的な入力操作が可能になる。 Accordingly, since the user can also use the thumb, the number of usable fingers is increased, and various types of movements can be selectively used depending on the finger. Furthermore, since an operation that is not frequently used is assigned to the thumb, an efficient input operation can be performed.
また、入力装置は、座標検出部により検出された第1の座標(例えば図12における領域A1の座標)以外の他の座標(例えば、図12における領域A2〜A5の座標)が第1の方向(例えば図12におけるx方向)に略整列している場合、第1の座標と他の座標との位置関係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部(例えば動作制御部14)を備えてもよい。また、動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。 In addition, the input device has other coordinates (for example, coordinates of areas A2 to A5 in FIG. 12) other than the first coordinates (for example, coordinates of area A1 in FIG. 12) detected by the coordinate detection unit in the first direction. In the case of being substantially aligned (for example, in the x direction in FIG. 12), a left / right determination that determines whether each input means is a finger of the left or right hand based on the positional relationship between the first coordinate and the other coordinates. A unit (for example, the operation control unit 14) may be provided. Further, the motion assigning unit may assign each motion to each input means that is close to or touches each coordinate based on whether each input means is a finger of the left or right hand.
これにより、ユーザの各指の使用頻度を考慮して、使用頻度の高い指(一般的には人差し指)には優先度の高い動作を割り当て、使用頻度の低い指(例えば小指)には優先度の低い動作を割り当てることができ、効率的な入力操作が可能になる。さらに、ユーザは必要に応じて右手と左手とを使い分けることができ、右手と左手を切り替えた場合でも各指に割り当てられる動作は同じであるので、操作が容易である。 Thus, taking into account the frequency of use of each finger of the user, a high-priority operation (generally the index finger) is assigned a high-priority action, and a low-frequency-use finger (eg little finger) is assigned a priority. Can be assigned, and an efficient input operation becomes possible. Further, the user can use the right hand and the left hand as needed, and even when the right hand and the left hand are switched, the operation assigned to each finger is the same, and thus the operation is easy.
また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、左右判定部により各入力手段が第1の手(例えば右手)の指であると判定された場合、座標検出部により検出された座標における第1の方向の座標の順(例えば図12におけるx方向の昇順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。また、動作割当部は、左右判定部により各入力手段が第2の手(例えば左手)の指であると判定された場合、座標検出部13により検出された座標における第1の方向の座標の順とは逆順(例えば図12におけるx方向の降順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。
The input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations. When the left and right determination unit determines that each input means is a finger of the first hand (for example, the right hand), the motion allocating unit determines the order of the coordinates in the first direction (for example, the coordinates detected by the coordinate detection unit) In the ascending order in the x direction in FIG. 12, each operation stored in the operation storage unit may be assigned to each input unit that approaches or touches each coordinate. In addition, when the left / right determination unit determines that each input unit is the finger of the second hand (for example, the left hand), the motion allocation unit determines the coordinates of the first direction in the coordinates detected by the coordinate
これにより、ユーザが左右の手を使い分ける場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。 As a result, even when the user uses both left and right hands, a plurality of types of actions can be assigned to each finger according to the priority order suitable for the user's operation.
また、入力装置は、当該入力装置の向きを検出する向き検出部(例えば向き検出部17)を備えてもよい。動作割当部は、向き検出部により検出された向きに基づいて、座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。 In addition, the input device may include a direction detection unit (for example, a direction detection unit 17) that detects the direction of the input device. The motion allocating unit may allocate each motion to each input unit that is close to or in contact with the coordinates detected by the coordinate detecting unit based on the direction detected by the direction detecting unit.
これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、ユーザの同じ指に対して同じ動作を割り当てることができ、効率的な入力操作が可能になる。 As a result, even when the user operates the input device in either the portrait or landscape orientation, the same operation can be assigned to the same finger of the user, and an efficient input operation can be performed.
また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、向き検出部により第1の向き(例えば入力装置が縦長の向き)が検出された場合、座標検出部により検出された座標における第1の方向の座標の順(例えば図12におけるx方向の順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。また、動作割当部は、向き検出部により検出された第1の向きと直交する第2の向き(例えば入力装置が横長の向き)が検出された場合、座標検出部により検出された座標における第2の方向の座標の順(例えば図12におけるy方向の順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。 The input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations. When the first direction is detected by the direction detection unit (for example, the input device is vertically long), the motion allocation unit is arranged in the order of the coordinates in the first direction in the coordinates detected by the coordinate detection unit (for example, in FIG. 12). In the order of the x direction, each operation stored in the operation storage unit may be assigned to each input means that is close to or touches each coordinate. In addition, when the second direction orthogonal to the first direction detected by the direction detection unit (for example, the input device is in the landscape orientation) is detected, the motion allocation unit detects the first in the coordinates detected by the coordinate detection unit. Each operation stored in the operation storage unit may be assigned to each input unit that is close to or in contact with each coordinate in the order of the coordinates in the two directions (for example, the order in the y direction in FIG. 12).
これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。 As a result, even when the user operates the input device in either portrait or landscape orientation, it is possible to assign a plurality of types of actions to each finger according to the priority order suitable for the user's operation.
また、入力装置は、座標検出部により検出された近接座標の情報を記憶する近接座標記憶部(例えば近接座標記憶部16)を備えてもよい。動作割当部は、座標検出部により検出された接触座標へ接触した入力手段と、近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当ててもよい。 Further, the input device may include a proximity coordinate storage unit (for example, the proximity coordinate storage unit 16) that stores information on the proximity coordinates detected by the coordinate detection unit. The motion allocating unit may allocate each motion to the input unit that has touched the contact coordinates detected by the coordinate detection unit and the input unit that has been close to the close coordinate stored by the close coordinate storage unit.
これにより、指の接触時に近接状態の他の指の座標が検知できなくなった場合であっても、必要な各指の座標を特定することができ、各指に動作を正しく割り当てることが可能になる。 As a result, even if the coordinates of other fingers in proximity cannot be detected at the time of finger contact, the coordinates of each necessary finger can be specified, and it is possible to correctly assign an action to each finger. Become.
本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。 The present invention is not limited to the configuration of the above-described embodiment, and can be applied to any configuration that can achieve the functions shown in the claims or the functions of the configuration of the present embodiment. Is possible.
また、本発明は、上記実施形態の機能を実現する入力制御プログラムを、ネットワークあるいは各種記憶媒体を介して入力装置に供給し、この入力装置内のコンピュータ(CPU)が読み出して実行するプログラムも適用範囲である。 The present invention also applies a program that supplies an input control program that realizes the functions of the above-described embodiments to an input device via a network or various storage media, and that is read and executed by a computer (CPU) in the input device. It is a range.
本発明は、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラム等に有用である。 The present invention enables an input device, an information terminal, an input control method, an input control program, and the like that can execute various types of operations according to a user's input operation and can improve user operability. Useful for.
10 表示部
11 タッチパネル
11A 座標面
12 接近/接触判定部
13 座標検出部
14 動作制御部
15 動作記憶部
16 近接座標記憶部
17 向き検出部
18 表示制御部
20 ユーザの手
20a 親指
20b 人差し指
20c 中指
20d 薬指
20e 小指
100 入力装置
C1,C2,C3 状況
G1,G2 ガイダンス情報
FN1,FN2,FN3 指番号
DESCRIPTION OF
Claims (11)
前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、
前記座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部と、
前記座標検出部により検出された接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、
を備える入力装置。 An input detection unit for detecting the proximity and contact of a plurality of input means with respect to a predetermined coordinate area;
A coordinate detection unit that detects proximity coordinates that are coordinates at the time of proximity detected by the input detection unit and contact coordinates that are coordinates at the time of contact detected by the input detection unit;
Based on each coordinate detected by the coordinate detection unit, an operation allocating unit that allocates each operation to each input means that approaches or touches each coordinate;
An operation execution unit that executes an operation assigned by the operation assigning unit to an input unit that has touched the contact coordinates detected by the coordinate detection unit;
An input device comprising:
前記動作割当部により割り当てられる動作の情報を表示する表示部を備える入力装置。 The input device according to claim 1, further comprising:
An input device comprising a display unit for displaying information on an operation assigned by the operation assigning unit.
前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標へ近接または接触した入力手段が親指であると判定する入力手段判定部を備え、
前記動作割当部は、前記入力手段判定部により親指であると判定された場合、前記親指に対して、前記他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作を割り当てる入力装置。 The input device according to claim 1, further comprising:
When other coordinates other than the first coordinates detected by the coordinate detection unit are substantially aligned in the first direction, an input for determining that the input means that is close to or in contact with the first coordinates is the thumb. A means determination unit,
The motion allocating unit has a lower priority than the operation allocated to the input unit that is close to or in contact with the other coordinates when the input unit determining unit determines that the thumb is the thumb. An input device that assigns actions.
前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標と前記他の座標との位置関係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部を備え、
前記動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。 The input device according to any one of claims 1 to 3, further comprising:
When other coordinates other than the first coordinates detected by the coordinate detection unit are substantially aligned in the first direction, each input is performed based on the positional relationship between the first coordinates and the other coordinates. A left / right determination unit for determining whether the means is a finger on the left or right hand;
The motion allocation unit is an input device that allocates each motion to each input unit that is in proximity to or in contact with each coordinate based on whether each input unit is a finger of the left or right hand.
複数の動作を順に記憶する動作記憶部を備え、
前記動作割当部は、前記左右判定部により各入力手段が第1の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記左右判定部により各入力手段が第2の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順とは逆順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。 The input device according to claim 4, further comprising:
An operation storage unit that sequentially stores a plurality of operations,
When the input / output determining unit determines that each input means is a finger of the first hand by the left / right determining unit, the motion allocating unit is arranged in the order of the coordinates in the first direction in the coordinates detected by the coordinate detecting unit. When each operation stored in the operation storage unit is assigned to each input unit that is close to or in contact with the coordinates, and the left and right determination unit determines that each input unit is a finger of the second hand, the coordinates An input device that assigns each operation stored in the operation storage unit to each input unit that is close to or in contact with each coordinate in the reverse order of the coordinate in the first direction in the coordinates detected by the detection unit.
当該入力装置の向きを検出する向き検出部を備え、
前記動作割当部は、前記向き検出部により検出された向きに基づいて、前記座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。 The input device according to any one of claims 1 to 5, further comprising:
An orientation detection unit for detecting the orientation of the input device;
The operation assigning unit is an input device that assigns each operation to each input unit that is close to or in contact with the coordinates detected by the coordinate detecting unit based on the direction detected by the direction detecting unit.
複数の動作を順に記憶する動作記憶部を備え、
前記動作割当部は、前記向き検出部により前記第1の向きが検出された場合、前記座標検出部により検出された座標における第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記向き検出部により検出された前記第1の向きと直交する第2の向きが検出された場合、前記座標検出部により検出された座標における前記第2の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。 The input device according to claim 6, further comprising:
An operation storage unit that sequentially stores a plurality of operations,
When the first direction is detected by the direction detection unit, the motion allocating unit is configured to input each of the coordinates approaching or touching each coordinate in the order of the coordinates in the first direction in the coordinates detected by the coordinate detection unit. When each movement stored in the movement storage unit is assigned to the means and a second direction orthogonal to the first direction detected by the direction detection unit is detected, the movement is detected by the coordinate detection unit. An input device that assigns each operation stored in the operation storage unit to each input means that approaches or touches each coordinate in the order of the coordinates in the second direction in the coordinates.
前記座標検出部により検出された近接座標の情報を記憶する近接座標記憶部を備え、
前記動作割当部は、前記座標検出部により検出された接触座標へ接触した入力手段と、前記近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当てる入力装置。 The input device according to any one of claims 1 to 7, further comprising:
A proximity coordinate storage unit that stores information of the proximity coordinates detected by the coordinate detection unit;
The motion allocating unit is an input device that allocates each motion to an input unit that is in contact with the contact coordinates detected by the coordinate detection unit and an input unit that is close to the proximity coordinates stored in the proximity coordinate storage unit. .
前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、
前記検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てるステップと、
前記検出された接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、
を有する入力制御方法。 Detecting proximity and contact of a plurality of input means with respect to a predetermined coordinate area;
Detecting proximity coordinates that are the detected proximity coordinates and contact coordinates that are the detected contact coordinates;
Assigning each action to each input means in proximity to or in contact with each coordinate based on each detected coordinate;
Performing the assigned action on the input means that has touched the detected contact coordinates;
An input control method comprising:
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263957A JP2013117784A (en) | 2011-12-01 | 2011-12-01 | Input device, information terminal, input control method, and input control program |
PCT/JP2012/006728 WO2013080425A1 (en) | 2011-12-01 | 2012-10-19 | Input device, information terminal, input control method and input control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011263957A JP2013117784A (en) | 2011-12-01 | 2011-12-01 | Input device, information terminal, input control method, and input control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013117784A true JP2013117784A (en) | 2013-06-13 |
Family
ID=48534932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011263957A Pending JP2013117784A (en) | 2011-12-01 | 2011-12-01 | Input device, information terminal, input control method, and input control program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2013117784A (en) |
WO (1) | WO2013080425A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015229548A (en) * | 2014-06-04 | 2015-12-21 | 三菱電機株式会社 | Call registration device and call registration method of elevator |
KR20160128994A (en) * | 2014-03-03 | 2016-11-08 | 마이크로칩 테크놀로지 인코포레이티드 | System and method for gesture control |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102016003072A1 (en) * | 2016-03-12 | 2017-09-14 | Audi Ag | Operating device and method for detecting a user selection of at least one Bedienungsfuktion the operating device |
WO2023140340A1 (en) * | 2022-01-19 | 2023-07-27 | メタマティクス プライベート リミテッド | System, method, and program for realizing user interface based on finger identification |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358162A (en) * | 2001-06-01 | 2002-12-13 | Sony Corp | Picture display device |
JP4351599B2 (en) * | 2004-09-03 | 2009-10-28 | パナソニック株式会社 | Input device |
JP5086560B2 (en) * | 2006-04-12 | 2012-11-28 | トヨタ自動車株式会社 | Input device |
JP4899806B2 (en) * | 2006-11-08 | 2012-03-21 | トヨタ自動車株式会社 | Information input device |
EP2124139A4 (en) * | 2006-12-22 | 2013-01-09 | Panasonic Corp | User interface device |
JP4849412B2 (en) * | 2007-05-15 | 2012-01-11 | 三菱電機株式会社 | Information input display device |
JP2010244132A (en) * | 2009-04-01 | 2010-10-28 | Mitsubishi Electric Corp | User interface device with touch panel, method and program for controlling user interface |
JP5471137B2 (en) * | 2009-08-05 | 2014-04-16 | ソニー株式会社 | Display device, display method, and program |
-
2011
- 2011-12-01 JP JP2011263957A patent/JP2013117784A/en active Pending
-
2012
- 2012-10-19 WO PCT/JP2012/006728 patent/WO2013080425A1/en active Application Filing
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20160128994A (en) * | 2014-03-03 | 2016-11-08 | 마이크로칩 테크놀로지 인코포레이티드 | System and method for gesture control |
JP2017507416A (en) * | 2014-03-03 | 2017-03-16 | マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated | System and method for gesture control |
KR102388791B1 (en) | 2014-03-03 | 2022-04-21 | 마이크로칩 테크놀로지 인코포레이티드 | System and method for gesture control |
JP2015229548A (en) * | 2014-06-04 | 2015-12-21 | 三菱電機株式会社 | Call registration device and call registration method of elevator |
Also Published As
Publication number | Publication date |
---|---|
WO2013080425A1 (en) | 2013-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200012424A1 (en) | Method of operating a display unit and a terminal supporting the same | |
JP5759660B2 (en) | Portable information terminal having touch screen and input method | |
KR101304461B1 (en) | Method and apparatus of gesture-based user interface | |
US8866776B2 (en) | Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof | |
KR101424294B1 (en) | Multi-touch uses, gestures, and implementation | |
JP4734435B2 (en) | Portable game device with touch panel display | |
EP4116813A1 (en) | Method for execution of hand gesture commands, apparatus, system, and storage medium | |
JP5458783B2 (en) | Information processing apparatus, information processing method, and program | |
US20130234982A1 (en) | Mobile terminal and display control method | |
US20110060986A1 (en) | Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same | |
KR20110041915A (en) | Terminal and method for displaying data thereof | |
JP2015215907A (en) | Apparatus and method for controlling motion-based user interface | |
JP2013012021A (en) | Information processing apparatus, information processing method, program and remote operation system | |
JPWO2009031214A1 (en) | Portable terminal device and display control method | |
JP2010146032A (en) | Mobile terminal device and display control method | |
EP3267303A1 (en) | Multi-touch display panel and method of controlling the same | |
JP6142564B2 (en) | Information display device and display control program | |
US9367169B2 (en) | Method, circuit, and system for hover and gesture detection with a touch screen | |
JP5703422B2 (en) | Portable electronic devices | |
WO2015189710A2 (en) | Apparatus and method for disambiguating information input to a portable electronic device | |
JP6183820B2 (en) | Terminal and terminal control method | |
WO2013080425A1 (en) | Input device, information terminal, input control method and input control program | |
WO2013047023A1 (en) | Display apparatus, display method, and program | |
EP3433713B1 (en) | Selecting first digital input behavior based on presence of a second, concurrent, input | |
WO2014141799A1 (en) | Electronic device, information processing method, and information processing program |