Nothing Special   »   [go: up one dir, main page]

JP2013117784A - Input device, information terminal, input control method, and input control program - Google Patents

Input device, information terminal, input control method, and input control program Download PDF

Info

Publication number
JP2013117784A
JP2013117784A JP2011263957A JP2011263957A JP2013117784A JP 2013117784 A JP2013117784 A JP 2013117784A JP 2011263957 A JP2011263957 A JP 2011263957A JP 2011263957 A JP2011263957 A JP 2011263957A JP 2013117784 A JP2013117784 A JP 2013117784A
Authority
JP
Japan
Prior art keywords
unit
coordinates
input
finger
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2011263957A
Other languages
Japanese (ja)
Inventor
Koji Watanabe
浩司 渡邊
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2011263957A priority Critical patent/JP2013117784A/en
Priority to PCT/JP2012/006728 priority patent/WO2013080425A1/en
Publication of JP2013117784A publication Critical patent/JP2013117784A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/041012.5D-digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface and also measures the distance of the input means within a short range in the Z direction, possibly with a separate measurement setup
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an input device, etc. capable of performing various different kinds of operations responding to user's input operation while improving the operability for the user.SOLUTION: The input device includes: a touch panel 11 that detects proximity and contact of plural input means with respect to a predetermined coordinate region; a coordinate detection unit 13 that detects proximity coordinates which are the coordinates when a proximity is made with respect to the touch panel 11 and contact coordinates which are the coordinates when a contact is made to the touch panel 11; and an operation control section 14 that allots an operation to each input means which made the proximity or contact with the coordinates base on the detected coordinates and executes the operation allotted to the input means which comes into contact with the detected contact coordinates.

Description

本発明は、入力装置、情報端末、入力制御方法、および入力制御プログラムに関する。特に、タッチパネル等の物理表面に対するユーザの入力操作を受け付けるための技術に関する。   The present invention relates to an input device, an information terminal, an input control method, and an input control program. In particular, the present invention relates to a technique for accepting a user input operation on a physical surface such as a touch panel.

近年のスマートフォンを代表とする様々な携帯端末や、パーソナルコンピュータ等の情報処理機器においては、入力操作用のデバイスとしてタッチパネルを備えているものが多い。また、タッチパネルを用いた一般的な入力デバイスにおいては、タッチパネルの表面に対するユーザの指の接触/非接触の2種類の状態に基づいて入力操作を検出している。   In recent years, various portable terminals typified by smartphones and information processing devices such as personal computers often have a touch panel as a device for input operation. Further, in a general input device using a touch panel, an input operation is detected based on two types of states of contact / non-contact of a user's finger with respect to the surface of the touch panel.

また、スマートフォンのような携帯端末においては、種類が異なる様々な機能が備わっており、様々な機能の中からユーザが所望する機能をユーザの入力操作により選択的に実行する必要がある。しかし、一般的な入力デバイスでは、タッチパネルに対するタッチの有無だけでユーザの操作を識別しているので、様々な機能の中から所望の機能を選択して実行するために、ユーザは多くのタッチ操作を行わざるを得なかった。すなわち、ユーザ視点では、操作性は不十分であった。   In addition, a mobile terminal such as a smartphone has various functions of different types, and it is necessary to selectively execute a function desired by the user from among various functions by a user input operation. However, since a general input device identifies a user's operation only by touching the touch panel, in order to select and execute a desired function from various functions, the user performs many touch operations. I had to do it. That is, the operability is insufficient from the user viewpoint.

このような入力デバイスにおいてユーザの操作性を改善するための技術が、例えば特許文献1および特許文献2に開示されている。   For example, Patent Literature 1 and Patent Literature 2 disclose techniques for improving user operability in such an input device.

特許文献1においては、タッチパネル面への物体(指やペン)の近接および接触を検知し、物体の接近する速度を把握して、この速度の高低に応じてコンテンツのモードを切り替えたりアイコンの拡大率を変更したりすることを提案している。   In Patent Literature 1, the proximity and contact of an object (finger or pen) to the touch panel surface is detected, the speed at which the object approaches is grasped, and the content mode is switched or the icon is enlarged according to the level of this speed. Propose to change the rate.

特許文献2においては、タッチパネル面へ指が接近した場合に、自動的に表示画面上に操作メニューを表示することを提案している。これによれば、表示される操作メニューの中に複数の操作ボタンを配置できるので、ユーザがタッチ操作するボタンを選択することで、実行すべき機能を切り替えることができる。   Patent Document 2 proposes that an operation menu is automatically displayed on a display screen when a finger approaches the touch panel surface. According to this, since a plurality of operation buttons can be arranged in the displayed operation menu, the function to be executed can be switched by selecting a button to be touched by the user.

特開2010−205050号公報JP 2010-205050 A 特開2002−358162号公報JP 2002-358162 A

しかしながら、特許文献1の技術では、どの程度の速度で指を近づければユーザが意図している動作が実行されるのかを事前にユーザが知ることはできない。従って、ユーザが思い通りに操作できない可能性が高く、ユーザは試行錯誤を繰り返しながら、時間をかけて操作方法を習得しなければならない。また、指を近づける速度を調整するために、ユーザは指をゆっくりと操作する必要があり、結果的に入力操作自体に時間がかかる。   However, in the technique of Patent Document 1, the user cannot know in advance how fast the finger is brought to move the operation intended by the user. Therefore, there is a high possibility that the user cannot perform the operation as intended, and the user must learn the operation method over time while repeating trial and error. Further, in order to adjust the speed at which the finger is brought close, the user needs to operate the finger slowly, and as a result, the input operation itself takes time.

特許文献2の技術では、ユーザから見て操作と実行される動作との対応関係が分かりやすいが、固定的にメニューを表示する動作だけであるため、汎用性がない。つまり、種類の異なる様々なメニューを表示することはできない。また、ユーザが操作のために指をタッチパネルに近づければ、意図していない場合でもメニューが表示されてしまうので、この動作をユーザが煩わしいと感じることも考えられる。   In the technique of Patent Document 2, the correspondence between the operation and the operation to be executed is easy to understand from the user's viewpoint, but since it is only the operation for displaying the menu in a fixed manner, it is not versatile. That is, various menus of different types cannot be displayed. In addition, if the user brings his finger close to the touch panel for operation, the menu is displayed even when not intended, so that the user may feel this operation troublesome.

本発明は、上記事情に鑑みてなされたものであって、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラムを提供することを目的とする。   The present invention has been made in view of the above circumstances, and can perform various types of operations according to user input operations and can improve user operability, An object is to provide an information terminal, an input control method, and an input control program.

本発明の入力装置は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、前記座標検出部により検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てる動作割当部と、前記座標検出部により検出されたいずれかの近接座標および前記座標検出部により検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、を備える。   The input device according to the present invention includes an input detection unit that detects the proximity and contact of a plurality of input units with respect to a predetermined coordinate area, and the proximity coordinate that is a proximity coordinate detected by the input detection unit and the input detection unit. A coordinate detection unit that detects a contact coordinate that is a detected coordinate at the time of contact, and each operation is assigned to each input means that is close to each proximity coordinate based on each proximity coordinate detected by the coordinate detection unit When the motion allocation unit and any of the proximity coordinates detected by the coordinate detection unit substantially match the contact coordinates detected by the coordinate detection unit, the motion allocation unit is configured to input means that has touched the contact coordinate. And an operation execution unit that executes the operation assigned by.

この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。   According to this configuration, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.

また、本発明の情報端末は、上記入力装置を備える。   Moreover, the information terminal of this invention is provided with the said input device.

この構成によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。   According to this configuration, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.

また、本発明の入力制御方法は、所定の座標領域に対する複数の入力手段の近接および接触を検知するステップと、前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、前記検出された各近接座標に基づいて、各近接座標へ近接した各入力手段に対して各動作を割り当てるステップと、前記検出されたいずれかの近接座標および前記検出された接触座標が略一致する場合、前記接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、を有する。   The input control method of the present invention includes a step of detecting the proximity and contact of a plurality of input means with respect to a predetermined coordinate area, the proximity coordinates that are the detected proximity coordinates, and the detected coordinates at the time of contact. Detecting the contact coordinates, assigning each operation to each input means close to each proximity coordinate based on each detected proximity coordinate, any of the detected proximity coordinates and When the detected contact coordinates substantially coincide with each other, a step of executing the assigned operation on the input means that has touched the contact coordinates is included.

この方法によれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。   According to this method, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference of the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.

また、本発明の入力制御プログラムは、上記入力制御方法の各ステップをコンピュータに実行させるためのプログラムである。   The input control program of the present invention is a program for causing a computer to execute each step of the input control method.

このプログラムによれば、入力手段として例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能である。   According to this program, for example, a plurality of fingers of the user's hand can be used as input means, and the operation to be executed can be switched depending on the difference in the operated fingers. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. Various types of operations can be executed in accordance with user input operations, and user operability can be improved.

本発明によれば、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能であり、ユーザの操作性を改善することも可能になる。   According to the present invention, various types of operations can be executed in accordance with the user's input operation, and the operability of the user can be improved.

本発明の実施形態における入力装置の構成例を示すブロック図The block diagram which shows the structural example of the input device in embodiment of this invention 本発明の実施形態における入力装置の主要な動作例を示すフローチャートThe flowchart which shows the main operation examples of the input device in embodiment of this invention 図2のステップS13の処理における詳細な動作例を示すフローチャートThe flowchart which shows the detailed operation example in the process of step S13 of FIG. 図2のステップS16の処理における詳細な動作の第1例を示すフローチャートThe flowchart which shows the 1st example of the detailed operation | movement in the process of step S16 of FIG. 図2のステップS16の処理における詳細な動作の第2例を示すフローチャートThe flowchart which shows the 2nd example of the detailed operation | movement in the process of step S16 of FIG. 本発明の実施形態における状況と指番号と動作との対応関係を表すテーブルの構成例を示す模式図The schematic diagram which shows the structural example of the table showing the correspondence of the condition in the embodiment of this invention, a finger number, and operation | movement. 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第1例を示す平面図The top view which shows the 1st example of the operating surface of a touchscreen in embodiment of this invention, and the state of a user's hand. 図7の場合のタッチパネルにおける座標領域での各指の位置を示す模式図Schematic diagram showing the position of each finger in the coordinate area on the touch panel in the case of FIG. 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第2例を示す平面図The top view which shows the 2nd example of the operating surface of a touchscreen in embodiment of this invention, and a user's hand state 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第3例を示す平面図The top view which shows the 3rd example of the operation surface of a touchscreen in embodiment of this invention, and a user's hand state 本発明の実施形態におけるタッチパネルの操作面およびユーザの手の状態の第4例を示す平面図The top view which shows the 4th example of the operation surface of a touchscreen in embodiment of this invention, and a user's hand state 図11の場合のタッチパネルにおける座標領域での各指の位置を示す模式図Schematic diagram showing the position of each finger in the coordinate area on the touch panel in the case of FIG. 本発明の実施形態における左手で操作する場合のタッチパネルの操作面およびユーザの手の状態と、この場合のタッチパネルにおける座標領域での各指の位置の一例を示す図The figure which shows an example of the operation surface of a touch panel in the case of operating with the left hand in embodiment of this invention, and a user's hand state, and the position of each finger in the coordinate area | region in a touch panel in this case

本発明の実施形態について、各図を参照しながら以下に説明する。   Embodiments of the present invention will be described below with reference to the drawings.

本実施形態の入力装置の主要部の構成例が図1に示されている。入力装置100は、例えば、情報端末に搭載される。情報端末は、例えば、スマートフォン、携帯電話端末、携帯型情報端末、携帯型音楽プレーヤのような携帯型端末や、パーソナルコンピュータを代表とする様々な情報処理装置として構成されることが想定される。   An example of the configuration of the main part of the input device of this embodiment is shown in FIG. The input device 100 is mounted on an information terminal, for example. For example, the information terminal is assumed to be configured as a mobile terminal such as a smartphone, a mobile phone terminal, a mobile information terminal, a mobile music player, or various information processing apparatuses represented by a personal computer.

図1に示すように、この入力装置100は、表示部10、タッチパネル11、接近/接触判定部12、座標検出部13、動作制御部14、動作記憶部15、近接座標記憶部16、向き検出部17、および表示制御部18を備えている。   As illustrated in FIG. 1, the input device 100 includes a display unit 10, a touch panel 11, an approach / contact determination unit 12, a coordinate detection unit 13, a motion control unit 14, a motion storage unit 15, a proximity coordinate storage unit 16, and direction detection. A unit 17 and a display control unit 18 are provided.

なお、図1に示した近接/接触判定部12、座標検出部13、動作制御部14、および表示制御部18については、専用の電気回路のハードウェアで構成することもできるし、マイクロコンピュータが所定のプログラムを実行することにより実現することもできる。   Note that the proximity / contact determination unit 12, the coordinate detection unit 13, the operation control unit 14, and the display control unit 18 shown in FIG. 1 can be configured by hardware of a dedicated electric circuit, or a microcomputer. It can also be realized by executing a predetermined program.

表示部10は、例えば液晶表示パネルにより構成され、文字、図形、画像などの様々な可視情報を表示可能な画面を有している。表示部10の表示内容は表示制御部18によって制御される。   The display unit 10 is configured by, for example, a liquid crystal display panel, and has a screen capable of displaying various visible information such as characters, graphics, and images. The display content of the display unit 10 is controlled by the display control unit 18.

タッチパネル11は、表示部10の画面と重ねた状態で配置された操作面を有しており、この操作面上の微小領域毎に、入力手段(指やスタイラスペンなど)の接近および接触を検出するために必要な機能を有している。   The touch panel 11 has an operation surface arranged so as to overlap with the screen of the display unit 10, and detects the approach and contact of input means (finger, stylus pen, etc.) for each minute region on the operation surface. It has the necessary functions to do.

代表例としては、静電容量に基づいてタッチパネル11がその操作面に接近および接触する指などの入力手段を検出することが想定される。   As a representative example, it is assumed that the touch panel 11 detects an input unit such as a finger that approaches and contacts the operation surface based on the capacitance.

接近/接触判定部12は、タッチパネル11が出力する電気信号に基づき、その操作面に接近した入力手段や接触した入力手段の有無を微小領域毎に判定する。タッチパネル11が静電容量を検出する場合には、操作面と入力手段との距離が小さくなるに従って静電容量が大きくなる。例えば、2種類の閾値と検出された静電容量の大きさとを比較することにより、「入力手段なし/近接した入力手段あり/接触した入力手段あり」の3種類の状態を識別できる。また、操作面の微小領域毎に入力手段を検出するので、互いに独立した異なる領域で複数の入力手段の接近および接触を同時に検出することができる。   Based on the electrical signal output from the touch panel 11, the approach / contact determination unit 12 determines the presence / absence of an input unit that has approached or touched the operation surface for each micro area. When the touch panel 11 detects the capacitance, the capacitance increases as the distance between the operation surface and the input unit decreases. For example, by comparing two types of threshold values with the detected capacitance, three types of states “no input means / with adjacent input means / with touched input means” can be identified. Further, since the input means is detected for each minute area of the operation surface, the approach and contact of a plurality of input means can be detected simultaneously in different areas independent from each other.

座標検出部13は、接近/接触判定部12が接近又は接触を検出したそれぞれの入力手段について、該当する位置の座標を検出する。タッチパネル11の操作面に対応する座標面11Aが、例えば図8に示すように左上を原点P1(0,0)とし、図8において右方向に向かうx軸と、下方向に向かうy座標とで構成される場合には、入力手段の検出位置と原点との距離に応じた(x,y)座標の値が、座標検出部13によって検出される。   The coordinate detection unit 13 detects the coordinates of the corresponding position for each input means for which the approach / contact determination unit 12 has detected the approach or contact. The coordinate plane 11A corresponding to the operation surface of the touch panel 11 has an origin P1 (0, 0) at the upper left as shown in FIG. 8, for example, with an x-axis going to the right and a y-coordinate going down in FIG. When configured, the coordinate detection unit 13 detects the value of (x, y) coordinates corresponding to the distance between the detection position of the input means and the origin.

動作制御部14は、接近/接触判定部12の判定結果および座標検出部13の検出結果に基づいて、検出された入力手段のそれぞれに動作を割り当てる。また、動作制御部14は、入力手段による入力操作を検出した場合、つまり接触状態を検出した場合に、割り当てられた動作を実行する。動作制御部14の具体的な動作については後で詳細に説明する。   The motion control unit 14 assigns a motion to each of the detected input means based on the determination result of the approach / contact determination unit 12 and the detection result of the coordinate detection unit 13. The operation control unit 14 executes the assigned operation when an input operation by the input unit is detected, that is, when a contact state is detected. The specific operation of the operation control unit 14 will be described in detail later.

動作記憶部15は、例えば読み出し専用メモリ(ROM)、あるいは不揮発性メモリのような記憶装置で構成されており、指などの入力手段のそれぞれに割り当てるべき動作を表す情報を保持している。例えば図6に示すような情報が動作記憶部15に予め保持されている。   The operation storage unit 15 is configured by a storage device such as a read-only memory (ROM) or a nonvolatile memory, for example, and holds information representing an operation to be assigned to each input unit such as a finger. For example, information as shown in FIG. 6 is stored in the operation storage unit 15 in advance.

近接座標記憶部16は、データの書き込み及び読み出しが自在なメモリ(RAM)により構成されており、動作制御部14の制御により、近接状態になった各入力手段の座標を表す情報を一時的に保持する。近接状態とは、タッチパネル11の操作面から比較的近い所定距離離れた状態(ホバー状態)である。   The proximity coordinate storage unit 16 is configured by a memory (RAM) in which data can be written and read out, and temporarily stores information representing the coordinates of each input unit brought into a proximity state under the control of the operation control unit 14. Hold. The proximity state is a state (hover state) that is relatively close to a predetermined distance from the operation surface of the touch panel 11.

向き検出部17は、表示部10やタッチパネル11の面がどのような向きで使用されているのかを検出する。例えば、加速度センサなどを用いてタッチパネル11の操作面の周端の4辺の中で最も地面に近い(低い)辺を検出したり、入力装置100を実際に使用しているユーザの体に近い辺を検出したりする。これにより、ユーザと入力装置100との相対的な位置関係を把握することができる。   The orientation detection unit 17 detects in which orientation the surface of the display unit 10 or the touch panel 11 is used. For example, an acceleration sensor or the like is used to detect the side closest to the ground (low) among the four sides at the peripheral edge of the operation surface of the touch panel 11 or close to the body of the user who actually uses the input device 100. Detect edges. Thereby, the relative positional relationship between the user and the input device 100 can be grasped.

表示制御部18は、ユーザが必要とする情報、例えば画像、図形、文字などを必要に応じて表示部10の画面上に表示させる。また、動作制御部14の状態に応じて、ユーザの操作に役立つ文字などのガイダンス情報を表示部10の画面上に表示させる。   The display control unit 18 displays information required by the user, for example, images, graphics, characters, and the like on the screen of the display unit 10 as necessary. Further, guidance information such as characters useful for user operations is displayed on the screen of the display unit 10 according to the state of the operation control unit 14.

次に、図1に示した入力装置100におけるタッチパネル11の操作面およびユーザの手の状態の例が図7及び図9に示されている。また、図7に示した状態で検出される座標面11A上の各指の領域が図8に示されている。   Next, examples of the operation surface of the touch panel 11 and the state of the user's hand in the input device 100 illustrated in FIG. 1 are illustrated in FIGS. 7 and 9. Moreover, the area | region of each finger | toe on 11 A of coordinate planes detected in the state shown in FIG. 7 is shown by FIG.

図7に示した状態では、タッチパネル11の操作面に比較的近い位置にユーザの手20が配置され、親指20a、人差し指20b、中指20c、薬指20d、小指20eの中で親指20a以外の指が操作面に対して近接状態になった場合を想定している。   In the state shown in FIG. 7, the user's hand 20 is disposed at a position relatively close to the operation surface of the touch panel 11, and fingers other than the thumb 20a among the thumb 20a, the index finger 20b, the middle finger 20c, the ring finger 20d, and the little finger 20e are placed. The case where it will be in a proximity | contact state with respect to an operation surface is assumed.

従って、図8に示すように、図7の人差し指20b、中指20c、薬指20d、小指20eの位置にそれぞれ対応する領域A1、A2、A3、A4で、近接状態の指がそれぞれ検出される。そして、動作制御部14が、領域A1、A2、A3、A4の指に対して、これらの並び順に従って番号を付与する。図8に示した例では、領域A1、A2、A3、A4の指に対して、x座標の値が小さい方から大きい方に向かって「指1」、「指2」、「指3」、「指4」の番号を付与している。   Therefore, as shown in FIG. 8, the fingers in the proximity state are respectively detected in the areas A1, A2, A3, and A4 corresponding to the positions of the index finger 20b, the middle finger 20c, the ring finger 20d, and the little finger 20e in FIG. Then, the motion control unit 14 assigns numbers to the fingers in the areas A1, A2, A3, and A4 according to the arrangement order. In the example shown in FIG. 8, “finger 1”, “finger 2”, “finger 3”, “finger 1”, “finger 3”, The number “Finger 4” is assigned.

図9では、図7に示した状態からユーザが中指20cだけを更に動かして、中指20cをタッチパネル11の操作面に接触させた場合を想定している。つまり、ユーザが中指20cで何らかの操作を行おうとしている状態である。この時には、図8に示したように、4つの指の領域A1、A2、A3、A4がそれぞれ検出されており、接触した中指20cには指番号として「指2」が付与されている。   In FIG. 9, it is assumed that the user further moves only the middle finger 20 c from the state illustrated in FIG. 7 and brings the middle finger 20 c into contact with the operation surface of the touch panel 11. That is, the user is about to perform some operation with the middle finger 20c. At this time, as shown in FIG. 8, four finger areas A1, A2, A3, and A4 are detected, respectively, and “finger 2” is assigned as a finger number to the contacting middle finger 20c.

動作制御部14は、中指20cの接触検出により、「指2」に割り当てられた動作を実行する。「指2」に割り当てられた動作は、動作記憶部15に保持されている情報により決定される。例えば、図6に示したテーブルを利用する場合には、2番目の指番号(FN2)に対応付けられた動作を動作制御部14が実行する。   The motion control unit 14 executes the motion assigned to “finger 2” by detecting the contact of the middle finger 20c. The motion assigned to “finger 2” is determined by the information stored in the motion storage unit 15. For example, when the table shown in FIG. 6 is used, the operation control unit 14 executes an operation associated with the second finger number (FN2).

次に、図1に示した入力装置100の主要な動作の概要が図2に示されている。この動作を行う入力制御プログラムは、入力装置100内のROMに格納され、入力装置100内のCPUによって実行される。   Next, an outline of main operations of the input apparatus 100 shown in FIG. 1 is shown in FIG. An input control program for performing this operation is stored in the ROM in the input device 100 and is executed by the CPU in the input device 100.

ステップS11では、動作制御部14は、接近/接触判定部12の状態を監視し、近接状態の指の有無および接触状態の指の有無を識別する。近接状態または接触状態の指が検出されている場合は次のステップS12に進む。基本的には、接近状態が検知される前に近接状態が検知される。   In step S <b> 11, the motion control unit 14 monitors the state of the approach / contact determination unit 12 and identifies the presence / absence of the finger in the proximity state and the presence / absence of the finger in the contact state. If a proximity or contact finger is detected, the process proceeds to the next step S12. Basically, the proximity state is detected before the approach state is detected.

ステップS12では、接近/接触判定部12が検出した近接状態の指および接触状態の指のそれぞれについて、座標検出部13が、該当する領域の位置座標(x,y)を検出する。また、動作制御部14が、検出された各々の指の位置座標の情報を、近接座標記憶部16に記憶する。   In step S12, the coordinate detection unit 13 detects the position coordinates (x, y) of the corresponding region for each of the proximity finger and the contact finger detected by the approach / contact determination unit 12. Further, the motion control unit 14 stores the detected position coordinate information of each finger in the proximity coordinate storage unit 16.

ステップS13では、接近/接触判定部12が現在検出している全ての指について、動作制御部14が指番号を割り当てる。例えば、x座標の値が小さい順に並べて順番に番号を割り当てる。具体的な動作については後述する。   In step S <b> 13, the motion control unit 14 assigns finger numbers to all fingers currently detected by the approach / contact determination unit 12. For example, the x coordinate values are arranged in ascending order and numbers are assigned in order. Specific operations will be described later.

ステップS14では、動作制御部14が、表示制御部18を制御して、表示部10の画面上に利用可能な指の操作に関する案内情報(ガイダンス)を表示させる。すなわち、近接状態になっているそれぞれの指を接触させた場合にどのような動作が行われるのかを表す文字などの情報を、指番号と動作記憶部15の内容とに基づいて表示する。   In step S <b> 14, the operation control unit 14 controls the display control unit 18 to display guidance information (guidance) regarding available finger operations on the screen of the display unit 10. That is, information such as characters indicating what action is performed when each finger in the proximity state is brought into contact is displayed based on the finger number and the contents of the action storage unit 15.

例えば、図10に示した例では、人差し指20b、中指20cの2本の指が操作面に近接している状態を想定している。この場合、人差し指20bに近い位置に「拡大」のガイダンスG1が表示され、中指20cに近い位置に「詳細情報」のガイダンスG2が表示されている。この例では、1番目の指番号(指1)に割り当てられる動作が「拡大」であり、2番目の指番号(指2)に割り当てられる動作が「詳細情報(表示)」である。   For example, in the example shown in FIG. 10, it is assumed that two fingers, the index finger 20b and the middle finger 20c, are close to the operation surface. In this case, the “enlargement” guidance G1 is displayed near the index finger 20b, and the “detailed information” guidance G2 is displayed near the middle finger 20c. In this example, the action assigned to the first finger number (finger 1) is “enlargement”, and the action assigned to the second finger number (finger 2) is “detailed information (display)”.

なお、指によりガイダンスG2が隠されないように、ガイダンスG2を指の位置座標(x、y)を避けて、例えば指の上方などに、表示しても良い。また、ユーザ設定により、ガイダンスの表示可否を選択可能にしてもよい。これにより、初心者に必要な情報を与え、熟練者に余計な提示をせず、必要に応じてガイダンスを表示させることで、使い勝手をよりよくする。   Note that the guidance G2 may be displayed, for example, above the finger, avoiding the position coordinates (x, y) of the finger so that the guidance G2 is not hidden by the finger. Further, whether to display the guidance may be selectable by user setting. As a result, necessary information is given to beginners, and guidance is displayed as needed without giving unnecessary presentation to skilled users, thereby improving usability.

ステップS15では、動作制御部14が、検出されている複数の指の中に接触状態の指があるか否かを識別する。接触した指がなければステップS11に戻り、接触した指がある場合はステップS16に進む。   In step S <b> 15, the motion control unit 14 identifies whether or not there is a contact finger among the plurality of detected fingers. If there is no finger touched, the process returns to step S11, and if there is a finger touched, the process proceeds to step S16.

ステップS16では、動作制御部14が、検出されているそれぞれの指に割り当てられている動作を最終的に決定し、接触している指の操作に対応する動作を、入力操作として受け付ける。   In step S <b> 16, the motion control unit 14 finally determines a motion assigned to each detected finger, and accepts a motion corresponding to the operation of the touching finger as an input operation.

ステップS17では、動作制御部14が、表示部10の画面上に表示されている様々なコンテンツ(図示せず)の中で、接触が検出された指の位置座標に対応する特定のコンテンツを選択する。   In step S <b> 17, the motion control unit 14 selects specific content corresponding to the position coordinate of the finger where contact is detected from among various content (not shown) displayed on the screen of the display unit 10. To do.

ステップS18では、動作制御部14が、ステップS16で受け付けた入力操作に従って、ステップS17で選択したコンテンツに関する処理を実行する。例えば、例えば画面上に様々な情報を表示する。   In step S18, the operation control unit 14 executes processing related to the content selected in step S17 in accordance with the input operation received in step S16. For example, various information is displayed on a screen, for example.

なお、図2に示すステップS11〜S15の動作が繰り返し実行されるので、近接状態もしくは接触状態として検出される指は、ユーザの手および各指の操作状態に応じて逐次変化する。従って、実際に近接状態として検出される指の数などはユーザの意志に応じた手の位置などを反映した結果になる。つまり、ユーザは1本の指だけで操作することもできるし、2本〜5本の指を必要に応じて使い分けることもできる。また、検出される指の本数が変化すれば、各々の指に割り当てられる動作も逐次変更される。   Since the operations in steps S11 to S15 shown in FIG. 2 are repeatedly performed, the finger detected as the proximity state or the contact state sequentially changes according to the user's hand and the operation state of each finger. Therefore, the number of fingers that are actually detected as the proximity state reflects the position of the hand according to the user's will. That is, the user can operate with only one finger, and can use two to five fingers as needed. Further, if the number of detected fingers changes, the operation assigned to each finger is also changed sequentially.

次に、図2のステップS13に相当する詳細な動作が図3に示されている。   Next, a detailed operation corresponding to step S13 in FIG. 2 is shown in FIG.

ステップS21では、動作制御部14が、向き検出部17が出力する電気信号を監視して、タッチパネル11の向きが検出されているか否かを識別する。向きが検出されている場合は次のステップS22を実行する。   In step S <b> 21, the operation control unit 14 monitors the electrical signal output from the orientation detection unit 17 and identifies whether the orientation of the touch panel 11 is detected. If the direction is detected, the next step S22 is executed.

ステップS22では、動作制御部14が、検出されたタッチパネル11の向きに応じた処理を行う。例えば、図8に示すような縦長の向きでユーザが入力装置100を使用している場合には、タッチパネル11の左上端部を原点P1とするx,y座標で位置が検出される。一方、横長の向きで使用する場合には、原点P1が左下端部、あるいは右上端部になるので、x,y軸の方向とユーザの手20および各指の並び方向との関係が変化する。   In step S <b> 22, the operation control unit 14 performs processing according to the detected orientation of the touch panel 11. For example, when the user is using the input device 100 in a portrait orientation as shown in FIG. 8, the position is detected by the x and y coordinates with the upper left corner of the touch panel 11 as the origin P1. On the other hand, when used in a landscape orientation, since the origin P1 is the lower left end or the upper right end, the relationship between the direction of the x and y axes and the alignment direction of the user's hand 20 and each finger changes. .

従って、例えば、タッチパネル11を縦長の向きで使用する状態を基準とする場合には、動作制御部14が、横長の向きで使用する際に、縦長の場合と同様に原点P1がユーザから見て左上端部になるように座標変換を行う。これにより、複数の指の並び方向とx,y軸の方向との関係が変化するのを防止できる。あるいは、複数の指の領域(A1〜A4など)の並び順を特定する際に、x座標の代わりにy座標を参照する、又はx,y座標の値が大きい指から小さい指に向かって順番に番号を付けるようにしても良い。タッチパネル11を縦長の向きなど基準状態で使用する場合には、座標変換は行わず、予め定めた条件で複数の指の並び順を特定する。   Accordingly, for example, when the touch panel 11 is used in a portrait orientation, when the operation control unit 14 is used in a landscape orientation, the origin P1 is viewed from the user as in the portrait orientation. Coordinate conversion is performed so that the upper left corner is located. Thereby, it is possible to prevent the relationship between the arrangement direction of a plurality of fingers and the x and y axis directions from changing. Alternatively, when specifying the arrangement order of a plurality of finger areas (A1 to A4, etc.), the y coordinate is referred to instead of the x coordinate, or the order of the x and y coordinate values from the finger with the largest value toward the smaller finger You may make it number. When the touch panel 11 is used in a reference state such as a portrait orientation, coordinate conversion is not performed, and the arrangement order of a plurality of fingers is specified under predetermined conditions.

ステップS23では、動作制御部14は、接近/接触判定部12が現在検出している近接状態の指(接触状態の指も含む)の数が複数か否かを識別する。複数の指を検出している場合はステップS26に進む。   In step S <b> 23, the motion control unit 14 identifies whether there are a plurality of proximity fingers (including contact fingers) currently detected by the approach / contact determination unit 12. If a plurality of fingers are detected, the process proceeds to step S26.

ステップS25では、ステップS23において検出中の指が複数でない場合には、動作制御部14は、検出中の指に指番号の初期値を割り当てる。例えば、図8に示す指番号の「指1」、「指2」、「指3」、「指4」、・・・や、図6に示す指番号FN1、FN2、FN3、・・・のように初期値である最小値が「1」の場合には、指番号の「指1(FN1)」を割り当てる。   In step S25, when there are not a plurality of fingers being detected in step S23, the motion control unit 14 assigns an initial value of the finger number to the finger being detected. For example, the finger numbers “finger 1”, “finger 2”, “finger 3”, “finger 4”,..., And finger numbers FN1, FN2, FN3,. Thus, when the initial minimum value is “1”, the finger number “finger 1 (FN1)” is assigned.

ステップS26では、ステップS23において検出中の指が複数である場合には、動作制御部14は、現在検出している近接状態の指(接触状態の指も含む)の全てについて、座標検出部13が検出した各指の位置座標をx座標の値が小さい順番に並べて、これらの指に順番に指番号を割り振る。   In step S26, when there are a plurality of fingers being detected in step S23, the motion control unit 14 determines the coordinate detection unit 13 for all the proximity fingers (including the finger in contact state) that are currently detected. The position coordinates of the fingers detected by are arranged in the order of decreasing x-coordinate values, and finger numbers are assigned to these fingers in order.

例えば、図7に示すように4本の指(20b,20c,20d,20e)が近接状態である時には、これらに対応する各領域A1〜A4の座標を図8に示すように、人差し指20b、中指20c、薬指20d、小指20eの順に並んでいる。従って、この場合はx軸方向の昇順で、人差し指20bに「指1」、中指20cに「指2」、薬指20dに「指3」、小指20eに「指4」の指番号を順に割り当てる。   For example, when four fingers (20b, 20c, 20d, 20e) are in proximity as shown in FIG. 7, the index finger 20b, as shown in FIG. The middle finger 20c, the ring finger 20d, and the little finger 20e are arranged in this order. Therefore, in this case, in the ascending order in the x-axis direction, “finger 1” is assigned to the index finger 20b, “finger 2” to the middle finger 20c, “finger 3” to the ring finger 20d, and “finger 4” to the little finger 20e.

ステップS27では、動作制御部14が、現在検出している近接状態の指(接触状態の指も含む)の全て、もしくは端部のみについて、隣接する指同士のy座標の値の差分Δyを算出し、これらを予め定めた閾値と比較する。   In step S <b> 27, the motion control unit 14 calculates the difference Δy between the y-coordinate values of adjacent fingers with respect to all of the currently detected proximity fingers (including the finger in contact state) or only the end portions. These are compared with a predetermined threshold value.

例えば、図11に示すように、右手の5本の指20a、20b、20c、20d、20e全てがタッチパネル11の操作面に近接状態である時には、図12に示すように、各指20a、20b、20c、20d、20eに対応する領域A1〜A5が検出される。ここで、図12に示すように、領域A2〜A5の各位置のy座標は差がほとんどなくほぼ整列しているが、親指20aの領域A1のy座標だけが大きくずれている。   For example, as shown in FIG. 11, when all five fingers 20a, 20b, 20c, 20d, and 20e of the right hand are in proximity to the operation surface of the touch panel 11, as shown in FIG. , 20c, 20d, and 20e are detected. Here, as shown in FIG. 12, the y-coordinates of the respective positions in the areas A2 to A5 are almost aligned with little difference, but only the y-coordinate of the area A1 of the thumb 20a is largely shifted.

そこで、ステップS27では、複数の指の中で親指を特定するために、図12における領域A1−A2、A2−A3、A3−A4、A4−A5のy座標の差分Δyをそれぞれ算出し、これらを所定閾値と比較している。   Therefore, in step S27, in order to specify the thumb among the plurality of fingers, the difference Δy between the y coordinates of the regions A1-A2, A2-A3, A3-A4, A4-A5 in FIG. Is compared with a predetermined threshold.

ステップS28では、動作制御部14が、ステップS27の比較結果に基づき、端部の指のΔyが所定閾値以上か否か、つまり左端又は右端の指が親指か否かを識別する。   In step S28, based on the comparison result in step S27, the motion control unit 14 identifies whether Δy of the end finger is equal to or greater than a predetermined threshold, that is, whether the left end or right end finger is a thumb.

ステップS29では、動作制御部14が、ステップS28で親指を検出した場合には、該当する端部の指を親指20aとして認識する。   In step S29, when the motion control unit 14 detects the thumb in step S28, the finger of the corresponding end is recognized as the thumb 20a.

ステップS30では、動作制御部14が、検出された親指20aに対して、特別な指番号を割り当てる。例えば親指だけに割り当て可能な指番号0「指0:FN0」を用意しておき、該当する指にこれを割り当てる。   In step S30, the motion control unit 14 assigns a special finger number to the detected thumb 20a. For example, finger number 0 “finger 0: FN0” that can be assigned only to the thumb is prepared and assigned to the corresponding finger.

ステップS31では、動作制御部14が、ステップS29で検出した親指20aと、それ以外の指との並び順(位置関係)に基づいて、右手/左手を識別する。例えば、図12に示すようにy座標の差分Δyが大きい領域A1が左端側にあって、A1よりもx座標が大きい位置に他の指が存在する場合には、右手として認識する。逆に、図13に示すように、y座標の差分Δyが大きい領域A5が右端側にあって、A5よりもx座標が小さい位置に他の指が存在する場合には、左手として認識する。   In step S31, the motion control unit 14 identifies the right hand / left hand based on the arrangement order (positional relationship) between the thumb 20a detected in step S29 and the other fingers. For example, as shown in FIG. 12, when an area A1 having a large y-coordinate difference Δy is on the left end side and another finger is present at a position where the x-coordinate is larger than A1, it is recognized as the right hand. On the other hand, as shown in FIG. 13, when a region A5 having a large y coordinate difference Δy is on the right end side and another finger is present at a position where the x coordinate is smaller than A5, it is recognized as a left hand.

次に、図2のステップS16に相当する詳細な動作の第1例が図4に示されている。   Next, FIG. 4 shows a first example of detailed operation corresponding to step S16 of FIG.

ステップS41では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指があるかを識別する。親指が検出済みの場合はステップS42の処理に進み、親指が未検出であればステップS45に進む。例えば、図12に示すような状態であればステップS42に進み、図8に示すような状態であればステップS45に進む。   In step S41, the motion control unit 14 identifies whether or not the thumb 20a has been detected. For example, when the process shown in FIG. 3 is executed, it is identified whether there is a finger assigned the special finger number “finger 0”. If the thumb has been detected, the process proceeds to step S42. If the thumb has not been detected, the process proceeds to step S45. For example, if the state is as shown in FIG. 12, the process proceeds to step S42, and if the state is as shown in FIG. 8, the process proceeds to step S45.

ステップS42では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作(削除処理等)を親指20aに対して割り当てる。   In step S42, the motion control unit 14 assigns a special motion for the thumb 20a to the specific finger numbered by the thumb 20a. That is, since it is generally considered that the thumb 20a is used less frequently than other fingers, a predetermined action (such as a deletion process) having a lower priority (less frequently used) than the other fingers is used. Assign to.

ステップS43では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS44に進み、未検出であればステップS45に進む。   In step S43, the motion control unit 14 identifies whether the right hand / left hand classification of the hand currently used by the user has been detected. If detected, the process proceeds to step S44. Proceed to S45.

ステップS44では、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従い、それぞれの動作(例えば図6に示した動作)を順番に割り当てる。   In step S44, the motion control unit 14 sequentially performs each motion (for example, the motion illustrated in FIG. 6) on each finger other than the thumb 20a according to the order of the fingers according to the classification of the right hand / left hand. Assign to.

例えば図7、図8に示すように右手を使用する状態では、x座標の値の昇順に従ってS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順と、使用頻度が高い順番である人差し指20b、中指20c、薬指20d、小指20eの順とが一致している。従って、この場合はそのまま指番号の動作を割り当てる。つまり、左から1番目の指20bに指番号「指1」の動作を割り当て、左から2番目の指20cに「指2」の動作を割り当て、左から3番目の指20dに「指3」の動作を割り当て、左から4番目の指(20eに「指4」の動作を割り当てる。   For example, in the state where the right hand is used as shown in FIGS. 7 and 8, the finger numbers “finger 1”, “finger 2”, “finger 3”, “finger 4” assigned in S26 in ascending order of the x-coordinate values. And the order of the index finger 20b, the middle finger 20c, the ring finger 20d, and the little finger 20e, which are used in the order of frequency of use, coincide with each other. Therefore, in this case, the operation of the finger number is assigned as it is. That is, the motion of the finger number “finger 1” is assigned to the first finger 20b from the left, the motion of “finger 2” is assigned to the second finger 20c from the left, and “finger 3” is assigned to the third finger 20d from the left. And the fourth finger from the left (the operation of “finger 4” is assigned to 20e.

一方、図13に示すようにユーザが左手を使用している状態では、S26で割り振られた指番号「指1」、「指2」、「指3」、「指4」の並び順がx座標の値の降順になっている。従って、この場合は図13に示すように、指番号を付け替えてから各指に動作を割り当てる。すなわち、右から1番目の座標x1の指20bに指番号「指1」の動作を割り当て、右から2番目の座標x2の指20cに「指2」の動作を割り当て、右から3番目の座標x3の指20dに「指3」の動作を割り当て、右から4番目の座標x4の指20eに「指4」の動作を割り当てる。   On the other hand, when the user uses the left hand as shown in FIG. 13, the arrangement order of the finger numbers “finger 1”, “finger 2”, “finger 3”, “finger 4” allocated in S26 is x. The coordinate values are in descending order. Therefore, in this case, as shown in FIG. 13, the finger number is changed and an operation is assigned to each finger. That is, the motion of the finger number “finger 1” is assigned to the finger 20b of the first coordinate x1 from the right, the motion of “finger 2” is assigned to the finger 20c of the second coordinate x2 from the right, and the third coordinate from the right The motion of “finger 3” is assigned to the finger 3d of x3, and the motion of “finger 4” is assigned to the finger 20e of the fourth coordinate x4 from the right.

ステップS45では、右手/左手の区別ができない状態なので、動作制御部14は、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。   Since the right hand / left hand cannot be distinguished in step S45, the motion control unit 14 does not rearrange the finger numbers. For example, the finger numbers “finger 1” and “finger 2” assigned in step S26 of FIG. According to “finger 3” and “finger 4”, an operation (for example, the operation shown in FIG. 6) is assigned to each finger in order.

次に、図2のステップS16に相当する詳細な動作の第2例が図5に示されている。   Next, a second example of detailed operation corresponding to step S16 in FIG. 2 is shown in FIG.

タッチパネル11の種類によっては、タッチパネル11の操作面における静電容量の検出により指の近接状態/接触状態を検出する場合には、指の接触時に接触した指以外の近接状態の各指の座標が検出できなくなるものがある。この場合は図5に示した処理を採用する。   Depending on the type of the touch panel 11, when detecting the proximity / contact state of a finger by detecting capacitance on the operation surface of the touch panel 11, the coordinates of each finger in the proximity state other than the finger touched at the time of finger contact are determined. Some of them cannot be detected. In this case, the process shown in FIG. 5 is adopted.

ステップS51では、動作制御部14が、近接座標が検出不可能な状態か否かを識別する。例えば、指の接触を検出した時、それまでに検出していた近接状態の指を検出できなくなった時、あるいは検出している指の数が減少した時のような場合には、近接座標が検出不可能であるとみなして次のステップS52に進む。それ以外の場合はステップS54に進む。   In step S51, the motion control unit 14 identifies whether or not the proximity coordinates cannot be detected. For example, when the contact of a finger is detected, when the proximity finger that has been detected so far cannot be detected, or when the number of detected fingers decreases, the proximity coordinate is The process proceeds to the next step S52 on the assumption that it cannot be detected. Otherwise, the process proceeds to step S54.

ステップS52では、動作制御部14が、直前(指が接触する前)に検出された近接状態の各指の座標(近接座標)を近接座標記憶部16から読み込み、近接状態および接触状態の全ての指の座標位置を把握する。   In step S52, the motion control unit 14 reads the coordinates (proximity coordinates) of each finger in the proximity state detected immediately before (contact with the finger) from the proximity coordinate storage unit 16, and all of the proximity state and the contact state are read. Know the finger coordinate position.

ステップS53では、動作制御部14が、図3の「指番号の割り当て処理」を再び実行する。つまり、近接座標記憶部16から読み込んだ各指の座標に基づいて、近接状態および接触状態の全ての指に指番号を割り当てる。   In step S53, the operation control unit 14 executes the “finger number assignment process” in FIG. 3 again. That is, based on the coordinates of each finger read from the proximity coordinate storage unit 16, finger numbers are assigned to all fingers in the proximity state and the contact state.

ステップS54では、動作制御部14は、親指20aが検出済みか否かを識別する。例えば、図3に示した処理を実行した場合には、特別な指番号「指0」が割り当てられた指を検出中か否かを識別する。親指が検出済みの場合はステップS55の処理に進み、親指が未検出であればステップS58に進む。   In step S54, the motion control unit 14 identifies whether or not the thumb 20a has been detected. For example, when the process shown in FIG. 3 is executed, it is identified whether or not the finger assigned with the special finger number “finger 0” is being detected. If the thumb has been detected, the process proceeds to step S55. If the thumb has not been detected, the process proceeds to step S58.

ステップS55では、動作制御部14は、親指20aの番号が付けられた特定の指に対して、親指20aのための特別な動作を割り当てる。すなわち、親指20aは一般的に他の指と比べて使用頻度が低いと考えられるので、他の指よりも優先度の低い(使用頻度の低い)予め定めた動作を親指に対して割り当てる。   In step S55, the motion control unit 14 assigns a special motion for the thumb 20a to the specific finger numbered by the thumb 20a. That is, since the thumb 20a is generally considered to be less frequently used than other fingers, a predetermined action having a lower priority (less frequently used) than the other fingers is assigned to the thumb.

ステップS56では、動作制御部14は、ユーザが現在使用している手の右手/左手の区分を検出済みか否かを識別し、検出済みであればステップS57に進み、未検出であればステップS58に進む。   In step S56, the motion control unit 14 identifies whether or not the right hand / left hand classification of the hand currently used by the user has been detected. If detected, the process proceeds to step S57. Proceed to S58.

ステップS57では、図4のステップS44と同様に、動作制御部14は、親指20a以外の各々の指に対して、右手/左手の区分に応じて、指の並び順に従いそれぞれの動作(例えば図6に示した動作)を順番に割り当てる。   In step S57, as in step S44 of FIG. 4, the motion control unit 14 performs each operation (for example, FIG. 5) on each finger other than the thumb 20a according to the order of fingers according to the classification of the right hand / left hand. 6) are assigned in order.

ステップS58では、右手/左手の区別ができない状態なので、指番号の並べ替えは行わず、例えば図3のステップS26で割り振られた指番号「指1」、「指2」、「指3」、「指4」に従って、各指にそのまま動作(例えば図6に示した動作)を順番に割り当てる。   Since the right hand / left hand cannot be distinguished in step S58, the finger numbers are not rearranged. For example, the finger numbers “finger 1”, “finger 2”, “finger 3” assigned in step S26 of FIG. According to “finger 4”, an operation (for example, the operation shown in FIG. 6) is assigned to each finger in order.

このような図5の処理によれば、タッチパネル11の種類によらず、複数の指に動作を割り当て、その動作を実行することができる。   According to the processing in FIG. 5, it is possible to assign an operation to a plurality of fingers and execute the operation regardless of the type of the touch panel 11.

次に、状況と指番号と動作との対応関係を表すテーブルの構成例が図6に示されている。このテーブルは図1に示した動作記憶部15上に配置される。   Next, FIG. 6 shows a configuration example of a table indicating the correspondence between the situation, the finger number, and the action. This table is arranged on the operation storage unit 15 shown in FIG.

動作制御部14は、図6に示したような構成のテーブルを前述の各ステップS44、S45、S57、S58で参照することにより、入力装置100の現在の状況に応じて、ユーザの手の各指に割り当てる動作を切り替えることができる。   The operation control unit 14 refers to the table having the configuration illustrated in FIG. 6 in each of the above-described steps S44, S45, S57, and S58, so that each of the user's hands can be determined according to the current situation of the input device 100. The operation assigned to the finger can be switched.

図6に示した例では、状況C1は、画像一覧を表示する特定のアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標が該当する画像のアイコンの座標とほぼ一致する場合に相当する。また、状況C2は、電子メールのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がメール一覧表示中のメールアイコン又はリスト中の1項目の座標とほぼ一致する場合に相当する。状況C3は、カメラのアプリケーションプログラムを入力装置100が起動している時に、接触状態の指の座標がカメラプレビュー中の任意の場所の座標とほぼ一致する場合に相当する。   In the example illustrated in FIG. 6, the situation C <b> 1 is substantially coincident with the coordinates of the icon of the corresponding image when the input device 100 starts a specific application program that displays an image list. Corresponds to the case. In the situation C2, when the input device 100 is running the e-mail application program, the coordinates of the finger in the contact state substantially coincide with the coordinates of the mail icon displayed in the mail list or one item in the list. Equivalent to. The situation C3 corresponds to the case where the coordinates of the finger in the contact state substantially coincide with the coordinates of an arbitrary place in the camera preview when the input apparatus 100 is running the camera application program.

例えば、状況C1に該当する場合には、指番号「指1(FN1)」に対応する指に対して「選択画像の拡大表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「選択画像の詳細情報表示」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メーラのアプリケーションを起動して選択画像をメールに添付する」の動作が割り当てられる。   For example, in the case of the situation C1, the operation “enlarged display of selected image” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. Further, an operation of “display detailed information of selected image” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”. In addition, an operation of “launch mailer application and attach selected image to mail” is assigned to the finger corresponding to finger number “finger 3 (FN3)”.

また、状況C2に該当する場合には、指番号「指1(FN1)」に対応する指に対して「メールの本文表示」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「メールに返信」の動作が割り当てられる。また、指番号「指3(FN3)」に対応する指に対して「メールを転送」の動作が割り当てられる。   Further, in the case of the situation C2, the operation of “display text of mail” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. In addition, the “reply to mail” operation is assigned to the finger corresponding to the finger number “finger 2 (FN2)”. In addition, an operation of “forward mail” is assigned to the finger corresponding to the finger number “finger 3 (FN3)”.

また、状況C3に該当する場合には、指番号「指1(FN1)」に対応する指に対して「接触箇所にフォーカスを合わせて撮影する」の動作が割り当てられる。また、指番号「指2(FN2)」に対応する指に対して「接触箇所にフォーカスを合わせてフォーカスをロックする」の動作が割り当てられる。   When the situation corresponds to the situation C3, an operation of “photograph with the focus on the contact location” is assigned to the finger corresponding to the finger number “finger 1 (FN1)”. In addition, an operation of “focus on the contact location and lock the focus” is assigned to the finger corresponding to the finger number “finger 2 (FN2)”.

なお、図6に示したテーブルの内容は、指番号及び状況に対応付けて予め決定されて、動作記憶部15上にあらかじめ保持されるだけでなく、入力操作により書き換え可能となるようにしてもよい。これにより、ユーザの好みや環境に合わせて各指に割り当てる動作を変更することで、入力操作の効率をより改善することができる。   Note that the contents of the table shown in FIG. 6 are determined in advance in association with the finger number and the situation and are not only stored in advance in the operation storage unit 15 but also can be rewritten by an input operation. Good. Thereby, the efficiency of input operation can be improved more by changing the operation | movement allocated to each finger according to a user's liking and environment.

このように、本実施形態の入力装置(例えば入力装置100)は、所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部(例えばタッチパネル11)と、入力検知部により検知された近接時の座標である近接座標および入力検知部により検出された接触時の座標である接触座標を検出する座標検出部(例えば座標検出部13)と、座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部(例えば動作制御部14)と、座標検出部により検出された接触座標へ接触した入力手段に対して動作割当部により割り当てられた動作を実行する動作実行部(例えば動作制御部14)と、を備える。   As described above, the input device (for example, the input device 100) of the present embodiment is detected by the input detection unit (for example, the touch panel 11) that detects the proximity and contact of a plurality of input units with respect to a predetermined coordinate area, and the input detection unit. A coordinate detection unit (for example, coordinate detection unit 13) that detects the proximity coordinate that is the coordinate at the time of proximity and the contact coordinate that is the coordinate at the time of contact detected by the input detection unit, and each coordinate detected by the coordinate detection unit. Based on the motion allocation unit (for example, the motion control unit 14) that assigns each motion to each input unit that is close to or touches each coordinate, and the input unit that touches the contact coordinate detected by the coordinate detection unit An operation execution unit (for example, the operation control unit 14) that executes the operation allocated by the allocation unit.

これにより、例えばユーザの手の複数の指を利用して、操作する指の違いで実行する動作を切り替えることができる。また、それぞれの指に動作が割り当てられるので、ユーザは各々の指と実行される動作との関係を操作前に把握できる。また、一般的なタッチパネルの操作と同様に、単純なタッチ操作だけで割り当てられた動作が実行されるので、操作方法の習得が容易である。また、実際に近接または接触した指の数に応じて実行可能な動作の数を変更できるので、汎用性が高い。   Thereby, the operation | movement performed by the difference of the finger to operate can be switched, for example using the several finger | toe of a user's hand. In addition, since a motion is assigned to each finger, the user can grasp the relationship between each finger and the motion to be performed before the operation. In addition, as with a general touch panel operation, the assigned operation is executed only by a simple touch operation, so that it is easy to learn the operation method. In addition, since the number of actions that can be executed can be changed according to the number of fingers that are actually approaching or touching, the versatility is high.

また、入力装置は、動作割当部により割り当てられる動作の情報を表示する表示部(例えば表示部10)を備えてもよい。   In addition, the input device may include a display unit (for example, the display unit 10) that displays information on operations assigned by the operation assigning unit.

これにより、ユーザは各々の指を操作して接触した場合にどのような動作が行われるのかを事前に知ることができ、操作を習熟していない場合であっても、簡単に操作可能になる。   As a result, the user can know in advance what kind of operation will be performed when each finger is operated and touched, and even if the user is not familiar with the operation, it can be easily operated. .

また、入力装置は、座標検出部により検出された第1の座標(例えば図12における領域A1の座標)以外の他の座標(例えば、図12における領域A2〜A5の座標)が第1の方向(例えば図12におけるx方向)に略整列している場合、第1の座標へ近接または接触した入力手段が親指(例えば親指20a)であると判定する入力手段判定部(例えば動作制御部14)を備えてもよい。また、動作割当部は、入力手段判定部により親指であると判定された場合、親指に対して、他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作(例えば削除等の動作)を割り当ててもよい。   In addition, the input device has other coordinates (for example, coordinates of areas A2 to A5 in FIG. 12) other than the first coordinates (for example, coordinates of area A1 in FIG. 12) detected by the coordinate detection unit in the first direction. An input unit determination unit (for example, the operation control unit 14) that determines that the input unit that is close to or in contact with the first coordinate is the thumb (for example, the thumb 20a) when substantially aligned in the (for example, the x direction in FIG. 12). May be provided. In addition, when the input means determination unit determines that the action is a thumb, the action assignment unit has a lower priority than the action assigned to the input means that is close to or in contact with other coordinates with respect to the thumb ( For example, an operation such as deletion may be assigned.

これにより、ユーザは親指も利用できるため使用可能な指の数が増え、様々な種類の動作を指の違いで使い分けることが可能になる。さらに、親指には使用頻度の低い動作が割り当てられるので、効率的な入力操作が可能になる。   Accordingly, since the user can also use the thumb, the number of usable fingers is increased, and various types of movements can be selectively used depending on the finger. Furthermore, since an operation that is not frequently used is assigned to the thumb, an efficient input operation can be performed.

また、入力装置は、座標検出部により検出された第1の座標(例えば図12における領域A1の座標)以外の他の座標(例えば、図12における領域A2〜A5の座標)が第1の方向(例えば図12におけるx方向)に略整列している場合、第1の座標と他の座標との位置関係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部(例えば動作制御部14)を備えてもよい。また、動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。   In addition, the input device has other coordinates (for example, coordinates of areas A2 to A5 in FIG. 12) other than the first coordinates (for example, coordinates of area A1 in FIG. 12) detected by the coordinate detection unit in the first direction. In the case of being substantially aligned (for example, in the x direction in FIG. 12), a left / right determination that determines whether each input means is a finger of the left or right hand based on the positional relationship between the first coordinate and the other coordinates. A unit (for example, the operation control unit 14) may be provided. Further, the motion assigning unit may assign each motion to each input means that is close to or touches each coordinate based on whether each input means is a finger of the left or right hand.

これにより、ユーザの各指の使用頻度を考慮して、使用頻度の高い指(一般的には人差し指)には優先度の高い動作を割り当て、使用頻度の低い指(例えば小指)には優先度の低い動作を割り当てることができ、効率的な入力操作が可能になる。さらに、ユーザは必要に応じて右手と左手とを使い分けることができ、右手と左手を切り替えた場合でも各指に割り当てられる動作は同じであるので、操作が容易である。   Thus, taking into account the frequency of use of each finger of the user, a high-priority operation (generally the index finger) is assigned a high-priority action, and a low-frequency-use finger (eg little finger) is assigned a priority. Can be assigned, and an efficient input operation becomes possible. Further, the user can use the right hand and the left hand as needed, and even when the right hand and the left hand are switched, the operation assigned to each finger is the same, and thus the operation is easy.

また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、左右判定部により各入力手段が第1の手(例えば右手)の指であると判定された場合、座標検出部により検出された座標における第1の方向の座標の順(例えば図12におけるx方向の昇順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。また、動作割当部は、左右判定部により各入力手段が第2の手(例えば左手)の指であると判定された場合、座標検出部13により検出された座標における第1の方向の座標の順とは逆順(例えば図12におけるx方向の降順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。   The input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations. When the left and right determination unit determines that each input means is a finger of the first hand (for example, the right hand), the motion allocating unit determines the order of the coordinates in the first direction (for example, the coordinates detected by the coordinate detection unit) In the ascending order in the x direction in FIG. 12, each operation stored in the operation storage unit may be assigned to each input unit that approaches or touches each coordinate. In addition, when the left / right determination unit determines that each input unit is the finger of the second hand (for example, the left hand), the motion allocation unit determines the coordinates of the first direction in the coordinates detected by the coordinate detection unit 13. Each operation stored in the operation storage unit may be assigned to each input unit that is close to or in contact with each coordinate in the reverse order (eg, descending order in the x direction in FIG. 12).

これにより、ユーザが左右の手を使い分ける場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。   As a result, even when the user uses both left and right hands, a plurality of types of actions can be assigned to each finger according to the priority order suitable for the user's operation.

また、入力装置は、当該入力装置の向きを検出する向き検出部(例えば向き検出部17)を備えてもよい。動作割当部は、向き検出部により検出された向きに基づいて、座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当ててもよい。   In addition, the input device may include a direction detection unit (for example, a direction detection unit 17) that detects the direction of the input device. The motion allocating unit may allocate each motion to each input unit that is close to or in contact with the coordinates detected by the coordinate detecting unit based on the direction detected by the direction detecting unit.

これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、ユーザの同じ指に対して同じ動作を割り当てることができ、効率的な入力操作が可能になる。   As a result, even when the user operates the input device in either the portrait or landscape orientation, the same operation can be assigned to the same finger of the user, and an efficient input operation can be performed.

また、入力装置は、複数の動作を順に記憶する動作記憶部(例えば動作記憶部15)を備えてもよい。動作割当部は、向き検出部により第1の向き(例えば入力装置が縦長の向き)が検出された場合、座標検出部により検出された座標における第1の方向の座標の順(例えば図12におけるx方向の順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。また、動作割当部は、向き検出部により検出された第1の向きと直交する第2の向き(例えば入力装置が横長の向き)が検出された場合、座標検出部により検出された座標における第2の方向の座標の順(例えば図12におけるy方向の順)に、各座標へ近接または接触した各入力手段に対して動作記憶部に記憶された各動作を割り当ててもよい。   The input device may include an operation storage unit (for example, the operation storage unit 15) that sequentially stores a plurality of operations. When the first direction is detected by the direction detection unit (for example, the input device is vertically long), the motion allocation unit is arranged in the order of the coordinates in the first direction in the coordinates detected by the coordinate detection unit (for example, in FIG. 12). In the order of the x direction, each operation stored in the operation storage unit may be assigned to each input means that is close to or touches each coordinate. In addition, when the second direction orthogonal to the first direction detected by the direction detection unit (for example, the input device is in the landscape orientation) is detected, the motion allocation unit detects the first in the coordinates detected by the coordinate detection unit. Each operation stored in the operation storage unit may be assigned to each input unit that is close to or in contact with each coordinate in the order of the coordinates in the two directions (for example, the order in the y direction in FIG. 12).

これにより、ユーザが入力装置を縦長/横長のいずれの向きで操作する場合であっても、複数種類の動作を、ユーザの操作に適した優先順位に従って各々の指に割り当てることが可能になる。   As a result, even when the user operates the input device in either portrait or landscape orientation, it is possible to assign a plurality of types of actions to each finger according to the priority order suitable for the user's operation.

また、入力装置は、座標検出部により検出された近接座標の情報を記憶する近接座標記憶部(例えば近接座標記憶部16)を備えてもよい。動作割当部は、座標検出部により検出された接触座標へ接触した入力手段と、近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当ててもよい。   Further, the input device may include a proximity coordinate storage unit (for example, the proximity coordinate storage unit 16) that stores information on the proximity coordinates detected by the coordinate detection unit. The motion allocating unit may allocate each motion to the input unit that has touched the contact coordinates detected by the coordinate detection unit and the input unit that has been close to the close coordinate stored by the close coordinate storage unit.

これにより、指の接触時に近接状態の他の指の座標が検知できなくなった場合であっても、必要な各指の座標を特定することができ、各指に動作を正しく割り当てることが可能になる。   As a result, even if the coordinates of other fingers in proximity cannot be detected at the time of finger contact, the coordinates of each necessary finger can be specified, and it is possible to correctly assign an action to each finger. Become.

本発明は、上記実施形態の構成に限られるものではなく、特許請求の範囲で示した機能、または本実施形態の構成が持つ機能が達成できる構成であればどのようなものであっても適用可能である。   The present invention is not limited to the configuration of the above-described embodiment, and can be applied to any configuration that can achieve the functions shown in the claims or the functions of the configuration of the present embodiment. Is possible.

また、本発明は、上記実施形態の機能を実現する入力制御プログラムを、ネットワークあるいは各種記憶媒体を介して入力装置に供給し、この入力装置内のコンピュータ(CPU)が読み出して実行するプログラムも適用範囲である。   The present invention also applies a program that supplies an input control program that realizes the functions of the above-described embodiments to an input device via a network or various storage media, and that is read and executed by a computer (CPU) in the input device. It is a range.

本発明は、ユーザの入力操作に応じて種類の異なる様々な動作を実行可能にすると共に、ユーザの操作性を改善することが可能な入力装置、情報端末、入力制御方法、および入力制御プログラム等に有用である。   The present invention enables an input device, an information terminal, an input control method, an input control program, and the like that can execute various types of operations according to a user's input operation and can improve user operability. Useful for.

10 表示部
11 タッチパネル
11A 座標面
12 接近/接触判定部
13 座標検出部
14 動作制御部
15 動作記憶部
16 近接座標記憶部
17 向き検出部
18 表示制御部
20 ユーザの手
20a 親指
20b 人差し指
20c 中指
20d 薬指
20e 小指
100 入力装置
C1,C2,C3 状況
G1,G2 ガイダンス情報
FN1,FN2,FN3 指番号
DESCRIPTION OF SYMBOLS 10 Display part 11 Touch panel 11A Coordinate surface 12 Approach / contact determination part 13 Coordinate detection part 14 Operation control part 15 Operation | movement storage part 16 Proximity coordinate storage part 17 Orientation detection part 18 Display control part 20 User's hand 20a Thumb 20b Index finger 20c Middle finger 20d Ring finger 20e Little finger 100 Input device C1, C2, C3 Situation G1, G2 Guidance information FN1, FN2, FN3 Finger number

Claims (11)

所定の座標領域に対する複数の入力手段の近接および接触を検知する入力検知部と、
前記入力検知部により検知された近接時の座標である近接座標および前記入力検知部により検出された接触時の座標である接触座標を検出する座標検出部と、
前記座標検出部により検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる動作割当部と、
前記座標検出部により検出された接触座標へ接触した入力手段に対して前記動作割当部により割り当てられた動作を実行する動作実行部と、
を備える入力装置。
An input detection unit for detecting the proximity and contact of a plurality of input means with respect to a predetermined coordinate area;
A coordinate detection unit that detects proximity coordinates that are coordinates at the time of proximity detected by the input detection unit and contact coordinates that are coordinates at the time of contact detected by the input detection unit;
Based on each coordinate detected by the coordinate detection unit, an operation allocating unit that allocates each operation to each input means that approaches or touches each coordinate;
An operation execution unit that executes an operation assigned by the operation assigning unit to an input unit that has touched the contact coordinates detected by the coordinate detection unit;
An input device comprising:
請求項1に記載の入力装置であって、更に、
前記動作割当部により割り当てられる動作の情報を表示する表示部を備える入力装置。
The input device according to claim 1, further comprising:
An input device comprising a display unit for displaying information on an operation assigned by the operation assigning unit.
請求項1または2に記載の入力装置であって、更に、
前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標へ近接または接触した入力手段が親指であると判定する入力手段判定部を備え、
前記動作割当部は、前記入力手段判定部により親指であると判定された場合、前記親指に対して、前記他の座標へ近接または接触した入力手段に対して割り当てられる動作よりも優先度の低い動作を割り当てる入力装置。
The input device according to claim 1, further comprising:
When other coordinates other than the first coordinates detected by the coordinate detection unit are substantially aligned in the first direction, an input for determining that the input means that is close to or in contact with the first coordinates is the thumb. A means determination unit,
The motion allocating unit has a lower priority than the operation allocated to the input unit that is close to or in contact with the other coordinates when the input unit determining unit determines that the thumb is the thumb. An input device that assigns actions.
請求項1ないし3のいずか1項に記載の入力装置であって、更に、
前記座標検出部により検出された第1の座標以外の他の座標が第1の方向に略整列している場合、前記第1の座標と前記他の座標との位置関係に基づいて、各入力手段が左右どちらの手の指であるかを判定する左右判定部を備え、
前記動作割当部は、各入力手段が左右どちらの手の指であるかに基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。
The input device according to any one of claims 1 to 3, further comprising:
When other coordinates other than the first coordinates detected by the coordinate detection unit are substantially aligned in the first direction, each input is performed based on the positional relationship between the first coordinates and the other coordinates. A left / right determination unit for determining whether the means is a finger on the left or right hand;
The motion allocation unit is an input device that allocates each motion to each input unit that is in proximity to or in contact with each coordinate based on whether each input unit is a finger of the left or right hand.
請求項4に記載の入力装置であって、更に、
複数の動作を順に記憶する動作記憶部を備え、
前記動作割当部は、前記左右判定部により各入力手段が第1の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記左右判定部により各入力手段が第2の手の指であると判定された場合、前記座標検出部により検出された座標における前記第1の方向の座標の順とは逆順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。
The input device according to claim 4, further comprising:
An operation storage unit that sequentially stores a plurality of operations,
When the input / output determining unit determines that each input means is a finger of the first hand by the left / right determining unit, the motion allocating unit is arranged in the order of the coordinates in the first direction in the coordinates detected by the coordinate detecting unit. When each operation stored in the operation storage unit is assigned to each input unit that is close to or in contact with the coordinates, and the left and right determination unit determines that each input unit is a finger of the second hand, the coordinates An input device that assigns each operation stored in the operation storage unit to each input unit that is close to or in contact with each coordinate in the reverse order of the coordinate in the first direction in the coordinates detected by the detection unit.
請求項1ないし5のいずれか1項に記載の入力装置であって、更に、
当該入力装置の向きを検出する向き検出部を備え、
前記動作割当部は、前記向き検出部により検出された向きに基づいて、前記座標検出部により検出された座標へ近接または接触した各入力手段に対して各動作を割り当てる入力装置。
The input device according to any one of claims 1 to 5, further comprising:
An orientation detection unit for detecting the orientation of the input device;
The operation assigning unit is an input device that assigns each operation to each input unit that is close to or in contact with the coordinates detected by the coordinate detecting unit based on the direction detected by the direction detecting unit.
請求項6に記載の入力装置であって、更に、
複数の動作を順に記憶する動作記憶部を備え、
前記動作割当部は、前記向き検出部により前記第1の向きが検出された場合、前記座標検出部により検出された座標における第1の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当て、前記向き検出部により検出された前記第1の向きと直交する第2の向きが検出された場合、前記座標検出部により検出された座標における前記第2の方向の座標の順に、各座標へ近接または接触した各入力手段に対して前記動作記憶部に記憶された各動作を割り当てる入力装置。
The input device according to claim 6, further comprising:
An operation storage unit that sequentially stores a plurality of operations,
When the first direction is detected by the direction detection unit, the motion allocating unit is configured to input each of the coordinates approaching or touching each coordinate in the order of the coordinates in the first direction in the coordinates detected by the coordinate detection unit. When each movement stored in the movement storage unit is assigned to the means and a second direction orthogonal to the first direction detected by the direction detection unit is detected, the movement is detected by the coordinate detection unit. An input device that assigns each operation stored in the operation storage unit to each input means that approaches or touches each coordinate in the order of the coordinates in the second direction in the coordinates.
請求項1ないし7のいずれか1項に記載の入力装置であって、更に、
前記座標検出部により検出された近接座標の情報を記憶する近接座標記憶部を備え、
前記動作割当部は、前記座標検出部により検出された接触座標へ接触した入力手段と、前記近接座標記憶部により記憶された近接座標へ近接した入力手段と、に対して各動作を割り当てる入力装置。
The input device according to any one of claims 1 to 7, further comprising:
A proximity coordinate storage unit that stores information of the proximity coordinates detected by the coordinate detection unit;
The motion allocating unit is an input device that allocates each motion to an input unit that is in contact with the contact coordinates detected by the coordinate detection unit and an input unit that is close to the proximity coordinates stored in the proximity coordinate storage unit. .
請求項1ないし9のいずれか1項に記載の入力装置を備える情報端末。   An information terminal comprising the input device according to claim 1. 所定の座標領域に対する複数の入力手段の近接および接触を検知するステップと、
前記検知された近接時の座標である近接座標および前記検出された接触時の座標である接触座標を検出するステップと、
前記検出された各座標に基づいて、各座標へ近接または接触した各入力手段に対して各動作を割り当てるステップと、
前記検出された接触座標へ接触した入力手段に対して前記割り当てられた動作を実行するステップと、
を有する入力制御方法。
Detecting proximity and contact of a plurality of input means with respect to a predetermined coordinate area;
Detecting proximity coordinates that are the detected proximity coordinates and contact coordinates that are the detected contact coordinates;
Assigning each action to each input means in proximity to or in contact with each coordinate based on each detected coordinate;
Performing the assigned action on the input means that has touched the detected contact coordinates;
An input control method comprising:
請求項10に記載の入力制御方法の各ステップをコンピュータに実行させるための入力制御プログラム。   An input control program for causing a computer to execute each step of the input control method according to claim 10.
JP2011263957A 2011-12-01 2011-12-01 Input device, information terminal, input control method, and input control program Pending JP2013117784A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2011263957A JP2013117784A (en) 2011-12-01 2011-12-01 Input device, information terminal, input control method, and input control program
PCT/JP2012/006728 WO2013080425A1 (en) 2011-12-01 2012-10-19 Input device, information terminal, input control method and input control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011263957A JP2013117784A (en) 2011-12-01 2011-12-01 Input device, information terminal, input control method, and input control program

Publications (1)

Publication Number Publication Date
JP2013117784A true JP2013117784A (en) 2013-06-13

Family

ID=48534932

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011263957A Pending JP2013117784A (en) 2011-12-01 2011-12-01 Input device, information terminal, input control method, and input control program

Country Status (2)

Country Link
JP (1) JP2013117784A (en)
WO (1) WO2013080425A1 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015229548A (en) * 2014-06-04 2015-12-21 三菱電機株式会社 Call registration device and call registration method of elevator
KR20160128994A (en) * 2014-03-03 2016-11-08 마이크로칩 테크놀로지 인코포레이티드 System and method for gesture control

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102016003072A1 (en) * 2016-03-12 2017-09-14 Audi Ag Operating device and method for detecting a user selection of at least one Bedienungsfuktion the operating device
WO2023140340A1 (en) * 2022-01-19 2023-07-27 メタマティクス プライベート リミテッド System, method, and program for realizing user interface based on finger identification

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358162A (en) * 2001-06-01 2002-12-13 Sony Corp Picture display device
JP4351599B2 (en) * 2004-09-03 2009-10-28 パナソニック株式会社 Input device
JP5086560B2 (en) * 2006-04-12 2012-11-28 トヨタ自動車株式会社 Input device
JP4899806B2 (en) * 2006-11-08 2012-03-21 トヨタ自動車株式会社 Information input device
EP2124139A4 (en) * 2006-12-22 2013-01-09 Panasonic Corp User interface device
JP4849412B2 (en) * 2007-05-15 2012-01-11 三菱電機株式会社 Information input display device
JP2010244132A (en) * 2009-04-01 2010-10-28 Mitsubishi Electric Corp User interface device with touch panel, method and program for controlling user interface
JP5471137B2 (en) * 2009-08-05 2014-04-16 ソニー株式会社 Display device, display method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20160128994A (en) * 2014-03-03 2016-11-08 마이크로칩 테크놀로지 인코포레이티드 System and method for gesture control
JP2017507416A (en) * 2014-03-03 2017-03-16 マイクロチップ テクノロジー インコーポレイテッドMicrochip Technology Incorporated System and method for gesture control
KR102388791B1 (en) 2014-03-03 2022-04-21 마이크로칩 테크놀로지 인코포레이티드 System and method for gesture control
JP2015229548A (en) * 2014-06-04 2015-12-21 三菱電機株式会社 Call registration device and call registration method of elevator

Also Published As

Publication number Publication date
WO2013080425A1 (en) 2013-06-06

Similar Documents

Publication Publication Date Title
US20200012424A1 (en) Method of operating a display unit and a terminal supporting the same
JP5759660B2 (en) Portable information terminal having touch screen and input method
KR101304461B1 (en) Method and apparatus of gesture-based user interface
US8866776B2 (en) Information processing device adapted to receiving an input for user control using a touch pad and information processing method thereof
KR101424294B1 (en) Multi-touch uses, gestures, and implementation
JP4734435B2 (en) Portable game device with touch panel display
EP4116813A1 (en) Method for execution of hand gesture commands, apparatus, system, and storage medium
JP5458783B2 (en) Information processing apparatus, information processing method, and program
US20130234982A1 (en) Mobile terminal and display control method
US20110060986A1 (en) Method for Controlling the Display of a Touch Screen, User Interface of the Touch Screen, and an Electronic Device using The Same
KR20110041915A (en) Terminal and method for displaying data thereof
JP2015215907A (en) Apparatus and method for controlling motion-based user interface
JP2013012021A (en) Information processing apparatus, information processing method, program and remote operation system
JPWO2009031214A1 (en) Portable terminal device and display control method
JP2010146032A (en) Mobile terminal device and display control method
EP3267303A1 (en) Multi-touch display panel and method of controlling the same
JP6142564B2 (en) Information display device and display control program
US9367169B2 (en) Method, circuit, and system for hover and gesture detection with a touch screen
JP5703422B2 (en) Portable electronic devices
WO2015189710A2 (en) Apparatus and method for disambiguating information input to a portable electronic device
JP6183820B2 (en) Terminal and terminal control method
WO2013080425A1 (en) Input device, information terminal, input control method and input control program
WO2013047023A1 (en) Display apparatus, display method, and program
EP3433713B1 (en) Selecting first digital input behavior based on presence of a second, concurrent, input
WO2014141799A1 (en) Electronic device, information processing method, and information processing program