Nothing Special   »   [go: up one dir, main page]

JP2014081807A - タッチパネル式入力装置、その制御方法、および、プログラム - Google Patents

タッチパネル式入力装置、その制御方法、および、プログラム Download PDF

Info

Publication number
JP2014081807A
JP2014081807A JP2012229693A JP2012229693A JP2014081807A JP 2014081807 A JP2014081807 A JP 2014081807A JP 2012229693 A JP2012229693 A JP 2012229693A JP 2012229693 A JP2012229693 A JP 2012229693A JP 2014081807 A JP2014081807 A JP 2014081807A
Authority
JP
Japan
Prior art keywords
touch sensor
touch
information processing
input device
detection output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012229693A
Other languages
English (en)
Other versions
JP6000797B2 (ja
Inventor
Yuichi Sato
雄一 佐藤
Kenji Maeda
健次 前田
Tatsuo Watanabe
辰雄 渡辺
Kazuya Takayama
和也 高山
Masayuki Natsumi
昌之 夏見
Tetsuya Umekida
哲也 梅木田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2012229693A priority Critical patent/JP6000797B2/ja
Priority to US14/435,499 priority patent/US20150301647A1/en
Priority to PCT/JP2013/077894 priority patent/WO2014061626A1/ja
Priority to CN201380053695.3A priority patent/CN104737107B/zh
Publication of JP2014081807A publication Critical patent/JP2014081807A/ja
Application granted granted Critical
Publication of JP6000797B2 publication Critical patent/JP6000797B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/36Handling requests for interconnection or transfer for access to common bus or bus system
    • G06F13/368Handling requests for interconnection or transfer for access to common bus or bus system with decentralised access control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04166Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving
    • G06F3/041661Details of scanning methods, e.g. sampling time, grouping of sub areas or time sharing with display driving using detection at multiple resolutions, e.g. coarse and fine scanning; using detection within a limited area, e.g. object tracking window
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/0418Control or interface arrangements specially adapted for digitisers for error correction or compensation, e.g. based on parallax, calibration or alignment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/044Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means
    • G06F3/0443Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by capacitive means using a single layer of sensing electrodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04108Touchless 2D- digitiser, i.e. digitiser detecting the X/Y position of the input means, finger or stylus, also when it does not touch, but is proximate to the digitiser's interaction surface without distance measurement in the Z direction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】タッチパネル式の入力装置において、専用のセンサを搭載することなく、ユーザによる利用の開始から早期に、かつ、装置が小型である場合にも、ユーザの入力特性を検出できるようにする。
【解決手段】入力装置は、操作者による操作を検出するタッチセンサを含むタッチパネルを備えている。入力装置は、タッチセンサに入力された情報に基づいて、情報処理を実行する。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。入力装置は、さらに、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定する。
【選択図】図1

Description

本発明は、タッチパネル式入力装置、その制御方法、および、プログラムに関し、特に、操作者の入力特性を検出する、タッチパネル式入力装置、その制御方法、および、プログラムに関する。
従来、タッチパネル式入力装置について、種々の技術が提案されている。特に、このような入力装置において、ユーザの利き手等、ユーザによる操作の特性を判定する技術は、利便性の向上という観点から興味深い。
たとえば、特許文献1(特開2012−27581号公報)は、キーボードが配置される配置面の裏面および側面にセンサを備える携帯端末を開示する。当該センサは、接触を感知した座標情報を出力する。これにより、携帯端末は、出力された座標情報から、保持状態を検出する。そして、携帯端末は、当該座標情報に基づいて親指の可動範囲を推定し、推定した親指の可動範囲に基づいて、キーボードを表示する。
特許文献2(特開2008−242958号公報)は、タッチパネル上に表示されている1つ又は複数のボタンの押下で入力を行う入力装置を開示する。当該入力装置では、ボタン毎に、タッチパネル上の接触検知領域が定義されている。そして、入力装置は、過去の入力情報を記録する履歴記録手段と、利用者の接触位置が、各ボタンの接触検知領域のいずれかに含まれるかを判定する第1の判定手段と、第1の判定手段による判定で上記接触位置が上記接触検知領域のいずれにも含まれない場合に、履歴記録情報にて、接触位置を接触検知領域のいずれかに含めることができるか否かを判定する第2の判定手段と、第2の判定手段による判定で含めることができると判定された場合に、判定された接触検知領域に、接触位置を追加する位置追加手段とを備える。これにより、利用者のタッチパネルへの接触位置を記録・学習することで、該接触位置と正規のボタン位置との誤差を自動補正する。
特許文献3(特開2011−164746号公報)は、ペンタッチによる入力を受け付ける端末装置を開示する。当該端末装置は、電磁誘導方式ペン検出部と、静電容量検出部方式手指検出部とを含む。電磁誘導方式ペン検出部は、ペンのペン先座標(Xp,Yp)を取得する。静電容量検出部方式手指検出部は、手のひら座標(Xh,Yh)を取得する。ペン先X座標Xpが手のひらX座標Xhより小さい場合、端末装置は、右利き手用GUI(Graphical User Interface)を設定する。一方、ペン先X座標Xpが手のひらX座標Xhより大きい場合、端末装置は、左利き手用GUIを設定する。
特許文献4(特開2011−81646号公報)は、スタイラスペンによる入力を受け付ける表示端末を開示する。スタイラスペンによって表示端末がタッチされると、スタイラスペンに組み込まれたセンサの検出出力に基づいて、傾き方向が検出される。表示端末は、検出された傾き方向に基づいて、ユーザの利き手を判定する。そして、表示端末は、利き手の判定結果に応じて、UI(User Interface)の設定を制御する。これにより、複数回の操作に拠らず、ユーザは利き手に応じたUIで、表示端末を操作することができる。
特許文献5(特開平08−212005号公報)は、3次元位置認識型のタッチパネル装置を開示する。当該タッチパネル装置は、ディスプレイ面に対しその周囲の垂直方向に設けられ、空間内に挿入された物体の位置を検出する複数のセンサと、複数のセンサによる検出結果に基づいて物体が指し示すディスプレイ面上の位置を計算する計算手段と、該計算手段によって得られたディスプレイ面上の位置に物体が指し示していることを表わす指示ポイントを表示する表示手段とを有している。そして、当該タッチパネル装置は、ディスプレイ面に最も近いセンサが空間内に挿入された物体を感知した場合、または、指示ポイントが入力エリアを表わす所定座標区域内に一定時間存在したと判断された場合に、入力を確定する。また、タッチパネル装置では、検出された物体先端の位置と表示拡大率とが対応づけられている。これにより、ディスプレイ面に直接指などを触れることなく入力作業を行う、または複数回の拡大操作を1回の入力で済ますことを可能にする。
特許文献6(特開2012−073658号公報)は、マルチウィンドウ操作が可能なコンピュータシステムを開示する。当該コンピュータシステムにおいて、ウィンドウシステムは、並行して動作する複数のアプリケーションプログラムにそれぞれ固有のウィンドウを割り当てる制御を実行する。ポインティングデバイスとしてのモーションセンサは、三次元空間中で動かされるユーザの手に間欠的に光を照射し、照射時及び非照射時で撮影処理を実行し、照射時に得られた画像と非照射時に得られた画像との差分画像を解析し、ユーザの手を検出する。ウィンドウシステムは、モーションセンサが検出したユーザの手の情報に基づいて、ウィンドウを制御する。
特許文献7(特開2011−180712号公報)は、投写型の映像表示装置を開示する。投写型映像表示装置では、投写部は、スクリーンに映像を投写する。カメラは、少なくともスクリーンに投写された映像を含む領域を撮像する。赤外線カメラは、スクリーンの上方空間を撮像する。接触判定部は、赤外線カメラにより撮像された画像に基づき、ユーザの指がスクリーンに接触しているか否かを判定する。座標決定部は、接触判定部により指がスクリーンに接触していると判定されたとき、カメラにより撮像された画像に基づいて、ユーザの指の先端の座標を、投写映像に対するポインティング位置として出力する。これにより、投写映像に対するユーザのタッチ操作を実現する。
特許文献8(特開2001−312369号公報)は、入力装置を開示する。当該入力装置は、光センサを利用して、計測空間内に操作点が検出されてから検出パネルに接触するまでの位置を検出し、当該検出出力と画面上接触位置とに基づいて、選択された項目を決定する。これにより、画面に接触する直前の位置を検出する装置と画面に接触した位置を検出する装置に誤差がある場合、操作者が画面を真上から見ないで操作したため操作位置が隣接項目の位置へとそれてしまった場合、操作者の手が震えたこと等によって操作点が微動してしまった場合などに、それまで別色で指示していた項目から多少異なる位置に指示点が接触しても、操作者の意図した項目を選択することで、誤入力を防止する。
特開2012−27581号公報 特開2008−242958号公報 特開2011−164746号公報 特開2011−81646号公報 特開平08−212005号公報 特開2012−073658号公報 特開2011−180712号公報 特開2001−312369号公報
入力装置において、ユーザの利き手等の入力特性を検出し、当該特性に基づいて入力情報の処理等を制御することは、誤入力の削減等に貢献でき、重要であると考えられる。特に、ユーザがタッチパネルに情報を入力する際、当該ユーザが右手と左手のどちらで操作するかは、以下に説明するように、重要な事項である。ユーザは、利き手の指で直接、または、利き手でスタイラスペンを把持して、タッチパネルに情報を入力する。このとき、右手と左手のいずれで入力されるかによって、ユーザが同じポイントをタッチしようとしても、実際のタッチ位置に対してずれが生じる場合があるからである。さらには、指またはスタイラスペンの入力時傾きの大きさによって、上記タッチ位置のずれの大きさが変化する場合がある。
しかしながら、従来の技術によってユーザの入力特性を検出しようとした場合、特許文献1および特許文献4〜特許文献8に記載の技術では、新たにセンサを必要とし、装置の生産コストを上昇させる等の新たな課題が生じると考えられる。また、特許文献2に記載の技術では、過去の誤入力情報を利用する必要があり、接触位置の判定の適正化に時間を要する。したがって、ユーザが装置の利用を開始してからユーザの入力特性を把握するまでに時間を要するという課題があった。また、特許文献3に記載の技術では、ペンや指の入力位置に基づく利き手の判定に、ある程度広い入力領域が必要とされる。このため、通信機器の小型化が進む中、特許文献3に記載の技術を適用することが難しい機器が増えることが予想される。
本発明は、かかる実情に鑑み考え出されたものであり、その目的は、タッチパネル式の入力装置において、専用のセンサを搭載することなく、ユーザによる利用の開始から早期に、かつ、装置が小型である場合にも、ユーザの入力特性を検出できるようにすることである。
ある局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置が提供される。入力装置は、タッチセンサに入力された情報に基づいて、情報処理を実行する情報処理手段をさらに備える。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理手段は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定する。また、情報処理手段は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定するための情報を取得する。
好ましくは、タッチセンサは、タッチセンサに対するタッチ操作が行なわれたことを条件として、操作の検出の感度を上昇させ、情報処理手段による判定が完了したことを条件として、感度を上昇させる前の感度に戻す。
さらに好ましくは、タッチセンサは、タッチ操作が行なわれたことが検出された部分を含む一部の部分においてのみ、操作の検出の感度を上昇させる。
好ましくは、タッチセンサは、タッチセンサに対するタッチ操作が行なわれたことを条件として、操作の検出の頻度を上昇させ、情報処理手段による判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す。情報処理手段は、タッチセンサに対するタッチ操作が行なわれたことを条件として、タッチセンサから検出出力を取得する頻度を上昇させ、判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す。
好ましくは、情報処理手段は、判定の結果および傾きの度合いに基づいて、タッチセンサの情報の入力の対象となった位置情報を補正する。
他の局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行される、当該入力装置の制御方法が提供される。当該制御方法は、タッチセンサに入力された情報に基づいて、情報処理を実行するステップを備える。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理を実行するステップは、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定する情報を取得することとを含む。
さらに他の局面に従うと、操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行されるプログラムが提供される。プログラムは、コンピュータに、タッチセンサに入力された情報に基づいて、情報処理を実行するステップを実行させる。タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、情報処理手段に対する検出出力を変更することができる。情報処理を実行するステップは、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定する情報を取得することとを含む。
ある局面によれば、入力装置は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサを操作者が右手で操作しているか左手で操作しているかを判定する。また、入力装置は、タッチセンサにおける検出出力の分布に基づいて、タッチセンサに対する操作体の傾きの度合いを特定するための情報を取得する。
これにより、タッチパネル式の入力装置は、専用のセンサを備えることなく、ユーザによる利用の開始から早期に、かつ、装置が小型である場合にも、ユーザの入力特性を検出できる。
タッチパネル式入力装置の一実施の形態である入力端末の外観を示す図である。 入力端末のディスプレイに対する操作態様の例を模式的に説明するための図である。 タッチセンサにおいて、検出されるタッチ位置が、実際のタッチ位置に対してシフトすることによる不具合を説明するための図である。 操作者がスタイラスペンを利用してディスプレイに情報を入力する際の、ディスプレイに対する操作態様の例を模式的に示す図である。 入力端末のタッチセンサによって、ディスプレイに対する操作位置を検出する機構を説明するための図である。 入力端末におけるタッチセンサの配置の一例を示す図である。 電極の静電容量の分布における、導電体のディスプレイに接触しない部分による影響を説明するための図である。 電極の静電容量の分布における、導電体のディスプレイに接触しない部分による影響を説明するための図である。 タッチセンサの全域に渡って二次元的に配置された電極対のそれぞれの検出出力の分布を模式的に示す図である。 入力端末のハードウェア構成の一例を表わすブロック図である。 入力端末において実行される、タッチ操作の検出のための処理のフローチャートである。 入力端末における、タッチセンサの感度の変更に関する動作モードの変化を示す図である。
以下、タッチパネル式入力装置の実施の形態について、図面を参照して説明する。なお、以下の説明において、同一の機能および作用を有する要素については、同じ各図を通して同じ符号を付し、重複する説明を繰返さない。
[入力装置の外観]
図1は、タッチパネル式入力装置の一実施の形態である入力端末1の外観を示す図である。図1を参照して、入力端末1は、その外面に、ディスプレイ35と、入力ボタン25Aとを含む。ディスプレイ35は、後述するタッチセンサ40と一体に構成された、タッチパネルである。本実施の形態では、入力端末1は、スマートフォン(高機能携帯電話機)によって実現される。なお、入力端末1は、本明細書に記載される情報処理機能を発揮できれば、タブレット端末または携帯電話機等、他の種類の装置によっても実現され得る。なお、本実施の形態では、タッチセンサ40がディスプレイ35と一体に構成されているため、タッチセンサ40へのタッチ操作が、適宜、「タッチパネルへのタッチ操作」「ディスプレイ35へのタッチ操作」と言及される場合もあり得る。上記タッチセンサ40とディスプレイ35については、一体に構成せず別々に構成してもよい。
[処理の概要]
図2は、入力端末1のディスプレイ35に対する操作態様の例を模式的に説明するための図である。図2を参照して、入力端末1では、操作者は、ディスプレイ35に対して、右手で情報を入力することも、左手で入力することもできる。図2において、手202は、操作者が左手で情報を入力する際のディスプレイ35に対する操作者の手および指の位置を示す。手204は、操作者が右手で情報を入力する際のディスプレイ35に対する操作者の手および指の位置を示す。操作者は、右利きであれば、主に右手でディスプレイ35へ情報を入力する。操作者は、左利きであれば、主に左手でディスプレイ35へ情報を入力する。
図2から理解されるように、ディスプレイ35に、操作者の右手(手204)で情報が入力される場合、入力に利用される指は、ディスプレイ35の右側から当該ディスプレイ35へと延びている。このため、この場合のある傾向として、操作者が意図したポイントよりも若干右寄りの位置で、指がディスプレイ35に接触するという傾向を挙げることができる。また、この場合の他の傾向として、ディスプレイ35のタッチセンサの検出出力が、ディスプレイ35と離間した位置における指やスタイラスペンの位置に影響を受け得るとき、タッチセンサにおいて検出されるタッチ位置はユーザが実際にタッチしようとした位置よりも右側にシフトするという傾向を挙げることができる。また、その際にはタッチしている部分より右側において、タッチセンサの検出出力分布に偏りが生じるという傾向を挙げることができる。ユーザの指は、その先端がディスプレイ35に接触するとともに、それ以外の部分も当該接触位置より右側でディスプレイ35に近接しているからである。なお、検出出力が上記のような影響を受け得るタッチセンサの例としては、たとえば、検出方式として静電容量方式や赤外線方式を採用するセンサが挙げられる。
また、図2から理解されるように、ディスプレイ35に、操作者の左手(手202)で情報が入力される場合、入力に利用される指は、ディスプレイ35の左側から当該ディスプレイ35へと延びている。このため、この場合のある傾向として、操作者が意図したポイントよりも若干左寄りの位置で、指がディスプレイ35に接触するという傾向を挙げることができる。また、この場合の他の傾向として、ディスプレイ35のタッチセンサの検出出力が、ディスプレイ35と離間した位置における指やスタイラスペンの位置に影響を受け得るとき、タッチセンサにおいて検出されるタッチ位置はユーザが実際にタッチしようとした位置よりも左側にシフトするという傾向を挙げることができる。また、その際にはタッチしている部分より左側において、タッチセンサの検出出力分布に偏りが生じるという傾向を挙げることができる。
図3は、タッチセンサにおいて、検出されるタッチ位置が、実際のタッチ位置に対してシフトすることによる不具合を説明するための図である。図3の(A)は、入力端末1において、タッチ位置としてユーザのタッチ位置そのものが検出されて処理された際の、もしくは理想的な、ディスプレイ35に対する手書き入力の一例を示す。一方、図3の(B)は、当該補正がなされない場合の、ディスプレイ35に対する手書き入力の一例を示す図である。
上記のようなシフトの度合いは、タッチ入力の継続中に操作者が指を動かす方向にも影響を受ける。たとえば、指が右から左に移動しているときはシフト量は少なく、指が左から右に移動しているときにはシフト量は多い、などの傾向が挙げられる。つまり、一本の線を描く場合であっても、曲線を描く等、線を描いている最中に指の移動方向が変わる場合には、線を描く最中に上記シフトの量は変化し得る。このため、図3の(B)に示されるように、ユーザが本来の文字に従った軌道でディスプレイ35をタッチしても、ディスプレイ35において検出される軌跡は、ユーザのタッチした軌道とは異なる場合があり得る。一方、本実施の形態によれば、ユーザが本来の文字に従った軌道でディスプレイ35をタッチすれば、図3の(A)に示されるように、ディスプレイ35は、その通りの軌道を検出する。
図4は、操作者がスタイラスペンを利用してディスプレイ35に情報を入力する際の、ディスプレイ35に対する操作態様の例を模式的に示す図である。図4を参照して、入力端末1では、操作者は、ディスプレイ35に対して、右手208で把持したスタイラスペン210を利用して情報を入力することもできれば、左手206で把持したスタイラスペン210を利用して情報を入力することもできる。操作者は、右利きであれば、主に右手でスタイラスペン210を把持して、ディスプレイ35へ情報を入力する。操作者は、左利きであれば、主に左手でスタイラスペン210を把持して、ディスプレイ35へ情報を入力する。
本実施の形態では、操作者が、ディスプレイ35に対して、右手で情報を入力しているか、左手で情報を入力しているかを判定する。そして、入力端末1は、当該判定結果に応じて、ディスプレイ35のタッチセンサからの検出出力の補正、および/または、ディスプレイ35における表示内容の調整を行なう。
検出出力の補正の例としては、たとえば、右利きと判断された場合には、タッチセンサからの検出出力によって特定されるタッチ位置を左側にシフトさせるような補正が挙げられる。また、シフトの度合いは、タッチセンサにおける検出出力の分布の態様に応じて、変更され得る。たとえば、ユーザの指や手(スタイラスペン210)の傾きが大きいと判断されるほど、シフト量が大きくされる場合があり得る。
ディスプレイ35における表示内容の調整の例としては、たとえば、ディスプレイ35に表示されるアイコンの配列の調整が挙げられる。より具体的には、右利きと判断された場合には、利用頻度が高いアイコンほど右側に配列されるように、また、左利きと判断された場合には、利用頻度の高いアイコンほど左側に配列されるように、アイコンの配列が調整される。
[検出機構の例示]
次に、入力端末1における、操作者の操作する手が右手であるか左手であるかの検出をするための機構について、説明する。本明細書では、操作者の操作する手が右手であるとが検出されたことを、操作者が右利きであることが検出されたという場合がある。操作者が右利きであれば、多くの場合、当該操作者は右手で操作するからである。また、操作者の操作する手が左手であるとが検出されたことを、操作者が左利きであることが検出されたという場合がある。操作者が左利きであれば、多くの場合、当該操作者は左手で操作するからである。
図5は、入力端末1のタッチセンサによって、ディスプレイ35に対する操作位置を検出する機構を説明するための図である。
図5には、タッチセンサ40の断面が模式的に示されている。タッチセンサ40は、ガラス基板40Cと、当該ガラス基板40C上に配置された電極対40Xと、電極対40X上に配置された保護板40Dとを含む。電極対40Xについては、ガラス基板40Cではなく保護板40D上に配置してもよい。タッチセンサ40は、入力端末1の制御状態等を表示するディスプレイ35に対して表面側に配置されている。したがって、操作者は、タッチセンサ40を介して、ディスプレイ35上の表示を視認する。本実施の形態では、ディスプレイ35とタッチセンサ40によって、タッチパネルが構成される場合を示す。
なお、タッチセンサ40は、ディスプレイ35の裏面側に配置されていても良い。この場合、操作者は、入力端末1の表面からディスプレイ35における表示を視認し、入力端末1の裏面に対してタッチ操作を行なう。
各電極対40Xは、電極40Aと、電極40Bとを含む。
各電極対40Xの電極40Aの静電容量と電極40Bの静電容量とは、各電極40A,40Bに導電体が近づくと変化する。より具体的には、図5に示されるように、電極対40Xに、導電体の一例である(操作者の)指Fが近づくと、電極40A,40Bのそれぞれの静電容量は、指Fとの距離に応じて変化する。図5では、電極40A,40Bと指Fとの距離が、それぞれ、距離RA,RBで示されている。入力端末1では、図6に示されるように、電極対40Xは、タッチセンサ40(図6ではディスプレイ35に重ねられて配置されている)の全域に渡って配列されるように、配置されている。電極対40Xは、たとえばマトリクス状に、配列されている。また、入力端末1では、各電極対40Xの電極40A,40Bの静電容量を、互いに独立して検出される。したがって、入力端末1は、タッチセンサ40全域(ディスプレイ35全域)に渡って、電極対40Xの電極40A,40Bの静電容量の変化量の分布を取得できる。そして、入力端末1は、当該変化量の分布に基づいて、ディスプレイ35におけるタッチ位置を特定する。
なお、上記した導電体がディスプレイ35(タッチパネル)に接触していない状態であっても、各電極40A,40Bの静電容量は、当該導電体の位置(各電極40A,40Bに対する距離)に影響を受け得る。したがって、電極40A,40Bの静電容量の分布は、図2を参照して説明したような、操作者が右手で操作するか左手で操作するかによって、影響を受け得る。また、電極40A,40Bの静電容量の分布は、図4を参照して説明したような、操作者がスタイラスペン210を右手で把持するか左手で把持するかによって、影響を受け得る。図7および図8は、電極40A,40Bの静電容量の分布における、導電体のディスプレイ35(タッチパネル)に接触しない部分による影響を説明するための図である。
図7の(A)には、入力端末1において、ディスプレイ35に対して左右のいずれにも傾かずに、スタイラスペン210がディスプレイ35に接触している状態が示されている。図7の(A)では、左右方向が、線L1で示されている。
図7の(B)には、図7の(A)に対応した検出出力であって、線L1上に配置された電極対40Xの静電容量の検出出力の一例が示されている。図7の(B)のグラフの縦軸は、静電容量に対応する。横軸は、線L1上に配置された各電極対40Xのそれぞれを特定する情報(センサID)に対応する。図7の(B)に示された出力E11は、電極40Bの静電容量に対応する。
図8の(A)には、入力端末1において、ディスプレイ35に対して右側に傾きながら、スタイラスペン210がディスプレイ35に接触している状態が示されている。図8の(A)では、左右方向が、線L2で示されている。
図8の(B)には、図8の(A)に対応した検出出力であって、線L2上に配置された電極対40Xの静電容量の検出出力の一例が示されている。図8の(B)のグラフの縦軸は、静電容量に対応する。横軸は、線L2上に配置された各電極対40Xのそれぞれを特定する情報(センサID)に対応する。図8の(B)に示された出力E21は、電極40Bの静電容量に対応する。
図8の(B)では、出力E21は、ピーク位置から、白抜きの矢印A21で示した右側の勾配が、左側の勾配よりもなだらかになっている。したがって、入力端末1では、ディスプレイ35で導電体(スタイラスペン210)が傾いて存在する場合、タッチセンサ40の電極40A,40Bの検出出力の分布も当該傾きと同じ側に偏る。
図9は、タッチセンサ40の全域に渡って二次元的に(たとえば、マトリクス状に)配置された電極対40Xのそれぞれの検出出力の分布を模式的に示す図である。なお、図9には、図8の(A)の状態に対応した検出出力が示されている。入力端末1では、図9に示されたように、タッチセンサ40の全域に渡って二次元的に配置された各電極対40Xの電極40A,40Bの検出出力を取得する。入力端末1では、上下方向で、検出出力のピークが存在する位置を特定する。そして、図8の(B)に示されたように、特定された位置の左右方向における検出出力の分布に基づいて、導電体の傾きの度合いが予測される。
以上説明したように、入力端末1は、導電体の傾きと電極40A,40Bの検出出力の分布の関係を利用して、上記検出出力の分布から、上記導電体の傾きを予測する。そして、入力端末1は、上記導電体の傾きの予測結果に基づいて、操作者が、右手でディスプレイ35に情報を入力しているか、左手でディスプレイ35に情報を入力しているかを判定する。
ここで、図2を参照して説明した、導電体の傾きによって、タッチセンサ40において検出されるタッチ位置が実際のタッチ位置よりも右側または左側にシフトするという傾向について、説明する。
図5を参照して説明したように、タッチセンサ40の各電極40A,40Bの静電容量は、導電体との距離に影響を受ける場合がある。したがって、タッチセンサ40に導電体が接触していなくとも、タッチセンサ40近傍に導電体が存在すれば、電極40A,40Bの静電容量は影響を受ける可能性がある。操作者が右手でディスプレイ35に情報を入力する場合、ディスプレイ35の表面近傍では、操作者の指またはスタイラスペン120が接触する点の右側近傍に導電体(操作者の右手)が存在すると予想される。本来は、図7の(B)や図8の(B)に示されたようなグラフでは、静電容量のピークは、操作者の指またはスタイラスペン120が接触する点に一致する。しかしながら、上記のようなディスプレイ35の表面近傍における導電体の存在により、当該ピークの位置は、本来ユーザがタッチしようと意図した位置から右側にシフトする事態が想定される。たとえば、右手の指で操作する場合、ユーザがタッチしようと試みる場所は指の真下ではなく、若干左方向にある場合が多い。しかし、タッチセンサ40に触れられる位置の中心は指の腹であることから、ピーク位置は若干右方向にシフトすることが多い。また、操作者が左手でディスプレイ35に情報を入力する際も、同様であると考えられる。
[ハードウェア構成]
図10を参照して、入力端末1のハードウェア構成について説明する。図10は、入力端末1のハードウェア構成の一例を表わすブロック図である。
入力端末1は、CPU20と、アンテナ23と、通信装置24と、ハードウェアボタン25と、カメラ26と、フラッシュメモリ27と、RAM(Random Access Memory)28と、ROM29と、メモリカード駆動装置30と、マイク32と、スピーカ33と、音声信号処理回路34と、ディスプレイ35と、LED(Light Emitting Diode)36と、データ通信I/F37と、バイブレータ38と、ジャイロセンサ39と、タッチセンサ40とを備える。メモリカード駆動装置30には、メモリカード31が装着され得る。
アンテナ23は、基地局によって発信される信号を受信し、または、基地局を介して他の通信装置と通信するための信号を送信する。アンテナ23によって受信された信号は、通信装置24によってフロントエンド処理が行なわれた後、処理後の信号は、CPU20に送られる。
タッチセンサ40は、入力端末1に対するタッチ操作を受け付けて、当該タッチ操作が検出された点の座標値をCPU20に送出する。CPU20は、その座標値と入力端末1の動作モードとに応じて予め規定されている処理を実行する。
なお、CPU20は、上記したように、タッチセンサ40からの検出出力に応じて、操作者が、タッチ操作に、右手を使用したか左手を使用したかを判定することができる。また、CPU20は、当該判定の結果に基づいて、タッチ操作が検出された点の座標値を補正することができる。図10では、これらのCPU20の機能が、判定部20Aおよび補正部20Bとして示されている。
ハードウェアボタン25は、入力ボタン25Aを含む。ハードウェアボタン25に含まれる各ボタンは、外部から操作されることにより、各ボタンに対応する信号を、CPU20に入力する。
CPU20は、入力端末1に対して与えられる命令に基づいて入力端末1の動作を制御するための処理を実行する。入力端末1が信号を受信すると、CPU20は、通信装置24から送られた信号に基づいて予め規定された処理を実行し、処理後の信号を音声信号処理回路34に送出する。音声信号処理回路34は、その信号に対して予め規定された信号処理を実行し、処理後の信号をスピーカ33に送出する。スピーカ33は、その信号に基づいて音声を出力する。
マイク32は、入力端末1に対する発話を受け付けて、発話された音声に対応する信号を音声信号処理回路34に対して送出する。音声信号処理回路34は、その信号に基づいて通話のために予め規定された処理を実行し、処理後の信号をCPU20に対して送出する。CPU20は、その信号を送信用のデータに変換し、変換後のデータを通信装置24に対して送出する。通信装置24は、そのデータを用いて送信用の信号を生成し、アンテナ23に向けてその信号を送出する。
フラッシュメモリ27は、CPU20から送られるデータを格納する。また、CPU20は、フラッシュメモリ27に格納されているデータを読み出し、そのデータを用いて予め規定された処理を実行する。
RAM28は、タッチセンサ40に対して行なわれた操作やその他の入力端末への操作に基づいてCPU20によって生成されるデータを一時的に保持する。ROM29は、入力端末1に予め定められた動作を実行させるためのプログラムあるいはデータを格納している。CPU20は、ROM29から当該プログラムまたはデータを読み出し、入力端末1の動作を制御する。
メモリカード駆動装置30は、メモリカード31に格納されているデータを読み出し、CPU20に送出する。メモリカード駆動装置30は、CPU20によって出力されるデータを、メモリカード31の空き領域に書き込む。メモリカード駆動装置30は、CPU20によって受けた命令に基づき、メモリカード31に格納されているデータを消去する。
なお、メモリカード駆動装置30は、メモリカード31以外の形態の記録媒体に対して情報の読み取りおよび書き込みを行なうメディアドライブに置換される場合があり得る。記録媒体としては、CD−ROM(Compact Disk - Read Only Memory)、DVD−ROM(Digital Versatile Disk - Read Only Memory)、Blue−rayディスク、USB(Universal Serial Bus)メモリ、メモリカード、FD(Flexible Disk)、ハードディスク、磁気テープ、カセットテープ、MO(Magnetic Optical Disk)、MD(Mini Disk)、IC(Integrated Circuit)カード(メモリカードを除く)、光カード、マスクROM、EPROM、EEPROM(Electronically Erasable Programmable Read Only Memory)などの、不揮発的にプログラムを格納する媒体が挙げられる。
音声信号処理回路34は、上述のような通話のための信号処理を実行する。なお、図10に示される例では、CPU20と音声信号処理回路34とが別個の構成として示されているが、他の局面において、CPU20と音声信号処理回路34とが一体として構成されていてもよい。
ディスプレイ35は、CPU20から取得されるデータに基づいて、当該データによって規定される画像を表示する。たとえば、フラッシュメモリ27が格納している静止画、動画、音楽ファイルの属性(当該ファイルの名前、演奏者、演奏時間など)を表示する。
LED36は、CPU20からの信号に基づいて、予め定められた発光動作を実現する。
データ通信I/F37は、データ通信用のケーブルの装着を受け付ける。データ通信I/F37は、CPU20から出力される信号を当該ケーブルに対して送出する。あるいは、データ通信I/F37は、当該ケーブルを介して受信されるデータを、CPU20に対して送出する。
バイブレータ38は、CPU20から出力される信号に基づいて、予め定められた周波数で発振動作を実行する。
ジャイロセンサ39は、入力端末1の向きを検出し、検出結果をCPU20に送信する。CPU20は、当該検出結果に基づいて、入力端末1の姿勢を検出する。より具体的には、入力端末1の筐体の形状は、図1等に示されるように長方形である。そして、CPU20は、上記検出結果に基づいて、当該長方形の長手方向が、ディスプレイ35を視認するユーザの上下方向に位置するか、または、左右方向に位置するか等、入力端末1の筐体の姿勢を検出する。なお、ジャイロセンサ39の検出結果に基づいた入力端末1の筐体の姿勢の検出については、公知の技術を採用することができるため、ここでは詳細な説明は繰り返さない。また、ジャイロセンサ39は、入力端末1の筐体の姿勢を検出するためのデータを取得するいかなる部材にも置換され得る。
[タッチ操作の検出処理]
次に、図11を参照して、ディスプレイ35に対するタッチ操作の検出のための処理の内容を説明する。図11は、入力端末1において、タッチ操作の検出のためにCPU20が実行する処理のフローチャートである。なお、図11の処理は、入力端末1がタッチセンサ40へのタッチ操作を受け付けるモードで動作している期間中、継続して、実行される。
図11を参照して、ステップS10で、CPU10は、タッチセンサ40へのタッチ操作があったか否かを判断する。そして、CPU10は、タッチ操作が無いと判断すると、当該操作が検出されるまで待機し、タッチ操作があったと判断すると、ステップS20へ処理を進める。なお、CPU10は、たとえば、図7の(B)等を参照して説明したように、すべての電極対40Xのうち少なくとも1つの静電容量の絶対値が特定の値以上となった場合に、タッチ操作があったと判断する。
ステップS20では、CPU20は、タッチセンサ40の感度を上昇させるように動作モードを変更して、ステップS30へ処理を進める。なお、「タッチセンサ40の感度を上昇させる」とは、たとえば、センシングの積分回数の上昇、または、情報量の向上によって、実現される。センシングの積分回数の上昇とは、たとえば、CPU20が、タッチセンサ40の各電極対40Xの各電極40A,40Bの1回分の検出出力の決定に、各電極40A,40Bから8回の出力の積分値を利用していたところ、その4倍の32回の出力の積分値を利用することが挙げられる。情報量の向上とは、たとえば、CPU20において、各電極40A,40Bからの検出出力のゲインを上昇させることが挙げられる。
ステップS30では、CPU20は、ディスプレイ35の上空(ディスプレイ35表面から僅かに離間した位置)の状態の判別を行なって、ステップS40へ処理を進める。判別とは、ディスプレイ35の上空において、導電体が、図8の(A)に示されたように右に傾いているか、または、左に傾いているかを判別する。より具体的には、CPU20は、図7〜図9を参照して説明したように、タッチセンサ40の各電極40A,40Bの検出出力の分布を作成し、そして、当該検出出力の分布が、検出出力のピークを中心とした場合、右側に偏っているか(図8の(B)参照)、または、左側に偏っているかに応じて、上空の導電体が右側に傾いているか左側に傾いているかを判別する。なお、上下左右方向の決定には、ジャイロセンサ39の検出出力に基づく、入力端末1の筐体の姿勢の検出結果を利用してもよい。
ステップS40では、CPU20は、ステップS30における判別結果に基づいて、ステップS50へ処理を進めるか、ステップS60へ処理を進めるかを決定する。より具体的には、ステップS30における判別結果が、上空の導電体が右に傾いているというものであれば、CPU20は、ステップS50へ処理を進める。一方、ステップS30における判別結果が、上空の導電体が左に傾いているというものであれば、CPU20は、ステップS60へ処理を進める。
ステップS50では、CPU20は、操作者が右利きであると判断して、ステップS70へ処理を進める。
一方、ステップS60では、CPU20は、操作者が左利きであると判断して、ステップS70へ処理を進める。
ステップS70では、CPU20は、ステップS20で上昇させたタッチセンサ40の感度を通常のものに戻して、ステップS80へ処理を進める。
ステップS80では、CPU20は、タッチパネルにおける操作対象の座標値を導出する処理(タッチパネル座標処理)を実行して、ステップS10へ処理を戻す。
ステップS80では、CPU20は、ステップS30で取得した検出結果の分布に基づいて、ステップS10で検出したタッチ操作に基づいて特定される、タッチセンサ40の操作対象の座標値(タッチセンサ40の各電極40A,40Bの検出出力に基づく操作対象の座標値)を補正することができる。タッチセンサ40の各電極40A,40Bの検出出力に基づく操作対象の座標値の特定は、公知の技術によって実現可能であるため、ここでは詳細な説明は繰り返さない。また、補正の内容の具体例としては、「検出出力の補正の例」として上記されたものが例示される。
CPU20は、ステップS80で導出した座標値を、入力端末1において起動しているアプリケーションに引き渡す。このとき、CPU20は、座標値とともに、ステップS50またはステップS60における判断の結果を、当該アプリケーションに引き渡すこともできる。これにより、当該アプリケーションは、たとえばアイコンの配列を上記したように調整する等、ディスプレイ35における表示内容を含むアプリケーションにおける処理内容を、判断の結果に応じて変更することができる。なお、当該アプリケーションも、CPU20によって実行される場合があり得る。
以上説明した本実施の形態では、ステップS40において、ディスプレイ35の上空において、左右のいずれにも導電体が傾いていることが判別できない場合、CPU20は、たとえばステップS50等、ステップS50とステップS60のうち予め定められた方へ処理を進める。
[駆動モードの変化の態様]
図12は、本実施の形態における入力端末1における、タッチセンサ40の感度の変更に関する動作モードの変化を示す図である。図12では、タッチ操作の有無(タッチ操作)と、タッチセンサ40の駆動モード(センサ駆動)と、各駆動モードにおけるタッチセンサ40の感度(センサ感度)が示されている。
図12を参照して、タッチセンサ40に対するタッチ操作が検出されるまで、駆動モードは、待機モードである。タッチ操作が開始されると(図11における、ステップS10からステップS20への処理が進行に相当)、これに応じて、駆動モードは上空判別モードへと移行し、センサ(タッチセンサ40)の感度が上昇する。図12では、上昇前のセンサの感度が「Normal」で示され、上昇後のセンサの感度が「High」で示されている。
その後、図12のステップS50またはステップS60で利き手の判断が終了することにより、上空判別モードが終了する。これに応じて、センサの感度の上昇が解除される。その後、タッチセンサ40へのタッチ操作が継続されている期間中、通常のタッチ位置等の検出が継続される(通常座標検出モード)。そして、タッチ操作が解除されると、動作モードは、再度待機モードに移行する。
上記、上空判別モードと通常座標検出モードとは、タッチ操作の期間中、交互に実行されてもよい。上空判別モードでは、センサ感度を上昇させることによりノイズの影響を受けやすくなる可能性がある。これにより、タッチ操作の位置精度が悪くなる可能性があるため、上空判別モードにおけるタッチ位置情報は使用しないことも考慮できる。ただし、1回のタッチ操作の期間中に上空判別モードに属する処理(ステップS30〜ステップS60)が1回しか実行されなかった場合には、タッチ位置の決定が傾きの度合いなどの変化に追従できない可能性も想定される。このため、当該変化に追従できない場合には、上空判別モードと通常座標検出モードとは、タッチ操作が継続されている期間中、交互に行なわれればよい。
[実施の形態の効果および変形例]
以上説明した本実施の形態では、導電体(スタイラスペン、指、等)によるタッチセンサ40へのタッチ操作が検出されると、操作者が右利きか左利きかが判別される。これにより、ディスプレイ35における表示内容を含む、アプリケーションの処理内容が、ユーザが操作する手(右手または左手)に応じたものとすることができる。なお、当該判別は、ディスプレイ35に対するタッチ位置を検出するために搭載されているタッチセンサ40の検出出力に基づいて行なわれ、他に特別なセンサを必要としない。本実施の形態では、タッチセンサに情報を入力する上記導電体により、操作体が構成される。
また、本実施の形態では、上記判別の結果に基づいて、ディスプレイ35のタッチ位置(タッチの対象となった座標値)が補正され得る。これにより、図3を参照して説明したように、入力端末1内で取得されるタッチ操作の座標値と、ユーザの意図した位置との差異をより小さくすることができる。
本実施の形態では、操作者の利き手(操作に使用している手)を判別する期間(ステップS20〜ステップS70)では、CPU20は、タッチセンサ40の感度を上昇させる。これにより、CPU20は、より正確に、利き手を判別できるとともに、その傾きの度合いを検出することができる。
タッチセンサ40の感度の上昇により、入力端末1における消費電力量が上昇し得る。ただし、本実施の形態では、上記期間に限って感度を上昇させることにより、消費電力量の上昇が極力抑えられる。
また、感度を上昇させることにより、タッチセンサ40からCPU20への出力がノイズを含む可能性が大きくなり、これにより、タッチセンサ40の出力に基づいて特定される位置における誤差が大きくなる場合があり得る。この点については、ステップS20〜ステップS70の期間では、CPU20は、タッチセンサ40に含まれる複数の電極対40Xのうち、ステップS10においてタッチ操作を検出された位置とその近傍に位置するものからの検出出力に基づいて、処理を実行することが好ましい。また、上記誤差が大きくなる場合があるため、上記感度上昇時間におけるタッチの位置情報については利用せず、効き手判別、傾き情報取得にとどめることによって、該誤差の影響を最小限にとどめることができる。
また、感度の上昇の一例として、タッチセンサ40の検出出力の積分回数を増大することを挙げた。この場合、CPU20は、タッチセンサ40から通常より多い回数の検出出力を取得するまで、タッチセンサ40における各電極40A,40Bの検出値を特定できない。これにより、処理が遅くなる可能性も想定される。この場合には、ステップS20〜ステップS70の期間では、CPU20およびタッチセンサ40の動作周波数を上昇させるよう変更すればよい。一方、これ以外の期間では、動作周波数を当該期間よりも減少させることにより、消費電力量の上昇を極力抑えることができる。
今回開示された実施の形態およびその変形例はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。実施の形態およびその変形例において開示された技術は、可能な限り単独でも組み合わせても実施され得ることが意図される。
1 入力端末、20 CPU、20A 判定部、20B 補正部、23 アンテナ、24 通信装置、25 ハードウェアボタン、26 カメラ、27 フラッシュメモリ、28 RAM、29 ROM、30 メモリカード駆動装置、31 メモリカード、32 マイク、33 スピーカ、34 音声信号処理回路、35 ディスプレイ、36 LED、37 データ通信I/F、38 バイブレータ、35 ディスプレイ、39 ジャイロセンサ、40 タッチセンサ、40A,40B 電極、40C ガラス基板、40D 保護板、40X 電極対。

Claims (7)

  1. 操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置であって、
    前記タッチセンサに入力された情報に基づいて、情報処理を実行する情報処理手段をさらに備え、
    前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
    前記情報処理手段は、前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定し、
    前記情報処理手段は、前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得する、タッチパネル式入力装置。
  2. 前記タッチセンサは、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記操作の検出の感度を上昇させ、前記情報処理手段による前記判定が完了したことを条件として、前記感度を上昇させる前の感度に戻す、請求項1に記載のタッチパネル式入力装置。
  3. 前記タッチセンサは、前記タッチ操作が行なわれたことが検出された部分を含む一部の部分においてのみ、前記操作の検出の感度を上昇させる、請求項2に記載のタッチパネル式入力装置。
  4. 前記タッチセンサは、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記操作の検出の頻度を上昇させ、前記情報処理手段による前記判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻し、
    前記情報処理手段は、前記タッチセンサに対するタッチ操作が行なわれたことを条件として、前記タッチセンサから検出出力を取得する頻度を上昇させ、前記判定が完了したことを条件として、当該頻度を上昇させる前の頻度に戻す、請求項1〜請求項3のいずれか1項に記載のタッチパネル式入力装置。
  5. 前記情報処理手段は、前記判定の結果および前記傾きの度合いに基づいて、前記タッチセンサの情報の入力の対象となった位置情報を補正する、請求項1〜請求項4のいずれか1項に記載のタッチパネル式入力装置。
  6. 操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行される、当該入力装置の制御方法であって、
    前記タッチセンサに入力された情報に基づいて、情報処理を実行するステップを備え、
    前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
    前記情報処理を実行するステップは、
    前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、
    前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得することとを含む、タッチパネル式入力装置の制御方法。
  7. 操作体を用いた操作を検出するタッチセンサを含むタッチパネルを備えた入力装置のコンピュータによって実行されるプログラムであって、
    前記プログラムは、前記コンピュータに、
    前記タッチセンサに入力された情報に基づいて、情報処理を実行するステップを実行させ、
    前記タッチセンサは、当該タッチセンサに対して離間した場所における物体の位置に応じて、前記情報処理手段に対する検出出力を変更することができ、
    前記情報処理を実行するステップは、
    前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する操作が、操作者の右手によって行なわれたか左手によって行なわれたかを判定することと、
    前記タッチセンサにおける検出出力の分布に基づいて、前記タッチセンサに対する前記操作体の傾きの度合いを特定するための情報を取得することとを含む、プログラム。
JP2012229693A 2012-10-17 2012-10-17 タッチパネル式入力装置、その制御方法、および、プログラム Expired - Fee Related JP6000797B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012229693A JP6000797B2 (ja) 2012-10-17 2012-10-17 タッチパネル式入力装置、その制御方法、および、プログラム
US14/435,499 US20150301647A1 (en) 2012-10-17 2013-10-15 Touch panel-type input device, method for controlling the same, and storage medium
PCT/JP2013/077894 WO2014061626A1 (ja) 2012-10-17 2013-10-15 タッチパネル式入力装置、その制御方法、および、プログラム
CN201380053695.3A CN104737107B (zh) 2012-10-17 2013-10-15 触摸面板式输入装置、其控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012229693A JP6000797B2 (ja) 2012-10-17 2012-10-17 タッチパネル式入力装置、その制御方法、および、プログラム

Publications (2)

Publication Number Publication Date
JP2014081807A true JP2014081807A (ja) 2014-05-08
JP6000797B2 JP6000797B2 (ja) 2016-10-05

Family

ID=50488189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012229693A Expired - Fee Related JP6000797B2 (ja) 2012-10-17 2012-10-17 タッチパネル式入力装置、その制御方法、および、プログラム

Country Status (4)

Country Link
US (1) US20150301647A1 (ja)
JP (1) JP6000797B2 (ja)
CN (1) CN104737107B (ja)
WO (1) WO2014061626A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017519318A (ja) * 2014-06-04 2017-07-13 アップル インコーポレイテッド フレーム内ブランキング
KR101815889B1 (ko) 2017-02-08 2018-01-08 계명대학교 산학협력단 사용자의 키 입력 특성을 학습하는 가상 키패드를 이용한 사용자의 키 입력 방법 추정 방법 및 시스템

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015053034A (ja) * 2013-08-07 2015-03-19 船井電機株式会社 入力装置
KR20150019352A (ko) * 2013-08-13 2015-02-25 삼성전자주식회사 전자장치에서 그립상태를 인지하기 위한 방법 및 장치
US9665206B1 (en) * 2013-09-18 2017-05-30 Apple Inc. Dynamic user interface adaptable to multiple input tools
USD755244S1 (en) * 2013-12-30 2016-05-03 Samsung Electronics Co., Ltd. Display screen with animated icon
US10416801B2 (en) 2014-04-08 2019-09-17 Atmel Corporation Apparatus, controller, and device for touch sensor hand-configuration analysis based at least on a distribution of capacitance values
USD776200S1 (en) * 2014-05-27 2017-01-10 Amazon Technologies, Inc. Label with a touch graphic
US10175741B2 (en) 2016-03-03 2019-01-08 Atmel Corporation Touch sensor mode transitioning
WO2018008492A1 (ja) * 2016-07-06 2018-01-11 シャープ株式会社 タッチパネル制御装置および電子機器
US20180181245A1 (en) * 2016-09-23 2018-06-28 Microsoft Technology Licensing, Llc Capacitive touch mapping
JP7159636B2 (ja) * 2018-06-20 2022-10-25 カシオ計算機株式会社 電子機器、制御方法及びプログラム
US11775120B2 (en) * 2021-01-28 2023-10-03 Texas Instruments Incorporated Combined capacitive and piezoelectric sensing in a human machine interface
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146026A (ja) * 2011-01-07 2012-08-02 Canon Inc タッチパネル装置およびタッチパネル検出位置補正方法
JP2012194692A (ja) * 2011-03-15 2012-10-11 Ntt Docomo Inc 表示装置、表示装置の制御方法、及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010250610A (ja) * 2009-04-16 2010-11-04 Sony Corp 情報処理装置、傾き検出方法及び傾き検出プログラム
JP2011028560A (ja) * 2009-07-27 2011-02-10 Sony Corp 情報処理装置、表示方法及び表示プログラム
CN102713822A (zh) * 2010-06-16 2012-10-03 松下电器产业株式会社 信息输入装置、信息输入方法以及程序
US9244545B2 (en) * 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US9354804B2 (en) * 2010-12-29 2016-05-31 Microsoft Technology Licensing, Llc Touch event anticipation in a computing device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012146026A (ja) * 2011-01-07 2012-08-02 Canon Inc タッチパネル装置およびタッチパネル検出位置補正方法
JP2012194692A (ja) * 2011-03-15 2012-10-11 Ntt Docomo Inc 表示装置、表示装置の制御方法、及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017519318A (ja) * 2014-06-04 2017-07-13 アップル インコーポレイテッド フレーム内ブランキング
KR101815889B1 (ko) 2017-02-08 2018-01-08 계명대학교 산학협력단 사용자의 키 입력 특성을 학습하는 가상 키패드를 이용한 사용자의 키 입력 방법 추정 방법 및 시스템

Also Published As

Publication number Publication date
WO2014061626A1 (ja) 2014-04-24
JP6000797B2 (ja) 2016-10-05
CN104737107B (zh) 2017-05-31
US20150301647A1 (en) 2015-10-22
CN104737107A (zh) 2015-06-24

Similar Documents

Publication Publication Date Title
JP6000797B2 (ja) タッチパネル式入力装置、その制御方法、および、プログラム
US8669947B2 (en) Information processing apparatus, information processing method and computer program
KR102184288B1 (ko) 입력 유닛에 햅틱 효과를 제공하는 휴대 단말 및 방법
KR102081817B1 (ko) 디지타이저 모드 전환 방법
US9977497B2 (en) Method for providing haptic effect set by a user in a portable terminal, machine-readable storage medium, and portable terminal
JP5066055B2 (ja) 画像表示装置、画像表示方法およびプログラム
JP5808712B2 (ja) 映像表示装置
US10254835B2 (en) Method of operating and electronic device thereof
JPWO2012011263A1 (ja) ジェスチャ入力装置およびジェスチャ入力方法
JP2009276926A (ja) 情報処理装置及び情報処理装置の表示情報編集方法
JP2010055510A (ja) 情報処理装置及び情報処理方法
KR20110074663A (ko) 정보처리장치 및 그 제어 방법
JP2010224764A (ja) タッチパネル式ディスプレイを持った携帯型ゲーム装置
JP2010146032A (ja) 携帯端末装置、及び表示制御方法
WO2014049671A1 (ja) 表示装置およびペン入力消去方法
US20170192465A1 (en) Apparatus and method for disambiguating information input to a portable electronic device
US20150268828A1 (en) Information processing device and computer program
US8188975B2 (en) Method and apparatus for continuous key operation of mobile terminal
KR20150008963A (ko) 스크린을 제어하는 휴대 단말 및 방법
US9235338B1 (en) Pan and zoom gesture detection in a multiple touch display
JP2010211323A (ja) 入力システム、携帯端末、入出力装置、入力システム制御プログラム、コンピュータ読み取り可能な記録媒体、および、入力システムの制御方法
JP2016119019A (ja) 情報処理装置、情報処理方法、プログラム
WO2018159414A1 (ja) 端末装置及び操作制御プログラム
KR102086676B1 (ko) 유저 인터페이스를 통한 입력 처리 장치 및 방법
KR101573287B1 (ko) 전자기기에서 터치 위치 디스플레이 방법 및 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160510

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160708

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160831

R150 Certificate of patent or registration of utility model

Ref document number: 6000797

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees