Nothing Special   »   [go: up one dir, main page]

JP6660309B2 - ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 - Google Patents

ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 Download PDF

Info

Publication number
JP6660309B2
JP6660309B2 JP2016569621A JP2016569621A JP6660309B2 JP 6660309 B2 JP6660309 B2 JP 6660309B2 JP 2016569621 A JP2016569621 A JP 2016569621A JP 2016569621 A JP2016569621 A JP 2016569621A JP 6660309 B2 JP6660309 B2 JP 6660309B2
Authority
JP
Japan
Prior art keywords
touch
pen
sensitive
computing device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016569621A
Other languages
English (en)
Other versions
JP2017517813A5 (ja
JP2017517813A (ja
Inventor
ヒンクリー,ケン
ベンコ,フルヴォイェ
パユ,ミシェル
ウィルソン,アンドリュー,ディー.
イラニ,ポーラン,ポラド
グイムブレティエレ,フランソワ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017517813A publication Critical patent/JP2017517813A/ja
Publication of JP2017517813A5 publication Critical patent/JP2017517813A5/ja
Application granted granted Critical
Publication of JP6660309B2 publication Critical patent/JP6660309B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03545Pens or stylus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • G06F3/0383Signal control means within the pointing device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers
    • G06F3/04162Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/041Indexing scheme relating to G06F3/041 - G06F3/045
    • G06F2203/04104Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Description

[01] 多くのモバイルコンピューティングデバイス(例えば、タブレット、電話など)、ならびにデスクトップデジタイザ、製図板、卓上装置、電子書籍リーダー、電子ホワイトボードおよび他の大型ディスプレイなどの他のデバイスは、ペン、ポインタ、またはペンタイプ入力デバイスを入力目的でコンピューティングデバイスのデジタイザ構成要素と組み合わせて使用する。これらのコンピューティングデバイスの多くは、タッチ感応画面を有し、ペンとインタラクトし、および素手のタッチとインタラクトし、または2つの組合せとインタラクトする。
[02] 本概要は、発明を実施するための形態において以下にさらに説明する概念の抜粋を簡略化した形で紹介するために提供される。本概要は、特許請求される主題の主要な特徴または不可欠な特徴を識別することが意図されていないし、特許請求される主題の範囲を決定する際の助けとして使用されることも意図されていない。
[03] 概して、ペンおよびコンピューティングデバイスセンサ相関技法の実施形態は、本明細書に説明するように、タッチ感応ペン(例えば、本明細書ではペン、センサペンまたはタッチ感応スタイラスペンとも呼ばれる)上の様々な握りおよびタッチ感応コンピューティングデバイス(例えば、タッチ感応タブレットコンピューティングデバイス)へのタッチまたはタッチ感応コンピューティングデバイス上の握りから受け取ったセンサ信号を相関させて、そのような握りおよびタッチの文脈を決定し、文脈に適したコマンドをタッチ感応ペンおよび/またはタッチ感応コンピューティングデバイスに発行する。
[04] ペンおよびコンピューティングデバイスセンサ相関技法の様々な実施形態において、タッチ感応ペンおよびタッチ感応コンピューティングデバイスの両方から受け取った並行センサ入力の組合せが相関される。どのようにタッチ感応ペンが握られ、どのようにタッチ感応コンピューティングデバイスがタッチされまたは握られるのかは、それらの使用およびユーザの意図の文脈を決定するのに使用される。次いで、これらの握りおよびタッチの入力に基づくユーザインターフェース作用を開始することができる。
[05] ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実施形態において、ペンとコンピューティングデバイスとの運動も、並行のタッチおよび握りセンサ入力と相関させて、いずれかのデバイスがユーザの好む手またはユーザの好まない手に保持されているかどうかを決定する、推論された文脈を決定する、文脈に適したコマンドおよび機能を開始することができる。例えば、決定された文脈は、ディスプレイ上の不測のコンテンツの回転を抑える、ディスプレイ上に表示されたコンテンツをパンまたはズームする、ペン特有のツールのメニューを表示する、キャンバスツールまたは製図ツールのメニューを表示する、または、とりわけコンピューティングデバイスのディスプレイ上のコンテンツを拡大する拡大鏡/ルーペツールを表示するコマンドを開始するのに使用することができる。
[06] さらに、ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実施形態は、メタ情報を見つけて、感知された握りまたはタッチの文脈を意味的にラベル付けするのに使用することができる。例えば、いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実施形態は、ユーザによる2つ以上のタッチ感応デバイスへの接触の受け取った信号を相関させ、信号の相関に基づいて接触の文脈を決定する。決定された接触の文脈は、アプリケーションで使用するためにメタデータとしてラベル付けされる。例えば、この文脈は、ユーザがどちらの手でデバイスを保持しているのか、ユーザがどのようにデバイスを保持しているのか、何人のユーザがデバイスを保持しているのか、等々であり得る。導出されたメタデータは、任意のタイプの入力をラベル付けするのに使用することができ、他の目的に使用することができる。文脈メタデータは、文脈に適したユーザインターフェース作用を開始するのに使用することもできる。
[07] ユーザに文脈特有のツールを提供するために、ユーザがタッチ感応ペンおよび/またはタッチ感応コンピューティングデバイスを保持し、タッチする自然なやり方を利用する実に多くの機能が可能である。
[08] 特許請求される主題の具体的な特徴、態様、および利点は、以下の説明、添付の特許請求の範囲、および付属の図面を参照すると、よりよく理解されることになろう。
[09]例示的な自然に発生する中核になるペンの握りおよびポーズを示す図である。 [010]タッチ画面操作のための例示的な自然に発生する単一の指伸長握りを示す図である。 [011]タッチ画面操作のための例示的な自然に発生する複数の指伸長握りを示す図である。 [012]他のタイプの自然に発生するペンの握りを示す図である。 [013]本明細書に説明するように、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を実装するためのプログラムモジュールを例示する例示的なシステムの図である。 [014]本明細書に説明するように、相関されたタッチおよびセンサペン入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な流れ図である。 [015]2つ以上のタッチ感応デバイス上への接触により受け取った相関された信号に基づいてメタデータを提供するためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な流れ図である。 [016]タッチ感応コンピューティングデバイスのディスプレイ画面上の入力の制御を継続するためにポインティングデバイスを使用する例示的な流れ図である。 [017]タッチ感応コンピューティングデバイスを主ユーザから副ユーザに手渡す例示的な流れ図である。 [018]タッチ感応コンピューティングデバイスおよびタッチ感応ペンの両方を主ユーザから副ユーザに手渡す例示的な流れ図である。 [019]本明細書に説明するように、タック握りでユーザの好む手に保持されるペンに基づいて拡大鏡/ルーペツール入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な図である。 [020]本明細書に説明するように、ユーザの好まない手の動作に基づいて全キャンバスパン/ズーム入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な図である。 [021]本明細書に説明するように、ユーザの好む手およびユーザの好まない手の両方のタッチおよび握りパターンに基づいて製図ツール入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な図である。 [022]本明細書に説明するように、ユーザの好む手およびユーザの好まない手の両方のタッチおよび握りパターンに基づいてペンツール入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な図である。 [023]本明細書に説明するように、ユーザの好む手およびユーザの好まない手の両方のタッチおよび握りパターンに基づいてキャンバスツール入力機構を設けるためにペンおよびコンピューティングデバイスセンサ相関技法を使用する例示的な例示の図である。 [024]本明細書に説明するように、2人のユーザが2人の間でタッチ感応ペンを手渡し、両方のユーザのタッチ感応ペン上の握りパターンおよびペンの向きに基づいて文脈に適した機能を開始する例示的な図である。 [025]本明細書に説明するように、2人のユーザのタッチ感応コンピューティングデバイス上の握りパターンおよびタッチ感応コンピューティングデバイスの向きに基づいて2人のユーザが2人の間でタッチ感応コンピューティングデバイスを手渡しまたは共有する例示的な図である。 [026]本明細書に説明するように、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を実装する際に使用するための、様々なセンサ、電源および通信機能を有するタッチ感応ペンと組み合わせて、簡略化されたコンピューティングおよびI/O機能を有する簡略化された汎用コンピューティングデバイスを示す全体のシステム図である。
[027] 特許請求される主題の実装形態の以下の説明において、本明細書の一部を形成し、特許請求される主題を実施することができる例示特有の実装形態により示される付属の図面を参照する。現在特許請求される主題の範囲から逸脱することなく他の実装形態を利用することができ、構造的変更を加えることができることを理解されたい。
[028] 1.0序章
[029] 以下の段落は、タッチ感応コンピューティングデバイス上のモバイル感知、センサ増強ペン、握り感知、およびペン+タッチ入力の序章を提供する。
[030] 1.1携帯用コンピューティングデバイス上のモバイル感知
[031]モバイルデバイス上の傾斜、圧力、および近接感知により、利き手の検出、縦位置/横位置検出、または歩行対静止使用などの文脈適合が可能となる。握り感知により、モバイルデバイスは、どのようにユーザがそれを保持するのかを検出することが可能になり、または電話をかけること、写真を撮ること、またはビデオを見ることなどの機能を自動的に作動させるためにつかみを使用することが可能になる。本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然なユーザの挙動を感知し、それを単一のまたは複数のタッチ感応ペンとタッチ感応コンピューティングデバイス(例えば、タブレット)とのインタラクションに適用する視点を採用する。
[032] マルチタッチ入力および慣性センサ(3軸ジャイロスコープ、加速度計、および磁力計を有する慣性測定ユニット(IMU))が、つかみおよび運動力学に基づいてユーザの意図を判別するためにモバイルデバイスの新たな可能性を提供する。さらに、他のセンサがこれらのモバイルデバイスの位置を追跡することができる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、これらのタイプの運動感知、握り感知、およびマルチタッチ入力を、それらが別々のペンおよびタッチ感応コンピューティング(例えば、タブレット)デバイスにわたって分散されるとき、利用する新たな技法を例示する。
[033] 1.2タブレットの握りおよび感知
[034] タブレットなどの軽量のコンピューティングデバイスは、多くの新たな握り、動き、および感知技法を提供する。本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ペン+タッチインタラクションを感知するためのタブレットおよびペンの両方に対して同時に完全な握り感知および運動感知を最初に実装している。「握り」が装置またはデバイスの3D定位または動きも考慮に入れる具体的な手の接触パターンの全体的組合せとしてシステムによって認識され得ることに留意されたい。すなわち、タッチ感応握り感知と慣性運動感知との間には、すべてのこれらの自由度を、現在観察された「握り」をできるだけ正確に分類する認識手順によって採用することができるので、ある意味、明確な線を引くことができない。したがって、「握り」という用語が使用されているときはいつでも、タッチと運動または向きの自由度との可能な組合せが暗示される。
[035] 1.3手のひら検出および意図的でないタッチの処理
[036] 手のひら接触により、ペン+タッチインタラクションの間、重大な誤作動の問題が起こることがある。例えば、あるノート取りアプリケーションは、手のひらブロッキングを含むが、どのようにおよびどこにユーザ筆記するのかに関するアプリケーション特有の仮定を利用するように見える。ある手のひら拒絶技法では、ユーザがペン先を画面上にまたは画面近くに持ってきてから手のひらを下に置くことを必要とし、それによって、ユーザは自分の自然な動きを変更する必要がある。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、いつタッチ画面接触がペンを保持する手に関連付けられるのかを検出するのにセンサを使用する。
[037] 1.4センサ増強およびマルチDOFペン入力
[038] 補助的傾斜、ロール、および他のペン自由度は、必ずしも自然な使用を中断しなくてもメニューを呼び出すまたはモードスイッチを作動させるために組み合わせることができる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ユーザがペンをタックしながら1つまたは複数の指を伸ばすことができる機能を実装する。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、たとえユーザがペンを画面から十分に離して保持しても、これらの接触を別々の機能を有する別個の文脈として感知することができる。
[039] ペンは、運動、握り、および表面近くの範囲感知を用いて増強することができる。1つのタイプのペンは、三脚筆記握りを検出するため、または異なるタイプのブラシを呼び出すために握り感知を使用する。他のシステムは、握り認識を手助けする特徴としてペン上の統合されたIMUを使用し、適切なスケッチ教材を提供するのを助けるために関連したコンピューティングデバイス/タブレットの向きを感知する(例えば、水平対製図台用)。本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ペン+タッチジェスチャと組み合わせて感知されたペン握りおよび運動を探索することによってならびに握り感知をタブレット自体まで拡大することによってもこれらの作業の範囲を超える。
[040] 2.0自然なペンおよびタブレットユーザの挙動
[041] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然なペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)のユーザ挙動を使用して、これらの挙動に関連付けられた文脈を決定し、それによって、文脈に適したツールをユーザに提供する。したがって、デジタルペンおよびタブレットのタスクの間に起こるある共通の握り、特にペンが手の中にある間、明示されたタッチ画面インタラクションは、見直すのに有用であり、以下に列挙し、図1、2、3および4に示す。実に様々な挙動(以下にB1−B11として列挙される)が観察されており、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を設計する際に使用された。以下の段落は、右利きの人の挙動に集中している。左利きの人は、さらに様々な握りおよび適応を示すことが知られている。以下に論じ、図1、2、3および4に示す挙動は、本質的に例示的だけであり、他の挙動がまったく可能であることに留意された。
[042] 2.1挙動B1.タッチを使用しながらペンをしまう
[043] タブレットなどのタッチ感応コンピューティングデバイスのタッチ画面上でタッチジェスチャを実施するときユーザがペンをしまう傾向があるのは、明らかである。ユーザは、長時間ペンを再び必要としないことを予測するとき、または画面上のキーボードを使用してたくさんのテキストをタイプするなど、ペンを手に持ったまま実施するのには難しすぎる、もしくは落ち着かないと感じるタスクに出会った場合、典型的にはペンを下に置くだけである。
[044] 2.2挙動B2.ペンをしまうためのタック対手のひら
[045] ユーザがペンをしまうのに採用する2つの異なる握りがある。これらは図1 104に示すタック握り(指の間にペンを通す)と図1 106に示す手のひら握り(指をペン軸の周りに軽く巻く)とである。ユーザは、休止の間またはタッチインタラクションを提供するためにペンをしまう。
[046] 2.3挙動B3.好ましいペンしまい込み握りはタスク文脈による
[047] タック握り104および手のひら握り106の両方を採用するユーザの場合、タック握りは、迅速な一時的タッチインタラクションを提供するが、手のひら握りは、ユーザがより長いシーケンスのタッチインタラクションを予測する場合に主として使用される。他のユーザはペンをしまうのにタック握り104だけを使用する。
[048] 2.4挙動B4握り対ポーズ
[049] 各握り、すなわち、ペンを保持する各やり方に対して、ペンの向きが変更される一連のポーズは、しばしば手首の回外(すなわち、手のひらを上に向ける)によって起こる。したがって、人間のペンを用いたつかみ運動は、ペン軸上の手の接触のパターンならびにペンの3D定位を包含する。図1に示すように、全手のひら回外112がタック握り104と手のひら握り106とに対して観察されるが、筆記握りに対しては半回外110だけである。
[050] 2.5挙動B5.タッチのための伸長握り
[051] 図2および3に示すように、ユーザがタッチ画面と接触するようにペンを保持しながら1つまたは複数の指を伸ばす多くの伸長握りが存在する。これらは、ユーザがタック握りまたは手のひら握りのいずれかと区別することができる単一の指伸長握り(図2、200)対複数の指伸長握り(図3、300)として大きく分類された。(例示されていないが、3本指伸長握りもいくつかの握りから可能であることに留意されたい)。
[052] 2.6挙動B6.ペン握りの変形
[053] ユーザは、結果として生じるユーザのタック、手のひら、および伸長握りの変形につながる、筆記用三脚握りの多くの変形を示す。例えば、1人のユーザのタックのスタイルは、単一のタッチジェスチャとして彼女の薬指を好むものとなった(タック薬指伸長握り(図2、206)参照)。
[054] 2.7挙動B7.握りの一貫性
[055] 各ユーザは、一貫して同じ状況で同じペン握りを適用する傾向がある。ユーザは、インタラクションにおける障壁の知覚(疲労や非効率など)により、ユーザが握りを変える動機を得るまで、どの握りでも最も少ない労力を要する握りを維持する傾向もある。ユーザは、たぶん立っている間にモバイルコンピューティングデバイス(例えば、タブレット)を保持するまたは握りなおす効果的なやり方があまりないので、しばしば立っているときよりも座っているとき、そのようなデバイス上の握りを切り換える。
[056] 2.8挙動B8.タッチ画面回避挙動
[057] ユーザは、筆記しながら、またはユーザの指をカニのような形で外に広げながら、手のひらをタッチ画面より上に浮かせるなどの、ペン握りおよび手のポーズをしばしば採用して、画面との偶発的な接触を避ける。タッチ画面回避の別の形態は、タッチ感応コンピューティングデバイスを取り上げるときタッチ画面にあまりに近接して親指を遊ばせるのではなく、タッチ感応コンピューティングデバイスの外側の縁(例えば、タブレットベゼル)に沿って親指を載せることである。これらの不自然なおよび場合により心身を疲れさせる対応は、システムが意図的なタッチ対意図的でないタッチの文脈を区別できないことを反映している。
[058] 2.9挙動B9.ペンコントロールを始動させるための指持ち上げ
[059] ユーザは、筆記握り(図1、102、108、110)からペン軸ボタンだけを始動させ、次いで、人差し指だけを用いることが観察された。ユーザは、ボタンをタップするときペンを依然として保持する。親指は、場合により、手のひら状の親指スライド握り(図4、404)からのコントロールに利用可能でもある。
[060] 2.10挙動B10.外部精密握り
[061] ユーザは、小さな対象物に精密に向けるためにペンを指先の方に筆記面に垂直に保持する外部精密握り(図4、402)を採用する。これにより、この握りが検出されたとき、タブレット画面のペン先の下の領域を自動的にズームするなど、文脈強化を提供する可能性が得られる。
[062] 2.11挙動B11.手渡し握り
[063] 参加者がペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)を別の人に手渡すとき、手渡し把持が観察される。ユーザは、強力握りよりももっとデバイスをしっかり保持する傾向があり、デバイスを水平に保ちながら自分の体からデバイスを差し出し、したがって、ユーザの意図は明確であり、相手の人は遠端側からデバイスをつかみ取ることができる。
[064] これらの自然な挙動を説明してきたので、以下の節では、ユーザの意図した動作を実行するための文脈に適したツールを設けるために、どのようにこれらの握り、タッチおよび運動のすべての認識が、これらの挙動を活用するのに使用されるのかを説明する。
[065] 3.0ペンおよびコンピューティングデバイスセンサ相関技法への序章
[066] 本明細書に説明する、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然に発生するユーザ挙動およびペン+タッチインタラクションに対して起こる固有の文脈を感知するためにタッチ感応コンピューティングデバイス/ペン(例えば、タブレットスタイラスペン)分散型感知システムにデバイス間同期ジェスチャおよびチャネル間入力をもたらす。しかし、本明細書では議論の多くがペン/タブレットインタラクションに集中するが、他のペン状の機械的媒介または小型のウェアラブルデバイスは、ペンおよびコンピューティングデバイスセンサ相関技法の変形を使用してタブレットとインタラクトしながら文脈感知を可能にすることができることに留意されたい。例えば、人差し指に装着した小型の運動感知リングは、いつユーザがその指対別の指で画面をタップしたのかを感知することができる。ウォッチ、指先または指の爪に装着したセンサ、腕輪、腕章、包帯もしくはおおい、肘当て、ブレース、リストバンド、センサで増強された手袋、皮下埋め込み、またはさらには埋め込みセンサ付きeテキスタイルワイシャツの袖も、当業者に対して関連技法を可能にし、提案する他の同様の例を表す。同様に、定規、コンパス、外科用メス、ピンセット、スタンプ、拡大鏡、レンズ、キーパッド、計算機、雲形定規、形状テンプレート、ペイントブラシ、またはエアブラシなどの他の手動ツールは、好むまたは好まない手に保持されているかどうかにかかわらず、関連技法も可能にするペン状用具として働くことができる。
[067] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、どのようにユーザが自然にこれらのデバイスを操作するのかを活用する新たな技法を提供するために握りおよびタッチ感知を採用する。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ユーザがペンを筆記握りで保持するのか、または手のひらに保持するのか、および/またはしまい込みモードで自分の指の間にタックして保持するのかを検出することができる。さらに、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ユーザの好まない手によって生じたドラッグアンドピンチジェスチャなどの素手の入力を、必ず検出可能な運動信号をペンに伝えるタッチ感応ペンを保持する手によって生じたタッチジェスチャと区別することができる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、どちらの手がタッチ感応コンピューティングデバイス(例えば、タブレット)を握っているのかを感知し、ペンに対する画面の相対的な向きを決定し、画面の向きおよびタッチパターンを使用して、不測の画面コンテンツの回転を防止することができる。タッチ感応ペンおよびタッチ感応コンピューティングデバイスからのセンサ信号を選択的に組み合わせることによってならびにそれらを使用して、相互に補完することによって、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、例えば、筆記しながら意図的でないタッチ入力を無視することによってなど、またはユーザが自分の指の間にタックしたタッチ感応ペンを用いてピンチしたとき現れる詳細なストローク作業のための拡大鏡など、文脈的に適したツールを支持することによってなど、それらとのユーザのインタラクションを使用の文脈に合わせることができる。
[068] 本明細書に説明するように、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、電力供給装置(例えば、電池)および複数のセンサ(例えば、センサペン)で機能強化されたタッチ感応ペンを使用して、タッチ感応ペンを保持するユーザの相関された握りパターンならびにタッチ感応コンピューティングデバイス(例えば、タッチ感応タブレットコンピュータ)上のタッチ接触および握りならびにこれらのデバイスの関連した運動および向きに基づいて様々な入力技法およびコマンドコマンドを可能にする。例えば、圧力センサを使用して、センサペン上のユーザの握りパターンならびにタッチ感応コンピューティングデバイス上のタッチおよび握りパターンを検出することができる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、センサペンの握りと、タッチ感応コンピューティングデバイスのタッチおよび握りとを相関させて、ユーザの意図およびユーザがタッチ感応ペンまたはタッチ感応コンピューティングデバイスを使用することを望む文脈を決定する。これは、例えば、ユーザが自分の好む手を用いてデバイスを握っているのかまたは自分の好まない手を用いてデバイスを握っているのかのいずれであるかなど、自然に発生するユーザ挙動に基づいている。次いで、決定されたユーザの意図および使用の文脈を使用して、タッチ感応コンピューティングデバイスおよび/またはタッチ感応ペンの文脈に適したコマンドおよび機能を生成する。
[069] 圧力センサ等々に関係するものとして本明細書に説明するように圧力という用語は、様々なセンサタイプおよび形状を表すことができる。例えば、様々な場合および実装形態において、圧力とはディスプレイ上に及ぼされたペン先圧力を表すことができる。概して、ペン先圧力は、典型的にはペンの内側のあるタイプの圧力トランスデューサによって感知されるが、あるデバイスではペン先圧力感知をディスプレイ/デジタイザ自体に行わせることも可能である。さらに、圧力または圧力感知等々の用語は、タッチ感応ペンまたはタッチ感応コンピューティングデバイスの外部ケーシングまたは表面に接触する手(または指)の握り圧力を感知する別個のチャネルを表すこともできる。ペンおよびコンピューティングデバイスセンサ相関技法によって採用された様々な感知様式は、様々な機能およびコマンドを開始するために両方のタイプの圧力感知(すなわち、ペン先圧力および握り圧力)を採用することができる。
[070] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の多くの実装形態のいくつかを可能にするために使用される様々なデバイスは、本明細書では議論のためにしばしばセンサペンまたはタッチ感応ペンと称するペン、ポインタ、ペンタイプ入力デバイスなどを含む。さらに、本明細書に説明するセンサペンまたはタッチ感応ペンは、電力供給装置および様々なセンサの組合せを組み込むように適合することができる。例えば、誘導結合、ペンがコンピューティングデバイスの範囲内に入ったとき、またはコンピューティングデバイスのドックに入れられたとき、またはコンピューティングデバイス上/近くに配置されたとき急速に再充電するペンに組み込まれた超コンデンサ、ペンテザーを介して電力を得る、またはペンの運動を介して寄生電力を取得する、ペン内に組み込まれた電池によるなど、電源をペンに組み込む様々な可能性がある。電力供給装置は、ペンが動いていないとき、または保持されていないときの自動低電力モードを特徴とすることができる。センサは、この決定も知らせることができる。センサの様々な組合せは、様々なコンピューティングデバイスとインターフェースするために様々なワイヤレス通信機能と組み合わせた、慣性センサ、加速度計、圧力センサ、握りセンサ、近距離無線通信センサ、RFIDタグおよび/またはセンサ、温度センサ、マイクロホン、磁力計、容量センサ、ジャイロスコープ、デバイスの位置を追跡することができるセンサ、指紋センサ、電気皮膚反応センサなどを含むことができるが、それらに限定されない。これらのセンサのいずれかまたはすべては、多軸または多位置センサ(例えば、3軸加速度計、ジャイロスコープ、および磁力計)であり得ることに留意されたい。さらに、様々な実装形態において、本明細書に説明するタッチ感応ペンは、他のコンピューティングデバイス、または他のタッチ感応ペンと組み合わせて、または協調して、またはさらには独立型のコンピューティングデバイスとしても動作することが可能になるメモリおよび/またはコンピューティング機能を組み込むようにさらに適合されている。
[071] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、1つまたは複数のタッチ感応表面または領域(例えば、タッチ画面、タッチ感応ベゼルまたはケース、ホバータイプ入力の検出のためのセンサ、光学タッチセンサなど)を有する任意のタッチ感応コンピューティングデバイスに使用するように適合可能である。タッチ感応コンピューティングデバイスは、単一およびマルチタッチデバイスの両方を含むことに留意されたい。タッチ感応コンピューティングデバイスの例は、コンピューティングデバイスに接続されたタッチ感応ディスプレイデバイス、タッチ感応電話デバイス、タッチ感応メディアプレーヤ、タッチ感応電子書籍リーダー、ノートブック、ネットブック、ブックレット(デュアル画面)、タブレットタイプコンピュータ、または1つもしくは複数のタッチ感応表面もしくは入力様式を有する任意の他のデバイスを含むことができるが、それらに限定されない。そのようなコンピューティングデバイスのタッチ感応領域は、ディスプレイと関連付けられる必要がなく、接触感応領域(例えば、ディスプレイ上のデバイスの前部対任意の関連したディスプレイなしのデバイスの後部)の位置またはタイプは、1つまたは複数の運動ジェスチャ(すなわち、運動ジェスチャに対応するユーザインターフェース作用)を開始するための入力パラメータとみなすことができる。
[072] 本文書全体を通して使用されるときの「タッチ」という用語は、一般に、容量センサ等々を使用するコンピューティングデバイスのタッチ感応ディスプレイ上のまたは他のタッチ感応表面上の物理的なユーザ接触(例えば、指、手のひら、手など)を表す。しかし、あるタッチ技術は、ディスプレイ近くの指、ペン、および手の幾何形状をならびにペン先ホバー感知を検出するための感受性の高い自己容量検出器の使用など、ある程度の非接触感知を組み込む。IRセンサ−エミッタ対または画素内センサ表示素子のアレイを、このためにペン、タブレット、およびキーボード上に配備することもできる。したがって、タッチおよび握りは、「握り」検出の全体的なまたは統一的な考えとしてもそのような非接触信号を組み込むことができる。
[073] さらに、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応コンピューティングデバイスの1つまたは複数のタッチ感応表面によって受け取られた有効なタッチと無効なタッチとを見分けるために様々な技法を使用することができる。有効なタッチおよび接触の例は、ユーザの指のタッチ(ジェスチャタイプのタッチを含む)、ペンもしくはペンタッチもしくは入力、ホバータイプ入力、またはそれらの任意の組合せを含む。無効なまたは意図的でないタッチに関して、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、デバイスまたはアプリケーション制御のために意図的でない接触または入力として意図されていない意図的な接触を受け取ることが期待されているタッチ感応入力表面の1つまたは複数の領域またはサブ領域を無効にしまたは無視する。入力として意図されない可能性がある接触の例は、ユーザがその画面上でペンを用いて筆記しているまたはタッチ感応ベゼルなどを握ることによってコンピューティングデバイスを保持している間、タッチ画面上に置かれたユーザの手のひらを含むがそれらに限定されない。
[074] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、
− ペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)の使用の全文脈を捕捉するための握りおよび運動を感知する新規の解決策と、
− 意図的でないタッチ(デバイスを取り上げたときの手のひらからまたは親指からの)を軽減するためだが、好まない手による、またはペン入力とタッチ入力とを交互に行うために伸長握りを介した意図的なタッチを促進するためにも、センサを使用するステップと、
− 例えば、素手の入力、ペンをタックしながらのピンチ入力の個別のツールおよびペンが筆記に備えた態勢にあるときユーザが好まない手を用いて呼び出すことができる製図ツールを含む、握り、運動、およびタッチ画面接触を組み合わせる新規の文脈的に適したツールとを含むがそれらに限定されない、タッチ感応ペンおよびタッチ感応コンピューティングデバイスとのペンベースのユーザインタラクションに関連するいくつかの利点を提供する。
[075] 3.0例示的なシステム
[076] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応ペンまたはタッチ感応コンピューティングデバイスのいずれかまたは両方に対して様々な動作および機能を作動させるために、部分的に、タッチ感応ペンからとタッチ感応コンピューティングデバイスとからのセンサ入力を相関させることによって動作する。
[077] 図5は、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を実装するためのプログラムモジュールを例示する例示的なシステム500の図を提供する。より具体的には、図5は通信リンク506を介してタッチ感応コンピューティングデバイス504と通信するタッチ感応ペンまたはセンサペン502を示す。本明細書にさらに詳細に論じるように、センサペン502は、様々なセンサを含むことができる。センサペン502内のセンサモジュール508は、それらのセンサのうちの1つまたは複数の表示を監視し、タッチ感応コンピューティングデバイス504(または、場合により、計算を実施し入力をタッチ感応コンピューティングデバイス504に提供する別のコンピューティングデバイス(図示せず))に送られるそれらを通信モジュール510に提供する。別の実装形態において、一部の(または全部の)計算を送る前に直接ペン上で行うことができ(すなわち、機械学習による握り認識)、一部のデータは、常にタッチ感応コンピューティングデバイスに送られない可能性がある(すなわち、結果をペンに対して局所的に使用する場合)ことに留意されたい。場合によっては、タッチ感応コンピューティングデバイスは、データをタッチ感応コンピューティングデバイスに送るペンの代わりに、またはペンに加えて、情報をペンに送ることができる。
[078] センサペン入力モジュール512は、センサペン502の1つまたは複数のセンサ(例えば、慣性、加速度計、圧力、タッチ、握り、近距離無線通信、RFID、温度、マイクロホン、磁力計、容量センサ、ジャイロスコープ、IRもしくは容量近接センサ、指紋センサ、電気皮膚反応センサなど)から入力を受け取り、そのセンサ入力を握りおよびタッチ決定モジュール516に提供する。同様に、コンピューティングデバイスタッチ入力モジュール514は、タッチ感応コンピューティングデバイス504の1つまたは複数のセンサ(例えば、慣性、加速度計、圧力、タッチ、握り、近距離無線通信、RFID、温度、マイクロホン、磁力計、容量センサ、ジャイロスコープ、IRもしくは容量近接センサ、指紋センサ、電気皮膚反応センサなど)から入力を受け取り、そのセンサ入力を握りおよびタッチ決定モジュール516に提供する。
[079] 握りおよびタッチ決定モジュール516は、センサペンのタッチ感応表面上へのユーザの手の接触(および/またはペンの向き、すなわち、ヨー、ピッチロールまたはそれのあるサブセットおよび/またはセンサからの他の情報)に基づいてセンサペン502上のユーザの握りを決定する。例えば、ペン上のユーザの握りからのセンサ信号は、ペンを握るユーザの握りパターンを決定するために握りパターンのデータベース518と比較することができる。一実装形態において、訓練された分類子が、握り訓練データに基づいてセンサ信号をセンサペン502上の握りパターンに分類するのに使用される。この握り訓練データは、(1)多くのユーザの大きなサンプルに対して、(2)具体的なユーザからの入力、および(3)ある重み付けされた2つの組合せだけに基づいて適合または訓練することができることに留意されたい。また、入力の際立った次元(例えば、左利きのユーザ対右利きのユーザ、使用されるデバイスのサイズまたはタイプ、デバイスの現在の使用姿勢、机上にあるのか、手に保持されているのか、膝の上に載せているのか等々)に基づく別々のデータベースは、全体的にまたは部分的に各使用事例に合わせて最適化された別々のデータベースの使用を作動させることができる。同様に、握りおよびタッチ決定モジュール516は、タッチ感応コンピューティングデバイスのディスプレイ上のユーザの指または手の接触の信号(および/またはデバイスの向きおよび/またはセンサからの他の情報)に基づいて、タッチ感応コンピューティングデバイス504のディスプレイ上のユーザのタッチを決定する。さらに、握りおよびタッチ決定モジュール516は、ユーザがタッチ感応コンピューティングデバイスのケースのタッチ感応表面を握っているのかどうかを決定することができる。例えば、タッチ感応コンピューティングデバイスのケース上のユーザの握りからのセンサ信号は、デバイスを握るユーザの握りパターンを決定するために握りパターンのデータベース518と比較することができる。一実装形態において、1つまたは複数のタッチ感応センサは、ケースのどの部分がタッチされているのかを示す画像を報告する。様々な画像処理技法を、画像を解釈し、握りを推定するために使用することができる。一実装形態において、(マルチタッチ、容量)握りパターンがデバイスのケース(例えば、容量センサの行列を組み込んだケース)上で感知され、タッチ感応コンピューティングデバイス(および/またはペン)の運動信号および向きもこの決定に供給される。いくつかの実装形態において、タッチ画面が非接触近接感知機能を有する場合、デバイスの画面端部への近接を感知することは、ケース上の握り感知の良好なプロキシとして働くことができる。一実装形態において、訓練された分類子は、握り訓練データに基づいてセンサ信号をタッチ感応コンピューティングデバイスのケース上の握りパターンに分類するのに使用される。
[080] 握りおよびタッチ決定モジュール516は、どのようにユーザがペンを握っているのかをどのようにユーザがタッチ感応コンピューティングデバイスの画面またはケースとインタラクトしているのかと関連付けるために、センサペン502のセンサからのセンサ入力と、タッチ感応コンピューティングデバイス504のセンサからのセンサ入力とを相関させる。この相関されたデータを使用して、センサペンおよび/またはタッチ感応コンピューティングデバイスに接触しているユーザの好む手/好まない手を決定することができる。一実装形態において、ペン運動により好む手が好まない手と区別される。好む手の一部がコンピューティングデバイスのタッチ画面と接触したときペン運動のバンプが測定される。接触の後に、ペンを保持する手がユーザの好む手に保持されていることを確認するためにペン運動がタッチ画面の運動に相関することを継続的に確認することもできる。いくつかの実装形態において、相関運動が観察される限りユーザの好む手または好まない手を決定するためにペンが画面にタッチしたとき(例えば、画面へのタッチが非常に微妙またはソフトである場合)ペンがバンプを登録する必要はない。
[081] 決定された握りおよびタッチのパターンならびに他の相関されたセンサ入力は、文脈決定モジュール520に入力することもできる。文脈決定モジュール520は、ユーザの意図、および相関された握りパターン、タッチパターンおよび他のセンサデータからユーザが意図している動作の文脈を決定する。文脈の例は、何人のユーザがペンまたはタッチ感応コンピューティングデバイスとインタラクトしているのか、何台のデバイスがインタラクトされているのか、ユーザがユーザの好む手対好まない手にセンサペンまたはコンピューティングデバイスを保持しているのかどうか、ペンまたはコンピューティングデバイスの個別のまたは相対的な運動、タッチ感応ペンまたはタッチ感応コンピューティングデバイスがどのように握られまたはタッチされるのか、アプリケーションの状態、ペンの向き、タッチ感応コンピューティングデバイスの向き、コンピューティングデバイスに対するセンサペンの相対的な向き、タッチ感応ペンおよびタッチ感応コンピューティングデバイスの軌跡および/または加速度、ユーザの身元等々を含むがそれらに限定されない。この文脈データは、このデータを意味的にラベル付けするのに使用することができるメタデータラベリングモジュール524に送ることができる。
[082] タッチ/握りパターンおよび他の関連したセンサの表示ならびに任意の関連した文脈データは、コマンド開始モジュール522に入力される。コマンド開始モジュール522は、タッチ感応コンピューティングデバイスおよび/またはセンサペン上の1つまたは複数のコマンドまたは機能を作動させて、タッチ感応ペン502および/またはタッチ感応コンピューティングデバイス504上の1つまたは複数のコマンドまたは運動ジェスチャを作動または始動させることによって、より効率的でユーザフレンドリーなやり方でユーザの意図を実行する手助けをするために利用可能な入力を評価する。作動される様々な運動ジェスチャまたは以下に詳細に論じるコマンド(526、528、530、532、534、536、538、および540)の例は、コマンド開始モジュール522によって始動される。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態により、ユーザ定義の運動ジェスチャ542は、ユーザがタッチ感応コンピューティングデバイス504上のタッチ入力および/または握りと組み合わせてセンサペン握りを使用して1つまたは複数の機能または運動ジェスチャを定義することが可能になるユーザインターフェースを介して定義が可能になる。運動ジェスチャまたは機能526〜540の多くは、後でさらに詳細に本文書に説明され、これらの運動ジェスチャおよび機能の多くの例は図11〜図17に例示される。
[083] ホバー範囲に関して、様々な実装形態において、ペンおよびコンピューティングデバイスセンサ相関技法は、タッチ感応コンピューティングデバイス504のデジタイザより上のセンサペン502の距離を考慮する。様々な範囲を考慮することができるが、様々な試験された実装形態において、物理的な接触、デジタイザのホバー範囲内、またはデジタイザの範囲外を含めて3つの範囲カテゴリーが考慮される。任意の特定の運動ジェスチャの始動機構は、コンピューティングデバイスの任意の他の相関された入力、タッチ、および/または運動と組み合わせて、センサペンのこれらの異なる範囲を考慮することができる。
[084] いくつかの実装形態において、生のセンサ表示をセンサペン502からコンピューティングデバイス504にコンピューティングデバイスによる評価および特徴付けのために報告または伝送することができる。例えば、センサペン502内の慣性センサからの生のセンサデータは、センサペンによってタッチ感応コンピューティングデバイス504に報告することができ、次いで、コンピューティングデバイスは、ペンの向きを慣性センサからのデータの関数として決定する。あるいは、様々な実装形態において、センサペン502は、オンボード計算機能を使用して、様々なセンサからの入力を評価する。例えば、センサペン502内の慣性センサから導出されたセンサデータをセンサペンの計算構成要素によって処理してペンの向きを決定し、次いで、傾斜の向きをセンサペンによってコンピューティングデバイス504に報告することができる。
[085] センサペン502によるコンピューティングデバイスへの生のセンサデータの報告と処理されたセンサデータの報告との任意の所望の組合せは、センサペンの計算機能に応じて実施することができる。しかし、説明のために、本明細書における議論は、一般に、コンピューティングデバイスによってさらに処理して、様々なコマンド、運動ジェスチャまたは他の入力のシナリオを決定するために、センサペン502によるタッチ感応コンピューティングデバイス504へのセンサデータの報告を表す。いくつかの実装形態において、コンピューティングデバイスのタッチ感応画面上へのユーザのタッチは、ユーザが何をしているのか決定するためにペン内のジャイロスコープまたは加速度計とのバンプと相関される。事実、技法の多くの実装形態がユーザの意図が何であるのか決定するためにタッチと、ペンとのバンプと、ペンの握りとの相関を使用する。ペンおよびコンピューティングデバイスセンサ相関技法によって可能にされた様々な運動ジェスチャおよび機能の少数の例を以下に簡単に紹介する。
[086] 例えば、「拡大鏡」または「ルーペツール」(図5、530)と称される1つのそのような入力技法は、タッチ感応ペン502上のユーザの握りからのセンサ入力を使用して、ペンがユーザの手のタックされた位置に保持されることを識別する。並行して、コンピューティングデバイスのタッチ感応画面上へのユーザのタッチは、画面に対してピンチする運動など2本指タッチジェスチャを行うユーザのタッチに登録される。これらの2つの感知された入力は、相関され、したがって、ペンを保持する手を用いてピンチする運動は、拡大鏡/ルーペツール530をもたらす。その原理は、ペンが一時的にだけしまわれ、まだすぐ使える状態にあるという事実によって、ユーザがペンをすぐにまた使用する意図を示すので、ペンを保持する手とのタッチインタラクションは、ペンを支持する機能を強調すべきであるということである。拡大鏡/ルーペツール530は、ペンを用いた詳細な作業に特によく適している、画面上に表示されるコンテンツの局所領域だけに影響する迅速なズーミングを支持し強調する点において有利である。いくつかの実装形態において、コンピューティングデバイスのタッチ感応画面上へのユーザのタッチは、ユーザの意図を決定するためにペン内のジャイロスコープまたは加速度計とのバンプと相関される。
[087] 「全キャンバスパン/ズーム」ジェスチャ(図5、532)と称される関連したジェスチャは、一実装形態において、ユーザの好まない手を用いて、タッチ感応コンピューティングデバイス504(例えば、タブレット)のディスプレイ上のピンチする運動などのユーザの感知された2本指タッチジェスチャを使用して、コンピューティングデバイスのディスプレイ上に表示されるコンテンツの標準的な全キャンバスズームを作動させる。この機能性は、センサペン502がすぐ使える状態にないとき(例えば、センサペンがタック握りまたは手のひら握りでユーザの好む手に保持されないとき、またはユーザがセンサペンをまったく保持していないとき)提供される。次いで、好まない手のジェスチャは、ペンにおける対応する運動がないことにより、認識され得る。
[088] 「ペンツール」ジェスチャ(図5、536)と本明細書で称される別のジェスチャは、センサペン502およびタッチ感応コンピューティングデバイス504のセンサを使用して、ユーザがセンサペンをタック位置(例えば、タック握り)でユーザの好む手に保持していることを検出し、コンピューティングデバイス504のタッチ感応ディスプレイ上のユーザの好む手の指からのタップなどの並行接触を検出する。これらの2つの動作の相関は、ペン特有のツールのメニューをもたらす。いくつかの実装形態において、ペンツール選択肢の異なるパレットを、ペンがユーザの好む手の完全に手のひらに入れた位置に保持されるとき表示させることができる。
[089] 「キャンバスツール」ジェスチャ(図5、538)と本明細書で称される同様のジェスチャは、ペンのセンサとタッチ感応コンピューティングデバイス上のセンサとを使用して、ユーザがいつタッチ感応ペン502を非筆記位置でユーザの好む手に保持するのかを検出し、コンピューティングデバイス504のタッチ画面上へのユーザの好まない手を用いた指タップなどの接触を検出する。これらの相関された並行動作により、キャンバスツールのメニューがコンピューティングデバイスのディスプレイ上に表示される。例えば、このツールのメニューは、取り消し/やり直し、切り取り−複写−貼り付け、改ページ、検索および同様のコマンドを含むことができる。
[090] 「製図ツール」ジェスチャ(図5、540)と本明細書で称される別のジェスチャは、ペン502のセンサと、タッチ感応コンピューティングデバイス504のセンサとを使用して、タッチ感応ペンが筆記握りでユーザの好む手に保持されていることを検出し、ユーザの好まない手を用いたコンピューティングデバイス504のタッチ感応ディスプレイとの1本指タッチなどの接触を検出する。ユーザの好まない素手を用いた1本指タップは、ペンがすぐに筆記できるとき、製図ツールの組をもたらす。これらの特殊ツールは、ペンの使用を支持する。そのようなツールは、例えば、画面上で弧を描くコンパスまたはコンテンツに色を塗るエアブラシである可能性がある。
[091] さらに、「高度な製図ツール」ジェスチャ(図5、528)は、ペン502上のセンサとタッチ感応コンピューティングデバイス504上のセンサとを使用して、センサペンが筆記握りでユーザの好む手に保持されていることを検出し、コンピューティングデバイスのタッチ感応ディスプレイにおけるユーザの好まない手を用いたピンチする運動などの2本指タッチジェスチャを検出する。ユーザの好まない手を用いたピンチする運動は、ペンがすぐに筆記できるとき、高度な製図ツールの組をもたらす。これらの特殊ツールは、第2のタッチから利益を得るペンの使用をさらに支持する。例えば、これらの高度な製図ツールは、定規もしくはガイド縁、雲形定規もしくは新たな用紙を引き出す機能(2本指の位置、回転、および/または場合により採用された特定の高度な製図ツールによる拡大縮小を用いた)を含むことができる。
[092] コンピューティングデバイスに対する相関されたセンサペンの運動の他の例は、ペンセンサ(例えば、加速度計、圧力センサ、慣性センサ、握りセンサなど)を使用して、いつセンサペンがユーザによって取り上げられまたは下に置かれたのかを決定することを含む。ユーザのコンピューティングデバイス上の握りパターン(例えば、ユーザによって保持されていない、ユーザの好まない手または好まない手を用いてディスプレイをタッチすることなど)と相関された現在のセンサの握りパターン(すなわち、ユーザの好む手にタックされているのか、ユーザの好む手ですぐに筆記できるのか、下に置かれているのか)を考慮することによって適切なコマンドを開始することができる。
[093] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応コンピューティングデバイス504のケースの後面および側面上の容量握り感知を使用して、さらにいくつかの接触を検出する。
[094] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、複数のユーザ/複数のデバイスモードで使用することができる。例えば、いくつかの実装形態において、タッチ感応コンピューティングデバイス504上の主ユーザの握りと、タッチ感応コンピューティングデバイス上の副ユーザの握りとが、感知され相関される。握りは、例えば、タッチ感応コンピューティングデバイス上のタッチ感応表面によって感知することができ、または握りは、各ユーザの電気皮膚反応を決定することによって感知することができ、電気皮膚反応の差を使用して、一方のユーザと他方のユーザとを区別することができる。例えば、加速度計データ、位置データ、軌跡データなどの他のセンサデータを使用することもできる。主および副ユーザの握りは、タッチ感応コンピューティングデバイス504上で実行するアプリケーションにおいてコマンドを開始するために評価される。相関されたタッチ感応コンピューティングデバイス504の握りと向きとは、副ユーザの握りが副ユーザから主ユーザへのコンピューティングデバイスのハンドオフを表すことを決定するために評価することができる。この場合、タッチ感応コンピューティングデバイスの1つまたは複数の機能は、ハンドオフの後に制限することができる。あるいは、副ユーザの握りは、主ユーザの握りと並行であるとして決定することができる。この場合、共有モードをコンピューティングデバイス上で入力することができる。例えば、副ユーザは、コンピューティングデバイスのディスプレイ上で現在表示されているコンテンツだけを閲覧し、書き加えることだけが可能になり得る。ユーザが両手を用いてペンを取り上げ、保持し、ペンを利用不可能にする多くの場合がある。
[095] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、握りを使用して、どちらの手を用いてユーザがタッチ感応コンピューティングデバイス504を保持しているのかを感知する。次いで、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態はこれを使用して、「親指メニュー」(図5、534)をタッチ感応コンピューティングデバイス504の適切な側に呼び出し、それによって、有利にはユーザが様々なボタンおよびメニューを直接親指を用いて始動させることが可能になる。ユーザが第2の手を用いてタッチ感応コンピューティングデバイスをつかむ場合、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、親指メニューを最初に現れた側で見えるままにする。
[096] タッチ感応コンピューティングデバイスと同様に、いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、タッチ感応ペン502上の主ユーザの握りと、副ユーザの握りとを感知することができる。前に説明したように、加速度、位置および軌跡データなどの他のデータは、例えば、考慮することもできる。次いで、主および副ユーザの握りは、タッチ感応ペン502上で実行するアプリケーションにおいてコマンドを開始させるために相関させることができる。例えば、副ユーザの握りは、副ユーザから主ユーザへのペン502のハンドオフを表すと決定することができる。この場合、データは、ペン502のハンドオフを介して主ユーザから副ユーザに転送することができる。次いで、副ユーザは、転送されたデータをコンピューティングデバイス、例えば、スタイラスペンが元々使用されていた異なるコンピューティングデバイスにダウンロードすることができる。あるいは、タッチ感応ペン502の1つまたは複数の機能は、ハンドオフの後に制限することができる。
[097] センサペン502上およびコンピューティングデバイス504上の握りパターン以外に、いくつかの実装形態は、コンピューティングデバイスおよびセンサペンの運動を考慮する。例えば、実装形態は、握りパターンとともにセンサペン502の運動と、コンピューティングデバイスの運動とを使用して、ペンがユーザの好む手(または好まない手)に保持されているのかどうかを決定する。ユーザの好む手と好まない手とは、相関された握りパターンおよび関連した情報から決定することができる。例えば、ペンバンプを表す運動信号がタッチ感応コンピューティングデバイス上への新たな接触と同時に起こるとき、センサペン502およびタッチ感応コンピューティングデバイス504の両方上の握り/タッチが相関され、具体的な運動ジェスチャまたはコマンドがこれらの認識された握りパターンに基づいて開始される。
[098] さらに、様々な実装形態において、ペンおよびコンピューティングデバイスセンサ相関技法は、有利には、不要なまたは意図的でないユーザによるタッチも拒絶しまたは無視する。手のひら拒絶モジュール(図5、526)は、この目的で使用することができる。具体的には、手のひら拒絶モジュール526は、タッチが意図的であったものか、またはタッチ感応コンピューティングデバイス上にうっかり置いた手のひらによって行われたものかを決定するために任意のタッチを評価し、次いで、さらに処理するためにそのタッチを入力として受け入れるのか、またはそのタッチを拒絶するのかのいずれかをする。さらに、様々な実装形態において、手のひら拒絶モジュールは、任意のタッチ感応表面の特定の領域上または特定の領域近くのユーザの手のひらのタッチをそのタッチの文脈により無効とするかまたは無視する(すなわち、「拒絶する」)。「拒絶された」タッチは、どこに手のひらが載せられたのかを知るために依然としてペンおよびコンピューティングデバイスセンサ相関技法によって入力として処理することができるが、意図的でないボタン押しまたはジェスチャがオペレーティングシステムまたはアプリケーションにおいて偶然に作動されないようにフラッグを立てることができることに留意された。いくつかの実装形態において、ペンおよびコンピューティングデバイスセンサ相関技法は、接触が動いているとき(接触がタッチしている限り)、手のひらを追跡することができる(例えば、割り当てられた接触識別子を使用して)。さらに、いくつかの実装形態において、新たな接触が手のひらの接触の所与の半径内で検出された場合、それらはやはり手のひら接触(例えば、指関節)としてラベル付けされ、無視される。手のひら拒絶モジュール526と同様に、親指接触拒絶モジュール544も有効にすることができる。
[099] 4.0例示的な方法
[0100] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態を実施するための例示的なシステムを説明してきたので、以下の節では、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を実施するための例示的な方法を論じる。
[0101] 図6は技法の一実装形態を実施するための例示的な方法600を示す。ブロック602に示すように、タッチ感応ペンデバイスおよびタッチ感応コンピューティングデバイスからの並行センサ入力の組合せが受け取られる。これらの並行センサ入力は、タッチ感応ペン上の握りパターンに基づく1つまたは複数のセンサ入力と、タッチ感応コンピューティングデバイス上のタッチパターンに基づく1つまたは複数のセンサ入力とを含む。場合によっては、これらの2つの品目のうちの1つをタッチしていないかまたは握っていない場合、ペンまたはタッチ感応コンピューティングデバイス上にタッチパターンが何もないことがある。センサ入力は、ブロック604に示すように、どのようにタッチ感応コンピューティングデバイスがタッチされているのかということと並行して、どのようにタッチ感応ペンが握られているのかを決定するのに使用される。例えば、握りパターンとタッチパターンとは、ユーザがユーザの好む手を使用しているのか、またはユーザの好まない手を使用しているのかを決定するために評価される(すなわち、いくつかの実装形態において、タッチ感応コンピューティングデバイス上への手のタッチダウンと、タッチ感応ペンの加速度計またはジャイロスコープにおけるバンプとの相関に基づいて優勢な/好む手が検出され、ペンが好む手に保持されていると仮定される)。文脈に適したユーザインターフェース作用が、ブロック606に示すように、タッチ感応ペン上の握りパターンとタッチ感応コンピューティングデバイス上のタッチパターンとの組合せに基づいて開始される。例えば、どのようにペンデバイスがユーザの好む手または好まない手によってタッチされるのかということの決定は、図5に関して説明されるものなど、文脈に適したコマンドまたは機能を開始するために、使用の文脈および/またはユーザの意図を推論するのに使用することができる。
[0102] 図7は、メタ情報を見つけるためにペンおよびコンピューティングデバイスセンサ相関技法を実施するための別の例示的な実装形態700を示す。ブロック702に示すように、2つ以上のタッチ感応デバイス上への単一のユーザによる接触の信号が相関される。例えば、2つ以上のタッチ感応コンピューティングデバイスのうちの1つは、センサペンであることでき、1つはタブレットコンピューティングデバイスであることができる。2つ以上のタッチ感応デバイス上への接触の文脈は、ブロック704に示すように、信号の相関に基づいて決定される。決定された接触の文脈は、ブロック706に示すように、アプリケーションで使用するためにメタデータとしてラベル付けされる。例えば、文脈メタデータは、何人のユーザがペンまたはタッチ感応コンピューティングデバイスとインタラクトしているのか、何台のデバイスがインタラクトされているのか、ユーザがユーザの好む手にセンサペンを保持しているのかまたはコンピューティングデバイスを保持しているのか、ペンまたはコンピューティングデバイスの個別のまたは相対的な運動、どのようにセンサペンまたはタッチ感応コンピューティングデバイスが握られているのかまたはタッチされているのか、ペンの向き、タッチ感応コンピューティングデバイスの向き、コンピューティングデバイスに対するセンサペンの相対的な向き等々を含むことができるが、それらに限定されない。指紋センサが利用可能である場合、指紋を使用して、どのユーザがデバイスを保持しているのか、ユーザはどの指でデバイスとタッチしているのか、ユーザは自分の好む手を用いてデバイスを保持しているのかどうか、およびとりわけどの握りで保持しているのかを決定することができる。指紋センサは、例えば、ユーザをその指紋によって認識して、ユーザの好みのモードを設定するのにも使用することもできる。ブロック708に示すように、メタデータをさらに使用して、文脈に適したユーザインターフェース作用を開始することができ、またはある他の目的で使用することができる。同様の方法を、有利には、2人以上のユーザのメタデータを見つけ、ラベル付けするのに使用することができることに留意されたい。
[0103] 図8は、ペンおよびコンピューティングデバイスセンサ相関技法を実施するためのさらに別の例示的な実装形態800を示す。ブロック802に示すように、ポインティングデバイスがコンピューティングデバイスのタッチ感応表面の所定の範囲内に入るとき、コンピューティングデバイスの存在は感知される。例えば、ポインティングデバイスは、タッチ感応ペンとすることができる。コンピューティングデバイスのディスプレイ画面上の入力の制御は、ブロック804に示すように、ポインティングデバイスが所定の範囲内にあるとき、ポインティングデバイスの運動を使用して開始される。ディスプレイ画面上の入力の制御は、ブロック806に示すように、ポインティングデバイスが所定の範囲の外側にあるとき、ポインティングデバイスの運動を使用して継続される。ホバー感知が、ポインタ(例えば、ペン)が画面に十分に近いとき、ポインタ先端(例えば、ペン先)のx、y位置を感知する電磁デジタイザに固有であることを留意されたい。ポインタ(例えば、ペン)は、その3D定位(および運動信号)を無線リンクを介して報告し続ける。これは、ある相対的運動を推論するのに、またはカーソル制御を継続するのに使用することもできる。いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、コンピューティングデバイスの位置を追跡するために加速度計または他のセンサデータを使用することもできる。
[0104] 図9は、ペンおよびコンピューティングデバイスセンサ相関技法を実施するための別の例示的な方法900を示す。タッチ感応コンピューティングデバイス上の主ユーザの握りが、ブロック902に示すように、センサデータを使用して感知される(例えば、センサデータは、握りが一方の手を用いており、デバイスが平坦であり、デバイスの加速が主ユーザの対向側にある可能性が最も高い副ユーザに向かっていることを示す)。タッチ感応コンピューティングデバイス上の副ユーザの握りが、ブロック904に示すように、センサデータを使用してやはり感知される(例えば、センサデータは、デバイスの対向側の副ユーザの握りを主ユーザとして示す)。主および副ユーザの握りは、ブロック906に示すように、握りの文脈を決定するために(例えば、それらがデバイスを共有しているのか、またはデバイスを他のユーザに手渡しているのか)、およびブロック908に示すように、タッチ感応コンピューティングデバイス上で実行するアプリケーションにおいてコマンドを開始するために相関される。前に論じたように、握りの文脈は、タッチ感応コンピューティングデバイスが主ユーザから副ユーザに手渡されていることを示すことができる。あるいは、握りの文脈は、主ユーザがタッチ感応コンピューティングデバイスを副ユーザと共有していることを示すことができる。文脈により、異なるコマンドと機能とがタッチ感応コンピューティングデバイス上で有効になる。例えば、それらのデバイスを共有するユーザの意図は、例えば、音声コマンドを使用することによって確認することができる。
[0105] 図10は、ペンおよびコンピューティングデバイスセンサ相関技法を実施するためのさらに別の例示的な方法1000を示す。この実装形態において、タッチ感応コンピューティングデバイスおよびタッチ感応ペンの両方は、主ユーザから副ユーザに手渡される。ブロック1002に示すように、タッチ感応コンピューティングデバイスおよびタッチ感応ペン上の主ユーザの握りを表すセンサ入力が感知される。ブロック1004に示すように、ほぼ同時に、タッチ感応コンピューティングデバイスおよびタッチ感応ペン上の副ユーザの握りを表すセンサ入力も感知される。ペンおよびタッチ感応コンピューティングデバイス上の主および副ユーザの握りは、握りの文脈を決定するために(ブロック1006)、および、ブロック1008に示すように、タッチ感応ペン上またはタッチ感応コンピューティングデバイス上で実行するアプリケーションにおいてコマンドを開始するために相関される。例えば、握りを副ユーザから主ユーザへのペンおよびコンピューティングデバイスのハンドオフを表すと決定することができる。この場合、タッチ感応ペンまたはタッチ感応コンピューティングデバイスの1つまたは複数の機能は、ハンドオフの後に制限することができる。同様に、タッチ感応コンピューティングデバイス上のセンサおよびデジタイザは、同じユーザが異なるデジタイザ上で(例えば、異なるコンピューティングデバイス上で)同じペンを採用していることを示す場合、これは状態情報(ペンのモードまたは色/厚さ/ペン先スタイルなど)またはファイルおよびデータ(現在のクリップボード内容など)を別のデバイスに搬送することができる。これは、例えば、ユーザが一方のタブレットを保持しながら、別の別個のタブレットに筆記しているまたは指をタッチしていることを観察することによって決定することができる。これらの実装形態のいずれかにおいて、決定された文脈は、タッチ感応コンピューティングデバイス上またはタッチ感応ペン上で実行しているアプリケーションにおいてコマンドを開始するのに使用することができる。変形も可能である。例えば、単一のユーザは、単一のタッチ感応ペンを使用して多くのタッチ感応コンピューティングデバイスにコマンドを送るまたはデータを転送することができる。これは、ユーザがデータまたはオブジェクトを1つのデバイスから1つまたは多くの他のデバイスに転送することが可能になる点において有利である。
[0106] 5.0詳細および例示的な実装形態
[0107] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態ならびに技法を実施するための例示的なシステムおよび例示的な方法の序章を提供してきたので、以下の段落では、様々な例示的なペンおよびコンピューティングデバイスセンサ相関技法の実装形態の詳細を提供する。以下の詳細の多くはペンと組み合わせてタブレットコンピュータを使用することを参照するが、これは説明を簡略化するために使用されたただ1つの例示的なデバイスにすぎないことを理解されたい。以下に説明する例示的な実装形態は、任意のタッチ感応コンピューティングデバイス(例えば、電話、デスクトップデジタイザ、ファブレット、電子書籍リーダー、電子ホワイトボード、車両用タッチディスプレイ等々)に使用することができるはずである。
[0108] タッチ画面入力(またはコンピューティングデバイスの他の表面上のタッチ入力)と、タッチ感応ペンの握りとのやりとりを評価することによって、ペンおよびコンピューティングデバイスセンサ相関技法は、どのようにユーザが画面または他のタッチ感応表面をタッチしているのかに関する追加の情報を推論する。タッチ感応ペンの握りからの信号と、コンピューティングデバイス上の素手のタッチ入力からの信号ならびにペンおよびコンピューティングデバイスの運動および向きならびに他のセンサデータとを相関することによって、ペンおよびコンピューティングデバイスセンサ相関技法は、様々な文脈に適したツールおよび運動ジェスチャが、ユーザが相関されたセンサ信号から推論することができる意図的なタスクを完了するのを手助けすることを可能にする。そのような相関は、タッチ画面との接触の前、間、および後に起こる運動または握りセンサデータにおけるやりとり(または場合によって非やりとり)を見ることができる(タブレットデジタイザが関与する相関に対して)に留意されたい。接触の時点におけるまたは時点に近い情報は、例えば、その後になって、さらにセンサ信号およびデバイス入力事象が実時間で到来するとき、より確定的な評価をする可能性があるので、接触のタイプの初期評価を決定するのに使用することができる。このようにして、システムは、ユーザの入力事象に対して即時の、またはほぼ即時の、実時間の応答およびフィードバックを提供する一方で、すべての情報を最大限利用して、できるだけ正しくユーザの動作の文脈を決定することができる。
[0109] 説明のために、以下の議論は、タブレットタイプコンピューティングデバイスの文脈で素描または描画タイプのアプリケーションを参照する。しかし、センサペンおよびタッチ感応コンピューティングデバイスの両方は、任意の所望のアプリケーションタイプまたはオペレーティングシステムタイプと完全にインタラクションおよび相互運用することができることを理解されたい。例えば、能動精読または数学的素描などの他のアプリケーション文脈で、異なるジェスチャまたはマッピングを定義することができる。事実、上記のように、任意の所望のユーザ定義可能なジェスチャおよび並行のペンおよびタッチ入力を、任意の所望のアプリケーション、オペレーティングシステム、またはコンピューティングデバイス用の任意の所望の動作に対して構成することができる。さらに、音声またはスピーチ入力、視線入力、ならびにユーザ近接および身体姿勢入力(深度カメラによって提供されるなど)を、広範囲のハイブリッド入力技法を可能するために、上記に本明細書に論じる様々な入力技法のいずれかと組み合わせることができることも理解されたい。
[0110] 5.1握り+運動インタラクション技法
[0111] ペンおよびコンピューティングデバイスセンサ相関技法の例示的な実装形態は、注釈、パニングおよびズーミング、ならびにある追加の素描ツールを支持するシンプル素描アプリケーションの文脈で採用された。これらの実装形態の機能のうちのいくつかを以下の段落で論じる。多くの他の実装形態およびこれらの機能の組合せは可能である。
[0112] 5.1.1タッチ感応コンピューティングデバイスに対する感知されたペンの向き
[0113] いくつかの実装形態において、慣性センサ融合により、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、例えば、タブレットなどのタッチ感応コンピューティングデバイスに対して共通の基準フレームを維持することが可能になる。技法のいくつかの実装形態は、握り認識フェーズにおいて、ならびにペン運動(後でより詳細に説明する、エアブラシツール用などの)の解釈において、タブレットの相対的向きを採用する。技法のいくつかの実装形態だけが、タッチ感応コンピューティングデバイス(例えば、タブレット)に対するペンの向きを感知することができる。いくつかの実装形態において、慣性感知は、ある他の絶対的外部基準に頼らずにペンの(x,y)変換またはzの高さを確実に決定することができない。外部絶対基準が利用可能である他の実装形態において、技法の実装形態は、それが画面自体の感知範囲外であるときでも内部感知機能を絶対基準と融合することによってペン先の絶対(x,y)および高さ(z)を継続して追跡することができる。絶対基準は、外部源(例えば、ペン上のマーキングまたはIR源の光学的追跡)または内部源(例えば、ペンの無線送受信機の近似距離を決定するためのタブレットまたは環境内の他の送受信機からの無線信号強度三角測量)であることができる。概して、ワイヤレスおよび無線信号強度は、別のデバイスに対するデバイスのx、y、z位置の良好な推定を得るのに十分であり得る(きめの細かい慣性感知と組み合わせたとき)位置を近似するのに使用することができ、これは複数の内部源または外部源の三角測量により達成することができる。さらに、いくつかの実装形態において、深度カメラを使用して、ペンおよび/またはタッチ感応コンピューティングデバイスを追跡することができる。
[0114] 5.1.2意図的でない手のひら接触の検出
[0115] タッチ感応表面または画面上への意図的でない手のひら接触を感知することは、タッチの始まりに、どのタイプのタッチが起きているのかを区別するにはしばしば不十分な情報であるので、難しい問題である。手のひらを大きな接触領域とのタッチとして認識することができるが、そのような接触は、典型的には、小さく始まり、あるサイズ閾値を通過するにはしばらく時間がかかることがある。また、ある意図的でないタッチ(指関節によって生じた接触など)は、「大きな」接触に変わることは決してない可能性がある。したがって、この戦略は、タッチ事象を処理する際に遅延を必然的に伴い(遅れを生じ)、依然として多くの接触を検出しそこなう可能性がある。
[0116] 安定性を増大させ、疲労を回避するために、ユーザは、自然に自分の手を筆記面上に置くが、現在のタブレットユーザは、タッチ画面回避挙動を採用することが強いられる。単純にユーザがペンを保持していることを感知することは、人々がタッチを使用しながらペンをしまい、画面にタッチするために様々な伸長握りを採用するので、十分でない。各握りを手首の回外の範囲に関連付けることができるので、またユーザがペンを様々なやり方で保持するので、ペンの向きも不十分である。
[0117] しかし、意図的でないタッチは、主として筆記に付随して起こるので、特にユーザが典型的には自分の手をディスプレイ上に置く前に筆記握りを採用するので、筆記握り自体を感知することは、強力な合図である。したがって、非常に控えめな手のひら拒絶手順では、ペンが筆記握りで保持されているとき起こる任意のタッチを単純に拒絶することができる。しかし、これは、ペンが筆記握りで保持されているときはいつでも、好まない手によって行われた意図的なタッチを除外し、それは多くの望ましいシナリオ(例えば、好まない手を用いたパニングおよびズーミング)ならびに同時に起こるペン+タッチジェスチャを排除する。
[0118] ユーザが自分の手をコンピューティングデバイス(例えば、タブレット)のタッチ感応画面上に載せたとき、それは同時にペンの運動センサ上に対応する信号を誘導する。(デバイスの運動センサはこの運動の一部も拾い上げるが、デバイスのより大きな質量によって幾分減衰される。)それにもかかわらず、ペンおよび/またはタッチ感応コンピューティングデバイス(例えば、タブレット)からの運動信号は、起こる接触のタイプを推論する手助けをするために組み合わせて使用することができ、それら自体、相互に相関させて、したがって、ペンがタッチ感応コンピューティングデバイス(例えば、タブレット)のドックに入れられている(取り付けられている)またはドックに入れられていない間、タッチ感応コンピューティングデバイス(例えば、タブレット)が動かされていることを感知することができる。
[0119] ペンを保持する手がタッチ感応コンピューティングデバイス(例えば、タブレット)と接触するとき、ペンの運動は、他の文脈でバンプ、強打、および激打ジェスチャを用いて示されるものと同様の特徴的な強力な接触プロファイルを示す。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、所与の窓、例えば、10のサンプルの窓内の最小閾値を超える、ペンの運動センサに対応する信号のピークを探す(例えば、加速度計またはジャイロスコープの3つの組み合わせた軸上の二次有限差分を使用することによって)。手のひら載せが、タッチ画面が新たな接触を検出するのと同時にペンの運動におけるバンプを生じるので、正確にいつこの信号を探すかは知られている。試験されたペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、このピークをわずか5ms以内にまたは最悪の場合タッチダウン事象後最大56msまでに識別することができる。概して、ここで焦点はデバイスの画面部分上への手のひらの接触にあるが、このバンプ信号は、デバイスの前面および後面の両方と手との接触、すなわち、タッチ画面によって、タブレットのケーシング上の握りセンサによって、または両方によって生じたタッチ信号に適用することができることに留意されたい。したがって、デバイスの後面/側面の接触は、様々なタイプの手とペンとの接触も識別することができる。
[0120] したがって、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、バンプ信号にかなり低い閾値を採用し、どちらかと言えば微妙な手のひら接触でも感知が可能になり、その一方で、新たなタッチ画面接触と並行して起きない他の運動信号を自明に拒絶もする。この検出方式は、筆記時のほとんどの通常のペンインタラクションにうまく働く。
[0121] 検出された手のひら接触が存続する限り、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、任意の新たなタッチが初期接触の既定の半径(例えば、300画素の半径)以内で行われる場合、任意の新たなタッチを「手のひら」としてフラッグを立てることもできる。いくつかの実装形態において、これは、ユーザの握りおよびペンを保持する角度、ならびに、とりわけ手の閉塞モデルなどの相対的な画面の向きを所与として、期待される手の接触領域のモデルを組み込むことができる。ペンおよびコンピューティングデバイスセンサ相関技法の一実施形態は、拡大するにつれてフェードする、手のひらを下にした位置を中心にした「レーダ円」の短い動画を再生することによって、初期手のひら検出のフィードバックを提供する。これは、有利には、ユーザに対して手のひら接触が首尾よく検出されたことを確認する気を散らさないフィードバックを提供する。このフィードバックがないと、ユーザは、自分の手のひらが現在手によって閉塞されている所望されない動作(メニューを呼び出すこと、またはインクトレースを残すことなど)を作動させたか否かに関して不透明感を持ち続ける可能性がある。しかし、そのようなフィードバックは、任意選択であり、ユーザによって、または特定のアプリケーションによって無効にすることができる。
[0122] 5.1.3意図的なタッチの許可
[0123] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、手のひらが画面上に置かれているときでも同時に起こる意図的なタッチを許可する。概して、いくつかの実装形態において、前に検出された手のひら接触の所定の半径の外側にあり、ペン上のバンプに付随していない、手のひらから離れて起こる任意の新たなタッチは、真の意図的なタッチを表す。いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ピンチからズームへのジェスチャを支持するために手のひら接触としてフラッグが立てられていない最初の2つの追加のタッチを使用する。手のひら接触は、手のひらが動いていても、無視され、パン/ズームを妨害しない。他の単一のまたは複数の指または手全体のジェスチャも、支持することができる。
[0124] しかし、いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、手のひらをある意味完全に「拒絶する」のではなく、依然として手のひらを追跡するので、この方式は、正しくメニューを向けるのを助けるためにまたはオブジェクトを固定するためになど、手のひらの位置を入力として使用する技法を支持することもできる。
[0125] 5.1.4拡大鏡ツール対全キャンバスズーム
[0126] 図11に示す拡大鏡/ルーペツール1100の機能性は、ユーザが作業空間の文脈全体を失うことなく少数の詳細なストロークをすることを望む素描タスクに特によく適している焦点プラス文脈拡大技法(「ルーペ」と呼ばれる)を採用する。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、どのようにユーザがペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)とインタラクトしているのかを感知することによって、拡大鏡および全キャンバスズーミングの両方を支持する。
[0127] ユーザがペンをしまうとき(タックまたは手のひら握りで)、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、この握りを認識する。次いで、ユーザが2本指をディスプレイとの接触の状態にする場合、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ信号とおよそ同じ時間に起こる対応する「バンプ」があるかどうかペンを調べる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、このペンのバンプ+2本指タッチ信号の組合せを確認したとき、拡大鏡/ルーペツールをもたらす。2本指タッチ信号は、指が正確に同時にタッチすることを必要としないことに留意されたい。短い猶予時間が許容されるので、同時に行われないタッチがルーペを呼び出すものとして正しく認識され得る。いくつかの実装形態において、単一の指のタッチへの応答が第2の指のタッチが届くためにはわずかに遅延される。他の実装形態において、第2の指が割り振られた時間窓の間、検出された場合、単一の指の動作が開始され、次いで取り消される(またはやり直しされる)。2本指の接触がどのくらい近接して(または離れて)いなければならないかということに関する空間制約は、所望であれば適用することもできる。
[0128] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態がスタイラスペン上への任意の対応するバンプなしで2本指のタッチを確認した場合、実装形態は、代わりに、ユーザがペンを保持していない自分の他の(好まない)手を用いてタッチを行ったと推論する。いくつかの実装形態において、次いで、これは、図12に示すように、標準的な2本指のパンおよびズームインタラクションを作動させて、全キャンバスズーム1200(焦点プラス文脈拡大鏡ツールではなく)を可能にする。
[0129] いくつかの実装形態において、拡大鏡/ルーペツールは、円形ツールの下のキャンバスの領域だけをズームする。拡大鏡/ルーペツールは、ユーザの2本指の間の広がりにより、それ自体のサイズをインタラクション形式で変更する。ユーザは、拡大鏡/ルーペツールの縁上に指をタッチダウンさせて、それを新たな位置にドラッグすることもできる。拡大鏡/ルーペツールの外側のどこかでの単一の指のタップ、またはペンのストロークは、棄却され、キャンバスをそのままその元のズームレベルにする。
[0130] ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実装形態が、最小運動閾値を採用して、バンプ信号を検出するので、ユーザが自分の指を非常に軽くタッチダウンした場合、ペンはこの閾値を超えるのに十分な運動信号を検出しない可能性があることに留意されたい。それにもかかわらず、ペンおよびコンピューティングデバイスセンサ相関技法のこれらの閾値は、ユーザがペンをしまって自然に自分の指を画面に持ってきたとき生じる運動を検出するのに十分である。
[0131] 5.1.6製図ツール
[0132] 製図ツール(図13、1300)機能は、ユーザがしばしば筆記活動が連続する間、筆記握りを維持するとの観察から生まれた。例えば、休止の間、ユーザは、しばしば手首を画面から離して回転させて、ペンを筆記半回外ポーズの状態にする。したがって、筆記握り自体は、ユーザがすぐに筆記できる姿勢でペンを保持することを考慮に入れた様々な製図ツールを提供することによって、明確に支持することができる興味ある文脈を表す。
[0133] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、ユーザは、好まない手の単一の指をタッチダウンすることなどの単一の接触(ペン上の対応するバンプ信号なしの単一のタッチによって認識される)によって製図ツールメニューを明確に呼び出す。ペンが筆記握りで保持される場合、これは、エアブラシおよびコンパス等々を含めて様々なペン+タッチツールモードを提供する小さなパレットをもたらす。ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実装形態において、製図ツールメニューが、ユーザが自分の指をタッチダウンさせるとすぐに呼び出される。技法のいくつかの実装形態において、エアブラシは、初期デフォルトモードである。技法のいくつかの実装形態において、次いで、ユーザは別のツール(コンパスなど)をタップして、モードを変更することができる。いくつかの実装形態において、すべての製図ツールは、ばね荷重モードとして実装される。すなわち、モードは、ユーザが自分の指を押し下げる限りにおいてのみ維持される。ユーザが接触を開始したとき、製図ツールメニューは、デフォルトで、ごく最近使用されたツール(モード)を始動させることができることにも留意されたい。これにより、複数の位置における同じツールの反復使用がより効率的になる。エアブラシツール、コンパスツール、ならびに単一タップ仮想ペン軸ボタンの実装形態を以下により詳細に説明する。
[0134] さらに、いくつかの実装形態において、「高度な製図ツール」機能が、ペン上のセンサとタッチ感応コンピューティングデバイス上のセンサとを使用して、センサペンが筆記握りでユーザの好む手に保持されていることを検出し、ユーザの好まない手を用いたコンピューティングデバイスのタッチ感応ディスプレイにおけるピンチする運動などの2本指タッチジェスチャを検出することができる。ユーザの好まない手を用いたピンチする運動は、ペンがすぐに筆記できるとき高度な製図ツールをもたらす。これらの特殊ツールは、第2のタッチから利益が得られるペンの使用をさらに支持する。例えば、これらの製図ツールは、定規もしくはガイド縁、雲形定規もしくは新たな用紙を引き出す機能(2本指の位置および回転を用いて)を含むことができる。ユーザは、2本指のうちの一方を持ち上げる(または下に戻す)ことによって高度な製図ツールと標準的な製図ツールとの間を前後に動くこともできる。図示するツールセットは、ディスプレイ上に置いた指の数に対応する。
[0135] 5.1.6.1エアブラシツール
[0136] エアブラシツールの一実施形態は、はじめは、ユーザがペイントフローを開始した場合エアブラシがスプレーをかける場所のカーソルフィードバックを灰色の断続線の楕円として示す。ユーザが(好まない手)指の位置によってエアブラシツールがスプレーをかけるべき場所を示す。これは、(前に記載したように)慣性感知がタブレットより上のペン先の絶対(x,y,z)位置を決定することができず、タブレットに対する3D定位だけしか決定できないので、必要である。ペンの向きの相対的感知は、スタイラスペンではなく、タッチ感応コンピューティングデバイス(例えば、タブレット)を回転させることによって示すことができる。
[0137] 一実装形態において、ユーザは、ペンのタッチ感応画面/タブレット表面に対するアジマスおよび迎角を変更することによって、スプレー楕円を制御する。タブレットの制限された約15mmの近接感知範囲内にもペンを維持しながらペンの向きを変えることが困難な可能性があるので、ペンの傾斜角を採用しないエアブラシ風ツールの前の探索と異なり、ユーザは画面の十分に上にペンを保持することができ、ペンを所望の通りの角度にすることが容易にできる。いくつかの実装形態において、別個の感知チャネル(近接センサなど)を使用して、画面より上のペンの高さを決定することができ、次いで、それによって、スプレー楕円のサイズ(範囲)が決定される。
[0138] いくつかの実装形態において、ユーザは、以下にさらに詳述されるように感知される、自分の人差し指でペンの軸上をタップすることによってペイントフローをオンおよびオフにする。ユーザがスプレーを始動させたとき、フィードバックは、ボールド体の赤色断続線の楕円に変わって、作り出されるスプレーの形状の明確なフィードバックを与える。一試作品において、透明性の高い楕円がキャンバス上に「スプレーされる」。ユーザは、ペン軸と接触した指を物理的なスライダーコントロールであるかのようにスライドさせることによって、楕円のサイズまたはスプレーの透明性も調整することができる。指の接触の運動は、ペンの握りセンサによって感知し、追跡することができる。
[0139] 5.1.6.2単一タップ仮想ペン軸ボタン
[0140] 技法の実装形態は、スタイラスペン感知チャネルの一部または全部を戦略的に組み合わせることによって仮想軸ボタンの単一タップ始動を首尾よく支持する。本明細書に説明する単一タップ仮想ペン軸ボタンの実装形態は、ペンの運動データに加えて握り感知データを使用する。
[0141] 候補タップ事象を識別するために、ペンおよびタッチ感応コンピューティングデバイスセンサ相関技法のいくつかの実装形態は、新たなタッチ接触がペンの軸上の容量センサを使用することによって作成される容量画像マップ上に現れるのと同時に、指タップからのペンの軸上のバンプ信号を探す。しかし、これだけでは、握りを変えることにより、新たな指接触と一致するバンプ信号も生じることがあるので、ペンを握りなおすことによって生じる誤判定を除去するのに十分でない可能性がある。これらを除去するために、技法のいくつかの実装形態は、ユーザが人差し指を持ち上げて軸上をタップするとき(観察B9による)、ユーザがペンを依然として筆記握りで保持して、安定した三脚つかみを維持するとの観察を利用する。筆記握りの検出により、誤検出が起きそうにないことを確認するゲートが設けられるので、これは有利である。したがって、技法の様々な実装形態は、進行中の加速度計およびジャイロスコープの信号を調べ、単純な時間減衰運動信号を計算して、デバイスが移動していのるかまたは依然として保持されているのかを決定する。次いで、ペンが移動していないときに起こる候補タップ事象だけが受け入れられ、それは効果的に任意の誤接触を除去する。1つの実際に使える実装形態において、ペンは、新たな移動(または移動していない)状態に少なくとも100msにわたってとどまらなければならない。それ以外の場合、ペン軸タップ自体が「移動」信号の短い始動を作動させることがあり、それによって、もちろん、軸タップの認識が妨害されるはずである。
[0142] 5.1.6.3コンパスツール
[0143] 製図ツールパレットは、コンパスも含み、コンパスは、ペンが指の(この場合もやはり好まない手の)現在の位置を中心とした円弧を描くように強いられるペン+タッチモードを支持する。
[0144] 5.1.7ペンコントロール
[0145] 別の例として、ペンがしまわれている間のタップなどの単一の指接触により、ペンコントロール(図14、1400)を含む小さなインプレースパレットがもたらされ、ユーザは、作業空間の端においてドックに入れられたツールバーを往復しなくても、モードを変更することまたはペンの色およびストロークの深さを変更することが可能になる。この例は、ユーザが任意の単一の指を使用して伸長握りからタッチ画面をタップして、タッチ画面接触をしたとき、この場合もやはりペン上に発生されたバンプを利用する。ツールは指の隣に現れる。次いで、研究によるとユーザがペンおよびタッチがUIコントロールと互換可能であることを期待していることが一貫して分かっているので、ユーザはペンまたはタッチのいずれかを使用してラジアルメニューとインタラクトすることができる。いくつかの実装形態において、これらのまたは関連したコントロールは、タップ(すなわち、フィンガーダウン+フィンガーアップシーケンス)またはタップアンドホールド(フィンガーダウン+画面との指の接触の維持)のいずれかによって作動させることができることに留意されたい。後者は、特に、指がデジタイザと接触したままである限り維持されるばね荷重モードにつながる。
[0146] 5.1.8キャンバスツール
[0147] キャンバスツール(図15、1500)は、ペンのセンサとタッチ感応コンピューティングデバイス上のセンサとを使用して、いつユーザがセンサペンを非筆記位置でユーザの好む手に保持しているのかを検出し、いつ、例えば、指タップなどの単一の接触をコンピューティングデバイスのタッチ画面上へのユーザの好まない手を用いて行われたのかを検出する。これらの相関された並行動作により、キャンバスツールのメニューがコンピューティングデバイスのディスプレイ上に表示される。例えば、このツールのメニューは、取り消し/やり直し、切り取り−複写−貼り付け、改ページ、検索および同様のコマンドを含むことができる。ペンツールのように、いくつかの実装形態において、キャンバスツールおよび関連したツールは、実装形態により、タップまたはタップアンドホールドジェスチャのいずれかによって作動させることができる。
[0148] 5.1.9タッチ感応コンピューティングデバイス/タブレットの握り検出
[0149] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応コンピューティングデバイスのケースの後面および側面上の容量握り感知を使用して、いくつかの追加の接触を検出し、それらの文脈を決定する。
[0150] 5.1.9.1親指メニューおよび利き手検出
[0151] ユーザがタッチ感応コンピューティングデバイス(例えば、タブレットまたは他の同様のデバイス)を、両手を用いて取り上げ、保持し、ペンを利用不可能にするする多くの場合がある。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、握りを使用して、どちらの手を用いてユーザがタッチ感応コンピューティングデバイスを保持しているのかを感知する。次いで、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、これを使用して、親指メニュー(図5、534)をタッチ感応コンピューティングデバイス(例えば、タブレット)の適切な側に呼び出し、親指メニューにより、ユーザは、様々なボタンおよびメニューを、直接親指を用いて始動させることが可能になる。ユーザがタッチ感応コンピューティングデバイス(例えば、タブレット)を第2の手を用いてつかんだ場合、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、親指メニューを最初に現れた側に見えるままにする。他の実装形態において、親指メニューを2つの親指の間で分割する(または複製する)ことができる。
[0152] ユーザがタッチ感応コンピューティングデバイスを一方の手を用いて保持しながら、ペンをつかむのが観察される場合、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ユーザの利き手を直ちに推論することができる。ペンを保持する手が好む手であると推論され、タッチ感応コンピューティングデバイス(例えば、タブレット)を保持する手が好む手でないと推測することができる。いくつかの技法の実装形態は、ユーザの手がタッチ感応コンピューティングデバイス(例えば、タブレット)上の握りセンサに接触するときにペン上へのバンプを探すことによって、タッチ感応コンピューティングデバイス(例えば、タブレット)を、ペンを保持する手でつかみ取るまたは握るのかどうかを見分けることもできる。
[0153] 5.1.9.2意図的でない親指接触の検出
[0154] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、親指メニューが最初に現れたとき、短い(例えば、1.5秒)間隔にわたってフェードし、同様に、ユーザがタッチ感応コンピューティングデバイスから手を離した場合、親指メニューが短い時間(例えば、350ms)の後フェードアウトする。この動画フィードバックの目的は、親指メニューを暫定的な状態で提示することにあり、したがって、タブレットを取り上げながらユーザの親指がタッチ画面上にそれた場合、親指接触を無視する、またはそれ以外の場合、意図的でなさそうな入力として取り扱うことができる。
[0155] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチがタブレットケースの対応する後面部分上の新たな手の握りと同時に(または、その後すぐに)起きた場合、親指が意図的でないタッチを表すことを推論する。次いで、いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、親指を意図的でない接触として検出し、意図的でない親指接触がそれと重なる場合、親指メニューのフェードインをフリーズさせる。このフィードバックは、親指接触が認識されたが、メニューの不測の始動を防止するためにインターセプトされたことをユーザに示す。次いで、ユーザは、所望であれば、単純に親指を持ち上げ、それをメニュー上に戻すことによって意図的に親指メニューとインタラクトすることができる。フェードイン動画は、ユーザが自分の親指を持ち上げ次第、継続する。ユーザがタッチ感応コンピューティングデバイスを取り上げるとき親指を画面上に置かなかった場合、フェードインは、親指メニューが完全に使える状態にあるとの二次的合図としても働く。不測の始動は、主に、ユーザが最初にタッチ感応コンピューティングデバイスをつかんだときに起こる傾向があるので、数秒が経過した後、画面との任意の手の接触が意図的であったと仮定される。したがって、これは、あるアプリケーションにおける画面の端近くの任意の手の接触を無視する単純な親指ブロッキング発見的問題解決法と異なり、どのようにペンおよびコンピューティングデバイスセンサ相関技法の実装形態の検出方式が、意図的なタッチが通り抜けることを可能にしながらも、意図的でないタッチをブロックするのかを例示する。
[0156] 5.1.10.3ハンドオフ:別のユーザへのペンまたはタッチ感応コンピューティングデバイスの手渡し
[0157] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、タッチ感応コンピューティングデバイス(例えば、タブレット)またはペンを別のユーザに手渡しすることが、コンテンツを別のユーザと共有する代替の、より物理的な意味論を提供するためのやり方として使用される。手渡し把持の研究および他のユーザ観察は、ユーザが具体的な運動のシーケンスを経ることを示す。まず、ユーザは、相手の人に対象物を提供するためにおよそ水平にそれを保持しながらそれを差し出し、次いで、ユーザは相手の人が対象物をしっかりとつかむまで自分の握りを維持する。次いで、デバイスを手渡す人は手を放し、相手の人はそれを自分の体により近づけ、しばしば、その一方で、画面を自分の好む視野角にも向ける。このシーケンスの全部または一部は、手渡し把持インタラクションを検出するために感知することができる。
[0158] 例えば、図16はペン1604を副ユーザ1606に手渡しする主ユーザ1602を示す。タッチ感応ペン上の主ユーザの握りは、感知される(例えば、バトン握り)。同時に、またはほぼ同時に、タッチ感応ペン上の副ユーザの握りも感知される。ペン上の主および副ユーザの握りは、握りの文脈を決定するために、およびタッチ感応ペン(および/またはペンと通信するコンピューティングデバイス)上で実行するアプリケーションにおいてコマンドを開始するために相関される。例えば、副ユーザの握りは、副ユーザから主ユーザへのペンのハンドオフを表すと決定することができる。この場合、データをペンのハンドオフを介して主ユーザから副ユーザに転送することができる。あるいは、タッチ感応ペンの1つまたは複数の機能をハンドオフの後に制限することができる。
[0159] 同様に、図17は、タッチ感応コンピューティングデバイス1704を副ユーザ1706に手渡しする主ユーザ1702を示す。いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、いつ各ユーザがデバイスをつかむのかを決定するためにデバイスのケースの握り感知を使用し、デバイスの向きが水平であることを決定するためにデバイスの向きを使用して、タッチ感応コンピューティングデバイス上の2人のユーザの握りを検出するためにセンサを採用する。検出された握りおよびデバイスの向き(ならびに場合により他のデータ)を使用して、タッチ感応コンピューティングデバイスを使用する際に異なる許可の組を有する異なる役割を各ユーザに割り当てる。いくつかの実装形態において、これらの状態が検出されたとき、透明フィルムまたはベラムのシートがディスプレイ一面にわたって落とされたかのように特殊注釈層が画面一面にわたってはがれる。次いで、他のユーザは、コンテンツに自由に注釈を加えることができるが、デジタル複写はできない、または他の文書もしくはファイルにナビゲートできない。これは、他のデバイス間情報転送技法によって支持される情報のデジタル転送とは非常に異なり、それよりもずっと多く限定された共有の形である。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、単一のユーザが両手を用いてディスプレイを保持し続けるとき、タブレットハンドオフを作動させない。そのようなインタラクションの間、ユーザはタブレットを自分自身の方に傾ける傾向があり、したがって、タブレットは水平ではない。同様のやり方で、デバイスが机上で完全に平らであるインタラクションは、ユーザが両手を用いて自分のデバイスをふとタッチするまたは保持する場合、ユーザが非意図的にタブレットハンドオフを作動させないように検出することができる。
[0160] 5.2センサ上のバンプとの相関の前の履歴
[0161] ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実装形態は、タッチ感応ペンおよび/またはタッチ感応コンピューティングデバイス上のセンサの過去のデータ(例えば、センサデータを絶えず記録することによって取得された)を分析する。このデータを、例えば、タッチがペンの動きと相関されたことを確認または強化するためにペンのタッチダウンに関連付けられているバンプの時点でとられたセンサデータと相関させることができる。現在の相関データに加えて過去の相関データを使用する技法の実装形態は、そうでないものよりも堅牢であることができる。例えば、接触が手のひらであり、ペンが同時に動かされている間、非優位の手を用いて偶然にタッチダウンされていないことを確認するためにバンプ検出の時点で認識される自分の手を下に置いて書く人に関連付けられたセンサデータの少し前にペンに関連付けられた加速度/減速度パターンがあり得る。
[0162] 6.0例示的なシステムハードウェア
[0163] 試作品の実装形態において、予測される文脈感知技法の範囲を支持するために、カスタムハードウェアが、タッチ画面からの同時に起こるペン+タッチ事象を処理するために慣性センサおよび容量握り感知、ならびにカスタムソフトウェア/ファームウェアを用いてペンおよびタッチ感応コンピューティングデバイスを増強するように設計された。以下の例示的な試作品のハードウェアおよびソフトウェア/ファームウェアの説明は、どのように本明細書に論じる実装形態を実装することができるのかを、限定することが意図されているのでなくて、示すために提供される。当業者は、多くの他の実装形態が可能であることを理解されよう。
[0164] 6.1.ペンのハードウェア設計
[0165] 1つの例示的な実際に使える実装形態において、7x30感知素子からなる可撓容量性グリッドが、センサを保護するためにおよび感知のための滑らかで握りやすい円筒表面を提供するために熱収縮チューブでくるまれたペンの軸全体を覆う。ペンの内部は、小型の電磁ペン、単6形電池、およびカスタム回路を保持する3D印刷されたケースからなる。慣性感知には、ジャイロスコープならびに加速度計/磁力計モジュールが使用された。容量感知には、タッチコントローラが採用された。ペンは、2Mbpsで動作する送受信機を使用してすべてのデータをホストコンピュータに流す。マイクロコントローラがファームウェアを起動する。
[0166] この特定の実装形態において、すべての慣性センサデータが130Hzでペンにおよび30Hzで7x30容量マップに流される。結果として得られるペンは、長さが19cmであり、外径が13mmである。
[0167] 6.2タッチ感応コンピューティングデバイス/タブレットのハードウェア設計
[0168] この例示的な試作品システムにおけるタッチ感応コンピューティングデバイスは、タブレットコンピュータである。タブレットケースは、タブレットの後部表面と側面との全体を覆う。硬質ケースは、44x26容量感知素子からなる印刷回路板から構築される。集積回路が取り付けられる小さな非感受性領域(ケースの後面の中央に)がある。ケースは、ペンと同じセンサ構成要素を含むが、ただし、容量性グリッドの異なる部分に対して4つのタッチコントローラがある。タブレットセンサデータは、USBを介して流され、タブレットの慣性センサは100Hzで標本化され、タブレットの44x26容量マップは25Hzで標本化される。
[0169] 6.3タッチ画面から同時に起こるペンおよびタッチ
[0170] マルチタッチおよびペン事象は、それらを直接ヒューマンインターフェースデバイス(HID)コントローラからインターセプトすることによって処理された。この方式を使用して、Samsung Corporation Series 7 Slateが、ペン入力と同時に最大8つまでのタッチ接触を報告することができる試作品に使用された。
[0171] 6.4ソフトウェア/ファームウェアの設計
[0172] いくつかの技法の実装形態は、外部PC上のペンおよびタブレットのセンサデータを処理のために集め、タイムスタンプし、次いで、関連する入力事象をユーザインターフェースにおける提示のためにタブレットに伝送する。さらに、いくつかの技法の実装形態は、外部PC上の握り認識を計算する。したがって、一実装形態は、タッチ感応ペン、タブレットケース、タブレット自体、および外部PCの4つの協調構成要素を有する分散型システムからなる。しかし、センサデータならびに握り認識を集め、タイムスタンプすることは、タブレットコンピュータ上で実施することができ、それによって、独立型のパーソナルコンピュータ(PC)の必要がなくなることに留意されたい。ケースは、直接タッチ感応コンピューティングデバイスに統合することができる。いくつかの実装形態において、すべての分散型事象ストリームからのタイムスタンプされたデータは、同期バッファにおいて待ち行列に入れられる。次いで、いくつかの技法の実装形態は、これらのバッファからの事象をすべての事象が利用可能である最新のタイムスタンプまで処理する。他の実装形態において、いくつかの事象は、実時間で送り出されるが、続いて、将来の事象サンプルがそれらの解釈を改変するはずの他の伝送源から到来した場合変更される。これは、フィードバックを遅延させ、暫定的フィードバックを表示し、またはエンドユーザアプリケーションにおける推測動作を取り消すことによって達成することができる。
[0173] 6.5慣性センサの融合
[0174] いくつかの技法の実装形態は、方向余弦行列アルゴリズムを使用して加速度計、ジャイロスコープ、および磁力計のセンサ入力を組み合わせる。これにより、東−北−上地球座標系において安定したヨー、ピッチ、およびロールの値が得られる。これは、タブレットに対して一貫性のある基準座標系においてペンの向きを導出するのに使用される。
[0175] 6.6ペン握りの分類
[0176] 試作品の実装形態は、筆記、タック、手のひら、および握りなし(ペンが保持されていないときの)の4つの個別の握りを認識する。観察された挙動B4(握り対ポーズ)により、握り認識は、手の接触(容量握り感知)のパターンならびにスタイラスペンのポーズ(向き)を考慮する。システムの試作品の実装形態は、際立った特徴を抽出するために入力データを処理し、次いで、ペン握りを抽出するようにマルチクラス分類子を訓練する。技法の実装形態は、各学習者がサポートベクターマシン(SVM)分類子である一対全の学習者の組を使用することによってペン握りパターンのマルチクラス分類を実施する。その結果は、すべての4つの握りにわたる確率分布である。
[0177] 技法の実装形態は、ペンのフォームファクタの独自の検討を考慮に入れる握り分類の特徴を選択する。具体的には、ペンはペン軸の対称軸に沿って対称(円筒形)であるので、感知された握りはペンのロール角に対して不可知である。同様に、ユーザがペンを軸の下部で握るのかまたは上部で握るのか、またはユーザの手のサイズは、握り分類に影響してはならない。したがって、システムのいくつかの実装形態は、握りの高さおよびロール角の両方に対して不変の正規化画像を計算する。生の7x30容量マップから、システムは、非ゼロ容量値を7x10正規化画像に収める。容量マップはy次元でシフトされ、したがって、点灯(非ゼロ容量)画素の最初の行は正規化画像の底部に対応し、次いで、正規化画像の10行に収まるように非ゼロ容量画素を拡大縮小する。したがって、握り分類に採用された特徴は、xおよびy次元におけるペンのヨー角およびピッチ角、正規化握り画像、ならびに正規化握りヒストグラムを含む。技法の実装形態は、点灯(非ゼロ)画素の数の特徴および生の容量マップからすべての7x30容量値の画素合計も含む。
[0178] 6.6握り訓練データセット収集
[0179] 一実装形態において、全員がペンおよびタブレットの使用に以前に触れたことがある右利きの参加者9人(女性4人)が、握り訓練データセットを生成するのに利用された。ユーザは、具体的な握りを例示する台本と、各握りを実施する動作とに導かれた。これらは、タックおよび手のひら握り(挙動B2)の両方からタッチ(観察された挙動B1による)を使用しながらペンをしまうことを含んでいた。握り(挙動B3)の間の様々な共通の移行を捕捉するために異なるタスクのシーケンスも含まれた。ユーザは、タップ、ドラッグ、およびピンチなどの直接操作ジェスチャの明確な表現とともに、筆記と単一の指および2本指伸長握り(挙動B5)との間の移行を含む各握りの回外の全範囲(挙動B4)に導かれた。しかし、使用する特定の三脚握りは何も指定されず、むしろ、ユーザは、データセットがユーザ間の筆記握りの変形(挙動B6による)を捕捉するように、ペンを自然に保持することが許容された。データ収集は、ユーザごとにおよそ15分持続し、各ユーザに対して握りごとに合計1200サンプルが得られ、1200x3種類の握りxユーザ9人=32400サンプルの合計訓練データセットが生じた。
[0180] 6.6ペン握り認識精度
[0181] 収集された握り訓練データセットを使用する10分割交差検証により、ユーザに依存しないモデルとして88%の全体の精度が得られた。さらに右利きのユーザ9人により別個の確認が行われ、それらのだれもデータを訓練データセットに寄与しなかった。これにより、筆記握りに対してユーザに依存しない握り認識精度93%、タック握りに対して93%、および手のひら握りに対して77%が得られた。手のひら握りに対する相対的に低い認識率は、この握りではペンを非常に軽く保持する何人かのユーザの傾向から起こるように見え、結果として、容量握りアレイによって感知された接触の幾分一貫性のないパターンとなった。しかし、システムは、依然として、精度97%で筆記対非筆記握り(すなわち、タックまたは手のひら)を区別することができた。ほとんどのインタラクション技法がタック対手のひら握りの任意の区別に依存しないので、新たに出会ったユーザの訓練データを収集しなくても大変うまくいくこのユーザに依存しない握りモデルが使用された。
[0182] 7.0例示的な動作環境
[0183] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、数多くのタイプの汎用または専用コンピューティングシステム環境または構成内で動作可能である。図18はペン、または本明細書に説明するように、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態および要素を実装することができる様々なセンサで機能強化されたペンと組み合わせた汎用コンピュータシステムの簡略化された例を例示する。図18に破線または断続線で表される任意の四角形は、簡略化されたコンピューティングデバイスおよびセンサペンの代替の実装形態を表すこと、およびこれらの代替の実装形態のいずれかまたは全部は、以下に説明するように、本文書全体を通して説明される他の代替の実装形態と組み合わせて使用することができることに留意されたい。
[0184] 例えば、図18は、簡略化されたタッチ感応コンピューティングデバイス1800を示す全体的なシステムの図を示す。概して、そのようなタッチ感応コンピューティングデバイス1800は、1つまたは複数のタッチ感応表面1805または領域(例えば、タッチ画面、タッチ感応ベゼルまたはケース、ホバータイプ入力の検出のためのセンサ、光学タッチセンサなど)を有する。タッチ感応コンピューティングデバイス1800の例は、コンピューティングデバイスに接続されたタッチ感応ディスプレイデバイス、タッチ感応電話デバイス、タッチ感応メディアプレーヤ、タッチ感応電子書籍リーダー、ノートブック、ネットブック、ブックレット(デュアル画面)、タブレットタイプコンピュータ、または1つまたは複数のタッチ感応表面または入力様式を有する任意の他のデバイスを含むが、それらに限定されない。
[0185] デバイスがペンおよびコンピューティングデバイスセンサ相関技法を実装することを可能にするために、コンピューティングデバイス1800は、基本的計算動作を可能にするために十分な計算機能とシステムメモリを有するべきである。さらに、コンピューティングデバイス1800は、加速度計、ジャイロスコープ、磁力計、指紋検出器、深度カメラを含むカメラ、容量センサ、近接センサ、マイクロホン、マルチスペクトルセンサなどを含むがそれらに限定されない1つまたは複数のセンサ1810を含むことができる。図18によって例示されるように、計算機能は一般に1つまたは複数の処理ユニット1825によって例示され、1つまたは複数のGPU1815も含むことができ、いずれかまたは両方ともシステムメモリ1820と通信する。コンピューティングデバイス1800の処理ユニット1825は、DSP、VLIW、または他のマイクロコントローラなどの専用マイクロプロセッサであることができ、あるいはマルチコアCPU内の専用GPUベースコアを含む1つまたは複数の処理コアを有する従来のCPUであることができることに留意されたい。
[0186] さらに、コンピューティングデバイス1800は、例えば、センサペンデバイス1835からの通信を受信するための通信インターフェース1830などの他の構成要素を含むこともできる。コンピューティングデバイス1800は、1つまたは複数の従来のコンピュータ入力デバイス1840またはそのようなデバイス(例えば、ポインティングデバイス、キーボード、オーディオ入力デバイス、音声またはスピーチベース入力および制御デバイス、ビデオ入力デバイス、触覚入力デバイス、タッチ入力デバイス、有線またはワイヤレスデータ送信を受信するためのデバイスなど)の組合せを含むこともできる。コンピューティングデバイス1800は、例えば、1つまたは複数の従来のコンピュータ出力デバイス1850(例えば、ディスプレイデバイス1855、オーディオ出力デバイス、ビデオ出力デバイス、有線またはワイヤレスデータ送信を送信するためのデバイスなど)などの他の任意選択の構成要素を含むこともできる。典型的な通信インターフェース1830、入力デバイス1840、出力デバイス1850、および汎用コンピュータ用記憶デバイス1860は、当業者によく知られており、本明細書には詳細に説明しないことに留意されたい。
[0187] コンピューティングデバイス1800は、様々なコンピュータ可読媒体を含むこともできる。コンピュータ可読媒体は、記憶デバイス1860を介してコンピュータデバイス1800によってアクセスすることができ、コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュール、または他のデータなど、情報の記憶のための、取り外し可能1870であるか、および/または取り外し不可能1880であるかのいずれかである揮発性および不揮発性媒体の両方を含む任意の利用可能な媒体であることができる。例により、および限定ではなく、コンピュータ可読媒体は、コンピュータ記憶媒体と、通信媒体とを備えることができる。コンピュータ記憶媒体とは、DVD、CD、フロッピーディスク、テープドライブ、ハードドライブ、光学ドライブ、固体メモリデバイス、RAM、ROM、EEPROM、フラッシュメモリもしくは他のメモリ技術、磁気カセット、磁気テープ、磁気ディスク記憶装置、もしくは他の磁気記憶デバイス、または所望の情報を記憶するのに使用することができ、1つまたは複数のコンピューティングデバイスによってアクセスすることができる任意の他のデバイスなど、有形のコンピュータもしくは機械可読媒体または記憶デバイスを表す。
[0188] コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュールなどの情報の記憶は、様々な上述の通信媒体のいずれかを使用して、1つまたは複数の変調データ信号もしくは搬送波、または他の輸送機構もしくは通信プロトコルを符号化することによって達成することもでき、任意の有線またはワイヤレス情報配信機構を含む。「変調データ信号」または「搬送波」という用語は、一般に、その特性集合のうちの1つまたは複数を有する、または情報を信号内に符号化するようなやり方で変更した信号を表すことに留意されたい。例えば、通信媒体は、1つまたは複数の変調データ信号または搬送波を送信するおよび/または受信するために、1つまたは複数の変調データ信号を搬送する有線ネットワークまたは直接有線接続などの有線媒体と、音響、RF、赤外線、レーザ、および他のワイヤレス媒体などのワイヤレス媒体とを含む。上記のいずれかの組合せも、通信媒体の範囲内に含まれるはずである。
[0189] コンピュータ可読またはコンピュータ実行可能命令、データ構造、プログラムモジュールなどの情報の保持は、様々な上述の通信媒体のいずれかを使用して、1つまたは複数の変調データ信号もしくは搬送波、または他の輸送機構もしくは通信プロトコルを符号化することによって達成することもでき、任意の有線またはワイヤレス情報配信機構を含む。「変調データ信号」または「搬送波」は、一般に、その特性集合のうちの1つまたは複数を有する、または情報を信号内に符号化するようなやり方で変更した信号を表すことに留意されたい。例えば、通信媒体は、1つまたは複数の変調データ信号または搬送波を送信するおよび/または受信するために、1つまたは複数の変調データ信号を搬送する有線ネットワークまたは直接有線接続などの有線媒体と、音響、RF、赤外線、レーザおよび他のワイヤレス媒体などのワイヤレス媒体を含む。上記のいずれかの組合せも、通信媒体の範囲内に含まれるはずである。
[0190] さらに、本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態の一部または全部を採用するソフトウェア、プログラム、および/またはコンピュータプログラム製品、またはそれらの部分は、コンピュータ実行可能命令および/または他のデータ構造の形でコンピュータもしくは機械可読媒体もしくは記憶デバイスおよび通信媒体の任意の所望の組合せから記憶し、受信し、送信し、および/または読み取ることができる。
[0191] 最後に、本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法は、コンピューティングデバイスによって実行されるプログラムモジュールなどのコンピュータ実行可能命令の一般的な文脈でさらに説明することができる。一般に、プログラムモジュールは、特定のタスクを実施するまたは特定の抽象データ型を実装するルーチン、プログラム、オブジェクト、構成要素、データ構造などを含む。本明細書に説明する実装形態は、タスクが1つまたは複数の遠隔処理デバイスによって、または1つまたは複数の通信ネットワークを通してリンクされる1つまたは複数のデバイスのクラウド内で実施される、分散型コンピューティング環境で実施することもできる。分散型コンピューティング環境において、プログラムモジュールは、媒体記憶デバイスを含む局所および遠隔コンピュータ記憶媒体の両方に配置することができる。またさらに、上述の命令を、部分的にまたは全体的に、プロセッサを含んでも含まなくてもよいハードウェアロジック回路として実装することができる。
[0192] 図18によって例示されるセンサペンデバイス1835は、ペン、またはペンセンサ1845、ロジック1865、電源1875(例えば、電池)、基本I/O機能1885を用いて増強されたペンの簡略化されたバージョンを示す。上に論じたように、センサペンデバイス1835に使用するためのペンセンサ1845の例は、慣性センサ、深度カメラを含むカメラ、近接センサ、指紋センサ、電気皮膚反応センサ、加速度計、圧力センサ、握りセンサ、近距離無線通信センサ、RFIDタグおよび/またはセンサ、温度センサ、マイクロホン、磁力計、容量センサ、ジャイロスコープなどを含むが、それらに限定されない。
[0193] 概して、センサペンデバイス1835のロジック1865は、コンピューティングデバイス1800の計算機能と同様であるが、一般に計算速度、メモリなどに関してより強力ではない。しかし、センサペンデバイス1835は、独立型の能力がある計算デバイスとみなすことができるように十分なロジック1865を用いて構築することができる。
[0194] センサペンデバイス1835の電源1875は、交換可能電池、再充電可能電池、容量性エネルギー蓄積デバイス、燃料電池などを含むがそれらに限定されない様々なフォームファクタで実装される。最後に、センサペンデバイス1835のI/O1885は、センサペンデバイスがセンサデータおよび/または他の情報をコンピューティングデバイス1800に通信することが可能になる従来の有線またはワイヤレス通信機能を提供する。
[0195] ペンおよびコンピューティングデバイスセンサ相関技法の前述の説明は、例示および説明の目的で提示されてきた。開示される正確な形態で網羅することまたは特許請求される主題を限定することは意図されていない。上記の教示に照らして多くの変更および変形が可能である。さらに、上述の代替の実装形態のいずれかまたは全部は、所望の任意の組合せで使用して、ペンおよびコンピューティングデバイスセンサ相関技法のさらにハイブリッドな実装形態を形成することができることに留意されたい。例えば、本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の多くの実装形態の一部を可能にするのに使用される様々なデバイスは、ペン、ポインタ、ペンタイプ入力デバイスを含む。しかし、本明細書に説明する機能性は、任意の所望のフォームファクタ、例えば、様々なゲームデバイス、ゲーム機、または他のコンピューティングデバイスに使用するための電話、ペン型スキャナ、杖、ボールラケット、おもちゃの剣などで実装することができる。さらに、本明細書に説明するセンサペンは、電力供給装置、および様々なコンピューティングデバイスとインターフェースするための様々なワイヤレス通信機能と組み合わせて、慣性センサ、深度カメラを含むカメラ、加速度計、圧力センサ、握りセンサ、近距離無線通信センサ、RFIDタグおよび/またはセンサ、温度センサ、マイクロホン、磁力計、容量センサ、ジャイロスコープなどを含むが、それらに限定されないセンサの様々な組合せを組み込むように適合される。これらのセンサのいずれかまたは全部は、多軸または多位置センサ(例えば、3軸加速度計、ジャイロスコープ、および磁力計)であることができることに留意されたい。さらに、様々な実装形態において、本明細書に説明するセンサペンは、センサペンが他のコンピューティングデバイス、他のセンサペンと組み合わせてまたは協調して、あるいは独立型のコンピューティングデバイスとしても働くことが可能になるメモリおよび/またはコンピューティング機能を組み込むようにさらに適合されている。
[0196] ペンおよびコンピューティングデバイスセンサ相関技法は、センサペンおよびタッチ感応コンピューティングデバイスへの実際のタッチを感知するが、仮想タッチ入力に採用することもできる。投影されたディスプレイ、電子ホワイトボード、または他の表面もしくは物体に対する仮想タッチ入力は、ペンおよびコンピューティングデバイスセンサ相関技法によってタッチ感応表面上への実際のタッチ入力と同じやり方で取り扱われる。そのような仮想タッチ入力は、例えば、カメラまたは他の画像技術を使用して、投影された画像に対する、電子ホワイトボード上の文章に対する、物理的な物体に対するユーザの指の動きを追跡するなど、従来の技法を使用して検出される。
[0197] さらに、ペンおよびコンピューティングデバイスセンサ相関技法は、タッチまたは圧力を決定するまたは感知するために実に様々なタッチおよび屈曲感応材料を用いて動作可能であることを理解されたい。例えば、ペンおよびコンピューティングデバイスセンサ相関技法によって使用されるように適合された1つのタッチ感知技術は、接触を感知するタッチされた表面のある明確な変形に対して光源を評価することによってタッチまたは圧力を決定する。また、本明細書に論じるように、センサペンは、複数のタイプのタッチおよび/または圧力感知基板を含むことができることに留意されたい。例えば、センサペンは、例えば、容量センサ、圧力センサ、屈曲もしくは変形ベースのセンサ、深度センサなどのセンサの任意の組合せを使用してタッチ感応および/または圧力感応の両方であることができる。
[0198] 本開示の範囲は、この詳細な説明によって限定されず、むしろ本明細書に添付された特許請求の範囲によって限定されることが意図されている。主題を構造的な特徴および/または方法論的行為に特有の言語で説明してきたが、添付の特許請求の範囲に定義される主題は、必ずしも上記の具体的な特徴または行為に限定されないことを理解されたい。むしろ、上記の具体的な特徴および行為は、特許請求の範囲を実装する例の形として開示される。

Claims (8)

  1. タッチ感応ペン上の握りパターンに基づく1つまたは複数のセンサ入力と、タッチ感応コンピューティングデバイス上のタッチパターンに基づく1つまたは複数のセンサ入力とを含む、前記タッチ感応ペンおよび前記タッチ感応コンピューティングデバイスから受け取った並行センサ入力の組合せを受け取るステップと、
    どのように前記タッチ感応コンピューティングデバイスがタッチされているのかということと並行して、どのように前記タッチ感応ペンが握られているのかということを決定するために前記センサ入力を使用するステップと、
    前記タッチ感応ペンデバイス上の前記握りパターンと前記タッチ感応コンピューティングデバイス上の前記タッチパターンとの組合せに基づいてユーザインターフェース作用を開始するステップと、
    前記センサ入力から前記ユーザの利き手と、非利き手とを決定するステップを含み、
    前記ユーザの利き手は、前記タッチ感応コンピューティングデバイスと接触が行われたとき、前記タッチ感応ペンの運動における衝撃を感知するステップと、前記タッチ感応ペンを保持する前記手が前記利き手であることを決定するために、タッチ感応ペンの運動における前記衝撃と前記タッチ感応コンピューティングデバイスの運動とを相関させるステップとによって決定される、ユーザインターフェース作用を開始するためのコンピュータ実装方法。
  2. 前記タッチ感応コンピューティングデバイスの運動を感知するステップと、
    前記感知されたタッチ感応コンピューティングデバイスの運動と前記タッチ感応コンピューティングデバイス上の前記タッチパターンとを相関させるステップと、
    前記タッチ感応コンピューティングデバイスのディスプレイ上の不測の画面コンテンツの回転を抑制するために前記タッチ感応コンピューティングデバイス上の前記相関された運動およびタッチパターンを使用するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。
  3. 前記タッチ感応ペンが前記ユーザの利き手の中に収容された位置で保持されていることを決定するステップと、
    前記タッチ感応コンピューティングデバイスのディスプレイ上への前記ユーザの利き手からの接触を検出するステップと、
    前記接触に応答して文脈特有のツールを表示するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。
  4. 前記タッチ感応コンピューティングデバイスのタッチ感応画面上へのタッチが、前記タッチ感応コンピューティングデバイスのケースの対応する後面部分上の新たな手の握りパターンが検出されるのと同時にユーザの親指によって行われることを決定するステップと、
    前記タッチ感応画面上で前記親指によって行われた意図的でない前記タッチを無視するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。
  5. ユーザがどちらの手を用いて前記タッチ感応コンピューティングデバイスを保持しているのかを決定するステップと、
    前記タッチ感応コンピューティングデバイスを保持する前記手の前記親指を用いて前記ユーザによって始動させることができる前記タッチ感応コンピューティングデバイスの前記画面上の位置に親指メニューを表示するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。
  6. 単一のユーザによって2つ以上のタッチ感応デバイス上に同時に起こる接触の信号を相関させるステップと、
    前記信号の前記相関に基づいて前記2つ以上のタッチ感応デバイス上への前記接触の文脈を決定するステップと、
    前記接触の前記決定された文脈をアプリケーションにおいて使用するためのメタデータとしてラベル付けするステップと、
    アプリケーションにおいてコマンドを開始するために前記メタデータを使用するステップと、
    前記信号の前記相関から前記ユーザの利き手と非利き手とを決定するステップを含み、
    前記ユーザの利き手は、第1タッチ感応デバイスと接触が行われたとき、前記第1タッチ感応デバイスの運動における衝撃を感知するステップと、前記第1タッチ感応デバイスを保持する前記手が前記利き手であることを決定するために前記第1感応デバイスの運動における前記衝撃と前記第2感応デバイスの運動とを相関させるステップとによって決定される、メタ情報を見つけるためのコンピュータ実装方法。
  7. 一方のタッチ感応デバイスが、タッチ感応ペンであり、他方のタッチ感応デバイスが、タッチ感応コンピューティングデバイスであり、前記接触の前記文脈が、どのように前記タッチ感応ペンが握られているのか、およびどのように前記タッチ感応コンピューティングデバイスがユーザの素手を用いてタッチされているのかによって決定される、請求項に記載のコンピュータ実装方法。
  8. 前記信号の1つまたは複数が、前記ユーザを識別するのに使用される前記ユーザの指紋を表す、請求項に記載のコンピュータ実装方法。
JP2016569621A 2014-06-12 2015-06-08 ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 Active JP6660309B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/303,203 US9727161B2 (en) 2014-06-12 2014-06-12 Sensor correlation for pen and touch-sensitive computing device interaction
US14/303,203 2014-06-12
PCT/US2015/034612 WO2015191409A1 (en) 2014-06-12 2015-06-08 Sensor correlation for pen and touch-sensitive computing device interaction

Publications (3)

Publication Number Publication Date
JP2017517813A JP2017517813A (ja) 2017-06-29
JP2017517813A5 JP2017517813A5 (ja) 2018-06-21
JP6660309B2 true JP6660309B2 (ja) 2020-03-11

Family

ID=53477003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016569621A Active JP6660309B2 (ja) 2014-06-12 2015-06-08 ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関

Country Status (6)

Country Link
US (2) US9727161B2 (ja)
EP (1) EP3155508A1 (ja)
JP (1) JP6660309B2 (ja)
KR (1) KR102295271B1 (ja)
CN (1) CN106462341B (ja)
WO (1) WO2015191409A1 (ja)

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9591339B1 (en) 2012-11-27 2017-03-07 Apple Inc. Agnostic media delivery system
US10200761B1 (en) 2012-12-13 2019-02-05 Apple Inc. TV side bar user interface
US9532111B1 (en) 2012-12-18 2016-12-27 Apple Inc. Devices and method for providing remote control hints on a display
US10521188B1 (en) 2012-12-31 2019-12-31 Apple Inc. Multi-user TV user interface
WO2014192204A1 (ja) * 2013-05-28 2014-12-04 京セラドキュメントソリューションズ株式会社 表示装置及び画像形成装置
AU2015279949B2 (en) * 2014-06-24 2018-05-10 Apple Inc. Input device and user interface interactions
CN106415475A (zh) 2014-06-24 2017-02-15 苹果公司 用于在用户界面中导航的列界面
WO2016022097A1 (en) * 2014-08-05 2016-02-11 Hewlett-Packard Development Company, L.P. Determining a position of an input object
US9762316B2 (en) * 2014-09-03 2017-09-12 Adobe Systems Incorporated Lightweight pairing and connection transfer protocol via gesture-driven shared secrets
KR102271434B1 (ko) * 2014-09-26 2021-07-01 엘지전자 주식회사 이동단말기 및 그 제어방법
US9766724B2 (en) * 2014-11-03 2017-09-19 Lenovo (Singapore) Pte. Ltd. Orientation dependent stylus button function
US9552097B2 (en) * 2015-01-28 2017-01-24 Qualcomm Incorporated Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric
US20170021662A1 (en) * 2015-07-24 2017-01-26 Tyler S. Forester System and Method for Training Correct Positioning and Pressure of Digits on a Marking Instrument
US10007421B2 (en) * 2015-08-03 2018-06-26 Lenovo (Singapore) Pte. Ltd. Natural handwriting detection on a touch surface
US9981131B2 (en) * 2015-11-19 2018-05-29 Pacesetter, Inc. Systems and methods for determining spinal cord stimulation parameters based on patient feedback
US9811926B2 (en) * 2016-01-21 2017-11-07 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Touch screen gesture for perfect simple line drawings
US10838502B2 (en) * 2016-03-29 2020-11-17 Microsoft Technology Licensing, Llc Sharing across environments
US10248880B1 (en) * 2016-06-06 2019-04-02 Boston Inventions, LLC Method of processing and recognizing hand-written characters
DK201670582A1 (en) 2016-06-12 2018-01-02 Apple Inc Identifying applications on which content is available
DK201670581A1 (en) 2016-06-12 2018-01-08 Apple Inc Device-level authorization for viewing content
US10088915B2 (en) 2016-07-01 2018-10-02 Deere & Company Method and system with sensors for sensing hand or finger positions for adjustable control
US10139961B2 (en) 2016-08-18 2018-11-27 Microsoft Technology Licensing, Llc Touch detection using feature-vector dictionary
US10187504B1 (en) * 2016-09-23 2019-01-22 Apple Inc. Echo control based on state of a device
US11966560B2 (en) 2016-10-26 2024-04-23 Apple Inc. User interfaces for browsing content from multiple content applications on an electronic device
US10613676B2 (en) * 2016-11-04 2020-04-07 Microsoft Technology Licensing, Llc Non-uniform code constellations in electrostatic communication
US10514844B2 (en) * 2016-11-16 2019-12-24 Dell Products L.P. Automatically modifying an input area based on a proximity to one or more edges
US10768196B2 (en) 2016-12-19 2020-09-08 Huami Inc. Determine wearing position of a wearable device
KR102560598B1 (ko) * 2016-12-21 2023-07-28 삼성전자주식회사 디스플레이 장치 및 그 제어방법
US10289300B2 (en) * 2016-12-28 2019-05-14 Amazon Technologies, Inc. Feedback animation for touch-based interactions
TWI621971B (zh) * 2016-12-30 2018-04-21 華碩電腦股份有限公司 書寫姿勢提醒方法與使用其之電子系統
US10922743B1 (en) 2017-01-04 2021-02-16 Amazon Technologies, Inc. Adaptive performance of actions associated with custom user interface controls
US10635291B2 (en) 2017-02-20 2020-04-28 Microsoft Technology Licensing, Llc Thumb and pen interaction on a mobile device
US10656760B2 (en) * 2017-03-01 2020-05-19 Microsoft Technology Licensing, Llc Replay of recorded touch input data
KR102316024B1 (ko) * 2017-03-02 2021-10-26 삼성전자주식회사 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법
US10877575B2 (en) * 2017-03-06 2020-12-29 Microsoft Technology Licensing, Llc Change of active user of a stylus pen with a multi user-interactive display
CN107704181A (zh) * 2017-03-14 2018-02-16 上海斐讯数据通信技术有限公司 一种移动终端触摸屏应急操作装置及操作方法
US11513678B2 (en) * 2017-06-06 2022-11-29 Polycom, Inc. Context based annotating in an electronic presentation system
JP6457587B2 (ja) * 2017-06-07 2019-01-23 ファナック株式会社 ワークの動画に基づいて教示点を設定するロボットの教示装置
KR102353494B1 (ko) 2017-06-30 2022-01-20 삼성전자주식회사 사용자의 근접을 검출하기 위한 전자 장치 및 그의 동작 방법
US10937215B1 (en) * 2017-09-29 2021-03-02 Apple Inc. Techniques for enabling drawing in a computer-generated reality environment
US10712840B2 (en) * 2017-10-13 2020-07-14 Dell Products L.P. Active pen system
US11126258B2 (en) 2017-10-14 2021-09-21 Qualcomm Incorporated Managing and mapping multi-sided touch
US10484530B2 (en) * 2017-11-07 2019-11-19 Google Llc Sensor based component activation
EP3550408A4 (en) * 2018-01-05 2019-11-27 Shenzhen Goodix Technology Co., Ltd. PRESSURE METHOD AND DEVICE FOR ACTIVE PEN AND ACTIVE PEN
JP7101504B2 (ja) * 2018-03-23 2022-07-15 日本光電工業株式会社 携帯情報端末、生体情報管理方法、生体情報管理プログラム、およびコンピュータが読み取り可能な記憶媒体
US11023055B2 (en) * 2018-06-01 2021-06-01 Apple Inc. Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus
DK201870354A1 (en) 2018-06-03 2019-12-20 Apple Inc. SETUP PROCEDURES FOR AN ELECTRONIC DEVICE
US10649550B2 (en) * 2018-06-26 2020-05-12 Intel Corporation Predictive detection of user intent for stylus use
US10635895B2 (en) 2018-06-27 2020-04-28 Facebook Technologies, Llc Gesture-based casting and manipulation of virtual content in artificial-reality environments
US10496193B1 (en) * 2018-06-28 2019-12-03 Dell Products, L.P. Digital pen with three-dimensional input interface
CN109002803B (zh) * 2018-07-24 2021-09-24 武汉大学 一种基于智能手表的握笔姿势检测和汉字笔顺识别方法
US11029761B2 (en) 2018-08-02 2021-06-08 International Business Machines Corporation Context based gesture control
US10891033B2 (en) * 2018-08-24 2021-01-12 Microsoft Technology Licensing, Llc System and method for enhanced touch selection of content
US10824772B2 (en) 2018-11-28 2020-11-03 International Business Machines Corporation Dynamically adjusting grip panel
US11683565B2 (en) 2019-03-24 2023-06-20 Apple Inc. User interfaces for interacting with channels that provide content that plays in a media browsing application
US12008232B2 (en) 2019-03-24 2024-06-11 Apple Inc. User interfaces for viewing and accessing content on an electronic device
EP3928194A1 (en) 2019-03-24 2021-12-29 Apple Inc. User interfaces including selectable representations of content items
CN114297620A (zh) 2019-03-24 2022-04-08 苹果公司 用于媒体浏览应用程序的用户界面
CN111914259B (zh) * 2019-05-09 2024-07-02 阿里巴巴集团控股有限公司 数据处理方法及计算设备
US11507206B2 (en) 2019-05-13 2022-11-22 Microsoft Technology Licensing, Llc Force-sensing input device
JP7299754B2 (ja) * 2019-05-22 2023-06-28 シャープ株式会社 情報処理装置、情報処理方法、及び情報処理プログラム
US11863837B2 (en) 2019-05-31 2024-01-02 Apple Inc. Notification of augmented reality content on an electronic device
CN113906380A (zh) 2019-05-31 2022-01-07 苹果公司 用于播客浏览和回放应用程序的用户界面
US11036326B2 (en) * 2019-07-02 2021-06-15 Microsoft Technology Licensing, Llc Haptic interaction via magnetic force
IT201900013440A1 (it) * 2019-07-31 2021-01-31 St Microelectronics Srl Sistema e metodo di riconoscimento di gesti per un dispositivo del tipo a penna digitale e corrispondente dispositivo del tipo a penna digitale
WO2021054936A1 (en) 2019-09-16 2021-03-25 Hewlett-Packard Development Company, L.P. Haptic feedback for computing systems
US11256367B2 (en) * 2019-09-27 2022-02-22 Apple Inc. Techniques for handling unintentional touch inputs on a touch-sensitive surface
US11843838B2 (en) 2020-03-24 2023-12-12 Apple Inc. User interfaces for accessing episodes of a content series
US11899895B2 (en) 2020-06-21 2024-02-13 Apple Inc. User interfaces for setting up an electronic device
US11177872B1 (en) 2020-06-24 2021-11-16 AR & NS Investment, LLC Managing a network of radio frequency (RF) repeater devices
US11283510B2 (en) 2020-06-24 2022-03-22 AR & NS Investment, LLC Phase noise removal in a network of radio frequency (RF) repeaters
US11989965B2 (en) * 2020-06-24 2024-05-21 AR & NS Investment, LLC Cross-correlation system and method for spatial detection using a network of RF repeaters
WO2022019899A1 (en) * 2020-07-22 2022-01-27 Hewlett-Packard Development Company, L.P. Stylus with force sensor arrays
US11054943B1 (en) * 2020-08-17 2021-07-06 Microsoft Technology Licensing, Llc Touch restriction region for touch-sensitive display
US11755128B2 (en) 2020-09-25 2023-09-12 Apple Inc. Stylus with compressive force sensor
US11360616B1 (en) 2020-09-25 2022-06-14 Apple Inc. Stylus with touch input and compressive force sensors
US11720229B2 (en) 2020-12-07 2023-08-08 Apple Inc. User interfaces for browsing and presenting content
US11934640B2 (en) 2021-01-29 2024-03-19 Apple Inc. User interfaces for record labels
JP2024506603A (ja) * 2021-02-05 2024-02-14 シーゲル,ジョナサン 電子署名デバイスのためのシステム及び方法
NL2027963B1 (en) * 2021-04-14 2022-10-25 Microsoft Technology Licensing Llc Touch-sensitive input device
US11487400B1 (en) * 2021-08-13 2022-11-01 International Business Machines Corporation Aggregated multidimensional user interface display with electronic pen for holographic projection
CN113703577B (zh) * 2021-08-27 2024-07-16 北京市商汤科技开发有限公司 一种绘图方法、装置、计算机设备及存储介质
WO2023055924A1 (en) * 2021-09-29 2023-04-06 Linus Health, Inc. Computational approaches to assessing central nervous system functionality using a digital tablet and stylus
CN115963938A (zh) * 2021-10-09 2023-04-14 华为技术有限公司 一种显示操作轨迹的方法及装置
TWI792613B (zh) * 2021-10-15 2023-02-11 致伸科技股份有限公司 一種資料回報率之調整方法
US11537239B1 (en) * 2022-01-14 2022-12-27 Microsoft Technology Licensing, Llc Diffusion-based handedness classification for touch-based input
CN114494183B (zh) * 2022-01-25 2024-04-02 哈尔滨医科大学附属第一医院 一种基于人工智能的髋臼半径自动测量方法及系统
US11662838B1 (en) 2022-04-19 2023-05-30 Dell Products L.P. Information handling system stylus with power management through acceleration and sound context
US11662839B1 (en) 2022-04-19 2023-05-30 Dell Products L.P. Information handling system stylus with power management through acceleration and sound context
US11733788B1 (en) 2022-04-19 2023-08-22 Dell Products L.P. Information handling system stylus with single piece molded body
NL2031789B1 (en) * 2022-05-06 2023-11-14 Microsoft Technology Licensing Llc Aggregated likelihood of unintentional touch input
DE102022115764A1 (de) 2022-06-24 2024-01-04 Signata GmbH Verfahren zum Erkennen einer Griffart eines ein rotatorisches Bedienelement benutzenden Bedieners
CN115495055B (zh) * 2022-11-03 2023-09-08 杭州实在智能科技有限公司 基于界面区域识别技术的rpa元素匹配方法及系统
US11989369B1 (en) 2023-03-30 2024-05-21 Microsoft Technology Licensing, Llc Neural network-based touch input classification

Family Cites Families (167)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0374241B1 (en) 1988-05-27 1997-08-27 Kodak Limited Document annotation and manipulation in a data processing system
US5149919A (en) 1990-10-31 1992-09-22 International Business Machines Corporation Stylus sensing system
US5198623A (en) 1991-11-27 1993-03-30 Calcomp, Inc. Method for use in a digitizer for determining pen tilt
US5561444A (en) 1992-12-21 1996-10-01 Apple Computer, Inc. Method and apparatus for providing visual feedback during manipulation of text on a computer screen
US5463725A (en) 1992-12-31 1995-10-31 International Business Machines Corp. Data processing system graphical user interface which emulates printed material
US5414227A (en) 1993-04-29 1995-05-09 International Business Machines Corporation Stylus tilt detection apparatus for communication with a remote digitizing display
KR100395863B1 (ko) 1995-05-08 2003-11-14 매사츄세츠 인스티튜트 오브 테크놀러지 신호송신매질로서인체를사용한비접촉센싱및신호송신용시스템
US5956020A (en) 1995-07-27 1999-09-21 Microtouch Systems, Inc. Touchscreen controller with pen and/or finger inputs
US5778404A (en) 1995-08-07 1998-07-07 Apple Computer, Inc. String inserter for pen-based computer systems and method for providing same
US5867163A (en) 1995-12-01 1999-02-02 Silicon Graphics, Inc. Graphical user interface for defining and invoking user-customized tool shelf execution sequence
CA2302595C (en) 1997-09-25 2002-09-17 Tegic Communications, Inc. Reduced keyboard disambiguating system
EP1717678B1 (en) 1998-01-26 2017-11-22 Apple Inc. Method for integrating manual input
US8479122B2 (en) 2004-07-30 2013-07-02 Apple Inc. Gestures for touch sensitive input devices
US7800592B2 (en) 2005-03-04 2010-09-21 Apple Inc. Hand held electronic device with multiple touch sensing devices
US6788292B1 (en) 1998-02-25 2004-09-07 Sharp Kabushiki Kaisha Display device
KR20010096485A (ko) 1998-04-06 2001-11-07 스터링 한스 루돌프 컴퓨터의 디스플레이 스크린에 커서의 위치결정
US6337698B1 (en) 1998-11-20 2002-01-08 Microsoft Corporation Pen-based interface for a notepad computer
US7289102B2 (en) 2000-07-17 2007-10-30 Microsoft Corporation Method and apparatus using multiple sensors in a device with a display
US6906703B2 (en) 2001-03-28 2005-06-14 Microsoft Corporation Electronic module for sensing pen motion
US6882340B2 (en) 2001-10-19 2005-04-19 Wacom Co., Ltd. Electronic pen
US20040047505A1 (en) 2001-12-26 2004-03-11 Firooz Ghassabian Stylus computer
US20030164821A1 (en) 2002-02-05 2003-09-04 Omid Rezania Writing instrument with variable display
FI20021655A (fi) 2002-06-19 2003-12-20 Nokia Corp Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite
US11275405B2 (en) 2005-03-04 2022-03-15 Apple Inc. Multi-functional hand-held device
US20040012575A1 (en) 2002-07-22 2004-01-22 Homer Steven S. Storage and removal system for pointer utilized with an electronic device
US20040073432A1 (en) 2002-10-15 2004-04-15 Stone Christopher J. Webpad for the disabled
US20040203520A1 (en) 2002-12-20 2004-10-14 Tom Schirtzinger Apparatus and method for application control in an electronic device
US20040140962A1 (en) 2003-01-21 2004-07-22 Microsoft Corporation Inertial sensors integration
US7231609B2 (en) 2003-02-03 2007-06-12 Microsoft Corporation System and method for accessing remote screen content
US7068262B2 (en) 2003-06-09 2006-06-27 Leapfrog Enterprises, Inc. Writing stylus for electrographic position location apparatus
US8373660B2 (en) 2003-07-14 2013-02-12 Matt Pallakoff System and method for a portable multimedia client
US20050024346A1 (en) 2003-07-30 2005-02-03 Jean-Luc Dupraz Digital pen function control
US20050052427A1 (en) 2003-09-10 2005-03-10 Wu Michael Chi Hung Hand gesture interaction with touch surface
US7231231B2 (en) 2003-10-14 2007-06-12 Nokia Corporation Method and apparatus for locking a mobile telephone touch screen
US7532196B2 (en) 2003-10-30 2009-05-12 Microsoft Corporation Distributed sensing techniques for mobile devices
US7966352B2 (en) 2004-01-26 2011-06-21 Microsoft Corporation Context harvesting from selected content
US7358965B2 (en) 2004-02-18 2008-04-15 Microsoft Corporation Tapping to create writing
US7176888B2 (en) 2004-03-23 2007-02-13 Fujitsu Limited Selective engagement of motion detection
US7400316B2 (en) 2004-05-28 2008-07-15 International Business Machines Corporation Method and apparatus for dynamically modifying web page display for mobile devices
US20070182663A1 (en) 2004-06-01 2007-08-09 Biech Grant S Portable, folding and separable multi-display computing system
WO2006006173A2 (en) 2004-07-15 2006-01-19 N-Trig Ltd. Automatic switching for a dual mode digitizer
US7847789B2 (en) 2004-11-23 2010-12-07 Microsoft Corporation Reducing accidental touch-sensitive device activation
US7432916B2 (en) 2004-12-09 2008-10-07 Universal Electronics, Inc. Controlling device with dual-mode, touch-sensitive display
KR101085447B1 (ko) 2004-12-31 2011-11-21 삼성전자주식회사 터치 위치 검출 장치 및 이의 터치 위치 검출 방법과,이를 구비한 터치 스크린 표시 장치
US8250493B2 (en) 2005-02-05 2012-08-21 Samsung Electronics Co., Ltd. User interface method, medium, and apparatus with gesture-recognition
CN101120527B (zh) 2005-02-17 2012-09-05 皇家飞利浦电子股份有限公司 能在网络内部工作的设备、网络系统、在网络内部操作设备的方法
US20060256008A1 (en) 2005-05-13 2006-11-16 Outland Research, Llc Pointing interface for person-to-person information exchange
US7928964B2 (en) 2005-04-22 2011-04-19 Microsoft Corporation Touch input data handling
US20060267958A1 (en) 2005-04-22 2006-11-30 Microsoft Corporation Touch Input Programmatical Interfaces
KR100668341B1 (ko) 2005-06-29 2007-01-12 삼성전자주식회사 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치.
US7982739B2 (en) 2005-08-18 2011-07-19 Realnetworks, Inc. System and/or method for adjusting for input latency in a handheld device
US7633076B2 (en) 2005-09-30 2009-12-15 Apple Inc. Automated response to and sensing of user activity in portable devices
US7362221B2 (en) 2005-11-09 2008-04-22 Honeywell International Inc. Touchscreen device for controlling a security system
US7523405B2 (en) 2005-11-16 2009-04-21 Microsoft Corporation Displaying 2D graphic content using depth wells
US7663620B2 (en) 2005-12-05 2010-02-16 Microsoft Corporation Accessing 2D graphic content using axonometric layer views
AU2006101096B4 (en) 2005-12-30 2010-07-08 Apple Inc. Portable electronic device with multi-touch input
US8018440B2 (en) 2005-12-30 2011-09-13 Microsoft Corporation Unintentional touch rejection
US20070188477A1 (en) 2006-02-13 2007-08-16 Rehm Peter H Sketch pad and optical stylus for a personal computer
US7966573B2 (en) 2006-02-17 2011-06-21 Microsoft Corporation Method and system for improving interaction with a user interface
US20100045705A1 (en) 2006-03-30 2010-02-25 Roel Vertegaal Interaction techniques for flexible displays
KR100771626B1 (ko) 2006-04-25 2007-10-31 엘지전자 주식회사 단말기 및 이를 위한 명령 입력 방법
US8873858B2 (en) 2006-06-29 2014-10-28 Rpx Corporation Apparatus, method, device and computer program product providing enhanced text copy capability with touch input display
US20080040692A1 (en) 2006-06-29 2008-02-14 Microsoft Corporation Gesture input
JP5324440B2 (ja) 2006-07-12 2013-10-23 エヌ−トリグ リミテッド デジタイザのためのホバリングおよびタッチ検出
US20080046425A1 (en) 2006-08-15 2008-02-21 N-Trig Ltd. Gesture detection for a digitizer
US7705837B2 (en) 2006-09-01 2010-04-27 Lenovo (Singapore) Pte. Ltd. System and method for alarming for misplaced computer tablet pen
US9201556B2 (en) 2006-11-08 2015-12-01 3M Innovative Properties Company Touch location sensing system and method employing sensor data fitting to a predefined curve
US7876310B2 (en) 2007-01-03 2011-01-25 Apple Inc. Far-field input identification
US7855718B2 (en) 2007-01-03 2010-12-21 Apple Inc. Multi-touch input discrimination
US9311528B2 (en) 2007-01-03 2016-04-12 Apple Inc. Gesture learning
US8462109B2 (en) 2007-01-05 2013-06-11 Invensense, Inc. Controlling and accessing content using motion processing on mobile devices
US7956847B2 (en) 2007-01-05 2011-06-07 Apple Inc. Gestures for controlling, manipulating, and editing of media files using touch sensitive devices
US20090262074A1 (en) 2007-01-05 2009-10-22 Invensense Inc. Controlling and accessing content using motion processing on mobile devices
US20090265671A1 (en) 2008-04-21 2009-10-22 Invensense Mobile devices with motion gesture recognition
US20080292195A1 (en) 2007-05-22 2008-11-27 Vijayasenan Deepu Data Processing System And Method
US8171432B2 (en) 2008-01-06 2012-05-01 Apple Inc. Touch screen device, method, and graphical user interface for displaying and selecting application options
KR101345755B1 (ko) 2007-09-11 2013-12-27 삼성전자주식회사 휴대용 단말기의 조작제어장치 및 그 방법
US8564574B2 (en) 2007-09-18 2013-10-22 Acer Incorporated Input apparatus with multi-mode switching function
JP2010541046A (ja) 2007-09-24 2010-12-24 アップル インコーポレイテッド 電子デバイスに組み込まれた認証システム
US8631358B2 (en) 2007-10-10 2014-01-14 Apple Inc. Variable device graphical user interface
US9274698B2 (en) 2007-10-26 2016-03-01 Blackberry Limited Electronic device and method of controlling same
TW200925944A (en) 2007-12-12 2009-06-16 Mitac Int Corp Touch pen with erasure function
JP2009163278A (ja) * 2007-12-21 2009-07-23 Toshiba Corp 携帯型機器
KR20090070491A (ko) 2007-12-27 2009-07-01 엔에이치엔(주) 터치스크린을 이용한 화면 제어 장치 및 방법
US20090167702A1 (en) 2008-01-02 2009-07-02 Nokia Corporation Pointing device detection
US20090209285A1 (en) 2008-02-15 2009-08-20 Sony Ericsson Mobile Communications Ab Portable communication device having touch-sensitive input device ...
US8650507B2 (en) 2008-03-04 2014-02-11 Apple Inc. Selecting of text using gestures
JP2009266097A (ja) * 2008-04-28 2009-11-12 Toshiba Corp 入力機器
US20090315734A1 (en) 2008-06-23 2009-12-24 Silverbrook Research Pty Ltd Electronic pen with automatically retractable nib
KR20100006219A (ko) 2008-07-09 2010-01-19 삼성전자주식회사 사용자 인터페이스 방법 및 장치
US8390577B2 (en) 2008-07-25 2013-03-05 Intuilab Continuous recognition of multi-touch gestures
TW201011605A (en) 2008-09-01 2010-03-16 Turbotouch Technology Inc E Method capable of preventing mistakenly triggering a touch panel
US20100053120A1 (en) 2008-09-03 2010-03-04 Chang An-Yu Touchscreen stylus
US8810522B2 (en) 2008-09-29 2014-08-19 Smart Technologies Ulc Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method
GB2464094A (en) 2008-09-30 2010-04-07 Rapid Mobile Media Ltd Method and apparatus for displaying content at a mobile device
KR20100039194A (ko) * 2008-10-06 2010-04-15 삼성전자주식회사 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치
EP3654141A1 (en) * 2008-10-06 2020-05-20 Samsung Electronics Co., Ltd. Method and apparatus for displaying graphical user interface depending on a user's contact pattern
US20100095234A1 (en) 2008-10-07 2010-04-15 Research In Motion Limited Multi-touch motion simulation using a non-touch screen computer input device
US8477103B2 (en) 2008-10-26 2013-07-02 Microsoft Corporation Multi-touch object inertia simulation
US8466879B2 (en) 2008-10-26 2013-06-18 Microsoft Corporation Multi-touch manipulation of application objects
US8493408B2 (en) 2008-11-19 2013-07-23 Apple Inc. Techniques for manipulating panoramas
KR101662172B1 (ko) 2008-11-21 2016-10-10 삼성전자주식회사 입력 장치
US8294047B2 (en) 2008-12-08 2012-10-23 Apple Inc. Selective input signal rejection and modification
JP4743267B2 (ja) 2008-12-12 2011-08-10 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
KR20100071754A (ko) 2008-12-19 2010-06-29 삼성전자주식회사 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치
JP4702475B2 (ja) 2008-12-25 2011-06-15 ソニー株式会社 入力装置、ハンドヘルド装置及び制御方法
US8499251B2 (en) 2009-01-07 2013-07-30 Microsoft Corporation Virtual page turn
US8704767B2 (en) 2009-01-29 2014-04-22 Microsoft Corporation Environmental gesture recognition
US9468846B2 (en) 2009-01-30 2016-10-18 Performance Designed Products Llc Tactile feedback apparatus and method
US8370736B2 (en) 2009-03-16 2013-02-05 Apple Inc. Methods and graphical user interfaces for editing on a multifunction device with a touch screen display
US20100251112A1 (en) * 2009-03-24 2010-09-30 Microsoft Corporation Bimodal touch sensitive digital notebook
US20100281435A1 (en) 2009-04-30 2010-11-04 At&T Intellectual Property I, L.P. System and method for multimodal interaction using robust gesture processing
US20100295798A1 (en) 2009-05-21 2010-11-25 Sony Computer Entertainment America Inc. Hand-held device with ancillary touch activated zoom
KR101574117B1 (ko) 2009-05-22 2015-12-11 엘지전자 주식회사 이동 단말기 및 이를 이용한 콜 기능 수행 방법
US8619029B2 (en) 2009-05-22 2013-12-31 Motorola Mobility Llc Electronic device with sensing assembly and method for interpreting consecutive gestures
US20100306670A1 (en) 2009-05-29 2010-12-02 Microsoft Corporation Gesture-based document sharing manipulation
WO2010140805A2 (ko) * 2009-05-30 2010-12-09 Hwang Jay-Yeob 핸드헬드 태블릿피씨 시스템
US8462134B2 (en) 2009-06-29 2013-06-11 Autodesk, Inc. Multi-finger mouse emulation
US9710097B2 (en) * 2009-07-10 2017-07-18 Adobe Systems Incorporated Methods and apparatus for natural media painting using touch-and-stylus combination gestures
GB2486843B (en) 2009-08-25 2014-06-18 Promethean Ltd Interactive surface with a plurality of input detection technologies
US8535133B2 (en) 2009-11-16 2013-09-17 Broadcom Corporation Video game with controller sensing player inappropriate activity
KR101708682B1 (ko) 2010-03-03 2017-02-21 엘지전자 주식회사 영상표시장치 및 그 동작 방법.
US20110167357A1 (en) 2010-01-05 2011-07-07 Todd Benjamin Scenario-Based Content Organization and Retrieval
US20110187651A1 (en) 2010-02-03 2011-08-04 Honeywell International Inc. Touch screen having adaptive input parameter
US8839150B2 (en) 2010-02-10 2014-09-16 Apple Inc. Graphical objects that respond to touch or motion input
US8769443B2 (en) 2010-02-11 2014-07-01 Apple Inc. Touch inputs interacting with user interface items
US20110231796A1 (en) 2010-02-16 2011-09-22 Jose Manuel Vigil Methods for navigating a touch screen device in conjunction with gestures
US9003334B2 (en) 2010-03-05 2015-04-07 Adobe Systems Incorporated Editing content using multiple touch inputs
CN101813982B (zh) 2010-03-10 2012-05-30 鸿富锦精密工业(深圳)有限公司 具有运动响应功能的电子装置及其执行输入操作的方法
US9069416B2 (en) 2010-03-25 2015-06-30 Google Inc. Method and system for selecting content using a touchscreen
US8228292B1 (en) 2010-04-02 2012-07-24 Google Inc. Flipping for motion-based input
US20120092268A1 (en) 2010-10-15 2012-04-19 Hon Hai Precision Industry Co., Ltd. Computer-implemented method for manipulating onscreen data
US20120092269A1 (en) 2010-10-15 2012-04-19 Hon Hai Precision Industry Co., Ltd. Computer-implemented method for manipulating onscreen data
US8660978B2 (en) 2010-12-17 2014-02-25 Microsoft Corporation Detecting and responding to unintentional contact with a computing device
US20120154295A1 (en) 2010-12-17 2012-06-21 Microsoft Corporation Cooperative use of plural input mechanisms to convey gestures
US8994646B2 (en) 2010-12-17 2015-03-31 Microsoft Corporation Detecting gestures involving intentional movement of a computing device
US8982045B2 (en) * 2010-12-17 2015-03-17 Microsoft Corporation Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device
US9244545B2 (en) 2010-12-17 2016-01-26 Microsoft Technology Licensing, Llc Touch and stylus discrimination and rejection for contact sensitive computing devices
US9201539B2 (en) 2010-12-17 2015-12-01 Microsoft Technology Licensing, Llc Supplementing a touch input mechanism with fingerprint detection
US8988398B2 (en) 2011-02-11 2015-03-24 Microsoft Corporation Multi-touch input device with orientation sensing
JP5664303B2 (ja) * 2011-02-09 2015-02-04 大日本印刷株式会社 コンピュータ装置、入力システム、及びプログラム
US9201520B2 (en) 2011-02-11 2015-12-01 Microsoft Technology Licensing, Llc Motion and context sharing for pen-based computing inputs
US9857868B2 (en) * 2011-03-19 2018-01-02 The Board Of Trustees Of The Leland Stanford Junior University Method and system for ergonomic touch-free interface
US9223495B2 (en) 2011-03-25 2015-12-29 Samsung Electronics Co., Ltd. System and method for crossing navigation for use in an electronic terminal
US20120260220A1 (en) 2011-04-06 2012-10-11 Research In Motion Limited Portable electronic device having gesture recognition and a method for controlling the same
WO2012153536A1 (ja) * 2011-05-12 2012-11-15 パナソニック株式会社 座標入力装置及び座標入力方法
KR101802759B1 (ko) 2011-05-30 2017-11-29 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US20120327040A1 (en) 2011-06-22 2012-12-27 Simon David I Identifiable stylus
US9329703B2 (en) 2011-06-22 2016-05-03 Apple Inc. Intelligent stylus
US8638320B2 (en) 2011-06-22 2014-01-28 Apple Inc. Stylus orientation detection
TW201303655A (zh) 2011-07-13 2013-01-16 Asustek Comp Inc 無線傳輸觸控筆與觸控顯示系統
US20130159939A1 (en) 2011-10-12 2013-06-20 Qualcomm Incorporated Authenticated gesture recognition
WO2013054155A1 (en) 2011-10-14 2013-04-18 Universite Lille 1-Sciences Et Technologies Multi-touch human interface system and device for graphical input, and method for processing image in such a system.
US10423248B2 (en) 2011-10-28 2019-09-24 Wacom Co., Ltd. Touch-sensitive system with motion filtering
KR101163346B1 (ko) 2011-10-28 2012-07-05 한국과학기술원 터치스크린 제어방법, 장치, 이를 위한 기록매체 및 이를 포함하는 사용자 단말
US9965107B2 (en) 2011-10-28 2018-05-08 Atmel Corporation Authenticating with active stylus
US9389701B2 (en) 2011-10-28 2016-07-12 Atmel Corporation Data transfer from active stylus
US20130154952A1 (en) 2011-12-16 2013-06-20 Microsoft Corporation Gesture combining multi-touch and movement
JP2013145463A (ja) 2012-01-13 2013-07-25 Sony Corp 情報処理装置及び情報処理方法、並びにコンピューター・プログラム
US9519419B2 (en) 2012-01-17 2016-12-13 Microsoft Technology Licensing, Llc Skinnable touch device grip patterns
US8902181B2 (en) 2012-02-07 2014-12-02 Microsoft Corporation Multi-touch-movement gestures for tablet computing devices
TW201410305A (zh) 2012-09-07 2014-03-16 Dexin Corp 具有效能調校及優化資料分享功能之遊戲系統
JP2014062962A (ja) * 2012-09-20 2014-04-10 Sony Corp 情報処理装置、筆記具、情報処理方法およびプログラム
US20140108979A1 (en) 2012-10-17 2014-04-17 Perceptive Pixel, Inc. Controlling Virtual Objects
US20140210797A1 (en) 2013-01-31 2014-07-31 Research In Motion Limited Dynamic stylus palette
US9946365B2 (en) 2013-03-11 2018-04-17 Barnes & Noble College Booksellers, Llc Stylus-based pressure-sensitive area for UI control of computing device
US20140267025A1 (en) * 2013-03-14 2014-09-18 Samsung Electronics Co., Ltd. Method and apparatus for operating sensors of user device

Also Published As

Publication number Publication date
WO2015191409A1 (en) 2015-12-17
JP2017517813A (ja) 2017-06-29
CN106462341A (zh) 2017-02-22
KR20170016869A (ko) 2017-02-14
US9727161B2 (en) 2017-08-08
US20150363035A1 (en) 2015-12-17
EP3155508A1 (en) 2017-04-19
US20170300170A1 (en) 2017-10-19
KR102295271B1 (ko) 2021-08-27
CN106462341B (zh) 2020-02-28
US10168827B2 (en) 2019-01-01

Similar Documents

Publication Publication Date Title
JP6660309B2 (ja) ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関
JP6542262B2 (ja) ペンおよびコンピューティングデバイスのインタラクションのためのマルチデバイスマルチユーザセンサ相関
Hinckley et al. Sensing techniques for tablet+ stylus interaction
US9244545B2 (en) Touch and stylus discrimination and rejection for contact sensitive computing devices
CN109074217B (zh) 用于多点触摸输入检测的应用
US9201520B2 (en) Motion and context sharing for pen-based computing inputs
KR20160080109A (ko) 사용자 인터페이스 제어를 위한 시스템 및 기법
KR20140146346A (ko) 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템
Matulic et al. Pensight: Enhanced interaction with a pen-top camera
Dobbelstein et al. PocketThumb: A wearable dual-sided touch interface for cursor-based control of smart-eyewear
Zhang et al. Sensing posture-aware pen+ touch interaction on tablets
Tarun et al. Snaplet: using body shape to inform function in mobile flexible display devices
US8884930B2 (en) Graphical display with optical pen input
Hinckley et al. Motion and context sensing techniques for pen computing
KR20160008890A (ko) 신체를 이용하여 터치 입력을 제공하는 장치 및 방법
Hinckley A background perspective on touch as a multimodal (and multisensor) construct
US20140152628A1 (en) Computer input device for hand-held devices
US20240329754A1 (en) Wearable keyboard for electronic devices
Hinckley A Background Perspective on Touch
Suzuki et al. A potential exploration of finger-specific interaction
Wu et al. Infofinder: just-in-time information interface from the combination of an hwd with a smartwatch
Hollatz Combining auxiliary finger input with thumb touch for single-handed mobile device interfaces
Hanewich-Hollatz Combining Auxiliary Finger Input With Thumb Touch for Single-Handed Mobile Device Interfaces
Jang et al. CornerPen: smart phone is the pen
Bunscheit Imaginary Interfaces: Development of user interfaces for creating highly mobile screen-less devices

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20170113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180507

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180507

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190423

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200207

R150 Certificate of patent or registration of utility model

Ref document number: 6660309

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250