JP6660309B2 - ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 - Google Patents
ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 Download PDFInfo
- Publication number
- JP6660309B2 JP6660309B2 JP2016569621A JP2016569621A JP6660309B2 JP 6660309 B2 JP6660309 B2 JP 6660309B2 JP 2016569621 A JP2016569621 A JP 2016569621A JP 2016569621 A JP2016569621 A JP 2016569621A JP 6660309 B2 JP6660309 B2 JP 6660309B2
- Authority
- JP
- Japan
- Prior art keywords
- touch
- pen
- sensitive
- computing device
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 165
- 230000033001 locomotion Effects 0.000 claims description 82
- 210000003813 thumb Anatomy 0.000 claims description 37
- 230000002596 correlated effect Effects 0.000 claims description 31
- 230000009471 action Effects 0.000 claims description 15
- 230000000875 corresponding effect Effects 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 9
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 238000002372 labelling Methods 0.000 claims description 2
- 230000035939 shock Effects 0.000 claims 1
- 210000003811 finger Anatomy 0.000 description 69
- 230000006399 behavior Effects 0.000 description 32
- 230000006870 function Effects 0.000 description 27
- 238000004891 communication Methods 0.000 description 26
- 230000003993 interaction Effects 0.000 description 22
- 238000001514 detection method Methods 0.000 description 16
- 238000003860 storage Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000012545 processing Methods 0.000 description 11
- 210000004247 hand Anatomy 0.000 description 10
- 230000007246 mechanism Effects 0.000 description 9
- 238000012549 training Methods 0.000 description 9
- 239000007921 spray Substances 0.000 description 7
- 239000000969 carrier Substances 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 230000008859 change Effects 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 241001422033 Thestylus Species 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000010079 rubber tapping Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 239000003973 paint Substances 0.000 description 3
- 238000004091 panning Methods 0.000 description 3
- 210000000707 wrist Anatomy 0.000 description 3
- 230000003213 activating effect Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000000386 athletic effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 230000009977 dual effect Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 230000004807 localization Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 230000007723 transport mechanism Effects 0.000 description 2
- 206010038743 Restlessness Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000002238 attenuated effect Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 238000002790 cross-validation Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000009826 distribution Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000004146 energy storage Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 210000001145 finger joint Anatomy 0.000 description 1
- 210000004905 finger nail Anatomy 0.000 description 1
- 238000007667 floating Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003071 parasitic effect Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000000284 resting effect Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 231100000430 skin reaction Toxicity 0.000 description 1
- 239000010454 slate Substances 0.000 description 1
- 230000007480 spreading Effects 0.000 description 1
- 238000003892 spreading Methods 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 230000008093 supporting effect Effects 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 239000004753 textile Substances 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/0354—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
- G06F3/03545—Pens or stylus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/038—Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
- G06F3/0383—Signal control means within the pointing device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
- G06F3/04162—Control or interface arrangements specially adapted for digitisers for exchanging data with external devices, e.g. smart pens, via the digitiser sensing hardware
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/041—Indexing scheme relating to G06F3/041 - G06F3/045
- G06F2203/04104—Multi-touch detection in digitiser, i.e. details about the simultaneous detection of a plurality of touching locations, e.g. multiple fingers or pen and finger
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/048—Indexing scheme relating to G06F3/048
- G06F2203/04808—Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Description
[029] 以下の段落は、タッチ感応コンピューティングデバイス上のモバイル感知、センサ増強ペン、握り感知、およびペン+タッチ入力の序章を提供する。
[031]モバイルデバイス上の傾斜、圧力、および近接感知により、利き手の検出、縦位置/横位置検出、または歩行対静止使用などの文脈適合が可能となる。握り感知により、モバイルデバイスは、どのようにユーザがそれを保持するのかを検出することが可能になり、または電話をかけること、写真を撮ること、またはビデオを見ることなどの機能を自動的に作動させるためにつかみを使用することが可能になる。本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然なユーザの挙動を感知し、それを単一のまたは複数のタッチ感応ペンとタッチ感応コンピューティングデバイス(例えば、タブレット)とのインタラクションに適用する視点を採用する。
[034] タブレットなどの軽量のコンピューティングデバイスは、多くの新たな握り、動き、および感知技法を提供する。本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ペン+タッチインタラクションを感知するためのタブレットおよびペンの両方に対して同時に完全な握り感知および運動感知を最初に実装している。「握り」が装置またはデバイスの3D定位または動きも考慮に入れる具体的な手の接触パターンの全体的組合せとしてシステムによって認識され得ることに留意されたい。すなわち、タッチ感応握り感知と慣性運動感知との間には、すべてのこれらの自由度を、現在観察された「握り」をできるだけ正確に分類する認識手順によって採用することができるので、ある意味、明確な線を引くことができない。したがって、「握り」という用語が使用されているときはいつでも、タッチと運動または向きの自由度との可能な組合せが暗示される。
[036] 手のひら接触により、ペン+タッチインタラクションの間、重大な誤作動の問題が起こることがある。例えば、あるノート取りアプリケーションは、手のひらブロッキングを含むが、どのようにおよびどこにユーザ筆記するのかに関するアプリケーション特有の仮定を利用するように見える。ある手のひら拒絶技法では、ユーザがペン先を画面上にまたは画面近くに持ってきてから手のひらを下に置くことを必要とし、それによって、ユーザは自分の自然な動きを変更する必要がある。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、いつタッチ画面接触がペンを保持する手に関連付けられるのかを検出するのにセンサを使用する。
[038] 補助的傾斜、ロール、および他のペン自由度は、必ずしも自然な使用を中断しなくてもメニューを呼び出すまたはモードスイッチを作動させるために組み合わせることができる。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ユーザがペンをタックしながら1つまたは複数の指を伸ばすことができる機能を実装する。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、たとえユーザがペンを画面から十分に離して保持しても、これらの接触を別々の機能を有する別個の文脈として感知することができる。
[041] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然なペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)のユーザ挙動を使用して、これらの挙動に関連付けられた文脈を決定し、それによって、文脈に適したツールをユーザに提供する。したがって、デジタルペンおよびタブレットのタスクの間に起こるある共通の握り、特にペンが手の中にある間、明示されたタッチ画面インタラクションは、見直すのに有用であり、以下に列挙し、図1、2、3および4に示す。実に様々な挙動(以下にB1−B11として列挙される)が観察されており、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を設計する際に使用された。以下の段落は、右利きの人の挙動に集中している。左利きの人は、さらに様々な握りおよび適応を示すことが知られている。以下に論じ、図1、2、3および4に示す挙動は、本質的に例示的だけであり、他の挙動がまったく可能であることに留意された。
[043] タブレットなどのタッチ感応コンピューティングデバイスのタッチ画面上でタッチジェスチャを実施するときユーザがペンをしまう傾向があるのは、明らかである。ユーザは、長時間ペンを再び必要としないことを予測するとき、または画面上のキーボードを使用してたくさんのテキストをタイプするなど、ペンを手に持ったまま実施するのには難しすぎる、もしくは落ち着かないと感じるタスクに出会った場合、典型的にはペンを下に置くだけである。
[045] ユーザがペンをしまうのに採用する2つの異なる握りがある。これらは図1 104に示すタック握り(指の間にペンを通す)と図1 106に示す手のひら握り(指をペン軸の周りに軽く巻く)とである。ユーザは、休止の間またはタッチインタラクションを提供するためにペンをしまう。
[047] タック握り104および手のひら握り106の両方を採用するユーザの場合、タック握りは、迅速な一時的タッチインタラクションを提供するが、手のひら握りは、ユーザがより長いシーケンスのタッチインタラクションを予測する場合に主として使用される。他のユーザはペンをしまうのにタック握り104だけを使用する。
[049] 各握り、すなわち、ペンを保持する各やり方に対して、ペンの向きが変更される一連のポーズは、しばしば手首の回外(すなわち、手のひらを上に向ける)によって起こる。したがって、人間のペンを用いたつかみ運動は、ペン軸上の手の接触のパターンならびにペンの3D定位を包含する。図1に示すように、全手のひら回外112がタック握り104と手のひら握り106とに対して観察されるが、筆記握りに対しては半回外110だけである。
[051] 図2および3に示すように、ユーザがタッチ画面と接触するようにペンを保持しながら1つまたは複数の指を伸ばす多くの伸長握りが存在する。これらは、ユーザがタック握りまたは手のひら握りのいずれかと区別することができる単一の指伸長握り(図2、200)対複数の指伸長握り(図3、300)として大きく分類された。(例示されていないが、3本指伸長握りもいくつかの握りから可能であることに留意されたい)。
[053] ユーザは、結果として生じるユーザのタック、手のひら、および伸長握りの変形につながる、筆記用三脚握りの多くの変形を示す。例えば、1人のユーザのタックのスタイルは、単一のタッチジェスチャとして彼女の薬指を好むものとなった(タック薬指伸長握り(図2、206)参照)。
[055] 各ユーザは、一貫して同じ状況で同じペン握りを適用する傾向がある。ユーザは、インタラクションにおける障壁の知覚(疲労や非効率など)により、ユーザが握りを変える動機を得るまで、どの握りでも最も少ない労力を要する握りを維持する傾向もある。ユーザは、たぶん立っている間にモバイルコンピューティングデバイス(例えば、タブレット)を保持するまたは握りなおす効果的なやり方があまりないので、しばしば立っているときよりも座っているとき、そのようなデバイス上の握りを切り換える。
[057] ユーザは、筆記しながら、またはユーザの指をカニのような形で外に広げながら、手のひらをタッチ画面より上に浮かせるなどの、ペン握りおよび手のポーズをしばしば採用して、画面との偶発的な接触を避ける。タッチ画面回避の別の形態は、タッチ感応コンピューティングデバイスを取り上げるときタッチ画面にあまりに近接して親指を遊ばせるのではなく、タッチ感応コンピューティングデバイスの外側の縁(例えば、タブレットベゼル)に沿って親指を載せることである。これらの不自然なおよび場合により心身を疲れさせる対応は、システムが意図的なタッチ対意図的でないタッチの文脈を区別できないことを反映している。
[059] ユーザは、筆記握り(図1、102、108、110)からペン軸ボタンだけを始動させ、次いで、人差し指だけを用いることが観察された。ユーザは、ボタンをタップするときペンを依然として保持する。親指は、場合により、手のひら状の親指スライド握り(図4、404)からのコントロールに利用可能でもある。
[061] ユーザは、小さな対象物に精密に向けるためにペンを指先の方に筆記面に垂直に保持する外部精密握り(図4、402)を採用する。これにより、この握りが検出されたとき、タブレット画面のペン先の下の領域を自動的にズームするなど、文脈強化を提供する可能性が得られる。
[063] 参加者がペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)を別の人に手渡すとき、手渡し把持が観察される。ユーザは、強力握りよりももっとデバイスをしっかり保持する傾向があり、デバイスを水平に保ちながら自分の体からデバイスを差し出し、したがって、ユーザの意図は明確であり、相手の人は遠端側からデバイスをつかみ取ることができる。
[066] 本明細書に説明する、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、自然に発生するユーザ挙動およびペン+タッチインタラクションに対して起こる固有の文脈を感知するためにタッチ感応コンピューティングデバイス/ペン(例えば、タブレットスタイラスペン)分散型感知システムにデバイス間同期ジェスチャおよびチャネル間入力をもたらす。しかし、本明細書では議論の多くがペン/タブレットインタラクションに集中するが、他のペン状の機械的媒介または小型のウェアラブルデバイスは、ペンおよびコンピューティングデバイスセンサ相関技法の変形を使用してタブレットとインタラクトしながら文脈感知を可能にすることができることに留意されたい。例えば、人差し指に装着した小型の運動感知リングは、いつユーザがその指対別の指で画面をタップしたのかを感知することができる。ウォッチ、指先または指の爪に装着したセンサ、腕輪、腕章、包帯もしくはおおい、肘当て、ブレース、リストバンド、センサで増強された手袋、皮下埋め込み、またはさらには埋め込みセンサ付きeテキスタイルワイシャツの袖も、当業者に対して関連技法を可能にし、提案する他の同様の例を表す。同様に、定規、コンパス、外科用メス、ピンセット、スタンプ、拡大鏡、レンズ、キーパッド、計算機、雲形定規、形状テンプレート、ペイントブラシ、またはエアブラシなどの他の手動ツールは、好むまたは好まない手に保持されているかどうかにかかわらず、関連技法も可能にするペン状用具として働くことができる。
− ペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)の使用の全文脈を捕捉するための握りおよび運動を感知する新規の解決策と、
− 意図的でないタッチ(デバイスを取り上げたときの手のひらからまたは親指からの)を軽減するためだが、好まない手による、またはペン入力とタッチ入力とを交互に行うために伸長握りを介した意図的なタッチを促進するためにも、センサを使用するステップと、
− 例えば、素手の入力、ペンをタックしながらのピンチ入力の個別のツールおよびペンが筆記に備えた態勢にあるときユーザが好まない手を用いて呼び出すことができる製図ツールを含む、握り、運動、およびタッチ画面接触を組み合わせる新規の文脈的に適したツールとを含むがそれらに限定されない、タッチ感応ペンおよびタッチ感応コンピューティングデバイスとのペンベースのユーザインタラクションに関連するいくつかの利点を提供する。
[076] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応ペンまたはタッチ感応コンピューティングデバイスのいずれかまたは両方に対して様々な動作および機能を作動させるために、部分的に、タッチ感応ペンからとタッチ感応コンピューティングデバイスとからのセンサ入力を相関させることによって動作する。
[0100] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態を実施するための例示的なシステムを説明してきたので、以下の節では、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態を実施するための例示的な方法を論じる。
[0107] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態ならびに技法を実施するための例示的なシステムおよび例示的な方法の序章を提供してきたので、以下の段落では、様々な例示的なペンおよびコンピューティングデバイスセンサ相関技法の実装形態の詳細を提供する。以下の詳細の多くはペンと組み合わせてタブレットコンピュータを使用することを参照するが、これは説明を簡略化するために使用されたただ1つの例示的なデバイスにすぎないことを理解されたい。以下に説明する例示的な実装形態は、任意のタッチ感応コンピューティングデバイス(例えば、電話、デスクトップデジタイザ、ファブレット、電子書籍リーダー、電子ホワイトボード、車両用タッチディスプレイ等々)に使用することができるはずである。
[0111] ペンおよびコンピューティングデバイスセンサ相関技法の例示的な実装形態は、注釈、パニングおよびズーミング、ならびにある追加の素描ツールを支持するシンプル素描アプリケーションの文脈で採用された。これらの実装形態の機能のうちのいくつかを以下の段落で論じる。多くの他の実装形態およびこれらの機能の組合せは可能である。
[0113] いくつかの実装形態において、慣性センサ融合により、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、例えば、タブレットなどのタッチ感応コンピューティングデバイスに対して共通の基準フレームを維持することが可能になる。技法のいくつかの実装形態は、握り認識フェーズにおいて、ならびにペン運動(後でより詳細に説明する、エアブラシツール用などの)の解釈において、タブレットの相対的向きを採用する。技法のいくつかの実装形態だけが、タッチ感応コンピューティングデバイス(例えば、タブレット)に対するペンの向きを感知することができる。いくつかの実装形態において、慣性感知は、ある他の絶対的外部基準に頼らずにペンの(x,y)変換またはzの高さを確実に決定することができない。外部絶対基準が利用可能である他の実装形態において、技法の実装形態は、それが画面自体の感知範囲外であるときでも内部感知機能を絶対基準と融合することによってペン先の絶対(x,y)および高さ(z)を継続して追跡することができる。絶対基準は、外部源(例えば、ペン上のマーキングまたはIR源の光学的追跡)または内部源(例えば、ペンの無線送受信機の近似距離を決定するためのタブレットまたは環境内の他の送受信機からの無線信号強度三角測量)であることができる。概して、ワイヤレスおよび無線信号強度は、別のデバイスに対するデバイスのx、y、z位置の良好な推定を得るのに十分であり得る(きめの細かい慣性感知と組み合わせたとき)位置を近似するのに使用することができ、これは複数の内部源または外部源の三角測量により達成することができる。さらに、いくつかの実装形態において、深度カメラを使用して、ペンおよび/またはタッチ感応コンピューティングデバイスを追跡することができる。
[0115] タッチ感応表面または画面上への意図的でない手のひら接触を感知することは、タッチの始まりに、どのタイプのタッチが起きているのかを区別するにはしばしば不十分な情報であるので、難しい問題である。手のひらを大きな接触領域とのタッチとして認識することができるが、そのような接触は、典型的には、小さく始まり、あるサイズ閾値を通過するにはしばらく時間がかかることがある。また、ある意図的でないタッチ(指関節によって生じた接触など)は、「大きな」接触に変わることは決してない可能性がある。したがって、この戦略は、タッチ事象を処理する際に遅延を必然的に伴い(遅れを生じ)、依然として多くの接触を検出しそこなう可能性がある。
[0123] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、手のひらが画面上に置かれているときでも同時に起こる意図的なタッチを許可する。概して、いくつかの実装形態において、前に検出された手のひら接触の所定の半径の外側にあり、ペン上のバンプに付随していない、手のひらから離れて起こる任意の新たなタッチは、真の意図的なタッチを表す。いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、ピンチからズームへのジェスチャを支持するために手のひら接触としてフラッグが立てられていない最初の2つの追加のタッチを使用する。手のひら接触は、手のひらが動いていても、無視され、パン/ズームを妨害しない。他の単一のまたは複数の指または手全体のジェスチャも、支持することができる。
[0126] 図11に示す拡大鏡/ルーペツール1100の機能性は、ユーザが作業空間の文脈全体を失うことなく少数の詳細なストロークをすることを望む素描タスクに特によく適している焦点プラス文脈拡大技法(「ルーペ」と呼ばれる)を採用する。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、どのようにユーザがペンおよびタッチ感応コンピューティングデバイス(例えば、タブレット)とインタラクトしているのかを感知することによって、拡大鏡および全キャンバスズーミングの両方を支持する。
[0132] 製図ツール(図13、1300)機能は、ユーザがしばしば筆記活動が連続する間、筆記握りを維持するとの観察から生まれた。例えば、休止の間、ユーザは、しばしば手首を画面から離して回転させて、ペンを筆記半回外ポーズの状態にする。したがって、筆記握り自体は、ユーザがすぐに筆記できる姿勢でペンを保持することを考慮に入れた様々な製図ツールを提供することによって、明確に支持することができる興味ある文脈を表す。
[0136] エアブラシツールの一実施形態は、はじめは、ユーザがペイントフローを開始した場合エアブラシがスプレーをかける場所のカーソルフィードバックを灰色の断続線の楕円として示す。ユーザが(好まない手)指の位置によってエアブラシツールがスプレーをかけるべき場所を示す。これは、(前に記載したように)慣性感知がタブレットより上のペン先の絶対(x,y,z)位置を決定することができず、タブレットに対する3D定位だけしか決定できないので、必要である。ペンの向きの相対的感知は、スタイラスペンではなく、タッチ感応コンピューティングデバイス(例えば、タブレット)を回転させることによって示すことができる。
[0140] 技法の実装形態は、スタイラスペン感知チャネルの一部または全部を戦略的に組み合わせることによって仮想軸ボタンの単一タップ始動を首尾よく支持する。本明細書に説明する単一タップ仮想ペン軸ボタンの実装形態は、ペンの運動データに加えて握り感知データを使用する。
[0143] 製図ツールパレットは、コンパスも含み、コンパスは、ペンが指の(この場合もやはり好まない手の)現在の位置を中心とした円弧を描くように強いられるペン+タッチモードを支持する。
[0145] 別の例として、ペンがしまわれている間のタップなどの単一の指接触により、ペンコントロール(図14、1400)を含む小さなインプレースパレットがもたらされ、ユーザは、作業空間の端においてドックに入れられたツールバーを往復しなくても、モードを変更することまたはペンの色およびストロークの深さを変更することが可能になる。この例は、ユーザが任意の単一の指を使用して伸長握りからタッチ画面をタップして、タッチ画面接触をしたとき、この場合もやはりペン上に発生されたバンプを利用する。ツールは指の隣に現れる。次いで、研究によるとユーザがペンおよびタッチがUIコントロールと互換可能であることを期待していることが一貫して分かっているので、ユーザはペンまたはタッチのいずれかを使用してラジアルメニューとインタラクトすることができる。いくつかの実装形態において、これらのまたは関連したコントロールは、タップ(すなわち、フィンガーダウン+フィンガーアップシーケンス)またはタップアンドホールド(フィンガーダウン+画面との指の接触の維持)のいずれかによって作動させることができることに留意されたい。後者は、特に、指がデジタイザと接触したままである限り維持されるばね荷重モードにつながる。
[0147] キャンバスツール(図15、1500)は、ペンのセンサとタッチ感応コンピューティングデバイス上のセンサとを使用して、いつユーザがセンサペンを非筆記位置でユーザの好む手に保持しているのかを検出し、いつ、例えば、指タップなどの単一の接触をコンピューティングデバイスのタッチ画面上へのユーザの好まない手を用いて行われたのかを検出する。これらの相関された並行動作により、キャンバスツールのメニューがコンピューティングデバイスのディスプレイ上に表示される。例えば、このツールのメニューは、取り消し/やり直し、切り取り−複写−貼り付け、改ページ、検索および同様のコマンドを含むことができる。ペンツールのように、いくつかの実装形態において、キャンバスツールおよび関連したツールは、実装形態により、タップまたはタップアンドホールドジェスチャのいずれかによって作動させることができる。
[0149] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、タッチ感応コンピューティングデバイスのケースの後面および側面上の容量握り感知を使用して、いくつかの追加の接触を検出し、それらの文脈を決定する。
[0151] ユーザがタッチ感応コンピューティングデバイス(例えば、タブレットまたは他の同様のデバイス)を、両手を用いて取り上げ、保持し、ペンを利用不可能にするする多くの場合がある。ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、握りを使用して、どちらの手を用いてユーザがタッチ感応コンピューティングデバイスを保持しているのかを感知する。次いで、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、これを使用して、親指メニュー(図5、534)をタッチ感応コンピューティングデバイス(例えば、タブレット)の適切な側に呼び出し、親指メニューにより、ユーザは、様々なボタンおよびメニューを、直接親指を用いて始動させることが可能になる。ユーザがタッチ感応コンピューティングデバイス(例えば、タブレット)を第2の手を用いてつかんだ場合、ペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、親指メニューを最初に現れた側に見えるままにする。他の実装形態において、親指メニューを2つの親指の間で分割する(または複製する)ことができる。
[0154] いくつかのペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、親指メニューが最初に現れたとき、短い(例えば、1.5秒)間隔にわたってフェードし、同様に、ユーザがタッチ感応コンピューティングデバイスから手を離した場合、親指メニューが短い時間(例えば、350ms)の後フェードアウトする。この動画フィードバックの目的は、親指メニューを暫定的な状態で提示することにあり、したがって、タブレットを取り上げながらユーザの親指がタッチ画面上にそれた場合、親指接触を無視する、またはそれ以外の場合、意図的でなさそうな入力として取り扱うことができる。
[0157] ペンおよびコンピューティングデバイスセンサ相関技法の実装形態において、タッチ感応コンピューティングデバイス(例えば、タブレット)またはペンを別のユーザに手渡しすることが、コンテンツを別のユーザと共有する代替の、より物理的な意味論を提供するためのやり方として使用される。手渡し把持の研究および他のユーザ観察は、ユーザが具体的な運動のシーケンスを経ることを示す。まず、ユーザは、相手の人に対象物を提供するためにおよそ水平にそれを保持しながらそれを差し出し、次いで、ユーザは相手の人が対象物をしっかりとつかむまで自分の握りを維持する。次いで、デバイスを手渡す人は手を放し、相手の人はそれを自分の体により近づけ、しばしば、その一方で、画面を自分の好む視野角にも向ける。このシーケンスの全部または一部は、手渡し把持インタラクションを検出するために感知することができる。
[0161] ペンおよびコンピューティングデバイスセンサ相関技法のいくつかの実装形態は、タッチ感応ペンおよび/またはタッチ感応コンピューティングデバイス上のセンサの過去のデータ(例えば、センサデータを絶えず記録することによって取得された)を分析する。このデータを、例えば、タッチがペンの動きと相関されたことを確認または強化するためにペンのタッチダウンに関連付けられているバンプの時点でとられたセンサデータと相関させることができる。現在の相関データに加えて過去の相関データを使用する技法の実装形態は、そうでないものよりも堅牢であることができる。例えば、接触が手のひらであり、ペンが同時に動かされている間、非優位の手を用いて偶然にタッチダウンされていないことを確認するためにバンプ検出の時点で認識される自分の手を下に置いて書く人に関連付けられたセンサデータの少し前にペンに関連付けられた加速度/減速度パターンがあり得る。
[0163] 試作品の実装形態において、予測される文脈感知技法の範囲を支持するために、カスタムハードウェアが、タッチ画面からの同時に起こるペン+タッチ事象を処理するために慣性センサおよび容量握り感知、ならびにカスタムソフトウェア/ファームウェアを用いてペンおよびタッチ感応コンピューティングデバイスを増強するように設計された。以下の例示的な試作品のハードウェアおよびソフトウェア/ファームウェアの説明は、どのように本明細書に論じる実装形態を実装することができるのかを、限定することが意図されているのでなくて、示すために提供される。当業者は、多くの他の実装形態が可能であることを理解されよう。
[0165] 1つの例示的な実際に使える実装形態において、7x30感知素子からなる可撓容量性グリッドが、センサを保護するためにおよび感知のための滑らかで握りやすい円筒表面を提供するために熱収縮チューブでくるまれたペンの軸全体を覆う。ペンの内部は、小型の電磁ペン、単6形電池、およびカスタム回路を保持する3D印刷されたケースからなる。慣性感知には、ジャイロスコープならびに加速度計/磁力計モジュールが使用された。容量感知には、タッチコントローラが採用された。ペンは、2Mbpsで動作する送受信機を使用してすべてのデータをホストコンピュータに流す。マイクロコントローラがファームウェアを起動する。
[0168] この例示的な試作品システムにおけるタッチ感応コンピューティングデバイスは、タブレットコンピュータである。タブレットケースは、タブレットの後部表面と側面との全体を覆う。硬質ケースは、44x26容量感知素子からなる印刷回路板から構築される。集積回路が取り付けられる小さな非感受性領域(ケースの後面の中央に)がある。ケースは、ペンと同じセンサ構成要素を含むが、ただし、容量性グリッドの異なる部分に対して4つのタッチコントローラがある。タブレットセンサデータは、USBを介して流され、タブレットの慣性センサは100Hzで標本化され、タブレットの44x26容量マップは25Hzで標本化される。
[0170] マルチタッチおよびペン事象は、それらを直接ヒューマンインターフェースデバイス(HID)コントローラからインターセプトすることによって処理された。この方式を使用して、Samsung Corporation Series 7 Slateが、ペン入力と同時に最大8つまでのタッチ接触を報告することができる試作品に使用された。
[0172] いくつかの技法の実装形態は、外部PC上のペンおよびタブレットのセンサデータを処理のために集め、タイムスタンプし、次いで、関連する入力事象をユーザインターフェースにおける提示のためにタブレットに伝送する。さらに、いくつかの技法の実装形態は、外部PC上の握り認識を計算する。したがって、一実装形態は、タッチ感応ペン、タブレットケース、タブレット自体、および外部PCの4つの協調構成要素を有する分散型システムからなる。しかし、センサデータならびに握り認識を集め、タイムスタンプすることは、タブレットコンピュータ上で実施することができ、それによって、独立型のパーソナルコンピュータ(PC)の必要がなくなることに留意されたい。ケースは、直接タッチ感応コンピューティングデバイスに統合することができる。いくつかの実装形態において、すべての分散型事象ストリームからのタイムスタンプされたデータは、同期バッファにおいて待ち行列に入れられる。次いで、いくつかの技法の実装形態は、これらのバッファからの事象をすべての事象が利用可能である最新のタイムスタンプまで処理する。他の実装形態において、いくつかの事象は、実時間で送り出されるが、続いて、将来の事象サンプルがそれらの解釈を改変するはずの他の伝送源から到来した場合変更される。これは、フィードバックを遅延させ、暫定的フィードバックを表示し、またはエンドユーザアプリケーションにおける推測動作を取り消すことによって達成することができる。
[0174] いくつかの技法の実装形態は、方向余弦行列アルゴリズムを使用して加速度計、ジャイロスコープ、および磁力計のセンサ入力を組み合わせる。これにより、東−北−上地球座標系において安定したヨー、ピッチ、およびロールの値が得られる。これは、タブレットに対して一貫性のある基準座標系においてペンの向きを導出するのに使用される。
[0176] 試作品の実装形態は、筆記、タック、手のひら、および握りなし(ペンが保持されていないときの)の4つの個別の握りを認識する。観察された挙動B4(握り対ポーズ)により、握り認識は、手の接触(容量握り感知)のパターンならびにスタイラスペンのポーズ(向き)を考慮する。システムの試作品の実装形態は、際立った特徴を抽出するために入力データを処理し、次いで、ペン握りを抽出するようにマルチクラス分類子を訓練する。技法の実装形態は、各学習者がサポートベクターマシン(SVM)分類子である一対全の学習者の組を使用することによってペン握りパターンのマルチクラス分類を実施する。その結果は、すべての4つの握りにわたる確率分布である。
[0179] 一実装形態において、全員がペンおよびタブレットの使用に以前に触れたことがある右利きの参加者9人(女性4人)が、握り訓練データセットを生成するのに利用された。ユーザは、具体的な握りを例示する台本と、各握りを実施する動作とに導かれた。これらは、タックおよび手のひら握り(挙動B2)の両方からタッチ(観察された挙動B1による)を使用しながらペンをしまうことを含んでいた。握り(挙動B3)の間の様々な共通の移行を捕捉するために異なるタスクのシーケンスも含まれた。ユーザは、タップ、ドラッグ、およびピンチなどの直接操作ジェスチャの明確な表現とともに、筆記と単一の指および2本指伸長握り(挙動B5)との間の移行を含む各握りの回外の全範囲(挙動B4)に導かれた。しかし、使用する特定の三脚握りは何も指定されず、むしろ、ユーザは、データセットがユーザ間の筆記握りの変形(挙動B6による)を捕捉するように、ペンを自然に保持することが許容された。データ収集は、ユーザごとにおよそ15分持続し、各ユーザに対して握りごとに合計1200サンプルが得られ、1200x3種類の握りxユーザ9人=32400サンプルの合計訓練データセットが生じた。
[0181] 収集された握り訓練データセットを使用する10分割交差検証により、ユーザに依存しないモデルとして88%の全体の精度が得られた。さらに右利きのユーザ9人により別個の確認が行われ、それらのだれもデータを訓練データセットに寄与しなかった。これにより、筆記握りに対してユーザに依存しない握り認識精度93%、タック握りに対して93%、および手のひら握りに対して77%が得られた。手のひら握りに対する相対的に低い認識率は、この握りではペンを非常に軽く保持する何人かのユーザの傾向から起こるように見え、結果として、容量握りアレイによって感知された接触の幾分一貫性のないパターンとなった。しかし、システムは、依然として、精度97%で筆記対非筆記握り(すなわち、タックまたは手のひら)を区別することができた。ほとんどのインタラクション技法がタック対手のひら握りの任意の区別に依存しないので、新たに出会ったユーザの訓練データを収集しなくても大変うまくいくこのユーザに依存しない握りモデルが使用された。
[0183] 本明細書に説明するペンおよびコンピューティングデバイスセンサ相関技法の実装形態は、数多くのタイプの汎用または専用コンピューティングシステム環境または構成内で動作可能である。図18はペン、または本明細書に説明するように、ペンおよびコンピューティングデバイスセンサ相関技法の様々な実装形態および要素を実装することができる様々なセンサで機能強化されたペンと組み合わせた汎用コンピュータシステムの簡略化された例を例示する。図18に破線または断続線で表される任意の四角形は、簡略化されたコンピューティングデバイスおよびセンサペンの代替の実装形態を表すこと、およびこれらの代替の実装形態のいずれかまたは全部は、以下に説明するように、本文書全体を通して説明される他の代替の実装形態と組み合わせて使用することができることに留意されたい。
Claims (8)
- タッチ感応ペン上の握りパターンに基づく1つまたは複数のセンサ入力と、タッチ感応コンピューティングデバイス上のタッチパターンに基づく1つまたは複数のセンサ入力とを含む、前記タッチ感応ペンおよび前記タッチ感応コンピューティングデバイスから受け取った並行センサ入力の組合せを受け取るステップと、
どのように前記タッチ感応コンピューティングデバイスがタッチされているのかということと並行して、どのように前記タッチ感応ペンが握られているのかということを決定するために前記センサ入力を使用するステップと、
前記タッチ感応ペンデバイス上の前記握りパターンと前記タッチ感応コンピューティングデバイス上の前記タッチパターンとの組合せに基づいてユーザインターフェース作用を開始するステップと、
前記センサ入力から前記ユーザの利き手と、非利き手とを決定するステップを含み、
前記ユーザの利き手は、前記タッチ感応コンピューティングデバイスと接触が行われたとき、前記タッチ感応ペンの運動における衝撃を感知するステップと、前記タッチ感応ペンを保持する前記手が前記利き手であることを決定するために、タッチ感応ペンの運動における前記衝撃と前記タッチ感応コンピューティングデバイスの運動とを相関させるステップとによって決定される、ユーザインターフェース作用を開始するためのコンピュータ実装方法。 - 前記タッチ感応コンピューティングデバイスの運動を感知するステップと、
前記感知されたタッチ感応コンピューティングデバイスの運動と前記タッチ感応コンピューティングデバイス上の前記タッチパターンとを相関させるステップと、
前記タッチ感応コンピューティングデバイスのディスプレイ上の不測の画面コンテンツの回転を抑制するために前記タッチ感応コンピューティングデバイス上の前記相関された運動およびタッチパターンを使用するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。 - 前記タッチ感応ペンが前記ユーザの利き手の中に収容された位置で保持されていることを決定するステップと、
前記タッチ感応コンピューティングデバイスのディスプレイ上への前記ユーザの利き手からの接触を検出するステップと、
前記接触に応答して文脈特有のツールを表示するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。 - 前記タッチ感応コンピューティングデバイスのタッチ感応画面上へのタッチが、前記タッチ感応コンピューティングデバイスのケースの対応する後面部分上の新たな手の握りパターンが検出されるのと同時にユーザの親指によって行われることを決定するステップと、
前記タッチ感応画面上で前記親指によって行われた意図的でない前記タッチを無視するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。 - ユーザがどちらの手を用いて前記タッチ感応コンピューティングデバイスを保持しているのかを決定するステップと、
前記タッチ感応コンピューティングデバイスを保持する前記手の前記親指を用いて前記ユーザによって始動させることができる前記タッチ感応コンピューティングデバイスの前記画面上の位置に親指メニューを表示するステップとをさらに含む、請求項1に記載のコンピュータ実装方法。 - 単一のユーザによって2つ以上のタッチ感応デバイス上に同時に起こる接触の信号を相関させるステップと、
前記信号の前記相関に基づいて前記2つ以上のタッチ感応デバイス上への前記接触の文脈を決定するステップと、
前記接触の前記決定された文脈をアプリケーションにおいて使用するためのメタデータとしてラベル付けするステップと、
アプリケーションにおいてコマンドを開始するために前記メタデータを使用するステップと、
前記信号の前記相関から前記ユーザの利き手と非利き手とを決定するステップを含み、
前記ユーザの利き手は、第1タッチ感応デバイスと接触が行われたとき、前記第1タッチ感応デバイスの運動における衝撃を感知するステップと、前記第1タッチ感応デバイスを保持する前記手が前記利き手であることを決定するために前記第1感応デバイスの運動における前記衝撃と前記第2感応デバイスの運動とを相関させるステップとによって決定される、メタ情報を見つけるためのコンピュータ実装方法。 - 一方のタッチ感応デバイスが、タッチ感応ペンであり、他方のタッチ感応デバイスが、タッチ感応コンピューティングデバイスであり、前記接触の前記文脈が、どのように前記タッチ感応ペンが握られているのか、およびどのように前記タッチ感応コンピューティングデバイスがユーザの素手を用いてタッチされているのかによって決定される、請求項6に記載のコンピュータ実装方法。
- 前記信号の1つまたは複数が、前記ユーザを識別するのに使用される前記ユーザの指紋を表す、請求項6に記載のコンピュータ実装方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/303,203 US9727161B2 (en) | 2014-06-12 | 2014-06-12 | Sensor correlation for pen and touch-sensitive computing device interaction |
US14/303,203 | 2014-06-12 | ||
PCT/US2015/034612 WO2015191409A1 (en) | 2014-06-12 | 2015-06-08 | Sensor correlation for pen and touch-sensitive computing device interaction |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2017517813A JP2017517813A (ja) | 2017-06-29 |
JP2017517813A5 JP2017517813A5 (ja) | 2018-06-21 |
JP6660309B2 true JP6660309B2 (ja) | 2020-03-11 |
Family
ID=53477003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016569621A Active JP6660309B2 (ja) | 2014-06-12 | 2015-06-08 | ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9727161B2 (ja) |
EP (1) | EP3155508A1 (ja) |
JP (1) | JP6660309B2 (ja) |
KR (1) | KR102295271B1 (ja) |
CN (1) | CN106462341B (ja) |
WO (1) | WO2015191409A1 (ja) |
Families Citing this family (94)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9591339B1 (en) | 2012-11-27 | 2017-03-07 | Apple Inc. | Agnostic media delivery system |
US10200761B1 (en) | 2012-12-13 | 2019-02-05 | Apple Inc. | TV side bar user interface |
US9532111B1 (en) | 2012-12-18 | 2016-12-27 | Apple Inc. | Devices and method for providing remote control hints on a display |
US10521188B1 (en) | 2012-12-31 | 2019-12-31 | Apple Inc. | Multi-user TV user interface |
WO2014192204A1 (ja) * | 2013-05-28 | 2014-12-04 | 京セラドキュメントソリューションズ株式会社 | 表示装置及び画像形成装置 |
AU2015279949B2 (en) * | 2014-06-24 | 2018-05-10 | Apple Inc. | Input device and user interface interactions |
CN106415475A (zh) | 2014-06-24 | 2017-02-15 | 苹果公司 | 用于在用户界面中导航的列界面 |
WO2016022097A1 (en) * | 2014-08-05 | 2016-02-11 | Hewlett-Packard Development Company, L.P. | Determining a position of an input object |
US9762316B2 (en) * | 2014-09-03 | 2017-09-12 | Adobe Systems Incorporated | Lightweight pairing and connection transfer protocol via gesture-driven shared secrets |
KR102271434B1 (ko) * | 2014-09-26 | 2021-07-01 | 엘지전자 주식회사 | 이동단말기 및 그 제어방법 |
US9766724B2 (en) * | 2014-11-03 | 2017-09-19 | Lenovo (Singapore) Pte. Ltd. | Orientation dependent stylus button function |
US9552097B2 (en) * | 2015-01-28 | 2017-01-24 | Qualcomm Incorporated | Techniques for discerning between intended and unintended gestures on wearable touch-sensitive fabric |
US20170021662A1 (en) * | 2015-07-24 | 2017-01-26 | Tyler S. Forester | System and Method for Training Correct Positioning and Pressure of Digits on a Marking Instrument |
US10007421B2 (en) * | 2015-08-03 | 2018-06-26 | Lenovo (Singapore) Pte. Ltd. | Natural handwriting detection on a touch surface |
US9981131B2 (en) * | 2015-11-19 | 2018-05-29 | Pacesetter, Inc. | Systems and methods for determining spinal cord stimulation parameters based on patient feedback |
US9811926B2 (en) * | 2016-01-21 | 2017-11-07 | Lenovo Enterprise Solutions (Singapore) Pte. Ltd. | Touch screen gesture for perfect simple line drawings |
US10838502B2 (en) * | 2016-03-29 | 2020-11-17 | Microsoft Technology Licensing, Llc | Sharing across environments |
US10248880B1 (en) * | 2016-06-06 | 2019-04-02 | Boston Inventions, LLC | Method of processing and recognizing hand-written characters |
DK201670582A1 (en) | 2016-06-12 | 2018-01-02 | Apple Inc | Identifying applications on which content is available |
DK201670581A1 (en) | 2016-06-12 | 2018-01-08 | Apple Inc | Device-level authorization for viewing content |
US10088915B2 (en) | 2016-07-01 | 2018-10-02 | Deere & Company | Method and system with sensors for sensing hand or finger positions for adjustable control |
US10139961B2 (en) | 2016-08-18 | 2018-11-27 | Microsoft Technology Licensing, Llc | Touch detection using feature-vector dictionary |
US10187504B1 (en) * | 2016-09-23 | 2019-01-22 | Apple Inc. | Echo control based on state of a device |
US11966560B2 (en) | 2016-10-26 | 2024-04-23 | Apple Inc. | User interfaces for browsing content from multiple content applications on an electronic device |
US10613676B2 (en) * | 2016-11-04 | 2020-04-07 | Microsoft Technology Licensing, Llc | Non-uniform code constellations in electrostatic communication |
US10514844B2 (en) * | 2016-11-16 | 2019-12-24 | Dell Products L.P. | Automatically modifying an input area based on a proximity to one or more edges |
US10768196B2 (en) | 2016-12-19 | 2020-09-08 | Huami Inc. | Determine wearing position of a wearable device |
KR102560598B1 (ko) * | 2016-12-21 | 2023-07-28 | 삼성전자주식회사 | 디스플레이 장치 및 그 제어방법 |
US10289300B2 (en) * | 2016-12-28 | 2019-05-14 | Amazon Technologies, Inc. | Feedback animation for touch-based interactions |
TWI621971B (zh) * | 2016-12-30 | 2018-04-21 | 華碩電腦股份有限公司 | 書寫姿勢提醒方法與使用其之電子系統 |
US10922743B1 (en) | 2017-01-04 | 2021-02-16 | Amazon Technologies, Inc. | Adaptive performance of actions associated with custom user interface controls |
US10635291B2 (en) | 2017-02-20 | 2020-04-28 | Microsoft Technology Licensing, Llc | Thumb and pen interaction on a mobile device |
US10656760B2 (en) * | 2017-03-01 | 2020-05-19 | Microsoft Technology Licensing, Llc | Replay of recorded touch input data |
KR102316024B1 (ko) * | 2017-03-02 | 2021-10-26 | 삼성전자주식회사 | 디스플레이 장치 및 디스플레이 장치의 사용자 인터페이스 표시 방법 |
US10877575B2 (en) * | 2017-03-06 | 2020-12-29 | Microsoft Technology Licensing, Llc | Change of active user of a stylus pen with a multi user-interactive display |
CN107704181A (zh) * | 2017-03-14 | 2018-02-16 | 上海斐讯数据通信技术有限公司 | 一种移动终端触摸屏应急操作装置及操作方法 |
US11513678B2 (en) * | 2017-06-06 | 2022-11-29 | Polycom, Inc. | Context based annotating in an electronic presentation system |
JP6457587B2 (ja) * | 2017-06-07 | 2019-01-23 | ファナック株式会社 | ワークの動画に基づいて教示点を設定するロボットの教示装置 |
KR102353494B1 (ko) | 2017-06-30 | 2022-01-20 | 삼성전자주식회사 | 사용자의 근접을 검출하기 위한 전자 장치 및 그의 동작 방법 |
US10937215B1 (en) * | 2017-09-29 | 2021-03-02 | Apple Inc. | Techniques for enabling drawing in a computer-generated reality environment |
US10712840B2 (en) * | 2017-10-13 | 2020-07-14 | Dell Products L.P. | Active pen system |
US11126258B2 (en) | 2017-10-14 | 2021-09-21 | Qualcomm Incorporated | Managing and mapping multi-sided touch |
US10484530B2 (en) * | 2017-11-07 | 2019-11-19 | Google Llc | Sensor based component activation |
EP3550408A4 (en) * | 2018-01-05 | 2019-11-27 | Shenzhen Goodix Technology Co., Ltd. | PRESSURE METHOD AND DEVICE FOR ACTIVE PEN AND ACTIVE PEN |
JP7101504B2 (ja) * | 2018-03-23 | 2022-07-15 | 日本光電工業株式会社 | 携帯情報端末、生体情報管理方法、生体情報管理プログラム、およびコンピュータが読み取り可能な記憶媒体 |
US11023055B2 (en) * | 2018-06-01 | 2021-06-01 | Apple Inc. | Devices, methods, and graphical user interfaces for an electronic device interacting with a stylus |
DK201870354A1 (en) | 2018-06-03 | 2019-12-20 | Apple Inc. | SETUP PROCEDURES FOR AN ELECTRONIC DEVICE |
US10649550B2 (en) * | 2018-06-26 | 2020-05-12 | Intel Corporation | Predictive detection of user intent for stylus use |
US10635895B2 (en) | 2018-06-27 | 2020-04-28 | Facebook Technologies, Llc | Gesture-based casting and manipulation of virtual content in artificial-reality environments |
US10496193B1 (en) * | 2018-06-28 | 2019-12-03 | Dell Products, L.P. | Digital pen with three-dimensional input interface |
CN109002803B (zh) * | 2018-07-24 | 2021-09-24 | 武汉大学 | 一种基于智能手表的握笔姿势检测和汉字笔顺识别方法 |
US11029761B2 (en) | 2018-08-02 | 2021-06-08 | International Business Machines Corporation | Context based gesture control |
US10891033B2 (en) * | 2018-08-24 | 2021-01-12 | Microsoft Technology Licensing, Llc | System and method for enhanced touch selection of content |
US10824772B2 (en) | 2018-11-28 | 2020-11-03 | International Business Machines Corporation | Dynamically adjusting grip panel |
US11683565B2 (en) | 2019-03-24 | 2023-06-20 | Apple Inc. | User interfaces for interacting with channels that provide content that plays in a media browsing application |
US12008232B2 (en) | 2019-03-24 | 2024-06-11 | Apple Inc. | User interfaces for viewing and accessing content on an electronic device |
EP3928194A1 (en) | 2019-03-24 | 2021-12-29 | Apple Inc. | User interfaces including selectable representations of content items |
CN114297620A (zh) | 2019-03-24 | 2022-04-08 | 苹果公司 | 用于媒体浏览应用程序的用户界面 |
CN111914259B (zh) * | 2019-05-09 | 2024-07-02 | 阿里巴巴集团控股有限公司 | 数据处理方法及计算设备 |
US11507206B2 (en) | 2019-05-13 | 2022-11-22 | Microsoft Technology Licensing, Llc | Force-sensing input device |
JP7299754B2 (ja) * | 2019-05-22 | 2023-06-28 | シャープ株式会社 | 情報処理装置、情報処理方法、及び情報処理プログラム |
US11863837B2 (en) | 2019-05-31 | 2024-01-02 | Apple Inc. | Notification of augmented reality content on an electronic device |
CN113906380A (zh) | 2019-05-31 | 2022-01-07 | 苹果公司 | 用于播客浏览和回放应用程序的用户界面 |
US11036326B2 (en) * | 2019-07-02 | 2021-06-15 | Microsoft Technology Licensing, Llc | Haptic interaction via magnetic force |
IT201900013440A1 (it) * | 2019-07-31 | 2021-01-31 | St Microelectronics Srl | Sistema e metodo di riconoscimento di gesti per un dispositivo del tipo a penna digitale e corrispondente dispositivo del tipo a penna digitale |
WO2021054936A1 (en) | 2019-09-16 | 2021-03-25 | Hewlett-Packard Development Company, L.P. | Haptic feedback for computing systems |
US11256367B2 (en) * | 2019-09-27 | 2022-02-22 | Apple Inc. | Techniques for handling unintentional touch inputs on a touch-sensitive surface |
US11843838B2 (en) | 2020-03-24 | 2023-12-12 | Apple Inc. | User interfaces for accessing episodes of a content series |
US11899895B2 (en) | 2020-06-21 | 2024-02-13 | Apple Inc. | User interfaces for setting up an electronic device |
US11177872B1 (en) | 2020-06-24 | 2021-11-16 | AR & NS Investment, LLC | Managing a network of radio frequency (RF) repeater devices |
US11283510B2 (en) | 2020-06-24 | 2022-03-22 | AR & NS Investment, LLC | Phase noise removal in a network of radio frequency (RF) repeaters |
US11989965B2 (en) * | 2020-06-24 | 2024-05-21 | AR & NS Investment, LLC | Cross-correlation system and method for spatial detection using a network of RF repeaters |
WO2022019899A1 (en) * | 2020-07-22 | 2022-01-27 | Hewlett-Packard Development Company, L.P. | Stylus with force sensor arrays |
US11054943B1 (en) * | 2020-08-17 | 2021-07-06 | Microsoft Technology Licensing, Llc | Touch restriction region for touch-sensitive display |
US11755128B2 (en) | 2020-09-25 | 2023-09-12 | Apple Inc. | Stylus with compressive force sensor |
US11360616B1 (en) | 2020-09-25 | 2022-06-14 | Apple Inc. | Stylus with touch input and compressive force sensors |
US11720229B2 (en) | 2020-12-07 | 2023-08-08 | Apple Inc. | User interfaces for browsing and presenting content |
US11934640B2 (en) | 2021-01-29 | 2024-03-19 | Apple Inc. | User interfaces for record labels |
JP2024506603A (ja) * | 2021-02-05 | 2024-02-14 | シーゲル,ジョナサン | 電子署名デバイスのためのシステム及び方法 |
NL2027963B1 (en) * | 2021-04-14 | 2022-10-25 | Microsoft Technology Licensing Llc | Touch-sensitive input device |
US11487400B1 (en) * | 2021-08-13 | 2022-11-01 | International Business Machines Corporation | Aggregated multidimensional user interface display with electronic pen for holographic projection |
CN113703577B (zh) * | 2021-08-27 | 2024-07-16 | 北京市商汤科技开发有限公司 | 一种绘图方法、装置、计算机设备及存储介质 |
WO2023055924A1 (en) * | 2021-09-29 | 2023-04-06 | Linus Health, Inc. | Computational approaches to assessing central nervous system functionality using a digital tablet and stylus |
CN115963938A (zh) * | 2021-10-09 | 2023-04-14 | 华为技术有限公司 | 一种显示操作轨迹的方法及装置 |
TWI792613B (zh) * | 2021-10-15 | 2023-02-11 | 致伸科技股份有限公司 | 一種資料回報率之調整方法 |
US11537239B1 (en) * | 2022-01-14 | 2022-12-27 | Microsoft Technology Licensing, Llc | Diffusion-based handedness classification for touch-based input |
CN114494183B (zh) * | 2022-01-25 | 2024-04-02 | 哈尔滨医科大学附属第一医院 | 一种基于人工智能的髋臼半径自动测量方法及系统 |
US11662838B1 (en) | 2022-04-19 | 2023-05-30 | Dell Products L.P. | Information handling system stylus with power management through acceleration and sound context |
US11662839B1 (en) | 2022-04-19 | 2023-05-30 | Dell Products L.P. | Information handling system stylus with power management through acceleration and sound context |
US11733788B1 (en) | 2022-04-19 | 2023-08-22 | Dell Products L.P. | Information handling system stylus with single piece molded body |
NL2031789B1 (en) * | 2022-05-06 | 2023-11-14 | Microsoft Technology Licensing Llc | Aggregated likelihood of unintentional touch input |
DE102022115764A1 (de) | 2022-06-24 | 2024-01-04 | Signata GmbH | Verfahren zum Erkennen einer Griffart eines ein rotatorisches Bedienelement benutzenden Bedieners |
CN115495055B (zh) * | 2022-11-03 | 2023-09-08 | 杭州实在智能科技有限公司 | 基于界面区域识别技术的rpa元素匹配方法及系统 |
US11989369B1 (en) | 2023-03-30 | 2024-05-21 | Microsoft Technology Licensing, Llc | Neural network-based touch input classification |
Family Cites Families (167)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0374241B1 (en) | 1988-05-27 | 1997-08-27 | Kodak Limited | Document annotation and manipulation in a data processing system |
US5149919A (en) | 1990-10-31 | 1992-09-22 | International Business Machines Corporation | Stylus sensing system |
US5198623A (en) | 1991-11-27 | 1993-03-30 | Calcomp, Inc. | Method for use in a digitizer for determining pen tilt |
US5561444A (en) | 1992-12-21 | 1996-10-01 | Apple Computer, Inc. | Method and apparatus for providing visual feedback during manipulation of text on a computer screen |
US5463725A (en) | 1992-12-31 | 1995-10-31 | International Business Machines Corp. | Data processing system graphical user interface which emulates printed material |
US5414227A (en) | 1993-04-29 | 1995-05-09 | International Business Machines Corporation | Stylus tilt detection apparatus for communication with a remote digitizing display |
KR100395863B1 (ko) | 1995-05-08 | 2003-11-14 | 매사츄세츠 인스티튜트 오브 테크놀러지 | 신호송신매질로서인체를사용한비접촉센싱및신호송신용시스템 |
US5956020A (en) | 1995-07-27 | 1999-09-21 | Microtouch Systems, Inc. | Touchscreen controller with pen and/or finger inputs |
US5778404A (en) | 1995-08-07 | 1998-07-07 | Apple Computer, Inc. | String inserter for pen-based computer systems and method for providing same |
US5867163A (en) | 1995-12-01 | 1999-02-02 | Silicon Graphics, Inc. | Graphical user interface for defining and invoking user-customized tool shelf execution sequence |
CA2302595C (en) | 1997-09-25 | 2002-09-17 | Tegic Communications, Inc. | Reduced keyboard disambiguating system |
EP1717678B1 (en) | 1998-01-26 | 2017-11-22 | Apple Inc. | Method for integrating manual input |
US8479122B2 (en) | 2004-07-30 | 2013-07-02 | Apple Inc. | Gestures for touch sensitive input devices |
US7800592B2 (en) | 2005-03-04 | 2010-09-21 | Apple Inc. | Hand held electronic device with multiple touch sensing devices |
US6788292B1 (en) | 1998-02-25 | 2004-09-07 | Sharp Kabushiki Kaisha | Display device |
KR20010096485A (ko) | 1998-04-06 | 2001-11-07 | 스터링 한스 루돌프 | 컴퓨터의 디스플레이 스크린에 커서의 위치결정 |
US6337698B1 (en) | 1998-11-20 | 2002-01-08 | Microsoft Corporation | Pen-based interface for a notepad computer |
US7289102B2 (en) | 2000-07-17 | 2007-10-30 | Microsoft Corporation | Method and apparatus using multiple sensors in a device with a display |
US6906703B2 (en) | 2001-03-28 | 2005-06-14 | Microsoft Corporation | Electronic module for sensing pen motion |
US6882340B2 (en) | 2001-10-19 | 2005-04-19 | Wacom Co., Ltd. | Electronic pen |
US20040047505A1 (en) | 2001-12-26 | 2004-03-11 | Firooz Ghassabian | Stylus computer |
US20030164821A1 (en) | 2002-02-05 | 2003-09-04 | Omid Rezania | Writing instrument with variable display |
FI20021655A (fi) | 2002-06-19 | 2003-12-20 | Nokia Corp | Menetelmä lukituksen avaamiseksi ja kannettava elektroninen laite |
US11275405B2 (en) | 2005-03-04 | 2022-03-15 | Apple Inc. | Multi-functional hand-held device |
US20040012575A1 (en) | 2002-07-22 | 2004-01-22 | Homer Steven S. | Storage and removal system for pointer utilized with an electronic device |
US20040073432A1 (en) | 2002-10-15 | 2004-04-15 | Stone Christopher J. | Webpad for the disabled |
US20040203520A1 (en) | 2002-12-20 | 2004-10-14 | Tom Schirtzinger | Apparatus and method for application control in an electronic device |
US20040140962A1 (en) | 2003-01-21 | 2004-07-22 | Microsoft Corporation | Inertial sensors integration |
US7231609B2 (en) | 2003-02-03 | 2007-06-12 | Microsoft Corporation | System and method for accessing remote screen content |
US7068262B2 (en) | 2003-06-09 | 2006-06-27 | Leapfrog Enterprises, Inc. | Writing stylus for electrographic position location apparatus |
US8373660B2 (en) | 2003-07-14 | 2013-02-12 | Matt Pallakoff | System and method for a portable multimedia client |
US20050024346A1 (en) | 2003-07-30 | 2005-02-03 | Jean-Luc Dupraz | Digital pen function control |
US20050052427A1 (en) | 2003-09-10 | 2005-03-10 | Wu Michael Chi Hung | Hand gesture interaction with touch surface |
US7231231B2 (en) | 2003-10-14 | 2007-06-12 | Nokia Corporation | Method and apparatus for locking a mobile telephone touch screen |
US7532196B2 (en) | 2003-10-30 | 2009-05-12 | Microsoft Corporation | Distributed sensing techniques for mobile devices |
US7966352B2 (en) | 2004-01-26 | 2011-06-21 | Microsoft Corporation | Context harvesting from selected content |
US7358965B2 (en) | 2004-02-18 | 2008-04-15 | Microsoft Corporation | Tapping to create writing |
US7176888B2 (en) | 2004-03-23 | 2007-02-13 | Fujitsu Limited | Selective engagement of motion detection |
US7400316B2 (en) | 2004-05-28 | 2008-07-15 | International Business Machines Corporation | Method and apparatus for dynamically modifying web page display for mobile devices |
US20070182663A1 (en) | 2004-06-01 | 2007-08-09 | Biech Grant S | Portable, folding and separable multi-display computing system |
WO2006006173A2 (en) | 2004-07-15 | 2006-01-19 | N-Trig Ltd. | Automatic switching for a dual mode digitizer |
US7847789B2 (en) | 2004-11-23 | 2010-12-07 | Microsoft Corporation | Reducing accidental touch-sensitive device activation |
US7432916B2 (en) | 2004-12-09 | 2008-10-07 | Universal Electronics, Inc. | Controlling device with dual-mode, touch-sensitive display |
KR101085447B1 (ko) | 2004-12-31 | 2011-11-21 | 삼성전자주식회사 | 터치 위치 검출 장치 및 이의 터치 위치 검출 방법과,이를 구비한 터치 스크린 표시 장치 |
US8250493B2 (en) | 2005-02-05 | 2012-08-21 | Samsung Electronics Co., Ltd. | User interface method, medium, and apparatus with gesture-recognition |
CN101120527B (zh) | 2005-02-17 | 2012-09-05 | 皇家飞利浦电子股份有限公司 | 能在网络内部工作的设备、网络系统、在网络内部操作设备的方法 |
US20060256008A1 (en) | 2005-05-13 | 2006-11-16 | Outland Research, Llc | Pointing interface for person-to-person information exchange |
US7928964B2 (en) | 2005-04-22 | 2011-04-19 | Microsoft Corporation | Touch input data handling |
US20060267958A1 (en) | 2005-04-22 | 2006-11-30 | Microsoft Corporation | Touch Input Programmatical Interfaces |
KR100668341B1 (ko) | 2005-06-29 | 2007-01-12 | 삼성전자주식회사 | 사용자의 파지 형태를 이용한 휴대용 단말기의 기능 입력방법 및 장치. |
US7982739B2 (en) | 2005-08-18 | 2011-07-19 | Realnetworks, Inc. | System and/or method for adjusting for input latency in a handheld device |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US7362221B2 (en) | 2005-11-09 | 2008-04-22 | Honeywell International Inc. | Touchscreen device for controlling a security system |
US7523405B2 (en) | 2005-11-16 | 2009-04-21 | Microsoft Corporation | Displaying 2D graphic content using depth wells |
US7663620B2 (en) | 2005-12-05 | 2010-02-16 | Microsoft Corporation | Accessing 2D graphic content using axonometric layer views |
AU2006101096B4 (en) | 2005-12-30 | 2010-07-08 | Apple Inc. | Portable electronic device with multi-touch input |
US8018440B2 (en) | 2005-12-30 | 2011-09-13 | Microsoft Corporation | Unintentional touch rejection |
US20070188477A1 (en) | 2006-02-13 | 2007-08-16 | Rehm Peter H | Sketch pad and optical stylus for a personal computer |
US7966573B2 (en) | 2006-02-17 | 2011-06-21 | Microsoft Corporation | Method and system for improving interaction with a user interface |
US20100045705A1 (en) | 2006-03-30 | 2010-02-25 | Roel Vertegaal | Interaction techniques for flexible displays |
KR100771626B1 (ko) | 2006-04-25 | 2007-10-31 | 엘지전자 주식회사 | 단말기 및 이를 위한 명령 입력 방법 |
US8873858B2 (en) | 2006-06-29 | 2014-10-28 | Rpx Corporation | Apparatus, method, device and computer program product providing enhanced text copy capability with touch input display |
US20080040692A1 (en) | 2006-06-29 | 2008-02-14 | Microsoft Corporation | Gesture input |
JP5324440B2 (ja) | 2006-07-12 | 2013-10-23 | エヌ−トリグ リミテッド | デジタイザのためのホバリングおよびタッチ検出 |
US20080046425A1 (en) | 2006-08-15 | 2008-02-21 | N-Trig Ltd. | Gesture detection for a digitizer |
US7705837B2 (en) | 2006-09-01 | 2010-04-27 | Lenovo (Singapore) Pte. Ltd. | System and method for alarming for misplaced computer tablet pen |
US9201556B2 (en) | 2006-11-08 | 2015-12-01 | 3M Innovative Properties Company | Touch location sensing system and method employing sensor data fitting to a predefined curve |
US7876310B2 (en) | 2007-01-03 | 2011-01-25 | Apple Inc. | Far-field input identification |
US7855718B2 (en) | 2007-01-03 | 2010-12-21 | Apple Inc. | Multi-touch input discrimination |
US9311528B2 (en) | 2007-01-03 | 2016-04-12 | Apple Inc. | Gesture learning |
US8462109B2 (en) | 2007-01-05 | 2013-06-11 | Invensense, Inc. | Controlling and accessing content using motion processing on mobile devices |
US7956847B2 (en) | 2007-01-05 | 2011-06-07 | Apple Inc. | Gestures for controlling, manipulating, and editing of media files using touch sensitive devices |
US20090262074A1 (en) | 2007-01-05 | 2009-10-22 | Invensense Inc. | Controlling and accessing content using motion processing on mobile devices |
US20090265671A1 (en) | 2008-04-21 | 2009-10-22 | Invensense | Mobile devices with motion gesture recognition |
US20080292195A1 (en) | 2007-05-22 | 2008-11-27 | Vijayasenan Deepu | Data Processing System And Method |
US8171432B2 (en) | 2008-01-06 | 2012-05-01 | Apple Inc. | Touch screen device, method, and graphical user interface for displaying and selecting application options |
KR101345755B1 (ko) | 2007-09-11 | 2013-12-27 | 삼성전자주식회사 | 휴대용 단말기의 조작제어장치 및 그 방법 |
US8564574B2 (en) | 2007-09-18 | 2013-10-22 | Acer Incorporated | Input apparatus with multi-mode switching function |
JP2010541046A (ja) | 2007-09-24 | 2010-12-24 | アップル インコーポレイテッド | 電子デバイスに組み込まれた認証システム |
US8631358B2 (en) | 2007-10-10 | 2014-01-14 | Apple Inc. | Variable device graphical user interface |
US9274698B2 (en) | 2007-10-26 | 2016-03-01 | Blackberry Limited | Electronic device and method of controlling same |
TW200925944A (en) | 2007-12-12 | 2009-06-16 | Mitac Int Corp | Touch pen with erasure function |
JP2009163278A (ja) * | 2007-12-21 | 2009-07-23 | Toshiba Corp | 携帯型機器 |
KR20090070491A (ko) | 2007-12-27 | 2009-07-01 | 엔에이치엔(주) | 터치스크린을 이용한 화면 제어 장치 및 방법 |
US20090167702A1 (en) | 2008-01-02 | 2009-07-02 | Nokia Corporation | Pointing device detection |
US20090209285A1 (en) | 2008-02-15 | 2009-08-20 | Sony Ericsson Mobile Communications Ab | Portable communication device having touch-sensitive input device ... |
US8650507B2 (en) | 2008-03-04 | 2014-02-11 | Apple Inc. | Selecting of text using gestures |
JP2009266097A (ja) * | 2008-04-28 | 2009-11-12 | Toshiba Corp | 入力機器 |
US20090315734A1 (en) | 2008-06-23 | 2009-12-24 | Silverbrook Research Pty Ltd | Electronic pen with automatically retractable nib |
KR20100006219A (ko) | 2008-07-09 | 2010-01-19 | 삼성전자주식회사 | 사용자 인터페이스 방법 및 장치 |
US8390577B2 (en) | 2008-07-25 | 2013-03-05 | Intuilab | Continuous recognition of multi-touch gestures |
TW201011605A (en) | 2008-09-01 | 2010-03-16 | Turbotouch Technology Inc E | Method capable of preventing mistakenly triggering a touch panel |
US20100053120A1 (en) | 2008-09-03 | 2010-03-04 | Chang An-Yu | Touchscreen stylus |
US8810522B2 (en) | 2008-09-29 | 2014-08-19 | Smart Technologies Ulc | Method for selecting and manipulating a graphical object in an interactive input system, and interactive input system executing the method |
GB2464094A (en) | 2008-09-30 | 2010-04-07 | Rapid Mobile Media Ltd | Method and apparatus for displaying content at a mobile device |
KR20100039194A (ko) * | 2008-10-06 | 2010-04-15 | 삼성전자주식회사 | 사용자 접촉 패턴에 따른 GUI(Graphic User Interface) 표시 방법 및 이를 구비하는 장치 |
EP3654141A1 (en) * | 2008-10-06 | 2020-05-20 | Samsung Electronics Co., Ltd. | Method and apparatus for displaying graphical user interface depending on a user's contact pattern |
US20100095234A1 (en) | 2008-10-07 | 2010-04-15 | Research In Motion Limited | Multi-touch motion simulation using a non-touch screen computer input device |
US8477103B2 (en) | 2008-10-26 | 2013-07-02 | Microsoft Corporation | Multi-touch object inertia simulation |
US8466879B2 (en) | 2008-10-26 | 2013-06-18 | Microsoft Corporation | Multi-touch manipulation of application objects |
US8493408B2 (en) | 2008-11-19 | 2013-07-23 | Apple Inc. | Techniques for manipulating panoramas |
KR101662172B1 (ko) | 2008-11-21 | 2016-10-10 | 삼성전자주식회사 | 입력 장치 |
US8294047B2 (en) | 2008-12-08 | 2012-10-23 | Apple Inc. | Selective input signal rejection and modification |
JP4743267B2 (ja) | 2008-12-12 | 2011-08-10 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
KR20100071754A (ko) | 2008-12-19 | 2010-06-29 | 삼성전자주식회사 | 터치와 키조작에 의한 멀티 입력 방식을 이용한 촬영방법 및 이를 적용한 촬영장치 |
JP4702475B2 (ja) | 2008-12-25 | 2011-06-15 | ソニー株式会社 | 入力装置、ハンドヘルド装置及び制御方法 |
US8499251B2 (en) | 2009-01-07 | 2013-07-30 | Microsoft Corporation | Virtual page turn |
US8704767B2 (en) | 2009-01-29 | 2014-04-22 | Microsoft Corporation | Environmental gesture recognition |
US9468846B2 (en) | 2009-01-30 | 2016-10-18 | Performance Designed Products Llc | Tactile feedback apparatus and method |
US8370736B2 (en) | 2009-03-16 | 2013-02-05 | Apple Inc. | Methods and graphical user interfaces for editing on a multifunction device with a touch screen display |
US20100251112A1 (en) * | 2009-03-24 | 2010-09-30 | Microsoft Corporation | Bimodal touch sensitive digital notebook |
US20100281435A1 (en) | 2009-04-30 | 2010-11-04 | At&T Intellectual Property I, L.P. | System and method for multimodal interaction using robust gesture processing |
US20100295798A1 (en) | 2009-05-21 | 2010-11-25 | Sony Computer Entertainment America Inc. | Hand-held device with ancillary touch activated zoom |
KR101574117B1 (ko) | 2009-05-22 | 2015-12-11 | 엘지전자 주식회사 | 이동 단말기 및 이를 이용한 콜 기능 수행 방법 |
US8619029B2 (en) | 2009-05-22 | 2013-12-31 | Motorola Mobility Llc | Electronic device with sensing assembly and method for interpreting consecutive gestures |
US20100306670A1 (en) | 2009-05-29 | 2010-12-02 | Microsoft Corporation | Gesture-based document sharing manipulation |
WO2010140805A2 (ko) * | 2009-05-30 | 2010-12-09 | Hwang Jay-Yeob | 핸드헬드 태블릿피씨 시스템 |
US8462134B2 (en) | 2009-06-29 | 2013-06-11 | Autodesk, Inc. | Multi-finger mouse emulation |
US9710097B2 (en) * | 2009-07-10 | 2017-07-18 | Adobe Systems Incorporated | Methods and apparatus for natural media painting using touch-and-stylus combination gestures |
GB2486843B (en) | 2009-08-25 | 2014-06-18 | Promethean Ltd | Interactive surface with a plurality of input detection technologies |
US8535133B2 (en) | 2009-11-16 | 2013-09-17 | Broadcom Corporation | Video game with controller sensing player inappropriate activity |
KR101708682B1 (ko) | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | 영상표시장치 및 그 동작 방법. |
US20110167357A1 (en) | 2010-01-05 | 2011-07-07 | Todd Benjamin | Scenario-Based Content Organization and Retrieval |
US20110187651A1 (en) | 2010-02-03 | 2011-08-04 | Honeywell International Inc. | Touch screen having adaptive input parameter |
US8839150B2 (en) | 2010-02-10 | 2014-09-16 | Apple Inc. | Graphical objects that respond to touch or motion input |
US8769443B2 (en) | 2010-02-11 | 2014-07-01 | Apple Inc. | Touch inputs interacting with user interface items |
US20110231796A1 (en) | 2010-02-16 | 2011-09-22 | Jose Manuel Vigil | Methods for navigating a touch screen device in conjunction with gestures |
US9003334B2 (en) | 2010-03-05 | 2015-04-07 | Adobe Systems Incorporated | Editing content using multiple touch inputs |
CN101813982B (zh) | 2010-03-10 | 2012-05-30 | 鸿富锦精密工业(深圳)有限公司 | 具有运动响应功能的电子装置及其执行输入操作的方法 |
US9069416B2 (en) | 2010-03-25 | 2015-06-30 | Google Inc. | Method and system for selecting content using a touchscreen |
US8228292B1 (en) | 2010-04-02 | 2012-07-24 | Google Inc. | Flipping for motion-based input |
US20120092268A1 (en) | 2010-10-15 | 2012-04-19 | Hon Hai Precision Industry Co., Ltd. | Computer-implemented method for manipulating onscreen data |
US20120092269A1 (en) | 2010-10-15 | 2012-04-19 | Hon Hai Precision Industry Co., Ltd. | Computer-implemented method for manipulating onscreen data |
US8660978B2 (en) | 2010-12-17 | 2014-02-25 | Microsoft Corporation | Detecting and responding to unintentional contact with a computing device |
US20120154295A1 (en) | 2010-12-17 | 2012-06-21 | Microsoft Corporation | Cooperative use of plural input mechanisms to convey gestures |
US8994646B2 (en) | 2010-12-17 | 2015-03-31 | Microsoft Corporation | Detecting gestures involving intentional movement of a computing device |
US8982045B2 (en) * | 2010-12-17 | 2015-03-17 | Microsoft Corporation | Using movement of a computing device to enhance interpretation of input events produced when interacting with the computing device |
US9244545B2 (en) | 2010-12-17 | 2016-01-26 | Microsoft Technology Licensing, Llc | Touch and stylus discrimination and rejection for contact sensitive computing devices |
US9201539B2 (en) | 2010-12-17 | 2015-12-01 | Microsoft Technology Licensing, Llc | Supplementing a touch input mechanism with fingerprint detection |
US8988398B2 (en) | 2011-02-11 | 2015-03-24 | Microsoft Corporation | Multi-touch input device with orientation sensing |
JP5664303B2 (ja) * | 2011-02-09 | 2015-02-04 | 大日本印刷株式会社 | コンピュータ装置、入力システム、及びプログラム |
US9201520B2 (en) | 2011-02-11 | 2015-12-01 | Microsoft Technology Licensing, Llc | Motion and context sharing for pen-based computing inputs |
US9857868B2 (en) * | 2011-03-19 | 2018-01-02 | The Board Of Trustees Of The Leland Stanford Junior University | Method and system for ergonomic touch-free interface |
US9223495B2 (en) | 2011-03-25 | 2015-12-29 | Samsung Electronics Co., Ltd. | System and method for crossing navigation for use in an electronic terminal |
US20120260220A1 (en) | 2011-04-06 | 2012-10-11 | Research In Motion Limited | Portable electronic device having gesture recognition and a method for controlling the same |
WO2012153536A1 (ja) * | 2011-05-12 | 2012-11-15 | パナソニック株式会社 | 座標入力装置及び座標入力方法 |
KR101802759B1 (ko) | 2011-05-30 | 2017-11-29 | 엘지전자 주식회사 | 이동 단말기 및 이것의 디스플레이 제어 방법 |
US20120327040A1 (en) | 2011-06-22 | 2012-12-27 | Simon David I | Identifiable stylus |
US9329703B2 (en) | 2011-06-22 | 2016-05-03 | Apple Inc. | Intelligent stylus |
US8638320B2 (en) | 2011-06-22 | 2014-01-28 | Apple Inc. | Stylus orientation detection |
TW201303655A (zh) | 2011-07-13 | 2013-01-16 | Asustek Comp Inc | 無線傳輸觸控筆與觸控顯示系統 |
US20130159939A1 (en) | 2011-10-12 | 2013-06-20 | Qualcomm Incorporated | Authenticated gesture recognition |
WO2013054155A1 (en) | 2011-10-14 | 2013-04-18 | Universite Lille 1-Sciences Et Technologies | Multi-touch human interface system and device for graphical input, and method for processing image in such a system. |
US10423248B2 (en) | 2011-10-28 | 2019-09-24 | Wacom Co., Ltd. | Touch-sensitive system with motion filtering |
KR101163346B1 (ko) | 2011-10-28 | 2012-07-05 | 한국과학기술원 | 터치스크린 제어방법, 장치, 이를 위한 기록매체 및 이를 포함하는 사용자 단말 |
US9965107B2 (en) | 2011-10-28 | 2018-05-08 | Atmel Corporation | Authenticating with active stylus |
US9389701B2 (en) | 2011-10-28 | 2016-07-12 | Atmel Corporation | Data transfer from active stylus |
US20130154952A1 (en) | 2011-12-16 | 2013-06-20 | Microsoft Corporation | Gesture combining multi-touch and movement |
JP2013145463A (ja) | 2012-01-13 | 2013-07-25 | Sony Corp | 情報処理装置及び情報処理方法、並びにコンピューター・プログラム |
US9519419B2 (en) | 2012-01-17 | 2016-12-13 | Microsoft Technology Licensing, Llc | Skinnable touch device grip patterns |
US8902181B2 (en) | 2012-02-07 | 2014-12-02 | Microsoft Corporation | Multi-touch-movement gestures for tablet computing devices |
TW201410305A (zh) | 2012-09-07 | 2014-03-16 | Dexin Corp | 具有效能調校及優化資料分享功能之遊戲系統 |
JP2014062962A (ja) * | 2012-09-20 | 2014-04-10 | Sony Corp | 情報処理装置、筆記具、情報処理方法およびプログラム |
US20140108979A1 (en) | 2012-10-17 | 2014-04-17 | Perceptive Pixel, Inc. | Controlling Virtual Objects |
US20140210797A1 (en) | 2013-01-31 | 2014-07-31 | Research In Motion Limited | Dynamic stylus palette |
US9946365B2 (en) | 2013-03-11 | 2018-04-17 | Barnes & Noble College Booksellers, Llc | Stylus-based pressure-sensitive area for UI control of computing device |
US20140267025A1 (en) * | 2013-03-14 | 2014-09-18 | Samsung Electronics Co., Ltd. | Method and apparatus for operating sensors of user device |
-
2014
- 2014-06-12 US US14/303,203 patent/US9727161B2/en active Active
-
2015
- 2015-06-08 WO PCT/US2015/034612 patent/WO2015191409A1/en active Application Filing
- 2015-06-08 EP EP15730928.7A patent/EP3155508A1/en not_active Withdrawn
- 2015-06-08 JP JP2016569621A patent/JP6660309B2/ja active Active
- 2015-06-08 KR KR1020167035472A patent/KR102295271B1/ko active IP Right Grant
- 2015-06-08 CN CN201580031182.1A patent/CN106462341B/zh active Active
-
2017
- 2017-07-01 US US15/640,507 patent/US10168827B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
WO2015191409A1 (en) | 2015-12-17 |
JP2017517813A (ja) | 2017-06-29 |
CN106462341A (zh) | 2017-02-22 |
KR20170016869A (ko) | 2017-02-14 |
US9727161B2 (en) | 2017-08-08 |
US20150363035A1 (en) | 2015-12-17 |
EP3155508A1 (en) | 2017-04-19 |
US20170300170A1 (en) | 2017-10-19 |
KR102295271B1 (ko) | 2021-08-27 |
CN106462341B (zh) | 2020-02-28 |
US10168827B2 (en) | 2019-01-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6660309B2 (ja) | ペンおよびタッチ感応コンピューティングデバイスのインタラクションのためのセンサ相関 | |
JP6542262B2 (ja) | ペンおよびコンピューティングデバイスのインタラクションのためのマルチデバイスマルチユーザセンサ相関 | |
Hinckley et al. | Sensing techniques for tablet+ stylus interaction | |
US9244545B2 (en) | Touch and stylus discrimination and rejection for contact sensitive computing devices | |
CN109074217B (zh) | 用于多点触摸输入检测的应用 | |
US9201520B2 (en) | Motion and context sharing for pen-based computing inputs | |
KR20160080109A (ko) | 사용자 인터페이스 제어를 위한 시스템 및 기법 | |
KR20140146346A (ko) | 파지된 물체를 이용한 모션을 인식하는 장치 및 방법, 시스템 | |
Matulic et al. | Pensight: Enhanced interaction with a pen-top camera | |
Dobbelstein et al. | PocketThumb: A wearable dual-sided touch interface for cursor-based control of smart-eyewear | |
Zhang et al. | Sensing posture-aware pen+ touch interaction on tablets | |
Tarun et al. | Snaplet: using body shape to inform function in mobile flexible display devices | |
US8884930B2 (en) | Graphical display with optical pen input | |
Hinckley et al. | Motion and context sensing techniques for pen computing | |
KR20160008890A (ko) | 신체를 이용하여 터치 입력을 제공하는 장치 및 방법 | |
Hinckley | A background perspective on touch as a multimodal (and multisensor) construct | |
US20140152628A1 (en) | Computer input device for hand-held devices | |
US20240329754A1 (en) | Wearable keyboard for electronic devices | |
Hinckley | A Background Perspective on Touch | |
Suzuki et al. | A potential exploration of finger-specific interaction | |
Wu et al. | Infofinder: just-in-time information interface from the combination of an hwd with a smartwatch | |
Hollatz | Combining auxiliary finger input with thumb touch for single-handed mobile device interfaces | |
Hanewich-Hollatz | Combining Auxiliary Finger Input With Thumb Touch for Single-Handed Mobile Device Interfaces | |
Jang et al. | CornerPen: smart phone is the pen | |
Bunscheit | Imaginary Interfaces: Development of user interfaces for creating highly mobile screen-less devices |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A529 | Written submission of copy of amendment under article 34 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A529 Effective date: 20170113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180507 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180507 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181228 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190423 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190927 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6660309 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |