JP6260241B2 - ユーザの入力を受け付けるシステム、プログラムおよび方法 - Google Patents
ユーザの入力を受け付けるシステム、プログラムおよび方法 Download PDFInfo
- Publication number
- JP6260241B2 JP6260241B2 JP2013251878A JP2013251878A JP6260241B2 JP 6260241 B2 JP6260241 B2 JP 6260241B2 JP 2013251878 A JP2013251878 A JP 2013251878A JP 2013251878 A JP2013251878 A JP 2013251878A JP 6260241 B2 JP6260241 B2 JP 6260241B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- contact
- point
- information
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 32
- 230000006870 function Effects 0.000 claims description 23
- 230000004044 response Effects 0.000 claims description 10
- 238000003384 imaging method Methods 0.000 claims description 2
- 210000003811 finger Anatomy 0.000 description 52
- 238000001514 detection method Methods 0.000 description 49
- 238000012545 processing Methods 0.000 description 24
- 230000008569 process Effects 0.000 description 11
- 238000004891 communication Methods 0.000 description 9
- 238000013500 data storage Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000001133 acceleration Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 210000003813 thumb Anatomy 0.000 description 2
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- JLGLQAWTXXGVEM-UHFFFAOYSA-N triethylene glycol monomethyl ether Chemical compound COCCOCCOCCO JLGLQAWTXXGVEM-UHFFFAOYSA-N 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/042—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
- G06F3/0425—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/033—Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
- G06F3/039—Accessories therefor, e.g. mouse pads
- G06F3/0393—Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/03—Arrangements for converting the position or the displacement of a member into a coded form
- G06F3/041—Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
- G06F3/0416—Control or interface arrangements specially adapted for digitisers
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
- Telephone Function (AREA)
Description
接触型の入力は、いまやスマートフォンやタブレットなどの携帯デバイスにおいてよく使われる入力方法となった。接触型の入力は、デスクトップ型のコンピュータの分野でも需要が増大しており、さらに、大型のテーブル型のシステムや壁面型のディスプレイでも広く使われるようになっている。関連の技術では、ユーザの入力にしたがって接触点の座標を得ることしかできなかった。最も高性能なタッチスクリーンを用いても、接触のイベントに関連付けて接触した領域のサイズを知ることしかできない。例えば、先述の非特許文献1を参照されたい。そして、そのような関連技術によっては、接触のイベントに関してそれ以上の情報を得ることはできなかった。
図1は、接触のイベント中に上述の指の姿勢の判断を行うことができるモバイル・コンピュータ・システム100の例を示す。ある実施例において、モバイル・コンピュータ・システム100は、例えばスマートフォン、パーソナル・デジタル・アシスタント(PDA)、あるいはタブレット・コンピュータなどの、商業的に利用可能であって当業者にはよく知られたモバイル・コンピュータ・システムのフォームファクタとして実装されてもよい。他の例として、モバイル・コンピュータ・システム100は、ラップトップ型やノートブック型のコンピュータとして実装されてもよい。更に他の例として、モバイル・コンピュータ・システム100は、エンベデッド・システム、例えば電子ブックリーダ(e-book)などの、特定の機能を有する電子デバイスに組み込まれてもよい。
Claims (8)
- ユーザの入力をコンピュータによって受け付けるシステムであって、
接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、
前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、
前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、
前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を、前記コンピュータのプロセッサを用いて判断するモジュールと、
を備え、
前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
前記判断するモジュールは、表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
システム。 - 前記判断するモジュールは、前記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
請求項1に記載のシステム。 - 前記検出するモジュールは、共に行われる前記ディスプレイに対する複数の接触のイベントを検出し、
前記格納するモジュールは、オブジェクトと前記ディスプレイとの複数の接触点をそれぞれ判断し、判断した前記接触点の情報をそれぞれの接触のイベントに対応付けて格納し、
前記判断するモジュールは、接触点ごとに、前記ディスプレイに接触しているオブジェクトの姿勢を判断する、
請求項1に記載のシステム。 - 前記撮影するモジュールは、複数のカメラを用いて前記ディスプレイの表面近傍の画像を撮影し、
前記判断するモジュールは、前記複数のカメラを用いて撮影された複数の画像を合成することで得られるポイント・クラウドのうち、それぞれの前記接触点から予め定められた範囲にあるポイント・クラウドをそれぞれ選択し、選択したそれぞれのポイント・クラウドにより形成される形状を、接触しているそれぞれのオブジェクトの形状として判断する、
請求項3に記載のシステム。 - コンピュータを、ユーザの入力を受け付けるシステムとして機能させるためのプログラムであって、
前記コンピュータを、
接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、
前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、
前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、
前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を判断するモジュールと、
として機能させ、
前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
前記判断するモジュールは、表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
プログラム。 - 前記判断するモジュールは、前記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
請求項5に記載のプログラム。 - ユーザの入力をコンピュータによって受け付ける方法であって、
前記コンピュータのプロセッサが、
接触検知型のディスプレイを用いて接触のイベントを検出し、
前記ディスプレイの表面近傍の画像をカメラを用いて撮影し、
前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納し、
前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を判断し、
前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
方法。 - 前記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
請求項7に記載の方法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US13/868,057 | 2013-04-22 | ||
US13/868,057 US9069415B2 (en) | 2013-04-22 | 2013-04-22 | Systems and methods for finger pose estimation on touchscreen devices |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014216006A JP2014216006A (ja) | 2014-11-17 |
JP6260241B2 true JP6260241B2 (ja) | 2018-01-17 |
Family
ID=51728633
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013251878A Expired - Fee Related JP6260241B2 (ja) | 2013-04-22 | 2013-12-05 | ユーザの入力を受け付けるシステム、プログラムおよび方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US9069415B2 (ja) |
JP (1) | JP6260241B2 (ja) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150346998A1 (en) * | 2014-05-30 | 2015-12-03 | Qualcomm Incorporated | Rapid text cursor placement using finger orientation |
JPWO2016121708A1 (ja) * | 2015-01-26 | 2017-11-24 | Necソリューションイノベータ株式会社 | 入力システム、入力装置、入力方法、および、プログラム |
CN104991684A (zh) * | 2015-07-23 | 2015-10-21 | 京东方科技集团股份有限公司 | 触控设备及其工作方法 |
US10025492B2 (en) * | 2016-02-08 | 2018-07-17 | Microsoft Technology Licensing, Llc | Pointing detection |
JP6637855B2 (ja) | 2016-08-22 | 2020-01-29 | 株式会社ソニー・インタラクティブエンタテインメント | データ処理装置、データ処理方法およびコンピュータプログラム |
CN110325469B (zh) * | 2017-02-08 | 2022-07-15 | 尹一植 | 利用显示器的电梯动作控制装置及方法 |
US20230107110A1 (en) * | 2017-04-10 | 2023-04-06 | Eys3D Microelectronics, Co. | Depth processing system and operational method thereof |
CN110703956B (zh) * | 2018-07-09 | 2021-08-17 | 北京仁光科技有限公司 | 一种基于光影像的交互系统和交互方法 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6954197B2 (en) * | 2002-11-15 | 2005-10-11 | Smart Technologies Inc. | Size/scale and orientation determination of a pointer in a camera-based touch system |
EP1851527A2 (en) * | 2005-01-07 | 2007-11-07 | GestureTek, Inc. | Creating 3d images of objects by illuminating with infrared patterns |
EP2487624B1 (en) * | 2005-01-07 | 2020-02-19 | Qualcomm Incorporated(1/3) | Detecting and tracking objects in images |
JP2009042796A (ja) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | ジェスチャー入力装置および方法 |
US7552402B2 (en) * | 2006-06-22 | 2009-06-23 | Microsoft Corporation | Interface orientation using shadows |
KR101652535B1 (ko) * | 2008-06-18 | 2016-08-30 | 오블롱 인더스트리즈, 인크 | 차량 인터페이스를 위한 제스처 기반 제어 시스템 |
US8686953B2 (en) * | 2008-09-12 | 2014-04-01 | Qualcomm Incorporated | Orienting a displayed element relative to a user |
JP2011008424A (ja) * | 2009-06-24 | 2011-01-13 | Sharp Corp | 電子機器、動作モード設定方法、およびプログラム |
US20120314031A1 (en) * | 2011-06-07 | 2012-12-13 | Microsoft Corporation | Invariant features for computer vision |
US9600933B2 (en) * | 2011-07-01 | 2017-03-21 | Intel Corporation | Mobile augmented reality system |
-
2013
- 2013-04-22 US US13/868,057 patent/US9069415B2/en not_active Expired - Fee Related
- 2013-12-05 JP JP2013251878A patent/JP6260241B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2014216006A (ja) | 2014-11-17 |
US20140313136A1 (en) | 2014-10-23 |
US9069415B2 (en) | 2015-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6260241B2 (ja) | ユーザの入力を受け付けるシステム、プログラムおよび方法 | |
US10564806B1 (en) | Gesture actions for interface elements | |
EP2812770B1 (en) | Image processing device, and computer program product | |
EP2864932B1 (en) | Fingertip location for gesture input | |
JP6458371B2 (ja) | 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム | |
US9661214B2 (en) | Depth determination using camera focus | |
US10250800B2 (en) | Computing device having an interactive method for sharing events | |
JP5807686B2 (ja) | 画像処理装置、画像処理方法及びプログラム | |
EP2755107A2 (en) | Method and apparatus for controlling multitasking in electronic device using double-sided display | |
WO2014047131A1 (en) | Systems and methods for transferring images and information from a mobile computing device to a computer monitor for display | |
US11523063B2 (en) | Systems and methods for placing annotations in an augmented reality environment using a center-locked interface | |
JP2015516624A (ja) | 有効インターフェース要素の強調のための方式 | |
JP2014197317A (ja) | 情報処理装置、情報処理方法および記録媒体 | |
WO2018233623A1 (zh) | 图像显示的方法和装置 | |
CN107329671B (zh) | 模型显示方法和装置 | |
JP2013164697A (ja) | 画像処理装置、画像処理方法、プログラム及び画像処理システム | |
US9400575B1 (en) | Finger detection for element selection | |
US20140354784A1 (en) | Shooting method for three dimensional modeling and electronic device supporting the same | |
US20140267592A1 (en) | Method for capturing image and electronic device thereof | |
CN112204621A (zh) | 基于计算设备能力简档的虚拟骨架 | |
US9898183B1 (en) | Motions for object rendering and selection | |
JP6828421B2 (ja) | 卓上カメラ−プロジェクタシステムでの文書閲覧時における関連文書及び人物を可視化するための計算実行方法、プログラムおよび計算処理システム | |
US8970483B2 (en) | Method and apparatus for determining input | |
GB2513865A (en) | A method for interacting with an augmented reality scene | |
JP7293362B2 (ja) | 撮影方法、装置、電子機器及び記憶媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170516 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170926 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171127 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6260241 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
LAPS | Cancellation because of no payment of annual fees |