Nothing Special   »   [go: up one dir, main page]

JP6260241B2 - ユーザの入力を受け付けるシステム、プログラムおよび方法 - Google Patents

ユーザの入力を受け付けるシステム、プログラムおよび方法 Download PDF

Info

Publication number
JP6260241B2
JP6260241B2 JP2013251878A JP2013251878A JP6260241B2 JP 6260241 B2 JP6260241 B2 JP 6260241B2 JP 2013251878 A JP2013251878 A JP 2013251878A JP 2013251878 A JP2013251878 A JP 2013251878A JP 6260241 B2 JP6260241 B2 JP 6260241B2
Authority
JP
Japan
Prior art keywords
display
contact
point
information
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013251878A
Other languages
English (en)
Other versions
JP2014216006A (ja
Inventor
クラッツ スベン
クラッツ スベン
パトリック チィーウ
チィーウ パトリック
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Publication of JP2014216006A publication Critical patent/JP2014216006A/ja
Application granted granted Critical
Publication of JP6260241B2 publication Critical patent/JP6260241B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/042Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means
    • G06F3/0425Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means by opto-electronic means using a single imaging device like a video camera for tracking the absolute position of a single or a plurality of objects with respect to an imaged reference surface, e.g. video camera imaging a display or a projection screen, a table or a wall surface, on which a computer generated image is displayed or projected
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/039Accessories therefor, e.g. mouse pads
    • G06F3/0393Accessories for touch pads or touch screens, e.g. mechanical guides added to touch screens for drawing straight lines, hard keys overlaying touch screens or touch pads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/041Digitisers, e.g. for touch screens or touch pads, characterised by the transducing means
    • G06F3/0416Control or interface arrangements specially adapted for digitisers

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)
  • Telephone Function (AREA)

Description

コンピュータ・デバイスのユーザ・インターフェイスに関連し、より具体的には、接触検知型のスクリーン上でオブジェクトの姿勢を判断するシステム及び方法に関する。
接触型の入力デバイスが、スマートフォンやタブレットといった端末で使われるようになっている。接触型の入力デバイスにおいて、接触したか否かだけではなく、接触した領域のサイズを検知する技術も研究されている(非特許文献1を参照。)。
ボアリング(Boring)ら、「大きい親指:一方の手によるモバイル・インタラクションのための親指接触サイズの使用(The Fat Thumb: Using the Thumb's Contact Size for Single-Handed Mobile Interaction)」、モバイル・デバイス及びサービスとのヒューマン−コンピュータ・インタラクションに関するACM SIGCHI国際会議予稿集(モバイルHCI2012)(Proceedings of the ACM SIGCHI's International Conference on Human-Computer Interaction with Mobile Devices and Services (Mobile HCI 2012))、米国カリフォルニア州サンフランシスコ、2012年9月21日〜24日、頁10 ルス(Rusu)ら、「3次元はここ:ポイント・クラウド・ライブラリ(PCL)(3D is here: Point Cloud Library (PCL))」、ロボティクス及び自動生産に関するIEEE国際会議(ICRA)(IEEE International Conference on Robotics and Automation (ICRA))、中国・上海、2011年
しかしながら、接触型の入力デバイスにおいて、これまで、接触したオブジェクト(例えばユーザの指)の姿勢を高い精度で検知することはできなかった。
本発明の第1の態様は、ユーザの入力をコンピュータによって受け付けるシステムであって、接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記接触検知型のディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの姿勢を、前記コンピュータのプロセッサを用いて判断するモジュールと、を備える。
本発明の第2の態様は、第1の態様のシステムであって、前記接触検知型のディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、前記判断するモジュールは、表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、接触している前記オブジェクトの前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を判断する。
本発明の第3の態様は、第2の態様のシステムであって、前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの姿勢を判断する。
本発明の第4の態様は、第3の態様のシステムであって、前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する。
本発明の第5の態様は、第4の態様のシステムであって、前記検出するモジュールは、共に行われる前記ディスプレイに対する複数の接触のイベントを検出し、前記格納するモジュールは、オブジェクトと前記ディスプレイとの複数の接触点をそれぞれ判断し、判断した前記接触点の情報をそれぞれの接触のイベントに対応付けて格納し、前記判断するモジュールは、接触点ごとに、前記ディスプレイに接触しているオブジェクトの姿勢を判断する。
本発明の第6の態様は、第5の態様のシステムであって、前記撮影するモジュールは、複数のカメラを用いて前記ディスプレイの表面近傍の画像を撮影し、前記判断するモジュールは、前記複数のカメラを用いて撮影された複数の画像を合成することで得られるポイント・クラウドのうち、それぞれの前記接触点から予め定められた範囲にあるポイント・クラウドをそれぞれ選択し、選択したそれぞれのポイント・クラウドにより形成される形状を、接触しているそれぞれのオブジェクトの形状として判断する。
本発明の第7の態様は、コンピュータを、ユーザの入力を受け付けるシステムとして機能させるためのプログラムであって、前記コンピュータを、接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記接触検知型のディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの姿勢を判断するモジュールと、として機能させる。
本発明の第8の態様は、ユーザの入力をコンピュータによって受け付ける方法であって、前記コンピュータのプロセッサが、接触検知型のディスプレイを用いて接触のイベントを検出し、前記ディスプレイの表面近傍の画像をカメラを用いて撮影し、前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記接触検知型のディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納し、前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの姿勢を判断する。
本発明の構成を備えない場合と比較して、接触型の入力デバイスにおいて接触したオブジェクトの姿勢を検出する精度を高めることができる。
本実施例における、接触のイベントの間に指の姿勢を判断することができる携帯型のコンピュータ・システムを示す。 本実施例における、接触のイベントの間に指の姿勢を判断することができるデスクトップ型のコンピュータ・システムを示す。 接触のイベントの間に指の姿勢を判断することができるコンピュータ・システムの例において、それぞれのコンポーネントが配置される例を示す。 接触のイベントの間に指の姿勢を判断できるコンピュータ・システム400の例を示す。 接触のイベントの間に指の姿勢を判断する方法における処理シーケンスの例を示す。 指の姿勢を判断する処理の例を視覚化したものである。 複数の奥行き検出機能つきカメラを用いて指の姿勢を判断するシステムの例を示す。
「関連技術の説明」
接触型の入力は、いまやスマートフォンやタブレットなどの携帯デバイスにおいてよく使われる入力方法となった。接触型の入力は、デスクトップ型のコンピュータの分野でも需要が増大しており、さらに、大型のテーブル型のシステムや壁面型のディスプレイでも広く使われるようになっている。関連の技術では、ユーザの入力にしたがって接触点の座標を得ることしかできなかった。最も高性能なタッチスクリーンを用いても、接触のイベントに関連付けて接触した領域のサイズを知ることしかできない。例えば、先述の非特許文献1を参照されたい。そして、そのような関連技術によっては、接触のイベントに関してそれ以上の情報を得ることはできなかった。
多くのアプリケーション・プログラムにとっては、ユーザによる接触のイベントに関して、ユーザの指の垂直軸(タッチスクリーンの平面に直角な軸)に対する回転角度や、その傾きなどの、追加の情報を得ることができれば有用であろう。そのような回転角度や傾きの情報を得ることで、入力のためのジェスチャーを表現力が豊かで特徴的なものにすることができるばかりでなく、そのような追加的な入力の自由度を活かした新たなタイプのウィジェットを画面に表示できるようになろう。
ゆえに、ユーザから接触の入力を受け付けることのできる改善されたシステム及び方法が必要である。
ここで述べる技術は接触型の入力を行ったオブジェクトについて、奥行き検出機能付きのカメラを用いて、傾きおよび回転のパラメータを判断する。この技術分野においてはよく知られるように、奥行き検出機能つきのカメラは、従来の画像イメージ(カラーの場合もある)の撮影だけでなく、撮影された画像イメージの各ピクセルについて奥行きの情報を取得することができる(即ち、奥行き情報付き画像を撮影することができる)。ある実施例においては、以下に述べるように、タッチスクリーンと少なくとも1つの奥行き検出機能付きカメラを組み合わせたコンピュータ・システムが用いられる。これらのタッチスクリーンおよび奥行き検出機能付きカメラは、ここで述べるソフトウェア・モジュールと組み合わせて用いられ、タッチスクリーンへの入力に指の姿勢を判断する機能を付け加え、これによって、ユーザによるタッチスクリーンとのやり取りを優れたものにすることができる。ここで用いられる「姿勢」という用語は、例えば傾きや回転角度のパラメータによって決定することができる、空間的な向きを意味する。
「実施形態」
図1は、接触のイベント中に上述の指の姿勢の判断を行うことができるモバイル・コンピュータ・システム100の例を示す。ある実施例において、モバイル・コンピュータ・システム100は、例えばスマートフォン、パーソナル・デジタル・アシスタント(PDA)、あるいはタブレット・コンピュータなどの、商業的に利用可能であって当業者にはよく知られたモバイル・コンピュータ・システムのフォームファクタとして実装されてもよい。他の例として、モバイル・コンピュータ・システム100は、ラップトップ型やノートブック型のコンピュータとして実装されてもよい。更に他の例として、モバイル・コンピュータ・システム100は、エンベデッド・システム、例えば電子ブックリーダ(e-book)などの、特定の機能を有する電子デバイスに組み込まれてもよい。
モバイル・コンピュータ・システム100は、それが有する様々なハードウェア・コンポーネントの間で通信するために、データバス104やその他の相互接続機能を有してもよい。さらに、モバイル・コンピュータ・システム100は、情報の処理を行ったり、計算の処理や制御の処理を行ったりするために、データバス104と電気的に接続された中央処理装置(CPUあるいは単にプロセッサ)を有してもよい。モバイル・コンピュータ・システム100は、ランダムアクセスメモリ(RAM)などのメモリ112、あるいは、他の動的なストレージデバイスをさらに有し、様々な情報のみならずプロセッサ101によって実行されるべき命令列を格納する。メモリ112は、例えば磁気ディスク、光学ディスク、ソリッドステート・フラッシュメモリ、あるいはその他の不揮発性のソリッドステート・ストレージデバイスなどの、恒久的なストレージデバイスをさらに含んでよい。
ある実施例において、メモリ112は、プロセッサ101による命令列の実行中に、一時的な変数や他の中間情報を保存するために更に用いられてもよい。また、モバイル・コンピュータ・システム100は、データバス104に接続された読み出し専用メモリ(ROMやEPROMなど)102や他の静的なストレージデバイスを有し、プロセッサ101の静的な情報や命令列、例えば、モバイル・コンピュータ・システム100の動作に必要なファームウェア、基本入出力システム(BIOS)、その他の設定パラメータなどを格納してもよい。
ある実施例において、モバイル・コンピュータ・システム100は、ディスプレイ装置109を含んでよく、そして、ディスプレイ装置109は、データバス104に接続されて、モバイル・コンピュータ・システム100のユーザに、様々な情報を表示する。これに代えて、ディスプレイ装置109は、不図示のグラフィックコントローラおよび/またはグラフィックプロセッサと関連付けられていても良い。当業者であれば明らかであるが、薄膜トランジスタ(TFT)技術を用いて、あるいは、有機発光ダイオード(OLED)技術を用いて製造された、液晶ディスプレイ(LCD)としてディスプレイ装置109が実装されてもよい。様々な実施例において、ディスプレイ装置109は、モバイル・コンピュータ・システム100のその他のコンポーネントと同じ筐体に組み込まれても良い。これに代えて、ディスプレイ装置109は、そのような筐体の外に、例えば机やテーブルの表面に設けられても良い。
ある実施例においては、当業者であれば明らかであるが、モバイル・コンピュータ・システム100は、MPEG−3ファイルや、様々なビデオファイルの音声トラックであるMPEG−4などの様々な音声ファイルを再生可能であって、データバス104に電子的に接続された、音声(オーディオ)再生装置125をさらに含んでよい。この目的のため、モバイル・コンピュータ・システム100は、不図示の音声波形プロセッサまたはそれに類するデバイスをさらに組み込んで良い。
ある実施例において、モバイル・コンピュータ・システム100は、例えばユーザの接触のコマンドを受け付けるためのタッチスクリーン・インターフェイス110などの、1つまたは複数の入力デバイスを組み込んでいてもよい。タッチスクリーン・インターフェイス110は、当業者にとって良く知られているように、電気抵抗、音響、電気容量、またはその他の物理的な原理や効果に基づいて動作するものであってよい。ディスプレイ装置109と組み合わせて用いられるタッチスクリーン・インターフェイス110によって、ディスプレイ装置109は、タッチスクリーンとしての役割を果たすことができる。このような、タッチスクリーン・インターフェイス110とともに動作するディスプレイ装置109を、接触検知型のディスプレイ装置、あるいは、単にタッチスクリーンと呼ぶ。
モバイル・コンピュータ・システム100は、指の姿勢を判断するために用いられる画像やビデオをキャプチャするための奥行き検出カメラ111や、キーボード106を備えてよく、これらはデータバス104に接続され、プロセッサ101に対するユーザのコマンドや、画像やビデオなどを含む情報を、やり取りしてよい。ある実施例において、入力デバイスは、モバイル・コンピュータ・システム100の背面(前面、すなわち表示面の反対)に位置する接触検知型のデバイスをさらに備えてもよい。
ある実施例において、モバイル・コンピュータ・システム100は、現在のその地理的な位置や空間的な向きのみならず、加速度などの情報を、データバス104を介してプロセッサ101に供給してもよい。地理的な位置の情報は、例えば、全地球位置測位システム(GPS)技術、および/または、携帯電話の電波タワーやWiFiホットスポットによって供給される情報を用いた他の技術などを用いて、位置及び向き検出モジュール103によって取得されてもよい。加速度のデータは、位置及び向き検出モジュール103に組み込まれた加速度計によって供給されてもよい。最後に、向きの情報は、重力方向を含む3軸すべての方向における加速度の測定によって取得されてもよい。ある実施例において、位置、向き、および、加速度のメタデータは、データ・ストレージ・ユニット120によって継続的に記録され、保存されてよい。
ある実施例において、モバイル・コンピュータ・システム100は、データバス104に接続されたネットワーク・インターフェイス105などを含む通信インターフェイスをさらに有してもよい。ネットワーク・インターフェイス105は、WiFiアダプタ107および/または携帯電話のネットワーク(GSM(登録商標)あるいはCDMA)のアダプタ108の少なくとも1つを用いて、モバイル・コンピュータ・システム100およびインターネット124の間の接続を確立してよい。ネットワーク・インターフェイス105は、モバイル・コンピュータ・システム100およびインターネット124の間の2方向のデータ通信を可能にしてもよい。WiFiアダプタ107は、当業者によく知られた802.11a、802.11b、802.11gおよび/または802.11nのプロトコルだけでなく、Bluetooth(登録商標)のプロトコルに従って動作して良い。ある実施例において、WiFiアダプタ107および携帯電話のネットワーク(GSM(登録商標)またはCDMA)のアダプタ108は、様々なタイプの情報を表すデジタルデータのストリームを伝搬させるための、電子的なあるいは電磁的な信号を送受信しても良い。
ある実施例において、インターネット124は、典型的には、1つまたは複数のサブネットワークを介して他のネットワーク資源とデータ通信を行う。このように、モバイル・コンピュータ・システム100は、遠隔のメディアサーバ、ウェブサーバ、他のコンテンツサーバのみならず、他のネットワーク型データ・ストレージなどの、インターネット124上の如何なる場所に位置する多様なネットワーク資源にアクセスすることができる。ある実施例において、モバイル・コンピュータ・システム100は、ネットワーク・インターフェイス105を用いることで、インターネット124を含むさまざまなネットワークを介して、メッセージ、メディア、アプリケーション・プログラムのコードを含む他のデータなどを送受信できる。インターネットの例において、モバイル・コンピュータ・システム100がネットワーク・クライアントとして機能した場合、モバイル・コンピュータ・システム100で実行されるアプリケーション・プログラムのために、コードまたはデータを要求してもよい。同様に、様々なデータやコンピュータのコードを他のネットワーク資源に対して送信しても良い。
ある実施例において、ここで述べた機能は、プロセッサ101がメモリ112に含まれる1つまたは複数の命令列を実行することに応じて、モバイル・コンピュータ・システム100によって実現されてよい。このような命令列は、他のコンピュータ可読媒体からメモリ112に読み込まれても良い。メモリ112に含まれる命令列の実行によって、プロセッサ101はここで述べた様々な処理ステップを実行することができる。他の実施例において、この発明の実施例を実現するために、ソフトウェアの命令列に代えて、またはこれと組み合わせて、ハードウェア組み込み型の回路が用いられてもよい。このように、この発明について述べた実施例は、ハードウェアによる回路および/またはソフトウェアの特定の組み合わせに限定されるものではない。
ここで用いられた「コンピュータ可読媒体」という用語は、プロセッサ101による実行のために供給される命令列を供給するために関与する如何なる種類の媒体をさしてもよい。コンピュータ可読媒体は、機械可読媒体の単なる1つの例であって、それによって、ここで述べた方法および/または技術を実現するための命令列を搬送できるようにするものである。そのような媒体は、不揮発性または揮発性の媒体を含む様々な形態を取りうるが、これに限定されない。
非一時的なコンピュータ可読媒体の形態とは、例えば、フロッピー(登録商標)ディスク、フレキシブルディスク、ハードディスク、磁気テープ、あるいは、他の磁気媒体、CD−ROM、他の光学媒体、パンチカード、紙テープ、穿孔のパターンを伴う他の物理的な媒体、RAM、PROM、EPROM、フラッシュEPROM、フラッシュドライブ、メモリカード、他のメモリチップまたはメモリカードリッジ、あるいは、コンピュータが読みだすことのできる如何なる他の媒体である。様々な形態のコンピュータ可読媒体を、1つまたは複数の命令を含む1つまたは複数の命令列をプロセッサ101による実行のために搬送するため、用いることができる。例えば、離れた場所にあるコンピュータから、まず始めに、命令列が磁気ディスクに移される。これに代えて、離れた場所にあるコンピュータは、命令列をダイナミック・メモリにロードし、その命令列をインターネット124を経由して送信しても良い。具体的には、当業者には明らかであるが、これらのコンピュータの命令列は上述の離れた位置にあるコンピュータから、インターネット124を介して、ネットワーク上のデータ通信に関する様々なプロトコルを用いて、メモリ112にダウンロードされてもよい。
ある実施例において、モバイル・コンピュータ・システム100のメモリ112は、下記の如何なるソフトウェアプログラム、アプリケーション、またはモジュールを格納してもよい:
1.オペレーティング・システム(OS)113。モバイル・コンピュータ・システム100の基本的なシステムサービスおよび様々なハードウェア・コンポーネントを管理するため。オペレーティング・システム113の具体例は当業者には明らかであり、そして、如何なる既知の、あるいは、今後に開発されるモバイル用のオペレーティング・システムを含んでよい。
2.アプリケーション114。アプリケーション114は、例えば、モバイル・コンピュータ・システム100のプロセッサ101によって実行される一連のアプリケーション・プログラムを含む。これにより、モバイル・コンピュータ・システム100は、奥行き検出機能付きカメラ111を用いて画像やビデオをキャプチャしたり、タッチスクリーン・インターフェイス110を用いてユーザからの接触型の入力を検出したりといった、予め定められた特定の機能を実行することができる。ある実施例において、アプリケーション114は、後に詳しく述べるような、本発明に係る接触型の入力を検出するためのアプリケーション115を含んでもよい。
3.データ・ストレージ120。データ・ストレージ120は、キャリブレーション・モジュール119によって生成されたキャリブレーション・データを格納するために、例えば、キャリブレーション・データ・ストレージ121を有してよい。
ある実施例において、本実施例に係る接触型入力アプリケーション115は、ユーザ・インターフェイス生成モジュール116を有し、モバイル・コンピュータ・システム100のディスプレイ装置109にユーザ・インターフェイスを表示してもよい。本実施例に係る接触型入力アプリケーション115は、画像キャプチャ・モジュール117を更に有し、例えばユーザの手の画像を奥行き検出機能付きカメラ111で撮影させたり、タッチスクリーン上の指の姿勢を判断するために撮影した画像を処理モジュール118によって処理させたり、あるいは、下記に詳しく述べるキャリブレーション処理をキャリブレーション・モジュール119によって実行させたりしてもよい。
他の実施例においては、図2に例示するように、ここで述べる接触のイベントの最中に指の姿勢を判断する技術は、デスクトップ型のコンピュータ・システム200において実装されてもよい。ある実施例において、デスクトップ型のコンピュータ・システム200は、図1のモバイル・コンピュータ・システム100のデータバス104と同一または実質同一な役割を果たすデータバス204を有してよい。さまざまな実施例において、データバス204は、データバス104と同一または異なる相互接続、および/または通信のためのプロトコルを用いてよい。デスクトップ型のコンピュータ・システム200について、1つまたは複数のプロセッサ(CPU)201、ネットワーク・インターフェイス(アダプタ)205、EPROM/ファームウェア・ストレージ202、ディスプレイ装置209およびキーボード206は、これらがデスクトップ型の装置に実装されることのほかは、モバイル・コンピュータ・システム100におけるプロセッサ101、ネットワーク・インターフェイス105、EPROM/ファームウェア・ストレージ102、ディスプレイ装置109およびキーボード106と、それぞれ、実質的に同様である。さまざまな実装において、1つまたは複数のプロセッサ201は、プロセッサ101と比べて大幅に処理能力が高い。
入力デバイス206(キーボード)に加えて、デスクトップ型のコンピュータ・システム200は、さらにタッチスクリーン・インターフェイス210を備え、ユーザによる接触のコマンドを受け付けてもよいし、奥行き検出カメラ211を備え、指の姿勢を判断するために画像やビデオをキャプチャしてもよい。
デスクトップ型のコンピュータ・システム200のLAN/ISDNアダプタ207が更に実装されてもよく、これにより、例えば、サービス総合デジタル網(ISDN)またはモデムを用いて、それぞれそれに対応する種類の電話回線に接続し、インターネット・サービスプロバイダのハードウェア(不図示)を用いてインターネット124に接続してよい。他の例として、LAN/ISDNアダプタ207は、ローカルエリアネットワーク・インターフェイス・カード(LAN NIC)であってもよく、これにより、それと互換性を有するLANおよびインターネット124とデータ通信を行ってもよい。さまざまなメディアファイルを格納するために、デスクトップ型のコンピュータ・システム200は、ストレージ・コントローラ203によってデータバス204に接続されたメディア・ストレージ208とともに用いられてもよい。
ある実施例において、デスクトップ型のコンピュータ・システム200のメモリ212は、以下に説明するアプリケーションまたはモジュールのいずれかを格納してもよい:
1.オペレーティング・システム(OS)213。デスクトップ型のコンピュータ・システム200の基本的なシステムサービスおよび様々なハードウェア・コンポーネントを管理するため。オペレーティング・システム213の具体例は当業者には明らかであり、そして、如何なる既知の、あるいは、今後に開発されるモバイル用のオペレーティング・システムを含んでよい。
2.ネットワーク通信モジュール214。ネットワーク通信モジュール214は、例えば、1つまたは複数のネットワーク・プロトコル・スタックを有してよく、これを用いることで、デスクトップ型のコンピュータ・システム200とインターネット124上の、例えばモバイル・コンピュータ・システム100のような、さまざまなネットワーク構成要素との間で、LAN/ISDNアダプタ207とともに動作するネットワーク・インターフェイス(アダプタ)205を用いて、通信を確立させることができる。
3.アプリケーション215。アプリケーション215は、例えば、デスクトップ型のコンピュータ・システム200のプロセッサ201によって実行される一連のアプリケーション・プログラムを含む。これにより、デスクトップ型のコンピュータ・システム200は、予め定められた特定の機能を実行することができる。ある実施例において、アプリケーション215は、上述のモバイル・コンピュータ・システム100の接触型入力アプリケーション115と実質的に同じように動作する、接触型入力アプリケーション216を含んでよい。
ある実施例において、接触型入力アプリケーション216は、デスクトップ型のコンピュータ・システム200のディスプレイ装置209にユーザ・インターフェイスを表示させるためのユーザ・インターフェイス生成モジュール217を有してよい。接触型入力アプリケーション216は、さらに、奥行き検出カメラ211に例えばユーザの手の画像をキャプチャさせるための画像キャプチャ・モジュール218と、タッチスクリーン上の指の姿勢を判断するためにキャプチャした画像を処理する処理モジュール219と、キャリブレーション処理を行うキャリブレーション・モジュール220とを有する。接触型入力アプリケーション216に関する上述のモジュール217、218、219および220は、モバイル・コンピュータ・システム100に実装された接触型入力アプリケーション115に関するモジュール116、117、118および119の各々と実質的に同じように動作してよい。
4.データ・ストレージ221。データ・ストレージ221は、例えば、キャリブレーション・モジュール220によって生成されるキャリブレーション・データを格納するキャリブレーション・データ・ストレージ222を有してよい。
図3は、接触のイベントの際に指の姿勢を判断することができるコンピュータ・システム300に関して、ある特定のコンポーネントが配列される例を示す。ここで示す実施例において、奥行き検出カメラ111は、奥行き検出カメラ111の視野303にモバイル・コンピュータ・システム100のタッチスクリーン109/110が収まるように、モバイル・コンピュータ・システム100の筐体の中に設けられるか、あるいは、その筐体に取り付けられる。ある実施例において、奥行き検出カメラ111は、接触イベントの際にユーザの指306の画像を適切に撮影できるようにするため、モバイル・コンピュータ・システム100のタッチスクリーン109/110の表面と実質的に平行な方向305を向いている。モバイル・コンピュータ・システム100について、奥行き検出カメラ111およびタッチスクリーン109/110をここで説明したように配列することで、タッチスクリーン109/110に対する指の傾きの角度307を検出するばかりでなく、タッチスクリーン109/110の平面に垂直な軸308を中心とした指の回転角度309(方位角)をも検出することができる。即ち、図3に説明した実施例300によれば、傾きの角度307だけでなく回転の角度309(方位角)をも含む2つの自由度を持った2つの座標を、接触のイベントに関連付けて検出することができる。これらの2つの角度は、接触のイベントの際に、指306とタッチスクリーン109/110の表面との接触点についての平面上の2つの座標値(xおよびy)に加えて提供される。
ある実施例において、奥行き検出カメラ111は、図3に説明したものと同様な形態で、デスクトップ型のコンピュータ・システム200のディスプレイ装置209に組み込まれて、あるいは、これに取り付けられてよい。注目すべきことに、本発明は、ここで示した奥行き検出カメラ111およびタッチスクリーン・ディスプレイ109/110の配列だけに限定されず、本発明の範囲及び精神から逸脱することなく、ほかにもさまざまな適切な配列を行うことができる。奥行き検出カメラ111は、接触のイベントの際にユーザの指の画像を撮影できるようにするために、タッチスクリーン・ディスプレイ109/110に対して先述のものとは異なる位置において、異なる角度を向くように配置されてもよい。
図4は、接触のイベントの際に指の姿勢を判断することができるコンピュータ・システム400の例を示す。本実施例に係るコンピュータ・システム400は、奥行き検出カメラ111を取り付けたタブレット・コンピュータあるモバイル・コンピュータ・システム100を含み、この奥行き検出カメラ111は、奥行き検出カメラ111の視野にタブレット・コンピュータ(モバイル・コンピュータ・システム100)のタッチスクリーン・ディスプレイ109/110が収まるように取り付けられる。接触のイベントの際に、奥行き検出カメラ111は、不図示のユーザの指の画像を撮影する。
モバイル・コンピュータ・システム100および/またはデスクトップ型のコンピュータ・システム200に実装されるさまざまなソフトウェア・モジュールの動作について詳しく述べる。下記の説明においては、モバイル・コンピュータ・システム100について具体的なハードウェア・コンポーネントおよびソフトウェア・モジュールについて詳しく述べるが、同様なハードウェア及びソフトウェアがデスクトップ型のコンピュータ・システム200にも実装し得ることを理解されたい。
ある実施例において、接触型入力アプリケーション115は、タッチスクリーン・インターフェイス110から受取った信号に基づいて接触のイベントを検出し、奥行き検出カメラ111を用いてユーザの指の画像を撮影し、撮影した奥行き情報付き画像の処理を実行する。この画像の処理においては、ユーザの1本の指を現すポイント・クラウドの一部をシリンダーの形状に近似する処理を行う。具体的には、図5は、接触のイベントの際に指の姿勢を判断する方法の処理シーケンス500の例を示す。
図5を参照すると、まず、ステップ501において、接触型入力アプリケーション115は、ユーザによる接触のイベントを検出するためのタッチスクリーン・インターフェイス110を用いる。ある実施例において、上述の接触のイベントは、ユーザが、接触型入力アプリケーション115のユーザ・インターフェイス生成モジュール116によってディスプレイ装置109上に生成されたグラフィック・ユーザ・インターフェイスに関連して行うものである。ここでいうグラフィック・ユーザ・インターフェイスには、ユーザによって制御される、複数のユーザ・インターフェイスのウィジェットが含まれる。
ステップ501においてユーザによる接触のイベントが検出されると、接触型入力アプリケーション115の画像キャプチャ・モジュールは、ステップ502に示すように、奥行き検出カメラ111を用いて1つまたは複数の画像の撮影を開始する。奥行き検出カメラ111によって撮影された画像は、既存の画像情報とともに、奥行き(カメラからオブジェクトまでの距離)の情報をその画像の各ピクセルに対応付けて取得する。奥行き検出カメラによって撮影された、奥行き方向の情報を含む画像は、奥行き画像(depth image)と呼ばれる。ステップ503において、処理モジュール118は、2次元の奥行き情報付きの入力画像の各ピクセルを、現実世界の座標系の3次元の点に変換する。変換された2次元の奥行き画像の全てのピクセルは、この後のステップにおいて用いられるポイント・クラウドを形成する。ステップ504において、処理モジュール118は、ステップ503において取得されたポイント・クラウドをフィルタして、ユーザがタッチスクリーンとやり取りする際の関心空間に位置する点の群、すなわち、ユーザの指がタッチスクリーンと物理的に接触するために位置しなければならない空間に位置する点の群を選択する。ある実施例において、関心空間は、タッチスクリーンの真上の15センチメートル(6インチ)ほどの空間を含む。
ある実施例において、奥行き検出機能付きカメラの解像度によっては、ステップ505において、処理モジュール118はポイント・クラウドの中の点の数を減らして管理可能な数に変換し(サンプル抽出、あるいは、ダウンサンプルし)、後の処理の負荷を減らすようにしてもよい。ある実施例において、ポイント・クラウドは、当業者には良く知られたボクセルグリッドを用いてダウンサンプルされてもよい。ステップ506において、処理モジュール118は、タッチスクリーン109/110の平面上に位置する奥行き検出カメラ111に最も近い点を探すことで、ユーザの指がタッチスクリーン109/110とやり取りする位置を特定してもよい。ステップ506において最も近い点を識別しやすくするため、指とタッチスクリーンの接触点の座標510が、種(シード)となる点として用いられてもよい。
ステップ507において、処理モジュール118は、ステップ506において特定された最も近い点の近傍において、当該最も近い点に近い点の集合を更に探し出す。ある実施例においては、上述の近い点の集合を探し出すために、当業者には良く知られた最近傍探索またはフラッドフィル(Flood Fill)のアルゴリズムが用いられてもよい。ある実施例において、処理モジュール118は、種となる点に最も近い予め定められたN個の点を探し出してもよい。他の実施例において、処理モジュール118は、予め定められた値よりもその種となる点からの距離が短い点の集合を探し出してもよい。
このようにして見つけられた最も近い点の集合は、ユーザの指の画像に対応する。ステップ508において、処理モジュール118は、指の空間的な向きに関するパラメータを判断するために、これらの最も近い点の集合を、シリンダー・モデルによって近似する。ある実施例において、これは、当業者によく知られたランダム・サンプル・コンセンサス(RANSAC)の手法によって実現されてもよい。
最後に、ステップ509において、指の傾き角度307および回転角度309に関する回転行列(クォータニオン)、あるいは、オイラー角が出力として返される。注目するべきことに、この手法は、シリンダー・モデルへの近似を利用することには限定されず、ユーザの指の形を近似するのに適した他の如何なる3次元モデルを用いることもできる。これに加えて、ランダム・サンプル・コンセンサスの代わりに、他の適切なモデルによる近似の手法が用いられてもよい。注目するべきことに、ここで述べられた技術は、ユーザの指を用いたタッチスクリーンとのやり取りには限定されず、他のオブジェクトや体の一部がユーザによってタッチスクリーン109/110とやり取りするために用いられてもよく、そしてその場合には、入力に用いられる特定のオブジェクトや体の一部に適した3次元モデルが、ポイント・クラウドの近似のために選択されてもよい。
ある実施例において、ここで述べられた手法を、複数の指の姿勢を検出することに拡張することもできる。このためには、処理モジュール118は、タッチスクリーン109/110に接触する複数の指(あるいは複数のその他のオブジェクト)に対応する空間において、近似のために複数のシリンダーを配置してよい。ある実施例において、図5に関連して説明した上述の手法は、接触のイベントのたびに、タッチスクリーン109/110に接触する指の形状を近似するために用いることができる。具体的には、モバイル・コンピュータ・システム100のタッチスクリーン・インターフェイス110によって、指とタッチスクリーンとが接触するそれぞれの接触点の位置の情報が提供される。それぞれの接触点の位置は、上述のような各指に種を与えてポイント・クラウドを形成するような処理における、種(シード)として後の処理で利用される。この結果、それぞれの指について、対応する点群が選択される。選択されたそれぞれの点群は、その後、対応する指の姿勢(回転行列またはオイラー角として表される)を判断する目的のため、シリンダーに近似するパラメータを推定するために用いられる。ある実施例において、上述の指の姿勢の判断のアルゴリズムは、当業者にはよく知られるように、ポイント・クラウド・ライブラリ(Point Cloud Library)の中の関数を用いてC++プログラム言語によって実装されてよい。詳しくは、例えば、非特許文献2を参照されたい。
図6は、指の姿勢を判断するプロセスの実施例を視覚化して示す。ポイント・クラウドのうちの点群601は、モバイル・コンピュータ・システム100のタッチスクリーン109/110上のユーザの手の形に対応する。図6において、タッチスクリーン109/110はXY平面に位置づけられる。点群602は、タッチスクリーン109/110に接触するユーザの指に対応し、ポイント・クラウド中の他の点群とは切り離される。シリンダーのワイヤーフレーム603を見ることで、推定される回転角度や傾きのパラメータを視覚的に捉えることができる。
ある実施例において、ポイント・クラウドで有効に表現する事が出来る領域を拡大するため、また、姿勢の判断の精度を改善するため、さらには、ユーザの他の指によって遮蔽されにくくするため、図7に説明するように、タッチスクリーン109/110の近傍に奥行き検出カメラ111が追加して備え付けられてもよい。ある実施例において、奥行き検出カメラ111は、ユーザの指による遮蔽の影響を軽減できるように、それぞれの視野が互いに重なるように設けられても良い。例えば、角度αによって規定される視野の組み合わせは、N個の奥行き検出カメラ111を用いて実現されることを要する。すなわち、カメラ111は、タッチスクリーン109/110の周囲に、図7の番号701に示すように、α/Nの角度の増分ごとに配置される。注目するべきことに、本実施例は、ここで示す複数の奥行き検出カメラ111の位置に限定されず、本発明の範囲や精神を逸脱することなく他の様々な設計を採用することができる。
ある実施例において、複数の奥行き検出カメラ111から生成された複数のポイント・クラウドを利用するためには、キャリブレーション処理によって個別のポイント・クラウドが併合される必要がある。キャリブレーション処理は、それぞれの奥行き検出カメラ111によって生成されたポイント・クラウドの局所的な座標系を、併合されたポイント・クラウドの座標系に変換するためのテーブルまたは計算式を作り出すことを含む。ある実施例において、キャリブレーションは、下記の処理によって行う。まず、各奥行き検出カメラ111を取り付けたタッチスクリーン109/110に、キャリブレーション・オブジェクトを配置し、その画像を撮影する。そして、撮影した画像を解析することで、複数のカメラで撮影した同じキャリブレーション・オブジェクトの座標を判断する。その情報に基づいて、キャリブレーションの変換ルールが生成され、キャリブレーション・データ・ストレージ121に格納される。注目するべきことに、異なる複数の奥行き検出カメラ111から得られたポイント・クラウドを併合するためには、それに適した他のキャリブレーション処理が用いられてもよく、したがって、本実施例は如何なる特定のキャリブレーション処理にも限定されることはない。複数のカメラシステムについてキャリブレーション処理がされると、個別の奥行き検出カメラ111によって生成されたポイント・クラウドは単一のポイント・クラウドに併合され、そして、図5に示した指の姿勢を判断するためのアルゴリズム500が、その併合されたポイント・クラウドについて適用される。
ある実施例において、モバイル・コンピュータ・システム100の奥行き検出カメラ111によって撮影された画像は、ネットワーク・インターフェイス105およびWIFIアダプタ107を介して、より大きい処理能力を有するデスクトップ型のコンピュータ・システム200に送信されてもよい。その後、傾き及び回転の情報は、同じネットワークを経由して、モバイル・コンピュータ・システム100に返信されてもよい。モバイル・コンピュータ・システム100において、そのようにして受信された傾き及び回転の情報は、ユーザの指がタッチスクリーン109/110に触れた点の平面上の座標の情報とともに、1つまたは複数のアプリケーション114を制御するために用いられる。
重要な点は、ここで述べられた指の姿勢を判断するための新規な技術が、接触検知型ディスプレイ装置を用いることなく実装されても良いことである。例えば、同じ奥行き検知カメラ111や、既知の、あるいは、今後開発される他の如何なる装置が、指の接触点を検出するために用いられても良い。このように、接触のイベントの発生時に指の接触点を検出するための如何なる特定の手法にも限定されることがない。
いくつかの実施例が示されて説明されたが、これらの実施例は、ここで述べられた主題をこの分野に詳しい方々に説明するために提供されるものである。ここで説明された主題は、ここで説明された実施例に限定されること無くさまざまな形で実施化されうることが理解されるべきである。ここで述べられた主題は、これら具体的に定義された、あるいは、説明された事柄を伴わなくても実施化でき、あるいは、ここで述べられなかった他のあるいは異なる要素や事柄を伴って実施化されうる。この分野に詳しい方々には、そのような変更が、ここに添付されたクレームやその均等範囲によって定義され、ここで述べられた主題から逸脱することなく、この実施例の中で可能であることを理解されるだろう。
この実施例に関連する複数の側面について、部分的には上述の説明の中で説明されてきており、部分的には上述の説明から明らかなはずであり、また、本発明の実施化から理解されうる。本実施例の複数の側面は、さまざまな要素や詳細な説明および添付のクレームにおいて特に指摘した側面の組み合わせから実現あるいは達成されてよく、さらに、さまざまな要素からなる方法によって、実現あるいは達成されてもよい。
上述の説明は、例示あるいは説明のためだけであって、限定を意図したものではないことが理解されよう。

Claims (8)

  1. ユーザの入力をコンピュータによって受け付けるシステムであって、
    接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、
    前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、
    前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、
    前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を、前記コンピュータのプロセッサを用いて判断するモジュールと、
    を備え
    前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
    前記判断するモジュールは、表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
    前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
    前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
    前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
    システム。
  2. 記判断するモジュールは、前記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
    請求項に記載のシステム。
  3. 前記検出するモジュールは、共に行われる前記ディスプレイに対する複数の接触のイベントを検出し、
    前記格納するモジュールは、オブジェクトと前記ディスプレイとの複数の接触点をそれぞれ判断し、判断した前記接触点の情報をそれぞれの接触のイベントに対応付けて格納し、
    前記判断するモジュールは、接触点ごとに、前記ディスプレイに接触しているオブジェクトの姿勢を判断する、
    請求項に記載のシステム。
  4. 前記撮影するモジュールは、複数のカメラを用いて前記ディスプレイの表面近傍の画像を撮影し、
    前記判断するモジュールは、前記複数のカメラを用いて撮影された複数の画像を合成することで得られるポイント・クラウドのうち、それぞれの前記接触点から予め定められた範囲にあるポイント・クラウドをそれぞれ選択し、選択したそれぞれのポイント・クラウドにより形成される形状を、接触しているそれぞれのオブジェクトの形状として判断する、
    請求項に記載のシステム。
  5. コンピュータを、ユーザの入力を受け付けるシステムとして機能させるためのプログラムであって、
    前記コンピュータを、
    接触検知型のディスプレイを用いて接触のイベントを検出するモジュールと、
    前記ディスプレイの表面近傍の画像をカメラを用いて撮影するモジュールと、
    前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納するモジュールと、
    前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を判断するモジュールと、
    として機能させ
    前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
    前記判断するモジュールは、表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
    前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
    前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
    前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
    プログラム。
  6. 記判断するモジュールは、前記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
    請求項に記載のプログラム。
  7. ユーザの入力をコンピュータによって受け付ける方法であって、
    前記コンピュータのプロセッサが、
    接触検知型のディスプレイを用いて接触のイベントを検出し、
    前記ディスプレイの表面近傍の画像をカメラを用いて撮影し、
    前記ディスプレイに接触しているオブジェクトと前記ディスプレイとの接触点を、前記ディスプレイを用いて判断し、前記接触点の情報を前記接触のイベントに対応付けてメモリに格納し、
    前記接触のイベントを検出したことに応じて、前記接触点の情報及び撮影した前記画像に基づいて、前記ディスプレイに接触しているオブジェクトの、前記ディスプレイの表面に対する傾き、および、前記ディスプレイの表面に垂直な軸を中心とした回転角度を判断し、
    前記ディスプレイは、ユーザ・インターフェイスのウィジェットを表示し、
    表示された前記ウィジェットへのユーザによる接触のイベントを検出したことに応じて、前記傾きおよび前記回転角度を判断し、
    前記カメラは、前記ディスプレイの表面近傍の画像をポイント・クラウドとして捉えるために、奥行き方向の距離を検出する機能を備え、
    前記判断するモジュールは、前記オブジェクトの前記接触点から予め定められた範囲のポイント・クラウドが形成する空間内の形状を、前記ディスプレイに接触しているオブジェクトの空間内の形状として判断し、当該形状に基づいて前記オブジェクトの前記傾きおよび前記回転角度を判断し、
    前記判断するモジュールは、前記ポイント・クラウドを予め定められた円柱状の3次元モデルに近似することによって、当該3次元モデルが形成する形状を、前記ディスプレイに接触しているオブジェクトの形状として判断する、
    方法。
  8. 記接触点の情報および前記奥行き方向の情報に基づいて、前記傾きおよび前記回転角度を判断する、
    請求項に記載の方法。
JP2013251878A 2013-04-22 2013-12-05 ユーザの入力を受け付けるシステム、プログラムおよび方法 Expired - Fee Related JP6260241B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/868,057 2013-04-22
US13/868,057 US9069415B2 (en) 2013-04-22 2013-04-22 Systems and methods for finger pose estimation on touchscreen devices

Publications (2)

Publication Number Publication Date
JP2014216006A JP2014216006A (ja) 2014-11-17
JP6260241B2 true JP6260241B2 (ja) 2018-01-17

Family

ID=51728633

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013251878A Expired - Fee Related JP6260241B2 (ja) 2013-04-22 2013-12-05 ユーザの入力を受け付けるシステム、プログラムおよび方法

Country Status (2)

Country Link
US (1) US9069415B2 (ja)
JP (1) JP6260241B2 (ja)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150346998A1 (en) * 2014-05-30 2015-12-03 Qualcomm Incorporated Rapid text cursor placement using finger orientation
JPWO2016121708A1 (ja) * 2015-01-26 2017-11-24 Necソリューションイノベータ株式会社 入力システム、入力装置、入力方法、および、プログラム
CN104991684A (zh) * 2015-07-23 2015-10-21 京东方科技集团股份有限公司 触控设备及其工作方法
US10025492B2 (en) * 2016-02-08 2018-07-17 Microsoft Technology Licensing, Llc Pointing detection
JP6637855B2 (ja) 2016-08-22 2020-01-29 株式会社ソニー・インタラクティブエンタテインメント データ処理装置、データ処理方法およびコンピュータプログラム
CN110325469B (zh) * 2017-02-08 2022-07-15 尹一植 利用显示器的电梯动作控制装置及方法
US20230107110A1 (en) * 2017-04-10 2023-04-06 Eys3D Microelectronics, Co. Depth processing system and operational method thereof
CN110703956B (zh) * 2018-07-09 2021-08-17 北京仁光科技有限公司 一种基于光影像的交互系统和交互方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6954197B2 (en) * 2002-11-15 2005-10-11 Smart Technologies Inc. Size/scale and orientation determination of a pointer in a camera-based touch system
EP1851527A2 (en) * 2005-01-07 2007-11-07 GestureTek, Inc. Creating 3d images of objects by illuminating with infrared patterns
EP2487624B1 (en) * 2005-01-07 2020-02-19 Qualcomm Incorporated(1/3) Detecting and tracking objects in images
JP2009042796A (ja) * 2005-11-25 2009-02-26 Panasonic Corp ジェスチャー入力装置および方法
US7552402B2 (en) * 2006-06-22 2009-06-23 Microsoft Corporation Interface orientation using shadows
KR101652535B1 (ko) * 2008-06-18 2016-08-30 오블롱 인더스트리즈, 인크 차량 인터페이스를 위한 제스처 기반 제어 시스템
US8686953B2 (en) * 2008-09-12 2014-04-01 Qualcomm Incorporated Orienting a displayed element relative to a user
JP2011008424A (ja) * 2009-06-24 2011-01-13 Sharp Corp 電子機器、動作モード設定方法、およびプログラム
US20120314031A1 (en) * 2011-06-07 2012-12-13 Microsoft Corporation Invariant features for computer vision
US9600933B2 (en) * 2011-07-01 2017-03-21 Intel Corporation Mobile augmented reality system

Also Published As

Publication number Publication date
JP2014216006A (ja) 2014-11-17
US20140313136A1 (en) 2014-10-23
US9069415B2 (en) 2015-06-30

Similar Documents

Publication Publication Date Title
JP6260241B2 (ja) ユーザの入力を受け付けるシステム、プログラムおよび方法
US10564806B1 (en) Gesture actions for interface elements
EP2812770B1 (en) Image processing device, and computer program product
EP2864932B1 (en) Fingertip location for gesture input
JP6458371B2 (ja) 3次元モデルのためのテクスチャデータを取得する方法、ポータブル電子デバイス、及びプログラム
US9661214B2 (en) Depth determination using camera focus
US10250800B2 (en) Computing device having an interactive method for sharing events
JP5807686B2 (ja) 画像処理装置、画像処理方法及びプログラム
EP2755107A2 (en) Method and apparatus for controlling multitasking in electronic device using double-sided display
WO2014047131A1 (en) Systems and methods for transferring images and information from a mobile computing device to a computer monitor for display
US11523063B2 (en) Systems and methods for placing annotations in an augmented reality environment using a center-locked interface
JP2015516624A (ja) 有効インターフェース要素の強調のための方式
JP2014197317A (ja) 情報処理装置、情報処理方法および記録媒体
WO2018233623A1 (zh) 图像显示的方法和装置
CN107329671B (zh) 模型显示方法和装置
JP2013164697A (ja) 画像処理装置、画像処理方法、プログラム及び画像処理システム
US9400575B1 (en) Finger detection for element selection
US20140354784A1 (en) Shooting method for three dimensional modeling and electronic device supporting the same
US20140267592A1 (en) Method for capturing image and electronic device thereof
CN112204621A (zh) 基于计算设备能力简档的虚拟骨架
US9898183B1 (en) Motions for object rendering and selection
JP6828421B2 (ja) 卓上カメラ−プロジェクタシステムでの文書閲覧時における関連文書及び人物を可視化するための計算実行方法、プログラムおよび計算処理システム
US8970483B2 (en) Method and apparatus for determining input
GB2513865A (en) A method for interacting with an augmented reality scene
JP7293362B2 (ja) 撮影方法、装置、電子機器及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170720

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170926

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20171114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171127

R150 Certificate of patent or registration of utility model

Ref document number: 6260241

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees