JP5812582B2 - Information processing apparatus and information processing method - Google Patents
Information processing apparatus and information processing method Download PDFInfo
- Publication number
- JP5812582B2 JP5812582B2 JP2010162774A JP2010162774A JP5812582B2 JP 5812582 B2 JP5812582 B2 JP 5812582B2 JP 2010162774 A JP2010162774 A JP 2010162774A JP 2010162774 A JP2010162774 A JP 2010162774A JP 5812582 B2 JP5812582 B2 JP 5812582B2
- Authority
- JP
- Japan
- Prior art keywords
- contact position
- setting
- recognizing
- region
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Position Input By Displaying (AREA)
Description
本発明は、空間ジェスチャを認識する領域を設定する技術に関する。 The present invention relates to a technique for setting a region for recognizing a space gesture.
従来、動画像から抽出された人の顔の横幅、縦の長さまたは面積に基づいて、前記動画像の一部を、ジェスチャを認識する領域として設定する技術が知られている(例えば、特許文献1)。また、画面に接触することで、機器を操作するタッチパネルが知られている。 2. Description of the Related Art Conventionally, a technique for setting a part of a moving image as a region for recognizing a gesture based on the width, vertical length, or area of a person's face extracted from the moving image is known (for example, patents). Reference 1). A touch panel for operating a device by touching a screen is also known.
しかしながら、従来技術によると、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することができなかった。従って、本発明は、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することを目的とする。 However, according to the conventional technology, it is not possible to set an area for recognizing a space gesture based on a contact position according to a user's preference. Therefore, an object of the present invention is to set an area for recognizing a space gesture based on a contact position according to a user's preference.
上記の課題を解決するため、本発明に係る情報処理装置は、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、前記検知手段は、更に、前記接触位置の移動軌跡の形状を検知し、前記設定手段は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定する。また、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、前記検知手段は、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、前記設定手段は、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定する。 In order to solve the above-described problem, an information processing apparatus according to the present invention includes a detection unit that detects a contact position on a display surface, and a setting that sets a region for recognizing a space gesture based on the detected contact position. A position of a region for recognizing a space gesture at a position predicted from the shape of the movement trajectory. Set. In addition, a detection unit that detects a contact position on the display surface, and a setting unit that sets a region for recognizing a space gesture based on the detected contact position, the detection unit further includes the contact The distance, the moving direction, or the moving speed of the movement trajectory of the position is detected, and the setting means sets the position of the region for recognizing the space gesture to the position predicted from the distance, the moving direction, or the moving speed of the moving trajectory. To do.
本発明によれば、ユーザによって表示面への接触に続いて入力される空間ジェスチャを認識する領域を適切に設定することができる。 According to the present invention, it is possible to appropriately set an area for recognizing a spatial gesture input by a user following contact with a display surface .
(第1の実施形態)
図1(a)は、本発明に係る情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU101、ROM102、RAM103、入力インタフェース(I/F)104、出力I/F105、入力I/F106、出力I/F107、通信I/F108を有する。尚、上記の各部は、システムバス109を介して接続されている。また、情報処理装置100は、入力部140、表示部150、距離画像センサ160、表示部170、ネットワーク180と接続されている。以下、情報処理装置100の各部と情報処理装置100と接続されている各部について説明する。
(First embodiment)
FIG. 1A is a diagram showing a hardware configuration of the
CPU101は、ROM102に格納されたプログラム等をRAM103に展開し、読み出すことで、情報処理装置100の各種動作を実現する。ROM102は、情報処理装置100の各種動作させるプログラム、プログラムの実行に必要なデータ等を格納する。RAM103は、ROM102に格納されたプログラムを展開するワークエリアを提供する。入力I/F104は、入力部140に対するユーザの指示入力(接触位置)を示すデータを取得する。出力I/F105は、表示部150に表示させる画像を示すデータを送信する。入力I/F106は、距離画像センサ160によって生成された距離画像を示すデータを取得する。出力I/F107は、表示部170に表示させる画像を示すデータを送信する。通信I/F108は、ネットワーク180を介して他のコンピュータ等と接続し、種々のデータの送受信を行う。
The
入力部140は、例えば、表示部150に重畳して設けられたタッチパネル、デジタイザ等であり、表示面上の接触位置の座標を検知する。表示部150は、例えば、液晶ディスプレイ(LCD)であり、画像、文字等を表示出力する。距離画像センサ160は、赤外線等の反射によって、所定の三次元の領域内に存在するオブジェクトと、基準となる面(例えば、距離画像センサが測距する方向に対して垂直な面であって、距離画像センサが存在する面)との距離を示す距離画像を生成する。尚、距離画像とは、所定の三次元の領域内に存在するオブジェクトと、基準となる面との距離を画素値とする画像である。表示部170は、例えば、LCDであり、画像、文字等を表示出力する。尚、表示部150と表示部170とは互いに連携し、マルチディスプレイとして機能してもよい。
The
図1(b)は、情報処理装置100の機能構成を示す図である。情報処理装置100は、検知部111、設定部112、取得部113、認識部114、制御部115を有する。尚、検知部111は、入力I/F104に相当し、取得部113は、入力I/F106に相当する。また、設定部112、認識部114、制御部115は、CPU101が、ROM102に格納された所定のプログラム等をRAM103に展開し、読み出すことで実現される。以下、各部について説明する。
FIG. 1B is a diagram illustrating a functional configuration of the
検知部111は、入力部140上の接触位置の座標を検知する。尚、検知部111は、1点、複数の点、軌跡等の座標を検知する。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから所定の時間内に、他の接触位置の座標が検知される場合である。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから空間ジェスチャを認識する処理が開始される前に、他の接触位置の座標が検知される場合である。
The
設定部112は、検知部111によって検知された座標に基づいて、空間ジェスチャを認識する領域(ジェスチャ認識領域)を設定する。尚、空間ジェスチャとは、距離画像センサ160の検知領域となる三次元の領域内で、水平方向に横切るように手を移動させる動作、手を交差する動作、鉛直方向に手を移動させる動作、水平方向および鉛直方向に手を移動させる動作等をいう。また、設定部112によって設定されるジェスチャ認識領域は、距離画像センサ160の検知領域となる三次元の領域の一部に相当するものとする。
The
取得部113は、距離画像センサ160によって生成された距離画像を示すデータを取得する。認識部114は、取得された距離画像からジェスチャ認識領域に相当する部分を特定し、当該部分における空間ジェスチャを認識する。尚、空間ジェスチャは、例えば、入力部140に対する接触が検知された時点から所定の時間内に得られた複数の距離画像の画素値の変化に基づいて認識される。制御部115は、認識部114によって認識された空間ジェスチャに対応する処理を実行し、例えば、表示部150、170に表示させる画像、文字等を変更する。
The
図2は、情報処理装置100、入力部140、表示部150、距離画像センサ160、表示部170を設置した様子を示す図である。情報処理装置100は、他の各部と接続されていればよく、任意の場所に設置可能である。入力部140および表示部150は重畳して設置されており、本実施形態においては、机上に設置されているものとする。距離画像センサ160は、例えば、天井面(入力部140、表示部150の上空)に設置されており、距離画像センサ160の検知領域となる三次元の領域とは、例えば、破線で示された略錐台状の空間(入力部140、表示部150の上部の空間)とする。表示部170は、側面(壁面)に設置されているものとする。
FIG. 2 is a diagram illustrating a state in which the
尚、本実施形態では、水平方向の面をX軸とY軸とによって定義されるXY平面、鉛直方向の軸をZ軸として説明する。また、本実施形態では、入力部140、表示部150の1つの頂点近傍の点であって、入力部140、表示部150と略同じ高さの点を、XYZ空間の原点として説明する。
In this embodiment, a horizontal plane is described as an XY plane defined by an X axis and a Y axis, and a vertical axis is described as a Z axis. Further, in the present embodiment, a point in the vicinity of one vertex of the
図3は、認識された空間ジェスチャに応じた制御を実行する処理の流れを示すフローチャートである。 FIG. 3 is a flowchart showing a flow of processing for executing control according to the recognized space gesture.
ステップS301において、検知部111は、入力部140に対する接触が検知されたか否か判断し、接触が検知された場合、ステップS302の処理を実行する。一方、接触が検知されなかった場合、ステップS301の処理を繰り返す。ステップS302において、検知部111は、接触位置を示す情報を取得し、設定部112に当該情報を出力する。尚、接触位置を示す情報とは、例えば、接触位置の座標を示す情報、接触位置の移動軌跡の形状、軌跡の移動方向、軌跡の移動距離を示す情報、接触した点の個数を示す情報、接触位置に表示されているオブジェクトを示す情報、検知された接触の継続時間等である。
In step S301, the
ステップS303において、設定部112は、接触位置を示す情報に基づいて、接触位置に表示されているオブジェクトが存在するか否か判断し、存在すると判断された場合、ステップS304の処理を実行する。一方、存在すると判断されなかった場合、一連の処理を終了する。尚、接触位置に表示されているオブジェクトが存在すると判断されなかった場合、距離画像センサ160の検知領域となる三次元の領域の全域をジェスチャ認識領域としてもよい。また、接触位置の移動軌跡の形状に基づいて、ジェスチャ認識領域を予測してもよい。
In step S303, the
ステップS304において、設定部112は、接触の検知が所定時間(例えば、1秒間)継続しているか否か判断し、所定時間継続していると判断された場合、ステップS306の処理を実行する。一方、所定時間継続していると判断されなかった場合、ステップS305の処理を実行する。ステップS305において、設定部112は、ステップS301における検知を起点とする接触の検知終了後、所定時間内に再び接触が検知されたか否か判断し、所定時間内に再び接触が検知されたと判断された場合、ステップS307の処理を実行する。一方、所定時間内に再び接触が検知されなかった場合、ステップS308の処理を実行する。尚、ステップS304において、更に、接触位置の移動があるか否かを、接触が継続している状態で接触位置が所定の閾値以上移動したか否かによって判断してもよい。即ち、接触が継続している状態で接触位置(座標点)が所定の閾値以上移動しなかった場合(座標点の移動量が閾値以上でなかった場合)、接触位置の移動はないと判断される。
In step S304, the
ステップS306において、設定部112は、1つの接触位置の座標と、接触位置の移動軌跡の距離、移動方向に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306において、更に、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定してもよい。尚、移動軌跡とは、接触位置が時系列的に移動した際の接触位置の集合をいう。ステップS307において、設定部112は、複数個の接触位置の座標に基づいて、ジェスチャ認識領域を設定する。ステップS308において、設定部112は、1つの接触位置の座標に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306、S307、S308において設定されるジェスチャ認識領域の説明については後述する。
In step S306, the
ステップS309において、認識部114は、取得部113によって取得された距離画像のうち、ステップS306、307、308のいずれかによって設定されたジェスチャ認識領域に対応する部分における空間ジェスチャを認識する。ステップS310において、制御部115は、認識された空間ジェスチャに対応する制御を実行する。尚、認識される空間ジェスチャの種類については後述する。以上が認識された空間ジェスチャに応じた制御を実行する処理の流れである。
In step S309, the
尚、以下に示す変形例も本発明の範疇である。即ち、前述したステップS304、S305に替えて、設定部112は、接触位置の移動軌跡の形状が線の形状(連続的な複数の点)に相当するか、離散的な複数の点の形状に相当するか、1つの点の形状に相当するか判断する。そして、接触位置の移動軌跡の形状が線の形状に相当すると判断された場合、ステップS306の処理を実行する。また、形状が離散的な複数の点に相当すると判断された場合、ステップS307の処理を実行する。また、形状が1つの点に相当すると判断された場合、ステップS308の処理を実行する。尚、接触位置の形状は、例えば、ROM102に予め登録された形状を示す特徴情報と検知された接触位置の移動軌跡(1または複数の座標点)とを比較することによって判断する。
The following modifications are also within the scope of the present invention. That is, instead of the above-described steps S304 and S305, the
次に、図4、5、6を用いて、ステップS308、S307、S306において設定されるジェスチャ認識領域を説明する。図4、5、6の(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図4、5、6の(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。
Next, the gesture recognition area set in steps S308, S307, and S306 will be described with reference to FIGS. FIGS. 4, 5, and 6 (a) are views when a three-dimensional region that is a detection region of the
図4において、入力部140と接触している点は1つであり、接触位置にはオブジェクトが表示されている。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)をジェスチャ認識領域とする。尚、ジェスチャ認識領域の縦、横、高さは、一般的な人の腕の長さを基準に決定してもよく、表示されているオブジェクトのサイズに応じて決定してもよい。
In FIG. 4, there is one point in contact with the
図5において、入力部140と接触している点は3つであり、それぞれの接触位置にはオブジェクトA、B、Cが表示されている。従って、3つの接触位置の上方であって、これら3つの接触位置の全てを含む領域(図5の破線部の領域)をジェスチャ認識領域とする。尚、図5の入力例の3つの点は、短時間に連続して3点が入力された例である。その場合、処理としては、短時間の接触入力データは、1つのデータ群として取り扱う処理を行う。即ち、接触の検知が終了した時点からカウントを行い、短時間で次の入力があればそのまま1つのデータ群として処理し、所定の短時間が経過した場合には、その時点で、接触入力データの入力待ち処理は終了する。
In FIG. 5, there are three points that are in contact with the
図6において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されている。そして、接触位置は移動している。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)を接触位置の移動軌跡の延長上に移動させた領域(図6の破線部の領域)をジェスチャ認識領域とする。
In FIG. 6, there is one point in contact with the
また、ステップS306において、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定する場合、移動速度、加速度が大きくなる程、ジェスチャ認識領域を広く設定してもよい。このようにすることによって、細かいタッチ操作を行った場合、細かい動きを伴う空間ジェスチャを精度良く認識することができ、ダイナミックなタッチ操作を行った場合には、大きな動きを伴う空間ジェスチャを精度良く認識することができる。 In step S306, when the gesture recognition area is set based on the movement speed and acceleration of the movement locus of the contact position, the gesture recognition area may be set wider as the movement speed and acceleration increase. In this way, when a fine touch operation is performed, it is possible to accurately recognize a spatial gesture with a fine movement. When a dynamic touch operation is performed, a spatial gesture with a large movement is accurately detected. Can be recognized.
図7は、ジェスチャ認識領域において認識された種々の空間ジェスチャに対応する制御を示すテーブルの一例である。尚、接触位置にオブジェクトが表示されている場合、接触した点の個数、接触位置の移動の有無に応じても、実行する制御が異なる。また、図7に示すテーブルに相当するデータは、例えば、ROM102に格納されている。
FIG. 7 is an example of a table showing control corresponding to various spatial gestures recognized in the gesture recognition area. When an object is displayed at the contact position, the control to be executed differs depending on the number of touched points and whether or not the contact position has moved. Further, data corresponding to the table shown in FIG. 7 is stored in the
図8は、ステップS303において、接触位置に表示されているオブジェクトが存在すると判断されなかった場合の処理の別の一例を示す図である。図8(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図8(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。
FIG. 8 is a diagram illustrating another example of the process performed when it is not determined in step S303 that the object displayed at the contact position exists. FIG. 8A is a diagram when a three-dimensional region that is a detection region of the
図8において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されていない。そして、接触位置は移動している。そこで、接触位置の移動軌跡の形状に基づく領域として、例えば移動軌跡に外接する矩形(図8の破線部の領域)をジェスチャ認識領域とする。
In FIG. 8, there is one point in contact with the
本実施形態では、1人のユーザによる操作を説明したが、2人以上のユーザが同時に操作する場合も考えられる。例えば、入力部140、表示部150に相当する画面が、50インチや100インチ等の大きさの画面であれば、同時に2人のユーザが入力操作することは可能である。その場合に、画面上の離れた点(例えば1mから2m)で同時に入力が検知されると、複数のユーザが入力しているものとして取り扱ってもよい。即ち、それぞれ、ユーザAによる入力、ユーザBによる入力として、入力毎に上述した一連の処理を実行してもよい。また、画面上の離れた複数点への入力が検知された場合、互いのジェスチャ認識領域が排他的に位置するよう、それぞれの入力位置に応じて離れた領域をジェスチャ認識領域に設定してもよい。
In the present embodiment, the operation by one user has been described, but there may be a case where two or more users operate at the same time. For example, if the screen corresponding to the
(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (12)
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、
前記検知手段は、更に、前記接触位置の移動軌跡の形状を検知し、
前記設定手段は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする情報処理装置。 Detecting means for detecting a contact position on the display surface;
Setting means for setting a region for recognizing a space gesture based on the detected contact position;
The detection means further detects the shape of the movement locus of the contact position,
The information processing apparatus, wherein the setting unit sets a position of an area for recognizing a space gesture at a position predicted from the shape of the movement trajectory.
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、
前記検知手段は、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、
前記設定手段は、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする情報処理装置。 Detecting means for detecting a contact position on the display surface;
Setting means for setting a region for recognizing a space gesture based on the detected contact position;
The detecting means further detects a distance, a moving direction, or a moving speed of the movement locus of the contact position,
The information processing apparatus, wherein the setting unit sets a position of an area for recognizing a space gesture at a position predicted from a distance, a moving direction, or a moving speed of the movement locus.
前記認識手段は、前記取得手段が取得した画像情報のうち、前記設定手段によって設定された領域に相当する部分の情報に基づいて、前記指示物体によって入力される空間ジェスチャを認識することを特徴とする請求項4に記載の情報処理装置。 Having an acquisition means for acquiring image information indicating a distance between a pointing object existing in a predetermined three-dimensional region and a reference surface;
The recognizing unit recognizes a spatial gesture input by the pointing object based on information of a portion corresponding to an area set by the setting unit in the image information acquired by the acquiring unit. The information processing apparatus according to claim 4.
前記表示面に近接する所定の三次元空間のうち、前記検知手段によって検知された接触位置に指示物体が表示されていた場合には、前記実行手段は、前記検知された接触位置の移動の有無と、前記認識手段によって認識された空間ジェスチャとに応じて異なる処理を実行することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。 Furthermore, it has execution means for executing processing corresponding to the spatial gesture recognized by the recognition means,
When the pointing object is displayed at the contact position detected by the detection means in the predetermined three-dimensional space close to the display surface, the execution means determines whether or not the detected contact position has moved. The information processing apparatus according to any one of claims 1 to 6, wherein different processing is executed according to a space gesture recognized by the recognition unit.
表示面上の接触位置を検知する検知工程と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定工程とを有し、
前記検知工程では、更に、前記接触位置の移動軌跡の形状を検知し、
前記設定工程は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする動作方法。 An information processing apparatus operating method for setting a region for recognizing a space gesture,
A detection step of detecting a contact position on the display surface, and a setting step of setting a region for recognizing a space gesture based on the detected contact position;
In the detection step, the shape of the movement locus of the contact position is further detected,
The operation method characterized in that the setting step sets a position of a region for recognizing a space gesture at a position predicted from the shape of the movement locus.
表示面上の接触位置を検知する検知工程と、
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定工程とを有し、
前記検知工程では、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、
前記設定工程では、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする動作方法。 An information processing apparatus operating method for setting a region for recognizing a space gesture,
A detection process for detecting a contact position on the display surface;
A setting step for setting a region for recognizing a space gesture based on the detected contact position;
In the detecting step, the distance, moving direction, or moving speed of the moving locus of the contact position is further detected,
In the setting step, the position of a region for recognizing a space gesture is set at a position predicted from the distance, the moving direction, or the moving speed of the movement locus.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010162774A JP5812582B2 (en) | 2010-07-20 | 2010-07-20 | Information processing apparatus and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010162774A JP5812582B2 (en) | 2010-07-20 | 2010-07-20 | Information processing apparatus and information processing method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2012027532A JP2012027532A (en) | 2012-02-09 |
JP5812582B2 true JP5812582B2 (en) | 2015-11-17 |
Family
ID=45780418
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010162774A Active JP5812582B2 (en) | 2010-07-20 | 2010-07-20 | Information processing apparatus and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5812582B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9323379B2 (en) * | 2011-12-09 | 2016-04-26 | Microchip Technology Germany Gmbh | Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means |
JP6207240B2 (en) * | 2013-06-05 | 2017-10-04 | キヤノン株式会社 | Information processing apparatus and control method thereof |
JP6342874B2 (en) * | 2015-11-24 | 2018-06-13 | 矢崎総業株式会社 | Image recognition device |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000075991A (en) * | 1998-08-28 | 2000-03-14 | Aqueous Research:Kk | Information input device |
JP2001005599A (en) * | 1999-06-22 | 2001-01-12 | Sharp Corp | Information processor and information processing method an d recording medium recording information processing program |
JP2003216955A (en) * | 2002-01-23 | 2003-07-31 | Sharp Corp | Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon |
JP2003330697A (en) * | 2002-05-14 | 2003-11-21 | Takenaka Komuten Co Ltd | Information display device |
JP2009042796A (en) * | 2005-11-25 | 2009-02-26 | Panasonic Corp | Gesture input device and method |
JP2008287142A (en) * | 2007-05-21 | 2008-11-27 | Brother Ind Ltd | Image projector |
US8516397B2 (en) * | 2008-10-27 | 2013-08-20 | Verizon Patent And Licensing Inc. | Proximity interface apparatuses, systems, and methods |
-
2010
- 2010-07-20 JP JP2010162774A patent/JP5812582B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2012027532A (en) | 2012-02-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9069386B2 (en) | Gesture recognition device, method, program, and computer-readable medium upon which program is stored | |
US9092090B2 (en) | Structured light for touch or gesture detection | |
JP6482196B2 (en) | Image processing apparatus, control method therefor, program, and storage medium | |
US9020194B2 (en) | Systems and methods for performing a device action based on a detected gesture | |
US8847978B2 (en) | Information processing apparatus, information processing method, and information processing program | |
CN103488418B (en) | Electronic device and method for judging multi-window touch instruction | |
EP2270630A2 (en) | Gesture recognition method and touch system incorporating the same | |
US20120056837A1 (en) | Motion control touch screen method and apparatus | |
KR20080041809A (en) | Apparatus and method for controlling display in potable terminal | |
EP2365426B1 (en) | Display device and screen display method | |
US9632690B2 (en) | Method for operating user interface and electronic device thereof | |
US9916043B2 (en) | Information processing apparatus for recognizing user operation based on an image | |
US20130328804A1 (en) | Information processing apparatus, method of controlling the same and storage medium | |
KR20100041006A (en) | A user interface controlling method using three dimension multi-touch | |
CN111273838A (en) | Moving method of suspension toolbar in touch display device and touch display device | |
CN102768595B (en) | A kind of method and device identifying touch control operation instruction on touch-screen | |
US20120218308A1 (en) | Electronic apparatus with touch screen and display control method thereof | |
JP2014182638A (en) | Display control unit, display control method and computer program | |
TW201642115A (en) | An icon adjustment method, an icon adjustment system and an electronic device thereof | |
JP2010218286A (en) | Information processor, program, and display method | |
JP5812582B2 (en) | Information processing apparatus and information processing method | |
US9823890B1 (en) | Modifiable bezel for media device | |
JP7559496B2 (en) | Input device, input method, and program | |
JP6366267B2 (en) | Information processing apparatus, information processing method, program, and storage medium | |
US10318047B2 (en) | User interface for electronic device, input processing method, and electronic device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130722 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140107 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20140310 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140819 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141017 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150331 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150507 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20150818 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20150915 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5812582 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |