Nothing Special   »   [go: up one dir, main page]

JP5812582B2 - Information processing apparatus and information processing method - Google Patents

Information processing apparatus and information processing method Download PDF

Info

Publication number
JP5812582B2
JP5812582B2 JP2010162774A JP2010162774A JP5812582B2 JP 5812582 B2 JP5812582 B2 JP 5812582B2 JP 2010162774 A JP2010162774 A JP 2010162774A JP 2010162774 A JP2010162774 A JP 2010162774A JP 5812582 B2 JP5812582 B2 JP 5812582B2
Authority
JP
Japan
Prior art keywords
contact position
setting
recognizing
region
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2010162774A
Other languages
Japanese (ja)
Other versions
JP2012027532A (en
Inventor
新井 常一
常一 新井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2010162774A priority Critical patent/JP5812582B2/en
Publication of JP2012027532A publication Critical patent/JP2012027532A/en
Application granted granted Critical
Publication of JP5812582B2 publication Critical patent/JP5812582B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)

Description

本発明は、空間ジェスチャを認識する領域を設定する技術に関する。   The present invention relates to a technique for setting a region for recognizing a space gesture.

従来、動画像から抽出された人の顔の横幅、縦の長さまたは面積に基づいて、前記動画像の一部を、ジェスチャを認識する領域として設定する技術が知られている(例えば、特許文献1)。また、画面に接触することで、機器を操作するタッチパネルが知られている。   2. Description of the Related Art Conventionally, a technique for setting a part of a moving image as a region for recognizing a gesture based on the width, vertical length, or area of a person's face extracted from the moving image is known (for example, patents). Reference 1). A touch panel for operating a device by touching a screen is also known.

特開2003−216955号公報JP 2003-216955 A

しかしながら、従来技術によると、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することができなかった。従って、本発明は、ユーザの好みに応じた接触位置に基づいて、空間ジェスチャを認識する領域を設定することを目的とする。   However, according to the conventional technology, it is not possible to set an area for recognizing a space gesture based on a contact position according to a user's preference. Therefore, an object of the present invention is to set an area for recognizing a space gesture based on a contact position according to a user's preference.

上記の課題を解決するため、本発明に係る情報処理装置は、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、前記検知手段は、更に、前記接触位置の移動軌跡の形状を検知し、前記設定手段は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定する。また、表示面上の接触位置を検知する検知手段と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、前記検知手段は、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、前記設定手段は、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定する。 In order to solve the above-described problem, an information processing apparatus according to the present invention includes a detection unit that detects a contact position on a display surface, and a setting that sets a region for recognizing a space gesture based on the detected contact position. A position of a region for recognizing a space gesture at a position predicted from the shape of the movement trajectory. Set. In addition, a detection unit that detects a contact position on the display surface, and a setting unit that sets a region for recognizing a space gesture based on the detected contact position, the detection unit further includes the contact The distance, the moving direction, or the moving speed of the movement trajectory of the position is detected, and the setting means sets the position of the region for recognizing the space gesture to the position predicted from the distance, the moving direction, or the moving speed of the moving trajectory. To do.

本発明によれば、ユーザによって表示面への接触に続いて入力される空間ジェスチャを認識する領域を適切に設定することができる。 According to the present invention, it is possible to appropriately set an area for recognizing a spatial gesture input by a user following contact with a display surface .

情報処理装置100のハードウェア構成図と機能ブロック図Hardware configuration diagram and functional block diagram of the information processing apparatus 100 入力部140、距離画像センサ160等を設置した様子を示す図The figure which shows a mode that the input part 140, the distance image sensor 160, etc. were installed. 空間ジェスチャに応じた制御を実行する処理の流れを示すフローチャートThe flowchart which shows the flow of the process which performs control according to space gesture ステップS308において設定されるジェスチャ認識領域を示す図The figure which shows the gesture recognition area | region set in step S308. ステップS307において設定されるジェスチャ認識領域を示す図The figure which shows the gesture recognition area | region set in step S307. ステップS306において設定されるジェスチャ認識領域を示す図The figure which shows the gesture recognition area | region set in step S306. 種々の空間ジェスチャに対応する制御を示す図The figure which shows the control corresponding to various space gestures 接触位置にオブジェクトが存在しない場合のジェスチャ認識領域を示す図The figure which shows a gesture recognition area when an object does not exist in a contact position

(第1の実施形態)
図1(a)は、本発明に係る情報処理装置100のハードウェア構成を示す図である。情報処理装置100は、CPU101、ROM102、RAM103、入力インタフェース(I/F)104、出力I/F105、入力I/F106、出力I/F107、通信I/F108を有する。尚、上記の各部は、システムバス109を介して接続されている。また、情報処理装置100は、入力部140、表示部150、距離画像センサ160、表示部170、ネットワーク180と接続されている。以下、情報処理装置100の各部と情報処理装置100と接続されている各部について説明する。
(First embodiment)
FIG. 1A is a diagram showing a hardware configuration of the information processing apparatus 100 according to the present invention. The information processing apparatus 100 includes a CPU 101, a ROM 102, a RAM 103, an input interface (I / F) 104, an output I / F 105, an input I / F 106, an output I / F 107, and a communication I / F 108. The above-described units are connected via a system bus 109. The information processing apparatus 100 is connected to an input unit 140, a display unit 150, a distance image sensor 160, a display unit 170, and a network 180. Hereinafter, each part of the information processing apparatus 100 and each part connected to the information processing apparatus 100 will be described.

CPU101は、ROM102に格納されたプログラム等をRAM103に展開し、読み出すことで、情報処理装置100の各種動作を実現する。ROM102は、情報処理装置100の各種動作させるプログラム、プログラムの実行に必要なデータ等を格納する。RAM103は、ROM102に格納されたプログラムを展開するワークエリアを提供する。入力I/F104は、入力部140に対するユーザの指示入力(接触位置)を示すデータを取得する。出力I/F105は、表示部150に表示させる画像を示すデータを送信する。入力I/F106は、距離画像センサ160によって生成された距離画像を示すデータを取得する。出力I/F107は、表示部170に表示させる画像を示すデータを送信する。通信I/F108は、ネットワーク180を介して他のコンピュータ等と接続し、種々のデータの送受信を行う。   The CPU 101 implements various operations of the information processing apparatus 100 by expanding and reading a program or the like stored in the ROM 102 in the RAM 103. The ROM 102 stores programs for causing the information processing apparatus 100 to perform various operations, data necessary for executing the programs, and the like. The RAM 103 provides a work area for developing a program stored in the ROM 102. The input I / F 104 acquires data indicating a user's instruction input (contact position) to the input unit 140. The output I / F 105 transmits data indicating an image to be displayed on the display unit 150. The input I / F 106 acquires data indicating the distance image generated by the distance image sensor 160. The output I / F 107 transmits data indicating an image to be displayed on the display unit 170. The communication I / F 108 is connected to another computer or the like via the network 180 and transmits / receives various data.

入力部140は、例えば、表示部150に重畳して設けられたタッチパネル、デジタイザ等であり、表示面上の接触位置の座標を検知する。表示部150は、例えば、液晶ディスプレイ(LCD)であり、画像、文字等を表示出力する。距離画像センサ160は、赤外線等の反射によって、所定の三次元の領域内に存在するオブジェクトと、基準となる面(例えば、距離画像センサが測距する方向に対して垂直な面であって、距離画像センサが存在する面)との距離を示す距離画像を生成する。尚、距離画像とは、所定の三次元の領域内に存在するオブジェクトと、基準となる面との距離を画素値とする画像である。表示部170は、例えば、LCDであり、画像、文字等を表示出力する。尚、表示部150と表示部170とは互いに連携し、マルチディスプレイとして機能してもよい。   The input unit 140 is, for example, a touch panel, a digitizer, or the like provided so as to overlap the display unit 150, and detects the coordinates of the contact position on the display surface. The display unit 150 is, for example, a liquid crystal display (LCD), and displays and outputs images, characters, and the like. The distance image sensor 160 is formed by reflecting an object such as an infrared ray and the like, and a reference surface (for example, a surface perpendicular to the direction in which the distance image sensor measures the distance, A distance image indicating the distance to the surface on which the distance image sensor exists is generated. The distance image is an image having a pixel value as a distance between an object existing in a predetermined three-dimensional area and a reference surface. The display unit 170 is, for example, an LCD, and displays and outputs images, characters, and the like. Note that the display unit 150 and the display unit 170 may cooperate with each other and function as a multi-display.

図1(b)は、情報処理装置100の機能構成を示す図である。情報処理装置100は、検知部111、設定部112、取得部113、認識部114、制御部115を有する。尚、検知部111は、入力I/F104に相当し、取得部113は、入力I/F106に相当する。また、設定部112、認識部114、制御部115は、CPU101が、ROM102に格納された所定のプログラム等をRAM103に展開し、読み出すことで実現される。以下、各部について説明する。   FIG. 1B is a diagram illustrating a functional configuration of the information processing apparatus 100. The information processing apparatus 100 includes a detection unit 111, a setting unit 112, an acquisition unit 113, a recognition unit 114, and a control unit 115. The detection unit 111 corresponds to the input I / F 104, and the acquisition unit 113 corresponds to the input I / F 106. The setting unit 112, the recognition unit 114, and the control unit 115 are realized by the CPU 101 developing and reading a predetermined program or the like stored in the ROM 102 on the RAM 103. Hereinafter, each part will be described.

検知部111は、入力部140上の接触位置の座標を検知する。尚、検知部111は、1点、複数の点、軌跡等の座標を検知する。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから所定の時間内に、他の接触位置の座標が検知される場合である。また、検知部111によって、複数の点の座標が検知される場合とは、例えば、最初の接触位置の座標が検知されてから空間ジェスチャを認識する処理が開始される前に、他の接触位置の座標が検知される場合である。   The detection unit 111 detects the coordinates of the contact position on the input unit 140. The detection unit 111 detects coordinates such as one point, a plurality of points, and a locus. The case where the coordinates of a plurality of points are detected by the detection unit 111 is, for example, the case where the coordinates of other contact positions are detected within a predetermined time after the coordinates of the first contact position are detected. It is. Also, the case where the coordinates of a plurality of points are detected by the detection unit 111 means, for example, that other contact positions are detected before the process of recognizing the space gesture is started after the coordinates of the first contact position are detected. Is detected.

設定部112は、検知部111によって検知された座標に基づいて、空間ジェスチャを認識する領域(ジェスチャ認識領域)を設定する。尚、空間ジェスチャとは、距離画像センサ160の検知領域となる三次元の領域内で、水平方向に横切るように手を移動させる動作、手を交差する動作、鉛直方向に手を移動させる動作、水平方向および鉛直方向に手を移動させる動作等をいう。また、設定部112によって設定されるジェスチャ認識領域は、距離画像センサ160の検知領域となる三次元の領域の一部に相当するものとする。   The setting unit 112 sets an area for recognizing a space gesture (gesture recognition area) based on the coordinates detected by the detection unit 111. The spatial gesture refers to an operation of moving a hand so as to cross the horizontal direction, an operation of crossing the hands, an operation of moving the hands in the vertical direction within a three-dimensional region serving as a detection region of the distance image sensor 160, An operation of moving a hand in the horizontal direction and the vertical direction. In addition, the gesture recognition area set by the setting unit 112 corresponds to a part of a three-dimensional area that is a detection area of the distance image sensor 160.

取得部113は、距離画像センサ160によって生成された距離画像を示すデータを取得する。認識部114は、取得された距離画像からジェスチャ認識領域に相当する部分を特定し、当該部分における空間ジェスチャを認識する。尚、空間ジェスチャは、例えば、入力部140に対する接触が検知された時点から所定の時間内に得られた複数の距離画像の画素値の変化に基づいて認識される。制御部115は、認識部114によって認識された空間ジェスチャに対応する処理を実行し、例えば、表示部150、170に表示させる画像、文字等を変更する。   The acquisition unit 113 acquires data indicating the distance image generated by the distance image sensor 160. The recognition unit 114 identifies a portion corresponding to the gesture recognition area from the acquired distance image, and recognizes a space gesture in the portion. Note that the spatial gesture is recognized based on, for example, changes in pixel values of a plurality of distance images obtained within a predetermined time from when the contact with the input unit 140 is detected. The control unit 115 executes a process corresponding to the space gesture recognized by the recognition unit 114, and changes, for example, images and characters displayed on the display units 150 and 170.

図2は、情報処理装置100、入力部140、表示部150、距離画像センサ160、表示部170を設置した様子を示す図である。情報処理装置100は、他の各部と接続されていればよく、任意の場所に設置可能である。入力部140および表示部150は重畳して設置されており、本実施形態においては、机上に設置されているものとする。距離画像センサ160は、例えば、天井面(入力部140、表示部150の上空)に設置されており、距離画像センサ160の検知領域となる三次元の領域とは、例えば、破線で示された略錐台状の空間(入力部140、表示部150の上部の空間)とする。表示部170は、側面(壁面)に設置されているものとする。   FIG. 2 is a diagram illustrating a state in which the information processing apparatus 100, the input unit 140, the display unit 150, the distance image sensor 160, and the display unit 170 are installed. The information processing apparatus 100 only needs to be connected to other units, and can be installed at an arbitrary place. The input unit 140 and the display unit 150 are installed so as to overlap each other, and in this embodiment, are assumed to be installed on a desk. The distance image sensor 160 is installed on, for example, a ceiling surface (above the input unit 140 and the display unit 150), and the three-dimensional region that is the detection region of the distance image sensor 160 is indicated by a broken line, for example. A substantially frustum-shaped space (a space above the input unit 140 and the display unit 150). The display part 170 shall be installed in the side surface (wall surface).

尚、本実施形態では、水平方向の面をX軸とY軸とによって定義されるXY平面、鉛直方向の軸をZ軸として説明する。また、本実施形態では、入力部140、表示部150の1つの頂点近傍の点であって、入力部140、表示部150と略同じ高さの点を、XYZ空間の原点として説明する。   In this embodiment, a horizontal plane is described as an XY plane defined by an X axis and a Y axis, and a vertical axis is described as a Z axis. Further, in the present embodiment, a point in the vicinity of one vertex of the input unit 140 and the display unit 150, which is substantially the same height as the input unit 140 and the display unit 150, will be described as the origin of the XYZ space.

図3は、認識された空間ジェスチャに応じた制御を実行する処理の流れを示すフローチャートである。   FIG. 3 is a flowchart showing a flow of processing for executing control according to the recognized space gesture.

ステップS301において、検知部111は、入力部140に対する接触が検知されたか否か判断し、接触が検知された場合、ステップS302の処理を実行する。一方、接触が検知されなかった場合、ステップS301の処理を繰り返す。ステップS302において、検知部111は、接触位置を示す情報を取得し、設定部112に当該情報を出力する。尚、接触位置を示す情報とは、例えば、接触位置の座標を示す情報、接触位置の移動軌跡の形状、軌跡の移動方向、軌跡の移動距離を示す情報、接触した点の個数を示す情報、接触位置に表示されているオブジェクトを示す情報、検知された接触の継続時間等である。   In step S301, the detection unit 111 determines whether or not contact with the input unit 140 is detected. When contact is detected, the processing of step S302 is executed. On the other hand, if no contact is detected, the process of step S301 is repeated. In step S <b> 302, the detection unit 111 acquires information indicating the contact position, and outputs the information to the setting unit 112. The information indicating the contact position is, for example, information indicating the coordinates of the contact position, the shape of the movement locus of the contact position, the movement direction of the locus, the information indicating the movement distance of the locus, the information indicating the number of contact points, Information indicating the object displayed at the contact position, the duration of the detected contact, and the like.

ステップS303において、設定部112は、接触位置を示す情報に基づいて、接触位置に表示されているオブジェクトが存在するか否か判断し、存在すると判断された場合、ステップS304の処理を実行する。一方、存在すると判断されなかった場合、一連の処理を終了する。尚、接触位置に表示されているオブジェクトが存在すると判断されなかった場合、距離画像センサ160の検知領域となる三次元の領域の全域をジェスチャ認識領域としてもよい。また、接触位置の移動軌跡の形状に基づいて、ジェスチャ認識領域を予測してもよい。   In step S303, the setting unit 112 determines whether there is an object displayed at the contact position based on the information indicating the contact position. If it is determined that the object is present, the setting unit 112 executes the process of step S304. On the other hand, if it is not determined that it exists, the series of processing ends. If it is not determined that the object displayed at the contact position exists, the entire three-dimensional area that is the detection area of the distance image sensor 160 may be set as the gesture recognition area. The gesture recognition area may be predicted based on the shape of the movement locus of the contact position.

ステップS304において、設定部112は、接触の検知が所定時間(例えば、1秒間)継続しているか否か判断し、所定時間継続していると判断された場合、ステップS306の処理を実行する。一方、所定時間継続していると判断されなかった場合、ステップS305の処理を実行する。ステップS305において、設定部112は、ステップS301における検知を起点とする接触の検知終了後、所定時間内に再び接触が検知されたか否か判断し、所定時間内に再び接触が検知されたと判断された場合、ステップS307の処理を実行する。一方、所定時間内に再び接触が検知されなかった場合、ステップS308の処理を実行する。尚、ステップS304において、更に、接触位置の移動があるか否かを、接触が継続している状態で接触位置が所定の閾値以上移動したか否かによって判断してもよい。即ち、接触が継続している状態で接触位置(座標点)が所定の閾値以上移動しなかった場合(座標点の移動量が閾値以上でなかった場合)、接触位置の移動はないと判断される。   In step S304, the setting unit 112 determines whether or not the detection of contact continues for a predetermined time (for example, 1 second). If it is determined that the detection continues for a predetermined time, the setting unit 112 executes the process of step S306. On the other hand, if it is not determined that the predetermined time has continued, the process of step S305 is executed. In step S305, the setting unit 112 determines whether or not contact is detected again within a predetermined time after the detection of contact starting from the detection in step S301, and it is determined that contact is detected again within the predetermined time. If YES, the process of step S307 is executed. On the other hand, when contact is not detected again within the predetermined time, the process of step S308 is executed. In step S304, whether or not there is a movement of the contact position may be further determined based on whether or not the contact position has moved by a predetermined threshold or more in a state where the contact continues. That is, when the contact position (coordinate point) does not move beyond the predetermined threshold value when the contact is continued (when the movement amount of the coordinate point is not equal to or greater than the threshold value), it is determined that there is no movement of the contact position. The

ステップS306において、設定部112は、1つの接触位置の座標と、接触位置の移動軌跡の距離、移動方向に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306において、更に、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定してもよい。尚、移動軌跡とは、接触位置が時系列的に移動した際の接触位置の集合をいう。ステップS307において、設定部112は、複数個の接触位置の座標に基づいて、ジェスチャ認識領域を設定する。ステップS308において、設定部112は、1つの接触位置の座標に基づいて、ジェスチャ認識領域を設定する。尚、ステップS306、S307、S308において設定されるジェスチャ認識領域の説明については後述する。   In step S306, the setting unit 112 sets a gesture recognition area based on the coordinates of one contact position, the distance of the movement locus of the contact position, and the movement direction. In step S306, a gesture recognition area may be set based on the moving speed and acceleration of the movement locus of the contact position. Note that the movement trajectory means a set of contact positions when the contact positions move in time series. In step S307, the setting unit 112 sets a gesture recognition area based on the coordinates of the plurality of contact positions. In step S308, the setting unit 112 sets a gesture recognition area based on the coordinates of one contact position. The gesture recognition area set in steps S306, S307, and S308 will be described later.

ステップS309において、認識部114は、取得部113によって取得された距離画像のうち、ステップS306、307、308のいずれかによって設定されたジェスチャ認識領域に対応する部分における空間ジェスチャを認識する。ステップS310において、制御部115は、認識された空間ジェスチャに対応する制御を実行する。尚、認識される空間ジェスチャの種類については後述する。以上が認識された空間ジェスチャに応じた制御を実行する処理の流れである。   In step S309, the recognition unit 114 recognizes a spatial gesture in a portion corresponding to the gesture recognition region set in any of steps S306, 307, and 308 in the distance image acquired by the acquisition unit 113. In step S310, the control unit 115 executes control corresponding to the recognized space gesture. Note that the types of recognized spatial gestures will be described later. The above is the flow of processing for executing control according to the recognized space gesture.

尚、以下に示す変形例も本発明の範疇である。即ち、前述したステップS304、S305に替えて、設定部112は、接触位置の移動軌跡の形状が線の形状(連続的な複数の点)に相当するか、離散的な複数の点の形状に相当するか、1つの点の形状に相当するか判断する。そして、接触位置の移動軌跡の形状が線の形状に相当すると判断された場合、ステップS306の処理を実行する。また、形状が離散的な複数の点に相当すると判断された場合、ステップS307の処理を実行する。また、形状が1つの点に相当すると判断された場合、ステップS308の処理を実行する。尚、接触位置の形状は、例えば、ROM102に予め登録された形状を示す特徴情報と検知された接触位置の移動軌跡(1または複数の座標点)とを比較することによって判断する。   The following modifications are also within the scope of the present invention. That is, instead of the above-described steps S304 and S305, the setting unit 112 converts the shape of the movement locus of the contact position to the shape of a line (a plurality of continuous points) or a shape of a plurality of discrete points. It is determined whether it corresponds to the shape of one point. If it is determined that the shape of the movement locus of the contact position corresponds to the shape of a line, the process of step S306 is executed. If it is determined that the shape corresponds to a plurality of discrete points, the process of step S307 is executed. If it is determined that the shape corresponds to one point, the process of step S308 is executed. The shape of the contact position is determined, for example, by comparing the feature information indicating the shape registered in advance in the ROM 102 with the movement locus (one or a plurality of coordinate points) of the detected contact position.

次に、図4、5、6を用いて、ステップS308、S307、S306において設定されるジェスチャ認識領域を説明する。図4、5、6の(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図4、5、6の(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。   Next, the gesture recognition area set in steps S308, S307, and S306 will be described with reference to FIGS. FIGS. 4, 5, and 6 (a) are views when a three-dimensional region that is a detection region of the distance image sensor 160 is viewed vertically downward. 4B, 5B, and 6B are diagrams when a three-dimensional region that is a detection region of the distance image sensor 160 is viewed in the horizontal direction.

図4において、入力部140と接触している点は1つであり、接触位置にはオブジェクトが表示されている。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)をジェスチャ認識領域とする。尚、ジェスチャ認識領域の縦、横、高さは、一般的な人の腕の長さを基準に決定してもよく、表示されているオブジェクトのサイズに応じて決定してもよい。   In FIG. 4, there is one point in contact with the input unit 140, and an object is displayed at the contact position. Therefore, a predetermined area (the area indicated by a broken line in FIG. 4) above the contact position and based on the contact position is set as a gesture recognition area. Note that the vertical, horizontal, and height of the gesture recognition area may be determined based on the length of a general human arm, or may be determined according to the size of the displayed object.

図5において、入力部140と接触している点は3つであり、それぞれの接触位置にはオブジェクトA、B、Cが表示されている。従って、3つの接触位置の上方であって、これら3つの接触位置の全てを含む領域(図5の破線部の領域)をジェスチャ認識領域とする。尚、図5の入力例の3つの点は、短時間に連続して3点が入力された例である。その場合、処理としては、短時間の接触入力データは、1つのデータ群として取り扱う処理を行う。即ち、接触の検知が終了した時点からカウントを行い、短時間で次の入力があればそのまま1つのデータ群として処理し、所定の短時間が経過した場合には、その時点で、接触入力データの入力待ち処理は終了する。   In FIG. 5, there are three points that are in contact with the input unit 140, and objects A, B, and C are displayed at the respective contact positions. Therefore, a region above all three contact positions and including all three contact positions (a region indicated by a broken line in FIG. 5) is set as a gesture recognition region. Note that the three points in the input example of FIG. 5 are examples in which three points are input continuously in a short time. In this case, as processing, short-time contact input data is processed as one data group. That is, counting is performed from the time point when the contact detection is completed, and if there is a next input in a short time, it is processed as one data group as it is, and if a predetermined short time has passed, the contact input data is The input waiting process ends.

図6において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されている。そして、接触位置は移動している。従って、接触位置の上方であって、該接触位置を基準とする所定の領域(図4の破線部の領域)を接触位置の移動軌跡の延長上に移動させた領域(図6の破線部の領域)をジェスチャ認識領域とする。   In FIG. 6, there is one point in contact with the input unit 140, and the object A is displayed at the contact position. And the contact position is moving. Therefore, a region above the contact position and moved from a predetermined region (the region indicated by the broken line in FIG. 4) on the basis of the contact position on the extension of the movement locus of the contact position (the portion indicated by the broken line in FIG. 6). Region) is a gesture recognition region.

また、ステップS306において、接触位置の移動軌跡の移動速度、加速度に基づいて、ジェスチャ認識領域を設定する場合、移動速度、加速度が大きくなる程、ジェスチャ認識領域を広く設定してもよい。このようにすることによって、細かいタッチ操作を行った場合、細かい動きを伴う空間ジェスチャを精度良く認識することができ、ダイナミックなタッチ操作を行った場合には、大きな動きを伴う空間ジェスチャを精度良く認識することができる。   In step S306, when the gesture recognition area is set based on the movement speed and acceleration of the movement locus of the contact position, the gesture recognition area may be set wider as the movement speed and acceleration increase. In this way, when a fine touch operation is performed, it is possible to accurately recognize a spatial gesture with a fine movement. When a dynamic touch operation is performed, a spatial gesture with a large movement is accurately detected. Can be recognized.

図7は、ジェスチャ認識領域において認識された種々の空間ジェスチャに対応する制御を示すテーブルの一例である。尚、接触位置にオブジェクトが表示されている場合、接触した点の個数、接触位置の移動の有無に応じても、実行する制御が異なる。また、図7に示すテーブルに相当するデータは、例えば、ROM102に格納されている。   FIG. 7 is an example of a table showing control corresponding to various spatial gestures recognized in the gesture recognition area. When an object is displayed at the contact position, the control to be executed differs depending on the number of touched points and whether or not the contact position has moved. Further, data corresponding to the table shown in FIG. 7 is stored in the ROM 102, for example.

図8は、ステップS303において、接触位置に表示されているオブジェクトが存在すると判断されなかった場合の処理の別の一例を示す図である。図8(a)は、距離画像センサ160の検知領域となる三次元の領域を鉛直下向きに見たときの図である。また、図8(b)は、距離画像センサ160の検知領域となる三次元の領域を水平方向に見たときの図である。   FIG. 8 is a diagram illustrating another example of the process performed when it is not determined in step S303 that the object displayed at the contact position exists. FIG. 8A is a diagram when a three-dimensional region that is a detection region of the distance image sensor 160 is viewed vertically downward. FIG. 8B is a diagram when a three-dimensional region that is a detection region of the distance image sensor 160 is viewed in the horizontal direction.

図8において、入力部140と接触している点は1つであり、接触位置にはオブジェクトAが表示されていない。そして、接触位置は移動している。そこで、接触位置の移動軌跡の形状に基づく領域として、例えば移動軌跡に外接する矩形(図8の破線部の領域)をジェスチャ認識領域とする。   In FIG. 8, there is one point in contact with the input unit 140, and the object A is not displayed at the contact position. And the contact position is moving. Accordingly, as a region based on the shape of the movement locus of the contact position, for example, a rectangle circumscribing the movement locus (region of a broken line portion in FIG. 8) is set as a gesture recognition region.

本実施形態では、1人のユーザによる操作を説明したが、2人以上のユーザが同時に操作する場合も考えられる。例えば、入力部140、表示部150に相当する画面が、50インチや100インチ等の大きさの画面であれば、同時に2人のユーザが入力操作することは可能である。その場合に、画面上の離れた点(例えば1mから2m)で同時に入力が検知されると、複数のユーザが入力しているものとして取り扱ってもよい。即ち、それぞれ、ユーザAによる入力、ユーザBによる入力として、入力毎に上述した一連の処理を実行してもよい。また、画面上の離れた複数点への入力が検知された場合、互いのジェスチャ認識領域が排他的に位置するよう、それぞれの入力位置に応じて離れた領域をジェスチャ認識領域に設定してもよい。   In the present embodiment, the operation by one user has been described, but there may be a case where two or more users operate at the same time. For example, if the screen corresponding to the input unit 140 and the display unit 150 is a screen having a size of 50 inches or 100 inches, it is possible for two users to perform input operations at the same time. In that case, if inputs are detected simultaneously at distant points on the screen (for example, 1 m to 2 m), they may be handled as input by a plurality of users. That is, as the input by the user A and the input by the user B, the above-described series of processes may be executed for each input. In addition, when input to a plurality of distant points on the screen is detected, a distant region corresponding to each input position may be set as a gesture recognition region so that the gesture recognition regions are located exclusively. Good.

(その他の実施形態)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other embodiments)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (12)

表示面上の接触位置を検知する検知手段と、
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、
前記検知手段は、更に、前記接触位置の移動軌跡の形状を検知し、
前記設定手段は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする情報処理装置。
Detecting means for detecting a contact position on the display surface;
Setting means for setting a region for recognizing a space gesture based on the detected contact position;
The detection means further detects the shape of the movement locus of the contact position,
The information processing apparatus, wherein the setting unit sets a position of an area for recognizing a space gesture at a position predicted from the shape of the movement trajectory.
表示面上の接触位置を検知する検知手段と、
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定手段とを有し、
前記検知手段は、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、
前記設定手段は、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする情報処理装置。
Detecting means for detecting a contact position on the display surface;
Setting means for setting a region for recognizing a space gesture based on the detected contact position;
The detecting means further detects a distance, a moving direction, or a moving speed of the movement locus of the contact position,
The information processing apparatus, wherein the setting unit sets a position of an area for recognizing a space gesture at a position predicted from a distance, a moving direction, or a moving speed of the movement locus.
前記設定手段は、前記表示面において前記検知手段によって検知された前記接触位置にオブジェクトが存在する場合、前記オブジェクトに対して入力される空間ジェスチャを認識する領域を設定することを特徴とする請求項1又は2のいずれか1項に記載の情報処理装置。 The setting means, when an object to have been the contact position detected by said detecting means at said display surface exists, claims and sets the recognized area space gesture is input to the object The information processing apparatus according to any one of 1 and 2. 更に、前記設定手段によって設定された領域内における、指示物体の移動に基づいて、該指示物体によって入力される空間ジェスチャを認識する認識手段を有することを特徴とする請求項1乃至3のいずれか1項に記載の情報処理装置。   4. The apparatus according to claim 1, further comprising a recognizing unit for recognizing a space gesture input by the pointing object based on a movement of the pointing object in an area set by the setting unit. The information processing apparatus according to item 1. 所定の三次元領域内に存在する指示物体と基準となる面との距離を示す画像情報を取得する取得手段を有し、
前記認識手段は、前記取得手段が取得した画像情報のうち、前記設定手段によって設定された領域に相当する部分の情報に基づいて、前記指示物体によって入力される空間ジェスチャを認識することを特徴とする請求項4に記載の情報処理装置。
Having an acquisition means for acquiring image information indicating a distance between a pointing object existing in a predetermined three-dimensional region and a reference surface;
The recognizing unit recognizes a spatial gesture input by the pointing object based on information of a portion corresponding to an area set by the setting unit in the image information acquired by the acquiring unit. The information processing apparatus according to claim 4.
前記認識手段は、前記検知手段によって接触位置が検知された時点から所定時間の間に、前記取得手段によって取得された複数の画像情報に基づいて、前記設定手段によって設定された領域内で前記指示物体によって入力される空間ジェスチャを認識することを特徴とする請求項5に記載の情報処理装置。   The recognizing unit is configured to perform the instruction within a region set by the setting unit based on a plurality of pieces of image information acquired by the acquiring unit during a predetermined time from the time when the contact position is detected by the detecting unit. The information processing apparatus according to claim 5, wherein a spatial gesture input by an object is recognized. 更に、前記認識手段によって認識された空間ジェスチャに対応する処理を実行する実行手段を有し、
前記表示面に近接する所定の三次元空間のうち、前記検知手段によって検知された接触位置に指示物体が表示されていた場合には、前記実行手段は、前記検知された接触位置の移動の有無と、前記認識手段によって認識された空間ジェスチャとに応じて異なる処理を実行することを特徴とする請求項1乃至6のいずれか1項に記載の情報処理装置。
Furthermore, it has execution means for executing processing corresponding to the spatial gesture recognized by the recognition means,
When the pointing object is displayed at the contact position detected by the detection means in the predetermined three-dimensional space close to the display surface, the execution means determines whether or not the detected contact position has moved. The information processing apparatus according to any one of claims 1 to 6, wherein different processing is executed according to a space gesture recognized by the recognition unit.
前記設定手段は、前記検知手段によって、前記表示面上で離れた複数の接触位置が検知された場合には、前記複数の接触位置のそれぞれに基づく位置に、複数の領域を設定することを特徴とする請求項1乃至7のいずれか1項に記載の情報処理装置。   The setting means sets a plurality of regions at positions based on each of the plurality of contact positions when the detection means detects a plurality of contact positions separated on the display surface. The information processing apparatus according to any one of claims 1 to 7. 空間ジェスチャを認識する領域を設定する情報処理装置の動作方法であって、
表示面上の接触位置を検知する検知工程と、検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定工程とを有し、
前記検知工程では、更に、前記接触位置の移動軌跡の形状を検知し、
前記設定工程は、前記移動軌跡の形状から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする動作方法。
An information processing apparatus operating method for setting a region for recognizing a space gesture,
A detection step of detecting a contact position on the display surface, and a setting step of setting a region for recognizing a space gesture based on the detected contact position;
In the detection step, the shape of the movement locus of the contact position is further detected,
The operation method characterized in that the setting step sets a position of a region for recognizing a space gesture at a position predicted from the shape of the movement locus.
請求項9に記載の動作方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the operation method according to claim 9. 空間ジェスチャを認識する領域を設定する情報処理装置の動作方法であって、
表示面上の接触位置を検知する検知工程と、
検知された前記接触位置に基づいて、空間ジェスチャを認識する領域を設定する設定工程とを有し、
前記検知工程では、更に、前記接触位置の移動軌跡の距離、移動方向、または移動速度を検知し、
前記設定工程では、前記移動軌跡の距離、移動方向または移動速度から予測される位置に、空間ジェスチャを認識する領域の位置を設定することを特徴とする動作方法。
An information processing apparatus operating method for setting a region for recognizing a space gesture,
A detection process for detecting a contact position on the display surface;
A setting step for setting a region for recognizing a space gesture based on the detected contact position;
In the detecting step, the distance, moving direction, or moving speed of the moving locus of the contact position is further detected,
In the setting step, the position of a region for recognizing a space gesture is set at a position predicted from the distance, the moving direction, or the moving speed of the movement locus.
請求項11に記載の動作方法をコンピュータに実行させるためのプログラム。   A program for causing a computer to execute the operation method according to claim 11.
JP2010162774A 2010-07-20 2010-07-20 Information processing apparatus and information processing method Active JP5812582B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010162774A JP5812582B2 (en) 2010-07-20 2010-07-20 Information processing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010162774A JP5812582B2 (en) 2010-07-20 2010-07-20 Information processing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2012027532A JP2012027532A (en) 2012-02-09
JP5812582B2 true JP5812582B2 (en) 2015-11-17

Family

ID=45780418

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010162774A Active JP5812582B2 (en) 2010-07-20 2010-07-20 Information processing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP5812582B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9323379B2 (en) * 2011-12-09 2016-04-26 Microchip Technology Germany Gmbh Electronic device with a user interface that has more than two degrees of freedom, the user interface comprising a touch-sensitive surface and contact-free detection means
JP6207240B2 (en) * 2013-06-05 2017-10-04 キヤノン株式会社 Information processing apparatus and control method thereof
JP6342874B2 (en) * 2015-11-24 2018-06-13 矢崎総業株式会社 Image recognition device

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000075991A (en) * 1998-08-28 2000-03-14 Aqueous Research:Kk Information input device
JP2001005599A (en) * 1999-06-22 2001-01-12 Sharp Corp Information processor and information processing method an d recording medium recording information processing program
JP2003216955A (en) * 2002-01-23 2003-07-31 Sharp Corp Method and device for gesture recognition, dialogue device, and recording medium with gesture recognition program recorded thereon
JP2003330697A (en) * 2002-05-14 2003-11-21 Takenaka Komuten Co Ltd Information display device
JP2009042796A (en) * 2005-11-25 2009-02-26 Panasonic Corp Gesture input device and method
JP2008287142A (en) * 2007-05-21 2008-11-27 Brother Ind Ltd Image projector
US8516397B2 (en) * 2008-10-27 2013-08-20 Verizon Patent And Licensing Inc. Proximity interface apparatuses, systems, and methods

Also Published As

Publication number Publication date
JP2012027532A (en) 2012-02-09

Similar Documents

Publication Publication Date Title
US9069386B2 (en) Gesture recognition device, method, program, and computer-readable medium upon which program is stored
US9092090B2 (en) Structured light for touch or gesture detection
JP6482196B2 (en) Image processing apparatus, control method therefor, program, and storage medium
US9020194B2 (en) Systems and methods for performing a device action based on a detected gesture
US8847978B2 (en) Information processing apparatus, information processing method, and information processing program
CN103488418B (en) Electronic device and method for judging multi-window touch instruction
EP2270630A2 (en) Gesture recognition method and touch system incorporating the same
US20120056837A1 (en) Motion control touch screen method and apparatus
KR20080041809A (en) Apparatus and method for controlling display in potable terminal
EP2365426B1 (en) Display device and screen display method
US9632690B2 (en) Method for operating user interface and electronic device thereof
US9916043B2 (en) Information processing apparatus for recognizing user operation based on an image
US20130328804A1 (en) Information processing apparatus, method of controlling the same and storage medium
KR20100041006A (en) A user interface controlling method using three dimension multi-touch
CN111273838A (en) Moving method of suspension toolbar in touch display device and touch display device
CN102768595B (en) A kind of method and device identifying touch control operation instruction on touch-screen
US20120218308A1 (en) Electronic apparatus with touch screen and display control method thereof
JP2014182638A (en) Display control unit, display control method and computer program
TW201642115A (en) An icon adjustment method, an icon adjustment system and an electronic device thereof
JP2010218286A (en) Information processor, program, and display method
JP5812582B2 (en) Information processing apparatus and information processing method
US9823890B1 (en) Modifiable bezel for media device
JP7559496B2 (en) Input device, input method, and program
JP6366267B2 (en) Information processing apparatus, information processing method, program, and storage medium
US10318047B2 (en) User interface for electronic device, input processing method, and electronic device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130722

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140819

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150818

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150915

R151 Written notification of patent or utility model registration

Ref document number: 5812582

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151