Nothing Special   »   [go: up one dir, main page]

JP2011118725A - Information processing equipment, information processing method, and information processing program - Google Patents

Information processing equipment, information processing method, and information processing program Download PDF

Info

Publication number
JP2011118725A
JP2011118725A JP2009276213A JP2009276213A JP2011118725A JP 2011118725 A JP2011118725 A JP 2011118725A JP 2009276213 A JP2009276213 A JP 2009276213A JP 2009276213 A JP2009276213 A JP 2009276213A JP 2011118725 A JP2011118725 A JP 2011118725A
Authority
JP
Japan
Prior art keywords
gesture
information processing
display
guidance
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009276213A
Other languages
Japanese (ja)
Inventor
Kenji Konishi
研司 小西
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2009276213A priority Critical patent/JP2011118725A/en
Publication of JP2011118725A publication Critical patent/JP2011118725A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Position Input By Displaying (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide information processing equipment, an information processing method and an information processing program, which allow a user to input intended gestures easily and to learn about the gestures corresponding to operation contents while using the equipment. <P>SOLUTION: The information processing equipment operable by gestures includes: a gesture object recognition section 211 for recognizing a gesture object imaged by a camera 102; a position determination section 221 for determining whether the recognized gesture object is in a predetermined start position relative to the position of the camera; and a guidance display control section 224 for displaying guidance on a display corresponding to the operation contents when the recognized gesture object is in the predetermined start position relative to an imaged position, the guidance indicating a movement method of the recognized gesture object. The user can input gestures easily, and learn about the gestures while using the information processing equipment, and thus a barrier for starting to use can be lowered. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、ジェスチャにより操作可能な情報処理機器、これを用いた情報処理方法およびこれに実行させるための情報処理プログラムに関する。   The present invention relates to an information processing device that can be operated by a gesture, an information processing method using the same, and an information processing program to be executed by the information processing method.

従来、パソコンや携帯電話機、テレビジョン受像機等の情報処理機器は、液晶ディスプレイ等の表示部と、所定の操作内容や文字を入力するためのキーボード、ボタン、リモコン、マウス、またはタッチパネル等の入力部とによって構成されている。そして、通常は、情報処理機器は、キー操作によって入力された操作内容に応じて所定の処理を実行し、その実行結果を表示部に表示する。   Conventionally, information processing devices such as personal computers, mobile phones, and television receivers have a display unit such as a liquid crystal display and inputs such as a keyboard, buttons, remote control, mouse, or touch panel for inputting predetermined operation contents and characters. Part. In general, the information processing device executes a predetermined process according to the operation content input by the key operation, and displays the execution result on the display unit.

近年では、キーボード、マウスまたはタッチパネルの他にも、外部接続されたカメラでユーザを画像認識し、そのユーザの動きに応じて操作内容を自動的に入力する機器が提案されている。人の手の一連の動きは特定の意味を有する場合がある。たとえば、手を左右に動かす動作は「さようなら」を意味し、手を広げて奥から手前に動かす動作は「こちらに来てほしい」を意味する。また、手の動きだけでなく、その他の体の動きにも同様に特定の意味を持たせることができる。このような体の一部による一連の特定の動き(以下、ジェスチャと呼ぶ。)の画像認識で、これに対応する特定の情報を入力(以下、ジェスチャ入力と呼ぶ。)することができる。   In recent years, in addition to a keyboard, a mouse, and a touch panel, a device that recognizes an image of a user with an externally connected camera and automatically inputs operation contents in accordance with the movement of the user has been proposed. A series of movements of a person's hand can have a specific meaning. For example, moving the hand to the left and right means “goodbye” and moving the hand to move from the back to the front means “I want you to come here”. Further, not only hand movements but also other body movements can have specific meanings as well. With such image recognition of a series of specific movements (hereinafter referred to as gestures) by a part of the body, specific information corresponding thereto can be input (hereinafter referred to as gesture input).

このような機器を用いる場合には、ユーザは、取扱説明書等を参照して操作内容に対応するジェスチャを覚える必要がある。ユーザは、各ジェスチャを覚えて自身が入力したい操作内容を機器に認識させる。ユーザは正しくジェスチャを行ったつもりでも、意図した通りに機器に入力されなかったり、実際に機器に認識された動作がわからなかったりすることがある。これに対して、認識対象の動作が認識されるまでの認識過程をユーザに対してフィードバックして学習させる方法が提案されている(たとえば、特許文献1参照)。   When such a device is used, the user needs to learn a gesture corresponding to the operation content with reference to an instruction manual or the like. The user remembers each gesture and makes the device recognize the operation content that the user wants to input. Even if the user intends to perform the gesture correctly, the user may not input the device as intended, or may not know the action actually recognized by the device. On the other hand, a method has been proposed in which the user is fed back to the learning process until the recognition target motion is recognized (see, for example, Patent Document 1).

特開2001−306049号公報JP 2001-306049 A

しかしながら、特許文献1記載の機器は、手の動きの軌跡を表すビジュアルフィードバック画面を生成するが、操作の説明は画面に表れておらずユーザは取扱説明書等を参照してジェスチャを覚えなくてはならない。一方、特許文献1記載の機器ジェスチャを間違えて入力した際にはユーザは間違えたことを自覚できない。そして、ユーザにとってそのような機器は、使用開始の障壁が高い。また、ユーザへの学習効果を高められていないため、使いやすい機器を提供できない。   However, although the device described in Patent Document 1 generates a visual feedback screen representing the locus of hand movement, the explanation of the operation does not appear on the screen, and the user does not remember the gesture by referring to the instruction manual or the like. Must not. On the other hand, when the device gesture described in Patent Document 1 is input by mistake, the user cannot realize that the user has made a mistake. And such a device has a high barrier for a user to start using. Moreover, since the learning effect for the user is not enhanced, an easy-to-use device cannot be provided.

本発明は、このような事情に鑑みてなされたものであり、意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習できる情報処理機器、情報処理方法および情報処理プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and an information processing device, an information processing method, and an information processing that can easily input an intended gesture and can learn a gesture corresponding to the operation content while using the device. The purpose is to provide a program.

(1)上記の目的を達成するため、本発明の情報処理機器は、ジェスチャにより操作可能な情報処理機器であって、カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴としている。   (1) In order to achieve the above object, an information processing device according to the present invention is an information processing device that can be operated by a gesture, the gesture target recognition unit recognizing a gesture target photographed by a camera, and the recognition target. A position determination unit that determines whether or not the gesture target is at a predetermined start position with respect to the camera position, and a start position that is determined with respect to the recognized gesture target with respect to the camera position. A guidance display control unit that displays a guidance for instructing a movement method of the recognized gesture object on a display in correspondence with the operation content.

このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。   By displaying the guidance in this way, the user can easily input the intended gesture, can learn the gesture corresponding to the operation content while using the information processing device, and can reduce the barrier to starting use.

(2)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が前記カメラにより撮影されたジェスチャ対象を認識した際に、前記ディスプレイにジェスチャ対象を認識していることを表示させることを特徴としている。これにより、ユーザはジェスチャ対象が認識されたことを知ることができ、ジェスチャを伝えやすくする。   (2) In the information processing apparatus of the present invention, the guidance display control unit recognizes the gesture target on the display when the gesture target recognition unit recognizes the gesture target photographed by the camera. It is characterized by displaying. Accordingly, the user can know that the gesture target has been recognized, and can easily convey the gesture.

(3)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が、前記カメラにより撮影されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあることを認識した際に、前記カメラにより撮影されたジェスチャ対象が前記開始位置にあることを前記ディスプレイに表示させることを特徴としている。これにより、ユーザはジェスチャ対象が開始位置にあることを知ることができ、ジェスチャを伝えやすくする。   (3) Further, in the information processing apparatus according to the present invention, the guidance display control unit, the gesture target recognition unit, and the gesture target photographed by the camera are set at a predetermined start position with respect to the position of the camera. When it is recognized that there is a gesture, the fact that the gesture object photographed by the camera is at the start position is displayed on the display. Thereby, the user can know that the gesture target is at the start position, and can easily convey the gesture.

(4)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ガイダンスとして、前記ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示することを特徴としている。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。   (4) Moreover, the information processing apparatus of this invention is characterized by the said guidance display control part displaying the instruction | indication which matched the movement direction of the said gesture object, and the operation content as said guidance. Thereby, the user can easily know the moving direction of the gesture target for realizing the desired operation.

(5)また、本発明の情報処理機器は、前記認識されたジェスチャ対象の映像を鏡像化処理する鏡像化処理部と、前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴としている。このようにジェスチャ対象を鏡像化して表示することで、ディスプレイに対向してジェスチャを行うユーザに違和感を与えないようにすることができる。   (5) Further, the information processing apparatus according to the present invention includes a mirroring processing unit that performs a mirroring process on the recognized video image of the gesture target, and a gesture display control unit that displays the gesture target subjected to the mirroring process on the display. And further comprising. Thus, by displaying the gesture object as a mirror image, it is possible to prevent the user who performs the gesture while facing the display from feeling uncomfortable.

(6)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーを前記ディスプレイの前記予め定められた開始位置に対応する表示位置に表示させることを特徴としている。このような捕捉マーカーの表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。   (6) Further, in the information processing device of the present invention, the guidance display control unit displays a capture marker indicating that the photographed gesture target has been recognized, corresponding to the predetermined start position of the display. It is characterized by being displayed at a position. The display of such a captured marker allows the user to know the start position of the gesture and learn the correspondence between the gesture from there and the operation content.

(7)また、本発明の情報処理機器は、前記認識されたジェスチャ対象が移動した場合に、その移動が前記ガイダンスの指示するいずれの経路に合致するかを判定する移動判定部を更に備え、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴としている。   (7) Further, the information processing apparatus of the present invention further includes a movement determination unit that determines which path the movement indicates matches with the guidance when the recognized gesture target moves, The guidance display control unit is characterized in that, when the recognized movement of the gesture target matches any one of the routes indicated by the guidance, a message indicating the match is displayed on the display.

このように、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイに表示させる。たとえば、実際にジェスチャを行ったときにジェスチャ対象の軌跡を描画し所定操作との合致を示すことで、機器側のジェスチャの受け取り状況を確認しつつ操作内容の入力を完遂でき、ユーザが抱くジェスチャ入力への不安を解消できる。   In this way, when the recognized movement of the gesture target matches any of the routes instructed by the guidance, the fact of the match is displayed on the display. For example, when a gesture is actually performed, the gesture target trajectory is drawn to show a match with a predetermined operation, so that the input of the operation content can be completed while checking the reception status of the gesture on the device side. Can eliminate anxiety about input.

(8)また、本発明の情報処理機器は、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨を前記ディスプレイに表示させることを特徴としている。これにより、間違った操作内容を入力したときに、実際に認識された動作を明確にでき、ユーザに結果をフィードバックできる。たとえば、ジェスチャに相当する操作内容がないという不合致表示を表示できる。ジェスチャを始めるための手の位置は正しかったが、その後の手の動かし方が悪かったために操作内容の実行まで至らなかったことを、ユーザは理解でき、ジェスチャ入力のための学習が進む。   (8) In the information processing device of the present invention, the guidance display control unit may indicate a mismatch when the recognized movement of the gesture target does not match any of the routes indicated by the guidance. It is characterized by being displayed on the display. Thereby, when an incorrect operation content is input, the actually recognized operation can be clarified, and the result can be fed back to the user. For example, a mismatch display that there is no operation content corresponding to a gesture can be displayed. Although the position of the hand for starting the gesture was correct, the user can understand that the operation contents have not been executed because the subsequent movement of the hand was bad, and learning for gesture input proceeds.

(9)また、本発明の情報処理方法は、ジェスチャにより操作可能な情報処理機器を用いて行う情報処理方法であって、カメラにより撮影されたジェスチャ対象を認識するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴としている。   (9) An information processing method according to the present invention is an information processing method performed using an information processing device operable by a gesture, the step of recognizing a gesture object photographed by a camera, and the recognized gesture. Determining whether the target is at a predetermined start position relative to the camera position, and when the recognized gesture target is at a predetermined start position relative to the camera position And a step of displaying on the display a guidance instructing a method of moving the recognized gesture object in correspondence with the operation content.

このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習でき、使用開始の障壁を低くできる。   By displaying the guidance in this way, the user can easily input an intended gesture, can learn a gesture corresponding to the operation content while using the device, and can lower the barrier for starting use.

(10)また、本発明の情報処理プログラムは、ジェスチャにより操作可能な情報処理機器に実行させる情報処理プログラムであって、カメラにより撮影されたジェスチャ対象を認識する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴としている。   (10) An information processing program according to the present invention is an information processing program executed by an information processing device operable by a gesture, the process for recognizing a gesture object photographed by a camera, and the recognized gesture object Is determined at a predetermined start position with respect to the camera position, and when the recognized gesture target is at a predetermined start position with respect to the camera position, And a process for displaying a guidance for instructing a movement method of the recognized gesture target on a display in correspondence with the operation content.

このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。   By displaying the guidance in this way, the user can easily input the intended gesture, can learn the gesture corresponding to the operation content while using the information processing device, and can reduce the barrier to starting use.

本発明によれば、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。   According to the present invention, a user can easily input an intended gesture, can learn a gesture corresponding to an operation content while using an information processing device, and can reduce a barrier to start of use.

実施形態1に係る情報処理機器を示す正面図である。1 is a front view illustrating an information processing device according to a first embodiment. 実施形態1に係る情報処理機器のハード構成を示すブロック図である。2 is a block diagram illustrating a hardware configuration of the information processing apparatus according to the first embodiment. FIG. 実施形態1に係る情報処理機器の機能的構成を示すブロック図である。2 is a block diagram illustrating a functional configuration of the information processing apparatus according to the first embodiment. FIG. 実施形態1の操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。It is a figure which shows the table which matched the operation content, guidance, and gesture determination criteria of Embodiment 1. FIG. 実施形態1に係る情報処理機器の入力動作を示すフローチャートである。3 is a flowchart illustrating an input operation of the information processing apparatus according to the first embodiment. 実施形態1に係る情報処理機器の入力動作を示すフローチャートである。3 is a flowchart illustrating an input operation of the information processing apparatus according to the first embodiment. 実施形態1の捕捉マーカーおよびガイダンスの表示例を示す図である。It is a figure which shows the example of a display of the capture marker and guidance of Embodiment 1. FIG. 実施形態1に係る情報処理機器の表示動作を示すフローチャートである。3 is a flowchart showing a display operation of the information processing apparatus according to the first embodiment. 実施形態1に係る情報処理機器の表示動作を示すフローチャートである。3 is a flowchart showing a display operation of the information processing apparatus according to the first embodiment. 実施形態1に係る情報処理機器の使用場面の一例を示す図である。It is a figure which shows an example of the usage scene of the information processing apparatus which concerns on Embodiment 1. FIG. 実施形態2に係る情報処理機器を示す正面図である。FIG. 6 is a front view showing an information processing device according to a second embodiment. 実施形態2の操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。It is a figure which shows the table which matched the operation content, guidance, and gesture determination criteria of Embodiment 2. 実施形態2に係る情報処理機器の使用場面の一例を示す図である。It is a figure which shows an example of the usage scene of the information processing apparatus which concerns on Embodiment 2. FIG.

次に、本発明の実施の形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。   Next, embodiments of the present invention will be described with reference to the drawings. In order to facilitate understanding of the description, the same reference numerals are given to the same components in the respective drawings, and duplicate descriptions are omitted.

[第1の実施形態]
(テレビジョン受像機の外観)
図1は、テレビジョン受像機100(情報処理機器)を示す正面図である。以下の例では、情報処理装置の一例としてテレビジョン受像機100を説明しているが、本発明の情報処理装置は必ずしもこれに限定されない。テレビジョン受像機100は、ディスプレイ101、カメラ102を備えている。ディスプレイ101は、液晶、プラズマ、ブラウン管、有機EL等の手段により受信映像やユーザへの視覚情報を表示する。カメラ102は、デジタルデータに変換できる素子で構成されており、ユーザのジェスチャを撮影する。CMOS、CCD等一般的な撮像素子を用いて構成されていればよい。また、カメラ102は、認識精度を上げるため、距離センサ、深度センサ等を備えていてもよい。カメラ102は、ユーザの方向を向いた状態で配置されることが好ましく、たとえばディスプレイ101の表示面と同じ方向に向いて配置される。
[First Embodiment]
(Appearance of television receiver)
FIG. 1 is a front view showing a television receiver 100 (information processing device). In the following example, the television receiver 100 is described as an example of the information processing apparatus, but the information processing apparatus of the present invention is not necessarily limited thereto. The television receiver 100 includes a display 101 and a camera 102. The display 101 displays received video and visual information for the user by means of liquid crystal, plasma, cathode ray tube, organic EL, or the like. The camera 102 is composed of elements that can be converted into digital data, and photographs a user's gesture. What is necessary is just to comprise using common image sensors, such as CMOS and CCD. Further, the camera 102 may include a distance sensor, a depth sensor, and the like in order to increase recognition accuracy. The camera 102 is preferably arranged in a state facing the direction of the user. For example, the camera 102 is arranged in the same direction as the display surface of the display 101.

(ハード構成)
図2Aは、テレビジョン受像機100のハード構成を示すブロック図である。図2Aに示すように、テレビジョン受像機100は、ディスプレイ101、カメラ102、テレビ機能処理部103、カメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109を備えている。必要な要素を中心に説明し、一般の機能説明は省略する。テレビ機能処理部103は、テレビ放送を受信するチューナや受信データに含まれる動画像のデコード、音声のデコード等を行い、結果をメモリ106に書き込む。
(Hardware configuration)
FIG. 2A is a block diagram illustrating a hardware configuration of the television receiver 100. As illustrated in FIG. 2A, the television receiver 100 includes a display 101, a camera 102, a television function processing unit 103, a camera IF 104, a calculation unit 105, a memory 106, a storage unit 107, a graphic processing unit 108, and a control unit 109. ing. The description will focus on the necessary elements, and a general functional description will be omitted. The TV function processing unit 103 performs a decoding of a moving image included in a tuner or reception data that receives a television broadcast, a sound, and the like, and writes the result in the memory 106.

カメラIF104は、カメラ102で撮影されたデータを演算部105等が利用できるデータ形式に変換し、メモリ106に書き込む。演算部105は、カメラ102で撮影された映像からジェスチャの対象(たとえば手や目)等を認識し、ジェスチャをコマンドへと変換する処理等を行う。メモリ106は、演算部105が処理する際に一時的にデータを格納する。記憶部107は、メモリ106ほど頻繁に書き換える必要のないデータを格納する。たとえば、コマンドとそれに対応するジェスチャの仕様リスト(後述)を記憶しておく。   The camera IF 104 converts data photographed by the camera 102 into a data format that can be used by the arithmetic unit 105 and the like, and writes the data in the memory 106. The arithmetic unit 105 recognizes a gesture target (for example, a hand or an eye) from a video photographed by the camera 102, and performs processing for converting the gesture into a command. The memory 106 temporarily stores data when the calculation unit 105 performs processing. The storage unit 107 stores data that does not need to be rewritten as frequently as the memory 106. For example, a specification list (to be described later) of commands and corresponding gestures is stored.

グラフィック処理部108は、テレビ機能処理部103、演算部105等が処理しメモリ106に書き込んだ表示データをディスプレイ101へ表示するためのデータ変換処理を行う。また、複数の画像の重畳処理や鏡像化処理を行う。制御部109は、機器全体を制御する。   The graphic processing unit 108 performs data conversion processing for displaying the display data processed by the television function processing unit 103, the calculation unit 105, and the like and written in the memory 106 on the display 101. Also, a plurality of images are superimposed and mirrored. The control unit 109 controls the entire device.

(機能的構成)
図2Bは、テレビジョン受像機100の機能的構成を示すブロック図である。上記のカメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109は、機能的構成としては、ジェスチャ対象認識部211、形状判定部212、鏡像化処理部213、ジェスチャ表示制御部214、位置判定部221、移動判定部222、操作実行部223およびガイダンス表示制御部224に対応する。各部について説明する。
(Functional configuration)
FIG. 2B is a block diagram showing a functional configuration of the television receiver 100. The camera IF 104, the arithmetic unit 105, the memory 106, the storage unit 107, the graphic processing unit 108, and the control unit 109 are functionally configured as a gesture target recognition unit 211, a shape determination unit 212, a mirror image processing unit 213, a gesture. This corresponds to the display control unit 214, the position determination unit 221, the movement determination unit 222, the operation execution unit 223, and the guidance display control unit 224. Each part will be described.

ジェスチャ対象認識部211は、カメラで撮影した画像からジェスチャ対象を認識する。ジェスチャ対象とは、ジェスチャを行う物体であり、手、目などの体の一部が該当することが多いがこれらに限られるものではなく、ペンを持った手なども該当しうる。なお、ジェスチャ対象の認識手法には輪郭抽出、背景分離、パターンマッチング等があるが、これらに限定されない。形状判定部212は、ジェスチャ対象の形状を判定する。形状判定することで、映像上で外形を切り出すことが容易になる。形状判定部212で判定された形状をジェスチャ認識の一要素として使用してもよい。具体的には、ジェスチャ対象認識部211が、拡げた手と閉じた手とをそれぞれ異なるジェスチャとして認識する。その場合には、同じ位置、経路であっても、手の形が拡げているのと閉じているのではジェスチャが異なるという基準がとられる。   The gesture target recognition unit 211 recognizes a gesture target from an image captured by a camera. A gesture target is an object that performs a gesture, and often includes a part of a body such as a hand or an eye, but is not limited thereto, and may also include a hand holding a pen. Note that gesture object recognition methods include, but are not limited to, contour extraction, background separation, and pattern matching. The shape determination unit 212 determines the shape of the gesture target. By determining the shape, it becomes easy to cut out the outer shape on the video. The shape determined by the shape determination unit 212 may be used as one element of gesture recognition. Specifically, the gesture target recognition unit 211 recognizes an extended hand and a closed hand as different gestures. In that case, even if it is the same position and route, the criterion is that the gesture is different when the hand shape is expanded and when it is closed.

鏡像化処理部213は、形状判定されたジェスチャ対象の映像について外形を切り出し、ジェスチャ対象の映像を鏡像化処理する。ジェスチャ表示制御部214は、鏡像化処理されたジェスチャ対象をディスプレイ101に表示させる。位置判定部221は、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にあるか否かを判定する。認識されたジェスチャ対象が予め定められた終了位置にあるか否かについても同様に判定する。   The mirroring processing unit 213 cuts out the outer shape of the gesture target video whose shape has been determined, and performs a mirroring process on the gesture target video. The gesture display control unit 214 causes the display 101 to display the gesture target subjected to the mirroring process. The position determination unit 221 determines whether or not the recognized gesture target is at a predetermined start position with respect to the camera position. It is similarly determined whether or not the recognized gesture target is at a predetermined end position.

移動判定部222は、ジェスチャ対象の移動がいずれの経路かを判定する。認識されたジェスチャ対象が移動した場合に、その移動がガイダンスの指示するいずれの経路に合致するかを判定する。操作実行部223は、有効になった操作内容を実行する。   The movement determination unit 222 determines which route is the movement of the gesture target. When the recognized gesture target moves, it is determined which route the movement matches is instructed by the guidance. The operation execution unit 223 executes the validated operation content.

ガイダンス表示制御部224は、選択可能な操作の内容とジェスチャ対象の移動方向とを対応させたガイダンスを表示する。たとえば、ガイダンス表示制御部224は、撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーをディスプレイ101の予め定められた開始位置に対応する表示位置に表示させる。また、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にある場合に、認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイ101に表示させる。ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示する。   The guidance display control unit 224 displays guidance that associates the contents of selectable operations with the movement direction of the gesture target. For example, the guidance display control unit 224 displays a capture marker indicating that the photographed gesture target has been recognized at a display position corresponding to a predetermined start position of the display 101. In addition, when the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance for instructing how to move the recognized gesture target is displayed on the display 101 in correspondence with the operation content. . An instruction that associates the movement direction of the gesture target with the operation content is displayed.

ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイ101に表示させる。ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨をディスプレイ101に表示させる。   The guidance display control unit 224 causes the display 101 to display a match when the recognized movement of the gesture target matches any of the routes indicated by the guidance. When the recognized movement of the gesture target does not match any of the routes instructed by the guidance, the guidance display control unit 224 causes the display 101 to display a mismatch.

(ジェスチャリスト)
図3は、コマンド(操作内容)、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図3に示すテーブルは、各No.のコマンドの内容を表している。このようにコマンドとジェスチャと認識されるためにユーザがとる必要のある行動を対照させたテーブルをジェスチャリストと呼ぶ。通常、テーブルの情報は、メモリ106もしくは記憶部107に格納される。
(Gesture list)
FIG. 3 is a diagram illustrating a table in which commands (operation contents), guidance, and gesture determination criteria are associated with each other. The table shown in FIG. 3 represents the contents of each No. command. A table in which actions that the user needs to take in order to be recognized as a command and a gesture is referred to as a gesture list. Normally, table information is stored in the memory 106 or the storage unit 107.

コマンド301は、実際に機器を制御する指令であり、制御部109で解釈され、機器各部が制御される。ガイダンス302は、ディスプレイ101に表示されるガイダンスの一部を示す文字情報表示である。ジェスチャ対象303は、手や目等の具体的なジェスチャ対象である。図3に示す例では、ジェスチャ対象303が手であり、コマンドを入力するジェスチャは手で行われる。手の他に指、目、足等の部分のほか、体全体等がジェスチャ対象となりうる。   A command 301 is a command for actually controlling a device, and is interpreted by the control unit 109 to control each unit of the device. The guidance 302 is character information display that indicates a part of the guidance displayed on the display 101. The gesture target 303 is a specific gesture target such as a hand or an eye. In the example illustrated in FIG. 3, the gesture target 303 is a hand, and a gesture for inputting a command is performed by hand. In addition to the hand, in addition to fingers, eyes, feet, etc., the entire body can be a gesture target.

開始位置304は、ジェスチャ前に、ジェスチャ対象が認識される範囲を示す。開始位置304に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が開始位置にあると認識されうる位置である。たとえば、No.0001のコマンドについては、カメラによる撮影範囲内で手が中央付近に映ればジェスチャの開始が認識される。   The start position 304 indicates a range in which the gesture target is recognized before the gesture. The outer square shown at the start position 304 is the shooting range of the camera, and the inner square (with diagonal lines) is a position where the gesture target 303 can be recognized as being at the start position. For example, for the command No. 0001, the start of the gesture is recognized if the hand is reflected near the center within the shooting range of the camera.

経路305は、ジェスチャと認識されるために、ジェスチャ対象がとるべき経路である。No.0001のコマンドについては、ジェスチャ対象が撮影範囲内において、中央から下方に移動することでジェスチャが認識される。終了位置306に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が終了位置にあると認識されうる位置を示す。   The path 305 is a path that the gesture target should take in order to be recognized as a gesture. Regarding the command No. 0001, the gesture is recognized by moving the gesture target downward from the center within the photographing range. The outer square shown at the end position 306 is the shooting range of the camera, and the inner square (with diagonal lines) indicates the position where the gesture object 303 can be recognized as being at the end position.

したがって、No.0001のコマンドについては、ジェスチャ対象が撮影範囲の中央下方に映るとジェスチャ終了と認識される。ユーザは停止コマンド(No.0001)をテレビジョン受像機100に伝えたい場合は、ジェスチャ対象である手を、カメラ撮影範囲の中央付近に映るように差し出し、ジェスチャ認識が開始されてから、その手を下方向へ動かす必要がある。このことが図3に示すNo.0001の開始位置304、経路305、終了位置306により表わされている。   Therefore, regarding the command No. 0001, when the gesture target is reflected in the lower center of the shooting range, it is recognized that the gesture has ended. When the user wants to transmit a stop command (No. 0001) to the television receiver 100, the user inserts his / her gesture target hand so that it appears in the vicinity of the center of the camera shooting range, and after the gesture recognition is started, Must be moved downward. This is represented by the start position 304, path 305, and end position 306 of No. 0001 shown in FIG.

(入力動作)
図4A、図4Bは、テレビジョン受像機100の入力動作を示すフローチャートである。図4A、図4Bを用いて、ジェスチャを認識してからユーザに使用方法の学習を促すまでの内部処理を説明する。
(Input operation)
4A and 4B are flowcharts showing the input operation of the television receiver 100. FIG. 4A and 4B, internal processing from when a gesture is recognized until the user is prompted to learn how to use will be described.

まず、テレビジョン受像機100の電源投入、またはアプリケーションソフト起動等により処理を開始する。この時点ではジェスチャ対象が見つかっていない。次に、カメラの撮影映像からジェスチャ対象を探し(ステップS1)、ジェスチャ対象を認識しているか否かを判断する(ステップS2)。認識していなければステップS1に戻り、ジェスチャ対象を探す。認識していれば、カメラ102で撮影されて格納されているジェスチャ対象の映像をディスプレイ101へ表示するように指示する(ステップS3)。次に、ジェスチャ対象が、ジェスチャリストの開始位置に存在するか否かを判定する(ステップS4)。ジェスチャ対象が開始位置に存在しない場合はステップS1へと戻る。存在する場合は、ジェスチャ対象を捕捉していると判断し、捕捉マーカーとガイダンスの表示を指示する(ステップS5)。捕捉とは、ジェスチャ対象を認識し続けている状況を指す。   First, processing is started by turning on the television receiver 100 or starting application software. At this point, no gesture target has been found. Next, a gesture target is searched from the video captured by the camera (step S1), and it is determined whether or not the gesture target is recognized (step S2). If not recognized, the process returns to step S1 to search for a gesture target. If it is recognized, an instruction is given to display on the display 101 the gesture target image captured and stored by the camera 102 (step S3). Next, it is determined whether or not the gesture target exists at the start position of the gesture list (step S4). If the gesture target does not exist at the start position, the process returns to step S1. If it exists, it is determined that the gesture target has been captured, and the display of the capture marker and guidance is instructed (step S5). Capturing refers to a situation where the gesture object is continuously recognized.

次に、ジェスチャ対象が動いたか否かを判定する(ステップS6)。動いていなければ、動くまで待機する。動いたときには、ユーザへのガイダンスの必要がなくなったと判断し、ガイダンス消去を指示し、ガイダンスを消去する(ステップS7)。そして、ジェスチャ対象を捕捉しているかを判定する(ステップS8)。捕捉していなければステップS1へ戻る。   Next, it is determined whether or not the gesture target has moved (step S6). If it is not moving, wait until it moves. When the user has moved, it is determined that the user no longer needs the guidance, the guidance erasure is instructed, and the guidance is erased (step S7). Then, it is determined whether the gesture target is captured (step S8). If not captured, the process returns to step S1.

一方、ジェスチャ対象を捕捉しているときには、ジェスチャ対象の軌跡が、ジェスチャ対象の開始位置に基づいて取られうるジェスチャリストの経路305のいずれかと一致するか否かを判定する。一致していなければ、ジェスチャがリストにない旨を表示し(ステップS10)、ステップS1に戻る。一致していれば、ジェスチャ対象の移動の軌跡を表示するよう指示する。この軌跡を表示することでユーザは、ガイダンスに示された内容と、自分のジェスチャの動きとが一致していることが分かる。   On the other hand, when the gesture target is captured, it is determined whether or not the gesture target trajectory matches any of the gesture list paths 305 that can be taken based on the start position of the gesture target. If they do not match, it is displayed that the gesture is not in the list (step S10), and the process returns to step S1. If they match, an instruction is given to display the locus of movement of the gesture target. By displaying this trajectory, the user can understand that the content shown in the guidance matches the movement of his / her gesture.

次に、ジェスチャ対象が取られた経路305により決まる終了位置306か否かを判定する(ステップS12)。終了位置306ではないと判定されれば、ステップS9に戻る。終了位置306であると判定されれば、ジェスチャ完了として、ジェスチャに対応したコマンドを発行し、コマンドに相当する制御を行い、処理を完了する。   Next, it is determined whether or not the end position 306 is determined by the path 305 where the gesture target is taken (step S12). If it is determined that the end position 306 is not reached, the process returns to step S9. If it is determined that the position is the end position 306, the gesture is completed, a command corresponding to the gesture is issued, control corresponding to the command is performed, and the process is completed.

(ガイダンス表示)
捕捉マーカーおよびガイダンスについて説明する。図5は、捕捉マーカーおよびガイダンスの表示例500を示す図である。捕捉マーカー501は、ジェスチャ対象が開始位置にあることをユーザに教える印である。このような捕捉マーカー501の表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。ガイダンスは、ジェスチャ対象が開始位置にあると認識されているときに表示されるものであって、その開始位置から、認識可能なジェスチャおよび発行可能なコマンドの一覧である。すなわち、ジェスチャ対象をどのように動かせば各コマンドと認識されるかを、ユーザに教えるための案内である。
(Guidance display)
The capture marker and guidance will be described. FIG. 5 is a diagram showing a display example 500 of a captured marker and guidance. The capture marker 501 is a mark that tells the user that the gesture target is at the start position. By displaying the capture marker 501 as described above, the user can know the start position of the gesture, and can learn the correspondence between the gesture and the operation content. The guidance is displayed when the gesture object is recognized as being at the start position, and is a list of gestures that can be recognized and commands that can be issued from the start position. That is, this is a guide for teaching the user how to move the gesture target to recognize each command.

図5に示すガイダンスの例では、ジェスチャ対象の移動方向を矢印511〜514で、コマンドの内容を文字情報521〜524で示している。したがって、この表示例では、ジェスチャ対象を上方向に動かせばメニュー表示、下方向に動かせば停止、右方向へ動かせば早送り、左方向に動かせば早戻し、のコマンドが発行される。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。これらのジェスチャとコマンドとの対応は、図3に示したジェスチャリストにより決定される。なお、ガイダンスは上記の例に限らず、ユーザに開始位置を伝えられるという目的を達すれば、形状や方法は問わない。   In the example of guidance shown in FIG. 5, the movement direction of the gesture target is indicated by arrows 511 to 514, and the content of the command is indicated by character information 521 to 524. Therefore, in this display example, a command for issuing a menu is issued if the gesture target is moved upward, stopped if it is moved downward, fast-forwarding if it is moved right, and fast-returning if it is moved left. Thereby, the user can easily know the moving direction of the gesture target for realizing the desired operation. The correspondence between these gestures and commands is determined by the gesture list shown in FIG. Note that the guidance is not limited to the above example, and any shape or method may be used as long as the purpose of transmitting the start position to the user is achieved.

(表示動作)
図6A、図6Bは、テレビジョン受像機100の表示動作を示すフローチャートである。図6を用いて、表示に関わる処理を説明する。主として、図4A、図4Bで説明した内部処理を受けて、グラフィック処理部108が行う表示系処理である。
(Display operation)
6A and 6B are flowcharts showing the display operation of the television receiver 100. FIG. Processing related to display will be described with reference to FIG. The display processing is mainly performed by the graphic processing unit 108 in response to the internal processing described with reference to FIGS. 4A and 4B.

まず、テレビジョン受像機100の電源投入等により開始する。テレビジョン受像機100の基本機能による映像をディスプレイ101に表示する。たとえば、放送(電波やIP、オンデマンド等による放送を含む)や録画された映像が表示される(ステップT1)。次に、ジェスチャ対象の表示指示があるか否かを判定する(ステップT2)。表示指示がなければステップT1に戻る。表示指示があれば、カメラで撮影し認識されているジェスチャ対象をディスプレイ101に表示する。   First, it starts when the television receiver 100 is turned on. An image by the basic function of the television receiver 100 is displayed on the display 101. For example, broadcasting (including broadcasting by radio waves, IP, on-demand, etc.) and recorded video are displayed (step T1). Next, it is determined whether or not there is an instruction to display a gesture target (step T2). If there is no display instruction, the process returns to step T1. If there is a display instruction, a gesture target photographed and recognized by the camera is displayed on the display 101.

このとき、ユーザにとっては、鏡を見ているかのように表示することが、ユーザに違和感を抱かせないために重要であるから、撮影したジェスチャ対象の映像について左右座標を反転させて鏡像化し、基本機能画像に重畳させて表示する(ステップT3)。鏡像化することでジェスチャ対象が鏡に映るようにディスプレイ101に表示される。たとえばユーザが右手を上げれば、画面右側に映る手が上がる。   At this time, since it is important for the user to display as if looking at the mirror so as not to make the user feel uncomfortable, the left and right coordinates of the photographed gesture target image are reversed and mirrored, It is displayed superimposed on the basic function image (step T3). By making a mirror image, the gesture target is displayed on the display 101 so as to be reflected in the mirror. For example, if the user raises his right hand, the hand reflected on the right side of the screen will rise.

次に、捕捉マーカーとガイダンスの表示指示があるか否かを判定する(ステップT4)。表示指示がない場合はステップT2に戻る。表示指示がある場合は、捕捉マーカーとガイダンスを、すでに表示されている基本機能による映像とジェスチャ対象の表示に重畳して表示する(ステップT5)。そして、ガイダンスの消去指示があるか否かを判定する(ステップT6)。消去指示がなければステップT8へ進む。消去指示があればガイダンスを消去する(ステップT7)。   Next, it is determined whether there is an instruction to display a capture marker and guidance (step T4). If there is no display instruction, the process returns to step T2. If there is a display instruction, the captured marker and the guidance are displayed superimposed on the video and gesture target display already displayed (step T5). Then, it is determined whether there is an instruction to delete the guidance (step T6). If there is no erasure instruction, the process proceeds to step T8. If there is a deletion instruction, the guidance is deleted (step T7).

次に、軌跡表示の指示または不合致表示の指示のいずれがなされたかを判定して(ステップT8)、不合致表示の指示であれば不合致表示を表示して(ステップT9)、ステップT11へ進む。軌跡表示の指示があれば、ジェスチャ対象が動いた際の軌跡を表示する(ステップT10)。軌跡の表示としては、たとえばジェスチャ対象が動いた跡を線等で描画する。また、これと同時にガイダンスの表示を消去する。そして、コマンド入力があるか否かを判定する(ステップT11)。この判定は、ジェスチャが完了したか否かの判定となる。コマンド入力がなければ、ステップT10へ戻り軌跡を表示する。コマンド入力があれば、ジェスチャが完了し、コマンド入力されたと判断し、捕捉マーカーと軌跡を消去し(ステップT12)、処理を完了する。   Next, it is determined whether a trajectory display instruction or a disagreement display instruction has been issued (step T8). If a disagreement display instruction is received, a disagreement display is displayed (step T9), and the process proceeds to step T11. move on. If there is an instruction to display a trajectory, the trajectory when the gesture target moves is displayed (step T10). As the display of the trajectory, for example, a trace of movement of the gesture target is drawn with a line or the like. At the same time, the guidance display is deleted. Then, it is determined whether or not there is a command input (step T11). This determination is a determination as to whether or not the gesture has been completed. If no command is input, the process returns to step T10 to display the locus. If there is a command input, the gesture is completed, it is determined that the command has been input, the captured marker and the locus are erased (step T12), and the process is completed.

(使用場面)
次に、ユーザがテレビジョン受像機100を使用した際の使用場面の一連の流れを説明する。図7は、テレビジョン受像機100の使用場面の一例を示す図である。
(Use scene)
Next, a series of usage scenes when the user uses the television receiver 100 will be described. FIG. 7 is a diagram illustrating an example of a usage scene of the television receiver 100.

使用場面P1では、ユーザU1がテレビジョン受像機100を見ている。このときのテレビジョン受像機100の画面は基本機能による映像として放送やビデオ等の映像711が表示されている。次に、使用場面P2ではユーザU1が前方へ手を広げてテレビジョン受像機100にかざすと、カメラ102で撮影されたユーザU1の手の映像とジェスチャ対象の捕捉マーカー712、矢印713と文字情報714で構成されるガイダンスが映像711の上に重畳されて表示される。   In the usage scene P1, the user U1 is watching the television receiver 100. At this time, the screen of the television receiver 100 displays an image 711 such as broadcast or video as an image based on the basic function. Next, in the usage scene P2, when the user U1 spreads his hand forward and holds it over the television receiver 100, the user U1's hand image taken by the camera 102, the gesture target capture marker 712, the arrow 713, and the character information A guidance composed of 714 is superimposed on the video 711 and displayed.

その後、使用場面P3では、ユーザU1がテレビジョン受像機100に表示された自分の手をガイダンスの「MENU」の文字情報713に重ねるように手を広げたまま上へ上げ、「MENU」の文字情報713に手を重ねている。テレビジョン受像機100の表示は、手の動いた跡の軌跡715が表示され、「MENU」の文字情報713以外のガイダンスが消える。そのまま一定時間(たとえば1秒の設計値)保持すると、使用場面P4に示すようにテレビジョン受像機100のディスプレイ上にユーザU1の意図したとおりにメニュー画面が表示される。   Thereafter, in the usage scene P3, the user U1 raises his / her hand displayed on the television receiver 100 with his hands spread out so as to overlap the character information 713 of the guidance “MENU”, and the character “MENU” is displayed. Hands are put on the information 713. On the display of the television receiver 100, a trace 715 of a hand movement is displayed, and guidance other than the character information 713 of “MENU” disappears. If it is held for a certain time (for example, a design value of 1 second), a menu screen is displayed on the display of the television receiver 100 as intended by the user U1 as shown in the usage scene P4.

このように動作することで、ユーザU1はテレビジョン受像機100を使いながらジェスチャの開始位置を知ることができ、どのようにジェスチャを行えば、意図したコマンドにつながるかを学習できる。そして、実際にジェスチャを行えば軌跡が描画されるので、機器側の受け取り状況を確認しつつコマンド入力まで完遂できる。その結果、ユーザU1は、ジェスチャ入力への不安を解消できる。   By operating in this way, the user U1 can know the start position of the gesture while using the television receiver 100, and can learn how the gesture leads to the intended command. Then, since the trajectory is drawn if the gesture is actually performed, the command input can be completed while confirming the reception status on the device side. As a result, the user U1 can eliminate anxiety about the gesture input.

[第2の実施形態]
上記の実施形態では、ジェスチャにより操作可能な情報処理機器がテレビジョン受像機100であるが、電子書籍端末であってもよい。以下、上記の実施形態1に対する差分を中心に説明する。
[Second Embodiment]
In the above embodiment, the information processing device that can be operated by the gesture is the television receiver 100, but may be an electronic book terminal. Hereinafter, the difference from the first embodiment will be mainly described.

(電子書籍端末の外観)
図8は、電子書籍端末600を示す正面図である。ディスプレイ601は、液晶、有機EL等の表示手段により、映像を表示する。図8の例では、電子書籍を表示している。カメラ602は、ユーザを撮影する方向(ユーザに対向する方向)に向けて配置され、ディスプレイと同じ向きである。カメラ602は、ユーザおよびユーザのジェスチャを撮影する。
(Appearance of e-book reader)
FIG. 8 is a front view showing the electronic book terminal 600. The display 601 displays an image by display means such as liquid crystal or organic EL. In the example of FIG. 8, an electronic book is displayed. The camera 602 is arranged in the direction in which the user is photographed (the direction facing the user) and is in the same direction as the display. The camera 602 captures the user and the user's gesture.

(ジェスチャリスト)
図9は、操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図9を用いて、ジェスチャリストについて説明する。上記の実施形態ではユーザが比較的離れて使用するテレビジョン受像機100である。これに対して、電子書籍端末600は、ユーザが持って使用し、かつ実際の書籍に近い操作性を与えるものであるため、第1の実施形態の場合とはジェスチャリストの内容が大きく異なる。具体的には、ジェスチャリストのコマンドの種類が電子書籍向けになる。また、ジェスチャ対象の手がカメラから近いため、開始位置・終了位置のジェスチャ対象を示す領域が大きくなる。
(Gesture list)
FIG. 9 is a diagram illustrating a table in which operation contents, guidance, and gesture determination criteria are associated with each other. The gesture list will be described with reference to FIG. In the above embodiment, the television receiver 100 is used by a user relatively far away. On the other hand, since the electronic book terminal 600 is used by the user and gives operability close to that of an actual book, the content of the gesture list is significantly different from that of the first embodiment. Specifically, the gesture list command type is for electronic books. Further, since the gesture target hand is close to the camera, the area indicating the gesture target at the start position / end position becomes large.

(使用場面)
図10は、電子書籍端末600の使用場面の一例を示す図である。使用場面Q1では、ユーザU2が電子書籍のページを、ジェスチャリストに従ってめくるジェスチャを行っている。電子書籍端末600は、ユーザU2が画面左下に伸ばした手をカメラで撮影して映像処理し、手の映像をディスプレイ601上に表示している。ジェスチャ対象である手が開始位置にあるため、捕捉マーカー712と矢印713および文字情報714によるガイダンスが表示されている。
(Use scene)
FIG. 10 is a diagram illustrating an example of a usage scene of the electronic book terminal 600. In the usage scene Q1, the user U2 performs a gesture of turning the page of the electronic book according to the gesture list. In the electronic book terminal 600, the user U2 takes a hand that has been extended to the lower left of the screen with the camera and processes the image, and the image of the hand is displayed on the display 601. Since the hand that is the gesture target is at the start position, guidance by the capture marker 712, the arrow 713, and the character information 714 is displayed.

使用場面Q2で、ガイダンスに従いユーザU2が手を右方向へ移動すると、開始位置から動かされた手の軌跡715がディスプレイ601に表示される。さらに、使用場面Q3で、ユーザU2が右方向へ手を動かすと、ジェスチャリストに記載された終了位置にジェスチャ対象の手が到達し、ページ送りのコマンドが実行される。   When the user U2 moves the hand in the right direction according to the guidance in the usage scene Q2, the locus 715 of the hand moved from the start position is displayed on the display 601. Further, when the user U2 moves his hand in the right direction in the usage scene Q3, the gesture target hand reaches the end position described in the gesture list, and a page feed command is executed.

仮に、使用場面Q1において、ガイダンスに従わずジェスチャリストにない経路のジェスチャをユーザU2が行った場合、ディスプレイ601には捕捉マーカー712と手の映像との間には軌跡が表示されない。さらに、ユーザU2が行ったジェスチャに相当するコマンドがないことを、ユーザに対して伝えるための不合致表示811を表示する。これにより、ユーザU2はジェスチャ開始時の手の位置が適当だったこと、および、その後の手の動かし方が不適当だったためにコマンド実行まで至らなかったことが理解でき、ジェスチャ入力のための学習が進む。   If the user U2 makes a gesture of a route that does not follow the guidance and is not in the gesture list in the usage scene Q1, no trace is displayed on the display 601 between the capture marker 712 and the hand image. Further, a non-matching display 811 is displayed to notify the user that there is no command corresponding to the gesture made by the user U2. As a result, the user U2 can understand that the position of the hand at the start of the gesture is appropriate, and that the command has not been executed because of the improper movement of the hand thereafter, and learning for gesture input is possible. Advances.

100 テレビジョン受像機(情報処理機器)
101 ディスプレイ
102 カメラ
103 テレビ機能処理部
105 演算部
106 メモリ
107 記憶部
108 グラフィック処理部
109 制御部
211 ジェスチャ対象認識部
212 形状判定部
213 鏡像化処理部
214 ジェスチャ表示制御部
221 位置判定部
222 移動判定部
223 操作実行部
224 ガイダンス表示制御部
301 コマンド
302 ガイダンス
303 ジェスチャ対象
304 開始位置
305 経路
306 終了位置
500 表示例
501 捕捉マーカー
511-514 矢印
521-524 文字情報
600 電子書籍端末
601 ディスプレイ
602 カメラ
711 映像
712 捕捉マーカー
713 矢印
714 文字情報
715 軌跡
811 不合致表示
P1−P4、Q1−Q3 使用場面
100 Television receiver (information processing equipment)
DESCRIPTION OF SYMBOLS 101 Display 102 Camera 103 Television function processing part 105 Operation part 106 Memory 107 Storage part 108 Graphic processing part 109 Control part 211 Gesture object recognition part 212 Shape determination part 213 Mirror image processing part 214 Gesture display control part 221 Position determination part 222 Movement determination Unit 223 operation execution unit 224 guidance display control unit 301 command 302 guidance 303 gesture target 304 start position 305 path 306 end position 500 display example 501 capture marker 511-514 arrow 521-524 character information 600 electronic book terminal 601 display 602 camera 711 video 712 Capture marker 713 Arrow 714 Character information 715 Trajectory 811 Mismatch display P1-P4, Q1-Q3 Usage scene

Claims (10)

ジェスチャにより操作可能な情報処理機器であって、
カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴とする情報処理機器。
An information processing device that can be operated by a gesture,
A gesture object recognition unit for recognizing a gesture object photographed by a camera;
A position determination unit that determines whether or not the recognized gesture target is at a predetermined start position with respect to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. An information processing device comprising: a guidance display control unit.
前記ガイダンス表示制御部は、前記ジェスチャ対象認識部が前記カメラにより撮影されたジェスチャ対象を認識した際に、前記ディスプレイにジェスチャ対象を認識していることを表示させることを特徴とする請求項1記載の情報処理機器。   The said guidance display control part displays that the gesture object is recognized on the said display, when the said gesture object recognition part recognizes the gesture object image | photographed with the said camera. Information processing equipment. 前記ガイダンス表示制御部は、前記ジェスチャ対象認識部が、前記カメラにより撮影されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあることを認識した際に、前記カメラにより撮影されたジェスチャ対象が前記開始位置にあることを前記ディスプレイに表示させることを特徴とする請求項1または請求項2記載の情報処理機器。   The guidance display control unit is photographed by the camera when the gesture object recognition unit recognizes that the gesture object photographed by the camera is at a predetermined start position with respect to the position of the camera. The information processing apparatus according to claim 1, wherein the display object displays that the gesture target is at the start position. 前記ガイダンス表示制御部は、前記ガイダンスとして、前記ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示することを特徴とする請求項1から請求項3のいずれかに記載の情報処理機器。   The information processing device according to any one of claims 1 to 3, wherein the guidance display control unit displays, as the guidance, an instruction that associates a movement direction of the gesture target with an operation content. . 前記認識されたジェスチャ対象の映像を鏡像化処理する鏡像化処理部と、
前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴とする請求項1から請求項4のいずれかに記載の情報処理機器。
A mirroring processing unit that mirrors the recognized gesture target video;
The information processing apparatus according to claim 1, further comprising: a gesture display control unit configured to display the mirrored gesture target on the display.
前記ガイダンス表示制御部は、前記撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーを前記ディスプレイの前記予め定められた開始位置に対応する表示位置に表示させることを特徴とする請求項1から請求項5のいずれかに記載の情報処理機器。   The said guidance display control part displays the capture marker which shows that the said image | photographed gesture object was recognized at the display position corresponding to the said predetermined start position of the said display. The information processing apparatus according to claim 5. 前記認識されたジェスチャ対象が移動した場合に、その移動が前記ガイダンスの指示するいずれの経路に合致するかを判定する移動判定部を更に備え、
前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴とする請求項1から請求項6のいずれかに記載の情報処理機器。
A movement determination unit for determining, when the recognized gesture target moves, which path the movement indicates matches with the guidance;
2. The guidance display control unit, when the recognized movement of the gesture target matches any of the routes indicated by the guidance, displays a match on the display. The information processing apparatus according to claim 6.
前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨を前記ディスプレイに表示させることを特徴とする請求項7記載の情報処理機器。   8. The guidance display control unit, when the recognized movement of the gesture target does not match any of the routes indicated by the guidance, displays a message indicating a mismatch on the display. The information processing equipment described. ジェスチャにより操作可能な情報処理機器を用いて行う情報処理方法であって、
カメラにより撮影されたジェスチャ対象を認識するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴とする情報処理方法。
An information processing method performed using an information processing device operable by a gesture,
Recognizing a gesture object photographed by a camera;
Determining whether the recognized gesture object is at a predetermined starting position relative to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. And an information processing method comprising: steps.
ジェスチャにより操作可能な情報処理機器に実行させる情報処理プログラムであって、
カメラにより撮影されたジェスチャ対象を認識する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴とする情報処理プログラム。
An information processing program to be executed by an information processing device operable by a gesture,
A process of recognizing a gesture object photographed by a camera;
A process of determining whether the recognized gesture target is at a predetermined start position with respect to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. And an information processing program.
JP2009276213A 2009-12-04 2009-12-04 Information processing equipment, information processing method, and information processing program Withdrawn JP2011118725A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009276213A JP2011118725A (en) 2009-12-04 2009-12-04 Information processing equipment, information processing method, and information processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009276213A JP2011118725A (en) 2009-12-04 2009-12-04 Information processing equipment, information processing method, and information processing program

Publications (1)

Publication Number Publication Date
JP2011118725A true JP2011118725A (en) 2011-06-16

Family

ID=44283962

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009276213A Withdrawn JP2011118725A (en) 2009-12-04 2009-12-04 Information processing equipment, information processing method, and information processing program

Country Status (1)

Country Link
JP (1) JP2011118725A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013041579A (en) * 2011-08-05 2013-02-28 Samsung Electronics Co Ltd Electronic device and method of controlling the same
JP2013045125A (en) * 2011-08-22 2013-03-04 Fuji Xerox Co Ltd Input display device, image forming device, imaging device, and program
JP2013077925A (en) * 2011-09-30 2013-04-25 Sharp Corp Electronic apparatus
CN103150010A (en) * 2011-08-05 2013-06-12 三星电子株式会社 Method for controlling electronic device and electronic device utilizing the method
JP2013246743A (en) * 2012-05-29 2013-12-09 Sony Corp Image processing apparatus and program
JP2014127870A (en) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd Housing facility controlling device
WO2014136521A1 (en) 2013-03-06 2014-09-12 Necカシオモバイルコミュニケーションズ株式会社 Imaging device, imaging method and program
JP2014238828A (en) * 2013-05-10 2014-12-18 国立大学法人電気通信大学 User interface device, and user interface control program
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
US9002714B2 (en) 2011-08-05 2015-04-07 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2015515065A (en) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド Interact with devices using gestures
US10466800B2 (en) 2015-02-20 2019-11-05 Clarion Co., Ltd. Vehicle information processing device
JP7511943B2 (en) 2022-01-25 2024-07-08 株式会社Liberaware Aircraft

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9002714B2 (en) 2011-08-05 2015-04-07 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
CN103150010A (en) * 2011-08-05 2013-06-12 三星电子株式会社 Method for controlling electronic device and electronic device utilizing the method
US9733895B2 (en) 2011-08-05 2017-08-15 Samsung Electronics Co., Ltd. Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same
JP2013041579A (en) * 2011-08-05 2013-02-28 Samsung Electronics Co Ltd Electronic device and method of controlling the same
CN103150010B (en) * 2011-08-05 2016-08-03 三星电子株式会社 Control the electronic equipment of methods and applications the method for electronic equipment
JP2013045125A (en) * 2011-08-22 2013-03-04 Fuji Xerox Co Ltd Input display device, image forming device, imaging device, and program
US9239675B2 (en) 2011-08-22 2016-01-19 Fuji Xerox Co., Ltd. Input display apparatus and method, image forming apparatus, imaging apparatus, and computer readable medium
US9241083B2 (en) 2011-08-22 2016-01-19 Fuji Xerox Co., Ltd. Apparatus, method, and computer readable medium for displaying gesture guidance information
JP2013077925A (en) * 2011-09-30 2013-04-25 Sharp Corp Electronic apparatus
JP2015515065A (en) * 2012-04-16 2015-05-21 クアルコム,インコーポレイテッド Interact with devices using gestures
CN104364732B (en) * 2012-05-29 2017-03-01 索尼公司 Image processing equipment
CN104364732A (en) * 2012-05-29 2015-02-18 索尼公司 Image processing apparatus and program
US9704028B2 (en) 2012-05-29 2017-07-11 Sony Corporation Image processing apparatus and program
JP2013246743A (en) * 2012-05-29 2013-12-09 Sony Corp Image processing apparatus and program
JP2014127870A (en) * 2012-12-26 2014-07-07 Mitsui Home Co Ltd Housing facility controlling device
WO2014136521A1 (en) 2013-03-06 2014-09-12 Necカシオモバイルコミュニケーションズ株式会社 Imaging device, imaging method and program
US9742989B2 (en) 2013-03-06 2017-08-22 Nec Corporation Imaging device, imaging method and storage medium for controlling execution of imaging
JP2014238828A (en) * 2013-05-10 2014-12-18 国立大学法人電気通信大学 User interface device, and user interface control program
JP2015011106A (en) * 2013-06-27 2015-01-19 カシオ計算機株式会社 Projection device, projection method, and program
US10466800B2 (en) 2015-02-20 2019-11-05 Clarion Co., Ltd. Vehicle information processing device
JP7511943B2 (en) 2022-01-25 2024-07-08 株式会社Liberaware Aircraft

Similar Documents

Publication Publication Date Title
JP2011118725A (en) Information processing equipment, information processing method, and information processing program
KR101148484B1 (en) Input apparatus
EP2728455B1 (en) Mobile terminal
CN105814522B (en) Device and method for displaying user interface of virtual input device based on motion recognition
US9448620B2 (en) Input method and apparatus of portable device for mapping segments of a hand to a plurality of keys
EP4246287A1 (en) Method and system for displaying virtual prop in real environment image, and storage medium
US20100229125A1 (en) Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto
CN104298433A (en) Screen display method, device and mobile terminal
CN104461232A (en) Method and device for determining reduction scale in screen display process
CN109388321B (en) Electronic whiteboard operation method and device
EP2586203A1 (en) Information processing apparatus, information processing system and information processing method
WO2022143386A1 (en) Photographing method, photographing device, electronic device and medium
JP5358548B2 (en) Gesture recognition device
KR101435773B1 (en) Remote control device and remote control method of smart TV.
JP7080711B2 (en) Electronic devices, control methods, programs, and storage media for electronic devices
US9319600B2 (en) Information processing apparatus, information processing method and computer program product
US8446428B2 (en) Image processing apparatus and method of controlling the same
JP5396332B2 (en) Information input device, method and program using gesture
JP2013235404A (en) Information processing device and information processing method
JP6548068B2 (en) Electronic device, display control method and program
KR102023187B1 (en) Detachable Touch Panel Device Equipped with Diplay Device
JP2022087633A (en) Display device, erasing method switching method, and program
KR20160022550A (en) Mobile terminal
JP2007279869A (en) Projector, remote controller for projector and pointer system
US20230283877A1 (en) Image control system and method for controlling image display

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20130205