JP2011118725A - Information processing equipment, information processing method, and information processing program - Google Patents
Information processing equipment, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2011118725A JP2011118725A JP2009276213A JP2009276213A JP2011118725A JP 2011118725 A JP2011118725 A JP 2011118725A JP 2009276213 A JP2009276213 A JP 2009276213A JP 2009276213 A JP2009276213 A JP 2009276213A JP 2011118725 A JP2011118725 A JP 2011118725A
- Authority
- JP
- Japan
- Prior art keywords
- gesture
- information processing
- display
- guidance
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- User Interface Of Digital Computer (AREA)
- Position Input By Displaying (AREA)
Abstract
Description
本発明は、ジェスチャにより操作可能な情報処理機器、これを用いた情報処理方法およびこれに実行させるための情報処理プログラムに関する。 The present invention relates to an information processing device that can be operated by a gesture, an information processing method using the same, and an information processing program to be executed by the information processing method.
従来、パソコンや携帯電話機、テレビジョン受像機等の情報処理機器は、液晶ディスプレイ等の表示部と、所定の操作内容や文字を入力するためのキーボード、ボタン、リモコン、マウス、またはタッチパネル等の入力部とによって構成されている。そして、通常は、情報処理機器は、キー操作によって入力された操作内容に応じて所定の処理を実行し、その実行結果を表示部に表示する。 Conventionally, information processing devices such as personal computers, mobile phones, and television receivers have a display unit such as a liquid crystal display and inputs such as a keyboard, buttons, remote control, mouse, or touch panel for inputting predetermined operation contents and characters. Part. In general, the information processing device executes a predetermined process according to the operation content input by the key operation, and displays the execution result on the display unit.
近年では、キーボード、マウスまたはタッチパネルの他にも、外部接続されたカメラでユーザを画像認識し、そのユーザの動きに応じて操作内容を自動的に入力する機器が提案されている。人の手の一連の動きは特定の意味を有する場合がある。たとえば、手を左右に動かす動作は「さようなら」を意味し、手を広げて奥から手前に動かす動作は「こちらに来てほしい」を意味する。また、手の動きだけでなく、その他の体の動きにも同様に特定の意味を持たせることができる。このような体の一部による一連の特定の動き(以下、ジェスチャと呼ぶ。)の画像認識で、これに対応する特定の情報を入力(以下、ジェスチャ入力と呼ぶ。)することができる。 In recent years, in addition to a keyboard, a mouse, and a touch panel, a device that recognizes an image of a user with an externally connected camera and automatically inputs operation contents in accordance with the movement of the user has been proposed. A series of movements of a person's hand can have a specific meaning. For example, moving the hand to the left and right means “goodbye” and moving the hand to move from the back to the front means “I want you to come here”. Further, not only hand movements but also other body movements can have specific meanings as well. With such image recognition of a series of specific movements (hereinafter referred to as gestures) by a part of the body, specific information corresponding thereto can be input (hereinafter referred to as gesture input).
このような機器を用いる場合には、ユーザは、取扱説明書等を参照して操作内容に対応するジェスチャを覚える必要がある。ユーザは、各ジェスチャを覚えて自身が入力したい操作内容を機器に認識させる。ユーザは正しくジェスチャを行ったつもりでも、意図した通りに機器に入力されなかったり、実際に機器に認識された動作がわからなかったりすることがある。これに対して、認識対象の動作が認識されるまでの認識過程をユーザに対してフィードバックして学習させる方法が提案されている(たとえば、特許文献1参照)。 When such a device is used, the user needs to learn a gesture corresponding to the operation content with reference to an instruction manual or the like. The user remembers each gesture and makes the device recognize the operation content that the user wants to input. Even if the user intends to perform the gesture correctly, the user may not input the device as intended, or may not know the action actually recognized by the device. On the other hand, a method has been proposed in which the user is fed back to the learning process until the recognition target motion is recognized (see, for example, Patent Document 1).
しかしながら、特許文献1記載の機器は、手の動きの軌跡を表すビジュアルフィードバック画面を生成するが、操作の説明は画面に表れておらずユーザは取扱説明書等を参照してジェスチャを覚えなくてはならない。一方、特許文献1記載の機器ジェスチャを間違えて入力した際にはユーザは間違えたことを自覚できない。そして、ユーザにとってそのような機器は、使用開始の障壁が高い。また、ユーザへの学習効果を高められていないため、使いやすい機器を提供できない。
However, although the device described in
本発明は、このような事情に鑑みてなされたものであり、意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習できる情報処理機器、情報処理方法および情報処理プログラムを提供することを目的とする。 The present invention has been made in view of such circumstances, and an information processing device, an information processing method, and an information processing that can easily input an intended gesture and can learn a gesture corresponding to the operation content while using the device. The purpose is to provide a program.
(1)上記の目的を達成するため、本発明の情報処理機器は、ジェスチャにより操作可能な情報処理機器であって、カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴としている。 (1) In order to achieve the above object, an information processing device according to the present invention is an information processing device that can be operated by a gesture, the gesture target recognition unit recognizing a gesture target photographed by a camera, and the recognition target. A position determination unit that determines whether or not the gesture target is at a predetermined start position with respect to the camera position, and a start position that is determined with respect to the recognized gesture target with respect to the camera position. A guidance display control unit that displays a guidance for instructing a movement method of the recognized gesture object on a display in correspondence with the operation content.
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。 By displaying the guidance in this way, the user can easily input the intended gesture, can learn the gesture corresponding to the operation content while using the information processing device, and can reduce the barrier to starting use.
(2)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が前記カメラにより撮影されたジェスチャ対象を認識した際に、前記ディスプレイにジェスチャ対象を認識していることを表示させることを特徴としている。これにより、ユーザはジェスチャ対象が認識されたことを知ることができ、ジェスチャを伝えやすくする。 (2) In the information processing apparatus of the present invention, the guidance display control unit recognizes the gesture target on the display when the gesture target recognition unit recognizes the gesture target photographed by the camera. It is characterized by displaying. Accordingly, the user can know that the gesture target has been recognized, and can easily convey the gesture.
(3)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ジェスチャ対象認識部が、前記カメラにより撮影されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあることを認識した際に、前記カメラにより撮影されたジェスチャ対象が前記開始位置にあることを前記ディスプレイに表示させることを特徴としている。これにより、ユーザはジェスチャ対象が開始位置にあることを知ることができ、ジェスチャを伝えやすくする。 (3) Further, in the information processing apparatus according to the present invention, the guidance display control unit, the gesture target recognition unit, and the gesture target photographed by the camera are set at a predetermined start position with respect to the position of the camera. When it is recognized that there is a gesture, the fact that the gesture object photographed by the camera is at the start position is displayed on the display. Thereby, the user can know that the gesture target is at the start position, and can easily convey the gesture.
(4)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記ガイダンスとして、前記ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示することを特徴としている。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。 (4) Moreover, the information processing apparatus of this invention is characterized by the said guidance display control part displaying the instruction | indication which matched the movement direction of the said gesture object, and the operation content as said guidance. Thereby, the user can easily know the moving direction of the gesture target for realizing the desired operation.
(5)また、本発明の情報処理機器は、前記認識されたジェスチャ対象の映像を鏡像化処理する鏡像化処理部と、前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴としている。このようにジェスチャ対象を鏡像化して表示することで、ディスプレイに対向してジェスチャを行うユーザに違和感を与えないようにすることができる。 (5) Further, the information processing apparatus according to the present invention includes a mirroring processing unit that performs a mirroring process on the recognized video image of the gesture target, and a gesture display control unit that displays the gesture target subjected to the mirroring process on the display. And further comprising. Thus, by displaying the gesture object as a mirror image, it is possible to prevent the user who performs the gesture while facing the display from feeling uncomfortable.
(6)また、本発明の情報処理機器は、前記ガイダンス表示制御部が、前記撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーを前記ディスプレイの前記予め定められた開始位置に対応する表示位置に表示させることを特徴としている。このような捕捉マーカーの表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。 (6) Further, in the information processing device of the present invention, the guidance display control unit displays a capture marker indicating that the photographed gesture target has been recognized, corresponding to the predetermined start position of the display. It is characterized by being displayed at a position. The display of such a captured marker allows the user to know the start position of the gesture and learn the correspondence between the gesture from there and the operation content.
(7)また、本発明の情報処理機器は、前記認識されたジェスチャ対象が移動した場合に、その移動が前記ガイダンスの指示するいずれの経路に合致するかを判定する移動判定部を更に備え、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴としている。 (7) Further, the information processing apparatus of the present invention further includes a movement determination unit that determines which path the movement indicates matches with the guidance when the recognized gesture target moves, The guidance display control unit is characterized in that, when the recognized movement of the gesture target matches any one of the routes indicated by the guidance, a message indicating the match is displayed on the display.
このように、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイに表示させる。たとえば、実際にジェスチャを行ったときにジェスチャ対象の軌跡を描画し所定操作との合致を示すことで、機器側のジェスチャの受け取り状況を確認しつつ操作内容の入力を完遂でき、ユーザが抱くジェスチャ入力への不安を解消できる。 In this way, when the recognized movement of the gesture target matches any of the routes instructed by the guidance, the fact of the match is displayed on the display. For example, when a gesture is actually performed, the gesture target trajectory is drawn to show a match with a predetermined operation, so that the input of the operation content can be completed while checking the reception status of the gesture on the device side. Can eliminate anxiety about input.
(8)また、本発明の情報処理機器は、前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨を前記ディスプレイに表示させることを特徴としている。これにより、間違った操作内容を入力したときに、実際に認識された動作を明確にでき、ユーザに結果をフィードバックできる。たとえば、ジェスチャに相当する操作内容がないという不合致表示を表示できる。ジェスチャを始めるための手の位置は正しかったが、その後の手の動かし方が悪かったために操作内容の実行まで至らなかったことを、ユーザは理解でき、ジェスチャ入力のための学習が進む。 (8) In the information processing device of the present invention, the guidance display control unit may indicate a mismatch when the recognized movement of the gesture target does not match any of the routes indicated by the guidance. It is characterized by being displayed on the display. Thereby, when an incorrect operation content is input, the actually recognized operation can be clarified, and the result can be fed back to the user. For example, a mismatch display that there is no operation content corresponding to a gesture can be displayed. Although the position of the hand for starting the gesture was correct, the user can understand that the operation contents have not been executed because the subsequent movement of the hand was bad, and learning for gesture input proceeds.
(9)また、本発明の情報処理方法は、ジェスチャにより操作可能な情報処理機器を用いて行う情報処理方法であって、カメラにより撮影されたジェスチャ対象を認識するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴としている。 (9) An information processing method according to the present invention is an information processing method performed using an information processing device operable by a gesture, the step of recognizing a gesture object photographed by a camera, and the recognized gesture. Determining whether the target is at a predetermined start position relative to the camera position, and when the recognized gesture target is at a predetermined start position relative to the camera position And a step of displaying on the display a guidance instructing a method of moving the recognized gesture object in correspondence with the operation content.
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて機器を使用しながら学習でき、使用開始の障壁を低くできる。 By displaying the guidance in this way, the user can easily input an intended gesture, can learn a gesture corresponding to the operation content while using the device, and can lower the barrier for starting use.
(10)また、本発明の情報処理プログラムは、ジェスチャにより操作可能な情報処理機器に実行させる情報処理プログラムであって、カメラにより撮影されたジェスチャ対象を認識する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴としている。 (10) An information processing program according to the present invention is an information processing program executed by an information processing device operable by a gesture, the process for recognizing a gesture object photographed by a camera, and the recognized gesture object Is determined at a predetermined start position with respect to the camera position, and when the recognized gesture target is at a predetermined start position with respect to the camera position, And a process for displaying a guidance for instructing a movement method of the recognized gesture target on a display in correspondence with the operation content.
このようにガイダンスを表示することで、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。 By displaying the guidance in this way, the user can easily input the intended gesture, can learn the gesture corresponding to the operation content while using the information processing device, and can reduce the barrier to starting use.
本発明によれば、ユーザは意図したジェスチャを容易に入力でき、操作内容に対応するジェスチャについて情報処理機器を使用しながら学習でき、使用開始の障壁を低くできる。 According to the present invention, a user can easily input an intended gesture, can learn a gesture corresponding to an operation content while using an information processing device, and can reduce a barrier to start of use.
次に、本発明の実施の形態について、図面を参照しながら説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては同一の参照番号を付し、重複する説明は省略する。 Next, embodiments of the present invention will be described with reference to the drawings. In order to facilitate understanding of the description, the same reference numerals are given to the same components in the respective drawings, and duplicate descriptions are omitted.
[第1の実施形態]
(テレビジョン受像機の外観)
図1は、テレビジョン受像機100(情報処理機器)を示す正面図である。以下の例では、情報処理装置の一例としてテレビジョン受像機100を説明しているが、本発明の情報処理装置は必ずしもこれに限定されない。テレビジョン受像機100は、ディスプレイ101、カメラ102を備えている。ディスプレイ101は、液晶、プラズマ、ブラウン管、有機EL等の手段により受信映像やユーザへの視覚情報を表示する。カメラ102は、デジタルデータに変換できる素子で構成されており、ユーザのジェスチャを撮影する。CMOS、CCD等一般的な撮像素子を用いて構成されていればよい。また、カメラ102は、認識精度を上げるため、距離センサ、深度センサ等を備えていてもよい。カメラ102は、ユーザの方向を向いた状態で配置されることが好ましく、たとえばディスプレイ101の表示面と同じ方向に向いて配置される。
[First Embodiment]
(Appearance of television receiver)
FIG. 1 is a front view showing a television receiver 100 (information processing device). In the following example, the
(ハード構成)
図2Aは、テレビジョン受像機100のハード構成を示すブロック図である。図2Aに示すように、テレビジョン受像機100は、ディスプレイ101、カメラ102、テレビ機能処理部103、カメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109を備えている。必要な要素を中心に説明し、一般の機能説明は省略する。テレビ機能処理部103は、テレビ放送を受信するチューナや受信データに含まれる動画像のデコード、音声のデコード等を行い、結果をメモリ106に書き込む。
(Hardware configuration)
FIG. 2A is a block diagram illustrating a hardware configuration of the
カメラIF104は、カメラ102で撮影されたデータを演算部105等が利用できるデータ形式に変換し、メモリ106に書き込む。演算部105は、カメラ102で撮影された映像からジェスチャの対象(たとえば手や目)等を認識し、ジェスチャをコマンドへと変換する処理等を行う。メモリ106は、演算部105が処理する際に一時的にデータを格納する。記憶部107は、メモリ106ほど頻繁に書き換える必要のないデータを格納する。たとえば、コマンドとそれに対応するジェスチャの仕様リスト(後述)を記憶しておく。
The camera IF 104 converts data photographed by the
グラフィック処理部108は、テレビ機能処理部103、演算部105等が処理しメモリ106に書き込んだ表示データをディスプレイ101へ表示するためのデータ変換処理を行う。また、複数の画像の重畳処理や鏡像化処理を行う。制御部109は、機器全体を制御する。
The
(機能的構成)
図2Bは、テレビジョン受像機100の機能的構成を示すブロック図である。上記のカメラIF104、演算部105、メモリ106、記憶部107、グラフィック処理部108および制御部109は、機能的構成としては、ジェスチャ対象認識部211、形状判定部212、鏡像化処理部213、ジェスチャ表示制御部214、位置判定部221、移動判定部222、操作実行部223およびガイダンス表示制御部224に対応する。各部について説明する。
(Functional configuration)
FIG. 2B is a block diagram showing a functional configuration of the
ジェスチャ対象認識部211は、カメラで撮影した画像からジェスチャ対象を認識する。ジェスチャ対象とは、ジェスチャを行う物体であり、手、目などの体の一部が該当することが多いがこれらに限られるものではなく、ペンを持った手なども該当しうる。なお、ジェスチャ対象の認識手法には輪郭抽出、背景分離、パターンマッチング等があるが、これらに限定されない。形状判定部212は、ジェスチャ対象の形状を判定する。形状判定することで、映像上で外形を切り出すことが容易になる。形状判定部212で判定された形状をジェスチャ認識の一要素として使用してもよい。具体的には、ジェスチャ対象認識部211が、拡げた手と閉じた手とをそれぞれ異なるジェスチャとして認識する。その場合には、同じ位置、経路であっても、手の形が拡げているのと閉じているのではジェスチャが異なるという基準がとられる。
The gesture
鏡像化処理部213は、形状判定されたジェスチャ対象の映像について外形を切り出し、ジェスチャ対象の映像を鏡像化処理する。ジェスチャ表示制御部214は、鏡像化処理されたジェスチャ対象をディスプレイ101に表示させる。位置判定部221は、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にあるか否かを判定する。認識されたジェスチャ対象が予め定められた終了位置にあるか否かについても同様に判定する。
The
移動判定部222は、ジェスチャ対象の移動がいずれの経路かを判定する。認識されたジェスチャ対象が移動した場合に、その移動がガイダンスの指示するいずれの経路に合致するかを判定する。操作実行部223は、有効になった操作内容を実行する。
The
ガイダンス表示制御部224は、選択可能な操作の内容とジェスチャ対象の移動方向とを対応させたガイダンスを表示する。たとえば、ガイダンス表示制御部224は、撮影されたジェスチャ対象が認識されたことを示す捕捉マーカーをディスプレイ101の予め定められた開始位置に対応する表示位置に表示させる。また、認識されたジェスチャ対象がカメラの位置に対して予め定められた開始位置にある場合に、認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイ101に表示させる。ジェスチャ対象の移動方向と操作内容とを対応させた指示を表示する。
The guidance
ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示するいずれかの経路に合致する場合には、合致の旨をディスプレイ101に表示させる。ガイダンス表示制御部224は、認識されたジェスチャ対象の移動がガイダンスの指示する経路のいずれにも合わない場合には、不合致の旨をディスプレイ101に表示させる。
The guidance
(ジェスチャリスト)
図3は、コマンド(操作内容)、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図3に示すテーブルは、各No.のコマンドの内容を表している。このようにコマンドとジェスチャと認識されるためにユーザがとる必要のある行動を対照させたテーブルをジェスチャリストと呼ぶ。通常、テーブルの情報は、メモリ106もしくは記憶部107に格納される。
(Gesture list)
FIG. 3 is a diagram illustrating a table in which commands (operation contents), guidance, and gesture determination criteria are associated with each other. The table shown in FIG. 3 represents the contents of each No. command. A table in which actions that the user needs to take in order to be recognized as a command and a gesture is referred to as a gesture list. Normally, table information is stored in the
コマンド301は、実際に機器を制御する指令であり、制御部109で解釈され、機器各部が制御される。ガイダンス302は、ディスプレイ101に表示されるガイダンスの一部を示す文字情報表示である。ジェスチャ対象303は、手や目等の具体的なジェスチャ対象である。図3に示す例では、ジェスチャ対象303が手であり、コマンドを入力するジェスチャは手で行われる。手の他に指、目、足等の部分のほか、体全体等がジェスチャ対象となりうる。
A
開始位置304は、ジェスチャ前に、ジェスチャ対象が認識される範囲を示す。開始位置304に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が開始位置にあると認識されうる位置である。たとえば、No.0001のコマンドについては、カメラによる撮影範囲内で手が中央付近に映ればジェスチャの開始が認識される。
The
経路305は、ジェスチャと認識されるために、ジェスチャ対象がとるべき経路である。No.0001のコマンドについては、ジェスチャ対象が撮影範囲内において、中央から下方に移動することでジェスチャが認識される。終了位置306に示す外側の四角はカメラの撮影範囲であり、内側の四角(斜線入り)はジェスチャ対象303が終了位置にあると認識されうる位置を示す。
The
したがって、No.0001のコマンドについては、ジェスチャ対象が撮影範囲の中央下方に映るとジェスチャ終了と認識される。ユーザは停止コマンド(No.0001)をテレビジョン受像機100に伝えたい場合は、ジェスチャ対象である手を、カメラ撮影範囲の中央付近に映るように差し出し、ジェスチャ認識が開始されてから、その手を下方向へ動かす必要がある。このことが図3に示すNo.0001の開始位置304、経路305、終了位置306により表わされている。
Therefore, regarding the command No. 0001, when the gesture target is reflected in the lower center of the shooting range, it is recognized that the gesture has ended. When the user wants to transmit a stop command (No. 0001) to the
(入力動作)
図4A、図4Bは、テレビジョン受像機100の入力動作を示すフローチャートである。図4A、図4Bを用いて、ジェスチャを認識してからユーザに使用方法の学習を促すまでの内部処理を説明する。
(Input operation)
4A and 4B are flowcharts showing the input operation of the
まず、テレビジョン受像機100の電源投入、またはアプリケーションソフト起動等により処理を開始する。この時点ではジェスチャ対象が見つかっていない。次に、カメラの撮影映像からジェスチャ対象を探し(ステップS1)、ジェスチャ対象を認識しているか否かを判断する(ステップS2)。認識していなければステップS1に戻り、ジェスチャ対象を探す。認識していれば、カメラ102で撮影されて格納されているジェスチャ対象の映像をディスプレイ101へ表示するように指示する(ステップS3)。次に、ジェスチャ対象が、ジェスチャリストの開始位置に存在するか否かを判定する(ステップS4)。ジェスチャ対象が開始位置に存在しない場合はステップS1へと戻る。存在する場合は、ジェスチャ対象を捕捉していると判断し、捕捉マーカーとガイダンスの表示を指示する(ステップS5)。捕捉とは、ジェスチャ対象を認識し続けている状況を指す。
First, processing is started by turning on the
次に、ジェスチャ対象が動いたか否かを判定する(ステップS6)。動いていなければ、動くまで待機する。動いたときには、ユーザへのガイダンスの必要がなくなったと判断し、ガイダンス消去を指示し、ガイダンスを消去する(ステップS7)。そして、ジェスチャ対象を捕捉しているかを判定する(ステップS8)。捕捉していなければステップS1へ戻る。 Next, it is determined whether or not the gesture target has moved (step S6). If it is not moving, wait until it moves. When the user has moved, it is determined that the user no longer needs the guidance, the guidance erasure is instructed, and the guidance is erased (step S7). Then, it is determined whether the gesture target is captured (step S8). If not captured, the process returns to step S1.
一方、ジェスチャ対象を捕捉しているときには、ジェスチャ対象の軌跡が、ジェスチャ対象の開始位置に基づいて取られうるジェスチャリストの経路305のいずれかと一致するか否かを判定する。一致していなければ、ジェスチャがリストにない旨を表示し(ステップS10)、ステップS1に戻る。一致していれば、ジェスチャ対象の移動の軌跡を表示するよう指示する。この軌跡を表示することでユーザは、ガイダンスに示された内容と、自分のジェスチャの動きとが一致していることが分かる。
On the other hand, when the gesture target is captured, it is determined whether or not the gesture target trajectory matches any of the
次に、ジェスチャ対象が取られた経路305により決まる終了位置306か否かを判定する(ステップS12)。終了位置306ではないと判定されれば、ステップS9に戻る。終了位置306であると判定されれば、ジェスチャ完了として、ジェスチャに対応したコマンドを発行し、コマンドに相当する制御を行い、処理を完了する。
Next, it is determined whether or not the
(ガイダンス表示)
捕捉マーカーおよびガイダンスについて説明する。図5は、捕捉マーカーおよびガイダンスの表示例500を示す図である。捕捉マーカー501は、ジェスチャ対象が開始位置にあることをユーザに教える印である。このような捕捉マーカー501の表示により、ユーザはジェスチャの開始位置を知ることができ、そこからのジェスチャと操作内容との対応を学習できる。ガイダンスは、ジェスチャ対象が開始位置にあると認識されているときに表示されるものであって、その開始位置から、認識可能なジェスチャおよび発行可能なコマンドの一覧である。すなわち、ジェスチャ対象をどのように動かせば各コマンドと認識されるかを、ユーザに教えるための案内である。
(Guidance display)
The capture marker and guidance will be described. FIG. 5 is a diagram showing a display example 500 of a captured marker and guidance. The
図5に示すガイダンスの例では、ジェスチャ対象の移動方向を矢印511〜514で、コマンドの内容を文字情報521〜524で示している。したがって、この表示例では、ジェスチャ対象を上方向に動かせばメニュー表示、下方向に動かせば停止、右方向へ動かせば早送り、左方向に動かせば早戻し、のコマンドが発行される。これにより、ユーザは所望の操作を実現するためのジェスチャ対象の移動方向を容易に知ることができる。これらのジェスチャとコマンドとの対応は、図3に示したジェスチャリストにより決定される。なお、ガイダンスは上記の例に限らず、ユーザに開始位置を伝えられるという目的を達すれば、形状や方法は問わない。
In the example of guidance shown in FIG. 5, the movement direction of the gesture target is indicated by
(表示動作)
図6A、図6Bは、テレビジョン受像機100の表示動作を示すフローチャートである。図6を用いて、表示に関わる処理を説明する。主として、図4A、図4Bで説明した内部処理を受けて、グラフィック処理部108が行う表示系処理である。
(Display operation)
6A and 6B are flowcharts showing the display operation of the
まず、テレビジョン受像機100の電源投入等により開始する。テレビジョン受像機100の基本機能による映像をディスプレイ101に表示する。たとえば、放送(電波やIP、オンデマンド等による放送を含む)や録画された映像が表示される(ステップT1)。次に、ジェスチャ対象の表示指示があるか否かを判定する(ステップT2)。表示指示がなければステップT1に戻る。表示指示があれば、カメラで撮影し認識されているジェスチャ対象をディスプレイ101に表示する。
First, it starts when the
このとき、ユーザにとっては、鏡を見ているかのように表示することが、ユーザに違和感を抱かせないために重要であるから、撮影したジェスチャ対象の映像について左右座標を反転させて鏡像化し、基本機能画像に重畳させて表示する(ステップT3)。鏡像化することでジェスチャ対象が鏡に映るようにディスプレイ101に表示される。たとえばユーザが右手を上げれば、画面右側に映る手が上がる。
At this time, since it is important for the user to display as if looking at the mirror so as not to make the user feel uncomfortable, the left and right coordinates of the photographed gesture target image are reversed and mirrored, It is displayed superimposed on the basic function image (step T3). By making a mirror image, the gesture target is displayed on the
次に、捕捉マーカーとガイダンスの表示指示があるか否かを判定する(ステップT4)。表示指示がない場合はステップT2に戻る。表示指示がある場合は、捕捉マーカーとガイダンスを、すでに表示されている基本機能による映像とジェスチャ対象の表示に重畳して表示する(ステップT5)。そして、ガイダンスの消去指示があるか否かを判定する(ステップT6)。消去指示がなければステップT8へ進む。消去指示があればガイダンスを消去する(ステップT7)。 Next, it is determined whether there is an instruction to display a capture marker and guidance (step T4). If there is no display instruction, the process returns to step T2. If there is a display instruction, the captured marker and the guidance are displayed superimposed on the video and gesture target display already displayed (step T5). Then, it is determined whether there is an instruction to delete the guidance (step T6). If there is no erasure instruction, the process proceeds to step T8. If there is a deletion instruction, the guidance is deleted (step T7).
次に、軌跡表示の指示または不合致表示の指示のいずれがなされたかを判定して(ステップT8)、不合致表示の指示であれば不合致表示を表示して(ステップT9)、ステップT11へ進む。軌跡表示の指示があれば、ジェスチャ対象が動いた際の軌跡を表示する(ステップT10)。軌跡の表示としては、たとえばジェスチャ対象が動いた跡を線等で描画する。また、これと同時にガイダンスの表示を消去する。そして、コマンド入力があるか否かを判定する(ステップT11)。この判定は、ジェスチャが完了したか否かの判定となる。コマンド入力がなければ、ステップT10へ戻り軌跡を表示する。コマンド入力があれば、ジェスチャが完了し、コマンド入力されたと判断し、捕捉マーカーと軌跡を消去し(ステップT12)、処理を完了する。 Next, it is determined whether a trajectory display instruction or a disagreement display instruction has been issued (step T8). If a disagreement display instruction is received, a disagreement display is displayed (step T9), and the process proceeds to step T11. move on. If there is an instruction to display a trajectory, the trajectory when the gesture target moves is displayed (step T10). As the display of the trajectory, for example, a trace of movement of the gesture target is drawn with a line or the like. At the same time, the guidance display is deleted. Then, it is determined whether or not there is a command input (step T11). This determination is a determination as to whether or not the gesture has been completed. If no command is input, the process returns to step T10 to display the locus. If there is a command input, the gesture is completed, it is determined that the command has been input, the captured marker and the locus are erased (step T12), and the process is completed.
(使用場面)
次に、ユーザがテレビジョン受像機100を使用した際の使用場面の一連の流れを説明する。図7は、テレビジョン受像機100の使用場面の一例を示す図である。
(Use scene)
Next, a series of usage scenes when the user uses the
使用場面P1では、ユーザU1がテレビジョン受像機100を見ている。このときのテレビジョン受像機100の画面は基本機能による映像として放送やビデオ等の映像711が表示されている。次に、使用場面P2ではユーザU1が前方へ手を広げてテレビジョン受像機100にかざすと、カメラ102で撮影されたユーザU1の手の映像とジェスチャ対象の捕捉マーカー712、矢印713と文字情報714で構成されるガイダンスが映像711の上に重畳されて表示される。
In the usage scene P1, the user U1 is watching the
その後、使用場面P3では、ユーザU1がテレビジョン受像機100に表示された自分の手をガイダンスの「MENU」の文字情報713に重ねるように手を広げたまま上へ上げ、「MENU」の文字情報713に手を重ねている。テレビジョン受像機100の表示は、手の動いた跡の軌跡715が表示され、「MENU」の文字情報713以外のガイダンスが消える。そのまま一定時間(たとえば1秒の設計値)保持すると、使用場面P4に示すようにテレビジョン受像機100のディスプレイ上にユーザU1の意図したとおりにメニュー画面が表示される。
Thereafter, in the usage scene P3, the user U1 raises his / her hand displayed on the
このように動作することで、ユーザU1はテレビジョン受像機100を使いながらジェスチャの開始位置を知ることができ、どのようにジェスチャを行えば、意図したコマンドにつながるかを学習できる。そして、実際にジェスチャを行えば軌跡が描画されるので、機器側の受け取り状況を確認しつつコマンド入力まで完遂できる。その結果、ユーザU1は、ジェスチャ入力への不安を解消できる。
By operating in this way, the user U1 can know the start position of the gesture while using the
[第2の実施形態]
上記の実施形態では、ジェスチャにより操作可能な情報処理機器がテレビジョン受像機100であるが、電子書籍端末であってもよい。以下、上記の実施形態1に対する差分を中心に説明する。
[Second Embodiment]
In the above embodiment, the information processing device that can be operated by the gesture is the
(電子書籍端末の外観)
図8は、電子書籍端末600を示す正面図である。ディスプレイ601は、液晶、有機EL等の表示手段により、映像を表示する。図8の例では、電子書籍を表示している。カメラ602は、ユーザを撮影する方向(ユーザに対向する方向)に向けて配置され、ディスプレイと同じ向きである。カメラ602は、ユーザおよびユーザのジェスチャを撮影する。
(Appearance of e-book reader)
FIG. 8 is a front view showing the
(ジェスチャリスト)
図9は、操作内容、ガイダンス、ジェスチャ判定基準を対応付けたテーブルを示す図である。図9を用いて、ジェスチャリストについて説明する。上記の実施形態ではユーザが比較的離れて使用するテレビジョン受像機100である。これに対して、電子書籍端末600は、ユーザが持って使用し、かつ実際の書籍に近い操作性を与えるものであるため、第1の実施形態の場合とはジェスチャリストの内容が大きく異なる。具体的には、ジェスチャリストのコマンドの種類が電子書籍向けになる。また、ジェスチャ対象の手がカメラから近いため、開始位置・終了位置のジェスチャ対象を示す領域が大きくなる。
(Gesture list)
FIG. 9 is a diagram illustrating a table in which operation contents, guidance, and gesture determination criteria are associated with each other. The gesture list will be described with reference to FIG. In the above embodiment, the
(使用場面)
図10は、電子書籍端末600の使用場面の一例を示す図である。使用場面Q1では、ユーザU2が電子書籍のページを、ジェスチャリストに従ってめくるジェスチャを行っている。電子書籍端末600は、ユーザU2が画面左下に伸ばした手をカメラで撮影して映像処理し、手の映像をディスプレイ601上に表示している。ジェスチャ対象である手が開始位置にあるため、捕捉マーカー712と矢印713および文字情報714によるガイダンスが表示されている。
(Use scene)
FIG. 10 is a diagram illustrating an example of a usage scene of the
使用場面Q2で、ガイダンスに従いユーザU2が手を右方向へ移動すると、開始位置から動かされた手の軌跡715がディスプレイ601に表示される。さらに、使用場面Q3で、ユーザU2が右方向へ手を動かすと、ジェスチャリストに記載された終了位置にジェスチャ対象の手が到達し、ページ送りのコマンドが実行される。
When the user U2 moves the hand in the right direction according to the guidance in the usage scene Q2, the
仮に、使用場面Q1において、ガイダンスに従わずジェスチャリストにない経路のジェスチャをユーザU2が行った場合、ディスプレイ601には捕捉マーカー712と手の映像との間には軌跡が表示されない。さらに、ユーザU2が行ったジェスチャに相当するコマンドがないことを、ユーザに対して伝えるための不合致表示811を表示する。これにより、ユーザU2はジェスチャ開始時の手の位置が適当だったこと、および、その後の手の動かし方が不適当だったためにコマンド実行まで至らなかったことが理解でき、ジェスチャ入力のための学習が進む。
If the user U2 makes a gesture of a route that does not follow the guidance and is not in the gesture list in the usage scene Q1, no trace is displayed on the
100 テレビジョン受像機(情報処理機器)
101 ディスプレイ
102 カメラ
103 テレビ機能処理部
105 演算部
106 メモリ
107 記憶部
108 グラフィック処理部
109 制御部
211 ジェスチャ対象認識部
212 形状判定部
213 鏡像化処理部
214 ジェスチャ表示制御部
221 位置判定部
222 移動判定部
223 操作実行部
224 ガイダンス表示制御部
301 コマンド
302 ガイダンス
303 ジェスチャ対象
304 開始位置
305 経路
306 終了位置
500 表示例
501 捕捉マーカー
511-514 矢印
521-524 文字情報
600 電子書籍端末
601 ディスプレイ
602 カメラ
711 映像
712 捕捉マーカー
713 矢印
714 文字情報
715 軌跡
811 不合致表示
P1−P4、Q1−Q3 使用場面
100 Television receiver (information processing equipment)
DESCRIPTION OF
Claims (10)
カメラにより撮影されたジェスチャ対象を認識するジェスチャ対象認識部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する位置判定部と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるガイダンス表示制御部と、を備えることを特徴とする情報処理機器。 An information processing device that can be operated by a gesture,
A gesture object recognition unit for recognizing a gesture object photographed by a camera;
A position determination unit that determines whether or not the recognized gesture target is at a predetermined start position with respect to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. An information processing device comprising: a guidance display control unit.
前記鏡像化処理されたジェスチャ対象を前記ディスプレイに表示させるジェスチャ表示制御部と、を更に備えることを特徴とする請求項1から請求項4のいずれかに記載の情報処理機器。 A mirroring processing unit that mirrors the recognized gesture target video;
The information processing apparatus according to claim 1, further comprising: a gesture display control unit configured to display the mirrored gesture target on the display.
前記ガイダンス表示制御部は、前記認識されたジェスチャ対象の移動が前記ガイダンスの指示するいずれかの経路に合致する場合には、合致の旨を前記ディスプレイに表示させることを特徴とする請求項1から請求項6のいずれかに記載の情報処理機器。 A movement determination unit for determining, when the recognized gesture target moves, which path the movement indicates matches with the guidance;
2. The guidance display control unit, when the recognized movement of the gesture target matches any of the routes indicated by the guidance, displays a match on the display. The information processing apparatus according to claim 6.
カメラにより撮影されたジェスチャ対象を認識するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定するステップと、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させるステップと、を含むことを特徴とする情報処理方法。 An information processing method performed using an information processing device operable by a gesture,
Recognizing a gesture object photographed by a camera;
Determining whether the recognized gesture object is at a predetermined starting position relative to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. And an information processing method comprising: steps.
カメラにより撮影されたジェスチャ対象を認識する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にあるか否かを判定する処理と、
前記認識されたジェスチャ対象が前記カメラの位置に対して予め定められた開始位置にある場合に、前記認識されたジェスチャ対象の移動方法を指示するガイダンスを、操作内容に対応させてディスプレイに表示させる処理と、を含むことを特徴とする情報処理プログラム。 An information processing program to be executed by an information processing device operable by a gesture,
A process of recognizing a gesture object photographed by a camera;
A process of determining whether the recognized gesture target is at a predetermined start position with respect to the position of the camera;
When the recognized gesture target is at a predetermined start position with respect to the position of the camera, guidance indicating the movement method of the recognized gesture target is displayed on the display in correspondence with the operation content. And an information processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009276213A JP2011118725A (en) | 2009-12-04 | 2009-12-04 | Information processing equipment, information processing method, and information processing program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009276213A JP2011118725A (en) | 2009-12-04 | 2009-12-04 | Information processing equipment, information processing method, and information processing program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011118725A true JP2011118725A (en) | 2011-06-16 |
Family
ID=44283962
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009276213A Withdrawn JP2011118725A (en) | 2009-12-04 | 2009-12-04 | Information processing equipment, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011118725A (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013041579A (en) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | Electronic device and method of controlling the same |
JP2013045125A (en) * | 2011-08-22 | 2013-03-04 | Fuji Xerox Co Ltd | Input display device, image forming device, imaging device, and program |
JP2013077925A (en) * | 2011-09-30 | 2013-04-25 | Sharp Corp | Electronic apparatus |
CN103150010A (en) * | 2011-08-05 | 2013-06-12 | 三星电子株式会社 | Method for controlling electronic device and electronic device utilizing the method |
JP2013246743A (en) * | 2012-05-29 | 2013-12-09 | Sony Corp | Image processing apparatus and program |
JP2014127870A (en) * | 2012-12-26 | 2014-07-07 | Mitsui Home Co Ltd | Housing facility controlling device |
WO2014136521A1 (en) | 2013-03-06 | 2014-09-12 | Necカシオモバイルコミュニケーションズ株式会社 | Imaging device, imaging method and program |
JP2014238828A (en) * | 2013-05-10 | 2014-12-18 | 国立大学法人電気通信大学 | User interface device, and user interface control program |
JP2015011106A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Projection device, projection method, and program |
US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
JP2015515065A (en) * | 2012-04-16 | 2015-05-21 | クアルコム,インコーポレイテッド | Interact with devices using gestures |
US10466800B2 (en) | 2015-02-20 | 2019-11-05 | Clarion Co., Ltd. | Vehicle information processing device |
JP7511943B2 (en) | 2022-01-25 | 2024-07-08 | 株式会社Liberaware | Aircraft |
-
2009
- 2009-12-04 JP JP2009276213A patent/JP2011118725A/en not_active Withdrawn
Cited By (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9002714B2 (en) | 2011-08-05 | 2015-04-07 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
CN103150010A (en) * | 2011-08-05 | 2013-06-12 | 三星电子株式会社 | Method for controlling electronic device and electronic device utilizing the method |
US9733895B2 (en) | 2011-08-05 | 2017-08-15 | Samsung Electronics Co., Ltd. | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same |
JP2013041579A (en) * | 2011-08-05 | 2013-02-28 | Samsung Electronics Co Ltd | Electronic device and method of controlling the same |
CN103150010B (en) * | 2011-08-05 | 2016-08-03 | 三星电子株式会社 | Control the electronic equipment of methods and applications the method for electronic equipment |
JP2013045125A (en) * | 2011-08-22 | 2013-03-04 | Fuji Xerox Co Ltd | Input display device, image forming device, imaging device, and program |
US9239675B2 (en) | 2011-08-22 | 2016-01-19 | Fuji Xerox Co., Ltd. | Input display apparatus and method, image forming apparatus, imaging apparatus, and computer readable medium |
US9241083B2 (en) | 2011-08-22 | 2016-01-19 | Fuji Xerox Co., Ltd. | Apparatus, method, and computer readable medium for displaying gesture guidance information |
JP2013077925A (en) * | 2011-09-30 | 2013-04-25 | Sharp Corp | Electronic apparatus |
JP2015515065A (en) * | 2012-04-16 | 2015-05-21 | クアルコム,インコーポレイテッド | Interact with devices using gestures |
CN104364732B (en) * | 2012-05-29 | 2017-03-01 | 索尼公司 | Image processing equipment |
CN104364732A (en) * | 2012-05-29 | 2015-02-18 | 索尼公司 | Image processing apparatus and program |
US9704028B2 (en) | 2012-05-29 | 2017-07-11 | Sony Corporation | Image processing apparatus and program |
JP2013246743A (en) * | 2012-05-29 | 2013-12-09 | Sony Corp | Image processing apparatus and program |
JP2014127870A (en) * | 2012-12-26 | 2014-07-07 | Mitsui Home Co Ltd | Housing facility controlling device |
WO2014136521A1 (en) | 2013-03-06 | 2014-09-12 | Necカシオモバイルコミュニケーションズ株式会社 | Imaging device, imaging method and program |
US9742989B2 (en) | 2013-03-06 | 2017-08-22 | Nec Corporation | Imaging device, imaging method and storage medium for controlling execution of imaging |
JP2014238828A (en) * | 2013-05-10 | 2014-12-18 | 国立大学法人電気通信大学 | User interface device, and user interface control program |
JP2015011106A (en) * | 2013-06-27 | 2015-01-19 | カシオ計算機株式会社 | Projection device, projection method, and program |
US10466800B2 (en) | 2015-02-20 | 2019-11-05 | Clarion Co., Ltd. | Vehicle information processing device |
JP7511943B2 (en) | 2022-01-25 | 2024-07-08 | 株式会社Liberaware | Aircraft |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2011118725A (en) | Information processing equipment, information processing method, and information processing program | |
KR101148484B1 (en) | Input apparatus | |
EP2728455B1 (en) | Mobile terminal | |
CN105814522B (en) | Device and method for displaying user interface of virtual input device based on motion recognition | |
US9448620B2 (en) | Input method and apparatus of portable device for mapping segments of a hand to a plurality of keys | |
EP4246287A1 (en) | Method and system for displaying virtual prop in real environment image, and storage medium | |
US20100229125A1 (en) | Display apparatus for providing a user menu, and method for providing user interface (ui) applicable thereto | |
CN104298433A (en) | Screen display method, device and mobile terminal | |
CN104461232A (en) | Method and device for determining reduction scale in screen display process | |
CN109388321B (en) | Electronic whiteboard operation method and device | |
EP2586203A1 (en) | Information processing apparatus, information processing system and information processing method | |
WO2022143386A1 (en) | Photographing method, photographing device, electronic device and medium | |
JP5358548B2 (en) | Gesture recognition device | |
KR101435773B1 (en) | Remote control device and remote control method of smart TV. | |
JP7080711B2 (en) | Electronic devices, control methods, programs, and storage media for electronic devices | |
US9319600B2 (en) | Information processing apparatus, information processing method and computer program product | |
US8446428B2 (en) | Image processing apparatus and method of controlling the same | |
JP5396332B2 (en) | Information input device, method and program using gesture | |
JP2013235404A (en) | Information processing device and information processing method | |
JP6548068B2 (en) | Electronic device, display control method and program | |
KR102023187B1 (en) | Detachable Touch Panel Device Equipped with Diplay Device | |
JP2022087633A (en) | Display device, erasing method switching method, and program | |
KR20160022550A (en) | Mobile terminal | |
JP2007279869A (en) | Projector, remote controller for projector and pointer system | |
US20230283877A1 (en) | Image control system and method for controlling image display |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20130205 |