Nothing Special   »   [go: up one dir, main page]

JP2005063225A - Interface method, system and program using self-image display - Google Patents

Interface method, system and program using self-image display Download PDF

Info

Publication number
JP2005063225A
JP2005063225A JP2003293788A JP2003293788A JP2005063225A JP 2005063225 A JP2005063225 A JP 2005063225A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2005063225 A JP2005063225 A JP 2005063225A
Authority
JP
Japan
Prior art keywords
image
operator
remote
user
detecting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003293788A
Other languages
Japanese (ja)
Inventor
Hidekazu Hosoya
英一 細谷
Ikuo Harada
育生 原田
Hidenori Sato
秀則 佐藤
Hisao Nojima
久雄 野島
Yoshinori Kitahashi
美紀 北端
Akira Onozawa
晃 小野澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003293788A priority Critical patent/JP2005063225A/en
Publication of JP2005063225A publication Critical patent/JP2005063225A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • Studio Circuits (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable an operator to designate a remote object in a remote image while watching a self-image superimposed on the remote-side image. <P>SOLUTION: A reverse image generation part 2 generates a reverse image 202 from an image 201 inputted in a user-side image input part 1. An instructed position detection part 3 detects a user designated position 203 in the reverse image 202. An image inputted by a remote-side image input part 4 is transmitted to the user side through a network 13. The reverse image 202 and the remote-side input image 204 are superimposed by an image superimposition part 5. A command selection part 6 selects and outputs command information 206 from the user instructed position 203 and the display position on a display 8 of a plurality of pieces of command information to be selected by the user 12. An information display part 7 superimposes and the command information 206 on the superimposed image 205 and displays them on the display 8. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、ユーザ(操作者)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を自分で見ながら、メニューの選択・実行ができるインタフェース装置に関する。   The present invention relates to an interface device that allows an image (self image) including a user (operator) to be an input image, and allows a user to select and execute a menu while viewing the self image by himself / herself.

従来、コンピュータと人間とのインタフェースにおいて、人間の動作に基づき、画面上でコマンド選択するインタフェース方法としては、キーボードやマウス等のポインティング装置を用いる方法がある。また、カメラからの画像情報から動作を検出する方法がある。一方、通信を介して、遠隔地にある物体(機器等)を操作・情報表示するインタフェース装置としては、コンピュータのソフトによりネットワークを介して遠隔地のカメラを制御可能なWebカメラがある。   Conventionally, in an interface between a computer and a human, there is a method using a pointing device such as a keyboard or a mouse as an interface method for selecting a command on a screen based on a human operation. There is also a method for detecting an operation from image information from a camera. On the other hand, as an interface device for operating / displaying information on an object (device or the like) at a remote location through communication, there is a Web camera capable of controlling the remote camera via a network by computer software.

このようなインタフェース装置の第1の従来手法として、現在一般のコンピュータに接続可能で市販されている装置として、キーボード、マウス、タッチパネル型のディスプレイがある。これらはいずれもユーザの手の動きを検出し、入力情報に変換するものである。   As a first conventional method of such an interface device, there are a keyboard, a mouse, and a touch panel type display as a commercially available device that can be connected to a general computer. All of them detect the movement of the user's hand and convert it into input information.

また、第2の従来手法として、モーションキャプチャシステム関連の製品で、体にマーカーを装着し画像処理によって動きを検出する装置がある。例えば、Vicon Motion Systems Ltd.社の「3次元動作解析システムVicon」(販売元:株式会社ナックイメージテクノロジー)は、体の複数の部位に球形の反射マーカーを貼付け、複数台のカメラからの入力画像から画像処理により各マーカーの3次元座標を算出する方法である。   As a second conventional technique, there is a device for detecting motion by image processing by attaching a marker to the body as a product related to a motion capture system. For example, Vicon Motion Systems Ltd. The company's “3D motion analysis system Vicon” (distributor: NAC Image Technology Co., Ltd.) has a spherical reflective marker attached to multiple parts of the body, and each marker is processed by image processing from input images from multiple cameras. This is a method of calculating three-dimensional coordinates.

また、第3の従来手法として、Vivid Group社のGesture Xtreme Software関連製品(例えばSoccer GX, Volleyball等)がある。本製品は、CG背景画像上に自己像を重ね合わせ、画像上でCGのボール等とユーザの体との接触判定を行い、その結果に基づいてゲーム等のCGソフトとユーザとのインタフェースを実現している。また、非特許文献1に記載の方法がある。本方法は、自画像上にCGのアイコンを表示させ、カメラに向かって行った動作に基づき希望のアイコンを選択(実行)するものである。   In addition, as a third conventional method, there is a product related to Gesture Xtreme Software (for example, Soccer GX, Volleyball, etc.) of Vivid Group. This product superimposes the self-image on the CG background image, determines the contact between the CG ball and the user's body on the image, and realizes the interface between the user and the CG software such as games based on the result doing. Further, there is a method described in Non-Patent Document 1. In this method, a CG icon is displayed on the self-portrait, and a desired icon is selected (executed) based on an operation performed toward the camera.

また、第4の従来手法として、遠隔地間のコミュニケーションが可能な手法として、非特許文献2に記載の手法がある。本手法は、ディスプレイ上に複数地点にいるユーザ映像を自己像含めて重ね合わせ、その映像を各ユーザに表示することにより、各地にいるユーザが同室にいるかのような効果を持つインタフェースである。
佐木ら,“パソコン映像入力を用いたアクション・インタフェースの試み”,第12回ヒューマン・インタフェース・シンポジウム論文集,pp.213−218,1996 森川ら,“相手の空間の指差しが可能なビデオ対話:超鏡”,計測自動制御学会第50回パターン計測部会研究会,pp.382−387,2000
As a fourth conventional technique, there is a technique described in Non-Patent Document 2 as a technique that enables communication between remote locations. This method is an interface that has the effect that users in various places are in the same room by superimposing user images at multiple points on the display including their own images and displaying the images to each user.
Saki et al., “A trial of action interface using PC video input”, Proceedings of the 12th Human Interface Symposium, pp. 213-218, 1996 Morikawa et al., “Video Dialogue that Enables Pointing to the Other's Space: Ultra-Mirror”, Society of Instrument and Control Engineers 50th Pattern Measurement Subcommittee Meeting, pp. 382-387, 2000

しかしながら、上記の従来手法では、以下に示す問題があった。   However, the above conventional methods have the following problems.

第1の従来手法は、ユーザ(操作者)の手の動きを検出する際に装置に接触する必要があり、また装置を利用するための固定し限定された場所が必要であるため、任意の場所での動作検出を行うことが困難である。   The first conventional method needs to touch the device when detecting the movement of the user's (operator's) hand, and requires a fixed and limited place for using the device. It is difficult to detect the operation at the place.

第2の従来手法は、非接触型でありカメラ画像に写る範囲の任意の場所での動作を検出できるが、体の部位に常に何らかのマーカーまたはセンサを装着する必要があるため、家庭や職場等の通常生活におけるインタフェース装置としての利便性に欠ける。   The second conventional method is a non-contact type and can detect an operation at an arbitrary location within the range reflected in the camera image. However, since it is necessary to always wear some kind of marker or sensor on the body part, such as at home or at work. It lacks convenience as an interface device in normal life.

第3の従来手法は、自画像を見ながら同じディスプレイに表示されたCGに手指等を触れる(重ねる)ことでユーザの動きを検出できるが、背景に写っている実空間上の物体を指示することはできないため、応用範囲に制限がある。   The third conventional method can detect a user's movement by touching (superimposing) a finger or the like on a CG displayed on the same display while looking at the self-portrait, but indicates an object in real space that is reflected in the background. The application range is limited.

第4の従来手法は、遠隔地にいる人や物体の映像と、ユーザの自己像を重ねることにより、仮想的に同室にいるかのような効果は得られるが、遠隔地同士の互いのユーザが同じ映像を観察できるだけであり、遠隔地の人や物体に対するアクセス機能はないため、ユーザは遠隔地の物体に対して機器の操作や情報の表示のような遠隔地物体とのインタラクション操作を行うことはできない。   In the fourth conventional method, by superimposing the image of a person or object in a remote place and the user's self-image, the effect of being in the same room can be obtained virtually. Users can interact with remote objects, such as operating devices and displaying information, because they can only observe the same video and do not have access to remote people or objects. I can't.

また、第4の従来手法は、一方のユーザ側の映像はクロマキー手法を用いてユーザの画像部分を切り出した上で遠隔地の映像上に重ね合わせている(重畳している)ため、背景を固定背景(ブルーバック等)とするような制限された撮影場所・条件でしか実現できない。   In addition, in the fourth conventional method, the image of one user side is cut out using the chroma key method and the user's image portion is cut out and then superimposed on the image at a remote place. This can only be achieved with limited shooting locations and conditions such as a fixed background (blue background, etc.).

本発明の目的は、前述した従来手法に対して、
(1)接触型である問題、任意の場所での動作検出を行うことが困難である問題、
(2)インタフェース装置としての利便性に欠ける問題、
(3)応用範囲に制限がある問題、
(4)遠隔地の物体に対する機器操作や情報表示操作を行うことができない問題、
(5)撮影場所・条件が制限される問題、
を解決したインタフェース方法、装置、ならびにプログラムを提供することにある。
The object of the present invention is compared with the conventional method described above.
(1) The problem that it is a contact type, the problem that it is difficult to detect an operation in an arbitrary place,
(2) Problems lacking in convenience as an interface device,
(3) Problems with limited application range
(4) The problem that device operation and information display operation cannot be performed on an object in a remote place,
(5) Problems where shooting location and conditions are limited,
It is an object to provide an interface method, an apparatus, and a program that solve the above.

前記目的を達成するために、本発明のインタフェース装置は、操作者側の画像を入力し、左右反転した反転画像を生成する手段と、該反転画像上で操作者の指示している位置を検出する手段と、遠隔地側の画像を入力する手段と、検出した操作者の指示位置に対応する実物体を、遠隔地側入力画像中から検出する手段と、該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、該重畳画像上で、操作者の指定するコマンドを選択する手段と、該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有している。   In order to achieve the above object, the interface device of the present invention inputs an image on the operator side, generates a reversed image that is reversed left and right, and detects a position indicated by the operator on the reversed image. Means for inputting an image on the remote site side, means for detecting a real object corresponding to the detected position of the operator from the remote site input image, the inverted image and the remote site input Means for generating an image superimposed with the image, means for selecting a command designated by the operator on the superimposed image, and means for displaying information on the superimposed image based on the designated command. doing.

そのため、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を非接触に指定できるので、前記の課題(1)(2)(3)(4)を解決できる。   Therefore, the operator can designate the remote object in the remote image as non-contact while viewing the superimposed self-image on the remote image, so that the problems (1), (2), (3) ( 4) can be solved.

本発明の実施態様では、反転画像と遠隔地側入力画像とを重畳して表示する手段が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する手段を含んでいる。   In an embodiment of the present invention, the means for superimposing and displaying the reverse image and the remote place side input image includes means for making the reverse image on the operator side translucent and superimposing it on the remote place side input image. .

操作者側の映像全体を半透明にして重畳するため、操作者は任意の場所で任意の背景にて遠隔地の物体の操作が可能であるので、前記の課題(1)(2)(3)(4)(5)を解決できる。   Since the entire video on the operator side is made translucent and superimposed, the operator can operate a remote object at an arbitrary background and in an arbitrary background. Therefore, the above problems (1), (2), (3) ) (4) (5) can be solved.

本発明の他の実施態様では、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、該遠隔地側入力画像上において予め任意の実物体位置を登録する手段と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する手段とを有している。   In another embodiment of the present invention, the means for detecting an object corresponding to the detected position indicated by the operator from the remote side input image registers an arbitrary real object position in advance on the remote side input image. And means for detecting a real object designated by the operator from a plurality of pre-registered real objects.

そのため、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することができるので、前記課題の(1)(2)(3)(4)(5)を解決できる。   Therefore, since the initial value of the position information can be registered and updated, even if the position of the object on the remote side moves, if the initial value of the position information is corrected in advance, the user specifies the object at the position after the movement Therefore, the problems (1), (2), (3), (4), and (5) can be solved.

本発明の他の実施態様によれば、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、遠隔地側の実物体の位置を検出する手段と、得られた実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する手段とを有している。   According to another embodiment of the present invention, the means for detecting the object corresponding to the detected position indicated by the operator from the remote place side input image, the means for detecting the position of the real object on the remote place side, Means for detecting the real object position indicated by the operator from the obtained real object position and the position indicated by the operator on the operator side.

遠隔地側の物体が移動しても移動先の物体位置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができるので、前記の課題(1)(2)(3)(4)(5)を解決できる。   Since the object position of the moving destination is detected even if the object on the remote side moves, the object specified by the user can be detected not only for the stationary object but also for the moving object. The problems (1), (2), (3), (4), and (5) can be solved.

本発明によれば、例えば、遠隔地の部屋にある家電機器を遠隔操作したり、遠隔にある物体の情報を画面に表示したりできる。遠隔地として、例えば自宅と会社の間や、自宅内の別の部屋同士間にまたがる操作や情報表示が可能であり、そのような場面での非接触型インタフェース装置としての利用が考えられる。   According to the present invention, for example, home appliances in a remote room can be remotely operated, or information on a remote object can be displayed on a screen. As a remote place, for example, operation and information display between the home and the office or between different rooms in the home are possible, and the use as a non-contact type interface device in such a scene is conceivable.

請求項1と5と9の発明は、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を指定できるため、ユーザフィードバックを得られるので操作者の希望する指定場所(物体)を高速かつ正確に指定することができる。また、非接触の操作により指定できるため、操作のための入力機器であるディスプレイから離れた位置から、遠隔地映像中の指定場所(物体)を指定することができる。これらから、インタフェースの利便性が向上する。   According to the first, fifth, and ninth aspects of the invention, the operator can specify a remote object in the remote image while viewing the superimposed self-image on the remote image, so that user feedback can be obtained. The designated place (object) desired by the person can be designated at high speed and accurately. Further, since it can be designated by a non-contact operation, a designated place (object) in a remote image can be designated from a position away from the display which is an input device for the operation. As a result, the convenience of the interface is improved.

請求項2と6と9の発明は、操作者側の映像全体を半透明にして、遠隔地映像上に重畳するため、操作者側映像中の操作者以外の背景映像部分も薄くなって映るので、濃く映っている遠隔地側の操作対象物体を指定する際のユーザの選択操作性を低下させることはほとんどなく、このためユーザは、任意の場所で任意の背景にて遠隔地の物体の操作が可能となる。このため、インタフェースの利便性が向上する。   In the second, sixth, and ninth aspects of the invention, the entire video on the operator side is made translucent and superimposed on the remote video, so that the background video portion other than the operator in the video on the operator side is also shown as being thin. Therefore, the user's selection operability at the time of designating an object to be operated on the remote side that is dark is hardly deteriorated. Therefore, the user can select the remote object in an arbitrary place and an arbitrary background. Operation becomes possible. For this reason, the convenience of the interface is improved.

請求項3と7と9の発明は、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することが可能となる。このため、インタフェースの利便性が向上する。   The inventions of claims 3, 7 and 9 can register and update the initial value of the position information. Therefore, even if the position of the object on the remote location side moves, if the initial value of the position information is corrected in advance, the position information is moved. The user can specify an object at a later position. For this reason, the convenience of the interface is improved.

請求項4と8と9の発明は、遠隔地側の物体が移動しても移動先の物体位置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができ、任意の対象物体に対して操作が可能となる。このため、インタフェースの利便性が向上する。   In the inventions of claims 4, 8 and 9, since the position of the destination object is detected even if the object on the remote side moves, the user can detect not only a stationary object but also a moving object. An object to be specified can be detected, and an operation can be performed on an arbitrary target object. For this reason, the convenience of the interface is improved.

次に、本発明の実施の形態について図面を参照して説明する。   Next, embodiments of the present invention will be described with reference to the drawings.

(第1の実施形態)
図1は本発明の第1の実施形態のインタフェース装置の構成図、図2はその処理を示すフローチャートである。
(First embodiment)
FIG. 1 is a configuration diagram of an interface apparatus according to the first embodiment of the present invention, and FIG. 2 is a flowchart showing the processing.

本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5とコマンド選択部6と情報表示部7で構成される。   The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the user 12 superimposes the image based on the operation of the user 12 while viewing the self-image on the display 8 by himself / herself. A command is executed for an object in a remote site side image (superposed), and a user side image input unit 1, a reverse image generation unit 2, a pointing position detection unit 3, a remote site side image input unit 4 and an image It comprises a superimposing unit 5, a command selecting unit 6, and an information display unit 7.

ユーザ側画像入力部1として、本例では、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし下記で述べる色情報を使用した方法を用いる場合はカラーカメラが必要である。   As the user side image input unit 1, in this example, one camera is used as shown in FIG. The camera may be a commonly used video camera and may be black and white or color. However, when using the method using color information described below, a color camera is required.

反転画像生成部2は、画像入力部1で入力された画像(入力画像)201を入力し、左右反転させた画像(反転画像)202を生成する(ステップ101)。コンピュータ内へ取り込んだ入力画像201に対し汎用の画像処理ソフトウェア(例:HALCON)により、リアルタイムに反転画像202を生成することができる。または、入力画像を入力し反転画像をリアルタイムに生成する機器(例:(株)朋栄の画面左右反転装置UPI−100LRF、またはカメラ一体型でSONYのEVI−D100)で実現できる。   The inverted image generation unit 2 inputs the image (input image) 201 input by the image input unit 1 and generates an image (inverted image) 202 that has been horizontally reversed (step 101). A reverse image 202 can be generated in real time with general-purpose image processing software (for example, HALCON) for the input image 201 captured in the computer. Alternatively, it can be realized by a device that inputs an input image and generates a reverse image in real time (for example, a screen horizontal reversing device UPI-100LRF of Sakae Co., Ltd., or a camera-integrated SONY EVI-D100).

指示位置検出部3は、反転画像生成部2で得られた反転画像202上において、ユーザ12が手指等の体の部位で指し示す位置(ユーザ指示位置)203を検出する(ステップ102)。   The designated position detection unit 3 detects a position (user designated position) 203 that the user 12 points to with a body part such as a finger on the reverse image 202 obtained by the reverse image generation unit 2 (step 102).

指示位置検出部3の1つ目の実現例として、ユーザ12がマーカを持ち、反転画像202中のマーカを画像処理により検出する方法がある。例えば、まず、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラ1の前で手振りして動かす。得られたカラー画像のRGB等色情報の値から赤色成分を抽出し、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を行い、その中で最も面積の大きい赤色部分を1つ選び、その位置の重心位置(x,y)を求める。得られた(x,y)座標をユーザ指示位置203とする。ここで、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で、手に持ちもしくは装着し、当該色を抽出して同様に行う方法も可能である。(x,y)は重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもよい。   As a first implementation example of the indicated position detection unit 3, there is a method in which the user 12 has a marker and a marker in the reverse image 202 is detected by image processing. For example, first, a red object (other colors may be used, but less colors are preferable in the background image) is held or attached to the hand, and is moved by shaking in front of the camera 1. A red component is extracted from the RGB color matching information values of the obtained color image, and a labeling process (a general image processing method for grouping each group) is performed, and one red part having the largest area is selected. The center of gravity (x, y) of the position is obtained. The obtained (x, y) coordinates are set as the user designated position 203. Here, instead of a red object, a light emitting diode (LED) of red color (which may be other colors as well as the above object) is made to emit light, and is held or attached to the hand to extract the color. A method of performing is also possible. (X, y) is not the center of gravity position (the average value of the total values of the x coordinates of all the pixel values of the extracted portion and the average value of the total values of the y coordinates), but the center position (the maximum of the x coordinates of the extracted portion) Or the center value of the minimum value and the maximum value of the y coordinate and the center value of the minimum value).

指示位置検出部3の2つ目の実現例として、ユーザ12がマーカを持たずに、反転画像202中の手の位置を画像処理により直接検出する方法がある。例えば、まず、得られたカラー画像をRGB等の色情報の値から肌色成分を抽出し、ラベリング処理を行う。得られた複数の肌色部分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。その選択する具体的な方法例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積の大きいのは顔と考えられるので、2つ目と3つ目に面積が大きい肌色部分を手の候補として選択する。ユーザ指定位置を両手両方とした場合、その2つの肌色部分の候補に対する重心位置を、各々左右の手のユーザ指定位置とすればよい。またユーザ指定位置を1つとすると、2つの候補から1つを選ぶ必要があるが、予め例えば右手を指定する手としたら、体より右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置203とすればよい。左手の場合も同様である。   As a second example of realization of the indicated position detection unit 3, there is a method in which the user 12 directly detects the position of the hand in the inverted image 202 without having a marker by image processing. For example, first, a skin color component is extracted from the obtained color image from color information values such as RGB, and a labeling process is performed. A target hand is selected from the obtained plurality of skin color portions using constraint information such as the size and position of the hand. As a specific example of the method to be selected, if the user is usually wearing clothes, it is considered that the candidate for the skin color portion is likely to be both hands and face, and the largest area is the face. Since it is conceivable, a skin color portion having a large area in the second and third areas is selected as a candidate for the hand. When the user-specified positions are both hands, the center-of-gravity positions for the two skin color part candidates may be the user-specified positions for the left and right hands, respectively. Also, if the user-specified position is one, it is necessary to select one of the two candidates. For example, if the right hand is designated in advance, the candidate on the right hand side of the body (because the possibility of the right hand is high). The skin color portion of the right hand may be selected and the center of gravity position may be set as the user-specified position 203 of the right hand. The same applies to the case of the left hand.

指示位置検出部3のこれらの実現例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。差分画像は、例えば、反転画像202上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との間で作成する。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、体等の動く物体だけを予め抽出しておき、その後前述したような画像処理(例えば体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置203を検出しその座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。   In these implementation examples of the indicated position detection unit 3, the accuracy can be improved by adding a process using the difference image before the detection process described above. For example, the difference image is created on the reverse image 202 between a background image captured in advance (image captured without a user) and a current image currently captured (image with a user). . The difference image can be created, for example, by obtaining the absolute value of the difference between the pixel value of the background image and the pixel value of the current image (at the same pixel position) for every pixel. By using this difference image, only a moving object such as a body is extracted in advance, and then the user performs image processing as described above (for example, a method of extracting a marker attached to the body or a method of extracting skin color). If the designated position 203 is detected and the coordinates thereof are acquired, it can be easily estimated that false detection of colors similar to the color of the marker or the skin color included in the background image can be reduced.

このような指示位置検出部3により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触判定部位に用いることができるので、コマンド選択のためのアイコン等を任意の位置におけるのでその位置およびユーザ動作に関して高い自由度を得られる。   Such an indicated position detection unit 3 does not target the entire body for command selection, and only a marker or a hand can be used as a contact determination part, so an icon for command selection or the like can be placed at an arbitrary position. Therefore, a high degree of freedom can be obtained with respect to the position and user operation.

遠隔地側画像入力部4として、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。遠隔地側入力画像204は、ネットワーク13を介してユーザ側に送る。画像をネットワーク13を介して送る方法は、既存の一般的なインターネットを用いた映像データ送信技術を使うことによっても可能であり、また一般的な映像放送等による無線を用いた送信によっても、有線ネットワーク上での送信によっても容易に可能である。さらにまた、ネットワーク13を介さず、遠隔地側画像入力部4の出力204を直接画像重畳部5に接続することも可能である。ユーザ側と遠隔地側が比較的近い場所にある場合には、このような直接接続で映像信号を送る方法も有効である。その場合は図のネットワーク13は省略できる。   As the remote location side image input unit 4, one camera is used as shown in FIG. The camera may be a commonly used video camera and may be black and white or color. The remote site side input image 204 is sent to the user side via the network 13. The method of sending an image via the network 13 can be achieved by using an existing video data transmission technique using the general Internet, or by a wireless transmission such as a general video broadcast. It is also possible by transmission on the network. Furthermore, the output 204 of the remote image input unit 4 can be directly connected to the image superimposing unit 5 without going through the network 13. When the user side and the remote site side are relatively close to each other, a method of sending a video signal by such direct connection is also effective. In that case, the network 13 in the figure can be omitted.

画像重畳部5は、反転画像生成部2で得られた反転画像202と、遠隔地側画像入力部4で得られた遠隔地側画像204を1つの画像に重ね合わせる(ステップ103)。この時、ユーザ12の自己像が写った反転画像202からユーザ12の体の輪郭(または動作入力に必要な手指等の部分画像だけもよい)を切り出し、遠隔地側画像204の上にその切り出した画像部分を重ね合わせる。ユーザ12の体の切り出しは、例えば画像処理により実現できる。切り出しの画像処理方法としては、背景差分によるユーザ12の切り出し方法がある。これは、例えば反転画像202(またはユーザ側の入力画像201)について予めユーザ12のいない場合の背景画像を撮影取得しておき、ユーザ12がいる場合に、背景画像とユーザ12がいる場合の画像との差分画像を生成することにより行える。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。または、肌色認識処理を用いることにより、手の部分だけを切り出すことも容易に可能である。これらにより、遠隔地側画像204中にユーザ12が入り込んだかのような重畳画像を生成できる。   The image superimposing unit 5 superimposes the reverse image 202 obtained by the reverse image generating unit 2 and the remote site side image 204 obtained by the remote site side image input unit 4 on one image (step 103). At this time, the outline of the body of the user 12 (or only a partial image such as a finger necessary for operation input) may be cut out from the inverted image 202 in which the self-image of the user 12 is captured, and the cut out on the remote side image 204 Overlapping image parts. The user 12 can be cut out by, for example, image processing. As an image processing method of clipping, there is a clipping method of the user 12 by background difference. This is because, for example, a reverse image 202 (or an input image 201 on the user side) is captured and acquired in advance when a user 12 is not present, and when the user 12 is present, the background image and the image when the user 12 is present. This can be done by generating a difference image. The difference image can be created, for example, by obtaining the absolute value of the difference between the pixel value of the background image and the pixel value of the current image (at the same pixel position) for every pixel. Alternatively, it is possible to easily cut out only the hand portion by using the skin color recognition process. As a result, it is possible to generate a superimposed image as if the user 12 entered the remote site side image 204.

コマンド選択部6は、指示位置検出部3で得られたユーザ指示位置203と、ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での表示位置を照らし合わせ、両者の位置関係からユーザ12が指示しようとするコマンド情報206を探索し選択する(ステップ104)。ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での該表示位置は、各々予め、該遠隔地側入力画像上での表示位置を定めて記憶しておけばよい。例えば、ユーザ指示位置からある一定の距離範囲に表示位置を持つコマンドがあればそれを選択すればよい。コマンド情報206の表示位置は、コマンド毎に予め任意の位置に決めておけばよい。   The command selection unit 6 compares the user indication position 203 obtained by the indication position detection unit 3 with the display positions on the display 8 of a plurality of command information to be selected by the user 12, and determines the user from the positional relationship between the two. 12 searches for and selects command information 206 to be instructed (step 104). The display positions on the display 8 of a plurality of command information to be selected by the user 12 may be determined in advance and stored in advance on the remote side input image. For example, if there is a command having a display position within a certain distance range from the user-designated position, it may be selected. The display position of the command information 206 may be determined in advance for each command.

情報表示部7は、画像重畳部5で得られた重畳画像202とコマンド選択部6で作成されたコマンド情報206とを重ね合わせてディスプレイ8に表示する(ステップ105)。ディスプレイ8は、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの画面とカメラ画像を表示できるものであればよい。コマンド情報206とは、コマンド表示位置やコマンド内容等のコマンドに関わる情報と、ユーザ12がその中から選択したコマンドの情報であり、その表示方法は、コンピュータで作成したCGで、選択可能なコマンド(群)、および選択されたコマンドを表示すればよい。また、指示位置検出部3で得られたユーザ指示位置203についても、例えばマウスのカーソル表示のようにリアルタイムに明示して表示してもよい。コマンドの内容としては、遠隔地側の物体を操作したり情報を表示するコマンドでもよいし、ユーザ側の部屋に関わる操作や情報表示を行うコマンドでもよい。遠隔地側の物体を操作したり情報を表示するコマンドであれば、重畳画像205中に遠隔地側の画像が表示されているので、ユーザ12にとって、操作の判断や、操作結果の確認が可能であり、ユーザ利便性の高いインタフェースを実現できる。   The information display unit 7 superimposes the superimposed image 202 obtained by the image superimposing unit 5 and the command information 206 created by the command selecting unit 6 on the display 8 (step 105). The display 8 may be a general-purpose display used for a computer as long as it can display a computer screen and a camera image. The command information 206 is information related to the command such as the command display position and command content, and information on the command selected by the user 12. The display method is a command that can be selected by a computer generated CG. The (group) and the selected command may be displayed. Further, the user designated position 203 obtained by the designated position detection unit 3 may also be explicitly displayed in real time, for example, as a mouse cursor display. The content of the command may be a command for operating an object on the remote side or displaying information, or a command for performing an operation or information related to the room on the user side. If the command is for operating a remote object or displaying information, the remote image is displayed in the superimposed image 205, so that the user 12 can determine the operation and confirm the operation result. Therefore, an interface with high user convenience can be realized.

本実施形態によれば、ユーザ12は、自己画像が映った画面を見ながら、同じ画面上にCG表示されているコマンド情報207に手指等を重ね合わせるだけでコマンド選択が可能であるため、分かり易く間違いの少ない指示が可能になる。   According to the present embodiment, the user 12 can select a command by simply placing a finger or the like on the command information 207 displayed on the same screen while viewing the screen on which the self-image is displayed. Easy and error-free instructions are possible.

(第2の実施形態)
図3は本発明の第2の実施形態のインタフェース装置の画像重畳部の構成図、図4はその処理を示すフローチャートである。
(Second Embodiment)
FIG. 3 is a block diagram of the image superimposing unit of the interface apparatus according to the second embodiment of the present invention, and FIG. 4 is a flowchart showing the processing.

本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザが12ディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、図1の第1の実施形態で示した画像重畳部5を、画像を半透明化処理する半透明化処理部5Aと、重畳処理部5Bで構成したものである。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、コマンド選択部6、情報表示部7の機能は、第1の実施形態と同様である。第1の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際にネットワーク13を介しても介さなくてもよい。   The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the user superimposes the self-image on the 12 display 8 based on the operation of the user 12 while viewing the self-image on the 12 display 8 himself. A command is executed with respect to an object in a remote place side image (superposed), and the image superimposing unit 5 shown in the first embodiment in FIG. 5A and the superimposition processing unit 5B. The functions of the other user side image input unit 1, inverted image generation unit 2, designated position detection unit 3, remote site side image input unit 4, command selection unit 6, and information display unit 7 are the same as those in the first embodiment. is there. Similar to the first embodiment, the remote side input image 204 may or may not be sent via the network 13 when being sent to the user side.

半透明化処理部5Aは、入力された反転画像203を半透明化する(ステップ103A)。半透明化の度合いを自由に設定することも容易に可能である。半透明化の方法は、画像データに対し、画素ごとに透明度(アルファ値とも言われ一般的な方法である)情報を持たせることで実現できる。重畳処理部5Bは、遠隔地側画像204を背景として、その上に、半透明化された反転画像を重ね合わせて(重畳して)1枚の画像(重畳画像)205を生成する(ステップ103B)。重畳する際は、半透明化された反転画像中の透明度の値の高い画素は、背景の画素値がその透明度の割合だけその画素情報(カラー画像ならカラー情報)が表示されることになる。例えば、透明度が0.7ならば、同じ位置の背景画素の情報を70%、残りの30%を反転画像205上の画素情報として、各々の値を加算して求めればよい。   The translucent processing unit 5A translucents the input reverse image 203 (step 103A). It is also possible to set the degree of translucency freely. The translucency method can be realized by providing transparency (information called alpha value) information for each pixel in the image data. The superimposition processing unit 5B generates a single image (superimposed image) 205 by superimposing (superimposing) the translucent inverted image on the remote site side image 204 as a background (step 103B). ). At the time of superimposing, the pixel information (color information in the case of a color image) is displayed for the pixel having a high transparency value in the translucent inverted image with the ratio of the transparency of the background pixel value. For example, if the transparency is 0.7, the background pixel information at the same position is 70% and the remaining 30% is the pixel information on the inverted image 205, and the respective values are added.

本実施形態によれば、ユーザ12の自己像を含む反転画像202を半透明化して遠隔地側画像204に重畳するため、ユーザ12は遠隔地側入力画像204中の物体像と、ユーザ12の自己像を同時に見られるので、手指等と目的の物体を画像上で重ねる操作を行う際に、遠隔地でありながら、仮想的に同じ部屋にあるかのような操作性の高いインタフェースを実現できる。また、透明度は自由に設定できるので、重畳したときに、ユーザ12に最も操作しやすく自由に透明度を変更することができる。   According to the present embodiment, since the inverted image 202 including the self image of the user 12 is translucent and superimposed on the remote site side image 204, the user 12 has the object image in the remote site side input image 204 and the user 12 's image. Since you can see the self-image at the same time, you can realize an interface with high operability as if you are in the same room virtually while you are in a remote place, when you perform an operation to overlap your finger and the target object on the image . Further, since the transparency can be freely set, the transparency can be freely changed by the user 12 most easily when superimposed.

また、半透明化処理部5Aは、反転画像202だけを半透明化するのではなく、遠隔地側入力画像204を半透明化処理し、反転画像202と重畳してもよい。もちろん、遠隔地側入力画像204と反転画像202の両方を半透明化してから重畳してもよい。これらにより、それぞれの入力画像の状態(撮影された照明条件、背景画像、物体・ユーザの色状態など)により、ユーザ12に最も操作しやすく自由に各々の透明度を変更することもできる。   Further, the translucent processing unit 5 </ b> A may perform the translucent processing on the remote place side input image 204 and superimpose the inverted image 202 on the remote image 202 instead of translucent the inverted image 202 alone. Of course, both the remote-side input image 204 and the reverse image 202 may be made semi-transparent and then superimposed. Accordingly, the transparency of each input image can be freely changed according to the state of each input image (such as a photographed illumination condition, a background image, an object / user color state, etc.) that is most easily operated by the user 12.

(第3の実施形態)
図5は本発明の第3の実施形態のインタフェース装置の構成図、図6はその処理を示すフローチャートである。
(Third embodiment)
FIG. 5 is a block diagram of the interface apparatus according to the third embodiment of the present invention, and FIG. 6 is a flowchart showing the processing.

本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10で構成される。   The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the user 12 superimposes the image based on the operation of the user 12 while viewing the self-image on the display 8 by himself / herself. A command is executed for an object in a remote site side image (superposed), and a user side image input unit 1, a reverse image generation unit 2, a pointing position detection unit 3, a remote site side image input unit 4 and an image The superimposing unit 5, the real object detection unit 9, the information display unit 7, and the real object registration unit 10 are configured.

本実施形態では、第1の実施形態の内容に加え、第1の実施形態で示したコマンド選択部6に、実物体14の検出ができる仕組みを装備している。具体的には、第1の実施形態のコマンド選択部6が実物体検出部9と実物体登録部10で構成されている。実物体登録部10は実物体位置データ10Aと実物体登録処理部10Bで構成される。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7は、第1の実施形態と同様である。第1、第2の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際に、ネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理も可能である。   In this embodiment, in addition to the contents of the first embodiment, the command selection unit 6 shown in the first embodiment is equipped with a mechanism that can detect the real object 14. Specifically, the command selection unit 6 of the first embodiment includes a real object detection unit 9 and a real object registration unit 10. The real object registration unit 10 includes real object position data 10A and a real object registration processing unit 10B. The other user side image input unit 1, inverted image generation unit 2, designated position detection unit 3, remote location side image input unit 4, image superimposition unit 5, and information display unit 7 are the same as those in the first embodiment. Similar to the first and second embodiments, the remote side input image 204 may be sent via the network 13 or not when sent to the user side. The image superimposing unit 5 can also perform processing including translucency processing as in the second embodiment.

実物体登録処理部10Bは、遠隔地側入力画像204上に含まれている任意の実物体14(例えば家の中とすると、テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引出し、書類、オーディオ機器、照明機器等)について、該遠隔地側入力画像204上での表示位置を予め各々求め、実物体位置データ10Aへ各々登録・保存する(ステップ106)。   The real object registration processing unit 10 </ b> B is an arbitrary real object 14 included on the remote site side input image 204 (for example, in the house, a television, an air conditioner, a computer, a clock, a window, a shelf, a chair, a desk, a drawer, , Documents, audio equipment, lighting equipment, etc.), the display positions on the remote site side input image 204 are obtained in advance, and are registered and stored in the real object position data 10A (step 106).

実物体位置データ10Aは、物体の中心座標(x,y)1個でもよいが、範囲を示す情報(例えば、矩形枠の始点座標(x1,y1)と終点座標(x2,y2)や、中心座標(x,y)と半径値rや、または物体の存在する全ドットの座標リスト等)を持たせておいてもよい。第1の実施形態の指示位置検出部3での処理と同様に中心座標は重心座標に置き換えてもよい。   The actual object position data 10A may be one center coordinate (x, y) of the object, but information indicating the range (for example, the start point coordinates (x1, y1) and end point coordinates (x2, y2) of the rectangular frame, the center A coordinate (x, y) and a radius value r, or a coordinate list of all dots in which an object exists may be provided. The center coordinates may be replaced with the center-of-gravity coordinates as in the processing in the designated position detection unit 3 of the first embodiment.

実物体検出部9は、実物体位置データ10Aに保存されている複数の位置データと、指示位置検出部3で得られたユーザ指示位置203とを照らし合わせ、第1の実施形態のコマンド選択部6と同様に、両者の位置関係に基づきユーザ12が指示しようとする実物体14を検出し選択する(ステップ107)。例えば、ユーザ指示位置からある一定の距離範囲に実物体14の位置データがあればそれを選択すればよい。または、実物体位置データ10Aとして範囲を持たせておいた場合は、ユーザ指示位置の座標がその範囲に含まれる実物体14を検出し、選択する。   The real object detection unit 9 compares the plurality of position data stored in the real object position data 10A with the user designated position 203 obtained by the designated position detection unit 3, and the command selection unit according to the first embodiment. Similarly to FIG. 6, based on the positional relationship between the two, the real object 14 to be instructed by the user 12 is detected and selected (step 107). For example, if there is position data of the real object 14 within a certain distance range from the user-designated position, it may be selected. Alternatively, when a range is provided as the real object position data 10A, the real object 14 in which the coordinates of the user-designated position are included in the range is detected and selected.

図7に本実施形態によるインタフェース動作の例を示す。   FIG. 7 shows an example of the interface operation according to the present embodiment.

遠隔地側入力画像204上に映っている実物体について、予め表示位置を求め、各々実物体位置データ10Aへ登録しておく。ユーザ側入力画像201を反転した反転画像202が遠隔地側入力画像204の上に重畳されており、ユーザ12が動作すると、重畳画像205上のユーザ像は、遠隔地側の実物体の前面で動作しているように見える。ユーザ12が指示動作をしていない時は何も反応しないが、ユーザ12がアクセスしたい実物体に手指(やマーカ)等を重ねる動作を行い、実物体検出部9で実物体を検出したと判定した時、検出された実物体の位置が明示される。その明示の仕方は、例えば、実物体と同じ形もしくはほぼ同じ大きさのアイコン(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を該実物体の上に重ねて表示する方法や、実物体の中心付近や実物体周囲にCGによるマーカ(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を表示する方法など容易に考えられる。すなわち、実際は実物体位置上の仮想のアイコン、もしくは表示した(透明もしくはその他の色の)CGアイコンを触ることとなる。また、検出された実物体の周囲等に、関連する情報(名称や状態等)を表示してもよい。さらに、図のように、検出された実物体位置の周囲等に、その後続けて選択すべきメニューリストをCG表示し、ユーザ12はそのメニューリストから同様の選択方法(すなわち手指等を選択したいメニューアイコンに重ね合わせて選択する方法)等によりメニューを選択し実行することも可能である。   Display positions are obtained in advance for real objects shown on the remote-side input image 204, and are registered in the real object position data 10A. An inverted image 202 obtained by inverting the user-side input image 201 is superimposed on the remote site-side input image 204, and when the user 12 operates, the user image on the superimposed image 205 is displayed in front of the real object on the remote site side. Looks like it works. When the user 12 is not instructing an action, nothing reacts, but it is determined that the real object is detected by the real object detection unit 9 by performing an operation of placing a finger (or a marker) on the real object that the user 12 wants to access. The position of the detected real object is specified. For example, an icon of the same shape or the same size as the real object (such as a color changed, semi-transparent or blinked, etc. if necessary) is superimposed on the real object. And a method of displaying a CG marker (changed color, semi-transparent or blinked, etc. as necessary) near the center of the real object or around the real object. . That is, the user actually touches a virtual icon on the real object position or a displayed (transparent or other color) CG icon. Further, related information (name, state, etc.) may be displayed around the detected real object. Further, as shown in the figure, a menu list to be subsequently selected is displayed CG around the detected real object position and the like, and the user 12 selects a similar selection method (that is, a menu for selecting a finger or the like from the menu list). It is also possible to select and execute the menu by a method of selecting by overlapping the icon.

これにより、ユーザ12は、画像上に表示されたCGアイコンを指定してコマンド選択できるだけでなく、遠隔地にある実物体14を、画像中の物体像208を介して直接選択することも可能となる。第1の実施形態のようにCGによるコマンド選択と組み合わせれば、例えば、遠隔地のテレビ等を指し示して選択すると、テレビのスイッチやチャンネル等を制御できるようなコマンド選択用CGメニューが該実物体(テレビ)の周辺に表示され、ユーザ12は続けてコマンド選択を行い、遠隔地の実物体(テレビ)に対して各種操作を行うことが可能である。   As a result, the user 12 can not only select a command by specifying a CG icon displayed on the image, but can also directly select the real object 14 at a remote location via the object image 208 in the image. Become. When combined with command selection by CG as in the first embodiment, for example, a command selection CG menu that can control a television switch, channel, etc. when a remote television or the like is pointed to is displayed on the real object. The user 12 can continue to select commands and perform various operations on a remote real object (television).

また、遠隔地の実物体側でユーザ12に提示すべき情報を獲得していた場合、重畳画像205上の該実物体像の上または周囲に該情報を表示したり、もしくはアイコン(色を変えたものや半透明にしたものや点滅させたもの等)を該実物体像の上に重ねたりして明示し、見ているユーザ12に知らせるようにすることも考えられる。その後は前述と同様に、ユーザ12が該実物体を選択すると、必要な情報やCGメニューを表示できる。   When information to be presented to the user 12 is acquired on the real object side in a remote place, the information is displayed on or around the real object image on the superimposed image 205, or an icon (color is changed). It is also conceivable that a user, a semi-transparent object, a blinking object, etc.) are clearly indicated by being superimposed on the real object image to notify the user 12 who is viewing. Thereafter, as described above, when the user 12 selects the real object, necessary information and a CG menu can be displayed.

(第4の実施形態)
図8は本発明の第4の実施形態のインタフェース装置の構成図、図9はその処理を示すフローチャートである。
(Fourth embodiment)
FIG. 8 is a block diagram of an interface apparatus according to the fourth embodiment of the present invention, and FIG. 9 is a flowchart showing the processing.

本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10と実物体位置検出部11で構成される。以下、本発明の動作を説明する。   The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the user 12 superimposes the image based on the operation of the user 12 while viewing the self-image on the display 8 by himself / herself. A command is executed for an object in a remote site side image (superposed), and a user side image input unit 1, a reverse image generation unit 2, a pointing position detection unit 3, a remote site side image input unit 4 and an image The superimposing unit 5, the real object detection unit 9, the information display unit 7, the real object registration unit 10, and the real object position detection unit 11 are configured. The operation of the present invention will be described below.

本実施形態では、第3の実施形態の内容に加え、遠隔地側に実物体の位置をリアルタイムに検出できる仕組みを装備している。具体的には、第3の実施形態に加え、実物体位置検出部11を装備している。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7、実物体登録部10は、第3の実施形態と同様である。第1、第2、第3の実施形態と同様に、遠隔地側画像入力部4、実物体位置検出部11は、ユーザ側とはネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理方法も可能である。   In this embodiment, in addition to the contents of the third embodiment, a mechanism capable of detecting the position of a real object in real time is provided on the remote side. Specifically, in addition to the third embodiment, an actual object position detection unit 11 is provided. Other user side image input unit 1, inverted image generation unit 2, designated position detection unit 3, remote site side image input unit 4, image superimposition unit 5, information display unit 7, and real object registration unit 10 are the third implementation. It is the same as the form. Similar to the first, second, and third embodiments, the remote-side image input unit 4 and the real object position detection unit 11 may or may not be connected to the user side via the network 13. In addition, the image superimposing unit 5 can be a processing method including translucent processing as in the second embodiment.

実物体位置検出部11は、遠隔地側画像入力部4から送られた遠隔地側入力画像204を入力し、対象とする物体の画像上の位置を求める処理を行う(ステップ108)。物体位置を求める方法としては、対象とする実物体毎に位置認識可能なセンサ(広く市販も研究開発もされており、磁気センサ、超音波センサ、赤外線センサ等各種ある)を取り付けておくことにより、各々の物体の位置をリアルタイムに検出する方法がある。また、物体位置を求める他の方法としては、撮影している遠隔地側入力画像204を用い、画像処理により求める方法がある。具体的には、対象とする物体の色や形状情報を予め登録しておき、該画像の上で、登録している物体をパターンマッチング処理等の画像処理により検出すればよい。パターンマッチング処理の方法については、汎用の画像処理ソフトの1機能として装備されていたり、また広く市販・研究開発が行われているものであり、容易に利用・実現可能である。画像処理を用いた方法の場合は、図8に示した物体14に取り付けるセンサ15はなくてもよい。   The real object position detection unit 11 inputs the remote site side input image 204 sent from the remote site side image input unit 4 and performs a process of obtaining the position of the target object on the image (step 108). As a method for obtaining the object position, a sensor capable of recognizing the position of each target real object (widely marketed and researched and developed, including various sensors such as a magnetic sensor, an ultrasonic sensor, and an infrared sensor) is attached. There is a method for detecting the position of each object in real time. As another method for obtaining the object position, there is a method for obtaining the object position by image processing using the remote place side input image 204 being photographed. Specifically, the color and shape information of the target object may be registered in advance, and the registered object may be detected on the image by image processing such as pattern matching processing. The pattern matching processing method is equipped as one function of general-purpose image processing software, or is widely marketed and researched and developed, and can be easily used and realized. In the case of a method using image processing, the sensor 15 attached to the object 14 shown in FIG.

本実施形態によれば、実物体位置データを常時更新していくことも可能であり、物体を移動させてもその位置情報も移動させられるので、情報表示部7によってユーザ側に表示される画像上では、物体が移動しても移動した先の物体(現時点の物体)をユーザ12は画面上で触ることができる。   According to the present embodiment, it is possible to constantly update the actual object position data, and even if the object is moved, the position information is also moved, so that the image displayed on the user side by the information display unit 7 In the above, even if the object moves, the user 12 can touch the moved object (current object) on the screen.

(第5の実施形態)
以上の実施形態では、遠隔地側からユーザ側へ画像が流れ、ユーザ側で操作するものであったが、いずれの実施形態でも、本システムを2セット用いて、互いに逆向きに設置することにより、双方向の操作が可能なインタフェース装置を実現可能である。これにより、遠隔地間でそれぞれにユーザがいて、互いの部屋の背景に移っている物体を操作したり情報表示したりすることも可能であり、その際、互いのユーザも同一の画面に重畳することも容易に可能であるので、両ユーザがあたかも1つの同部屋にいて、同じく見えている物体を2人で確認しながら触ることも可能である。
(Fifth embodiment)
In the above embodiment, the image flows from the remote site side to the user side and is operated on the user side. However, in any embodiment, two sets of this system are used and installed in opposite directions. An interface device capable of bidirectional operation can be realized. As a result, there is a user between remote locations, and it is also possible to operate and display information on objects that have moved to the background of each other's room. It is also possible to do this easily, so it is possible for both users to be in the same room and touch them while checking the objects that are also visible.

(第6の実施形態)
以上の実施形態では、2箇所の地点を接続するものであったが、本システムにおける遠隔地側を複数設定することも可能である。また、同様にユーザ側を複数設定することも容易に可能である。さらに、第5の実施形態のような双方向操作を可能とすれば、任意の地点のユーザが任意の地点のユーザもしくは物体に対して機器操作や情報表示(情報取得)を行うことができる。重畳する画像としては、そのうちの必要な2地点の画像を重畳し、必要に応じ別の2地点に切り替える方法でもよいし、また必要な3地点以上の画像を重畳して表示してもよい。
(Sixth embodiment)
In the above embodiment, two points are connected, but it is also possible to set a plurality of remote locations in this system. Similarly, it is possible to easily set a plurality of users. Furthermore, if bidirectional operation as in the fifth embodiment is possible, a user at an arbitrary point can perform device operation and information display (information acquisition) on a user or an object at an arbitrary point. As an image to be superimposed, it is possible to superimpose images at two necessary points and switch to another two points as necessary, or to superimpose and display images at three or more necessary points.

なお、本発明のインタフェース方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。   Note that the interface method of the present invention records a program for realizing its function on a computer-readable recording medium in addition to that realized by dedicated hardware, and stores the program recorded on this recording medium. It may be read by a computer system and executed. The computer-readable recording medium refers to a recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a storage device such as a hard disk device built in the computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time, as in the case of transmitting a program via the Internet, and a server in that case. Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.

本発明の第1の実施形態のインタフェース装置の構成図である。It is a block diagram of the interface apparatus of the 1st Embodiment of this invention. 第1の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 1st Embodiment. 本発明の第2の実施形態のインタフェース装置の構成図である。It is a block diagram of the interface apparatus of the 2nd Embodiment of this invention. 第2の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 2nd Embodiment. 本発明の第3の実施形態のインタフェース装置の構成図である。It is a block diagram of the interface apparatus of the 3rd Embodiment of this invention. 第3の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 3rd Embodiment. 第3の実施形態における操作例を説明する図である。It is a figure explaining the example of operation in 3rd Embodiment. 本発明の第4の実施形態のインタフェース装置の構成図である。It is a block diagram of the interface apparatus of the 4th Embodiment of this invention. 第4の実施形態の処理を示すフローチャートである。It is a flowchart which shows the process of 4th Embodiment.

符号の説明Explanation of symbols

1 ユーザ側画像入力部
2 反転画像生成部
3 指示位置検出部
4 遠隔地側画像入力部
5 画像重畳部
5A 半透明化処理部
5B 重畳処理部
6 コマンド選択部
7 情報表示部
8 ディスプレイ
9、9´ 実物体検出部
10 実物体登録部
10A 実物体位置データ
10B 実物体登録処理部
11 実物体位置検出部
12 ユーザ
13 ネットワーク
14 実物体
15 センサ
101 反転画像生成処理
102 指示位置検出処理
103 画像重畳処理
103A 半透明化処理
103B 画像重畳処理
104 コマンド選択処理
105 情報表示処理
106 実物体データ処理
107 実物体検出処理
108 実物体位置検出処理
201 ユーザ側入力画像
202 反転画像
203 指示位置座標
204 遠隔地側入力画像
205 重畳画像
206 コマンド情報
207 選択コマンド情報
208 物体像
DESCRIPTION OF SYMBOLS 1 User side image input part 2 Reverse image generation part 3 Pointed position detection part 4 Remote place side image input part 5 Image superimposition part 5A Translucent process part 5B Superimposition process part 6 Command selection part 7 Information display part 8 Display 9, 9 ′ Real object detection unit 10 Real object registration unit 10A Real object position data 10B Real object registration processing unit 11 Real object position detection unit 12 User 13 Network 14 Real object 15 Sensor 101 Reverse image generation process 102 Instructed position detection process 103 Image superposition process 103A Translucent processing 103B Image superimposition processing 104 Command selection processing 105 Information display processing 106 Real object data processing 107 Real object detection processing 108 Real object position detection processing 201 User side input image 202 Reverse image 203 Instructed position coordinates 204 Remote place side input Image 205 Superimposed image 206 Command information 07 Select command information 208 the object image

Claims (9)

カメラで撮影された操作者を含む画像またはその左右反転した画像を入力画像とし、操作者がその入力画像を見ながら、該画面上の定められた場所へ、画像上に表示されている操作者の体の一部の部分画像もしくは装着したマーカの部分画像を移動し重ねることにより、該部分画像の画面上での位置に基づき操作者の動作を認識するインタフェース方法であって、
操作者側の画像を入力し、左右反転した反転画像を生成する段階と、
該反転画像上で操作者の指示している位置を検出する段階と、
遠隔地側の画像を入力する段階と、
検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する段階と、
該反転画像と該遠隔地側入力画像とを重畳した画像を生成する段階と、
該重畳画像上で、操作者の指定するコマンドを選択する段階と、
該指定されたコマンドに基づき該重畳画像上に情報を表示する段階とを有するインタフェース方法。
An operator that is displayed on the image at a predetermined location on the screen while the operator views the input image, with the image including the operator photographed by the camera or an inverted image of the image as the input image. An interface method for recognizing an operation of an operator based on a position of the partial image on a screen by moving and overlapping a partial image of a part of the body or a partial image of a mounted marker,
Inputting the operator's image and generating a reversed image that is reversed left and right;
Detecting a position indicated by an operator on the reverse image;
Inputting the remote image,
Detecting a real object corresponding to the detected position indicated by the operator from the remote-side input image;
Generating an image in which the inverted image and the remote-side input image are superimposed;
Selecting a command designated by the operator on the superimposed image;
And displaying information on the superimposed image based on the designated command.
前記の、反転画像と遠隔地側入力画像とを重畳して表示する段階が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する段階を含む、請求項1記載のインタフェース方法。   The step of superimposing and displaying the inverted image and the remote site side input image includes translucent the operator side inverted image and superimposing the remote site side input image on the remote site side image. Interface method. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する段階が、該遠隔地側入力画像上において任意の実物体位置を予め登録する段階と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する段階とを含む、請求項1または2に記載のインタフェース方法。   The step of detecting the object corresponding to the detected position indicated by the operator from the remote side input image includes the step of preregistering an arbitrary real object position on the remote side input image, and the operator 3. The interface method according to claim 1, further comprising the step of: detecting a real object designated by a plurality of real objects registered in advance. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する段階が、遠隔地側の実物体の位置を検出する段階と、得られた実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する段階とを含む、請求項1または2記載のインタフェース方法。   The step of detecting the object corresponding to the detected position indicated by the operator from the remote side input image includes the step of detecting the position of the real object on the remote side, and the obtained real object position, The interface method according to claim 1, further comprising: detecting an actual object instructed by the operator from a position instructed by the operator on the operator side. カメラで撮影された操作者を含む画像またはその左右反転した画像を入力画像とし、操作者がその入力画像を見ながら、該画面上の定められた場所へ、画像上に表示されている操作者の体の一部の部分画像もしくは装着したマーカの部分画像を移動し重ねることにより、該部分画像の画面上での位置に基づき操作者の動作を認識するインタフェース装置であって、
操作者側の画像を入力し、左右反転した反転画像を生成する手段と、
該反転画像上で操作者の指示している位置を検出する手段と、
遠隔地側の画像を入力する手段と、
検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する手段と、
該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、
該重畳画像上で、操作者の指定するコマンドを選択する手段と、
該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有するインタフェース装置。
An operator that is displayed on the image at a predetermined location on the screen while the operator views the input image and includes an image including the operator photographed by the camera or an image obtained by inverting the image. An interface device for recognizing an operator's movement based on a position of the partial image on the screen by moving and overlapping a partial image of a part of the body or a partial image of the attached marker,
Means for inputting an image on the operator side and generating a reversed image that is reversed left and right;
Means for detecting a position indicated by an operator on the reverse image;
Means for inputting a remote image,
Means for detecting a real object corresponding to the detected position of the operator from the remote side input image;
Means for generating an image in which the reverse image and the remote-side input image are superimposed;
Means for selecting a command designated by the operator on the superimposed image;
An interface device having means for displaying information on the superimposed image based on the designated command.
前記の、反転画像と遠隔地側入力画像とを重畳して表示する手段が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する手段を含む、請求項5記載のインタフェース装置。   6. The means for superimposing and displaying the reverse image and the remote site side input image includes means for translucent the operator side reverse image and superimposing it on the remote site side input image. Interface device. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、該遠隔地側入力画像上において任意の実物体位置を予め登録する手段と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する手段とを含む、請求項5または6に記載のインタフェース装置。   The means for detecting an object corresponding to the detected position indicated by the operator from the remote side input image includes means for previously registering an arbitrary real object position on the remote side input image; The interface device according to claim 5, further comprising: means for detecting a real object designated by a plurality of real objects registered in advance. 前記の、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、遠隔地側の実物体の位置を検出する手段と、得られた実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する手段とを含む、請求項5または6に記載のインタフェース装置。   The means for detecting the object corresponding to the detected position indicated by the operator from the remote place side input image, the means for detecting the position of the remote place side real object, and the obtained real object position, The interface device according to claim 5, further comprising means for detecting a real object designated by the operator from a position designated by the operator on the operator side. 請求項1から4のいずれかに記載のインタフェース方法をコンピュータに実行させるためのインタフェースプログラム。   An interface program for causing a computer to execute the interface method according to claim 1.
JP2003293788A 2003-08-15 2003-08-15 Interface method, system and program using self-image display Pending JP2005063225A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003293788A JP2005063225A (en) 2003-08-15 2003-08-15 Interface method, system and program using self-image display

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003293788A JP2005063225A (en) 2003-08-15 2003-08-15 Interface method, system and program using self-image display

Publications (1)

Publication Number Publication Date
JP2005063225A true JP2005063225A (en) 2005-03-10

Family

ID=34370579

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003293788A Pending JP2005063225A (en) 2003-08-15 2003-08-15 Interface method, system and program using self-image display

Country Status (1)

Country Link
JP (1) JP2005063225A (en)

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (en) * 2004-03-03 2005-10-13 Canon Inc Image display method, program, image display apparatus, and image display system
JP2007074731A (en) * 2005-09-07 2007-03-22 Fuji Xerox Co Ltd System, method, and program for supporting monitoring of three-dimensional multi-camera video
WO2009078144A1 (en) * 2007-12-18 2009-06-25 Panasonic Corporation Spatial input operation display apparatus
WO2009119026A1 (en) * 2008-03-27 2009-10-01 日本写真印刷株式会社 Presentation system
JP2010015212A (en) * 2008-07-01 2010-01-21 Totsu:Kk Image information display apparatus, and method of inputting handwriting image information
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
JP2013506925A (en) * 2009-10-05 2013-02-28 アルカテル−ルーセント Device for interaction with extended objects
JP2013114466A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013140568A (en) * 2011-12-09 2013-07-18 Sony Corp Information processing device, information processing method, and recording medium
JP2014067381A (en) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd Service providing device, control method to be used for the same and computer program
CN105565103A (en) * 2016-03-16 2016-05-11 广州日滨科技发展有限公司 Method and device for detecting elevator failures
JP2016524221A (en) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド Augmented reality (AR) capture and play
JP2019207573A (en) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 Information processing device and program
JP2021039567A (en) * 2019-09-03 2021-03-11 東芝システムテクノロジー株式会社 Work support system and program

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005287004A (en) * 2004-03-03 2005-10-13 Canon Inc Image display method, program, image display apparatus, and image display system
JP4677245B2 (en) * 2004-03-03 2011-04-27 キヤノン株式会社 Image display method, program, image display apparatus, and image display system
JP2007074731A (en) * 2005-09-07 2007-03-22 Fuji Xerox Co Ltd System, method, and program for supporting monitoring of three-dimensional multi-camera video
JP2010541053A (en) * 2007-09-25 2010-12-24 メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング Method and apparatus for rendering a virtual object in a real environment
US9390560B2 (en) 2007-09-25 2016-07-12 Metaio Gmbh Method and device for illustrating a virtual object in a real environment
WO2009078144A1 (en) * 2007-12-18 2009-06-25 Panasonic Corporation Spatial input operation display apparatus
JP2009146333A (en) * 2007-12-18 2009-07-02 Panasonic Corp Spatial input operation display apparatus
WO2009119026A1 (en) * 2008-03-27 2009-10-01 日本写真印刷株式会社 Presentation system
JP2009237951A (en) * 2008-03-27 2009-10-15 Nissha Printing Co Ltd Presentation system
JP2010015212A (en) * 2008-07-01 2010-01-21 Totsu:Kk Image information display apparatus, and method of inputting handwriting image information
JP2013506925A (en) * 2009-10-05 2013-02-28 アルカテル−ルーセント Device for interaction with extended objects
US9063537B2 (en) 2009-10-05 2015-06-23 Alcatel Lucent Device for interaction with an augmented object
JP2015099603A (en) * 2010-02-24 2015-05-28 大日本印刷株式会社 Image display system
JP2012094103A (en) * 2010-02-24 2012-05-17 Dainippon Printing Co Ltd Image display system
JP2013114466A (en) * 2011-11-29 2013-06-10 Nikon Corp Display system, display method and program
JP2013140568A (en) * 2011-12-09 2013-07-18 Sony Corp Information processing device, information processing method, and recording medium
US10564827B2 (en) 2011-12-09 2020-02-18 Sony Corporation Information processing apparatus, information processing method, and recording medium
JP2014067381A (en) * 2012-09-27 2014-04-17 Konami Digital Entertainment Co Ltd Service providing device, control method to be used for the same and computer program
US10509533B2 (en) 2013-05-14 2019-12-17 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
JP2016524221A (en) * 2013-05-14 2016-08-12 クアルコム,インコーポレイテッド Augmented reality (AR) capture and play
US11112934B2 (en) 2013-05-14 2021-09-07 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
US11880541B2 (en) 2013-05-14 2024-01-23 Qualcomm Incorporated Systems and methods of generating augmented reality (AR) objects
CN105565103A (en) * 2016-03-16 2016-05-11 广州日滨科技发展有限公司 Method and device for detecting elevator failures
JP2019207573A (en) * 2018-05-29 2019-12-05 富士ゼロックス株式会社 Information processing device and program
CN110543233A (en) * 2018-05-29 2019-12-06 富士施乐株式会社 Information processing apparatus and non-transitory computer readable medium
JP7135444B2 (en) 2018-05-29 2022-09-13 富士フイルムビジネスイノベーション株式会社 Information processing device and program
CN110543233B (en) * 2018-05-29 2024-06-07 富士胶片商业创新有限公司 Information processing apparatus and non-transitory computer readable medium
JP2021039567A (en) * 2019-09-03 2021-03-11 東芝システムテクノロジー株式会社 Work support system and program
JP7398227B2 (en) 2019-09-03 2023-12-14 東芝システムテクノロジー株式会社 Work support systems and programs

Similar Documents

Publication Publication Date Title
JP4323180B2 (en) Interface method, apparatus, and program using self-image display
US8666115B2 (en) Computer vision gesture based control of a device
US8902158B2 (en) Multi-user interaction with handheld projectors
US9565238B2 (en) Method for controlling electronic apparatus, handheld electronic apparatus and monitoring system
TWI524210B (en) Natural gesture based user interface methods and systems
JP5256269B2 (en) Data generation apparatus, data generation apparatus control method, and program
US20130063345A1 (en) Gesture input device and gesture input method
US20070216642A1 (en) System For 3D Rendering Applications Using Hands
JPH0844490A (en) Interface device
US20160012612A1 (en) Display control method and system
JP2005063225A (en) Interface method, system and program using self-image display
US20120229509A1 (en) System and method for user interaction
JP2009134718A5 (en)
JP4555701B2 (en) Information processing method, interface device, program, and recording medium
JP2011146796A (en) Image processing device, object selection method, and program
JP2007257639A (en) Pointing input device, method and system using image pattern
JP2009245444A (en) User interface system based on pointing device
US20140053115A1 (en) Computer vision gesture based control of a device
TW200525410A (en) Method and apparatus for light input device
JP2004078977A (en) Interface device
JP2008235989A (en) Image processor and image processing method
CN116830066A (en) Image processing apparatus, image processing method, and image processing system
JP2006268209A (en) Remote instruction input device by physical motion of user
KR20100048747A (en) User interface mobile device using face interaction
CN109144598A (en) Electronics mask man-machine interaction method and system based on gesture

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050714

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20050714

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050909

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20060608

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060614

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060809

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070124

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20070201