JP2005063225A - Interface method, system and program using self-image display - Google Patents
Interface method, system and program using self-image display Download PDFInfo
- Publication number
- JP2005063225A JP2005063225A JP2003293788A JP2003293788A JP2005063225A JP 2005063225 A JP2005063225 A JP 2005063225A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2003293788 A JP2003293788 A JP 2003293788A JP 2005063225 A JP2005063225 A JP 2005063225A
- Authority
- JP
- Japan
- Prior art keywords
- image
- operator
- remote
- user
- detecting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Position Input By Displaying (AREA)
- Studio Circuits (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、ユーザ(操作者)を含む画像(自己画像)を入力画像とし、ユーザが自己画像を自分で見ながら、メニューの選択・実行ができるインタフェース装置に関する。 The present invention relates to an interface device that allows an image (self image) including a user (operator) to be an input image, and allows a user to select and execute a menu while viewing the self image by himself / herself.
従来、コンピュータと人間とのインタフェースにおいて、人間の動作に基づき、画面上でコマンド選択するインタフェース方法としては、キーボードやマウス等のポインティング装置を用いる方法がある。また、カメラからの画像情報から動作を検出する方法がある。一方、通信を介して、遠隔地にある物体(機器等)を操作・情報表示するインタフェース装置としては、コンピュータのソフトによりネットワークを介して遠隔地のカメラを制御可能なWebカメラがある。 Conventionally, in an interface between a computer and a human, there is a method using a pointing device such as a keyboard or a mouse as an interface method for selecting a command on a screen based on a human operation. There is also a method for detecting an operation from image information from a camera. On the other hand, as an interface device for operating / displaying information on an object (device or the like) at a remote location through communication, there is a Web camera capable of controlling the remote camera via a network by computer software.
このようなインタフェース装置の第1の従来手法として、現在一般のコンピュータに接続可能で市販されている装置として、キーボード、マウス、タッチパネル型のディスプレイがある。これらはいずれもユーザの手の動きを検出し、入力情報に変換するものである。 As a first conventional method of such an interface device, there are a keyboard, a mouse, and a touch panel type display as a commercially available device that can be connected to a general computer. All of them detect the movement of the user's hand and convert it into input information.
また、第2の従来手法として、モーションキャプチャシステム関連の製品で、体にマーカーを装着し画像処理によって動きを検出する装置がある。例えば、Vicon Motion Systems Ltd.社の「3次元動作解析システムVicon」(販売元:株式会社ナックイメージテクノロジー)は、体の複数の部位に球形の反射マーカーを貼付け、複数台のカメラからの入力画像から画像処理により各マーカーの3次元座標を算出する方法である。 As a second conventional technique, there is a device for detecting motion by image processing by attaching a marker to the body as a product related to a motion capture system. For example, Vicon Motion Systems Ltd. The company's “3D motion analysis system Vicon” (distributor: NAC Image Technology Co., Ltd.) has a spherical reflective marker attached to multiple parts of the body, and each marker is processed by image processing from input images from multiple cameras. This is a method of calculating three-dimensional coordinates.
また、第3の従来手法として、Vivid Group社のGesture Xtreme Software関連製品(例えばSoccer GX, Volleyball等)がある。本製品は、CG背景画像上に自己像を重ね合わせ、画像上でCGのボール等とユーザの体との接触判定を行い、その結果に基づいてゲーム等のCGソフトとユーザとのインタフェースを実現している。また、非特許文献1に記載の方法がある。本方法は、自画像上にCGのアイコンを表示させ、カメラに向かって行った動作に基づき希望のアイコンを選択(実行)するものである。 In addition, as a third conventional method, there is a product related to Gesture Xtreme Software (for example, Soccer GX, Volleyball, etc.) of Vivid Group. This product superimposes the self-image on the CG background image, determines the contact between the CG ball and the user's body on the image, and realizes the interface between the user and the CG software such as games based on the result doing. Further, there is a method described in Non-Patent Document 1. In this method, a CG icon is displayed on the self-portrait, and a desired icon is selected (executed) based on an operation performed toward the camera.
また、第4の従来手法として、遠隔地間のコミュニケーションが可能な手法として、非特許文献2に記載の手法がある。本手法は、ディスプレイ上に複数地点にいるユーザ映像を自己像含めて重ね合わせ、その映像を各ユーザに表示することにより、各地にいるユーザが同室にいるかのような効果を持つインタフェースである。
しかしながら、上記の従来手法では、以下に示す問題があった。 However, the above conventional methods have the following problems.
第1の従来手法は、ユーザ(操作者)の手の動きを検出する際に装置に接触する必要があり、また装置を利用するための固定し限定された場所が必要であるため、任意の場所での動作検出を行うことが困難である。 The first conventional method needs to touch the device when detecting the movement of the user's (operator's) hand, and requires a fixed and limited place for using the device. It is difficult to detect the operation at the place.
第2の従来手法は、非接触型でありカメラ画像に写る範囲の任意の場所での動作を検出できるが、体の部位に常に何らかのマーカーまたはセンサを装着する必要があるため、家庭や職場等の通常生活におけるインタフェース装置としての利便性に欠ける。 The second conventional method is a non-contact type and can detect an operation at an arbitrary location within the range reflected in the camera image. However, since it is necessary to always wear some kind of marker or sensor on the body part, such as at home or at work. It lacks convenience as an interface device in normal life.
第3の従来手法は、自画像を見ながら同じディスプレイに表示されたCGに手指等を触れる(重ねる)ことでユーザの動きを検出できるが、背景に写っている実空間上の物体を指示することはできないため、応用範囲に制限がある。 The third conventional method can detect a user's movement by touching (superimposing) a finger or the like on a CG displayed on the same display while looking at the self-portrait, but indicates an object in real space that is reflected in the background. The application range is limited.
第4の従来手法は、遠隔地にいる人や物体の映像と、ユーザの自己像を重ねることにより、仮想的に同室にいるかのような効果は得られるが、遠隔地同士の互いのユーザが同じ映像を観察できるだけであり、遠隔地の人や物体に対するアクセス機能はないため、ユーザは遠隔地の物体に対して機器の操作や情報の表示のような遠隔地物体とのインタラクション操作を行うことはできない。 In the fourth conventional method, by superimposing the image of a person or object in a remote place and the user's self-image, the effect of being in the same room can be obtained virtually. Users can interact with remote objects, such as operating devices and displaying information, because they can only observe the same video and do not have access to remote people or objects. I can't.
また、第4の従来手法は、一方のユーザ側の映像はクロマキー手法を用いてユーザの画像部分を切り出した上で遠隔地の映像上に重ね合わせている(重畳している)ため、背景を固定背景(ブルーバック等)とするような制限された撮影場所・条件でしか実現できない。 In addition, in the fourth conventional method, the image of one user side is cut out using the chroma key method and the user's image portion is cut out and then superimposed on the image at a remote place. This can only be achieved with limited shooting locations and conditions such as a fixed background (blue background, etc.).
本発明の目的は、前述した従来手法に対して、
(1)接触型である問題、任意の場所での動作検出を行うことが困難である問題、
(2)インタフェース装置としての利便性に欠ける問題、
(3)応用範囲に制限がある問題、
(4)遠隔地の物体に対する機器操作や情報表示操作を行うことができない問題、
(5)撮影場所・条件が制限される問題、
を解決したインタフェース方法、装置、ならびにプログラムを提供することにある。
The object of the present invention is compared with the conventional method described above.
(1) The problem that it is a contact type, the problem that it is difficult to detect an operation in an arbitrary place,
(2) Problems lacking in convenience as an interface device,
(3) Problems with limited application range
(4) The problem that device operation and information display operation cannot be performed on an object in a remote place,
(5) Problems where shooting location and conditions are limited,
It is an object to provide an interface method, an apparatus, and a program that solve the above.
前記目的を達成するために、本発明のインタフェース装置は、操作者側の画像を入力し、左右反転した反転画像を生成する手段と、該反転画像上で操作者の指示している位置を検出する手段と、遠隔地側の画像を入力する手段と、検出した操作者の指示位置に対応する実物体を、遠隔地側入力画像中から検出する手段と、該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、該重畳画像上で、操作者の指定するコマンドを選択する手段と、該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有している。 In order to achieve the above object, the interface device of the present invention inputs an image on the operator side, generates a reversed image that is reversed left and right, and detects a position indicated by the operator on the reversed image. Means for inputting an image on the remote site side, means for detecting a real object corresponding to the detected position of the operator from the remote site input image, the inverted image and the remote site input Means for generating an image superimposed with the image, means for selecting a command designated by the operator on the superimposed image, and means for displaying information on the superimposed image based on the designated command. doing.
そのため、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を非接触に指定できるので、前記の課題(1)(2)(3)(4)を解決できる。 Therefore, the operator can designate the remote object in the remote image as non-contact while viewing the superimposed self-image on the remote image, so that the problems (1), (2), (3) ( 4) can be solved.
本発明の実施態様では、反転画像と遠隔地側入力画像とを重畳して表示する手段が、操作者側の反転画像を半透明化して、遠隔地側入力画像と重畳する手段を含んでいる。 In an embodiment of the present invention, the means for superimposing and displaying the reverse image and the remote place side input image includes means for making the reverse image on the operator side translucent and superimposing it on the remote place side input image. .
操作者側の映像全体を半透明にして重畳するため、操作者は任意の場所で任意の背景にて遠隔地の物体の操作が可能であるので、前記の課題(1)(2)(3)(4)(5)を解決できる。 Since the entire video on the operator side is made translucent and superimposed, the operator can operate a remote object at an arbitrary background and in an arbitrary background. Therefore, the above problems (1), (2), (3) ) (4) (5) can be solved.
本発明の他の実施態様では、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、該遠隔地側入力画像上において予め任意の実物体位置を登録する手段と、操作者の指定する実物体を予め登録された複数の実物体の中から検出する手段とを有している。 In another embodiment of the present invention, the means for detecting an object corresponding to the detected position indicated by the operator from the remote side input image registers an arbitrary real object position in advance on the remote side input image. And means for detecting a real object designated by the operator from a plurality of pre-registered real objects.
そのため、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することができるので、前記課題の(1)(2)(3)(4)(5)を解決できる。 Therefore, since the initial value of the position information can be registered and updated, even if the position of the object on the remote side moves, if the initial value of the position information is corrected in advance, the user specifies the object at the position after the movement Therefore, the problems (1), (2), (3), (4), and (5) can be solved.
本発明の他の実施態様によれば、検出された操作者の指示位置に対応する物体を遠隔地側入力画像中から検出する手段が、遠隔地側の実物体の位置を検出する手段と、得られた実物体位置と、操作者側で操作者の指示する位置から、操作者の指示する実物体を検出する手段とを有している。 According to another embodiment of the present invention, the means for detecting the object corresponding to the detected position indicated by the operator from the remote place side input image, the means for detecting the position of the real object on the remote place side, Means for detecting the real object position indicated by the operator from the obtained real object position and the position indicated by the operator on the operator side.
遠隔地側の物体が移動しても移動先の物体位置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができるので、前記の課題(1)(2)(3)(4)(5)を解決できる。 Since the object position of the moving destination is detected even if the object on the remote side moves, the object specified by the user can be detected not only for the stationary object but also for the moving object. The problems (1), (2), (3), (4), and (5) can be solved.
本発明によれば、例えば、遠隔地の部屋にある家電機器を遠隔操作したり、遠隔にある物体の情報を画面に表示したりできる。遠隔地として、例えば自宅と会社の間や、自宅内の別の部屋同士間にまたがる操作や情報表示が可能であり、そのような場面での非接触型インタフェース装置としての利用が考えられる。 According to the present invention, for example, home appliances in a remote room can be remotely operated, or information on a remote object can be displayed on a screen. As a remote place, for example, operation and information display between the home and the office or between different rooms in the home are possible, and the use as a non-contact type interface device in such a scene is conceivable.
請求項1と5と9の発明は、操作者は、遠隔地側映像上で、重畳された自己像を見ながら遠隔地映像中の遠隔地物体を指定できるため、ユーザフィードバックを得られるので操作者の希望する指定場所(物体)を高速かつ正確に指定することができる。また、非接触の操作により指定できるため、操作のための入力機器であるディスプレイから離れた位置から、遠隔地映像中の指定場所(物体)を指定することができる。これらから、インタフェースの利便性が向上する。 According to the first, fifth, and ninth aspects of the invention, the operator can specify a remote object in the remote image while viewing the superimposed self-image on the remote image, so that user feedback can be obtained. The designated place (object) desired by the person can be designated at high speed and accurately. Further, since it can be designated by a non-contact operation, a designated place (object) in a remote image can be designated from a position away from the display which is an input device for the operation. As a result, the convenience of the interface is improved.
請求項2と6と9の発明は、操作者側の映像全体を半透明にして、遠隔地映像上に重畳するため、操作者側映像中の操作者以外の背景映像部分も薄くなって映るので、濃く映っている遠隔地側の操作対象物体を指定する際のユーザの選択操作性を低下させることはほとんどなく、このためユーザは、任意の場所で任意の背景にて遠隔地の物体の操作が可能となる。このため、インタフェースの利便性が向上する。 In the second, sixth, and ninth aspects of the invention, the entire video on the operator side is made translucent and superimposed on the remote video, so that the background video portion other than the operator in the video on the operator side is also shown as being thin. Therefore, the user's selection operability at the time of designating an object to be operated on the remote side that is dark is hardly deteriorated. Therefore, the user can select the remote object in an arbitrary place and an arbitrary background. Operation becomes possible. For this reason, the convenience of the interface is improved.
請求項3と7と9の発明は、位置情報の初期値を登録・更新できるため、遠隔地側の物体の位置が移動しても、予め位置情報の初期値を修正しておけば、移動後の位置の物体をユーザが指定することが可能となる。このため、インタフェースの利便性が向上する。
The inventions of
請求項4と8と9の発明は、遠隔地側の物体が移動しても移動先の物体位置を検出しているため、静止している物体だけでなく移動物体に対しても、ユーザが指定する物体を検出することができ、任意の対象物体に対して操作が可能となる。このため、インタフェースの利便性が向上する。
In the inventions of
次に、本発明の実施の形態について図面を参照して説明する。 Next, embodiments of the present invention will be described with reference to the drawings.
(第1の実施形態)
図1は本発明の第1の実施形態のインタフェース装置の構成図、図2はその処理を示すフローチャートである。
(First embodiment)
FIG. 1 is a configuration diagram of an interface apparatus according to the first embodiment of the present invention, and FIG. 2 is a flowchart showing the processing.
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5とコマンド選択部6と情報表示部7で構成される。
The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the
ユーザ側画像入力部1として、本例では、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。ただし下記で述べる色情報を使用した方法を用いる場合はカラーカメラが必要である。 As the user side image input unit 1, in this example, one camera is used as shown in FIG. The camera may be a commonly used video camera and may be black and white or color. However, when using the method using color information described below, a color camera is required.
反転画像生成部2は、画像入力部1で入力された画像(入力画像)201を入力し、左右反転させた画像(反転画像)202を生成する(ステップ101)。コンピュータ内へ取り込んだ入力画像201に対し汎用の画像処理ソフトウェア(例:HALCON)により、リアルタイムに反転画像202を生成することができる。または、入力画像を入力し反転画像をリアルタイムに生成する機器(例:(株)朋栄の画面左右反転装置UPI−100LRF、またはカメラ一体型でSONYのEVI−D100)で実現できる。
The inverted
指示位置検出部3は、反転画像生成部2で得られた反転画像202上において、ユーザ12が手指等の体の部位で指し示す位置(ユーザ指示位置)203を検出する(ステップ102)。
The designated
指示位置検出部3の1つ目の実現例として、ユーザ12がマーカを持ち、反転画像202中のマーカを画像処理により検出する方法がある。例えば、まず、赤色(他の色でもよいが、背景画像中に少ない色が好ましい)の物体を手に持ちもしくは装着し、それをカメラ1の前で手振りして動かす。得られたカラー画像のRGB等色情報の値から赤色成分を抽出し、ラベリング処理(固まり毎にグループに分ける一般的な画像処理方法)を行い、その中で最も面積の大きい赤色部分を1つ選び、その位置の重心位置(x,y)を求める。得られた(x,y)座標をユーザ指示位置203とする。ここで、赤色の物体の代わりに、赤色(前記物体同様、他の色でもよい)の発光ダイオード(LED)を発光させた状態で、手に持ちもしくは装着し、当該色を抽出して同様に行う方法も可能である。(x,y)は重心位置(抽出した部分の全画素値のx座標の合計値の平均値、およびy座標の合計値の平均値)でなく、中心位置(抽出した部分のx座標の最大値と最小値の中心値、およびy座標の最大値と最小値の中心値)でもよい。
As a first implementation example of the indicated
指示位置検出部3の2つ目の実現例として、ユーザ12がマーカを持たずに、反転画像202中の手の位置を画像処理により直接検出する方法がある。例えば、まず、得られたカラー画像をRGB等の色情報の値から肌色成分を抽出し、ラベリング処理を行う。得られた複数の肌色部分の中から、手の大きさや位置等の制約情報を利用して、目的とする手を選択する。その選択する具体的な方法例としては、ユーザが通常衣服を着ているとすると、肌色部分の候補となる可能性が高いのは両手と顔と考えられ、また最も面積の大きいのは顔と考えられるので、2つ目と3つ目に面積が大きい肌色部分を手の候補として選択する。ユーザ指定位置を両手両方とした場合、その2つの肌色部分の候補に対する重心位置を、各々左右の手のユーザ指定位置とすればよい。またユーザ指定位置を1つとすると、2つの候補から1つを選ぶ必要があるが、予め例えば右手を指定する手としたら、体より右手側にある候補を(右手の可能性が高いことから)右手の肌色部分として選び、その重心位置を右手のユーザ指定位置203とすればよい。左手の場合も同様である。
As a second example of realization of the indicated
指示位置検出部3のこれらの実現例では、前述した検出処理をする前に、差分画像を用いた処理を加えることにより、精度を上げることもできる。差分画像は、例えば、反転画像202上で、予め撮影した背景画像(ユーザのいない状態で撮影した画像)と、現在撮影している現画像(ユーザがいる状態の画像)との間で作成する。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。この差分画像を用いることにより、体等の動く物体だけを予め抽出しておき、その後前述したような画像処理(例えば体に付けたマーカを抽出する方法や、肌色を抽出する方法等)によりユーザ指定位置203を検出しその座標を取得すれば、背景画像に含まれるマーカの色や肌色に似た色の誤検出を減らせることが容易に推測できる。
In these implementation examples of the indicated
このような指示位置検出部3により、コマンド選択のために、体全体を対象とせず、マーカや手のみを接触判定部位に用いることができるので、コマンド選択のためのアイコン等を任意の位置におけるのでその位置およびユーザ動作に関して高い自由度を得られる。
Such an indicated
遠隔地側画像入力部4として、図1のように1台のカメラを用いる。カメラは一般に用いられるビデオカメラでよく、白黒でもカラーでもよい。遠隔地側入力画像204は、ネットワーク13を介してユーザ側に送る。画像をネットワーク13を介して送る方法は、既存の一般的なインターネットを用いた映像データ送信技術を使うことによっても可能であり、また一般的な映像放送等による無線を用いた送信によっても、有線ネットワーク上での送信によっても容易に可能である。さらにまた、ネットワーク13を介さず、遠隔地側画像入力部4の出力204を直接画像重畳部5に接続することも可能である。ユーザ側と遠隔地側が比較的近い場所にある場合には、このような直接接続で映像信号を送る方法も有効である。その場合は図のネットワーク13は省略できる。
As the remote location side
画像重畳部5は、反転画像生成部2で得られた反転画像202と、遠隔地側画像入力部4で得られた遠隔地側画像204を1つの画像に重ね合わせる(ステップ103)。この時、ユーザ12の自己像が写った反転画像202からユーザ12の体の輪郭(または動作入力に必要な手指等の部分画像だけもよい)を切り出し、遠隔地側画像204の上にその切り出した画像部分を重ね合わせる。ユーザ12の体の切り出しは、例えば画像処理により実現できる。切り出しの画像処理方法としては、背景差分によるユーザ12の切り出し方法がある。これは、例えば反転画像202(またはユーザ側の入力画像201)について予めユーザ12のいない場合の背景画像を撮影取得しておき、ユーザ12がいる場合に、背景画像とユーザ12がいる場合の画像との差分画像を生成することにより行える。差分画像は、例えば、全画素について、画素毎に背景画像の画素値と、(同じ画素位置の)現画像の画素値の差の絶対値を求めることにより作成できる。または、肌色認識処理を用いることにより、手の部分だけを切り出すことも容易に可能である。これらにより、遠隔地側画像204中にユーザ12が入り込んだかのような重畳画像を生成できる。
The
コマンド選択部6は、指示位置検出部3で得られたユーザ指示位置203と、ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での表示位置を照らし合わせ、両者の位置関係からユーザ12が指示しようとするコマンド情報206を探索し選択する(ステップ104)。ユーザ12が選択しようとする複数のコマンド情報のディスプレイ8上での該表示位置は、各々予め、該遠隔地側入力画像上での表示位置を定めて記憶しておけばよい。例えば、ユーザ指示位置からある一定の距離範囲に表示位置を持つコマンドがあればそれを選択すればよい。コマンド情報206の表示位置は、コマンド毎に予め任意の位置に決めておけばよい。
The
情報表示部7は、画像重畳部5で得られた重畳画像202とコマンド選択部6で作成されたコマンド情報206とを重ね合わせてディスプレイ8に表示する(ステップ105)。ディスプレイ8は、コンピュータ用に使われる汎用のディスプレイでよく、コンピュータの画面とカメラ画像を表示できるものであればよい。コマンド情報206とは、コマンド表示位置やコマンド内容等のコマンドに関わる情報と、ユーザ12がその中から選択したコマンドの情報であり、その表示方法は、コンピュータで作成したCGで、選択可能なコマンド(群)、および選択されたコマンドを表示すればよい。また、指示位置検出部3で得られたユーザ指示位置203についても、例えばマウスのカーソル表示のようにリアルタイムに明示して表示してもよい。コマンドの内容としては、遠隔地側の物体を操作したり情報を表示するコマンドでもよいし、ユーザ側の部屋に関わる操作や情報表示を行うコマンドでもよい。遠隔地側の物体を操作したり情報を表示するコマンドであれば、重畳画像205中に遠隔地側の画像が表示されているので、ユーザ12にとって、操作の判断や、操作結果の確認が可能であり、ユーザ利便性の高いインタフェースを実現できる。
The information display unit 7 superimposes the
本実施形態によれば、ユーザ12は、自己画像が映った画面を見ながら、同じ画面上にCG表示されているコマンド情報207に手指等を重ね合わせるだけでコマンド選択が可能であるため、分かり易く間違いの少ない指示が可能になる。
According to the present embodiment, the
(第2の実施形態)
図3は本発明の第2の実施形態のインタフェース装置の画像重畳部の構成図、図4はその処理を示すフローチャートである。
(Second Embodiment)
FIG. 3 is a block diagram of the image superimposing unit of the interface apparatus according to the second embodiment of the present invention, and FIG. 4 is a flowchart showing the processing.
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザが12ディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、図1の第1の実施形態で示した画像重畳部5を、画像を半透明化処理する半透明化処理部5Aと、重畳処理部5Bで構成したものである。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、コマンド選択部6、情報表示部7の機能は、第1の実施形態と同様である。第1の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際にネットワーク13を介しても介さなくてもよい。
The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the user superimposes the self-image on the 12
半透明化処理部5Aは、入力された反転画像203を半透明化する(ステップ103A)。半透明化の度合いを自由に設定することも容易に可能である。半透明化の方法は、画像データに対し、画素ごとに透明度(アルファ値とも言われ一般的な方法である)情報を持たせることで実現できる。重畳処理部5Bは、遠隔地側画像204を背景として、その上に、半透明化された反転画像を重ね合わせて(重畳して)1枚の画像(重畳画像)205を生成する(ステップ103B)。重畳する際は、半透明化された反転画像中の透明度の値の高い画素は、背景の画素値がその透明度の割合だけその画素情報(カラー画像ならカラー情報)が表示されることになる。例えば、透明度が0.7ならば、同じ位置の背景画素の情報を70%、残りの30%を反転画像205上の画素情報として、各々の値を加算して求めればよい。
The
本実施形態によれば、ユーザ12の自己像を含む反転画像202を半透明化して遠隔地側画像204に重畳するため、ユーザ12は遠隔地側入力画像204中の物体像と、ユーザ12の自己像を同時に見られるので、手指等と目的の物体を画像上で重ねる操作を行う際に、遠隔地でありながら、仮想的に同じ部屋にあるかのような操作性の高いインタフェースを実現できる。また、透明度は自由に設定できるので、重畳したときに、ユーザ12に最も操作しやすく自由に透明度を変更することができる。
According to the present embodiment, since the
また、半透明化処理部5Aは、反転画像202だけを半透明化するのではなく、遠隔地側入力画像204を半透明化処理し、反転画像202と重畳してもよい。もちろん、遠隔地側入力画像204と反転画像202の両方を半透明化してから重畳してもよい。これらにより、それぞれの入力画像の状態(撮影された照明条件、背景画像、物体・ユーザの色状態など)により、ユーザ12に最も操作しやすく自由に各々の透明度を変更することもできる。
Further, the
(第3の実施形態)
図5は本発明の第3の実施形態のインタフェース装置の構成図、図6はその処理を示すフローチャートである。
(Third embodiment)
FIG. 5 is a block diagram of the interface apparatus according to the third embodiment of the present invention, and FIG. 6 is a flowchart showing the processing.
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10で構成される。
The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the
本実施形態では、第1の実施形態の内容に加え、第1の実施形態で示したコマンド選択部6に、実物体14の検出ができる仕組みを装備している。具体的には、第1の実施形態のコマンド選択部6が実物体検出部9と実物体登録部10で構成されている。実物体登録部10は実物体位置データ10Aと実物体登録処理部10Bで構成される。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7は、第1の実施形態と同様である。第1、第2の実施形態と同様に、遠隔地側入力画像204をユーザ側に送る際に、ネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理も可能である。
In this embodiment, in addition to the contents of the first embodiment, the
実物体登録処理部10Bは、遠隔地側入力画像204上に含まれている任意の実物体14(例えば家の中とすると、テレビ、エアコン、コンピュータ、時計、窓、棚、椅子、机、引出し、書類、オーディオ機器、照明機器等)について、該遠隔地側入力画像204上での表示位置を予め各々求め、実物体位置データ10Aへ各々登録・保存する(ステップ106)。
The real object
実物体位置データ10Aは、物体の中心座標(x,y)1個でもよいが、範囲を示す情報(例えば、矩形枠の始点座標(x1,y1)と終点座標(x2,y2)や、中心座標(x,y)と半径値rや、または物体の存在する全ドットの座標リスト等)を持たせておいてもよい。第1の実施形態の指示位置検出部3での処理と同様に中心座標は重心座標に置き換えてもよい。
The actual
実物体検出部9は、実物体位置データ10Aに保存されている複数の位置データと、指示位置検出部3で得られたユーザ指示位置203とを照らし合わせ、第1の実施形態のコマンド選択部6と同様に、両者の位置関係に基づきユーザ12が指示しようとする実物体14を検出し選択する(ステップ107)。例えば、ユーザ指示位置からある一定の距離範囲に実物体14の位置データがあればそれを選択すればよい。または、実物体位置データ10Aとして範囲を持たせておいた場合は、ユーザ指示位置の座標がその範囲に含まれる実物体14を検出し、選択する。
The real object detection unit 9 compares the plurality of position data stored in the real
図7に本実施形態によるインタフェース動作の例を示す。 FIG. 7 shows an example of the interface operation according to the present embodiment.
遠隔地側入力画像204上に映っている実物体について、予め表示位置を求め、各々実物体位置データ10Aへ登録しておく。ユーザ側入力画像201を反転した反転画像202が遠隔地側入力画像204の上に重畳されており、ユーザ12が動作すると、重畳画像205上のユーザ像は、遠隔地側の実物体の前面で動作しているように見える。ユーザ12が指示動作をしていない時は何も反応しないが、ユーザ12がアクセスしたい実物体に手指(やマーカ)等を重ねる動作を行い、実物体検出部9で実物体を検出したと判定した時、検出された実物体の位置が明示される。その明示の仕方は、例えば、実物体と同じ形もしくはほぼ同じ大きさのアイコン(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を該実物体の上に重ねて表示する方法や、実物体の中心付近や実物体周囲にCGによるマーカ(必要に応じ色を変えたものや半透明にしたものや点滅させたもの等)を表示する方法など容易に考えられる。すなわち、実際は実物体位置上の仮想のアイコン、もしくは表示した(透明もしくはその他の色の)CGアイコンを触ることとなる。また、検出された実物体の周囲等に、関連する情報(名称や状態等)を表示してもよい。さらに、図のように、検出された実物体位置の周囲等に、その後続けて選択すべきメニューリストをCG表示し、ユーザ12はそのメニューリストから同様の選択方法(すなわち手指等を選択したいメニューアイコンに重ね合わせて選択する方法)等によりメニューを選択し実行することも可能である。
Display positions are obtained in advance for real objects shown on the remote-
これにより、ユーザ12は、画像上に表示されたCGアイコンを指定してコマンド選択できるだけでなく、遠隔地にある実物体14を、画像中の物体像208を介して直接選択することも可能となる。第1の実施形態のようにCGによるコマンド選択と組み合わせれば、例えば、遠隔地のテレビ等を指し示して選択すると、テレビのスイッチやチャンネル等を制御できるようなコマンド選択用CGメニューが該実物体(テレビ)の周辺に表示され、ユーザ12は続けてコマンド選択を行い、遠隔地の実物体(テレビ)に対して各種操作を行うことが可能である。
As a result, the
また、遠隔地の実物体側でユーザ12に提示すべき情報を獲得していた場合、重畳画像205上の該実物体像の上または周囲に該情報を表示したり、もしくはアイコン(色を変えたものや半透明にしたものや点滅させたもの等)を該実物体像の上に重ねたりして明示し、見ているユーザ12に知らせるようにすることも考えられる。その後は前述と同様に、ユーザ12が該実物体を選択すると、必要な情報やCGメニューを表示できる。
When information to be presented to the
(第4の実施形態)
図8は本発明の第4の実施形態のインタフェース装置の構成図、図9はその処理を示すフローチャートである。
(Fourth embodiment)
FIG. 8 is a block diagram of an interface apparatus according to the fourth embodiment of the present invention, and FIG. 9 is a flowchart showing the processing.
本実施形態のインタフェース装置は、ユーザ(操作者)12を含む画像(自己画像)を入力画像とし、ユーザ12がディスプレイ8上の自己画像を自分で見ながら、ユーザ12の動作に基づき、重畳された(重ね合わされた)遠隔地側画像中の物体に対しコマンドを実行するもので、ユーザ側画像入力部1と反転画像生成部2と指示位置検出部3と遠隔地側画像入力部4と画像重畳部5と実物体検出部9と情報表示部7と実物体登録部10と実物体位置検出部11で構成される。以下、本発明の動作を説明する。
The interface apparatus according to the present embodiment uses an image (self-image) including the user (operator) 12 as an input image, and the
本実施形態では、第3の実施形態の内容に加え、遠隔地側に実物体の位置をリアルタイムに検出できる仕組みを装備している。具体的には、第3の実施形態に加え、実物体位置検出部11を装備している。他のユーザ側画像入力部1、反転画像生成部2、指示位置検出部3、遠隔地側画像入力部4、画像重畳部5、情報表示部7、実物体登録部10は、第3の実施形態と同様である。第1、第2、第3の実施形態と同様に、遠隔地側画像入力部4、実物体位置検出部11は、ユーザ側とはネットワーク13を介しても介さなくてもよい。また、画像重畳部5は、第2の実施形態のように、半透明化処理を含んだ処理方法も可能である。
In this embodiment, in addition to the contents of the third embodiment, a mechanism capable of detecting the position of a real object in real time is provided on the remote side. Specifically, in addition to the third embodiment, an actual object position detection unit 11 is provided. Other user side image input unit 1, inverted
実物体位置検出部11は、遠隔地側画像入力部4から送られた遠隔地側入力画像204を入力し、対象とする物体の画像上の位置を求める処理を行う(ステップ108)。物体位置を求める方法としては、対象とする実物体毎に位置認識可能なセンサ(広く市販も研究開発もされており、磁気センサ、超音波センサ、赤外線センサ等各種ある)を取り付けておくことにより、各々の物体の位置をリアルタイムに検出する方法がある。また、物体位置を求める他の方法としては、撮影している遠隔地側入力画像204を用い、画像処理により求める方法がある。具体的には、対象とする物体の色や形状情報を予め登録しておき、該画像の上で、登録している物体をパターンマッチング処理等の画像処理により検出すればよい。パターンマッチング処理の方法については、汎用の画像処理ソフトの1機能として装備されていたり、また広く市販・研究開発が行われているものであり、容易に利用・実現可能である。画像処理を用いた方法の場合は、図8に示した物体14に取り付けるセンサ15はなくてもよい。
The real object position detection unit 11 inputs the remote site
本実施形態によれば、実物体位置データを常時更新していくことも可能であり、物体を移動させてもその位置情報も移動させられるので、情報表示部7によってユーザ側に表示される画像上では、物体が移動しても移動した先の物体(現時点の物体)をユーザ12は画面上で触ることができる。
According to the present embodiment, it is possible to constantly update the actual object position data, and even if the object is moved, the position information is also moved, so that the image displayed on the user side by the information display unit 7 In the above, even if the object moves, the
(第5の実施形態)
以上の実施形態では、遠隔地側からユーザ側へ画像が流れ、ユーザ側で操作するものであったが、いずれの実施形態でも、本システムを2セット用いて、互いに逆向きに設置することにより、双方向の操作が可能なインタフェース装置を実現可能である。これにより、遠隔地間でそれぞれにユーザがいて、互いの部屋の背景に移っている物体を操作したり情報表示したりすることも可能であり、その際、互いのユーザも同一の画面に重畳することも容易に可能であるので、両ユーザがあたかも1つの同部屋にいて、同じく見えている物体を2人で確認しながら触ることも可能である。
(Fifth embodiment)
In the above embodiment, the image flows from the remote site side to the user side and is operated on the user side. However, in any embodiment, two sets of this system are used and installed in opposite directions. An interface device capable of bidirectional operation can be realized. As a result, there is a user between remote locations, and it is also possible to operate and display information on objects that have moved to the background of each other's room. It is also possible to do this easily, so it is possible for both users to be in the same room and touch them while checking the objects that are also visible.
(第6の実施形態)
以上の実施形態では、2箇所の地点を接続するものであったが、本システムにおける遠隔地側を複数設定することも可能である。また、同様にユーザ側を複数設定することも容易に可能である。さらに、第5の実施形態のような双方向操作を可能とすれば、任意の地点のユーザが任意の地点のユーザもしくは物体に対して機器操作や情報表示(情報取得)を行うことができる。重畳する画像としては、そのうちの必要な2地点の画像を重畳し、必要に応じ別の2地点に切り替える方法でもよいし、また必要な3地点以上の画像を重畳して表示してもよい。
(Sixth embodiment)
In the above embodiment, two points are connected, but it is also possible to set a plurality of remote locations in this system. Similarly, it is possible to easily set a plurality of users. Furthermore, if bidirectional operation as in the fifth embodiment is possible, a user at an arbitrary point can perform device operation and information display (information acquisition) on a user or an object at an arbitrary point. As an image to be superimposed, it is possible to superimpose images at two necessary points and switch to another two points as necessary, or to superimpose and display images at three or more necessary points.
なお、本発明のインタフェース方法は専用のハードウェアにより実現されるもの以外に、その機能を実現するためのプログラムを、コンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行するものであってもよい。コンピュータ読み取り可能な記録媒体とは、フロッピーディスク、光磁気ディスク、CD−ROM等の記録媒体、コンピュータシステムに内蔵されるハードディスク装置等の記憶装置を指す。さらに、コンピュータ読み取り可能な記録媒体は、インターネットを介してプログラムを送信する場合のように、短時間の間、動的にプログラムを保持するもの(伝送媒体もしくは伝送波)、その場合のサーバとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含む。 Note that the interface method of the present invention records a program for realizing its function on a computer-readable recording medium in addition to that realized by dedicated hardware, and stores the program recorded on this recording medium. It may be read by a computer system and executed. The computer-readable recording medium refers to a recording medium such as a floppy disk, a magneto-optical disk, a CD-ROM, or a storage device such as a hard disk device built in the computer system. Furthermore, a computer-readable recording medium is a server that dynamically holds a program (transmission medium or transmission wave) for a short period of time, as in the case of transmitting a program via the Internet, and a server in that case. Some of them hold programs for a certain period of time, such as volatile memory inside computer systems.
1 ユーザ側画像入力部
2 反転画像生成部
3 指示位置検出部
4 遠隔地側画像入力部
5 画像重畳部
5A 半透明化処理部
5B 重畳処理部
6 コマンド選択部
7 情報表示部
8 ディスプレイ
9、9´ 実物体検出部
10 実物体登録部
10A 実物体位置データ
10B 実物体登録処理部
11 実物体位置検出部
12 ユーザ
13 ネットワーク
14 実物体
15 センサ
101 反転画像生成処理
102 指示位置検出処理
103 画像重畳処理
103A 半透明化処理
103B 画像重畳処理
104 コマンド選択処理
105 情報表示処理
106 実物体データ処理
107 実物体検出処理
108 実物体位置検出処理
201 ユーザ側入力画像
202 反転画像
203 指示位置座標
204 遠隔地側入力画像
205 重畳画像
206 コマンド情報
207 選択コマンド情報
208 物体像
DESCRIPTION OF SYMBOLS 1 User side
Claims (9)
操作者側の画像を入力し、左右反転した反転画像を生成する段階と、
該反転画像上で操作者の指示している位置を検出する段階と、
遠隔地側の画像を入力する段階と、
検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する段階と、
該反転画像と該遠隔地側入力画像とを重畳した画像を生成する段階と、
該重畳画像上で、操作者の指定するコマンドを選択する段階と、
該指定されたコマンドに基づき該重畳画像上に情報を表示する段階とを有するインタフェース方法。 An operator that is displayed on the image at a predetermined location on the screen while the operator views the input image, with the image including the operator photographed by the camera or an inverted image of the image as the input image. An interface method for recognizing an operation of an operator based on a position of the partial image on a screen by moving and overlapping a partial image of a part of the body or a partial image of a mounted marker,
Inputting the operator's image and generating a reversed image that is reversed left and right;
Detecting a position indicated by an operator on the reverse image;
Inputting the remote image,
Detecting a real object corresponding to the detected position indicated by the operator from the remote-side input image;
Generating an image in which the inverted image and the remote-side input image are superimposed;
Selecting a command designated by the operator on the superimposed image;
And displaying information on the superimposed image based on the designated command.
操作者側の画像を入力し、左右反転した反転画像を生成する手段と、
該反転画像上で操作者の指示している位置を検出する手段と、
遠隔地側の画像を入力する手段と、
検出された操作者の指示位置に対応する実物体を遠隔地側入力画像中から検出する手段と、
該反転画像と該遠隔地側入力画像とを重畳した画像を生成する手段と、
該重畳画像上で、操作者の指定するコマンドを選択する手段と、
該指定されたコマンドに基づき該重畳画像上に情報を表示する手段とを有するインタフェース装置。 An operator that is displayed on the image at a predetermined location on the screen while the operator views the input image and includes an image including the operator photographed by the camera or an image obtained by inverting the image. An interface device for recognizing an operator's movement based on a position of the partial image on the screen by moving and overlapping a partial image of a part of the body or a partial image of the attached marker,
Means for inputting an image on the operator side and generating a reversed image that is reversed left and right;
Means for detecting a position indicated by an operator on the reverse image;
Means for inputting a remote image,
Means for detecting a real object corresponding to the detected position of the operator from the remote side input image;
Means for generating an image in which the reverse image and the remote-side input image are superimposed;
Means for selecting a command designated by the operator on the superimposed image;
An interface device having means for displaying information on the superimposed image based on the designated command.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003293788A JP2005063225A (en) | 2003-08-15 | 2003-08-15 | Interface method, system and program using self-image display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003293788A JP2005063225A (en) | 2003-08-15 | 2003-08-15 | Interface method, system and program using self-image display |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005063225A true JP2005063225A (en) | 2005-03-10 |
Family
ID=34370579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003293788A Pending JP2005063225A (en) | 2003-08-15 | 2003-08-15 | Interface method, system and program using self-image display |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005063225A (en) |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005287004A (en) * | 2004-03-03 | 2005-10-13 | Canon Inc | Image display method, program, image display apparatus, and image display system |
JP2007074731A (en) * | 2005-09-07 | 2007-03-22 | Fuji Xerox Co Ltd | System, method, and program for supporting monitoring of three-dimensional multi-camera video |
WO2009078144A1 (en) * | 2007-12-18 | 2009-06-25 | Panasonic Corporation | Spatial input operation display apparatus |
WO2009119026A1 (en) * | 2008-03-27 | 2009-10-01 | 日本写真印刷株式会社 | Presentation system |
JP2010015212A (en) * | 2008-07-01 | 2010-01-21 | Totsu:Kk | Image information display apparatus, and method of inputting handwriting image information |
JP2010541053A (en) * | 2007-09-25 | 2010-12-24 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for rendering a virtual object in a real environment |
JP2012094103A (en) * | 2010-02-24 | 2012-05-17 | Dainippon Printing Co Ltd | Image display system |
JP2013506925A (en) * | 2009-10-05 | 2013-02-28 | アルカテル−ルーセント | Device for interaction with extended objects |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013140568A (en) * | 2011-12-09 | 2013-07-18 | Sony Corp | Information processing device, information processing method, and recording medium |
JP2014067381A (en) * | 2012-09-27 | 2014-04-17 | Konami Digital Entertainment Co Ltd | Service providing device, control method to be used for the same and computer program |
CN105565103A (en) * | 2016-03-16 | 2016-05-11 | 广州日滨科技发展有限公司 | Method and device for detecting elevator failures |
JP2016524221A (en) * | 2013-05-14 | 2016-08-12 | クアルコム,インコーポレイテッド | Augmented reality (AR) capture and play |
JP2019207573A (en) * | 2018-05-29 | 2019-12-05 | 富士ゼロックス株式会社 | Information processing device and program |
JP2021039567A (en) * | 2019-09-03 | 2021-03-11 | 東芝システムテクノロジー株式会社 | Work support system and program |
-
2003
- 2003-08-15 JP JP2003293788A patent/JP2005063225A/en active Pending
Cited By (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005287004A (en) * | 2004-03-03 | 2005-10-13 | Canon Inc | Image display method, program, image display apparatus, and image display system |
JP4677245B2 (en) * | 2004-03-03 | 2011-04-27 | キヤノン株式会社 | Image display method, program, image display apparatus, and image display system |
JP2007074731A (en) * | 2005-09-07 | 2007-03-22 | Fuji Xerox Co Ltd | System, method, and program for supporting monitoring of three-dimensional multi-camera video |
JP2010541053A (en) * | 2007-09-25 | 2010-12-24 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method and apparatus for rendering a virtual object in a real environment |
US9390560B2 (en) | 2007-09-25 | 2016-07-12 | Metaio Gmbh | Method and device for illustrating a virtual object in a real environment |
WO2009078144A1 (en) * | 2007-12-18 | 2009-06-25 | Panasonic Corporation | Spatial input operation display apparatus |
JP2009146333A (en) * | 2007-12-18 | 2009-07-02 | Panasonic Corp | Spatial input operation display apparatus |
WO2009119026A1 (en) * | 2008-03-27 | 2009-10-01 | 日本写真印刷株式会社 | Presentation system |
JP2009237951A (en) * | 2008-03-27 | 2009-10-15 | Nissha Printing Co Ltd | Presentation system |
JP2010015212A (en) * | 2008-07-01 | 2010-01-21 | Totsu:Kk | Image information display apparatus, and method of inputting handwriting image information |
JP2013506925A (en) * | 2009-10-05 | 2013-02-28 | アルカテル−ルーセント | Device for interaction with extended objects |
US9063537B2 (en) | 2009-10-05 | 2015-06-23 | Alcatel Lucent | Device for interaction with an augmented object |
JP2015099603A (en) * | 2010-02-24 | 2015-05-28 | 大日本印刷株式会社 | Image display system |
JP2012094103A (en) * | 2010-02-24 | 2012-05-17 | Dainippon Printing Co Ltd | Image display system |
JP2013114466A (en) * | 2011-11-29 | 2013-06-10 | Nikon Corp | Display system, display method and program |
JP2013140568A (en) * | 2011-12-09 | 2013-07-18 | Sony Corp | Information processing device, information processing method, and recording medium |
US10564827B2 (en) | 2011-12-09 | 2020-02-18 | Sony Corporation | Information processing apparatus, information processing method, and recording medium |
JP2014067381A (en) * | 2012-09-27 | 2014-04-17 | Konami Digital Entertainment Co Ltd | Service providing device, control method to be used for the same and computer program |
US10509533B2 (en) | 2013-05-14 | 2019-12-17 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
JP2016524221A (en) * | 2013-05-14 | 2016-08-12 | クアルコム,インコーポレイテッド | Augmented reality (AR) capture and play |
US11112934B2 (en) | 2013-05-14 | 2021-09-07 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
US11880541B2 (en) | 2013-05-14 | 2024-01-23 | Qualcomm Incorporated | Systems and methods of generating augmented reality (AR) objects |
CN105565103A (en) * | 2016-03-16 | 2016-05-11 | 广州日滨科技发展有限公司 | Method and device for detecting elevator failures |
JP2019207573A (en) * | 2018-05-29 | 2019-12-05 | 富士ゼロックス株式会社 | Information processing device and program |
CN110543233A (en) * | 2018-05-29 | 2019-12-06 | 富士施乐株式会社 | Information processing apparatus and non-transitory computer readable medium |
JP7135444B2 (en) | 2018-05-29 | 2022-09-13 | 富士フイルムビジネスイノベーション株式会社 | Information processing device and program |
CN110543233B (en) * | 2018-05-29 | 2024-06-07 | 富士胶片商业创新有限公司 | Information processing apparatus and non-transitory computer readable medium |
JP2021039567A (en) * | 2019-09-03 | 2021-03-11 | 東芝システムテクノロジー株式会社 | Work support system and program |
JP7398227B2 (en) | 2019-09-03 | 2023-12-14 | 東芝システムテクノロジー株式会社 | Work support systems and programs |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4323180B2 (en) | Interface method, apparatus, and program using self-image display | |
US8666115B2 (en) | Computer vision gesture based control of a device | |
US8902158B2 (en) | Multi-user interaction with handheld projectors | |
US9565238B2 (en) | Method for controlling electronic apparatus, handheld electronic apparatus and monitoring system | |
TWI524210B (en) | Natural gesture based user interface methods and systems | |
JP5256269B2 (en) | Data generation apparatus, data generation apparatus control method, and program | |
US20130063345A1 (en) | Gesture input device and gesture input method | |
US20070216642A1 (en) | System For 3D Rendering Applications Using Hands | |
JPH0844490A (en) | Interface device | |
US20160012612A1 (en) | Display control method and system | |
JP2005063225A (en) | Interface method, system and program using self-image display | |
US20120229509A1 (en) | System and method for user interaction | |
JP2009134718A5 (en) | ||
JP4555701B2 (en) | Information processing method, interface device, program, and recording medium | |
JP2011146796A (en) | Image processing device, object selection method, and program | |
JP2007257639A (en) | Pointing input device, method and system using image pattern | |
JP2009245444A (en) | User interface system based on pointing device | |
US20140053115A1 (en) | Computer vision gesture based control of a device | |
TW200525410A (en) | Method and apparatus for light input device | |
JP2004078977A (en) | Interface device | |
JP2008235989A (en) | Image processor and image processing method | |
CN116830066A (en) | Image processing apparatus, image processing method, and image processing system | |
JP2006268209A (en) | Remote instruction input device by physical motion of user | |
KR20100048747A (en) | User interface mobile device using face interaction | |
CN109144598A (en) | Electronics mask man-machine interaction method and system based on gesture |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050714 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20050714 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20050909 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060608 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060614 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060809 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20070124 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20070201 |