Nothing Special   »   [go: up one dir, main page]

JP6346585B2 - Operation support apparatus and program - Google Patents

Operation support apparatus and program Download PDF

Info

Publication number
JP6346585B2
JP6346585B2 JP2015077619A JP2015077619A JP6346585B2 JP 6346585 B2 JP6346585 B2 JP 6346585B2 JP 2015077619 A JP2015077619 A JP 2015077619A JP 2015077619 A JP2015077619 A JP 2015077619A JP 6346585 B2 JP6346585 B2 JP 6346585B2
Authority
JP
Japan
Prior art keywords
target
information
operation target
support apparatus
specified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015077619A
Other languages
Japanese (ja)
Other versions
JP2016197364A (en
Inventor
孔希 草野
孔希 草野
篤信 木村
篤信 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2015077619A priority Critical patent/JP6346585B2/en
Publication of JP2016197364A publication Critical patent/JP2016197364A/en
Application granted granted Critical
Publication of JP6346585B2 publication Critical patent/JP6346585B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、AR環境における操作対象の操作を行うための技術に関連するものである。   The present invention relates to a technique for performing an operation on an operation target in an AR environment.

現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugumented Reality(AR:拡張現実感)環境を提供する技術がある。このARを用いた情報提示として、主にウェアラブル環境において、ヘッドマウントディスプレイ(HMD)を用いた提示方法が提案されている。これにより、物理的な操作デバイスを把持せず、かつ視界を広範囲に覆うARが活用できるようになりつつある。   There is a technology that provides an augmented reality (AR) environment that extends a real space by presenting virtual information superimposed on the real space. As information presentation using this AR, a presentation method using a head mounted display (HMD) has been proposed mainly in a wearable environment. This makes it possible to utilize AR that does not hold a physical operation device and covers a wide field of view.

しかし、HMDによるARでは、ユーザがAR環境上の操作対象(以下、AR操作対象)を直接操作できない、という問題が発生している。そのため、HMDの操作をするためにHMDに組み込まれたリモコンを用いる。しかし、リモコン操作と、AR操作対象との対応付けがわかりにくく、直感的に操作することは難しい。   However, in AR by HMD, there is a problem that the user cannot directly operate an operation target in the AR environment (hereinafter referred to as AR operation target). Therefore, a remote controller built into the HMD is used to operate the HMD. However, the correspondence between the remote control operation and the AR operation target is difficult to understand, and it is difficult to operate intuitively.

このような操作性の問題を解決するために、例えば、非特許文献1に開示されているように、マーカーを搭載したコントローラ(指)を操作することで、AR空間を操作する方法が検討されている。また、非特許文献2に開示されているように、ハンドジェスチャ(手の動き)によって操作対象を操作する方法も提案されている。これによって、デバイスレスで、特定の操作対象をジェスチャによってある程度直感的に操作できる。   In order to solve such a problem of operability, for example, as disclosed in Non-Patent Document 1, a method of operating the AR space by operating a controller (finger) equipped with a marker has been studied. ing. Further, as disclosed in Non-Patent Document 2, a method of operating an operation target by hand gesture (hand movement) has also been proposed. As a result, a specific operation target can be operated intuitively to some extent by a gesture without a device.

SixthSense: a wearable gestural interface, SIGGRAPH Asia 2009, Yokohama, Japan, December 16-19, 2009.SixthSense: a wearable gestural interface, SIGGRAPH Asia 2009, Yokohama, Japan, December 16-19, 2009. LeapLook: a free-hand gestural travel technique using the leap motion finger tracker, SUI'14, October 4-5, 2014, Honolulu, HI, USALeapLook: a free-hand gestural travel technique using the leap motion finger tracker, SUI'14, October 4-5, 2014, Honolulu, HI, USA

上記従来技術を用いることで、より直感的にAR操作対象を操作できると考えられる。しかし、上記従来技術をAR環境で用いる場合、実空間には存在しないAR操作対象を指やジェスチャによって操作する必要があるため、操作に対して十分なフィードバックが得にくく、また、AR操作対象を操作するために常に手や腕を空中で動かす必要があり疲れやすい、という物理的な課題が残る。加えて、第三者から見た場合に、何も無い空間に対して腕や手を動かすため、操作している姿が変に見えてしまう(見られてしまうのではないか)、という心理的な課題もある。   It is considered that the AR operation target can be operated more intuitively by using the above-described conventional technology. However, when the above prior art is used in an AR environment, it is necessary to operate an AR operation target that does not exist in the real space with a finger or a gesture, so that it is difficult to obtain sufficient feedback for the operation. The physical problem remains that it is easy to get tired because it is necessary to always move hands and arms in the air for operation. In addition, when viewed from a third party, the arm or hand moves with respect to an empty space, so that the appearance of the operation looks strange (maybe seen) There are also some challenges.

本発明は上記の点に鑑みてなされたものであり、AR環境におけるAR操作対象を効率良く操作することを可能とする技術を提供することを目的とする。   The present invention has been made in view of the above points, and an object of the present invention is to provide a technique capable of efficiently operating an AR operation target in an AR environment.

本発明の実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
タッチパネルを備える物理的なデバイスである操作デバイスの位置を取得する第1の入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記特定されたAR操作対象を前記操作デバイスの前記タッチパネル上に表示する手段と、
前記特定されたAR操作対象が表示された前記タッチパネル上の操作により、前記操作デバイスに与えられた操作情報を取得する第2の入力手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と、を備え、
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする操作支援装置が提供される。
According to the embodiment of the present invention, virtual information is superimposed on a real space to present an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space. An operation support device for
First input means for acquiring a position of an operation device that is a physical device including a touch panel ;
A specifying means for specifying an AR operation target based on the position of the operation device;
Means for displaying the specified AR operation target on the touch panel of the operation device;
Second input means for acquiring operation information given to the operation device by an operation on the touch panel on which the specified AR operation target is displayed;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operating means ,
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation means determines an operation to be applied to the specified AR operation target by referring to the conversion database, and an operation support apparatus is provided.

本発明の実施の形態によれば、AR環境におけるAR操作対象を効率良く操作することを可能とする技術が提供される。   According to the embodiment of the present invention, a technique is provided that enables an AR operation target in an AR environment to be efficiently operated.

本発明の実施の形態に係る操作支援装置10の構成図である。It is a lineblock diagram of operation support device 10 concerning an embodiment of the invention. 入力部11の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of an input unit 11. 入力情報の例を示す図である。It is a figure which shows the example of input information. 特定部12の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of a specifying unit 12. AR操作対象を特定する様子を示す図である。It is a figure which shows a mode that AR operation object is specified. 特定部12の動作に対応するプログラムの例を示す図である。It is a figure which shows the example of the program corresponding to operation | movement of the specific part. 操作部13の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of the operation unit 13. 変換DB14の情報例を示す図である。It is a figure which shows the example of information of conversion DB14. 操作デバイスがタッチパネルを持つ場合の操作情報もAR操作対象への適用例を示す図である。The operation information when the operation device has a touch panel is also a diagram illustrating an application example to the AR operation target. 複数の操作対象への操作情報の適用例を示す図である。It is a figure which shows the example of application of the operation information to a several operation target. 傾き、加速度を用いる場合の変換DB14の情報例を示す図である。It is a figure which shows the example of information of conversion DB14 in the case of using inclination and acceleration. 出力部15の動作手順を示すフローチャートである。3 is a flowchart showing an operation procedure of the output unit 15.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。   Embodiments of the present invention will be described below with reference to the drawings. The embodiment described below is only an example, and the embodiment to which the present invention is applied is not limited to the following embodiment.

(実施の形態の概要)
本実施の形態ではAR操作対象を効率良く操作できるようにすることを目的として、「物理的なAR空間操作デバイス」(以下、操作デバイス)を用いることにより、直感的なAR操作対象の操作を実現する操作支援装置が提供される。具体的には、操作支援装置は、操作デバイスの位置情報を取得し、AR環境におけるAR操作対象の位置情報と突合することで、操作デバイスで操作するAR操作対象を特定し、かつ操作デバイスに与えられた操作情報を、AR操作対象に応じて変換し、適用することで、高速なAR操作対象の特定と操作を可能とする。
(Outline of the embodiment)
In the present embodiment, for the purpose of efficiently operating an AR operation target, an intuitive operation of the AR operation target can be performed by using a “physical AR space operation device” (hereinafter referred to as an operation device). An operation support device is provided. Specifically, the operation support apparatus acquires the position information of the operation device, matches the position information of the AR operation target in the AR environment, specifies the AR operation target operated by the operation device, and sets the operation device to the operation device. The given operation information is converted and applied according to the AR operation target, thereby enabling high-speed identification and operation of the AR operation target.

これにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになり、HMD(ヘッドマウントディスプレイ)を用いたAR環境の操作における物理的、心理的な課題の両方を解決することとしている。以下、本実施の形態についてより詳細に説明する。なお、本実施の形態では、AR環境を利用者に提示するディスプレイとしてHMDを使用することを想定しているが、本発明はHMD以外のディスプレイにも適用可能である。   As a result, the AR operation target can be intuitively operated as if using an existing device such as a smartphone, and both physical and psychological problems in the operation of the AR environment using an HMD (head mounted display) are realized. Is going to solve. Hereinafter, this embodiment will be described in more detail. In the present embodiment, it is assumed that the HMD is used as a display for presenting the AR environment to the user, but the present invention is also applicable to a display other than the HMD.

(装置構成、機能概要)
図1に、本実施の形態に係る操作支援装置10の構成図を示す。操作支援装置10は、AR環境を提供するディスプレイ(HMD)の利用者がAR環境においてAR操作対象を操作することを支援する装置である。
(Apparatus configuration, function overview)
FIG. 1 shows a configuration diagram of an operation support apparatus 10 according to the present embodiment. The operation support apparatus 10 is an apparatus that supports a user of a display (HMD) that provides an AR environment to operate an AR operation target in the AR environment.

操作支援装置10は、例えばHMDに組み込まれる装置であってもよいし、HMDの外部に備えられる装置であってもよい。また、HMDの機能の一部として操作支援装置10の機能が備えられていてもよい。   The operation support apparatus 10 may be an apparatus incorporated in the HMD, for example, or may be an apparatus provided outside the HMD. Moreover, the function of the operation assistance apparatus 10 may be provided as a part of function of HMD.

なお、本実施の形態におけるAR環境を提供するHMDの方式は特定の方式に限定されない。例えば、本実施の形態では、AR操作対象が、現実空間と重なって利用者に見える方式のHMDを用いることができる。また、ARの方式も特定の方式に限定されない。例えば、マーカーを用いる方式、マーカーを用いない方式のいずれでもよい。   Note that the HMD method for providing the AR environment in the present embodiment is not limited to a specific method. For example, in the present embodiment, it is possible to use an HMD in which the AR operation target is visible to the user while overlapping with the real space. Also, the AR method is not limited to a specific method. For example, either a method using a marker or a method not using a marker may be used.

図1に示すように、操作支援装置10は、入力部11、特定部12、操作部13、変換DB(データベース)14、及び出力部15を含む。特定部12は、複数特定部112を含む。   As illustrated in FIG. 1, the operation support apparatus 10 includes an input unit 11, an identification unit 12, an operation unit 13, a conversion DB (database) 14, and an output unit 15. The specifying unit 12 includes a plurality of specifying units 112.

前述したように、本実施の形態では、AR操作対象の操作を行うために操作デバイスが用いられる。一例として操作デバイスはスマートフォンであるが、操作デバイスは特定の装置に限定されない。操作デバイスと操作支援装置10は有線又は無線により通信可能であり、操作支援装置10は操作デバイスでなされた操作の情報等を操作デバイスから取得できる。以下、操作支援装置10の各部の動作概要を説明する。   As described above, in this embodiment, an operation device is used to perform an operation on an AR operation target. As an example, the operation device is a smartphone, but the operation device is not limited to a specific device. The operation device and the operation support apparatus 10 can communicate with each other by wire or wireless, and the operation support apparatus 10 can acquire information on operations performed by the operation device from the operation device. Hereinafter, an outline of the operation of each unit of the operation support apparatus 10 will be described.

入力部11は、操作デバイスの位置情報と当該操作デバイスに対して与えられる操作情報を受け取る。一例として、操作デバイスがスマートフォンのようにタッチパネルを有する装置である場合、入力部11は、タッチパネルに対する操作の情報を操作情報として取得する。   The input unit 11 receives position information of the operation device and operation information given to the operation device. As an example, when the operation device is a device having a touch panel like a smartphone, the input unit 11 acquires operation information on the touch panel as operation information.

特定部12は、操作デバイスの位置情報とAR操作対象の位置情報とを突合し、操作デバイスにより操作する対象となるAR操作対象を特定する。複数特定部112では、操作デバイスに与えられた特定の操作情報(例:複数選択を指定する操作)がある場合に、複数の操作対象を特定する。   The specifying unit 12 matches the position information of the operation device and the position information of the AR operation target, and specifies the AR operation target to be operated by the operation device. The multiple specifying unit 112 specifies a plurality of operation targets when there is specific operation information (for example, an operation for specifying multiple selection) given to the operation device.

操作部13は、特定部12等により特定されたAR操作対象に応じて、操作デバイスに与えられた操作情報を変換し、AR操作対象に適用する。例として、操作デバイスがタッチパネルデバイスの場合は、タッチパネルへの操作をそのままAR操作対象に適用するすることとしてもよい。操作部13による操作情報の変換にあたっては、変換DB14に格納された情報が用いられる。   The operation unit 13 converts the operation information given to the operation device in accordance with the AR operation target specified by the specifying unit 12 or the like, and applies it to the AR operation target. For example, when the operation device is a touch panel device, the operation on the touch panel may be applied to the AR operation target as it is. When the operation information is converted by the operation unit 13, information stored in the conversion DB 14 is used.

出力部15は、特定部12でのAR操作対象の特定結果、及び当該AR操作対象に操作情報を適用した結果をAR環境に提示する。すなわち、操作されたAR操作対象を含むAR環境をディスプレイ22(例:HMD)に表示する。また、例えば、操作デバイスがタッチパネルデバイスの場合、出力部15は、AR環境への特定結果及び操作情報の適用結果の提示に加えて、特定したAR操作対象をタッチパネルに表示するとともに、操作情報の適用結果についてもタッチパネルに表示することとしてもよい。   The output unit 15 presents the result of specifying the AR operation target in the specifying unit 12 and the result of applying the operation information to the AR operation target to the AR environment. That is, the AR environment including the operated AR operation target is displayed on the display 22 (eg, HMD). In addition, for example, when the operation device is a touch panel device, the output unit 15 displays the specified AR operation target on the touch panel in addition to the presentation of the identification result to the AR environment and the application result of the operation information. Application results may also be displayed on the touch panel.

なお、AR環境を作成・提示する機能(AR操作対象の作成、表示を行う機能等)自体は既存技術であるため、詳細には説明していない。AR環境を作成・提示する当該機能自体は、操作支援装置10が有することとしてもよいし、操作支援装置10の外部の装置が有することとしてもよい。いずれの場合も、操作支援装置10は、AR環境におけるAR操作対象の情報(AR操作対象毎の位置情報、形の情報等)を保持する、もしくは取得できる。   Note that functions for creating and presenting an AR environment (functions for creating and displaying an AR operation target, etc.) themselves are existing technologies and are not described in detail. The function itself for creating and presenting the AR environment may be included in the operation support apparatus 10 or may be included in an apparatus outside the operation support apparatus 10. In any case, the operation support apparatus 10 can hold or acquire information on an AR operation target in the AR environment (position information, shape information, etc. for each AR operation target).

本実施の形態に係る操作支援装置10は、例えば、CPU及びメモリ等を備えるコンピュータ(コンピュータの機能を有する様々な装置を含む)に、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、操作支援装置10が有する機能は、当該コンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、操作支援装置10で実施される処理に対応するプログラムを実行することによって実現することが可能である。また、上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。   The operation support apparatus 10 according to the present embodiment, for example, executes a program describing the processing contents described in the present embodiment on a computer (including various apparatuses having a computer function) including a CPU and a memory. This can be realized. That is, the function of the operation support apparatus 10 is realized by executing a program corresponding to the process executed by the operation support apparatus 10 using hardware resources such as a CPU, a memory, and a hard disk built in the computer. Is possible. Further, the program can be recorded on a computer-readable recording medium (portable memory or the like), stored, or distributed. It is also possible to provide the program through a network such as the Internet or electronic mail.

以下、各部の動作をより詳細に説明する。   Hereinafter, the operation of each unit will be described in more detail.

(入力部11)
図2に、入力部11の動作手順を示す。図2に示すように、入力部11は、AR環境と連携する操作デバイスから、操作デバイスの位置(x,y,z)と、操作デバイスに対する操作情報を取得する(ステップS101、S102)。これは継続的になされるものである。また、取得された操作デバイスの位置の情報は特定部12に渡され(ステップS103)、操作情報は操作部13に渡される(ステップS104)。
(Input unit 11)
FIG. 2 shows an operation procedure of the input unit 11. As illustrated in FIG. 2, the input unit 11 acquires the operation device position (x, y, z) and operation information for the operation device from the operation device linked to the AR environment (steps S <b> 101 and S <b> 102). This is done continuously. Further, the acquired position information of the operation device is transferred to the specifying unit 12 (step S103), and the operation information is transferred to the operation unit 13 (step S104).

図3に、入力情報の例を示す。図3に示す例では、時間(操作がなされた時刻)、位置、及び操作情報が入力される。図3の例においては表形式での情報入力を想定しているが、上記情報を取得可能であればどのような形式であってもよい。また、操作デバイスの位置についてもAR操作対象(xi,yi,zi)と突合できる形式であれば、どのような形式でも良い。操作デバイスに対する操作情報としては、例えば操作デバイスがタッチパネルを搭載している場合、入力としては、タップ、スワイプ、ピンチなどの操作を受け付けることができる。   FIG. 3 shows an example of input information. In the example illustrated in FIG. 3, time (time when the operation is performed), position, and operation information are input. In the example of FIG. 3, information input in a table format is assumed, but any format may be used as long as the information can be acquired. Further, the position of the operation device may be in any format as long as it can match the AR operation target (xi, yi, zi). As operation information for the operation device, for example, when the operation device is equipped with a touch panel, operations such as tap, swipe, and pinch can be accepted as input.

具体的な操作デバイスの位置の取得方法としては、例えば、HMDにKinectのような赤外線レーザーを用いたToF(Time of Flight)方式による対象デバイスの位置と距離推定が可能なデバイスを搭載することで、位置情報の取得が可能である。その他にも、ARマーカーを操作デバイスに予め搭載しておき、HMDにカメラを搭載することで、ARマーカーを認識し、デバイス位置を推定し、推定した位置を操作支援装置10に提供することも可能である。逆に、操作デバイス側にカメラを搭載し、HMDに搭載したARマーカーを検知することで、HMDと操作デバイスとの距離を検出することも可能である。このように、操作デバイスの位置の取得については、HMDの位置(つまり、利用者の位置)を基準としてx,y,zが取れるのであればどのような方式であっても良い。   As a specific method for acquiring the position of the operation device, for example, by installing a device capable of estimating the position and distance of the target device by the ToF (Time of Flight) method using an infrared laser such as Kinect in the HMD. The position information can be acquired. In addition, by mounting an AR marker in advance on the operation device and mounting a camera on the HMD, the AR marker is recognized, the device position is estimated, and the estimated position is provided to the operation support apparatus 10. Is possible. Conversely, it is possible to detect the distance between the HMD and the operation device by mounting a camera on the operation device side and detecting an AR marker mounted on the HMD. As described above, the position of the operation device may be acquired by any method as long as x, y, and z can be taken with reference to the position of the HMD (that is, the position of the user).

具体的なAR環境と操作デバイスとの連携方法としては、例えば、Bluetooth(登録商標)などの無線通信を用いることで実現可能であるし、有線接続で繋いでも良い。このように、HMDを基準とした操作デバイスの位置情報が検出可能であって、かつ、操作デバイスの操作情報をAR操作対象に適用できるのであれば、どのような方式を用いても構わない。   As a specific method for linking the AR environment and the operation device, for example, wireless communication such as Bluetooth (registered trademark) can be used, or a wired connection may be used. As described above, any method may be used as long as the position information of the operation device based on the HMD can be detected and the operation information of the operation device can be applied to the AR operation target.

(特定部12)
特定部12では、入力部11で得た操作デバイスの位置情報をもとにAR操作対象を特定する。図4に、特定部12の動作手順を示す。
(Specific part 12)
The specifying unit 12 specifies an AR operation target based on the position information of the operation device obtained by the input unit 11. FIG. 4 shows an operation procedure of the specifying unit 12.

図4に示すように、特定部12は、入力部11により得られ、メモリ等に格納されている操作デバイスの位置の情報を読み込む(ステップS201)。特定部12は、各AR操作対象iに対して操作デバイスとの距離を算出する(ステップS202、S203)。   As illustrated in FIG. 4, the specifying unit 12 reads information on the position of the operation device obtained by the input unit 11 and stored in a memory or the like (step S <b> 201). The specifying unit 12 calculates the distance from the operation device for each AR operation target i (steps S202 and S203).

全てのAR操作対象について、操作デバイスとの距離の算出が終了したら、最小の距離を持つAR操作対象iを特定する(ステップS204)。特定部12は、特定したAR操作対象の情報を操作部13に渡す(ステップS205)。   When the calculation of the distance to the operation device is completed for all AR operation targets, the AR operation target i having the minimum distance is specified (step S204). The specifying unit 12 passes the specified AR operation target information to the operation unit 13 (step S205).

図5に、操作デバイスの位置の情報を用いてAR操作対象を特定するイメージを例示する。図5に示す例では、AR操作対象1〜4のうち、操作デバイスとの距離が最小であるAR操作対象1が、操作デバイスによる操作の対象として特定されている。なお、図4の例では、最小の距離を持つAR操作対象を特定しているが、更に、最小の距離を持つAR操作対象が一定の距離以下にある場合に、当該AR操作対象を操作対象として特定することとしてもよい。この場合のプログラムの例を図6に示す。当該プログラムは、特定部12の動作に対応する。   FIG. 5 illustrates an image for specifying an AR operation target using information on the position of the operation device. In the example illustrated in FIG. 5, among the AR operation targets 1 to 4, the AR operation target 1 having the smallest distance from the operation device is specified as an operation target by the operation device. In the example of FIG. 4, the AR operation target having the minimum distance is specified. However, when the AR operation target having the minimum distance is equal to or less than a certain distance, the AR operation target is set as the operation target. It may be specified as An example of the program in this case is shown in FIG. The program corresponds to the operation of the specifying unit 12.

図6のプログラムにおける変数は下記のように定義されるものである。   The variables in the program of FIG. 6 are defined as follows.

AR操作対象i:objects[i];//objectsは配列
操作デバイスの位置情報:x,y,z;
AR操作対象iの位置情報:xi,yi,zi;
絶対値の取得:Math.abs();
最小値の取得:Math.min();
AR操作対象iと操作デバイスとの距離:distances[i] //distancesは配列
係数:A,B,C;
操作対象と見なす閾値: Threshold。
AR operation target i: objects [i]; // objects is an array Operation device position information: x, y, z;
Position information of AR operation target i: xi, yi, zi;
Acquisition of absolute value: Math. abs ();
Acquisition of minimum value: Math. min ();
Distance between AR operation target i and operation device: distances [i] // distances is an array coefficient: A, B, C;
Threshold value to be regarded as an operation target: Threshold.

なお、一定の距離以下にあるAR操作対象を最初に検出し、当該AR操作対象が複数有る場合に、最も操作デバイスの位置に近いAR操作対象を選択することとしてもよい。   Note that it is also possible to first detect an AR operation target within a certain distance and select the AR operation target closest to the position of the operation device when there are a plurality of AR operation targets.

また、操作デバイスに特定の操作情報(複数選択を指定する操作)を与え、当該操作情報が複数特定部112に通知されることで、複数特定部112がAR操作対象(操作デバイスによる操作の対象)を複数特定することとしてもよい。例えば、デスクトップコンピュータ環境における範囲選択や、複数選択、全選択などの操作と同様の操作により複数AR操作対象を選択したり、操作デバイスの位置からの距離が一定以内のAR操作対象を自動的に全て選択することとしてもよい。   In addition, specific operation information (operation for designating multiple selection) is given to the operation device, and the operation information is notified to the plurality of specification units 112, so that the plurality of specification units 112 can perform an AR operation target (operation target by the operation device). ) May be specified. For example, multiple AR operation targets can be selected by operations similar to range selection, multiple selection, all selection, etc. in a desktop computer environment, or AR operation targets within a certain distance from the position of the operation device can be automatically selected. All may be selected.

(操作部13)
操作部13では、AR操作対象に応じて操作デバイスに与えられた操作情報を変換し、変換された操作を特定されたAR操作対象に与える。図7に、操作部13の動作手順を示す。
(Operation unit 13)
The operation unit 13 converts the operation information given to the operation device according to the AR operation target, and gives the converted operation to the specified AR operation target. FIG. 7 shows an operation procedure of the operation unit 13.

図7に示すように、操作部13は、特定部12により特定されたAR操作対象の情報を読み込み(ステップS301)、入力部11により取得された操作デバイスへの操作情報を読み込む(ステップS302)。操作部13は、変換DB14を参照し、ステップS301、S302で取得したAR操作対象と操作情報に対応する操作を特定し、当該操作をAR操作対象に適用する(ステップS303、S304)。   As illustrated in FIG. 7, the operation unit 13 reads information about an AR operation target specified by the specifying unit 12 (step S301), and reads operation information for the operation device acquired by the input unit 11 (step S302). . The operation unit 13 refers to the conversion DB 14, identifies the AR operation target acquired in steps S301 and S302 and the operation corresponding to the operation information, and applies the operation to the AR operation target (steps S303 and S304).

図8に変換DB14の例を示す。図8に示す例では、表形式で情報を保持しているが、変換方法の情報を保持できる方法であれば、テキスト、xmlなど、任意の形式で保持して良い。図8に示すように、例えば、AR操作対象が「リンク」であり、操作情報が「タップ」であるとすると、「リンク選択」という操作が、当該「リンク」に対して適用される。   FIG. 8 shows an example of the conversion DB 14. In the example shown in FIG. 8, information is held in a tabular format, but may be held in any format such as text or xml as long as it can hold information on a conversion method. As illustrated in FIG. 8, for example, when the AR operation target is “link” and the operation information is “tap”, the operation “link selection” is applied to the “link”.

また、例として、操作デバイスがタッチパネルを持つ場合の操作情報のAR操作対象への適用例を図9に示す。タッチパネルを具備する操作デバイスでは、タッチパネルに与えられた操作情報をそのままAR環境の操作対象に適用することができる。つまり、図9に示すように、「ピンチ」(例:2本の指でタッチパネル表面を押し広げる動作)を行うことで、AR操作対象1が拡大される(例えば、利用者は当該対象がズームで大きくなったように見える)。   As an example, FIG. 9 shows an application example of the operation information to the AR operation target when the operation device has a touch panel. In an operation device having a touch panel, the operation information given to the touch panel can be directly applied to an operation target in the AR environment. That is, as shown in FIG. 9, the AR operation target 1 is expanded by performing “pinch” (for example, an operation of pushing the touch panel surface with two fingers) (for example, the user zooms in on the target). It seems to have grown larger).

また、図10に示すように、複数のAR操作対象が特定されている場合には、複数の操作対象に対して、操作デバイスに与えられた操作情報を同時に適用することができる。図10の例では、AR操作対象1と3にピンチの操作が適用されている。   Also, as shown in FIG. 10, when a plurality of AR operation targets are specified, the operation information given to the operation device can be applied to the plurality of operation targets at the same time. In the example of FIG. 10, a pinch operation is applied to the AR operation objects 1 and 3.

また、本実施の形態では、一時的にAR操作対象と操作デバイスとの関係を固定し、操作デバイス位置が変わっても、AR操作対象への操作情報の適用を継続させることを指示する操作(固定の操作と呼ぶ)が可能である。この場合、操作デバイスの位置をAR操作対象の位置に適用することが可能となる。   In the present embodiment, the relationship between the AR operation target and the operation device is temporarily fixed, and even when the operation device position changes, an operation (instruction for instructing to continue the application of the operation information to the AR operation target) Called a fixed operation). In this case, the position of the operation device can be applied to the position of the AR operation target.

つまり、AR操作対象を操作デバイスの位置で指定するとともに、一時的にAR操作対象と操作デバイスとの関係を固定することを指示する操作を行う。その後、利用者は、操作デバイス上での実際の操作を(AR操作対象の位置でなくて)手元で行うことができる。これにより、素早い操作デバイスの特定と、特定後の直感的な操作感とを両立できる。なお、操作が完了した後、固定を解除することで、操作デバイスの操作情報のAR操作対象への適用を停止できる。   In other words, the AR operation target is designated by the position of the operation device, and an operation for instructing to temporarily fix the relationship between the AR operation target and the operation device is performed. Thereafter, the user can perform an actual operation on the operation device at hand (not the position of the AR operation target). As a result, it is possible to achieve both a quick operation device specification and an intuitive operation feeling after the specification. After the operation is completed, the application of the operation information of the operation device to the AR operation target can be stopped by releasing the fixation.

また、操作デバイスの位置によりAR操作対象を特定した後で、操作デバイスの操作により位置情報の同期を指示することで、操作デバイスの位置をAR操作対象に適用することも可能である。これにより、操作デバイスを用いて、AR操作対象のAR空間上の提示(表示)位置を素早く変更できるようになる。   It is also possible to apply the position of the operation device to the AR operation target by instructing synchronization of position information by operation of the operation device after specifying the AR operation target by the position of the operation device. Thereby, it becomes possible to quickly change the presentation (display) position of the AR operation target in the AR space using the operation device.

また、操作デバイスに与えられた傾きや加速度(例:操作デバイスを振る)などが操作情報として入力部11に与えられる場合、それらの操作情報をAR操作対象に応じて変換し、AR操作対象に適用することも可能である。当該変換を行う場合の変換DB14の例を図11に示す。図11に示す例において、例えば、AR操作対象として「ボタン」が特定され、操作情報として「加速度」が与えられた場合、当該「ボタン」に対する操作として「タップ」が適用される。さらに、操作デバイスの地理的位置座標(例:GPS座標)を取得し、当該地理的位置座標も加味して、AR操作対象に適用する操作を決定することとしてもよい。   In addition, when tilt or acceleration (e.g., shaking the operation device) given to the operation device is given to the input unit 11 as operation information, the operation information is converted according to the AR operation target, and becomes the AR operation target. It is also possible to apply. An example of the conversion DB 14 for performing the conversion is shown in FIG. In the example illustrated in FIG. 11, for example, when “button” is specified as an AR operation target and “acceleration” is given as operation information, “tap” is applied as an operation on the “button”. Furthermore, the geographical position coordinates (for example, GPS coordinates) of the operation device may be acquired, and the operation applied to the AR operation target may be determined in consideration of the geographical position coordinates.

なお、傾き、加速度、地理的位置情報は組み合わせてもよい。つまり、傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。また、傾き、加速度等と、図8等に示すタッチパネル上の操作情報とを組み合わせて用いることとしてもよい。   Note that tilt, acceleration, and geographical position information may be combined. That is, any one or more of inclination, acceleration, and geographical position information may be used. Further, the tilt, acceleration, and the like may be used in combination with operation information on the touch panel shown in FIG.

(出力部15)
図12は、出力部15の動作手順を示す。図12に示すように、出力部15は、特定部12の特定結果をディスプレイ22に出力するとともに、操作部13によるAR操作対象に対する操作の結果(操作後のAR操作対象)をディスプレイ22に出力する(ステップS401、S402)。
(Output unit 15)
FIG. 12 shows an operation procedure of the output unit 15. As illustrated in FIG. 12, the output unit 15 outputs the result of specifying the specifying unit 12 to the display 22 and outputs the result of the operation on the AR operation target by the operation unit 13 (AR operation target after operation) to the display 22. (Steps S401 and S402).

つまり、AR環境を表示するディスプレイ(HMDなど)には、特定部12における特定結果、及び操作部13で操作した結果が統合して提示される。これにより、利用者は、例えば図9に示すように、操作デバイスによる操作後のAR環境を見ることができる。   That is, on the display (HMD or the like) that displays the AR environment, the identification result in the identification unit 12 and the result of operation in the operation unit 13 are integrated and presented. Thereby, the user can see the AR environment after the operation by the operation device, for example, as shown in FIG.

なお、出力部15は、操作に係るAR操作対象のみならず、操作に関わらないAR操作対象も含むAR環境を出力する機能を持つ。   The output unit 15 has a function of outputting an AR environment including not only an AR operation target related to an operation but also an AR operation target not related to the operation.

このようにして、操作支援装置10の利用者はディスプレイ22に表示された情報を見ながら、操作デバイスを用いてAR環境のAR操作対象を操作することが可能となる。   In this way, the user of the operation support apparatus 10 can operate the AR operation target in the AR environment using the operation device while viewing the information displayed on the display 22.

また、例として、タッチパネルを搭載する操作デバイスを使用する場合は、特定されたAR操作対象をタッチパネルに投影することとしてもよい。これにより、AR操作対象をタッチパネル上で操作することが可能となり、タッチパネルなど一般に普及したデバイスの操作感で、AR操作対象を操作することが可能となる。特定されたAR操作対象をタッチパネルに投影する処理は、例えば、操作支援装置10から操作デバイスに対して投影画像の情報を送り、操作デバイスが投影画像(AR操作対象)を表示することにより行う。   For example, when using an operation device equipped with a touch panel, the specified AR operation target may be projected onto the touch panel. As a result, the AR operation target can be operated on the touch panel, and the AR operation target can be operated with a feeling of operation of a device that has been widely used such as a touch panel. The process of projecting the specified AR operation target on the touch panel is performed by, for example, sending information on the projection image from the operation support apparatus 10 to the operation device, and displaying the projection image (AR operation target) by the operation device.

(実施の形態のまとめ)
以上、説明したように、本実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段とを備える操作支援装置が提供される。
(Summary of embodiment)
As described above, according to the present embodiment, an AR operation target that is an operation target existing in an Augmented Reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space. An operation support apparatus that supports an operation on the basis of the position of the operation device, which is a physical device, input means for acquiring operation information given to the operation device, and the position of the operation device, Based on the specifying means for specifying the AR operation target, the operation information given to the operation device, and the AR operation target specified by the specifying means, the operation information is converted, and the operation obtained by the conversion is An operation support apparatus is provided that includes an operation unit applied to the specified AR operation target.

前記操作支援装置は、例えば、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定することとしてもよい。   The operation support apparatus includes, for example, a conversion database that defines an operation corresponding to an AR operation target and operation information, and the operation means applies to the specified AR operation target by referring to the conversion database. The operation to be performed may be determined.

前記操作デバイスは、例えば、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である。また、前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。   The operation device is a device including a touch panel, for example, and the operation information is operation information indicating an operation on the touch panel. Further, as the operation information, any one or more of the tilt, acceleration, and geographical position information of the operation device may be used.

前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用することとしてもよい。   When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. It is good also as applying to.

前記特定手段は、例えば、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定することができる。   For example, the specifying unit can specify an AR operation target whose distance from the operation device is smaller than a predetermined threshold.

(実施の形態の効果)
本実施の形態における操作支援装置10を用いることにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになるため、操作に関する学習時間が短くなる。また、ジェスチャなどの大きな動作が必要なくなるため、操作動作を小さくできる。さらに、加えて、HMDを用いたAR環境の操作において、第三者から見た場合に操作している姿が変に見えてしまう(見られてしまうのではないか)という心理的な障壁を軽減できる。
(Effect of embodiment)
By using the operation support apparatus 10 according to the present embodiment, the AR operation target can be intuitively operated as if using an existing device such as a smartphone, so that the learning time for the operation is shortened. In addition, since a large operation such as a gesture is not necessary, the operation operation can be reduced. In addition, in the operation of the AR environment using the HMD, there is a psychological barrier that the appearance of the operation when viewed from a third party looks strange (is seen). Can be reduced.

(第1項)
現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と
を備えることを特徴とする操作支援装置。
(第2項)
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする第1項に記載の操作支援装置。
(第3項)
前記操作デバイスは、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である
ことを特徴とする第1項又は第2項に記載の操作支援装置。
(第4項)
前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いる
ことを特徴とする第1項ないし第3項のうちいずれか1項に記載の操作支援装置。
(第5項)
前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用する
ことを特徴とする第1項ないし第4項のうちいずれか1項に記載の操作支援装置。
(第6項)
前記特定手段は、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定する
ことを特徴とする第1項ないし第5項のうちいずれか1項に記載の操作支援装置。
(第7項)
コンピュータを、第1項ないし第6項のうちいずれか1項に記載の操作支援装置における各手段として機能させるためのプログラム。
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
(Section 1)
An operation support apparatus that supports an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space,
A position of an operation device, which is a physical device, and an input means for acquiring operation information given to the operation device;
A specifying means for specifying an AR operation target based on the position of the operation device;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operation means
An operation support apparatus comprising:
(Section 2)
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation means determines an operation to be applied to the specified AR operation target by referring to the conversion database.
The operation support apparatus according to item 1, wherein the operation support apparatus is described above.
(Section 3)
The operation device is a device including a touch panel, and the operation information is operation information indicating an operation on the touch panel.
The operation support device according to item 1 or 2, characterized by the above.
(Section 4)
As the operation information, any one or more of the tilt, acceleration, and geographical position information of the operation device is used.
The operation support device according to any one of Items 1 to 3, wherein
(Section 5)
When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. Apply to
The operation support device according to any one of Items 1 to 4, wherein the operation support device is characterized in that
(Section 6)
The specifying unit specifies an AR operation target whose distance from the operation device is smaller than a predetermined threshold.
The operation support apparatus according to any one of claims 1 to 5, characterized in that:
(Section 7)
The program for functioning a computer as each means in the operation assistance apparatus of any one of Claim 1 thru | or 6.
The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.

10 操作支援装置
11 入力部
12 特定部
13 操作部
14 変換DB
15 出力部
12 複数特定部
21 位置、操作情報
22 ディスプレイ
10 Operation Support Device 11 Input Unit 12 Identification Unit 13 Operation Unit 14 Conversion DB
15 Output unit 12 Multiple specifying unit 21 Position, operation information 22 Display

Claims (5)

現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
タッチパネルを備える物理的なデバイスである操作デバイスの位置を取得する第1の入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記特定されたAR操作対象を前記操作デバイスの前記タッチパネル上に表示する手段と、
前記特定されたAR操作対象が表示された前記タッチパネル上の操作により、前記操作デバイスに与えられた操作情報を取得する第2の入力手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と、を備え、
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする操作支援装置。
An operation support apparatus that supports an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space,
First input means for acquiring a position of an operation device that is a physical device including a touch panel ;
A specifying means for specifying an AR operation target based on the position of the operation device;
Means for displaying the specified AR operation target on the touch panel of the operation device;
Second input means for acquiring operation information given to the operation device by an operation on the touch panel on which the specified AR operation target is displayed;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operating means ,
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation support apparatus determines an operation to be applied to the specified AR operation target by referring to the conversion database .
前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いる
ことを特徴とする請求項1に記載の操作支援装置。
The operation support apparatus according to claim 1, wherein any one or more of tilt, acceleration, and geographical position information of the operation device is used as the operation information.
前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用する
ことを特徴とする請求項1又は2に記載の操作支援装置。
When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. operation support apparatus according to claim 1 or 2, characterized in that to apply to.
前記特定手段は、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定する
ことを特徴とする請求項1ないしのうちいずれか1項に記載の操作支援装置。
The operation support apparatus according to any one of claims 1 to 3 , wherein the specifying unit specifies an AR operation target whose distance from the operation device is smaller than a predetermined threshold.
コンピュータを、請求項1ないしのうちいずれか1項に記載の操作支援装置における各手段として機能させるためのプログラム。 The program for functioning a computer as each means in the operation assistance apparatus of any one of Claims 1 thru | or 4 .
JP2015077619A 2015-04-06 2015-04-06 Operation support apparatus and program Active JP6346585B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015077619A JP6346585B2 (en) 2015-04-06 2015-04-06 Operation support apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015077619A JP6346585B2 (en) 2015-04-06 2015-04-06 Operation support apparatus and program

Publications (2)

Publication Number Publication Date
JP2016197364A JP2016197364A (en) 2016-11-24
JP6346585B2 true JP6346585B2 (en) 2018-06-20

Family

ID=57358392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015077619A Active JP6346585B2 (en) 2015-04-06 2015-04-06 Operation support apparatus and program

Country Status (1)

Country Link
JP (1) JP6346585B2 (en)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005115467A (en) * 2003-10-03 2005-04-28 Vision Arts Kk Virtual object operation program
JP2005339266A (en) * 2004-05-27 2005-12-08 Canon Inc Information processing method, information processor and imaging device
JP4553362B2 (en) * 2005-01-31 2010-09-29 キヤノン株式会社 System, image processing apparatus, and information processing method
JP5724543B2 (en) * 2011-03-31 2015-05-27 ソニー株式会社 Terminal device, object control method, and program
JP5962403B2 (en) * 2012-10-01 2016-08-03 ソニー株式会社 Information processing apparatus, display control method, and program
JP2014171918A (en) * 2013-03-06 2014-09-22 Panasonic Corp Dehumidifier
CN105229720B (en) * 2013-05-21 2018-05-15 索尼公司 Display control unit, display control method and recording medium
JP5996605B2 (en) * 2014-10-21 2016-09-21 株式会社コロプラ System, program, and method for operating screen by interlocking head mounted display and controller
JP5981591B1 (en) * 2015-03-17 2016-08-31 株式会社コロプラ Computer program and computer system for controlling object operations in an immersive virtual space

Also Published As

Publication number Publication date
JP2016197364A (en) 2016-11-24

Similar Documents

Publication Publication Date Title
US20220121344A1 (en) Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments
US11678004B2 (en) Recording remote expert sessions
US10754496B2 (en) Virtual reality input
JP5900393B2 (en) Information processing apparatus, operation control method, and program
US20210011556A1 (en) Virtual user interface using a peripheral device in artificial reality environments
US9870058B2 (en) Control of a real world object user interface
US8760395B2 (en) Gesture recognition techniques
US10733799B2 (en) Augmented reality sensor
US12056271B2 (en) Gaze timer based augmentation of functionality of a user input device
US10990240B1 (en) Artificial reality system having movable application content items in containers
KR20130108643A (en) Systems and methods for a gaze and gesture interface
WO2013118373A1 (en) Image processing apparatus, image processing method, and program
WO2014188797A1 (en) Display control device, display control method, and recording medium
US10359906B2 (en) Haptic interface for population of a three-dimensional virtual environment
US10488918B2 (en) Analysis of user interface interactions within a virtual reality environment
JP6576042B2 (en) Display control apparatus and method, and program
US20120313968A1 (en) Image display system, information processing apparatus, display device, and image display method
JP2017151806A (en) Information processing program, information processing system, information processing method, and information processing apparatus
US11651567B2 (en) Display terminal, display control system and display control method
JP6440394B2 (en) Simulation image display device
WO2014054317A1 (en) User interface device and user interface method
JP6346585B2 (en) Operation support apparatus and program
US11570017B2 (en) Batch information processing apparatus, batch information processing method, and program
JP2017199085A (en) Information processing apparatus, information processing method, and program
JP2015133637A (en) Information processing apparatus and operation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170620

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180423

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180525

R150 Certificate of patent or registration of utility model

Ref document number: 6346585

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150