JP6346585B2 - Operation support apparatus and program - Google Patents
Operation support apparatus and program Download PDFInfo
- Publication number
- JP6346585B2 JP6346585B2 JP2015077619A JP2015077619A JP6346585B2 JP 6346585 B2 JP6346585 B2 JP 6346585B2 JP 2015077619 A JP2015077619 A JP 2015077619A JP 2015077619 A JP2015077619 A JP 2015077619A JP 6346585 B2 JP6346585 B2 JP 6346585B2
- Authority
- JP
- Japan
- Prior art keywords
- target
- information
- operation target
- support apparatus
- specified
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
Description
本発明は、AR環境における操作対象の操作を行うための技術に関連するものである。 The present invention relates to a technique for performing an operation on an operation target in an AR environment.
現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugumented Reality(AR:拡張現実感)環境を提供する技術がある。このARを用いた情報提示として、主にウェアラブル環境において、ヘッドマウントディスプレイ(HMD)を用いた提示方法が提案されている。これにより、物理的な操作デバイスを把持せず、かつ視界を広範囲に覆うARが活用できるようになりつつある。 There is a technology that provides an augmented reality (AR) environment that extends a real space by presenting virtual information superimposed on the real space. As information presentation using this AR, a presentation method using a head mounted display (HMD) has been proposed mainly in a wearable environment. This makes it possible to utilize AR that does not hold a physical operation device and covers a wide field of view.
しかし、HMDによるARでは、ユーザがAR環境上の操作対象(以下、AR操作対象)を直接操作できない、という問題が発生している。そのため、HMDの操作をするためにHMDに組み込まれたリモコンを用いる。しかし、リモコン操作と、AR操作対象との対応付けがわかりにくく、直感的に操作することは難しい。 However, in AR by HMD, there is a problem that the user cannot directly operate an operation target in the AR environment (hereinafter referred to as AR operation target). Therefore, a remote controller built into the HMD is used to operate the HMD. However, the correspondence between the remote control operation and the AR operation target is difficult to understand, and it is difficult to operate intuitively.
このような操作性の問題を解決するために、例えば、非特許文献1に開示されているように、マーカーを搭載したコントローラ(指)を操作することで、AR空間を操作する方法が検討されている。また、非特許文献2に開示されているように、ハンドジェスチャ(手の動き)によって操作対象を操作する方法も提案されている。これによって、デバイスレスで、特定の操作対象をジェスチャによってある程度直感的に操作できる。
In order to solve such a problem of operability, for example, as disclosed in Non-Patent
上記従来技術を用いることで、より直感的にAR操作対象を操作できると考えられる。しかし、上記従来技術をAR環境で用いる場合、実空間には存在しないAR操作対象を指やジェスチャによって操作する必要があるため、操作に対して十分なフィードバックが得にくく、また、AR操作対象を操作するために常に手や腕を空中で動かす必要があり疲れやすい、という物理的な課題が残る。加えて、第三者から見た場合に、何も無い空間に対して腕や手を動かすため、操作している姿が変に見えてしまう(見られてしまうのではないか)、という心理的な課題もある。 It is considered that the AR operation target can be operated more intuitively by using the above-described conventional technology. However, when the above prior art is used in an AR environment, it is necessary to operate an AR operation target that does not exist in the real space with a finger or a gesture, so that it is difficult to obtain sufficient feedback for the operation. The physical problem remains that it is easy to get tired because it is necessary to always move hands and arms in the air for operation. In addition, when viewed from a third party, the arm or hand moves with respect to an empty space, so that the appearance of the operation looks strange (maybe seen) There are also some challenges.
本発明は上記の点に鑑みてなされたものであり、AR環境におけるAR操作対象を効率良く操作することを可能とする技術を提供することを目的とする。 The present invention has been made in view of the above points, and an object of the present invention is to provide a technique capable of efficiently operating an AR operation target in an AR environment.
本発明の実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
タッチパネルを備える物理的なデバイスである操作デバイスの位置を取得する第1の入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記特定されたAR操作対象を前記操作デバイスの前記タッチパネル上に表示する手段と、
前記特定されたAR操作対象が表示された前記タッチパネル上の操作により、前記操作デバイスに与えられた操作情報を取得する第2の入力手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と、を備え、
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする操作支援装置が提供される。
According to the embodiment of the present invention, virtual information is superimposed on a real space to present an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space. An operation support device for
First input means for acquiring a position of an operation device that is a physical device including a touch panel ;
A specifying means for specifying an AR operation target based on the position of the operation device;
Means for displaying the specified AR operation target on the touch panel of the operation device;
Second input means for acquiring operation information given to the operation device by an operation on the touch panel on which the specified AR operation target is displayed;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operating means ,
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation means determines an operation to be applied to the specified AR operation target by referring to the conversion database, and an operation support apparatus is provided.
本発明の実施の形態によれば、AR環境におけるAR操作対象を効率良く操作することを可能とする技術が提供される。 According to the embodiment of the present invention, a technique is provided that enables an AR operation target in an AR environment to be efficiently operated.
以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。 Embodiments of the present invention will be described below with reference to the drawings. The embodiment described below is only an example, and the embodiment to which the present invention is applied is not limited to the following embodiment.
(実施の形態の概要)
本実施の形態ではAR操作対象を効率良く操作できるようにすることを目的として、「物理的なAR空間操作デバイス」(以下、操作デバイス)を用いることにより、直感的なAR操作対象の操作を実現する操作支援装置が提供される。具体的には、操作支援装置は、操作デバイスの位置情報を取得し、AR環境におけるAR操作対象の位置情報と突合することで、操作デバイスで操作するAR操作対象を特定し、かつ操作デバイスに与えられた操作情報を、AR操作対象に応じて変換し、適用することで、高速なAR操作対象の特定と操作を可能とする。
(Outline of the embodiment)
In the present embodiment, for the purpose of efficiently operating an AR operation target, an intuitive operation of the AR operation target can be performed by using a “physical AR space operation device” (hereinafter referred to as an operation device). An operation support device is provided. Specifically, the operation support apparatus acquires the position information of the operation device, matches the position information of the AR operation target in the AR environment, specifies the AR operation target operated by the operation device, and sets the operation device to the operation device. The given operation information is converted and applied according to the AR operation target, thereby enabling high-speed identification and operation of the AR operation target.
これにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになり、HMD(ヘッドマウントディスプレイ)を用いたAR環境の操作における物理的、心理的な課題の両方を解決することとしている。以下、本実施の形態についてより詳細に説明する。なお、本実施の形態では、AR環境を利用者に提示するディスプレイとしてHMDを使用することを想定しているが、本発明はHMD以外のディスプレイにも適用可能である。 As a result, the AR operation target can be intuitively operated as if using an existing device such as a smartphone, and both physical and psychological problems in the operation of the AR environment using an HMD (head mounted display) are realized. Is going to solve. Hereinafter, this embodiment will be described in more detail. In the present embodiment, it is assumed that the HMD is used as a display for presenting the AR environment to the user, but the present invention is also applicable to a display other than the HMD.
(装置構成、機能概要)
図1に、本実施の形態に係る操作支援装置10の構成図を示す。操作支援装置10は、AR環境を提供するディスプレイ(HMD)の利用者がAR環境においてAR操作対象を操作することを支援する装置である。
(Apparatus configuration, function overview)
FIG. 1 shows a configuration diagram of an
操作支援装置10は、例えばHMDに組み込まれる装置であってもよいし、HMDの外部に備えられる装置であってもよい。また、HMDの機能の一部として操作支援装置10の機能が備えられていてもよい。
The
なお、本実施の形態におけるAR環境を提供するHMDの方式は特定の方式に限定されない。例えば、本実施の形態では、AR操作対象が、現実空間と重なって利用者に見える方式のHMDを用いることができる。また、ARの方式も特定の方式に限定されない。例えば、マーカーを用いる方式、マーカーを用いない方式のいずれでもよい。 Note that the HMD method for providing the AR environment in the present embodiment is not limited to a specific method. For example, in the present embodiment, it is possible to use an HMD in which the AR operation target is visible to the user while overlapping with the real space. Also, the AR method is not limited to a specific method. For example, either a method using a marker or a method not using a marker may be used.
図1に示すように、操作支援装置10は、入力部11、特定部12、操作部13、変換DB(データベース)14、及び出力部15を含む。特定部12は、複数特定部112を含む。
As illustrated in FIG. 1, the
前述したように、本実施の形態では、AR操作対象の操作を行うために操作デバイスが用いられる。一例として操作デバイスはスマートフォンであるが、操作デバイスは特定の装置に限定されない。操作デバイスと操作支援装置10は有線又は無線により通信可能であり、操作支援装置10は操作デバイスでなされた操作の情報等を操作デバイスから取得できる。以下、操作支援装置10の各部の動作概要を説明する。
As described above, in this embodiment, an operation device is used to perform an operation on an AR operation target. As an example, the operation device is a smartphone, but the operation device is not limited to a specific device. The operation device and the
入力部11は、操作デバイスの位置情報と当該操作デバイスに対して与えられる操作情報を受け取る。一例として、操作デバイスがスマートフォンのようにタッチパネルを有する装置である場合、入力部11は、タッチパネルに対する操作の情報を操作情報として取得する。
The
特定部12は、操作デバイスの位置情報とAR操作対象の位置情報とを突合し、操作デバイスにより操作する対象となるAR操作対象を特定する。複数特定部112では、操作デバイスに与えられた特定の操作情報(例:複数選択を指定する操作)がある場合に、複数の操作対象を特定する。
The specifying
操作部13は、特定部12等により特定されたAR操作対象に応じて、操作デバイスに与えられた操作情報を変換し、AR操作対象に適用する。例として、操作デバイスがタッチパネルデバイスの場合は、タッチパネルへの操作をそのままAR操作対象に適用するすることとしてもよい。操作部13による操作情報の変換にあたっては、変換DB14に格納された情報が用いられる。
The
出力部15は、特定部12でのAR操作対象の特定結果、及び当該AR操作対象に操作情報を適用した結果をAR環境に提示する。すなわち、操作されたAR操作対象を含むAR環境をディスプレイ22(例:HMD)に表示する。また、例えば、操作デバイスがタッチパネルデバイスの場合、出力部15は、AR環境への特定結果及び操作情報の適用結果の提示に加えて、特定したAR操作対象をタッチパネルに表示するとともに、操作情報の適用結果についてもタッチパネルに表示することとしてもよい。
The
なお、AR環境を作成・提示する機能(AR操作対象の作成、表示を行う機能等)自体は既存技術であるため、詳細には説明していない。AR環境を作成・提示する当該機能自体は、操作支援装置10が有することとしてもよいし、操作支援装置10の外部の装置が有することとしてもよい。いずれの場合も、操作支援装置10は、AR環境におけるAR操作対象の情報(AR操作対象毎の位置情報、形の情報等)を保持する、もしくは取得できる。
Note that functions for creating and presenting an AR environment (functions for creating and displaying an AR operation target, etc.) themselves are existing technologies and are not described in detail. The function itself for creating and presenting the AR environment may be included in the
本実施の形態に係る操作支援装置10は、例えば、CPU及びメモリ等を備えるコンピュータ(コンピュータの機能を有する様々な装置を含む)に、本実施の形態で説明する処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、操作支援装置10が有する機能は、当該コンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、操作支援装置10で実施される処理に対応するプログラムを実行することによって実現することが可能である。また、上記プログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。
The
以下、各部の動作をより詳細に説明する。 Hereinafter, the operation of each unit will be described in more detail.
(入力部11)
図2に、入力部11の動作手順を示す。図2に示すように、入力部11は、AR環境と連携する操作デバイスから、操作デバイスの位置(x,y,z)と、操作デバイスに対する操作情報を取得する(ステップS101、S102)。これは継続的になされるものである。また、取得された操作デバイスの位置の情報は特定部12に渡され(ステップS103)、操作情報は操作部13に渡される(ステップS104)。
(Input unit 11)
FIG. 2 shows an operation procedure of the
図3に、入力情報の例を示す。図3に示す例では、時間(操作がなされた時刻)、位置、及び操作情報が入力される。図3の例においては表形式での情報入力を想定しているが、上記情報を取得可能であればどのような形式であってもよい。また、操作デバイスの位置についてもAR操作対象(xi,yi,zi)と突合できる形式であれば、どのような形式でも良い。操作デバイスに対する操作情報としては、例えば操作デバイスがタッチパネルを搭載している場合、入力としては、タップ、スワイプ、ピンチなどの操作を受け付けることができる。 FIG. 3 shows an example of input information. In the example illustrated in FIG. 3, time (time when the operation is performed), position, and operation information are input. In the example of FIG. 3, information input in a table format is assumed, but any format may be used as long as the information can be acquired. Further, the position of the operation device may be in any format as long as it can match the AR operation target (xi, yi, zi). As operation information for the operation device, for example, when the operation device is equipped with a touch panel, operations such as tap, swipe, and pinch can be accepted as input.
具体的な操作デバイスの位置の取得方法としては、例えば、HMDにKinectのような赤外線レーザーを用いたToF(Time of Flight)方式による対象デバイスの位置と距離推定が可能なデバイスを搭載することで、位置情報の取得が可能である。その他にも、ARマーカーを操作デバイスに予め搭載しておき、HMDにカメラを搭載することで、ARマーカーを認識し、デバイス位置を推定し、推定した位置を操作支援装置10に提供することも可能である。逆に、操作デバイス側にカメラを搭載し、HMDに搭載したARマーカーを検知することで、HMDと操作デバイスとの距離を検出することも可能である。このように、操作デバイスの位置の取得については、HMDの位置(つまり、利用者の位置)を基準としてx,y,zが取れるのであればどのような方式であっても良い。
As a specific method for acquiring the position of the operation device, for example, by installing a device capable of estimating the position and distance of the target device by the ToF (Time of Flight) method using an infrared laser such as Kinect in the HMD. The position information can be acquired. In addition, by mounting an AR marker in advance on the operation device and mounting a camera on the HMD, the AR marker is recognized, the device position is estimated, and the estimated position is provided to the
具体的なAR環境と操作デバイスとの連携方法としては、例えば、Bluetooth(登録商標)などの無線通信を用いることで実現可能であるし、有線接続で繋いでも良い。このように、HMDを基準とした操作デバイスの位置情報が検出可能であって、かつ、操作デバイスの操作情報をAR操作対象に適用できるのであれば、どのような方式を用いても構わない。 As a specific method for linking the AR environment and the operation device, for example, wireless communication such as Bluetooth (registered trademark) can be used, or a wired connection may be used. As described above, any method may be used as long as the position information of the operation device based on the HMD can be detected and the operation information of the operation device can be applied to the AR operation target.
(特定部12)
特定部12では、入力部11で得た操作デバイスの位置情報をもとにAR操作対象を特定する。図4に、特定部12の動作手順を示す。
(Specific part 12)
The specifying
図4に示すように、特定部12は、入力部11により得られ、メモリ等に格納されている操作デバイスの位置の情報を読み込む(ステップS201)。特定部12は、各AR操作対象iに対して操作デバイスとの距離を算出する(ステップS202、S203)。
As illustrated in FIG. 4, the specifying
全てのAR操作対象について、操作デバイスとの距離の算出が終了したら、最小の距離を持つAR操作対象iを特定する(ステップS204)。特定部12は、特定したAR操作対象の情報を操作部13に渡す(ステップS205)。
When the calculation of the distance to the operation device is completed for all AR operation targets, the AR operation target i having the minimum distance is specified (step S204). The specifying
図5に、操作デバイスの位置の情報を用いてAR操作対象を特定するイメージを例示する。図5に示す例では、AR操作対象1〜4のうち、操作デバイスとの距離が最小であるAR操作対象1が、操作デバイスによる操作の対象として特定されている。なお、図4の例では、最小の距離を持つAR操作対象を特定しているが、更に、最小の距離を持つAR操作対象が一定の距離以下にある場合に、当該AR操作対象を操作対象として特定することとしてもよい。この場合のプログラムの例を図6に示す。当該プログラムは、特定部12の動作に対応する。
FIG. 5 illustrates an image for specifying an AR operation target using information on the position of the operation device. In the example illustrated in FIG. 5, among the AR operation targets 1 to 4, the
図6のプログラムにおける変数は下記のように定義されるものである。 The variables in the program of FIG. 6 are defined as follows.
AR操作対象i:objects[i];//objectsは配列
操作デバイスの位置情報:x,y,z;
AR操作対象iの位置情報:xi,yi,zi;
絶対値の取得:Math.abs();
最小値の取得:Math.min();
AR操作対象iと操作デバイスとの距離:distances[i] //distancesは配列
係数:A,B,C;
操作対象と見なす閾値: Threshold。
AR operation target i: objects [i]; // objects is an array Operation device position information: x, y, z;
Position information of AR operation target i: xi, yi, zi;
Acquisition of absolute value: Math. abs ();
Acquisition of minimum value: Math. min ();
Distance between AR operation target i and operation device: distances [i] // distances is an array coefficient: A, B, C;
Threshold value to be regarded as an operation target: Threshold.
なお、一定の距離以下にあるAR操作対象を最初に検出し、当該AR操作対象が複数有る場合に、最も操作デバイスの位置に近いAR操作対象を選択することとしてもよい。 Note that it is also possible to first detect an AR operation target within a certain distance and select the AR operation target closest to the position of the operation device when there are a plurality of AR operation targets.
また、操作デバイスに特定の操作情報(複数選択を指定する操作)を与え、当該操作情報が複数特定部112に通知されることで、複数特定部112がAR操作対象(操作デバイスによる操作の対象)を複数特定することとしてもよい。例えば、デスクトップコンピュータ環境における範囲選択や、複数選択、全選択などの操作と同様の操作により複数AR操作対象を選択したり、操作デバイスの位置からの距離が一定以内のAR操作対象を自動的に全て選択することとしてもよい。
In addition, specific operation information (operation for designating multiple selection) is given to the operation device, and the operation information is notified to the plurality of
(操作部13)
操作部13では、AR操作対象に応じて操作デバイスに与えられた操作情報を変換し、変換された操作を特定されたAR操作対象に与える。図7に、操作部13の動作手順を示す。
(Operation unit 13)
The
図7に示すように、操作部13は、特定部12により特定されたAR操作対象の情報を読み込み(ステップS301)、入力部11により取得された操作デバイスへの操作情報を読み込む(ステップS302)。操作部13は、変換DB14を参照し、ステップS301、S302で取得したAR操作対象と操作情報に対応する操作を特定し、当該操作をAR操作対象に適用する(ステップS303、S304)。
As illustrated in FIG. 7, the
図8に変換DB14の例を示す。図8に示す例では、表形式で情報を保持しているが、変換方法の情報を保持できる方法であれば、テキスト、xmlなど、任意の形式で保持して良い。図8に示すように、例えば、AR操作対象が「リンク」であり、操作情報が「タップ」であるとすると、「リンク選択」という操作が、当該「リンク」に対して適用される。
FIG. 8 shows an example of the
また、例として、操作デバイスがタッチパネルを持つ場合の操作情報のAR操作対象への適用例を図9に示す。タッチパネルを具備する操作デバイスでは、タッチパネルに与えられた操作情報をそのままAR環境の操作対象に適用することができる。つまり、図9に示すように、「ピンチ」(例:2本の指でタッチパネル表面を押し広げる動作)を行うことで、AR操作対象1が拡大される(例えば、利用者は当該対象がズームで大きくなったように見える)。
As an example, FIG. 9 shows an application example of the operation information to the AR operation target when the operation device has a touch panel. In an operation device having a touch panel, the operation information given to the touch panel can be directly applied to an operation target in the AR environment. That is, as shown in FIG. 9, the
また、図10に示すように、複数のAR操作対象が特定されている場合には、複数の操作対象に対して、操作デバイスに与えられた操作情報を同時に適用することができる。図10の例では、AR操作対象1と3にピンチの操作が適用されている。 Also, as shown in FIG. 10, when a plurality of AR operation targets are specified, the operation information given to the operation device can be applied to the plurality of operation targets at the same time. In the example of FIG. 10, a pinch operation is applied to the AR operation objects 1 and 3.
また、本実施の形態では、一時的にAR操作対象と操作デバイスとの関係を固定し、操作デバイス位置が変わっても、AR操作対象への操作情報の適用を継続させることを指示する操作(固定の操作と呼ぶ)が可能である。この場合、操作デバイスの位置をAR操作対象の位置に適用することが可能となる。 In the present embodiment, the relationship between the AR operation target and the operation device is temporarily fixed, and even when the operation device position changes, an operation (instruction for instructing to continue the application of the operation information to the AR operation target) Called a fixed operation). In this case, the position of the operation device can be applied to the position of the AR operation target.
つまり、AR操作対象を操作デバイスの位置で指定するとともに、一時的にAR操作対象と操作デバイスとの関係を固定することを指示する操作を行う。その後、利用者は、操作デバイス上での実際の操作を(AR操作対象の位置でなくて)手元で行うことができる。これにより、素早い操作デバイスの特定と、特定後の直感的な操作感とを両立できる。なお、操作が完了した後、固定を解除することで、操作デバイスの操作情報のAR操作対象への適用を停止できる。 In other words, the AR operation target is designated by the position of the operation device, and an operation for instructing to temporarily fix the relationship between the AR operation target and the operation device is performed. Thereafter, the user can perform an actual operation on the operation device at hand (not the position of the AR operation target). As a result, it is possible to achieve both a quick operation device specification and an intuitive operation feeling after the specification. After the operation is completed, the application of the operation information of the operation device to the AR operation target can be stopped by releasing the fixation.
また、操作デバイスの位置によりAR操作対象を特定した後で、操作デバイスの操作により位置情報の同期を指示することで、操作デバイスの位置をAR操作対象に適用することも可能である。これにより、操作デバイスを用いて、AR操作対象のAR空間上の提示(表示)位置を素早く変更できるようになる。 It is also possible to apply the position of the operation device to the AR operation target by instructing synchronization of position information by operation of the operation device after specifying the AR operation target by the position of the operation device. Thereby, it becomes possible to quickly change the presentation (display) position of the AR operation target in the AR space using the operation device.
また、操作デバイスに与えられた傾きや加速度(例:操作デバイスを振る)などが操作情報として入力部11に与えられる場合、それらの操作情報をAR操作対象に応じて変換し、AR操作対象に適用することも可能である。当該変換を行う場合の変換DB14の例を図11に示す。図11に示す例において、例えば、AR操作対象として「ボタン」が特定され、操作情報として「加速度」が与えられた場合、当該「ボタン」に対する操作として「タップ」が適用される。さらに、操作デバイスの地理的位置座標(例:GPS座標)を取得し、当該地理的位置座標も加味して、AR操作対象に適用する操作を決定することとしてもよい。
In addition, when tilt or acceleration (e.g., shaking the operation device) given to the operation device is given to the
なお、傾き、加速度、地理的位置情報は組み合わせてもよい。つまり、傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。また、傾き、加速度等と、図8等に示すタッチパネル上の操作情報とを組み合わせて用いることとしてもよい。 Note that tilt, acceleration, and geographical position information may be combined. That is, any one or more of inclination, acceleration, and geographical position information may be used. Further, the tilt, acceleration, and the like may be used in combination with operation information on the touch panel shown in FIG.
(出力部15)
図12は、出力部15の動作手順を示す。図12に示すように、出力部15は、特定部12の特定結果をディスプレイ22に出力するとともに、操作部13によるAR操作対象に対する操作の結果(操作後のAR操作対象)をディスプレイ22に出力する(ステップS401、S402)。
(Output unit 15)
FIG. 12 shows an operation procedure of the
つまり、AR環境を表示するディスプレイ(HMDなど)には、特定部12における特定結果、及び操作部13で操作した結果が統合して提示される。これにより、利用者は、例えば図9に示すように、操作デバイスによる操作後のAR環境を見ることができる。
That is, on the display (HMD or the like) that displays the AR environment, the identification result in the
なお、出力部15は、操作に係るAR操作対象のみならず、操作に関わらないAR操作対象も含むAR環境を出力する機能を持つ。
The
このようにして、操作支援装置10の利用者はディスプレイ22に表示された情報を見ながら、操作デバイスを用いてAR環境のAR操作対象を操作することが可能となる。
In this way, the user of the
また、例として、タッチパネルを搭載する操作デバイスを使用する場合は、特定されたAR操作対象をタッチパネルに投影することとしてもよい。これにより、AR操作対象をタッチパネル上で操作することが可能となり、タッチパネルなど一般に普及したデバイスの操作感で、AR操作対象を操作することが可能となる。特定されたAR操作対象をタッチパネルに投影する処理は、例えば、操作支援装置10から操作デバイスに対して投影画像の情報を送り、操作デバイスが投影画像(AR操作対象)を表示することにより行う。
For example, when using an operation device equipped with a touch panel, the specified AR operation target may be projected onto the touch panel. As a result, the AR operation target can be operated on the touch panel, and the AR operation target can be operated with a feeling of operation of a device that has been widely used such as a touch panel. The process of projecting the specified AR operation target on the touch panel is performed by, for example, sending information on the projection image from the
(実施の形態のまとめ)
以上、説明したように、本実施の形態により、現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段とを備える操作支援装置が提供される。
(Summary of embodiment)
As described above, according to the present embodiment, an AR operation target that is an operation target existing in an Augmented Reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space. An operation support apparatus that supports an operation on the basis of the position of the operation device, which is a physical device, input means for acquiring operation information given to the operation device, and the position of the operation device, Based on the specifying means for specifying the AR operation target, the operation information given to the operation device, and the AR operation target specified by the specifying means, the operation information is converted, and the operation obtained by the conversion is An operation support apparatus is provided that includes an operation unit applied to the specified AR operation target.
前記操作支援装置は、例えば、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定することとしてもよい。 The operation support apparatus includes, for example, a conversion database that defines an operation corresponding to an AR operation target and operation information, and the operation means applies to the specified AR operation target by referring to the conversion database. The operation to be performed may be determined.
前記操作デバイスは、例えば、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である。また、前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いることとしてもよい。 The operation device is a device including a touch panel, for example, and the operation information is operation information indicating an operation on the touch panel. Further, as the operation information, any one or more of the tilt, acceleration, and geographical position information of the operation device may be used.
前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用することとしてもよい。 When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. It is good also as applying to.
前記特定手段は、例えば、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定することができる。 For example, the specifying unit can specify an AR operation target whose distance from the operation device is smaller than a predetermined threshold.
(実施の形態の効果)
本実施の形態における操作支援装置10を用いることにより、AR操作対象をスマートフォンなどの既存のデバイスを利用する感覚で直感的に操作できるようになるため、操作に関する学習時間が短くなる。また、ジェスチャなどの大きな動作が必要なくなるため、操作動作を小さくできる。さらに、加えて、HMDを用いたAR環境の操作において、第三者から見た場合に操作している姿が変に見えてしまう(見られてしまうのではないか)という心理的な障壁を軽減できる。
(Effect of embodiment)
By using the
(第1項)
現実空間上に仮想的な情報を重ねて提示することで、現実空間を拡張するAugmented Reality(AR)環境に存在する操作対象であるAR操作対象への操作を支援する操作支援装置であって、
物理的なデバイスである操作デバイスの位置と、当該操作デバイスに与えられた操作情報を取得する入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と
を備えることを特徴とする操作支援装置。
(第2項)
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする第1項に記載の操作支援装置。
(第3項)
前記操作デバイスは、タッチパネルを備えるデバイスであり、前記操作情報は、当該タッチパネル上の操作を示す操作情報である
ことを特徴とする第1項又は第2項に記載の操作支援装置。
(第4項)
前記操作情報として、前記操作デバイスの傾き、加速度、地理的位置情報のうちのいずれか1つ又は複数を用いる
ことを特徴とする第1項ないし第3項のうちいずれか1項に記載の操作支援装置。
(第5項)
前記操作デバイスに特定の操作が与えられた場合に、前記特定手段は、複数のAR操作対象を同時に特定し、前記操作手段は、操作デバイスに対する操作情報に基づく操作を、前記複数のAR操作対象に適用する
ことを特徴とする第1項ないし第4項のうちいずれか1項に記載の操作支援装置。
(第6項)
前記特定手段は、前記操作デバイスとの距離が所定の閾値よりも小さいAR操作対象を特定する
ことを特徴とする第1項ないし第5項のうちいずれか1項に記載の操作支援装置。
(第7項)
コンピュータを、第1項ないし第6項のうちいずれか1項に記載の操作支援装置における各手段として機能させるためのプログラム。
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。
(Section 1)
An operation support apparatus that supports an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space,
A position of an operation device, which is a physical device, and an input means for acquiring operation information given to the operation device;
A specifying means for specifying an AR operation target based on the position of the operation device;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operation means
An operation support apparatus comprising:
(Section 2)
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation means determines an operation to be applied to the specified AR operation target by referring to the conversion database.
The operation support apparatus according to
(Section 3)
The operation device is a device including a touch panel, and the operation information is operation information indicating an operation on the touch panel.
The operation support device according to
(Section 4)
As the operation information, any one or more of the tilt, acceleration, and geographical position information of the operation device is used.
The operation support device according to any one of
(Section 5)
When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. Apply to
The operation support device according to any one of
(Section 6)
The specifying unit specifies an AR operation target whose distance from the operation device is smaller than a predetermined threshold.
The operation support apparatus according to any one of
(Section 7)
The program for functioning a computer as each means in the operation assistance apparatus of any one of
The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims.
10 操作支援装置
11 入力部
12 特定部
13 操作部
14 変換DB
15 出力部
12 複数特定部
21 位置、操作情報
22 ディスプレイ
10
15
Claims (5)
タッチパネルを備える物理的なデバイスである操作デバイスの位置を取得する第1の入力手段と、
前記操作デバイスの位置に基づいて、AR操作対象を特定する特定手段と、
前記特定されたAR操作対象を前記操作デバイスの前記タッチパネル上に表示する手段と、
前記特定されたAR操作対象が表示された前記タッチパネル上の操作により、前記操作デバイスに与えられた操作情報を取得する第2の入力手段と、
前記操作デバイスに与えられた操作情報と、前記特定手段により特定されたAR操作対象とに基づいて、前記操作情報を変換し、変換により得られた操作を前記特定されたAR操作対象に適用する操作手段と、を備え、
前記操作支援装置は、AR操作対象と操作情報とに対応する操作を規定した変換データベースを備え、
前記操作手段は、前記変換データベースを参照することにより、前記特定されたAR操作対象に適用する操作を決定する
ことを特徴とする操作支援装置。 An operation support apparatus that supports an operation to an AR operation target that is an operation target existing in an augmented reality (AR) environment that extends the real space by presenting virtual information superimposed on the real space,
First input means for acquiring a position of an operation device that is a physical device including a touch panel ;
A specifying means for specifying an AR operation target based on the position of the operation device;
Means for displaying the specified AR operation target on the touch panel of the operation device;
Second input means for acquiring operation information given to the operation device by an operation on the touch panel on which the specified AR operation target is displayed;
The operation information is converted based on the operation information given to the operation device and the AR operation target specified by the specifying means, and the operation obtained by the conversion is applied to the specified AR operation target. Operating means ,
The operation support device includes a conversion database that defines an operation corresponding to an AR operation target and operation information,
The operation support apparatus determines an operation to be applied to the specified AR operation target by referring to the conversion database .
ことを特徴とする請求項1に記載の操作支援装置。 The operation support apparatus according to claim 1, wherein any one or more of tilt, acceleration, and geographical position information of the operation device is used as the operation information.
ことを特徴とする請求項1又は2に記載の操作支援装置。 When a specific operation is given to the operation device, the specifying unit simultaneously specifies a plurality of AR operation targets, and the operation unit performs an operation based on operation information for the operation device, the plurality of AR operation targets. operation support apparatus according to claim 1 or 2, characterized in that to apply to.
ことを特徴とする請求項1ないし3のうちいずれか1項に記載の操作支援装置。 The operation support apparatus according to any one of claims 1 to 3 , wherein the specifying unit specifies an AR operation target whose distance from the operation device is smaller than a predetermined threshold.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015077619A JP6346585B2 (en) | 2015-04-06 | 2015-04-06 | Operation support apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015077619A JP6346585B2 (en) | 2015-04-06 | 2015-04-06 | Operation support apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016197364A JP2016197364A (en) | 2016-11-24 |
JP6346585B2 true JP6346585B2 (en) | 2018-06-20 |
Family
ID=57358392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015077619A Active JP6346585B2 (en) | 2015-04-06 | 2015-04-06 | Operation support apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6346585B2 (en) |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115467A (en) * | 2003-10-03 | 2005-04-28 | Vision Arts Kk | Virtual object operation program |
JP2005339266A (en) * | 2004-05-27 | 2005-12-08 | Canon Inc | Information processing method, information processor and imaging device |
JP4553362B2 (en) * | 2005-01-31 | 2010-09-29 | キヤノン株式会社 | System, image processing apparatus, and information processing method |
JP5724543B2 (en) * | 2011-03-31 | 2015-05-27 | ソニー株式会社 | Terminal device, object control method, and program |
JP5962403B2 (en) * | 2012-10-01 | 2016-08-03 | ソニー株式会社 | Information processing apparatus, display control method, and program |
JP2014171918A (en) * | 2013-03-06 | 2014-09-22 | Panasonic Corp | Dehumidifier |
CN105229720B (en) * | 2013-05-21 | 2018-05-15 | 索尼公司 | Display control unit, display control method and recording medium |
JP5996605B2 (en) * | 2014-10-21 | 2016-09-21 | 株式会社コロプラ | System, program, and method for operating screen by interlocking head mounted display and controller |
JP5981591B1 (en) * | 2015-03-17 | 2016-08-31 | 株式会社コロプラ | Computer program and computer system for controlling object operations in an immersive virtual space |
-
2015
- 2015-04-06 JP JP2015077619A patent/JP6346585B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016197364A (en) | 2016-11-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220121344A1 (en) | Methods for interacting with virtual controls and/or an affordance for moving virtual objects in virtual environments | |
US11678004B2 (en) | Recording remote expert sessions | |
US10754496B2 (en) | Virtual reality input | |
JP5900393B2 (en) | Information processing apparatus, operation control method, and program | |
US20210011556A1 (en) | Virtual user interface using a peripheral device in artificial reality environments | |
US9870058B2 (en) | Control of a real world object user interface | |
US8760395B2 (en) | Gesture recognition techniques | |
US10733799B2 (en) | Augmented reality sensor | |
US12056271B2 (en) | Gaze timer based augmentation of functionality of a user input device | |
US10990240B1 (en) | Artificial reality system having movable application content items in containers | |
KR20130108643A (en) | Systems and methods for a gaze and gesture interface | |
WO2013118373A1 (en) | Image processing apparatus, image processing method, and program | |
WO2014188797A1 (en) | Display control device, display control method, and recording medium | |
US10359906B2 (en) | Haptic interface for population of a three-dimensional virtual environment | |
US10488918B2 (en) | Analysis of user interface interactions within a virtual reality environment | |
JP6576042B2 (en) | Display control apparatus and method, and program | |
US20120313968A1 (en) | Image display system, information processing apparatus, display device, and image display method | |
JP2017151806A (en) | Information processing program, information processing system, information processing method, and information processing apparatus | |
US11651567B2 (en) | Display terminal, display control system and display control method | |
JP6440394B2 (en) | Simulation image display device | |
WO2014054317A1 (en) | User interface device and user interface method | |
JP6346585B2 (en) | Operation support apparatus and program | |
US11570017B2 (en) | Batch information processing apparatus, batch information processing method, and program | |
JP2017199085A (en) | Information processing apparatus, information processing method, and program | |
JP2015133637A (en) | Information processing apparatus and operation system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170620 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180220 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180423 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180522 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180525 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6346585 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |