Nothing Special   »   [go: up one dir, main page]

JP6976395B1 - Distribution device, distribution system, distribution method and distribution program - Google Patents

Distribution device, distribution system, distribution method and distribution program Download PDF

Info

Publication number
JP6976395B1
JP6976395B1 JP2020160119A JP2020160119A JP6976395B1 JP 6976395 B1 JP6976395 B1 JP 6976395B1 JP 2020160119 A JP2020160119 A JP 2020160119A JP 2020160119 A JP2020160119 A JP 2020160119A JP 6976395 B1 JP6976395 B1 JP 6976395B1
Authority
JP
Japan
Prior art keywords
image
virtual
virtual object
information
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020160119A
Other languages
Japanese (ja)
Other versions
JP2022053334A (en
Inventor
啓允 福井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2020160119A priority Critical patent/JP6976395B1/en
Application granted granted Critical
Publication of JP6976395B1 publication Critical patent/JP6976395B1/en
Publication of JP2022053334A publication Critical patent/JP2022053334A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Abstract

【課題】仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表現する配信装置、配信システム、配信方法及び配信プログラムを提供する。【解決手段】配信装置1は、ディスプレイ装置のユーザがディスプレイ装置を介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する記憶部12と、ディスプレイ装置の位置及びディスプレイ装置が向いている方向を特定する特定部131と、仮想空間情報を参照し、特定部131が特定した位置及び方向に対応するとともに、仮想オブジェクトの実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成する画像生成部132と、生成された仮想オブジェクト情報をオブジェクト位置情報に関連付けてユーザ端末に配信する配信部133と、を有する。【選択図】図2PROBLEM TO BE SOLVED: To provide a distribution device, a distribution system, a distribution method and a distribution program which appropriately express the context of a virtual object and a real object existing in a real space. A distribution device 1 includes a storage unit 12 that stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to a real space that a user of the display device visually recognizes through the display device. The specific unit 131 that specifies the position of the display device and the direction in which the display device is facing, and the virtual space information are referred to, and the position and direction specified by the specific unit 131 correspond to the coordinate system in the real space of the virtual object. It has an image generation unit 132 that generates virtual object information associated with object position information indicating a corresponding position, and a distribution unit 133 that associates the generated virtual object information with the object position information and distributes it to a user terminal. [Selection diagram] Fig. 2

Description

本発明は、配信装置、配信システム、配信方法及び配信プログラムに関する。 The present invention relates to a distribution device, a distribution system, a distribution method, and a distribution program.

仮想空間内に設定された仮想カメラから見える風景を示すコンテンツ画像を、スマートグラス等のユーザが装着可能なディスプレイ装置に配信して表示させることが行われている(例えば、特許文献1を参照)。ディスプレイ装置を介して風景を視認することにより、ユーザは、実空間にコンテンツ画像が重畳された状態で実空間を視認することができる。 A content image showing a landscape seen from a virtual camera set in a virtual space is distributed and displayed on a user-worn display device such as a smart glass (see, for example, Patent Document 1). .. By visually recognizing the landscape through the display device, the user can visually recognize the real space with the content image superimposed on the real space.

特許6737942号公報Japanese Patent No. 6737942

従来の技術では、仮想カメラから見える風景を示すコンテンツ画像をディスプレイ装置に表示させるため、仮想空間に配置された複数の仮想オブジェクトと、現実空間に存在する建物や人物等の実オブジェクトとの前後関係を適切に表現することができないという問題が生じていた。 In the conventional technology, in order to display a content image showing a landscape seen from a virtual camera on a display device, the context of a plurality of virtual objects arranged in a virtual space and a real object such as a building or a person existing in the real space. There was a problem that it could not be expressed properly.

そこで、本発明はこれらの点に鑑みてなされたものであり、仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表現することができるようにすることを目的とする。 Therefore, the present invention has been made in view of these points, and an object of the present invention is to be able to appropriately express the context of a virtual object and a real object existing in the real space.

本発明の第1の態様に係る配信装置は、仮想オブジェクトをディスプレイに表示させる端末装置に仮想オブジェクトに対応する仮想オブジェクト情報を配信する配信装置であって、前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する記憶部と、前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部と、前記仮想空間情報を参照し、前記特定部が特定した前記位置及び前記方向に対応するとともに、前記仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部と、生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部と、を有する。 The distribution device according to the first aspect of the present invention is a distribution device that distributes virtual object information corresponding to a virtual object to a terminal device that displays a virtual object on a display, and a user of the terminal device passes through the display. A storage unit that stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space to be visually recognized, and a specific unit that specifies the position of the terminal device and the direction in which the terminal device is facing. With reference to the virtual space information, the object position information corresponding to the position and the direction specified by the specific unit and indicating the position corresponding to the real space coordinate system of the virtual object is associated with the virtual object. It has an object information generation unit that generates object information, and a distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device.

本発明の第2の態様に係る配信システムは、仮想オブジェクトをディスプレイに表示させる端末装置と、前記端末装置に仮想オブジェクトに対応する仮想オブジェクト情報を配信する配信装置とを有する配信システムであって、前記配信システムは、前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する記憶部と、前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部と、前記仮想空間情報を参照し、前記特定部が特定した前記位置及び前記方向に対応するとともに、前記仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部と、生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部と、を有し、前記端末装置は、前記配信装置から配信された前記仮想オブジェクト情報を受信する受信部と、前記受信部が受信した前記仮想オブジェクト情報と、前記オブジェクト位置情報とに基づいて前記仮想オブジェクトを示す画像を前記ディスプレイに表示させる表示制御部と、を有する。 The distribution system according to the second aspect of the present invention is a distribution system having a terminal device for displaying a virtual object on a display and a distribution device for distributing virtual object information corresponding to the virtual object to the terminal device. The distribution system includes a storage unit that stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display, and the terminal device. The specific unit that specifies the position and the direction in which the terminal device is facing, and the virtual space information are referred to, and the position and the direction specified by the specific unit correspond to the specific unit, and the coordinates of the virtual object in the real space. An object information generation unit that generates virtual object information associated with object position information indicating a position corresponding to the system, and a distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device. The terminal device has a receiving unit that receives the virtual object information distributed from the distribution device, the virtual object information received by the receiving unit, and the virtual object position information. It has a display control unit for displaying an image showing an object on the display.

本発明の第3の態様に係る配信方法は、仮想オブジェクトをディスプレイに表示させる端末装置に仮想オブジェクトに対応する仮想オブジェクト情報を配信するコンピュータが実行する、前記端末装置の位置及び前記端末装置が向いている方向を特定するステップと、前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を参照し、特定された前記位置及び前記方向に対応するとともに、前記仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するステップと、生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信するステップと、を有する。 The distribution method according to the third aspect of the present invention is executed by a computer that distributes virtual object information corresponding to the virtual object to the terminal device that displays the virtual object on the display, and the position of the terminal device and the terminal device are suitable. It was specified by referring to the step of specifying the direction in which the object is located and the virtual space information indicating the position of the virtual object in the virtual space having the coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display. A step of generating virtual object information associated with the object position information corresponding to the position and the direction and indicating the position corresponding to the real space coordinate system of the virtual object, and the generated virtual object information. It has a step of delivering to the terminal device in association with the object position information.

本発明の第4の態様に係る配信プログラムは、仮想オブジェクトをディスプレイに表示させる端末装置に仮想オブジェクトに対応する仮想オブジェクト情報を配信するコンピュータを、前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部、前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を参照し、前記特定部が特定した前記位置及び前記方向に対応するとともに、前記仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部、及び、生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部、として機能させる。 In the distribution program according to the fourth aspect of the present invention, the position of the terminal device and the terminal device face the computer that distributes the virtual object information corresponding to the virtual object to the terminal device that displays the virtual object on the display. The specific part that specifies the direction is specified by referring to the virtual space information that indicates the position of the virtual object in the virtual space having the coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display. An object information generation unit that generates virtual object information associated with the above-mentioned position and the above-mentioned direction and associated with the object position information indicating the position corresponding to the above-mentioned real space coordinate system of the above-mentioned virtual object, and the generated object information generation unit. It functions as a distribution unit that associates the virtual object information with the object position information and distributes it to the terminal device.

本発明によれば、仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表現することができるという効果を奏する。 According to the present invention, there is an effect that the context of a virtual object and a real object existing in the real space can be appropriately expressed.

本実施形態に係る配信システムの概要を示す図である。It is a figure which shows the outline of the distribution system which concerns on this embodiment. 本実施形態に係る配信装置の構成を示す図である。It is a figure which shows the structure of the distribution apparatus which concerns on this embodiment. 本実施形態に係るユーザ端末の構成を示す図である。It is a figure which shows the structure of the user terminal which concerns on this embodiment. 本実施形態に係るディスプレイ装置の構成を示す図である。It is a figure which shows the structure of the display device which concerns on this embodiment. 仮想オブジェクト画像がディスプレイ装置に表示された例を示す図である。It is a figure which shows the example which the virtual object image is displayed on the display device. 本実施形態に係る配信システムにおける処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of processing in the distribution system which concerns on this embodiment.

[配信装置Sの概要]
図1は、本実施形態に係る配信システムSの概要を示す図である。配信システムSは、ディスプレイに仮想オブジェクトを表示させるシステムである。仮想オブジェクトは、仮想空間上に配置される仮想の人物、動物、車等の各種物体の三次元モデルである。図1に示すように、配信システムSは、配信装置1と、ユーザ端末2と、端末装置としてのディスプレイ装置3とを有する。配信装置1は、仮想オブジェクトに対応する仮想オブジェクト情報を配信するサーバである。配信装置1は、インターネット回線や携帯電話網等の通信ネットワークを介してユーザ端末2と通信可能に接続されており、ユーザ端末2に仮想オブジェクト情報を配信する。本実施形態では、仮想オブジェクト情報は、仮想オブジェクトを示す画像データであるものとする。以下の説明において、画像データが示す画像を仮想オブジェクト画像という。
[Overview of distribution device S]
FIG. 1 is a diagram showing an outline of a distribution system S according to the present embodiment. The distribution system S is a system for displaying a virtual object on a display. A virtual object is a three-dimensional model of various objects such as virtual people, animals, and cars arranged in a virtual space. As shown in FIG. 1, the distribution system S includes a distribution device 1, a user terminal 2, and a display device 3 as a terminal device. The distribution device 1 is a server that distributes virtual object information corresponding to a virtual object. The distribution device 1 is communicably connected to the user terminal 2 via a communication network such as an internet line or a mobile phone network, and distributes virtual object information to the user terminal 2. In the present embodiment, the virtual object information is image data indicating a virtual object. In the following description, the image indicated by the image data is referred to as a virtual object image.

ユーザ端末2は、例えばユーザが所持するスマートフォン、タブレット、パーソナルコンピュータ等の端末である。ユーザ端末2は、Bluetooth(登録商標)等の近距離無線通信や、無線LAN等の無線通信、または、USB(登録商標)、HDMI(登録商標)/MHL(登録商標)、Ethernet(登録商標)等の有線通信を介して、ディスプレイ装置3と通信可能に接続されている。ユーザ端末2は、配信装置1から受信した画像データが示す仮想オブジェクト画像をディスプレイ装置3に表示させる。ディスプレイ装置3は、例えばユーザの頭部に装着されるスマートグラス等の端末である。ディスプレイ装置3は、ユーザ端末2に制御により仮想オブジェクト画像を表示する。ディスプレイ装置3は、例えばユーザが所持するスマートフォン等の端末であり、ユーザ端末2と同一の端末であってもよい。 The user terminal 2 is, for example, a terminal such as a smartphone, a tablet, or a personal computer owned by the user. The user terminal 2 is a short-range wireless communication such as Bluetooth (registered trademark), a wireless communication such as a wireless LAN, or USB (registered trademark), HDMI (registered trademark) / MHL (registered trademark), Ethernet (registered trademark). It is communicably connected to the display device 3 via a wired communication such as. The user terminal 2 causes the display device 3 to display a virtual object image indicated by the image data received from the distribution device 1. The display device 3 is a terminal such as a smart glass worn on the user's head, for example. The display device 3 displays a virtual object image on the user terminal 2 under control. The display device 3 is, for example, a terminal such as a smartphone owned by the user, and may be the same terminal as the user terminal 2.

本実施形態において、ディスプレイ装置3は、自身の位置と自身が向いている方向とを示す状態情報を、ユーザ端末2を介して配信装置1に送信する(図1の(1))。 In the present embodiment, the display device 3 transmits state information indicating its position and the direction in which it faces to the distribution device 1 via the user terminal 2 ((1) in FIG. 1).

配信装置1は、ユーザがディスプレイ装置3を介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶している。配信装置1は、ディスプレイ装置3から取得した状態情報に基づいて、ディスプレイ装置3の位置及びディスプレイ装置3が向いている方向を特定する(図1の(2))。 The distribution device 1 stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space that the user visually recognizes through the display device 3. The distribution device 1 specifies the position of the display device 3 and the direction in which the display device 3 is facing based on the state information acquired from the display device 3 ((2) in FIG. 1).

配信装置1は、特定した位置及び方向に対応するとともに、仮想オブジェクトの実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた画像データを生成する(図1の(3))。図1に示す例では、配信装置1は、仮想オブジェクトOA、OBのそれぞれに対応して、2つ仮想オブジェクト画像iOA、iOBに対応する画像データを生成する。 The distribution device 1 generates image data associated with the object position information corresponding to the specified position and direction and indicating the position corresponding to the real space coordinate system of the virtual object ((3) in FIG. 1). In the example shown in FIG. 1, the distribution device 1 generates image data corresponding to two virtual object images iOA and iOB corresponding to each of the virtual objects OA and OB.

配信装置1は、生成した画像データと、オブジェクト位置情報とを関連付けて、ユーザ端末2を介してディスプレイ装置3に配信する(図1の(4))。ディスプレイ装置3は、オブジェクト位置情報に基づいて画像データが示す仮想オブジェクト画像を表示する(図1の(5))。 The distribution device 1 associates the generated image data with the object position information and distributes the generated image data to the display device 3 via the user terminal 2 ((4) in FIG. 1). The display device 3 displays a virtual object image indicated by the image data based on the object position information ((5) in FIG. 1).

このようにすることで、配信システムSでは、仮想オブジェクトの実空間における位置を示すオブジェクト位置情報に基づいて仮想オブジェクトをディスプレイ装置3に表示させることができる。したがって、配信システムSは、仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表現することができる。 By doing so, in the distribution system S, the virtual object can be displayed on the display device 3 based on the object position information indicating the position of the virtual object in the real space. Therefore, the distribution system S can appropriately express the context of the virtual object and the real object existing in the real space.

[配信装置1の構成]
続いて、配信システムSの構成について説明する。まず、配信装置1の構成を説明する。図2は、本実施形態に係る配信装置1の構成を示す図である。図2に示すように、配信装置1は、通信部11と、記憶部12と、制御部13とを備える。
[Configuration of distribution device 1]
Subsequently, the configuration of the distribution system S will be described. First, the configuration of the distribution device 1 will be described. FIG. 2 is a diagram showing a configuration of a distribution device 1 according to the present embodiment. As shown in FIG. 2, the distribution device 1 includes a communication unit 11, a storage unit 12, and a control unit 13.

通信部11は、インターネット回線や携帯電話網等の通信ネットワークに接続するためのインターフェースである。
記憶部12は、ROM(Read Only Memory)及びRAM(Random Access Memory)等を含む記憶媒体である。記憶部12は、制御部13が実行するプログラムを記憶している。例えば、記憶部12は、制御部13を、特定部131、オブジェクト情報生成部としての画像生成部132及び配信部133として機能させるプログラムを記憶している。
The communication unit 11 is an interface for connecting to a communication network such as an Internet line or a mobile phone network.
The storage unit 12 is a storage medium including a ROM (Read Only Memory), a RAM (Random Access Memory), and the like. The storage unit 12 stores a program executed by the control unit 13. For example, the storage unit 12 stores a program that causes the control unit 13 to function as a specific unit 131, an image generation unit 132 as an object information generation unit, and a distribution unit 133.

また、記憶部12は、ユーザがディスプレイ装置3を介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する。仮想空間は、実空間上の所定エリアに対応しており、仮想空間上の複数の位置それぞれは、実空間上の所定エリアに含まれる複数の位置それぞれと関連付けられている。記憶部12には、実空間上の所定エリアに含まれる複数の位置それぞれに対応する仮想空間上の位置を特定するための位置関係情報が記憶されている。また、仮想空間情報が示す仮想空間には、複数の仮想オブジェクトの三次元モデルが配置されている。複数の仮想オブジェクトの仮想空間における位置は、制御部13の制御により、時間の経過に応じて更新されるものとする。 Further, the storage unit 12 stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space visually recognized by the user via the display device 3. The virtual space corresponds to a predetermined area in the real space, and each of the plurality of positions in the virtual space is associated with each of the plurality of positions included in the predetermined area in the real space. The storage unit 12 stores positional relationship information for specifying a position in a virtual space corresponding to each of a plurality of positions included in a predetermined area in the real space. Further, in the virtual space indicated by the virtual space information, three-dimensional models of a plurality of virtual objects are arranged. The positions of the plurality of virtual objects in the virtual space are updated according to the passage of time under the control of the control unit 13.

制御部13は、例えばCPU(Central Processing Unit)である。制御部13は、記憶部12に記憶されたプログラムを実行することにより、特定部131、画像生成部132及び配信部133として機能する。制御部13の各部の動作の詳細については後述する。 The control unit 13 is, for example, a CPU (Central Processing Unit). The control unit 13 functions as a specific unit 131, an image generation unit 132, and a distribution unit 133 by executing a program stored in the storage unit 12. The details of the operation of each part of the control unit 13 will be described later.

[ユーザ端末2の機能構成]
続いて、ユーザ端末2の構成を説明する。図3は、本実施形態に係るユーザ端末2の構成を示す図である。図3に示すように、ユーザ端末2は、操作部21と、表示部22と、通信部23と、記憶部24と、制御部25とを備える。
[Functional configuration of user terminal 2]
Subsequently, the configuration of the user terminal 2 will be described. FIG. 3 is a diagram showing a configuration of a user terminal 2 according to the present embodiment. As shown in FIG. 3, the user terminal 2 includes an operation unit 21, a display unit 22, a communication unit 23, a storage unit 24, and a control unit 25.

操作部21は、ユーザの操作を受け付ける操作デバイスであり、例えば表示部22の表面に設けられたタッチパネルである。
表示部22は、各種の情報を表示するディスプレイである。
The operation unit 21 is an operation device that accepts user operations, and is, for example, a touch panel provided on the surface of the display unit 22.
The display unit 22 is a display that displays various types of information.

通信部23は、例えば携帯電話網の基地局との間でデータを送受信するための無線通信インターフェースである。通信部23は、携帯電話網の基地局を介して、配信装置1と無線通信を行う。また、通信部23は、ディスプレイ装置3との間でデータを送受信するための無線通信インターフェースである。通信部23は、ディスプレイ装置3と無線通信を行う。 The communication unit 23 is, for example, a wireless communication interface for transmitting / receiving data to / from a base station of a mobile phone network. The communication unit 23 wirelessly communicates with the distribution device 1 via the base station of the mobile phone network. Further, the communication unit 23 is a wireless communication interface for transmitting / receiving data to / from the display device 3. The communication unit 23 wirelessly communicates with the display device 3.

記憶部24は、ROM及びRAM等を含む記憶媒体である。記憶部24は、制御部25が実行するプログラムを記憶している。記憶部24は、ディスプレイ装置3に仮想オブジェクト画像を表示させるために、制御部25を、状態情報取得部251、画像取得部252、表示制御部253として機能させる表示制御プログラムを記憶する。 The storage unit 24 is a storage medium including a ROM, RAM, and the like. The storage unit 24 stores a program executed by the control unit 25. The storage unit 24 stores a display control program that causes the control unit 25 to function as a state information acquisition unit 251, an image acquisition unit 252, and a display control unit 253 in order to display a virtual object image on the display device 3.

制御部25は、例えばCPUであり、記憶部24に記憶された表示制御プログラムを実行することにより、状態情報取得部251、画像取得部252、及び表示制御部253として機能する。 The control unit 25 is, for example, a CPU, and functions as a state information acquisition unit 251, an image acquisition unit 252, and a display control unit 253 by executing a display control program stored in the storage unit 24.

状態情報取得部251は、ディスプレイ装置3から、ディスプレイ装置3の状態及びディスプレイ装置3の周囲の状態を示す状態情報を受信することにより、状態情報を取得する。状態情報には、ディスプレイ装置3の位置を示す位置情報、ディスプレイ装置3が検出した加速度を示す加速度情報、ディスプレイ装置3の周囲の照度を示す照度情報、ディスプレイ装置3が撮像した画像が含まれる。 The state information acquisition unit 251 acquires the state information by receiving the state information indicating the state of the display device 3 and the surrounding state of the display device 3 from the display device 3. The state information includes position information indicating the position of the display device 3, acceleration information indicating the acceleration detected by the display device 3, illuminance information indicating the illuminance around the display device 3, and an image captured by the display device 3.

画像取得部252は、ディスプレイ装置3に表示させる仮想オブジェクト画像の画像データを配信装置1から取得する。画像取得部252は、仮想オブジェクトの画像データの取得要求である画像データ取得要求を所定時間おきに配信装置1に送信し、配信装置1から仮想オブジェクトの画像データと、当該仮想オブジェクトの実空間に対応する位置を示すオブジェクト位置情報とを受信する。ここで、画像データ取得要求には、状態情報取得部251が取得した状態情報が含まれているものとする。 The image acquisition unit 252 acquires image data of a virtual object image to be displayed on the display device 3 from the distribution device 1. The image acquisition unit 252 transmits an image data acquisition request, which is a request for acquiring image data of a virtual object, to the distribution device 1 at predetermined time intervals, and the distribution device 1 sends the image data of the virtual object and the real space of the virtual object to the real space of the virtual object. Receives object position information indicating the corresponding position. Here, it is assumed that the image data acquisition request includes the state information acquired by the state information acquisition unit 251.

表示制御部253は、画像取得部252が取得したオブジェクト位置情報に基づいて、画像データが示す仮想オブジェクト画像をディスプレイ装置3に表示させる。表示制御部253は、画像取得部252が取得したオブジェクト位置情報を、ディスプレイ装置3における座標系に対応する位置情報であるスクリーン位置情報に変換する座標変換処理を実行する。表示制御部253は、スクリーン位置情報と、画像データとをディスプレイ装置3に送信する。 The display control unit 253 causes the display device 3 to display the virtual object image indicated by the image data based on the object position information acquired by the image acquisition unit 252. The display control unit 253 executes a coordinate conversion process of converting the object position information acquired by the image acquisition unit 252 into screen position information which is the position information corresponding to the coordinate system in the display device 3. The display control unit 253 transmits the screen position information and the image data to the display device 3.

[ディスプレイ装置3の機能構成]
続いて、ディスプレイ装置3の構成を説明する。図4は、本実施形態に係るディスプレイ装置3の構成を示す図である。図4に示すように、ディスプレイ装置3は、通信部31と、撮像部32と、位置検出部33と、加速度センサ34と、照度センサ35と、測距センサ36と、表示部37と、記憶部38と、制御部39とを備える。
[Functional configuration of display device 3]
Subsequently, the configuration of the display device 3 will be described. FIG. 4 is a diagram showing the configuration of the display device 3 according to the present embodiment. As shown in FIG. 4, the display device 3 includes a communication unit 31, an image pickup unit 32, a position detection unit 33, an acceleration sensor 34, an illuminance sensor 35, a distance measurement sensor 36, a display unit 37, and storage. A unit 38 and a control unit 39 are provided.

通信部31は、ユーザ端末2との間でデータを送受信するための無線通信インターフェースである。通信部31は、制御部39の制御により、ユーザ端末2と無線通信を行う。
撮像部32は、ユーザがディスプレイ装置3を装着した場合におけるユーザの前方を撮像し、撮像画像を生成する。撮像部32は、生成した撮像画像を制御部39に出力する。
The communication unit 31 is a wireless communication interface for transmitting / receiving data to / from the user terminal 2. The communication unit 31 wirelessly communicates with the user terminal 2 under the control of the control unit 39.
The image pickup unit 32 takes an image of the front of the user when the user wears the display device 3, and generates an captured image. The image pickup unit 32 outputs the generated captured image to the control unit 39.

位置検出部33は、GPSや、カメラを用いたSLAM技術等を用いてディスプレイ装置3の位置を検出する。位置検出部33は、検出した位置を示す装置位置情報を制御部39に出力する。 The position detection unit 33 detects the position of the display device 3 by using GPS, SLAM technology using a camera, or the like. The position detection unit 33 outputs device position information indicating the detected position to the control unit 39.

加速度センサ34は、ディスプレイ装置3にかかる加速度を検出する。加速度センサ34は、三軸方向それぞれに対する加速度を検出する。加速度センサ34は、検出した加速度を示す加速度情報を制御部39に出力する。
照度センサ35は、ディスプレイ装置3の周囲の照度を検出する。照度センサ35は、検出した照度を示す照度情報を制御部39に出力する。
The acceleration sensor 34 detects the acceleration applied to the display device 3. The acceleration sensor 34 detects acceleration in each of the three axial directions. The acceleration sensor 34 outputs acceleration information indicating the detected acceleration to the control unit 39.
The illuminance sensor 35 detects the illuminance around the display device 3. The illuminance sensor 35 outputs illuminance information indicating the detected illuminance to the control unit 39.

測距センサ36は、ディスプレイ装置3から、ユーザがディスプレイ装置3を介して視認する実空間に存在する実際のオブジェクトまでの距離を測定することにより、ディスプレイ装置3から実際のオブジェクトまでの距離を示す深度情報を生成する。深度情報は、例えば画素値がディスプレイ装置3から実際のオブジェクトまでの距離を示す距離画像である。測距センサ36は、生成した深度情報を制御部39に出力する。 The distance measuring sensor 36 indicates the distance from the display device 3 to the actual object by measuring the distance from the display device 3 to the actual object existing in the real space that the user visually recognizes through the display device 3. Generate depth information. The depth information is, for example, a distance image in which the pixel value indicates the distance from the display device 3 to the actual object. The distance measuring sensor 36 outputs the generated depth information to the control unit 39.

表示部37は、導光板と、導光板に光を照射する照射部とを含んでいる。照射部は、制御部39の制御に応じて、仮想オブジェクトの画像データが示す画像に対応する色の光を導光板に照射することにより、導光板に仮想オブジェクト画像を結像させる。 The display unit 37 includes a light guide plate and an irradiation unit that irradiates the light guide plate with light. Under the control of the control unit 39, the irradiation unit irradiates the light guide plate with light of a color corresponding to the image indicated by the image data of the virtual object, thereby forming a virtual object image on the light guide plate.

記憶部38は、ROM及びRAM等を含む記憶媒体である。記憶部38は、制御部39が実行するプログラムを記憶している。記憶部38は、制御部39を、状態情報送信部391、画像取得部392、及び照射制御部393として機能させるプログラムを記憶する。 The storage unit 38 is a storage medium including a ROM, RAM, and the like. The storage unit 38 stores a program executed by the control unit 39. The storage unit 38 stores a program that causes the control unit 39 to function as a state information transmission unit 391, an image acquisition unit 392, and an irradiation control unit 393.

制御部39は、例えばCPUであり、記憶部38に記憶されたプログラムを実行することにより、状態情報送信部391、画像取得部392、及び照射制御部393として機能する。 The control unit 39 is, for example, a CPU, and functions as a state information transmission unit 391, an image acquisition unit 392, and an irradiation control unit 393 by executing a program stored in the storage unit 38.

状態情報送信部391は、撮像部32、位置検出部33、加速度センサ34、照度センサ35、測距センサ36から状態情報として、撮像画像、位置情報、加速度情報、照度情報、及び深度情報を取得する。状態情報送信部391は、取得した状態情報を通信部31を介してユーザ端末2に送信する。 The state information transmission unit 391 acquires an image, position information, acceleration information, illuminance information, and depth information as state information from the image pickup unit 32, the position detection unit 33, the acceleration sensor 34, the illuminance sensor 35, and the distance measurement sensor 36. do. The state information transmission unit 391 transmits the acquired state information to the user terminal 2 via the communication unit 31.

画像取得部392は、ユーザ端末2から、仮想オブジェクトの画像データと、スクリーン位置情報とを取得する。
照射制御部393は、画像取得部392が取得したスクリーン位置情報に基づいて画像データが示す仮想オブジェクト画像を表示部37に表示させる。
The image acquisition unit 392 acquires the image data of the virtual object and the screen position information from the user terminal 2.
The irradiation control unit 393 causes the display unit 37 to display the virtual object image indicated by the image data based on the screen position information acquired by the image acquisition unit 392.

[制御部13の各部の動作]
続いて、制御部13の各部の動作について説明する。
特定部131は、ディスプレイ装置3の位置及びディスプレイ装置3が向いている方向を特定する。具体的には、特定部131は、ユーザ端末2側において、画像データ取得要求に状態情報として含まれているディスプレイ装置3の位置情報に基づいて、ディスプレイ装置3の位置を特定する。また、特定部131は、画像データ取得要求に状態情報として含まれている加速度情報に基づいて、ディスプレイ装置3が向いている方向を特定する。
[Operation of each part of control unit 13]
Subsequently, the operation of each unit of the control unit 13 will be described.
The specifying unit 131 specifies the position of the display device 3 and the direction in which the display device 3 is facing. Specifically, the specifying unit 131 specifies the position of the display device 3 on the user terminal 2 side based on the position information of the display device 3 included as the state information in the image data acquisition request. Further, the specifying unit 131 specifies the direction in which the display device 3 is facing, based on the acceleration information included as the state information in the image data acquisition request.

なお、特定部131は、加速度情報に基づいてディスプレイ装置3が向いている方向を特定したがこれに限らず、ユーザ端末2において、ディスプレイ装置3が向いている方向を特定してもよい。この場合、ユーザ端末2の画像取得部252が、ディスプレイ装置3から受信した状態情報に含まれる加速度情報に基づいて、ディスプレイ装置3が向いている方向を特定する。画像取得部252は、ディスプレイ装置3の位置を示す装置位置情報と、ディスプレイ装置3が向いている方向を示す方向情報とを含む、画像データ取得要求を配信装置1に送信する。特定部131は、ユーザ端末2から受信した画像データ取得要求に含まれる装置位置情報と、方向情報とに基づいて、ディスプレイ装置3の位置及びディスプレイ装置3が向いている方向を特定する。 The specifying unit 131 specifies the direction in which the display device 3 is facing based on the acceleration information, but the present invention is not limited to this, and the user terminal 2 may specify the direction in which the display device 3 is facing. In this case, the image acquisition unit 252 of the user terminal 2 specifies the direction in which the display device 3 is facing based on the acceleration information included in the state information received from the display device 3. The image acquisition unit 252 transmits an image data acquisition request including device position information indicating the position of the display device 3 and direction information indicating the direction in which the display device 3 is facing to the distribution device 1. The specifying unit 131 specifies the position of the display device 3 and the direction in which the display device 3 is facing, based on the device position information included in the image data acquisition request received from the user terminal 2 and the direction information.

画像生成部132は、仮想空間情報を参照し、特定部131が特定したディスプレイ装置3の位置及びディスプレイ装置3が向いている方向に対応するとともに、仮想オブジェクトの実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた画像データを生成する。 The image generation unit 132 refers to the virtual space information, corresponds to the position of the display device 3 specified by the specific unit 131 and the direction in which the display device 3 is facing, and the position corresponding to the coordinate system of the virtual object in the real space. Generates image data associated with the object position information indicating.

具体的には、画像生成部132は、仮想空間情報が示す仮想空間において、特定部131が特定した位置に対応する仮想空間の位置、及び特定部131が特定した方向に対応する仮想空間における方向から、仮想空間内を視認したときに映る仮想オブジェクトを示す画像データを生成する。 Specifically, the image generation unit 132 is a position in the virtual space corresponding to the position specified by the specific unit 131 in the virtual space indicated by the virtual space information, and a direction in the virtual space corresponding to the direction specified by the specific unit 131. Generates image data indicating a virtual object that appears when the inside of the virtual space is visually recognized.

より具体的には、画像生成部132は、記憶部12に記憶されている位置関係情報を参照し、特定部131が特定した位置に関連付けられている仮想空間上の位置を特定するとともに、特定部131が特定した方向に対応する仮想空間上の方向を特定する。画像生成部132は、特定した仮想空間上の位置に仮想カメラを配置し、特定した仮想空間上の方向を撮像したときに映る一以上の仮想オブジェクトそれぞれの画像を示す画像データを一以上生成する。 More specifically, the image generation unit 132 refers to the positional relationship information stored in the storage unit 12, specifies the position on the virtual space associated with the position specified by the specific unit 131, and specifies the position. The direction on the virtual space corresponding to the direction specified by the unit 131 is specified. The image generation unit 132 arranges a virtual camera at a position on the specified virtual space, and generates one or more image data indicating each image of one or more virtual objects that are displayed when the direction on the specified virtual space is imaged. ..

また、画像生成部132は、仮想空間情報を参照して、当該一以上の仮想オブジェクトそれぞれの仮想空間上の位置を特定するとともに、位置関係情報を参照し、当該一以上の仮想オブジェクトそれぞれの仮想空間上の位置に対応する実空間上の位置を特定する。 Further, the image generation unit 132 refers to the virtual space information to specify the position on the virtual space of each of the one or more virtual objects, and also refers to the positional relationship information to virtualize each of the one or more virtual objects. Identify the position in real space that corresponds to the position in space.

また、画像生成部132は、配信装置1における画像データの生成負荷を抑制するために、仮想オブジェクト画像の画質を調整する。画像生成部132は、仮想オブジェクト画像の画質を調整するか否かを判定し、判定結果に基づいて仮想オブジェクト画像の画質を調整する。 Further, the image generation unit 132 adjusts the image quality of the virtual object image in order to suppress the image data generation load in the distribution device 1. The image generation unit 132 determines whether or not to adjust the image quality of the virtual object image, and adjusts the image quality of the virtual object image based on the determination result.

具体的には、画像生成部132は、オブジェクト位置情報が示す仮想オブジェクトの実空間における位置と、実空間における実際のオブジェクトの位置との関係に基づく、実際のオブジェクトによる仮想オブジェクトの少なくとも一部の遮蔽を検出すると、仮想オブジェクト画像の画質を低下させる。画像生成部132は、仮想オブジェクト画像全体の解像度及びビットレートの少なくともいずれか、又は仮想オブジェクトの三次元モデルのデータをレンダリングする際の解像度を低下させることにより、仮想オブジェクト画像の画質を低下させる。 Specifically, the image generation unit 132 is at least a part of the virtual object by the actual object based on the relationship between the position of the virtual object in the real space indicated by the object position information and the position of the actual object in the real space. When obstruction is detected, the image quality of the virtual object image is degraded. The image generation unit 132 lowers the image quality of the virtual object image by lowering at least one of the resolution and the bit rate of the entire virtual object image, or the resolution when rendering the data of the three-dimensional model of the virtual object.

例えば、記憶部12に、実際のオブジェクトの仮想空間における位置を示す位置情報を記憶しておき、画像生成部132は、仮想オブジェクトの位置と、実際のオブジェクトの仮想空間における位置とに基づいて、実際のオブジェクトによる仮想オブジェクトの少なくとも一部の遮蔽を検出する。このようにすることで、一部が遮蔽されることによりユーザに視認されにくい仮想オブジェクト画像の画質を落とすことにより、ユーザへの影響を少なくしつつ、配信装置1における処理負荷を軽減することができる。 For example, the storage unit 12 stores position information indicating the position of an actual object in the virtual space, and the image generation unit 132 stores the position of the virtual object and the position of the actual object in the virtual space. Detects the obstruction of at least part of a virtual object by a real object. By doing so, it is possible to reduce the processing load on the distribution device 1 while reducing the influence on the user by lowering the image quality of the virtual object image that is difficult for the user to see due to the partial shielding. can.

なお、画像生成部132は、仮想オブジェクト画像全体の解像度を低下させることにより、仮想オブジェクト画像の画質を低下させたが、これに限らない。画像生成部132は、仮想オブジェクト画像における遮蔽される領域の画質を低下させてもよい。また、仮想オブジェクト画像の画質の低下には、仮想オブジェクト画像における遮蔽される領域の画像を生成しないようにすることや、仮想オブジェクト画像における遮蔽される領域の画像のデータ値を固定値にすることも含まれる。 The image generation unit 132 reduces the image quality of the virtual object image by lowering the resolution of the entire virtual object image, but the image quality is not limited to this. The image generation unit 132 may reduce the image quality of the shielded area in the virtual object image. In addition, in order to deteriorate the image quality of the virtual object image, the image of the shielded area in the virtual object image should not be generated, or the data value of the image in the shielded area in the virtual object image should be fixed. Is also included.

また、画像生成部132は、ユーザ端末2から、深度情報を含む画像データ取得要求を受信してもよい。そして、画像生成部132は、ユーザ端末2から受信した取得要求に含まれる深度情報に基づいて、仮想オブジェクトそれぞれの実空間上の位置に実際のオブジェクトが存在するか否かを判定することにより、実際のオブジェクトによる仮想オブジェクトの少なくとも一部の遮蔽を検出してもよい。 Further, the image generation unit 132 may receive an image data acquisition request including depth information from the user terminal 2. Then, the image generation unit 132 determines whether or not an actual object exists at a position in the real space of each virtual object based on the depth information included in the acquisition request received from the user terminal 2. Obstruction of at least part of the virtual object by the actual object may be detected.

また、画像生成部132は、特定部131が特定した位置に対応する仮想空間における位置から仮想オブジェクトの位置までの距離に基づいて、画像データが示す仮想オブジェクト画像の画質を調整してもよい。例えば、画像生成部132は、特定部131が取得した位置に対応する仮想空間における位置から仮想オブジェクトの位置までの距離が長ければ長いほど、仮想オブジェクト画像の画質を低下させるようにしてもよい。このようにすることで、仮想オブジェクトまでの距離が長くユーザに視認されにくい仮想オブジェクトの画質を落とすことにより、ユーザが仮想オブジェクトを視認する際の影響を少なくしつつ、配信装置1における処理負荷を軽減することができる。 Further, the image generation unit 132 may adjust the image quality of the virtual object image indicated by the image data based on the distance from the position in the virtual space corresponding to the position specified by the specific unit 131 to the position of the virtual object. For example, the image generation unit 132 may reduce the image quality of the virtual object image as the distance from the position in the virtual space corresponding to the position acquired by the specific unit 131 to the position of the virtual object is longer. By doing so, the image quality of the virtual object, which has a long distance to the virtual object and is difficult for the user to see, is reduced, so that the processing load on the distribution device 1 is reduced while reducing the influence when the user sees the virtual object. Can be mitigated.

また、画像生成部132は、ユーザがディスプレイ装置3を介して視認する実空間の照度に基づいて、画像データが示す仮想オブジェクト画像の画質を調整してもよい。この場合、画像取得部252は、状態情報取得部251が取得した照度情報を含む画像データ取得要求を配信装置1に送信する。画像生成部132は、画像データ取得要求に含まれる照度情報が示す照度に基づいて、仮想オブジェクト画像の画質を調整する。 Further, the image generation unit 132 may adjust the image quality of the virtual object image indicated by the image data based on the illuminance in the real space that the user visually recognizes through the display device 3. In this case, the image acquisition unit 252 transmits an image data acquisition request including the illuminance information acquired by the state information acquisition unit 251 to the distribution device 1. The image generation unit 132 adjusts the image quality of the virtual object image based on the illuminance indicated by the illuminance information included in the image data acquisition request.

例えば、画像生成部132は、照度情報が示す照度が高ければ高いほど、仮想オブジェクト画像の画質を低下させるようにしてもよい。このようにすることで、実空間の照度が高いことにより、ユーザがディスプレイ装置3に表示される仮想オブジェクトを視認しにくい場合に仮想オブジェクトの画質を落とすことができる。これにより、配信装置1は、ユーザが仮想オブジェクトを視認する際の影響を少なくしつつ、配信装置1における処理負荷を軽減することができる。 For example, the image generation unit 132 may reduce the image quality of the virtual object image as the illuminance indicated by the illuminance information is higher. By doing so, it is possible to reduce the image quality of the virtual object when it is difficult for the user to visually recognize the virtual object displayed on the display device 3 due to the high illuminance in the real space. As a result, the distribution device 1 can reduce the processing load on the distribution device 1 while reducing the influence when the user visually recognizes the virtual object.

また、画像生成部132は、配信装置1とディスプレイ装置3との間の通信品質に基づいて、画像データが示す仮想オブジェクト画像の画質を調整してもよい。例えば、画像生成部132は、配信装置1とユーザ端末2との間の通信品質を測定することにより、配信装置1とディスプレイ装置3との間の通信品質を特定する。画像生成部132は、配信装置1とディスプレイ装置3との間の通信品質が所定の品質よりも低い場合、仮想オブジェクト画像の画質を低下させ、仮想オブジェクト画像のデータ量を少なくする。これにより、配信装置1は、通信品質が悪い状態において仮想オブジェクト画像のデータ量を少なくすることができるので、仮想オブジェクト画像の送信の遅延を抑制することができる。 Further, the image generation unit 132 may adjust the image quality of the virtual object image indicated by the image data based on the communication quality between the distribution device 1 and the display device 3. For example, the image generation unit 132 specifies the communication quality between the distribution device 1 and the display device 3 by measuring the communication quality between the distribution device 1 and the user terminal 2. When the communication quality between the distribution device 1 and the display device 3 is lower than the predetermined quality, the image generation unit 132 lowers the image quality of the virtual object image and reduces the amount of data of the virtual object image. As a result, the distribution device 1 can reduce the amount of data of the virtual object image in a state where the communication quality is poor, so that it is possible to suppress the delay in the transmission of the virtual object image.

なお、画像生成部132が、仮想オブジェクト画像の画質を調整するか否かを判定し、判定結果に基づいて仮想オブジェクト画像の画質を調整することとしたが、これに限らない。例えば、ユーザ端末2が、仮想オブジェクト画像の画質を調整するか否かを判定し、判定結果に基づく画質の調整要求を配信装置1に送信してもよい。 The image generation unit 132 determines whether or not to adjust the image quality of the virtual object image, and adjusts the image quality of the virtual object image based on the determination result, but the present invention is not limited to this. For example, the user terminal 2 may determine whether or not to adjust the image quality of the virtual object image, and may send an image quality adjustment request based on the determination result to the distribution device 1.

例えば、ユーザ端末2の画像取得部252は、状態情報取得部251が取得した深度情報に基づいて、配信装置1から取得した仮想オブジェクト画像の実空間上の位置に実際のオブジェクトが存在するかを判定することにより、実際のオブジェクトによる仮想オブジェクトの少なくとも一部の遮蔽を検出してもよい。そして、画像取得部252は、実際のオブジェクトによる仮想オブジェクトの少なくとも一部の遮蔽を検出すると、仮想オブジェクト画像の画質を低下させる画質低下要求を配信装置1に送信してもよい。 For example, the image acquisition unit 252 of the user terminal 2 determines whether an actual object exists at a position in the real space of the virtual object image acquired from the distribution device 1 based on the depth information acquired by the state information acquisition unit 251. By determining, the obstruction of at least a part of the virtual object by the actual object may be detected. Then, when the image acquisition unit 252 detects at least a part of the occlusion of the virtual object by the actual object, the image acquisition unit 252 may send an image quality deterioration request for degrading the image quality of the virtual object image to the distribution device 1.

また、画像取得部252は、ディスプレイ装置3から仮想オブジェクトの位置までの距離を特定し、当該距離が所定距離以上の場合に、仮想オブジェクト画像の画質を低下させる画質低下要求を配信装置1に送信してもよい。また、画像取得部252は、状態情報取得部251が取得した照度情報が示す照度が所定の閾値を超える場合に、仮想オブジェクト画像の画質を低下させる画質低下要求を配信装置1に送信してもよい。また、画像取得部252は、ユーザ端末2と配信装置1との間の通信品質及びユーザ端末2とディスプレイ装置3との間の通信品質を測定し、これらの通信品質の少なくともいずれかが所定の品質よりも低い場合に仮想オブジェクト画像の画質を低下させる画質低下要求を配信装置1に送信してもよい。 Further, the image acquisition unit 252 specifies the distance from the display device 3 to the position of the virtual object, and when the distance is equal to or greater than a predetermined distance, the image acquisition unit 252 transmits an image quality deterioration request for degrading the image quality of the virtual object image to the distribution device 1. You may. Further, even if the image acquisition unit 252 transmits an image quality deterioration request for reducing the image quality of the virtual object image to the distribution device 1 when the illuminance indicated by the illuminance information acquired by the state information acquisition unit 251 exceeds a predetermined threshold value. good. Further, the image acquisition unit 252 measures the communication quality between the user terminal 2 and the distribution device 1 and the communication quality between the user terminal 2 and the display device 3, and at least one of these communication qualities is predetermined. An image quality deterioration request that deteriorates the image quality of the virtual object image when the quality is lower than the quality may be transmitted to the distribution device 1.

配信部133は、画像生成部132が生成した画像データを、オブジェクト位置情報に関連付けて、ディスプレイ装置3に配信する。配信部133は、仮想オブジェクトの取得要求を送信したユーザ端末2を介して、画像データ及びオブジェクト位置情報をディスプレイ装置3に配信する。ユーザ端末2の画像取得部252が、画像データ及びオブジェクト位置情報を配信装置1から受信すると、表示制御部253は、受信したオブジェクト位置情報に基づいて、仮想オブジェクト画像をディスプレイ装置3に表示させる。 The distribution unit 133 distributes the image data generated by the image generation unit 132 to the display device 3 in association with the object position information. The distribution unit 133 distributes the image data and the object position information to the display device 3 via the user terminal 2 that has transmitted the virtual object acquisition request. When the image acquisition unit 252 of the user terminal 2 receives the image data and the object position information from the distribution device 1, the display control unit 253 causes the display device 3 to display the virtual object image based on the received object position information.

ここで、表示制御部253は、画像データに関連付けられているオブジェクト位置情報が示す位置と、ディスプレイから実空間における実際のオブジェクトまでの距離を示す深度情報が示す実オブジェクトの位置との関係に基づいて、実オブジェクトに少なくとも一部が遮蔽される仮想オブジェクト画像を特定する。 Here, the display control unit 253 is based on the relationship between the position indicated by the object position information associated with the image data and the position of the real object indicated by the depth information indicating the distance from the display to the actual object in the real space. To identify a virtual object image that is at least partially obscured by the real object.

例えば、表示制御部253は、画像データに関連付けられているオブジェクト位置情報が示す位置に基づいて、ディスプレイ装置3から仮想オブジェクトまでの距離を算出し、算出した距離に基づいて、深度情報に画像データが示す仮想オブジェクト画像を合成する。表示制御部253は、深度情報において、実際のオブジェクトに遮蔽されたなかった仮想オブジェクト画像の領域を、ディスプレイ装置3に表示させる仮想オブジェクト画像の領域と特定する。そして、表示制御部253は、遮蔽されることを特定した仮想オブジェクト画像の一部、すなわち、実際のオブジェクトに遮蔽されたなかった仮想オブジェクト画像の領域をディスプレイ装置3に表示させる。 For example, the display control unit 253 calculates the distance from the display device 3 to the virtual object based on the position indicated by the object position information associated with the image data, and based on the calculated distance, the image data is added to the depth information. Combines the virtual object image shown by. In the depth information, the display control unit 253 identifies the area of the virtual object image that is not shielded by the actual object as the area of the virtual object image to be displayed on the display device 3. Then, the display control unit 253 causes the display device 3 to display a part of the virtual object image specified to be shielded, that is, an area of the virtual object image that is not shielded by the actual object.

図5は、仮想オブジェクト画像がディスプレイ装置3に表示された例を示す図である。図5には、仮想オブジェクト画像として、図1に示す仮想オブジェクト画像iOA、iOBが表示されている。図5に示す例では、ディスプレイ装置3から仮想オブジェクト画像iOAまでの距離は、ディスプレイ装置3から実空間上に存在する実際のオブジェクトOWまでの距離よりも短く、ディスプレイ装置3から仮想オブジェクト画像iOBまでの距離は、ディスプレイ装置3から実空間上に存在する実際のオブジェクトOWまでの距離よりも長いものとする。このため、表示制御部253は、図5に示すように、仮想オブジェクト画像iOBの一部が実際のオブジェクトOWに遮蔽されるように、仮想オブジェクト画像iOBを表示させる。このようにすることで、ユーザ端末2は、仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表示させることができる。 FIG. 5 is a diagram showing an example in which a virtual object image is displayed on the display device 3. In FIG. 5, the virtual object images iOA and iOB shown in FIG. 1 are displayed as virtual object images. In the example shown in FIG. 5, the distance from the display device 3 to the virtual object image iOA is shorter than the distance from the display device 3 to the actual object OW existing in the real space, and from the display device 3 to the virtual object image iOB. Is longer than the distance from the display device 3 to the actual object OW existing in the real space. Therefore, as shown in FIG. 5, the display control unit 253 displays the virtual object image iOB so that a part of the virtual object image iOB is shielded by the actual object OW. By doing so, the user terminal 2 can appropriately display the context of the virtual object and the real object existing in the real space.

[配信システムSにおける処理の流れ]
続いて、配信システムSにおける処理の流れについて説明する。図6は、本実施形態に係る配信システムSにおける処理の流れを示すシーケンス図である。本シーケンス図に示される処理は、所定時間おきに行われるものとする。
[Process flow in distribution system S]
Subsequently, the flow of processing in the distribution system S will be described. FIG. 6 is a sequence diagram showing a processing flow in the distribution system S according to the present embodiment. The processing shown in this sequence diagram shall be performed at predetermined time intervals.

まず、ディスプレイ装置3の状態情報送信部391は、撮像部32、位置検出部33、加速度センサ34、照度センサ35、測距センサ36から状態情報として、撮像画像、位置情報、加速度情報、照度情報、及び深度情報を取得し(S1)、ユーザ端末2に送信する(S2)。 First, the state information transmission unit 391 of the display device 3 has captured images, position information, acceleration information, and illuminance information as state information from the image pickup unit 32, the position detection unit 33, the acceleration sensor 34, the illuminance sensor 35, and the distance measuring sensor 36. , And the depth information is acquired (S1) and transmitted to the user terminal 2 (S2).

ユーザ端末2の状態情報取得部251は、ディスプレイ装置3から状態情報を受信する。ユーザ端末2の画像取得部252は、状態情報を含む画像データ取得要求を配信装置1に送信する(S3)。 The state information acquisition unit 251 of the user terminal 2 receives the state information from the display device 3. The image acquisition unit 252 of the user terminal 2 transmits an image data acquisition request including state information to the distribution device 1 (S3).

続いて、特定部131は、画像データ取得要求を受信する。特定部131は、仮想オブジェクト画像の取得要求に含まれている状態情報に基づいて、ディスプレイ装置3の位置及びディスプレイ装置3が向いている方向を特定する(S4)。 Subsequently, the specific unit 131 receives the image data acquisition request. The specifying unit 131 specifies the position of the display device 3 and the direction in which the display device 3 is facing based on the state information included in the acquisition request of the virtual object image (S4).

続いて、画像生成部132は、画像データが示す仮想オブジェクト画像の画質を調整するか否かを判定する(S5)。画像生成部132は、仮想空間情報を参照し、特定したディスプレイ装置3の位置及びディスプレイ装置3が向いている方向に対応する仮想オブジェクトの画像データを生成する(S6)。画像生成部132は、仮想オブジェクト画像の画質を調整するか否かの判定結果に基づいて、画質を調整して画像データを生成する。 Subsequently, the image generation unit 132 determines whether or not to adjust the image quality of the virtual object image indicated by the image data (S5). The image generation unit 132 refers to the virtual space information and generates image data of a virtual object corresponding to the position of the specified display device 3 and the direction in which the display device 3 is facing (S6). The image generation unit 132 adjusts the image quality and generates image data based on the determination result of whether or not to adjust the image quality of the virtual object image.

続いて、画像生成部132は、仮想空間情報を参照して、仮想オブジェクトそれぞれの仮想空間上の位置を特定するとともに、位置関係情報を参照し、当該仮想オブジェクトそれぞれの仮想空間上の位置に対応する実空間上の位置を特定する(S7)。なお、本シーケンスでは、S6の処理の後にS7の処理を行うこととしたが、これに限らず、S6の処理の前にS7の処理を実行してもよい。 Subsequently, the image generation unit 132 refers to the virtual space information to specify the position of each virtual object in the virtual space, and also refers to the positional relationship information to correspond to the position of each virtual object in the virtual space. The position in the real space to be specified is specified (S7). In this sequence, the processing of S7 is performed after the processing of S6, but the present invention is not limited to this, and the processing of S7 may be executed before the processing of S6.

続いて、配信部133は、生成された画像データをオブジェクト位置情報に関連付けてユーザ端末2に配信する(S8)。
続いて、ユーザ端末2の画像取得部252は、配信装置1から画像データと、オブジェクト位置情報とを受信する。
Subsequently, the distribution unit 133 associates the generated image data with the object position information and distributes it to the user terminal 2 (S8).
Subsequently, the image acquisition unit 252 of the user terminal 2 receives the image data and the object position information from the distribution device 1.

続いて、ユーザ端末2の表示制御部253は、画像取得部252が取得したオブジェクト位置情報を、ディスプレイ装置3における座標系に対応する位置情報であるスクリーン位置情報に変換する座標変換処理を実行する(S9)。表示制御部253は、スクリーン位置情報と、画像データとをディスプレイ装置3に送信する(S10)。 Subsequently, the display control unit 253 of the user terminal 2 executes a coordinate conversion process of converting the object position information acquired by the image acquisition unit 252 into screen position information which is the position information corresponding to the coordinate system in the display device 3. (S9). The display control unit 253 transmits the screen position information and the image data to the display device 3 (S10).

続いて、画像取得部392は、ユーザ端末2から、画像データとスクリーン位置情報とを受信する。照射制御部393は、画像取得部392が取得したスクリーン位置情報に基づいて画像データが示す仮想オブジェクト画像を表示部37に表示させる(S11)。 Subsequently, the image acquisition unit 392 receives the image data and the screen position information from the user terminal 2. The irradiation control unit 393 causes the display unit 37 to display the virtual object image indicated by the image data based on the screen position information acquired by the image acquisition unit 392 (S11).

[本実施形態における効果]
以上説明したように、本実施形態に係る配信装置1は、ディスプレイ装置3の位置及びディスプレイ装置3が向いている方向を特定し、ユーザがディスプレイ装置3を介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を参照し、特定した位置及び方向に対応するとともに、仮想オブジェクトの実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成する。そして、配信装置1は、生成した仮想オブジェクト情報をオブジェクト位置情報に関連付けてディスプレイ装置3に配信する。このようにすることで、配信装置1は、仮想オブジェクトの実空間における位置を示すオブジェクト位置情報に基づいて仮想オブジェクトをディスプレイ装置3に表示させることができる。したがって、配信装置1は、仮想オブジェクトと、現実空間に存在する実オブジェクトとの前後関係を適切に表現することができる。
[Effects in this embodiment]
As described above, the distribution device 1 according to the present embodiment specifies the position of the display device 3 and the direction in which the display device 3 is facing, and the coordinates corresponding to the real space that the user visually recognizes through the display device 3. With reference to the virtual space information indicating the position of the virtual object in the virtual space having the system, the object position information indicating the position corresponding to the specified position and direction and the coordinate system of the virtual object in the real space is associated. Generate virtual object information. Then, the distribution device 1 associates the generated virtual object information with the object position information and distributes it to the display device 3. By doing so, the distribution device 1 can display the virtual object on the display device 3 based on the object position information indicating the position of the virtual object in the real space. Therefore, the distribution device 1 can appropriately express the context of the virtual object and the real object existing in the real space.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されず、その要旨の範囲内で種々の変形及び変更が可能である。例えば、上述の実施の形態では、配信装置1がユーザ端末2に仮想オブジェクトの画像データ及びオブジェクト位置情報を送信し、ユーザ端末2が仮想オブジェクト画像をディスプレイ装置3に表示させたがこれに限らない。例えば、ディスプレイ装置3が、上述の実施の形態で説明したユーザ端末2が有する機能を全て有していてもよく、配信装置1が、ユーザ端末2を介さずに、ディスプレイ装置3に画像データ及びオブジェクト位置情報を送信してもよい。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments, and various modifications and changes can be made within the scope of the gist. be. For example, in the above-described embodiment, the distribution device 1 transmits the image data of the virtual object and the object position information to the user terminal 2, and the user terminal 2 displays the virtual object image on the display device 3, but the present invention is not limited to this. .. For example, the display device 3 may have all the functions of the user terminal 2 described in the above-described embodiment, and the distribution device 1 may display image data and the image data on the display device 3 without going through the user terminal 2. Object position information may be sent.

また、ユーザ端末2が、上述の実施の形態で説明したディスプレイ装置3が有する機能を全て有していてもよい。そして、ユーザ端末2が、周囲の風景を撮像して表示部22に表示させている場合に、配信装置1から受信したオブジェクト位置情報に基づいて、画像データが示す仮想オブジェクト画像を表示部22に表示させるようにしてもよい。 Further, the user terminal 2 may have all the functions of the display device 3 described in the above-described embodiment. Then, when the user terminal 2 captures the surrounding landscape and displays it on the display unit 22, the virtual object image indicated by the image data is displayed on the display unit 22 based on the object position information received from the distribution device 1. It may be displayed.

また、上述の実施形態では、加速度センサ34が検出した加速度に基づいて、ディスプレイ装置3が向いている方向を特定したがこれに限らない。ディスプレイ装置3が角速度を検出するジャイロセンサを備えている場合、特定部131は、加速度センサが検出した加速度及びジャイロセンサが検出した角速度の少なくともいずれかに基づいてディスプレイ装置3が向いている方向を特定してもよい。また、ディスプレイ装置3が3軸の角度と加速度とを検出する慣性計測装置を備えている場合、特定部131は、慣性計測装置が検出した3軸の角度と加速度とに基づいてディスプレイ装置3が向いている方向を特定してもよい。 Further, in the above-described embodiment, the direction in which the display device 3 is facing is specified based on the acceleration detected by the acceleration sensor 34, but the present invention is not limited to this. When the display device 3 includes a gyro sensor that detects an angular velocity, the identification unit 131 indicates the direction in which the display device 3 is facing based on at least one of the acceleration detected by the acceleration sensor and the angular velocity detected by the gyro sensor. It may be specified. Further, when the display device 3 includes an inertial measurement unit that detects the angle and acceleration of the three axes, the specific unit 131 is such that the display device 3 is based on the angle and acceleration of the three axes detected by the inertial measurement unit. You may specify the direction you are facing.

また、例えば、装置の全部又は一部は、任意の単位で機能的又は物理的に分散・統合して構成することができる。また、複数の実施の形態の任意の組み合わせによって生じる新たな実施の形態も、本発明の実施の形態に含まれる。組み合わせによって生じる新たな実施の形態の効果は、もとの実施の形態の効果を併せ持つ。 Further, for example, all or a part of the device can be functionally or physically distributed / integrated in any unit. Also included in the embodiments of the present invention are new embodiments resulting from any combination of the plurality of embodiments. The effect of the new embodiment produced by the combination has the effect of the original embodiment together.

1・・・配信装置、11・・・通信部、12・・・記憶部、13・・・制御部、131・・・特定部、132・・・画像生成部、133・・・配信部、2・・・ユーザ端末、21・・・操作部、22・・・表示部、23・・・通信部、24・・・記憶部、25・・・制御部、251・・・状態情報取得部、252・・・画像取得部、253・・・表示制御部、3・・・ディスプレイ装置、31・・・通信部、32・・・撮像部、33・・・位置検出部、34・・・加速度センサ、35・・・照度センサ、36・・・測距センサ、37・・・表示部、38・・・記憶部、39・・・制御部、391・・・状態情報送信部、392・・・画像取得部、393・・・照射制御部 1 ... Distribution device, 11 ... Communication unit, 12 ... Storage unit, 13 ... Control unit, 131 ... Specific unit, 132 ... Image generation unit, 133 ... Distribution unit, 2 ... User terminal, 21 ... Operation unit, 22 ... Display unit, 23 ... Communication unit, 24 ... Storage unit, 25 ... Control unit, 251 ... Status information acquisition unit , 252 ... Image acquisition unit, 253 ... Display control unit, 3 ... Display device, 31 ... Communication unit, 32 ... Imaging unit, 33 ... Position detection unit, 34 ... Accelerometer, 35 ... Illumination sensor, 36 ... Distance measurement sensor, 37 ... Display unit, 38 ... Storage unit, 39 ... Control unit, 391 ... Status information transmission unit, 392.・ ・ Image acquisition unit, 393 ・ ・ ・ Irradiation control unit

Claims (11)

仮想オブジェクトをディスプレイに表示させる端末装置に3次元の仮想オブジェクトを示す画像データである仮想オブジェクト情報を配信する配信装置であって、
前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する記憶部と、
前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部と、
前記仮想空間情報が示す前記仮想空間において、前記特定部が特定した前記位置に対応する前記仮想空間の位置に仮想カメラを配置し、前記特定部が特定した前記方向に対応する前記仮想空間における方向を撮像したときの撮像画像に映り、当該撮像画像における映り方に対応する前記仮想オブジェクトの画像データを示し、当該仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部と、
生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部と、
を有し、
前記オブジェクト情報生成部は、前記オブジェクト位置情報が示す前記実空間における前記仮想オブジェクトの位置と、前記実空間における実際のオブジェクトの位置との関係に基づいて、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記仮想オブジェクトの画像データが示す画像に含まれる、前記実際のオブジェクトに遮蔽される領域を前記画像から除去することなく、当該画像に含まれる当該領域を示す部分画像の画質を低下させ、前記画像に含まれる当該部分画像とは異なる画像の画質を低下させないように制御する、
配信装置。
A distribution device that distributes virtual object information, which is image data indicating a three-dimensional virtual object, to a terminal device that displays a virtual object on a display.
A storage unit that stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display.
A specific part that specifies the position of the terminal device and the direction in which the terminal device is facing, and
In the virtual space indicated by the virtual space information, a virtual camera is arranged at a position of the virtual space corresponding to the position specified by the specific unit, and a direction in the virtual space corresponding to the direction specified by the specific unit. Is reflected in the captured image when the image is taken, the image data of the virtual object corresponding to the appearance in the captured image is shown, and the object position information indicating the position corresponding to the coordinate system in the real space of the virtual object is associated. An object information generator that generates virtual object information,
A distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device.
Have,
The object information generation unit is at least the virtual object by the actual object based on the relationship between the position of the virtual object in the real space indicated by the object position information and the position of the actual object in the real space. When a part of the obstruction is detected, a partial image showing the area included in the image without removing the area obscured by the actual object included in the image indicated by the image data of the virtual object from the image. reduce the image quality, that controls so as not to degrade the image quality of the image different from that of the partial image included in the image,
Delivery device.
前記オブジェクト情報生成部は、前記ディスプレイから、前記実空間における実際のオブジェクトまでの距離を示す深度情報に基づく、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記画像データが示す画像の画質を低下させる、
請求項1に記載の配信装置。
When the object information generation unit detects that at least a part of the virtual object is shielded by the actual object based on the depth information indicating the distance from the display to the actual object in the real space, the image data is displayed. Degrading the image quality of the indicated image,
The distribution device according to claim 1.
仮想オブジェクトをディスプレイに表示させる端末装置に3次元の仮想オブジェクトを示す画像データである仮想オブジェクト情報を配信する配信装置であって、
前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶するとともに、前記実空間における実際のオブジェクトの前記仮想空間における位置を示す位置情報を記憶する記憶部と、
前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部と、
前記仮想空間情報が示す前記仮想空間において、前記特定部が特定した前記位置に対応する前記仮想空間の位置に仮想カメラを配置し、前記特定部が特定した方向に対応する前記仮想空間における方向を撮像したときの撮像画像に映り、当該撮像画像における映り方に対応する前記仮想オブジェクトの画像データを示し、当該仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部と、
生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部と、
を有し、
前記オブジェクト情報生成部は、前記仮想オブジェクトの前記仮想空間における位置と、前記実際のオブジェクトの前記仮想空間における位置との関係に基づいて、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記仮想オブジェクトの画像データが示す画像に含まれる、前記実際のオブジェクトに遮蔽される領域を前記画像から除去することなく、当該画像に含まれる当該領域を示す部分画像の画質を低下させ、前記画像に含まれる当該部分画像とは異なる画像の画質を低下させないように制御する、
配信装置。
A distribution device that distributes virtual object information, which is image data indicating a three-dimensional virtual object, to a terminal device that displays a virtual object on a display.
While storing virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display, the virtual space of the actual object in the real space is stored. A storage unit that stores position information indicating the position in
A specific part that specifies the position of the terminal device and the direction in which the terminal device is facing, and
In the virtual space indicated by the virtual space information, a virtual camera is arranged at the position of the virtual space corresponding to the position specified by the specific unit, and the direction in the virtual space corresponding to the direction specified by the specific unit is set. The object position information that is reflected in the captured image at the time of imaging, shows the image data of the virtual object corresponding to the appearance in the captured image, and indicates the position corresponding to the coordinate system in the real space of the virtual object is associated. The object information generator that generates virtual object information and
A distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device.
Have,
The object information generation unit shields at least a part of the virtual object by the actual object based on the relationship between the position of the virtual object in the virtual space and the position of the actual object in the virtual space. When detected, the image quality of the partial image indicating the region included in the image is deteriorated without removing the region shielded by the actual object included in the image indicated by the image data of the virtual object from the image. , that controls so as not to degrade the image quality of the image different from that of the partial image included in the image,
Delivery device.
前記オブジェクト情報生成部は、前記特定部が特定した前記位置に対応する前記仮想空間における位置から前記仮想オブジェクトの位置までの距離に基づいて、前記画像データが示す画像の画質を調整する、
請求項1から3のいずれか1項に記載の配信装置。
The object information generation unit adjusts the image quality of the image indicated by the image data based on the distance from the position in the virtual space corresponding to the position specified by the specific unit to the position of the virtual object.
The distribution device according to any one of claims 1 to 3.
前記オブジェクト情報生成部は、前記実空間の照度に基づいて、前記画像データが示す画像の画質を調整する、
請求項1から4のいずれか1項に記載の配信装置。
The object information generation unit adjusts the image quality of the image indicated by the image data based on the illuminance in the real space.
The distribution device according to any one of claims 1 to 4.
前記オブジェクト情報生成部は、前記配信装置とディスプレイ装置との間の通信品質に基づいて、前記画像データが示す画像の画質を調整する、
請求項1から5のいずれか1項に記載の配信装置。
The object information generation unit adjusts the image quality of the image indicated by the image data based on the communication quality between the distribution device and the display device.
The distribution device according to any one of claims 1 to 5.
3次元の仮想オブジェクトを示す画像データをディスプレイに表示させる端末装置と、前記端末装置に3次元の仮想オブジェクトを示す画像データである仮想オブジェクト情報を配信する配信装置とを有する配信システムであって、
前記配信装置は、
前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を記憶する記憶部と、
前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部と、
前記仮想空間情報が示す前記仮想空間において、前記特定部が特定した前記位置に対応する前記仮想空間の位置に仮想カメラを配置し、前記特定部が特定した前記方向に対応する前記仮想空間における方向を撮像したときの撮像画像に映り、当該撮像画像における映り方に対応する前記仮想オブジェクトの画像データを示し、当該仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部と、
生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部と、
を有し、
前記オブジェクト情報生成部は、前記オブジェクト位置情報が示す前記実空間における前記仮想オブジェクトの位置と、前記実空間における実際のオブジェクトの位置との関係に基づいて、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記仮想オブジェクトの画像データが示す画像に含まれる、前記実際のオブジェクトに遮蔽される領域を前記画像から除去することなく、当該画像に含まれる当該領域を示す部分画像の画質を低下させ、前記画像に含まれる当該部分画像とは異なる画像の画質を低下させないように制御し
前記端末装置は、
前記配信装置から配信された前記仮想オブジェクト情報を受信する受信部と、
前記受信部が受信した前記仮想オブジェクト情報と、前記オブジェクト位置情報とに基づいて前記仮想オブジェクトを示す画像を前記ディスプレイに表示させる表示制御部と、
を有する、
配信システム。
A distribution system having a terminal device for displaying image data indicating a three-dimensional virtual object on a display and a distribution device for distributing virtual object information which is image data indicating a three-dimensional virtual object to the terminal device.
The distribution device is
A storage unit that stores virtual space information indicating the position of a virtual object in a virtual space having a coordinate system corresponding to the real space that the user of the terminal device visually recognizes through the display.
A specific part that specifies the position of the terminal device and the direction in which the terminal device is facing, and
In the virtual space indicated by the virtual space information, a virtual camera is arranged at a position of the virtual space corresponding to the position specified by the specific unit, and a direction in the virtual space corresponding to the direction specified by the specific unit. Is reflected in the captured image when the image is taken, the image data of the virtual object corresponding to the appearance in the captured image is shown, and the object position information indicating the position corresponding to the coordinate system of the real space of the virtual object is associated. An object information generator that generates virtual object information,
A distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device.
Have,
The object information generation unit is at least the virtual object by the actual object based on the relationship between the position of the virtual object in the real space indicated by the object position information and the position of the actual object in the real space. When a part of the obstruction is detected, a partial image showing the area included in the image without removing the area obscured by the actual object included in the image indicated by the image data of the virtual object from the image. It is controlled so as not to deteriorate the image quality of the image and the image quality of the image different from the partial image included in the image .
The terminal device is
A receiving unit that receives the virtual object information distributed from the distribution device, and
A display control unit that displays an image showing the virtual object on the display based on the virtual object information received by the receiving unit and the object position information.
Have,
Delivery system.
前記表示制御部は、前記ディスプレイから前記実空間における実際のオブジェクトまでの距離を示す深度情報を取得し、前記画像データに関連付けられている前記オブジェクト位置情報が示す位置と、前記深度情報が示す前記実際のオブジェクトの位置との関係に基づいて、前記実際のオブジェクトに少なくとも一部が遮蔽される前記仮想オブジェクトを特定し、前記遮蔽される前記仮想オブジェクトに対応する前記画像データが示す画像の一部を前記ディスプレイに表示させる、
請求項7に記載の配信システム。
The display control unit acquires depth information indicating the distance from the display to the actual object in the real space, and the position indicated by the object position information associated with the image data and the depth information indicated by the depth information. A part of the image shown by the image data corresponding to the virtual object that identifies the virtual object that is at least partially obscured by the actual object based on the relationship with the position of the actual object. Is displayed on the display.
The delivery system according to claim 7.
仮想オブジェクトをディスプレイに表示させる端末装置に3次元の仮想オブジェクトを示す画像データである仮想オブジェクト情報を配信するコンピュータが実行する、
前記端末装置の位置及び前記端末装置が向いている方向を特定するステップと、
前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を参照し、前記仮想空間情報が示す前記仮想空間において、特定された前記位置に対応する前記仮想空間の位置に仮想カメラを配置し、特定された前記方向に対応する前記仮想空間における方向を撮像したときの撮像画像に映り、当該撮像画像における映り方に対応する前記仮想オブジェクトの画像データを示し、当該仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するステップと、
生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信するステップと、
を有し、
前記生成するステップにおいて、前記コンピュータは、前記オブジェクト位置情報が示す前記実空間における前記仮想オブジェクトの位置と、前記実空間における実際のオブジェクトの位置との関係に基づいて、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記仮想オブジェクトの画像データが示す画像に含まれる、前記実際のオブジェクトに遮蔽される領域を前記画像から除去することなく、当該画像に含まれる当該領域を示す部分画像の画質を低下させ、前記画像に含まれる当該部分画像とは異なる画像の画質を低下させないように制御する、
配信方法。
Displaying a virtual object on a display A computer that distributes virtual object information, which is image data showing a three-dimensional virtual object, to a terminal device executes.
A step of specifying the position of the terminal device and the direction in which the terminal device is facing, and
The user of the terminal device refers to the virtual space information indicating the position of the virtual object in the virtual space having the coordinate system corresponding to the real space visually recognized through the display, and is specified in the virtual space indicated by the virtual space information. A virtual camera is placed at the position of the virtual space corresponding to the designated position, and the image is reflected in the captured image when the direction in the virtual space corresponding to the specified direction is captured, and the image is reflected in the captured image. A step of generating virtual object information associated with object position information indicating the image data of the virtual object and indicating the position of the virtual object corresponding to the coordinate system in the real space.
A step of associating the generated virtual object information with the object position information and distributing it to the terminal device,
Have,
In the step of generating, the computer uses the virtual object by the actual object based on the relationship between the position of the virtual object in the real space indicated by the object position information and the position of the actual object in the real space. When at least a part of the obstruction of the object is detected , the area included in the image included in the image data of the virtual object is included in the image without removing the area obscured by the actual object from the image. reduce the quality of the partial image shown, that controls so as not to degrade the image quality of the image different from that of the partial image included in the image,
Delivery method.
前記仮想オブジェクト情報を生成するステップにおいて、前記コンピュータは、前記ディスプレイから、前記実空間における実際のオブジェクトまでの距離を示す深度情報に基づく、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記画像データが示す画像の画質を低下させる、
請求項9に記載の配信方法。
In the step of generating the virtual object information, the computer shields at least a part of the virtual object by the real object based on depth information indicating the distance from the display to the real object in the real space. When detected, the image quality of the image indicated by the image data is deteriorated.
The delivery method according to claim 9.
仮想オブジェクトをディスプレイに表示させる端末装置に3次元の仮想オブジェクトを示す画像データである仮想オブジェクト情報を配信するコンピュータを、
前記端末装置の位置及び前記端末装置が向いている方向を特定する特定部、
前記端末装置のユーザが前記ディスプレイを介して視認する実空間と対応する座標系を有する仮想空間における仮想オブジェクトの位置を示す仮想空間情報を参照し、前記仮想空間情報が示す前記仮想空間において、前記特定部が特定した前記位置に対応する前記仮想空間の位置に仮想カメラを配置し、前記特定部が特定した前記方向に対応する前記仮想空間における方向を撮像したときの撮像画像に映り、当該撮像画像における映り方に対応する前記仮想オブジェクトの画像データを示し、当該仮想オブジェクトの前記実空間の座標系に対応する位置を示すオブジェクト位置情報が関連付けられた仮想オブジェクト情報を生成するオブジェクト情報生成部、及び、
生成された前記仮想オブジェクト情報を前記オブジェクト位置情報に関連付けて前記端末装置に配信する配信部、
として機能させ、
前記オブジェクト情報生成部は、前記オブジェクト位置情報が示す前記実空間における前記仮想オブジェクトの位置と、前記実空間における実際のオブジェクトの位置との関係に基づいて、前記実際のオブジェクトによる前記仮想オブジェクトの少なくとも一部の遮蔽を検出すると、前記仮想オブジェクトの画像データが示す画像に含まれる、前記実際のオブジェクトに遮蔽される領域を前記画像から除去することなく、当該画像に含まれる当該領域を示す部分画像の画質を低下させ、前記画像に含まれる当該部分画像とは異なる画像の画質を低下させないように制御する、
配信プログラム。
A computer that distributes virtual object information, which is image data showing a three-dimensional virtual object, to a terminal device that displays a virtual object on a display.
A specific unit that specifies the position of the terminal device and the direction in which the terminal device is facing,
In the virtual space indicated by the virtual space information, the user of the terminal device refers to the virtual space information indicating the position of the virtual object in the virtual space having the coordinate system corresponding to the real space visually recognized through the display. The virtual camera is placed at the position of the virtual space corresponding to the position specified by the specific part, and the image is reflected in the captured image when the direction in the virtual space corresponding to the direction specified by the specific part is imaged. An object information generation unit that indicates the image data of the virtual object corresponding to the appearance in the image and generates virtual object information associated with the object position information indicating the position of the virtual object corresponding to the coordinate system in the real space. as well as,
A distribution unit that associates the generated virtual object information with the object position information and distributes it to the terminal device.
To function as
The object information generation unit is at least the virtual object by the actual object based on the relationship between the position of the virtual object in the real space indicated by the object position information and the position of the actual object in the real space. When a part of the obstruction is detected, a partial image showing the area included in the image without removing the area obscured by the actual object included in the image indicated by the image data of the virtual object from the image. reduce the image quality, that controls so as not to degrade the image quality of the image different from that of the partial image included in the image,
Delivery program.
JP2020160119A 2020-09-24 2020-09-24 Distribution device, distribution system, distribution method and distribution program Active JP6976395B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020160119A JP6976395B1 (en) 2020-09-24 2020-09-24 Distribution device, distribution system, distribution method and distribution program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020160119A JP6976395B1 (en) 2020-09-24 2020-09-24 Distribution device, distribution system, distribution method and distribution program

Publications (2)

Publication Number Publication Date
JP6976395B1 true JP6976395B1 (en) 2021-12-08
JP2022053334A JP2022053334A (en) 2022-04-05

Family

ID=78815454

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020160119A Active JP6976395B1 (en) 2020-09-24 2020-09-24 Distribution device, distribution system, distribution method and distribution program

Country Status (1)

Country Link
JP (1) JP6976395B1 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102596341B1 (en) * 2020-09-25 2023-11-01 애플 인크. Methods for manipulating objects in the environment
WO2022221851A1 (en) 2021-04-13 2022-10-20 Apple Inc. Methods for providing an immersive experience in an environment
US12112011B2 (en) 2022-09-16 2024-10-08 Apple Inc. System and method of application-based three-dimensional refinement in multi-user communication sessions
US12099653B2 (en) 2022-09-22 2024-09-24 Apple Inc. User interface response based on gaze-holding event assessment
US12108012B2 (en) 2023-02-27 2024-10-01 Apple Inc. System and method of managing spatial states and display modes in multi-user communication sessions
US12118200B1 (en) 2023-06-02 2024-10-15 Apple Inc. Fuzzy hit testing
US12113948B1 (en) 2023-06-04 2024-10-08 Apple Inc. Systems and methods of managing spatial groups in multi-user communication sessions

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286851A (en) * 2006-04-14 2007-11-01 Canon Inc Image processing system, image processor, imaging device, and control method thereof
JP2011242816A (en) * 2008-09-09 2011-12-01 Tonchidot Corp System capable of adding virtual information to visual field information and displaying it
JP2012174116A (en) * 2011-02-23 2012-09-10 Ntt Docomo Inc Object display device, object display method and object display program
WO2019031005A1 (en) * 2017-08-08 2019-02-14 ソニー株式会社 Information processing device, information processing method, and program
WO2020071144A1 (en) * 2018-10-04 2020-04-09 ソニー株式会社 Information processing device, information processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286851A (en) * 2006-04-14 2007-11-01 Canon Inc Image processing system, image processor, imaging device, and control method thereof
JP2011242816A (en) * 2008-09-09 2011-12-01 Tonchidot Corp System capable of adding virtual information to visual field information and displaying it
JP2012174116A (en) * 2011-02-23 2012-09-10 Ntt Docomo Inc Object display device, object display method and object display program
WO2019031005A1 (en) * 2017-08-08 2019-02-14 ソニー株式会社 Information processing device, information processing method, and program
WO2020071144A1 (en) * 2018-10-04 2020-04-09 ソニー株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP2022053334A (en) 2022-04-05

Similar Documents

Publication Publication Date Title
JP6976395B1 (en) Distribution device, distribution system, distribution method and distribution program
US10293252B2 (en) Image processing device, system and method based on position detection
US9541997B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
US9495068B2 (en) Three-dimensional user interface apparatus and three-dimensional operation method
JP4553362B2 (en) System, image processing apparatus, and information processing method
JP5843340B2 (en) 3D environment sharing system and 3D environment sharing method
KR20160065036A (en) Distance adaptive holographic displaying method and device based on eyeball tracking
US11590415B2 (en) Head mounted display and method
CN116485929A (en) Augmented reality system and method of operating an augmented reality system
US20210368152A1 (en) Information processing apparatus, information processing method, and program
US11244145B2 (en) Information processing apparatus, information processing method, and recording medium
EP3683656A1 (en) Virtual reality (vr) interface generation method and apparatus
US10986401B2 (en) Image processing apparatus, image processing system, and image processing method
EP3402410B1 (en) Detection system
JP2008217119A (en) System, image processor and image processing method
US10642349B2 (en) Information processing apparatus
WO2017191703A1 (en) Image processing device
US20230260076A1 (en) System, information processing apparatus, and method
US11310472B2 (en) Information processing device and image generation method for projecting a subject image onto a virtual screen
US20240220176A1 (en) Terminal apparatus
US20240221549A1 (en) Terminal apparatus
US20240119674A1 (en) Terminal apparatus
US20240121359A1 (en) Terminal apparatus
JP6892960B1 (en) Control devices, information processing systems, control methods and programs
JP2022055698A (en) Control device, display control method, and display control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200924

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200924

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210113

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20210120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210325

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210525

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210823

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210823

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210902

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210907

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211109

R150 Certificate of patent or registration of utility model

Ref document number: 6976395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150