JP2013175929A - Information output device and information output method - Google Patents
Information output device and information output method Download PDFInfo
- Publication number
- JP2013175929A JP2013175929A JP2012039149A JP2012039149A JP2013175929A JP 2013175929 A JP2013175929 A JP 2013175929A JP 2012039149 A JP2012039149 A JP 2012039149A JP 2012039149 A JP2012039149 A JP 2012039149A JP 2013175929 A JP2013175929 A JP 2013175929A
- Authority
- JP
- Japan
- Prior art keywords
- avatar
- hmd
- unit
- terminal
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Telephone Set Structure (AREA)
- Telephone Function (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、情報出力装置、及び情報出力方法に関する。 The present invention relates to an information output device and an information output method.
TV(テレビジョン)電話やTV会議等で、通信相手のアバターを表示するシステム技術が開示されている(例えば、特許文献1参照)。なお、アバターとは、例えば、チャットやWeb(ウェブ)上で、ユーザーの分身を表す画像である。特許文献1に記載の技術では、例えば、通話相手に対応するアバターの配置を、まず、発信元の現実世界の人物配置に基づいて配置する。そして、受信者に対応するアバターを、受信者が使用している端末の位置情報に基づいて配置していた。このため、例えば、発信元に複数の発話者がいる場合、受信者の端末には、発信元にいる複数の発話者に対応するアバターが表示される。このため、受信者が端末に表示されているアバターを見ていても、発信元のどの発話者が発話しているのかを特定しにくいという問題点があった。 A system technology for displaying an avatar of a communication partner in a TV (television) telephone, a TV conference, or the like is disclosed (for example, see Patent Document 1). In addition, an avatar is an image showing a user's alternation on a chat or Web (web), for example. In the technique described in Patent Document 1, for example, the arrangement of the avatar corresponding to the other party is first arranged based on the real person arrangement of the caller. And the avatar corresponding to a receiver has been arrange | positioned based on the positional information on the terminal which the receiver is using. For this reason, for example, when there are a plurality of speakers at the source, avatars corresponding to the plurality of speakers at the source are displayed on the receiver's terminal. For this reason, there is a problem in that it is difficult to identify which speaker is speaking from the sender even when the receiver looks at the avatar displayed on the terminal.
このため、特許文献2に記載の技術では、通話相手の表情をカメラで撮影して、撮影した画像に基づいて、アバターの表情を変化させることが開示されている。 For this reason, the technique described in Patent Document 2 discloses that the facial expression of the other party is photographed with a camera and the facial expression of the avatar is changed based on the photographed image.
ところで、特許文献2の技術では、1対1のコミュニケーションが主な用途であったため、発話者に対するアバターは、必ず特定されていた。しかしながら、特許文献1の技術のように1対多のコミュニケーションにおいては、どのアバターに対応する発話者が発話しているのかを特定できないという課題があった。 By the way, in the technique of patent document 2, since the one-to-one communication was the main use, the avatar for the speaker was always specified. However, in the one-to-many communication as in the technique of Patent Document 1, there is a problem that it is impossible to specify which avatar corresponds to the speaker.
本発明は、上記の事情に鑑み成されたものであって、複数の通話相手と通信を行う場合であっても、発話相手の特定が容易に行える情報出力装置、及び情報出力方法を提供することを目的とする。 The present invention has been made in view of the above circumstances, and provides an information output device and an information output method capable of easily specifying an utterance partner even when communicating with a plurality of call partners. For the purpose.
上記目的を達成するため、本発明の一態様に係る情報出力装置は、端末から前記端末の位置情報を取得する位置取得部と、前記端末から音声情報を取得する音声取得部と、前記位置取得部が取得した位置情報に基づいて、前記音声取得部が取得した音声信号を、左右の音声信号に振り分ける音声調整部と、を備えることを特徴としている。 In order to achieve the above object, an information output apparatus according to an aspect of the present invention includes a position acquisition unit that acquires position information of the terminal from a terminal, a sound acquisition unit that acquires sound information from the terminal, and the position acquisition. And an audio adjustment unit that distributes the audio signal acquired by the audio acquisition unit into left and right audio signals based on the position information acquired by the unit.
上記目的を達成するため、本発明の一態様に係る情報出力方法は、情報出力装置における情報出力方法であって、位置取得部が、端末から前記端末の位置情報を取得する位置取得手順と、音声取得部が、前記端末から音声情報を取得する音声取得手順と、音声調整部が、前記位置取得手順が取得した位置情報に基づいて、前記音声取得手順が取得した音声信号を、左右の音声信号に振り分ける音声調整手順と、を含むことを特徴としている。 In order to achieve the above object, an information output method according to an aspect of the present invention is an information output method in an information output device, wherein a position acquisition unit acquires position information of the terminal from a terminal; The sound acquisition unit acquires sound information from the terminal, and the sound adjustment unit acquires the sound signal acquired by the sound acquisition procedure based on the position information acquired by the position acquisition procedure. And a sound adjustment procedure for distributing the signals.
通信相手の端末の位置情報に基づいた位置に応じて左右の音声のバランスを切り替えるようにしたので、複数の通話相手と通信を行う場合であっても、発話相手の特定が容易に行うことができる。 Since the balance between the left and right voices is switched according to the position based on the position information of the communication partner's terminal, it is easy to identify the speaking partner even when communicating with multiple call partners. it can.
本実施形態の情報出力装置は、通話相手が通話を行っている場所の位置等に基づいて、通話を行う通話相手の分身である複数のアバターを、表示部に各々配置して表示する。本情報出力装置は、このように配置したアバターの位置関係に基づいて、通話相手の音声の左右のバランスを変更する。
以下、情報出力装置をヘッドマウントディスプレイに適用した例について説明するが、本発明はこれに限られない。
The information output device of this embodiment arranges and displays a plurality of avatars, which are the alternates of the other party on the call, on the display unit based on the location of the place where the other party is making a call. The information output device changes the left / right balance of the voice of the other party based on the positional relationship of the avatars arranged in this way.
Hereinafter, an example in which the information output apparatus is applied to a head mounted display will be described, but the present invention is not limited to this.
以下、本発明の実施形態について図面を参照しながら説明する。
以下の説明においては、必要に応じてXYZ直交座標系を設定し、このXYZ直交座標系を参照しつつ各部の位置関係について説明する。水平面内の所定方向をX軸方向、水平面内においてX軸方向と直交する方向をY軸方向、X軸方向及びY軸方向のそれぞれと直交する方向(すなわち鉛直方向)をZ軸方向とする。また、X軸、Y軸、及びZ軸まわりの回転(傾斜)方向をそれぞれ、θX、θY、及びθZ方向とする。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
In the following description, an XYZ orthogonal coordinate system is set as necessary, and the positional relationship of each part will be described with reference to this XYZ orthogonal coordinate system. A predetermined direction in the horizontal plane is defined as an X-axis direction, a direction orthogonal to the X-axis direction in the horizontal plane is defined as a Y-axis direction, and a direction orthogonal to each of the X-axis direction and the Y-axis direction (that is, a vertical direction) is defined as a Z-axis direction. Further, the rotation (inclination) directions around the X axis, Y axis, and Z axis are the θX, θY, and θZ directions, respectively.
図1は、本実施形態のヘッドマウントディスプレイの斜視図である。図2は、本実施形態のヘッドマウントディスプレイ(頭部装着装置、以下、HMDともいう)を背面側から見た斜視図である。図3は、本実施形態のヘッドマウントディスプレイの装着形態を示す図である。 FIG. 1 is a perspective view of the head mounted display of the present embodiment. FIG. 2 is a perspective view of the head-mounted display (head-mounted device, hereinafter also referred to as HMD) according to the present embodiment as viewed from the back side. FIG. 3 is a diagram showing a mounting form of the head mounted display of the present embodiment.
HMD1は、ディスプレイ本体20と、ユーザーの頭部に装着されディスプレイ本体20を支持するヘッドバンド40と、を備えた単眼式のヘッドマウントディスプレイである。本実施形態のHMD1は、図3に示すように、両眼どちらでも使用可能である。図3(A)には、ユーザーが右眼で表示部60を見ている状態、図3(B)には左眼で見ている状態が示されている。また図2に示すように、ディスプレイ本体20とヘッドバンド40とは、連結ピン41を介して着脱可能に構成されている。
なお、図1及び図2では、ディスプレイ本体20の長手方向をY軸方向、ヘッドバンド40がユーザーの頭部を挟持する方向をX軸方向としている。
The HMD 1 is a monocular head mounted display that includes a display main body 20 and a headband 40 that is attached to the user's head and supports the display main body 20. The HMD 1 of the present embodiment can be used with either eye as shown in FIG. FIG. 3A shows a state where the user is viewing the display unit 60 with the right eye, and FIG. 3B shows a state where the user is viewing with the left eye. As shown in FIG. 2, the display main body 20 and the headband 40 are configured to be detachable via a connecting pin 41.
1 and 2, the longitudinal direction of the display main body 20 is defined as the Y-axis direction, and the direction in which the headband 40 sandwiches the user's head is defined as the X-axis direction.
以下、HMD1の各部の構成について詳細に説明する。
ディスプレイ本体20は、主要回路を内蔵するとともに操作部や各種インターフェースを備えた装置本体部21と、装置本体部21の先端に連結された表示部60とを有する。
Hereinafter, the configuration of each part of the HMD 1 will be described in detail.
The display main body 20 includes a device main body 21 that includes a main circuit and includes an operation unit and various interfaces, and a display unit 60 that is connected to the tip of the device main body 21.
装置本体部21は、図4に示す概略板状の筐体21Aを有する。本実施形態では、装置本体部21においてヘッドバンド40との接続部が設けられている側の端部(+Y側の端部)を基端部とし、この基端部と反対側の端部(−Y側の端部)を先端部とする。また、装置本体部21をヘッドバンド40に装着した状態で、装置本体部21のヘッドバンド40側(+X側)を内側、ヘッドバンド40と反対側(−X側)を外側とする。 The apparatus main body 21 has a substantially plate-shaped housing 21A shown in FIG. In the present embodiment, an end portion (+ Y side end portion) on the side where the connection portion with the headband 40 is provided in the apparatus main body portion 21 is a base end portion, and an end portion on the opposite side of the base end portion ( The end on the -Y side) is the tip. Further, in a state where the apparatus main body 21 is attached to the headband 40, the headband 40 side (+ X side) of the apparatus main body 21 is the inside, and the opposite side (−X side) from the headband 40 is the outside.
装置本体部21の外面には、図1に示すように、メインスイッチ28と、タッチスイッチ34と、集音マイク24とが、筐体21Aの長手方向に沿って配置されている。
メインスイッチ28はディスプレイ本体20の電源のオンオフ操作を行うスイッチである。タッチスイッチ34は、表面に手指等で触れることによりHMD1の各種操作を行うことができるタッチパネルである。集音マイク24は、環境音を収集する外部マイクである。
As shown in FIG. 1, a main switch 28, a touch switch 34, and a sound collecting microphone 24 are arranged on the outer surface of the apparatus main body 21 along the longitudinal direction of the housing 21A.
The main switch 28 is a switch for turning on / off the power of the display body 20. The touch switch 34 is a touch panel that can perform various operations of the HMD 1 by touching the surface with a finger or the like. The sound collection microphone 24 is an external microphone that collects environmental sounds.
装置本体部21内面の基端部側に、図2に示すように、耳元スピーカー23と、オーディオコネクター26と、連結孔31を有するヘッドバンドヒンジ32とが設けられている。装置本体部21内面の中央部に心拍数センサー137が設けられている。装置本体部21の内側面の先端部には通話マイク37が設けられている。 As shown in FIG. 2, an ear speaker 23, an audio connector 26, and a headband hinge 32 having a connection hole 31 are provided on the base end side of the inner surface of the apparatus main body 21. A heart rate sensor 137 is provided at the center of the inner surface of the apparatus main body 21. A call microphone 37 is provided at the tip of the inner side surface of the apparatus main body 21.
耳元スピーカー23は、ユーザーの耳の近傍に配置される。耳元スピーカー23からユーザーに音声情報が伝えられる。オーディオコネクター26は、例えば図6に示すイヤホンが接続される音声入出力端子である。ヘッドバンドヒンジ32はヘッドバンド40とのジョイント部である。通話マイク37にはユーザーの音声が入力される。 The ear speaker 23 is disposed in the vicinity of the user's ear. Audio information is transmitted from the ear speaker 23 to the user. The audio connector 26 is an audio input / output terminal to which, for example, the earphone shown in FIG. 6 is connected. The headband hinge 32 is a joint part with the headband 40. The voice of the user is input to the call microphone 37.
心拍数センサー137は、ユーザーの顔の表面に接触させることでユーザーの心拍数を測定するセンサーである。心拍数センサー137は、発光ダイオード等を備えた発光部と、ユーザーの皮膚内部で反射した光を検知する受光部とを有する。心拍数センサー137は、血流の変化による反射光量の変化を検出することで心拍数をカウントする。心拍数センサー137はユーザーの目の近くに配置されるが、発光部から赤外域の光を射出させる構成とすればユーザーにまぶしさを感じさせることはない。 The heart rate sensor 137 is a sensor that measures a user's heart rate by contacting the surface of the user's face. The heart rate sensor 137 includes a light emitting unit including a light emitting diode and the like, and a light receiving unit that detects light reflected inside the user's skin. The heart rate sensor 137 counts the heart rate by detecting a change in the amount of reflected light due to a change in blood flow. The heart rate sensor 137 is disposed near the user's eyes, but if the configuration is such that infrared light is emitted from the light emitting unit, the user will not feel glare.
装置本体部21の基端部側の側端面には、USBコネクター25と、操作スイッチ30と、ビデオコネクター27とが設けられている。
USBコネクター25はUSB(Universal Serial Bus)デバイスの接続端子である。本実施形態では、例えば図5に示すリモコン(リモートコントローラー)140が接続される。
操作スイッチ30は、例えばトラックボールやスティックなどのポインティングデバイスである。操作スイッチ30は表示部60に表示される画面に正対するように設けられている。これにより、操作スイッチ30における操作の左右方向と、上記画面の左右方向とが一致するので、ユーザーは画面を見ながら直感的に操作スイッチ30を操作することが可能である。
ビデオコネクター27は映像入出力端子である。
A USB connector 25, an operation switch 30, and a video connector 27 are provided on the side end surface of the apparatus main body 21 on the base end side.
The USB connector 25 is a connection terminal of a USB (Universal Serial Bus) device. In the present embodiment, for example, a remote controller (remote controller) 140 shown in FIG. 5 is connected.
The operation switch 30 is a pointing device such as a trackball or a stick. The operation switch 30 is provided so as to face the screen displayed on the display unit 60. As a result, the left-right direction of the operation on the operation switch 30 matches the left-right direction of the screen, so that the user can intuitively operate the operation switch 30 while viewing the screen.
The video connector 27 is a video input / output terminal.
図4は、本実施形態のディスプレイ本体20の水平断面図である。
図4に示すように、装置本体部21には、筐体21Aの長手方向に沿って延びる板状の回路基板29と、バッテリー33とが内蔵されている。回路基板29には、図示略の制御回路、電源回路等が実装されており、図示略の配線を介してディスプレイ本体20の各部と電気的に接続されている。
FIG. 4 is a horizontal sectional view of the display main body 20 of the present embodiment.
As shown in FIG. 4, the apparatus body 21 includes a plate-like circuit board 29 extending along the longitudinal direction of the housing 21 </ b> A and a battery 33. A control circuit, a power supply circuit, and the like (not shown) are mounted on the circuit board 29, and are electrically connected to each part of the display body 20 via wiring (not shown).
装置本体部21の外面に露出するタッチスイッチ34の内側には、液晶パネルからなる表示パネル36と、バックライト35とが配置されている。本実施形態では、表示パネル36の表示画像がタッチスイッチ34を透過して表示される。表示パネル36及びバックライト35を、有機ELパネルや電気泳動パネルとしてもよい。 A display panel 36 made of a liquid crystal panel and a backlight 35 are arranged inside the touch switch 34 exposed on the outer surface of the apparatus main body 21. In the present embodiment, the display image on the display panel 36 is displayed through the touch switch 34. The display panel 36 and the backlight 35 may be an organic EL panel or an electrophoresis panel.
ヘッドバンドヒンジ32は、筐体21Aに設けられた凹曲面状の収容部32aと、収容部32aに嵌合された球状部32bとからなるボールジョイントである。球状部32bは、球面状の側面部と、この側面部を挟むように互いに平行に形成された2つの平面部を有する。2つの平面部を垂直に貫くように連結孔31が形成されている。連結孔31は軸方向視で六角形状に形成されている。連結孔31にヘッドバンド40の連結ピン41が挿入されることによりディスプレイ本体20とヘッドバンド40とが連結される。 The headband hinge 32 is a ball joint composed of a concavely curved housing portion 32a provided in the housing 21A and a spherical portion 32b fitted to the housing portion 32a. The spherical portion 32b has a spherical side surface portion and two plane portions formed in parallel to each other so as to sandwich the side surface portion. A connecting hole 31 is formed so as to penetrate the two flat portions vertically. The connection hole 31 is formed in a hexagonal shape when viewed in the axial direction. The display main body 20 and the headband 40 are connected by inserting the connection pin 41 of the headband 40 into the connection hole 31.
ヘッドバンドヒンジ32を備えていることで、ディスプレイ本体20は、図1に示したA方向(ヘッドバンドヒンジ32を中心とするX軸回り)に回動させることができる。本実施形態において、ディスプレイ本体20の回転可能範囲は270°程度とされる。このX軸回りの回転動作により、図3(A)に示す右眼で画像を観察する形態と、図3(B)に示す左眼で画像を観察する形態との切替機能が実現される。 By providing the headband hinge 32, the display main body 20 can be rotated in the A direction (around the X axis centering on the headband hinge 32) shown in FIG. In the present embodiment, the rotatable range of the display body 20 is about 270 °. By the rotation operation around the X axis, a switching function between a mode in which an image is observed with the right eye shown in FIG. 3A and a mode in which an image is observed with the left eye shown in FIG. 3B is realized.
またヘッドバンドヒンジ32はボールジョイントであるため、ディスプレイ本体20は図1に示すB方向(ヘッドバンドヒンジ32を中心とするZ軸回り)に揺動させることもできる。この揺動操作により、ディスプレイ本体20のユーザーの目や耳に対する位置を調整することができる。 Further, since the headband hinge 32 is a ball joint, the display main body 20 can also be swung in the B direction (around the Z axis centering on the headband hinge 32) shown in FIG. By this swinging operation, the position of the display main body 20 relative to the user's eyes and ears can be adjusted.
ヘッドバンドヒンジ32近傍の心拍数センサー137は、装置本体部21の内面から突出するように設けられ、HMD1の装着時にユーザーの顔の表面に当接可能とされている。バッテリー33は一次電池、二次電池のいずれであってもよい。 The heart rate sensor 137 in the vicinity of the headband hinge 32 is provided so as to protrude from the inner surface of the apparatus main body 21, and can be brought into contact with the surface of the user's face when the HMD 1 is worn. The battery 33 may be either a primary battery or a secondary battery.
表示部60は、図1及び図2に示すように、装置本体部21の先端部に連結されている。本実施形態において、表示部60のヘッドバンド40側を内側、ヘッドバンド40と反対側を外側とする。表示部60は、上面視(Z軸視)において湾曲した形状を有するアーム部材であり、装置本体部21との連結部から先端側へ向かうに従って内側へ湾曲する形状を有する。表示部60の内面に、ファインダー開口部67が設けられている。表示部60の外面には、カメラ64が設けられている。 As shown in FIGS. 1 and 2, the display unit 60 is connected to the distal end portion of the apparatus main body unit 21. In the present embodiment, the headband 40 side of the display unit 60 is the inside, and the side opposite to the headband 40 is the outside. The display unit 60 is an arm member that has a curved shape in a top view (Z-axis view), and has a shape that curves inward from the connecting portion with the apparatus main body 21 toward the distal end side. A finder opening 67 is provided on the inner surface of the display unit 60. A camera 64 is provided on the outer surface of the display unit 60.
図4に示すように、表示部60は、ディスプレイヒンジ61を介して装置本体部21と連結されている。ディスプレイヒンジ61は、表示部60の筐体60Aに形成された凹曲面状の収容部61aと、装置本体部21に形成され収容部61aに嵌合された球状部61bとからなるボールジョイントである。 As shown in FIG. 4, the display unit 60 is connected to the apparatus main body 21 via a display hinge 61. The display hinge 61 is a ball joint composed of a concave curved housing 61a formed in the housing 60A of the display 60 and a spherical portion 61b formed in the apparatus main body 21 and fitted in the housing 61a. .
装置本体部21の球状部61bは、装置本体部21の外面先端部に形成された筐体21Aの長手方向に対して斜めに延びる傾斜面に、この傾斜面の法線方向(図4のY’軸方向)に突出するようにして設けられている。 The spherical portion 61b of the apparatus main body 21 has an inclined surface extending obliquely with respect to the longitudinal direction of the casing 21A formed at the front end of the outer surface of the apparatus main body 21, and the normal direction of the inclined surface (Y in FIG. 4). It is provided so as to protrude in the “axial direction”.
表示部60は、ディスプレイヒンジ61の球状部61bに対してY’軸回りに自由に回転させることができる。本実施形態では、ディスプレイヒンジ61が装置本体部21の上記傾斜面に設けられており、表示部60が内側に湾曲した形状を有している。 The display unit 60 can be freely rotated around the Y ′ axis with respect to the spherical portion 61 b of the display hinge 61. In the present embodiment, the display hinge 61 is provided on the inclined surface of the apparatus main body 21, and the display unit 60 has a shape curved inward.
また、ディスプレイヒンジ61がボールジョイントであることから、表示部60は、Y’軸回りの回転面に対して直交する方向(概ねX’軸に沿う方向)の揺動も可能である。この揺動動作により、ユーザーによるファインダー開口部67の位置調整が容易になる。表示部60と装置本体部21との間隔を大きくすれば、表示部60の揺動幅を大きくすることができる。
すなわち、本実施形態によれば、保持部であるディスプレイヒンジ61は、表示部60を、少なくとも1つ以上の軸周りに揺動が可能である。
Further, since the display hinge 61 is a ball joint, the display unit 60 can swing in a direction orthogonal to the rotation plane around the Y ′ axis (generally along the X ′ axis). This swinging operation facilitates position adjustment of the finder opening 67 by the user. If the interval between the display unit 60 and the apparatus main body unit 21 is increased, the swinging width of the display unit 60 can be increased.
That is, according to the present embodiment, the display hinge 61 serving as the holding unit can swing the display unit 60 around at least one axis.
ディスプレイヒンジ61の球状部61bには、球状部61bを高さ方向(Y’軸方向)に貫通する貫通孔61cが形成されている。貫通孔61cを介して、表示部60の内部と装置本体部21の内部とが連通されている。貫通孔61cには不図示のケーブルが挿通される。挿通されたケーブルを介して回路基板29と表示部60の各部とが電気的に接続される。 The spherical portion 61b of the display hinge 61 is formed with a through hole 61c that penetrates the spherical portion 61b in the height direction (Y′-axis direction). The inside of the display unit 60 and the inside of the apparatus main body unit 21 are communicated with each other through the through hole 61c. A cable (not shown) is inserted through the through hole 61c. The circuit board 29 and each part of the display unit 60 are electrically connected via the inserted cable.
表示部60の内部には、バックライト62と、表示パネル63と、カメラ64と、プリズム65と、反射ミラー66と、前方ライト68と、前方スピーカー70と、結像レンズ71と、撮像素子72とが設けられている。 Inside the display unit 60, there are a backlight 62, a display panel 63, a camera 64, a prism 65, a reflecting mirror 66, a front light 68, a front speaker 70, an imaging lens 71, and an image sensor 72. And are provided.
プリズム65は、上面視(Z軸視)で略三角形状の第1プリズム65aと第2プリズム65bとを互いの面で貼り合わせた構成を有する。この貼り合わせ面以外の第1プリズム65aの他の二面のうち、一方の面に対向する位置に、液晶パネルからなる表示パネル63が設けられている。表示パネル63の背面に表示パネル63を透過照明するバックライト62が配置されている。第1プリズム65aの他方の面に対向する位置に反射ミラー66が配置されている。反射ミラー66は、ファインダー開口部67のほぼ正面に位置する。 The prism 65 has a configuration in which a substantially triangular first prism 65a and a second prism 65b are bonded to each other on a top view (Z-axis view). A display panel 63 made of a liquid crystal panel is provided at a position facing one of the other two surfaces of the first prism 65a other than the bonding surface. A backlight 62 that transmits and illuminates the display panel 63 is disposed on the back surface of the display panel 63. A reflection mirror 66 is disposed at a position facing the other surface of the first prism 65a. The reflection mirror 66 is located substantially in front of the finder opening 67.
第2プリズム65bの貼り合わせ面以外の他の二面のうち、一方の面はファインダー開口部67に配置されたファインダー接眼面である。第2プリズム65bの他方の面に対向する位置には結像レンズ71を介して撮像素子72が対向配置されている。 Of the two surfaces other than the bonding surface of the second prism 65 b, one surface is a viewfinder eyepiece disposed in the viewfinder opening 67. An imaging element 72 is disposed opposite to the other surface of the second prism 65b via the imaging lens 71.
表示部60において、表示パネル63に表示された画像は、第1プリズム65a、反射ミラー66、第2プリズム65bを介してファインダー開口部67から射出され、ユーザーに観察される。また、ファインダー開口部67を見ているユーザーの目元は、第2プリズム65b及び結像レンズ71を介して撮像素子72上に結像される。撮像素子72を介して取得された目元の画像は、ユーザーの視線の方向や瞬き、表情の解析に用いられる。バックライト62は、撮像素子72による目元撮影の照明装置としても利用される。 In the display unit 60, the image displayed on the display panel 63 is emitted from the finder opening 67 through the first prism 65a, the reflection mirror 66, and the second prism 65b, and is observed by the user. The eye of the user looking at the finder opening 67 is imaged on the image sensor 72 via the second prism 65 b and the imaging lens 71. The eye image acquired through the image sensor 72 is used for analyzing the direction of the user's line of sight, blinking, and facial expression. The backlight 62 is also used as a lighting device for photographing the eye by the image sensor 72.
カメラ64は、例えば500万画素〜1000万画素の撮像素子を有し、オートフォーカス動作が可能に構成される。
本実施形態の場合、カメラ64の撮影方向は、ユーザーの視線方向と一致するように設定される。撮影方向と視線方向との調整は、機械的に行ってもよく、画像処理により行ってもよい。例えば、カメラ64を広角の映像を取得可能に構成し、ユーザーの目元画像から取得した視線方向の情報に基づいて、電気的に捕らえた映像の一部を、視線方向の映像として抜き出して表示パネル63に表示させる。これにより、カメラ64に調整機構を設けることなくユーザー正面の映像の撮影、表示が可能となる。
The camera 64 includes, for example, an image sensor with 5 to 10 million pixels, and is configured to be able to perform an autofocus operation.
In the case of this embodiment, the shooting direction of the camera 64 is set so as to coincide with the user's line-of-sight direction. The adjustment between the photographing direction and the line-of-sight direction may be performed mechanically or by image processing. For example, the camera 64 is configured to be able to acquire a wide-angle image, and a part of the electrically captured image is extracted as an image in the line-of-sight direction based on the information on the line-of-sight direction acquired from the user's eye image. 63 is displayed. As a result, it is possible to shoot and display an image in front of the user without providing an adjustment mechanism in the camera 64.
前方ライト68は、例えばLEDライトである。前方ライト68は、赤、緑、青の各色の発光素子を有し、任意の色を任意のタイミングで発光させることが可能に構成してもよい。前方ライト68は、発光色や発光タイミングにより外部に対して情報を表示する装置として用いてもよく、カメラ64で撮影する際の照明装置として用いてもよい。 The front light 68 is, for example, an LED light. The front light 68 may include red, green, and blue light emitting elements, and may be configured to emit any color at any timing. The front light 68 may be used as a device that displays information to the outside depending on the light emission color and the light emission timing, or may be used as an illumination device when photographing with the camera 64.
また、図4では図示を省略したが、本実施形態に係る表示部60にはレーザー発信器が設けられている。レーザー発信器は、例えば前方ライト68の近傍に設けることができる。レーザー発信器から射出される例えば赤色レーザー光を前方に照射することで、レーザー光によるポインティング(指標の表示)が可能である。 Although not shown in FIG. 4, the display unit 60 according to the present embodiment is provided with a laser transmitter. The laser transmitter can be provided in the vicinity of the front light 68, for example. By irradiating, for example, red laser light emitted from a laser transmitter forward, pointing (display of an index) with the laser light is possible.
次に、ヘッドバンド40について、図2を参照しつつ説明する。
ヘッドバンド40は、図2に示すように、ユーザーの頭部を挟持する一対のヘッドパット(装着部材)46、47と、第1ヘッドバンド43と、第2ヘッドバンド44と、回動機構56、57とを備えている。
Next, the headband 40 will be described with reference to FIG.
As shown in FIG. 2, the headband 40 includes a pair of head pads (mounting members) 46 and 47 that sandwich the user's head, a first headband 43, a second headband 44, and a rotation mechanism 56. , 57.
第1ヘッドバンド43は、全体として円弧状を成す弾性部材である。第1ヘッドバンド43の頂部に、第1ヘッドバンド43を折り曲げるためのジョイント部43aが設けられている。第1ヘッドバンド43の両端には、回動機構56、57を構成する軸受部43b、43cがそれぞれ設けられている。軸受部43b、43cよりもさらにバンド先端側に、ヘッドパット46、47が接続される軸受部43d、43eが設けられている。 The first headband 43 is an elastic member having an arc shape as a whole. A joint portion 43 a for bending the first headband 43 is provided on the top of the first headband 43. At both ends of the first headband 43, bearing portions 43b and 43c constituting the rotation mechanisms 56 and 57 are provided, respectively. Bearing portions 43d and 43e to which the head pads 46 and 47 are connected are provided further on the front end side of the band than the bearing portions 43b and 43c.
第2ヘッドバンド44は、全体として円弧状を成す弾性部材である。第2ヘッドバンド44の頂部には、第2ヘッドバンド44を折り曲げるためのジョイント部44aが設けられている。第2ヘッドバンド44の両端には、それぞれ回動機構56、57を構成する軸部材44b、44cが設けられている。 The second headband 44 is an elastic member having an arc shape as a whole. A joint portion 44 a for bending the second headband 44 is provided on the top of the second headband 44. At both ends of the second headband 44, shaft members 44b and 44c constituting rotation mechanisms 56 and 57 are provided.
また本実施形態において、第2ヘッドバンド44は、ステンレス等の金属からなるバネ部材48の表面を樹脂等の柔軟な材料で被覆した構成を有する。この第2ヘッドバンド44のバネ部材48においてユーザーの頭部を挟持するバネ力を発生させる。また第2ヘッドバンド44は第1ヘッドバンド43と比較して広い幅に形成されている。ジョイント部44aの形成部分は他のバンド部分よりもさらに広く形成された標章表示部49とされている。標章表示部49には、シールや印刷により製品タグ等が付される。なお、第2ヘッドバンド44の全体を金属で形成してもよい。 In the present embodiment, the second headband 44 has a configuration in which the surface of the spring member 48 made of a metal such as stainless steel is covered with a flexible material such as a resin. The spring member 48 of the second headband 44 generates a spring force that holds the user's head. The second headband 44 is formed wider than the first headband 43. The formation part of the joint part 44a is a mark display part 49 formed wider than the other band parts. A product tag or the like is attached to the mark display section 49 by sticker or printing. The entire second headband 44 may be made of metal.
ヘッドパット46は、板状の支持板46aと、支持板46aの一面側に設けられた断面アーチ状の弾性部材46bとを有する。支持板46aの弾性部材46bと反対側の面に、当該面に垂直な姿勢で概略六角柱状の連結ピン41が立設されている。連結ピン41は、第1ヘッドバンド43の一方の先端に設けられた軸受部43dに軸支されている。これにより、ヘッドパット46は連結ピン41回りに回転可能である。 The head pad 46 includes a plate-like support plate 46a and an elastic member 46b having an arched cross section provided on one surface side of the support plate 46a. On the surface of the support plate 46a opposite to the elastic member 46b, a substantially hexagonal column-shaped connecting pin 41 is erected in a posture perpendicular to the surface. The connecting pin 41 is pivotally supported by a bearing portion 43 d provided at one end of the first headband 43. As a result, the head pad 46 can rotate around the connecting pin 41.
ヘッドパット47は、板状の支持板47aと、支持板47aの一方の面に設けられた断面アーチ状の弾性部材47bとを有する。支持板47aの弾性部材47bと反対側の面には、軸部材47cが設けられている。軸部材47cは、第1ヘッドバンド43の先端に設けられた軸受部43eに軸支されている。これにより、ヘッドパット47は、軸部材47c回りに回転可能である。 The head pad 47 includes a plate-like support plate 47a and an elastic member 47b having an arcuate cross section provided on one surface of the support plate 47a. A shaft member 47c is provided on the surface of the support plate 47a opposite to the elastic member 47b. The shaft member 47 c is pivotally supported by a bearing portion 43 e provided at the tip of the first headband 43. Thereby, the head pad 47 can rotate around the shaft member 47c.
この構成により、第2ヘッドバンド44は、回動機構56によって第1ヘッドバンド43から離れる方向に回動付勢される一方、回動機構57によって第1ヘッドバンド43に対して所定角度以内の範囲に回動規制される。これにより、第2ヘッドバンド44は第1ヘッドバンド43に対して所定の角度となるように保持される。したがって、回動機構56、57は、ヘッドバンド40における角度保持機構として機能する。 With this configuration, the second headband 44 is urged to rotate in a direction away from the first headband 43 by the rotation mechanism 56, while being within a predetermined angle with respect to the first headband 43 by the rotation mechanism 57. The rotation is restricted to the range. As a result, the second headband 44 is held at a predetermined angle with respect to the first headband 43. Therefore, the rotation mechanisms 56 and 57 function as an angle holding mechanism in the headband 40.
図5は、本実施形態のリモコンを示す斜視図である。
リモコン140は、筐体140Aと、タッチパッド141と、操作スイッチ147と、USBコネクター142と、インジケーター143a、143b、143cと、取付クリップ144と、インジケータースイッチ150と、を備えている。
FIG. 5 is a perspective view showing the remote controller of the present embodiment.
The remote controller 140 includes a housing 140A, a touch pad 141, an operation switch 147, a USB connector 142, indicators 143a, 143b, and 143c, a mounting clip 144, and an indicator switch 150.
リモコン140は、USBケーブル148の一方の端子をUSBコネクター142に接続し、他方の端子を装置本体部21のUSBコネクター25に接続することで、装置本体部21と電気的に接続される。USBケーブル148としては市販のUSBケーブルを用いることができる。本実施形態の場合、USBケーブル148の途中に複数のクリップ149が設けられている。複数のクリップ149は、例えばUSBケーブル148を第2ヘッドバンド44に沿わせた状態で固定するために用いることができる。 The remote controller 140 is electrically connected to the apparatus main body 21 by connecting one terminal of the USB cable 148 to the USB connector 142 and connecting the other terminal to the USB connector 25 of the apparatus main body 21. A commercially available USB cable can be used as the USB cable 148. In the present embodiment, a plurality of clips 149 are provided in the middle of the USB cable 148. The plurality of clips 149 can be used to fix the USB cable 148 along the second headband 44, for example.
リモコン140には、ディスプレイ本体20や他の電子機器と無線通信を行うための通信回路が内蔵されている。通信回路の通信方式としては、例えば、Bluetooth(登録商標)、無線LAN、赤外線通信、UWB(Ultra Wide Band)、Transfer Jetなどを用いることができる。かかる通信回路により、USBケーブル148を接続していなくてもディスプレイ本体20との通信が可能である。 The remote control 140 incorporates a communication circuit for performing wireless communication with the display main body 20 and other electronic devices. As a communication method of the communication circuit, for example, Bluetooth (registered trademark), wireless LAN, infrared communication, UWB (Ultra Wide Band), Transfer Jet, or the like can be used. With such a communication circuit, communication with the display main body 20 is possible even when the USB cable 148 is not connected.
リモコン140には、Gセンサーや加速度センサー、方位センサーが内蔵されていてもよい。これらのセンサーで検出した情報についても、上記した通信回路を介してディスプレイ本体20へ通信可能である。 The remote control 140 may incorporate a G sensor, an acceleration sensor, and a direction sensor. Information detected by these sensors can also be communicated to the display body 20 via the communication circuit described above.
タッチパッド141は筐体140Aの一方の主面に設けられている。タッチパッド141は、ユーザーがタッチすることによりディスプレイ本体20を操作するための操作部である。タッチパッド141の背面側の筐体140A内部には、装置本体部21のタッチスイッチ34と同様に表示パネルやバックライトが設けられていてもよい。 The touch pad 141 is provided on one main surface of the housing 140A. The touch pad 141 is an operation unit for operating the display main body 20 when the user touches. A display panel and a backlight may be provided in the housing 140 </ b> A on the back side of the touch pad 141, similarly to the touch switch 34 of the apparatus main body 21.
操作スイッチ147は、リモコン140やディスプレイ本体20を手動操作するためのスイッチである。操作スイッチ147は、必要に応じて設けられていればよい。筐体140Aの側面に設けられたインジケータースイッチ150は、インジケーター143a〜143cを利用した所定動作を行わせるためのスイッチである。 The operation switch 147 is a switch for manually operating the remote controller 140 and the display main body 20. The operation switch 147 may be provided as necessary. The indicator switch 150 provided on the side surface of the housing 140A is a switch for performing a predetermined operation using the indicators 143a to 143c.
USBコネクター142は、装置本体部21との接続のほか、リモコン140が充電式のバッテリーを内蔵している場合にはリモコン140の充電端子や、PCとの接続にも用いられる。
またリモコン140がバッテリーを内蔵している場合には、装置本体部21への給電端子として用いることもできる。リモコン140のバッテリーを補助電源として使用可能にすることで、装置本体部21のバッテリー容量を小さくでき、装置本体部21を小型軽量化することができる。
The USB connector 142 is used not only for connection with the apparatus main body 21 but also for connection with a charging terminal of the remote control 140 or a PC when the remote control 140 has a built-in rechargeable battery.
When the remote controller 140 has a built-in battery, it can also be used as a power supply terminal for the apparatus main body 21. By making the battery of the remote control 140 usable as an auxiliary power source, the battery capacity of the device main body 21 can be reduced, and the device main body 21 can be reduced in size and weight.
インジケーター143a、143b、143cは、タッチパッド141の周囲に配置されている。本実施形態では、タッチパッド141の一辺に沿う位置にインジケーター143aが配置され、インジケーター143aに対してタッチパッド141を挟んだ反対側にインジケーター143bとインジケーター143cとが配置されている。 Indicators 143a, 143b, and 143c are arranged around the touch pad 141. In the present embodiment, an indicator 143a is disposed at a position along one side of the touch pad 141, and an indicator 143b and an indicator 143c are disposed on the opposite side of the touch pad 141 with respect to the indicator 143a.
インジケーター143a〜143cはLED等の発光素子を備えている。本実施形態では、インジケーター143aは緑色の発光素子、インジケーター143bはオレンジ色の発光素子、インジケーター143cは青色の発光素子をそれぞれ備えている。これらの発光素子は制御されたタイミングでパターン発光可能に構成されている。インジケーター143a〜143cの上記パターン発光は、筐体140A側面のインジケータースイッチ150を操作することでオンオフすることができる。 The indicators 143a to 143c include light emitting elements such as LEDs. In the present embodiment, the indicator 143a includes a green light emitting element, the indicator 143b includes an orange light emitting element, and the indicator 143c includes a blue light emitting element. These light emitting elements are configured to be capable of pattern light emission at controlled timing. The pattern light emission of the indicators 143a to 143c can be turned on and off by operating the indicator switch 150 on the side surface of the housing 140A.
インジケーター143a〜143cのパターン発光は、例えばリモコン140の状態(例えばリモコン140の上下左右の傾き状態)を示すものである。かかるパターン発光を装置本体部21のカメラ64で撮影し、取得した画像を解析することにより、リモコン140の状態を装置本体部21に伝達することが可能である。インジケーター143a〜143cを利用した情報伝達方式は、Bluetooth(登録商標)などの無線通信を用いた場合と比較して電力消費を抑えることができる。 The pattern light emission of the indicators 143a to 143c indicates, for example, the state of the remote controller 140 (for example, the up / down / left / right tilt state of the remote controller 140). It is possible to transmit the state of the remote controller 140 to the apparatus main body 21 by photographing such pattern emission with the camera 64 of the apparatus main body 21 and analyzing the acquired image. The information transmission method using the indicators 143a to 143c can suppress power consumption as compared with the case where wireless communication such as Bluetooth (registered trademark) is used.
取付クリップ144は、筐体140Aのタッチパッド141と反対側の面に設けられている。本実施形態の場合、取付クリップ144は、一端を筐体140Aに固定された側面視S形のバネ板部材である。取付クリップ144により、リモコン140をユーザーの衣服やベルト等に装着することができる。 The attachment clip 144 is provided on the surface of the housing 140A opposite to the touch pad 141. In the case of this embodiment, the attachment clip 144 is an S-shaped spring plate member having one end fixed to the housing 140A. With the attachment clip 144, the remote controller 140 can be attached to a user's clothes, belt, or the like.
図6は、本実施形態のヘッドマウントディスプレイに付属のステレオイヤホンを示す斜視図である。
ステレオイヤホン100は、コネクター101と、ケーブル102と、第1スピーカー103と、第2スピーカー104と、集音マイク105と、複数のクリップ106とを有する。
FIG. 6 is a perspective view showing a stereo earphone attached to the head mounted display of the present embodiment.
Stereo earphone 100 includes a connector 101, a cable 102, a first speaker 103, a second speaker 104, a sound collecting microphone 105, and a plurality of clips 106.
コネクター101はケーブル102の一方の端部に設けられている。コネクター101は、一般的な4極φ3.5mmのミニプラグである。4極の内訳は、集音マイク105、第1スピーカー103、第2スピーカー104、グランド(GND)である。ケーブル102は、コネクター101の近傍において二分岐され、分岐されたケーブルの先端に第1スピーカー103が設けられている。ケーブル102の他方の端部には、第2スピーカー104と集音マイク105とが設けられている。複数のクリップ106は、ケーブル102上に所定の間隔で配置されている。 The connector 101 is provided at one end of the cable 102. The connector 101 is a general 4-pole φ3.5 mm mini plug. The breakdown of the four poles is the sound collection microphone 105, the first speaker 103, the second speaker 104, and the ground (GND). The cable 102 is bifurcated in the vicinity of the connector 101, and a first speaker 103 is provided at the end of the branched cable. A second speaker 104 and a sound collecting microphone 105 are provided at the other end of the cable 102. The plurality of clips 106 are arranged on the cable 102 at a predetermined interval.
ステレオイヤホン100は、コネクター101をディスプレイ本体20のオーディオコネクター26に接続して使用される。ステレオイヤホン100が接続されると、ディスプレイ本体20の耳元スピーカー23と、表示部60の通話マイク37は無効化される。また表示部60の前方スピーカー70も必要に応じて無効化される。そして、ステレオイヤホン100の第1スピーカー103、第2スピーカー104、及び集音マイク105が有効化される。 The stereo earphone 100 is used by connecting the connector 101 to the audio connector 26 of the display body 20. When the stereo earphone 100 is connected, the ear speaker 23 of the display body 20 and the call microphone 37 of the display unit 60 are invalidated. Further, the front speaker 70 of the display unit 60 is also invalidated as necessary. Then, the first speaker 103, the second speaker 104, and the sound collecting microphone 105 of the stereo earphone 100 are activated.
ステレオイヤホン100の第1スピーカー103は、ディスプレイ本体20が配置された側のユーザーの耳に装着され、第2スピーカー104は第1スピーカー103と反対側の耳に装着される。このとき、ケーブル102は、クリップ106によって第2ヘッドバンド44に固定することができる。 The first speaker 103 of the stereo earphone 100 is attached to the ear of the user on the side where the display main body 20 is arranged, and the second speaker 104 is attached to the ear on the opposite side to the first speaker 103. At this time, the cable 102 can be fixed to the second headband 44 by the clip 106.
また、ステレオイヤホン100の集音マイク105と、ディスプレイ本体20において筐体21Aの外側面に設けられた集音マイク24とにより、ステレオ録音が可能である。例えば、図3(A)に示すようにディスプレイ本体20が右眼側に配置されているとすれば、ディスプレイ本体20の集音マイク24はユーザーの右側の音を収集し、左耳に装着された集音マイク105はユーザーの左側の音を収集する。なお、ステレオイヤホン100の第1スピーカー103から右チャンネルの音声が出力され、第2スピーカー104からは左チャンネルの音声が出力される。 Further, stereo recording can be performed by the sound collecting microphone 105 of the stereo earphone 100 and the sound collecting microphone 24 provided on the outer surface of the housing 21 </ b> A in the display main body 20. For example, if the display main body 20 is arranged on the right eye side as shown in FIG. 3A, the sound collecting microphone 24 of the display main body 20 collects sounds on the right side of the user and is attached to the left ear. The sound collecting microphone 105 collects the sound on the left side of the user. Note that the right channel sound is output from the first speaker 103 of the stereo earphone 100, and the left channel sound is output from the second speaker 104.
一方、図3(B)に示すように左眼側にディスプレイ本体20が配置されている場合には、ディスプレイ本体20の集音マイク24がユーザーの左側の音を収集し、右耳に装着された集音マイク105がユーザーの右側の音を収集する。ステレオイヤホン100の第1スピーカー103から左チャンネルの音声が出力され、第2スピーカー104からは右チャンネルの音声が出力される。 On the other hand, when the display main body 20 is arranged on the left eye side as shown in FIG. 3B, the sound collecting microphone 24 of the display main body 20 collects the sound of the left side of the user and is attached to the right ear. The sound collecting microphone 105 collects the sound on the right side of the user. The left channel sound is output from the first speaker 103 of the stereo earphone 100, and the right channel sound is output from the second speaker 104.
本実施形態の場合、集音マイク24、105はいずれもユーザーの耳の近傍に配置されるため、バイノーラル録音のような臨場感のある録音が可能である。また集音マイク24と集音マイク105に同じ特性のマイクを用いることで、左右の音の特性の差異を小さくすることができる。 In the case of the present embodiment, since the sound collection microphones 24 and 105 are both disposed in the vicinity of the user's ear, recording with a sense of reality such as binaural recording is possible. Also, by using microphones having the same characteristics as the sound collecting microphone 24 and the sound collecting microphone 105, the difference in the characteristics of the left and right sounds can be reduced.
図7は、本実施形態のヘッドマウントディスプレイ1の機能ブロック図である。
HMD1には、処理部123を中心として種々の電気回路が備えられている。処理部123は、CPU(Central Processing Unit)であり、HMD1の各種回路と接続されるとともに、HMD1を総合的に制御する。
FIG. 7 is a functional block diagram of the head mounted display 1 of the present embodiment.
The HMD 1 includes various electric circuits centering on the processing unit 123. The processing unit 123 is a CPU (Central Processing Unit), and is connected to various circuits of the HMD 1 and comprehensively controls the HMD 1.
バッテリー33は、電力を電源回路120に供給する。
電源回路120は、バッテリー33から供給された電力を、処理部123の制御によりヘッドマウントディスプレイ1の各部に供給する。
The battery 33 supplies power to the power supply circuit 120.
The power supply circuit 120 supplies the power supplied from the battery 33 to each unit of the head mounted display 1 under the control of the processing unit 123.
本実施形態の場合、処理部123には、エンコーダー129及びデコーダー121、電源回路120、BLドライバ126、操作スイッチ30、フラッシュメモリー122、BT通信回路130、WiFi通信回路131、加速度センサー132、地磁気センサー133、前方ライト68、3G/LTE通信回路138、レーザー発信器73、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137、メモリー127、メインスイッチ28、タッチスイッチ34が接続されている。 In the present embodiment, the processing unit 123 includes an encoder 129 and a decoder 121, a power supply circuit 120, a BL driver 126, an operation switch 30, a flash memory 122, a BT communication circuit 130, a WiFi communication circuit 131, an acceleration sensor 132, and a geomagnetic sensor. 133, front light 68, 3G / LTE communication circuit 138, laser transmitter 73, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, memory 127, main switch 28, and touch switch 34 are connected. Yes.
エンコーダー129は音声信号及び映像信号を所定方式の音声データ及び映像データにエンコード(符号化)する。エンコーダー129には、カメラ64、撮像素子72、集音マイク24、通話マイク37、オーディオコネクター26、ビデオコネクター27が接続されている。 The encoder 129 encodes (encodes) the audio signal and the video signal into audio data and video data of a predetermined method. Connected to the encoder 129 are a camera 64, an image sensor 72, a sound collection microphone 24, a call microphone 37, an audio connector 26, and a video connector 27.
エンコーダー129には、集音マイク24及び通話マイク37から入力される音声信号、カメラ64から入力される映像信号、オーディオコネクター26から入力される音声信号、ビデオコネクター27から入力される映像信号、及び、ユーザーの目元を撮影する撮像素子72の映像信号が入力される。エンコーダー129に入力された音声信号及び映像信号は音声データ及び映像データにエンコードされた後、処理部123に入力される。入力された音声データ及び映像データは、処理部123による再生動作に用いられたり、フラッシュメモリー122に記録される。 The encoder 129 includes an audio signal input from the sound collection microphone 24 and the call microphone 37, a video signal input from the camera 64, an audio signal input from the audio connector 26, a video signal input from the video connector 27, and The video signal of the image sensor 72 that captures the user's eyes is input. The audio signal and video signal input to the encoder 129 are encoded into audio data and video data, and then input to the processing unit 123. The input audio data and video data are used for a reproduction operation by the processing unit 123 or recorded in the flash memory 122.
デコーダー121は、音声データ及び映像データを音声信号及び映像信号にデコード(復号化)する。デコーダー121には、LCDドライバ125、スピーカーアンプ162、オーディオコネクター26、及びビデオコネクター27が接続されている。LCDドライバ125は液晶パネル用の駆動制御装置であり、表示パネル36及び表示パネル63に接続されている。スピーカーアンプ162は音声信号を増幅してスピーカーに出力する装置であり、耳元スピーカー23及び前方スピーカー70に接続されている。 The decoder 121 decodes (decodes) audio data and video data into audio signals and video signals. An LCD driver 125, a speaker amplifier 162, an audio connector 26, and a video connector 27 are connected to the decoder 121. The LCD driver 125 is a drive control device for a liquid crystal panel, and is connected to the display panel 36 and the display panel 63. The speaker amplifier 162 is a device that amplifies an audio signal and outputs it to the speaker, and is connected to the ear speaker 23 and the front speaker 70.
映像データを再生する場合、フラッシュメモリー122に記録された映像データ、あるいはエンコーダー129から入力される映像データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された映像データは、映像信号にデコードされた後、LCDドライバ125を介して表示パネル36、63に供給される。そして、映像信号が入力された表示パネル36又は表示パネル63に映像データに基づく映像が表示される。また、デコーダー121からビデオコネクター27に出力される映像信号は、ビデオコネクター27を介して外部機器に出力される。 When reproducing the video data, the video data recorded in the flash memory 122 or the video data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The video data input to the decoder 121 is decoded into a video signal and then supplied to the display panels 36 and 63 via the LCD driver 125. Then, an image based on the image data is displayed on the display panel 36 or the display panel 63 to which the image signal is input. The video signal output from the decoder 121 to the video connector 27 is output to an external device via the video connector 27.
また映像の表示に際して、処理部123は、必要に応じて表示パネル36用のバックライト35、及び表示パネル63用のバックライト62を点灯させる。BLドライバ126は、バックライト用の駆動制御装置であり、バックライト35及びバックライト62に接続されている。処理部123は、BLドライバ126に駆動信号を送信し、BLドライバ126はバックライト35、62を個々に点灯させる。 When displaying the video, the processing unit 123 turns on the backlight 35 for the display panel 36 and the backlight 62 for the display panel 63 as necessary. The BL driver 126 is a drive control device for the backlight, and is connected to the backlight 35 and the backlight 62. The processing unit 123 transmits a drive signal to the BL driver 126, and the BL driver 126 lights the backlights 35 and 62 individually.
音声データを再生する場合、フラッシュメモリー122に記録された音声データ、あるいはエンコーダー129から入力される音声データは、処理部123を介してデコーダー121に入力される。デコーダー121に入力された音声データは、音声信号にデコードされた後、スピーカーアンプ162を介して耳元スピーカー23及び前方スピーカー70のいずれか一方、又は両方に出力される。そして、音声信号を入力された耳元スピーカー23又は前方スピーカー70から音声が出力される。また、デコーダー121からオーディオコネクター26に出力される音声信号は、オーディオコネクター26を介してステレオイヤホン100に出力される。 When reproducing the audio data, the audio data recorded in the flash memory 122 or the audio data input from the encoder 129 is input to the decoder 121 via the processing unit 123. The audio data input to the decoder 121 is decoded into an audio signal and then output to one or both of the ear speaker 23 and the front speaker 70 via the speaker amplifier 162. Then, sound is output from the ear speaker 23 or the front speaker 70 to which the sound signal is input. The audio signal output from the decoder 121 to the audio connector 26 is output to the stereo earphone 100 via the audio connector 26.
本実施形態の場合、耳元スピーカー23及び前方スピーカー70は、モノラル音声の使用を想定しており、耳元スピーカー23及び前方スピーカー70からは左右の音声信号が合成された音が発せられる。 In the case of this embodiment, the ear speaker 23 and the front speaker 70 are assumed to use monaural sound, and the ear speaker 23 and the front speaker 70 emit a sound in which left and right audio signals are synthesized.
一方、ステレオイヤホン100に音声信号が出力される場合、第1スピーカー103及び第2スピーカー104のそれぞれ左チャンネル又は右チャンネルの音が出力される。ここで、本実施形態のHMD1は左右両用であるため、装着位置に応じてステレオイヤホン100への音声信号のチャンネルが切り替わる。すなわち、ディスプレイ本体20が右眼に装着されている場合には、第1スピーカー103に右チャンネル、第2スピーカー104に左チャンネルの音が出力される。ディスプレイ本体20が左眼に装着されている場合には第1スピーカー103に左チャンネル、第2スピーカー104に右チャンネルの音が出力される。 On the other hand, when an audio signal is output to the stereo earphone 100, the sound of the left channel or the right channel of the first speaker 103 and the second speaker 104 is output. Here, since the HMD 1 of this embodiment is for both left and right, the channel of the audio signal to the stereo earphone 100 is switched according to the mounting position. That is, when the display body 20 is attached to the right eye, the right channel sound is output to the first speaker 103 and the left channel sound is output to the second speaker 104. When the display body 20 is attached to the left eye, the left channel sound is output to the first speaker 103 and the right channel sound is output to the second speaker 104.
メモリー127には、処理部123によって実行される制御プログラムが記憶されている。
全体の電源のオンオフを行うメインスイッチ28や、画面内でのポインティング操作を行うための操作スイッチ30、あるいはタッチ操作により各種操作を行うタッチスイッチ34がユーザーに操作されると、これらのスイッチから操作に基づく制御信号が処理部123へ出力される。処理部123は、制御信号により操作を検出し、上記の制御プログラムに規定された動作を実行する。
The memory 127 stores a control program executed by the processing unit 123.
When the user operates the main switch 28 for turning on / off the entire power source, the operation switch 30 for performing a pointing operation in the screen, or the touch switch 34 for performing various operations by a touch operation, the operation is performed from these switches. Is output to the processing unit 123. The processing unit 123 detects an operation based on the control signal, and executes an operation defined in the control program.
BT通信回路130は、他の機器とのBluetooth(登録商標)通信を行うための通信回路である。WiFi通信回路131は、他の機器との無線LAN通信(IEEE 802.11)を行うための通信回路である。3G/LTE通信回路138は、他の機器との移動通信を行うための通信回路である。 The BT communication circuit 130 is a communication circuit for performing Bluetooth (registered trademark) communication with other devices. The WiFi communication circuit 131 is a communication circuit for performing wireless LAN communication (IEEE 802.11) with other devices. The 3G / LTE communication circuit 138 is a communication circuit for performing mobile communication with other devices.
加速度センサー132はHMD1の傾き検出に用いられる。地磁気センサー133はHMD1の方角検出に用いられる。角速度センサー(ジャイロセンサー)134はHMD1の回転検出に用いられる。GPSセンサー135はGPS(Global Positioning System)を利用した測位検出に用いられる。温湿度センサー136は環境の温度、湿度の検出に用いられる。心拍数センサー137はユーザーの頬に接触し、ユーザーの心拍数を検出する。 The acceleration sensor 132 is used for detecting the inclination of the HMD 1. The geomagnetic sensor 133 is used for detecting the direction of the HMD 1. An angular velocity sensor (gyro sensor) 134 is used to detect rotation of the HMD 1. The GPS sensor 135 is used for positioning detection using GPS (Global Positioning System). The temperature / humidity sensor 136 is used to detect the temperature and humidity of the environment. The heart rate sensor 137 contacts the user's cheek and detects the user's heart rate.
図8は、本実施形態の処理部123の機能ブロック図である。
図8に示すように、処理部123は、入力検出部301、画像切替部302、送受信部303、線画生成部304、カーソル生成部305、アバター生成部306、アバター記憶部307、画像合成部308、位置算出部309(位置取得部)、及び音声調整部310(音声取得部、音声調整部)を備えている。なお、図8において、WiFi通信回路131、及び3G/LTE通信回路を総称して、通信インタフェース(131、138)を称する。
FIG. 8 is a functional block diagram of the processing unit 123 of the present embodiment.
As illustrated in FIG. 8, the processing unit 123 includes an input detection unit 301, an image switching unit 302, a transmission / reception unit 303, a line drawing generation unit 304, a cursor generation unit 305, an avatar generation unit 306, an avatar storage unit 307, and an image composition unit 308. , A position calculation unit 309 (position acquisition unit), and an audio adjustment unit 310 (audio acquisition unit, audio adjustment unit). In FIG. 8, the WiFi communication circuit 131 and the 3G / LTE communication circuit are collectively referred to as communication interfaces (131, 138).
入力検出部301は、タッチスイッチ34上で行われた操作の種類を判別し、判別した結果に基づく制御信号を、画像切替部302、送受信部303、及びアバター生成部306に出力する。タッチスイッチ34上で行われた操作の種類とは、発信の指示、受信の指示、カーソル表示の指示、線画表示の指示等である。入力検出部301は、タッチスイッチ34上の所定の領域がタッチされた場合、タッチされた領域に基づいて、これらの操作の種類を判別する。また、入力検出部301は、カーソル表示時、または線画表示時には、タッチスイッチ34上での指の動きを検出する。
入力検出部301は、カーソル表示の場合、指の動きに応じた位置を示す情報を、カーソル生成部305に出力する。入力検出部301は、線画表示の場合、指の動きに応じた位置を示す情報を、線画生成部304に出力する。
The input detection unit 301 determines the type of operation performed on the touch switch 34, and outputs a control signal based on the determined result to the image switching unit 302, the transmission / reception unit 303, and the avatar generation unit 306. The types of operations performed on the touch switch 34 are a transmission instruction, a reception instruction, a cursor display instruction, a line drawing display instruction, and the like. When a predetermined area on the touch switch 34 is touched, the input detection unit 301 determines the type of these operations based on the touched area. Further, the input detection unit 301 detects the movement of the finger on the touch switch 34 at the time of cursor display or line drawing display.
In the case of cursor display, the input detection unit 301 outputs information indicating a position corresponding to the finger movement to the cursor generation unit 305. In the case of line drawing display, the input detection unit 301 outputs information indicating the position according to the finger movement to the line drawing generation unit 304.
画像切替部302は、入力検出部301が出力した制御信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。画像切替部302は、送受信部303が出力した受信信号から画像切替信号を抽出する。画像切替部302は、画像切替信号が抽出できた場合、抽出した画像切替信号に基づき、フラッシュメモリー122から読み出した画像データ、またはエンコーダー129が出力した画像データを画像合成部308に出力する。また、画像切替部302は、入力検出部301が出力した制御信号に基づき、エンコーダー129から出力された画像データ、またはフラッシュメモリー122から読み出した画像データの解像度を変換し、変換した画像データを画像合成部308に出力する。 The image switching unit 302 outputs the image data read from the flash memory 122 or the image data output from the encoder 129 to the image composition unit 308 based on the control signal output from the input detection unit 301. The image switching unit 302 extracts an image switching signal from the reception signal output from the transmission / reception unit 303. When the image switching signal can be extracted, the image switching unit 302 outputs the image data read from the flash memory 122 or the image data output by the encoder 129 to the image composition unit 308 based on the extracted image switching signal. The image switching unit 302 converts the resolution of the image data output from the encoder 129 or the image data read from the flash memory 122 based on the control signal output from the input detection unit 301, and converts the converted image data into an image. The data is output to the combining unit 308.
送受信部303は、入力検出部301が出力した制御信号に基づき、画像合成部308が出力した画像データを、通信インタフェース(131、138)を介して送信する。送受信部303は、通信インタフェース(131、138)を介して受信した受信信号を、画像切替部302、線画生成部304、及びカーソル生成部305に出力する。 Based on the control signal output from the input detection unit 301, the transmission / reception unit 303 transmits the image data output from the image composition unit 308 via the communication interfaces (131, 138). The transmission / reception unit 303 outputs reception signals received via the communication interfaces (131, 138) to the image switching unit 302, the line drawing generation unit 304, and the cursor generation unit 305.
線画生成部304は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴う線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。線画生成部304は、送受信部303が出力した受信信号から線画データを抽出し、抽出した線画データを、画像合成部308に出力する。 The line drawing generation unit 304 generates line drawing data with a locus corresponding to the finger movement based on the information indicating the position corresponding to the finger movement output from the input detection unit 301. The line drawing generation unit 304 outputs the generated line drawing data to the image composition unit 308. The line drawing generation unit 304 extracts line drawing data from the reception signal output from the transmission / reception unit 303, and outputs the extracted line drawing data to the image composition unit 308.
カーソル生成部305は、入力検出部301が出力した指の動きに応じた位置を示す情報に基づき、指の動きに応じた軌跡を伴わないカーソル画像データを生成する。カーソル生成部305は、生成したカーソル画像データを、画像合成部308に出力する。カーソル生成部305は、送受信部303が出力した受信信号から位置情報を伴うカーソル画像データを抽出し、抽出したカーソル画像データを、画像合成部308に出力する。 The cursor generation unit 305 generates cursor image data without a locus corresponding to the finger movement based on the information indicating the position corresponding to the finger movement output from the input detection unit 301. The cursor generation unit 305 outputs the generated cursor image data to the image composition unit 308. The cursor generation unit 305 extracts cursor image data accompanied by position information from the reception signal output from the transmission / reception unit 303 and outputs the extracted cursor image data to the image composition unit 308.
アバター生成部306は、入力検出部301が出力した制御信号に基づき、HMD1のユーザーに対して予め設定されているアバター画像データを、アバター記憶部307から読み出す。アバター生成部306は、読み出したアバター画像データを、送受信部303に出力する。
アバター生成部306は、送受信部303が出力する受信信号から他のユーザーのアバターを示す情報を抽出する。アバター生成部306は、抽出した他のユーザーのアバターを示す情報に基づき、そのユーザーに対応するアバター画像データを、アバター記憶部307から読み出す。
なお、アバターとは、HMD1のユーザー、及びHMD1と送受信を行っているユーザーの顔等をイラスト化したものである。また、アバター画像データは、例えば、顔の外観、髪の毛、目、眉毛、鼻、口、耳等のパーツにより構成されているようにしてもよい。
The avatar generation unit 306 reads avatar image data set in advance for the user of the HMD 1 from the avatar storage unit 307 based on the control signal output from the input detection unit 301. The avatar generation unit 306 outputs the read avatar image data to the transmission / reception unit 303.
The avatar production | generation part 306 extracts the information which shows another user's avatar from the received signal which the transmission / reception part 303 outputs. The avatar generation unit 306 reads the avatar image data corresponding to the user from the avatar storage unit 307 based on the extracted information indicating the other user's avatar.
The avatar is an illustration of the face of the user of the HMD 1 and the user who is transmitting and receiving with the HMD 1. The avatar image data may be configured by parts such as the appearance of the face, hair, eyes, eyebrows, nose, mouth, ears, and the like.
アバター生成部306は、撮像素子72が撮像した画像、及び読み出したアバター画像データに基づいて、HMD1のユーザーに対するアバター(以下、HMD1のアバターという)の表情を生成する。なお、撮像素子72が撮像した画像とは、HMD1のユーザーの目、口を含んで撮像された画像である。例えば、アバター生成部306は、撮像素子72が撮像した画像を、周知の画像認識の技術を用いて、口が動いているか、目線が左右のどちらに向いているか等を抽出する。アバター生成部306は、アバター画像データの中から、例えば、目と口のパーツを、抽出した情報に基づいて、初期状態のパーツから変更する。なお、初期状態のパーツとは、例えば、目は、目線が正面を向いていて、口は閉じている。変更するパーツは、目線が左を向いているもの、目線が右を向いているもの、口元が開いているもの、等である。
なお、送受信部303から出力された受信信号に含まれている他の端末に対するアバター画像データには、他の端末により生成されたアバターの表情情報が含まれているようにしてもよい。あるいは、アバター生成部306は、送受信部303から出力された受信信号から、他の端末のユーザーの顔(含む目元、口元)を撮像した画像を抽出し、抽出した画像に基づいて、他の端末のユーザーに対するアバターの表情を示す情報を生成するようにしてもよい。
アバター生成部306は、生成したHMD1のアバター画像データ(アバターの表情を示す情報を含む)を、送受信部303に出力する。すなわち、HMD1のアバター画像データは、送受信部303、及び通信インタフェース(131、138)を介して、通話を行うユーザーの各端末に送信される。
The avatar generation unit 306 generates a facial expression of an avatar (hereinafter referred to as HMD1 avatar) for the HMD1 user based on the image captured by the image sensor 72 and the read avatar image data. Note that the image captured by the image sensor 72 is an image captured including the eyes and mouth of the user of the HMD 1. For example, the avatar generation unit 306 extracts an image captured by the image sensor 72 using a well-known image recognition technique, such as whether the mouth is moving or whether the line of sight is facing left or right. The avatar generation unit 306 changes the parts of the eyes and mouth from the parts in the initial state based on the extracted information, for example, from the avatar image data. In addition, the parts in the initial state are, for example, that the eyes are facing the front and the mouth is closed. The parts to be changed are those whose eyes are facing left, those whose eyes are facing right, those whose mouth is open, and the like.
In addition, you may make it the avatar image data with respect to the other terminal contained in the received signal output from the transmission / reception part 303 contain the expression information of the avatar produced | generated by the other terminal. Or the avatar production | generation part 306 extracts the image which imaged the user's face (including the eyes and mouth) of the user of another terminal from the received signal output from the transmission / reception part 303, and another terminal based on the extracted image Information indicating the expression of the avatar for the user may be generated.
The avatar generation unit 306 outputs the generated HMD1 avatar image data (including information indicating the expression of the avatar) to the transmission / reception unit 303. That is, the avatar image data of the HMD 1 is transmitted to each terminal of a user who makes a call via the transmission / reception unit 303 and the communication interfaces (131, 138).
アバター生成部306は、位置算出部309から出力された位置情報に基づいて、HMD1、及び他の端末のアバターの配置を算出する。例えば、アバター生成部306は、位置情報から経度に関する情報を抽出し、抽出した経度に関する情報に基づいて、HMD1に対して相対的に東にいるユーザーに対応するアバターを、表示パネル63の一番右に配置する。アバター生成部306は、このように、順次、経度を比較して、表示パネル63上に、右から順番に配置する。アバター生成部306は、このように配置した各アバターの位置情報、他の端末のアバター画像データを、画像合成部308に出力する。
また、アバター生成部306は、生成した各アバターの位置情報を音声調整部310に出力する。
The avatar generation unit 306 calculates the arrangement of the HMD 1 and avatars of other terminals based on the position information output from the position calculation unit 309. For example, the avatar generation unit 306 extracts information related to longitude from the position information, and based on the extracted information related to longitude, the avatar corresponding to the user who is east relative to the HMD 1 Place to the right. In this way, the avatar generation unit 306 sequentially compares the longitudes and arranges them on the display panel 63 in order from the right. The avatar production | generation part 306 outputs the positional information on each avatar arrange | positioned in this way, and the avatar image data of another terminal to the image synthetic | combination part 308. FIG.
In addition, the avatar generation unit 306 outputs the generated position information of each avatar to the audio adjustment unit 310.
アバター生成部306は、位置算出部309から出力された位置情報に基づいて、後述するように、HMD1のユーザーがいる環境を示す付加情報アイコンを生成する。また、アバター生成部306は、送受信部303から出力された位置情報に基づいて、後述するように、各端末のユーザーがいる環境を示す付加情報アイコンを生成する。なお、各端末のユーザーがいる環境とは、例えば、自宅、会社、海上、電車の中、等である。アバター生成部306は、生成したHMD1に対する付加情報アイコンを示す画像データを、送受信部303に出力する。すなわち、処理部123は、HMD1に対応する付加情報アイコンを示す画像データを、送受信部303、及び通信インタフェース(131、138)を介して、通話を行うユーザーの端末に送信する。
アバター生成部306は、各端末のユーザーに対応する付加情報アイコンを示す画像データを、画像合成部308に出力する。
また、アバター生成部306は、送受信部303から出力された受信信号から、他の端末を呼び出し中であるのか、他の端末が通話に参加しているのかを判別する。アバター生成部306は、判別した結果、他の端末を呼び出し中である場合、呼び出し中を示す画像情報を生成し、生成した呼び出し中を示す画像情報を、画像合成部308に出力する。
Based on the position information output from the position calculation unit 309, the avatar generation unit 306 generates an additional information icon indicating an environment where the user of the HMD 1 is present, as will be described later. In addition, the avatar generation unit 306 generates an additional information icon indicating the environment in which the user of each terminal exists, as will be described later, based on the position information output from the transmission / reception unit 303. The environment where the user of each terminal is present is, for example, a home, a company, the sea, a train, or the like. The avatar generation unit 306 outputs image data indicating the additional information icon for the generated HMD 1 to the transmission / reception unit 303. That is, the processing unit 123 transmits the image data indicating the additional information icon corresponding to the HMD1 to the terminal of the user who makes a call via the transmission / reception unit 303 and the communication interfaces (131, 138).
The avatar generation unit 306 outputs image data indicating the additional information icon corresponding to the user of each terminal to the image composition unit 308.
In addition, the avatar generation unit 306 determines from the received signal output from the transmission / reception unit 303 whether another terminal is being called or another terminal is participating in a call. If the result of the determination is that another terminal is being called, the avatar generation unit 306 generates image information indicating that the terminal is being called, and outputs the generated image information indicating that the call is being performed to the image composition unit 308.
アバター記憶部307には、例えば、予め複数のアバター画像データが記憶されている。 In the avatar storage unit 307, for example, a plurality of avatar image data is stored in advance.
画像合成部308には、画像切替部302が出力した画像データと、線画生成部304が出力した線画データが入力される。また、画像合成部308には、カーソル生成部305が出力した位置情報を伴うカーソル画像情報と、アバター生成部306が出力したアバター画像データ、及びアバター生成部306が出力したアバター付加情報が入力される。
画像合成部308は、入力されたこれらの画像データに基づき、画像を合成する。画像合成部308は、合成した画像を、送受信部303、ビデオコネクター27、及びLCDドライバ125に出力する。
The image composition unit 308 receives the image data output from the image switching unit 302 and the line drawing data output from the line drawing generation unit 304. Further, the image composition unit 308 receives the cursor image information with the position information output from the cursor generation unit 305, the avatar image data output from the avatar generation unit 306, and the avatar additional information output from the avatar generation unit 306. The
The image composition unit 308 synthesizes images based on these input image data. The image synthesis unit 308 outputs the synthesized image to the transmission / reception unit 303, the video connector 27, and the LCD driver 125.
位置算出部309は、各種センサー(加速度センサー132、地磁気センサー133、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137など)の出力に基づいて、HMD1が使用されている環境に関する情報である環境情報を生成する。位置算出部309は、生成した環境情報に基づいて、HMD1が使用されている位置情報を生成する。位置算出部309は、生成したHMD1の位置情報を、送受信部303、及びアバター生成部306に出力する。
位置算出部309は、送受信部303から出力された受信信号から、他の端末の環境情報を抽出し、抽出した環境情報に基づいて、他の端末が使用されている位置情報を生成する。
位置算出部309は、生成した他の端末が使用されている位置情報を、アバター生成部306に出力する。
The position calculation unit 309 relates to an environment in which the HMD 1 is used based on outputs from various sensors (acceleration sensor 132, geomagnetic sensor 133, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137, etc.). Environment information that is information is generated. The position calculation unit 309 generates position information where the HMD 1 is used based on the generated environment information. The position calculation unit 309 outputs the generated position information of the HMD 1 to the transmission / reception unit 303 and the avatar generation unit 306.
The position calculation unit 309 extracts environment information of another terminal from the reception signal output from the transmission / reception unit 303, and generates position information where the other terminal is used based on the extracted environment information.
The position calculation unit 309 outputs position information where the generated other terminal is used to the avatar generation unit 306.
音声調整部310には、エンコーダー129が出力する音声データ(HMD1のユーザーの音声データ、以下、HMD1の音声データともいう)、送受信部303が出力する受信信号、及びアバター生成部306が出力する各アバターの位置情報が入力される。音声調整部310は、送受信部303が出力する受信信号から、他の端末のユーザーの音声データ(以下、他端末の音声データともいう)を抽出する。音声調整部310は、アバター生成部306が出力する各アバターの位置情報に基づいて、HMD1の音声データ、他端末の音声データに基づく音声を、左右どちらのスピーカーに出力するのか、左右のスピーカーの各音量等を調整する。例えば、2人で通話している場合、一方のユーザー(HMD1のユーザー)の方が、東に位置している場合、音声調整部310は、右のスピーカーから、HMD1の音声を再生するように音声信号を調整する。他方のユーザー(他の端末のユーザー)の方が、西に位置している場合、音声調整部310は、左のスピーカーから、他端末のユーザーの音声を再生するように音声信号を調整する。すなわち、本実施形態においては、アバターの表示位置のみではなく、音声の再生も、ユーザーの位置関係に基づいて調整している。
また、音声調整部310は、各端末の位置関係に応じて、音量を調整するようにしてもよい。例えば、3人で通話していて、1人のみ遠方にいる場合、音声調整部310は、遠方にいるユーザーの音声信号を、近くにいるユーザーの音声信号より小さい音量で再生する。この結果、ステレオイヤホン100で音声を聞いているユーザーには、通話している各ユーザーの位置関係が、音声によっても知覚することが可能になる。
The audio adjustment unit 310 outputs audio data output from the encoder 129 (HMD1 user audio data, hereinafter also referred to as HMD1 audio data), a reception signal output from the transmission / reception unit 303, and an avatar generation unit 306 Avatar position information is input. The voice adjustment unit 310 extracts the voice data of the user of the other terminal (hereinafter also referred to as voice data of the other terminal) from the reception signal output from the transmission / reception unit 303. Based on the position information of each avatar output from the avatar generation unit 306, the audio adjustment unit 310 outputs the audio based on the audio data of the HMD1 and the audio data of other terminals to the left and right speakers, Adjust each volume. For example, when two people are talking, when one user (HMD1 user) is located in the east, the audio adjustment unit 310 reproduces the HMD1 audio from the right speaker. Adjust the audio signal. When the other user (user of another terminal) is located in the west, the audio adjustment unit 310 adjusts the audio signal so as to reproduce the audio of the user of the other terminal from the left speaker. That is, in this embodiment, not only the display position of the avatar but also the reproduction of the sound is adjusted based on the positional relationship of the user.
Further, the audio adjustment unit 310 may adjust the volume according to the positional relationship between the terminals. For example, when three people are talking and only one person is far away, the sound adjustment unit 310 reproduces the sound signal of the user who is far away at a volume smaller than the sound signal of the user who is near. As a result, it becomes possible for the user who is listening to the sound with the stereo earphone 100 to perceive the positional relationship of each user who is making a call even with the sound.
次に、HMD1が、他のユーザーが使用しているヘッドマウントディスプレイ500(以下、HMD500という)、PC210、及びPC220と通信を行う場合の手順について説明する。
図9は、本実施形態に係るHMD1を含む通信システムのシステム構成図である。図10から図20は、本実施形態に係る処理手順の一例を示すフローチャートである。
Next, a procedure when the HMD 1 communicates with the head mounted display 500 (hereinafter referred to as the HMD 500), the PC 210, and the PC 220 used by other users will be described.
FIG. 9 is a system configuration diagram of a communication system including the HMD 1 according to the present embodiment. 10 to 20 are flowcharts illustrating an example of a processing procedure according to the present embodiment.
図9に示すように、通信システムは、HMD1、HMD500、PC210、PC220、及びサーバー200から構成される。HMD1、HMD500、PC210、PC220、及びサーバー200は、ネットワーク230に接続されている。ネットワーク230は、無線LAN(Local Area Network)、3G回線、LTE回線等を介して接続されているインターネットなどのネットワークである。 As illustrated in FIG. 9, the communication system includes an HMD 1, an HMD 500, a PC 210, a PC 220, and a server 200. The HMD 1, HMD 500, PC 210, PC 220, and server 200 are connected to the network 230. The network 230 is a network such as the Internet connected via a wireless LAN (Local Area Network), a 3G line, an LTE line, or the like.
図9において、HMD1は、図7で説明した構成であるが、処理手順を説明する上で必要な機能部のみを示している。なお、HMD1の表示パネル63を、以後、LCD63という。
HMD500は、図9に示すように、主にフラッシュメモリー522、処理部523、通信インタフェース(531、538)、地磁気センサー533、タッチスイッチ534、表示パネル(表示部)563(以後、LCD563という)、カメラ564を備えている。HMD500の各機能部は、HMD1の各機能部と同等である。
In FIG. 9, the HMD 1 has the configuration described in FIG. 7, but shows only functional units necessary for explaining the processing procedure. The display panel 63 of the HMD 1 is hereinafter referred to as an LCD 63.
As shown in FIG. 9, the HMD 500 mainly includes a flash memory 522, a processing unit 523, communication interfaces (531, 538), a geomagnetic sensor 533, a touch switch 534, a display panel (display unit) 563 (hereinafter referred to as an LCD 563), A camera 564 is provided. Each function part of HMD500 is equivalent to each function part of HMD1.
次に、サーバー200の構成について説明する。
図9に示すように、サーバー200は、処理部201、記憶部202、及び通信インタフェース203を備えている。
Next, the configuration of the server 200 will be described.
As illustrated in FIG. 9, the server 200 includes a processing unit 201, a storage unit 202, and a communication interface 203.
サーバー200の処理部201は、各端末(HMD1、HMD500、PC210、及びPC220)から通信インタフェース203を介して受信した画像データ(動画、静止画、線画等)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録を、記憶部202に記録する。処理部201は、各端末の要求に応じて、記憶部202に記録してある画像データを読み出し、読み出した画像データを、各端末に送信する。 The processing unit 201 of the server 200 includes image data (moving image, still image, line drawing, etc.) received from each terminal (HMD1, HMD500, PC210, and PC220) via the communication interface 203, audio data, environment information of each terminal, In addition, communication records such as requests from each terminal are recorded in the storage unit 202. The processing unit 201 reads image data recorded in the storage unit 202 in response to a request from each terminal, and transmits the read image data to each terminal.
記憶部202には、各端末から受信した画像データ(動画、静止画)、音声データ、各端末の環境情報、及び各端末からの要求等の通信記録が記録されている。
通信インタフェース203は、例えば、WiFi通信回路、3G通信回路、LTE通信回路、有線LAN回路等を備えている。
The storage unit 202 stores communication records such as image data (moving images and still images) received from each terminal, audio data, environment information of each terminal, and requests from each terminal.
The communication interface 203 includes, for example, a WiFi communication circuit, a 3G communication circuit, an LTE communication circuit, a wired LAN circuit, and the like.
次に、PC210及びPC220の構成について説明する。PC210及びPC220は、例えば、パーソナルコンピュータである。
PC210は、処理部211、記憶部212、通信インタフェース213、入力部214、表示部215、及びカメラ216を備えている。
PC220は、処理部221、記憶部222、通信インタフェース223、入力部224、表示部225、及びカメラ226を備えている。PC220の各機能部は、PC210の各機能部と同等である。
Next, the configuration of the PC 210 and the PC 220 will be described. The PC 210 and the PC 220 are, for example, personal computers.
The PC 210 includes a processing unit 211, a storage unit 212, a communication interface 213, an input unit 214, a display unit 215, and a camera 216.
The PC 220 includes a processing unit 221, a storage unit 222, a communication interface 223, an input unit 224, a display unit 225, and a camera 226. Each functional unit of the PC 220 is equivalent to each functional unit of the PC 210.
PC210の処理部211は、CPU(中央演算装置)及びGPU(Graphics Processing Unit)等である。処理部211は、通信インタフェース213、入力部214、表示部215、及びカメラ216を制御する。処理部211は、記憶部212に記憶されている画像データ、通信インタフェース213を介して取得した画像データ、カメラ216で撮像された画像データを、後述するように通信インタフェース213介して取得した画像切替信号に基づいて切り替える。処理部211は、切り替えた画像データを通信インタフェース213及びネットワーク230に出力する。処理部211は、記憶部212に記憶されているPC210に対応付けて記憶されているアバター画像データと、通信インタフェース223を介して取得した他の装置のアバター画像データ、および画像切替信号に基づいて切り替えた画像データを合成する。処理部211は、合成した画像データを表示部215に出力する。処理部211は、入力部214の操作に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。処理部211は、通信インタフェース213を介して取得した受信情報に基づき、表示部215上に、カーソル画像、または線画画像を表示するように制御する。
なお、以下、各装置に対応したアバターを、例えば、PC210のアバターという。
The processing unit 211 of the PC 210 is a CPU (Central Processing Unit), a GPU (Graphics Processing Unit), or the like. The processing unit 211 controls the communication interface 213, the input unit 214, the display unit 215, and the camera 216. The processing unit 211 switches the image data stored in the storage unit 212, the image data acquired through the communication interface 213, and the image data captured by the camera 216 through the communication interface 213 as will be described later. Switch based on signal. The processing unit 211 outputs the switched image data to the communication interface 213 and the network 230. The processing unit 211 is based on the avatar image data stored in association with the PC 210 stored in the storage unit 212, the avatar image data of other devices acquired through the communication interface 223, and the image switching signal. Synthesize the switched image data. The processing unit 211 outputs the combined image data to the display unit 215. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the operation of the input unit 214. The processing unit 211 controls to display a cursor image or a line drawing image on the display unit 215 based on the reception information acquired via the communication interface 213.
Hereinafter, an avatar corresponding to each device is referred to as an avatar of the PC 210, for example.
記憶部212は、例えば、メモリー、HDD(ハードディスク)である。記憶部212には、PC210のOS(オペレーション・システム)、HMD1、HMD500及びPC220と通話を行うためのアプリケーション、PC210のユーザーに対して予め設定されているアバター画像データ等が記憶されている。 The storage unit 212 is, for example, a memory or an HDD (hard disk). The storage unit 212 stores an OS (operation system) of the PC 210, an application for making a call with the HMD1, the HMD 500, and the PC 220, avatar image data set in advance for the user of the PC 210, and the like.
通信インタフェース213は、例えば、無線LAN、または有線LAN、3G回線、LTE回線等の通信を行うインタフェースである。通信インタフェース213は、ネットワーク230を介して受信した情報を処理部211に出力する。通信インタフェース213は、処理部211が出力した情報を、ネットワーク230を介して、HMD1、HMD500、PC220、及びサーバー200に送信する。 The communication interface 213 is an interface that performs communication such as a wireless LAN, a wired LAN, a 3G line, an LTE line, or the like. The communication interface 213 outputs information received via the network 230 to the processing unit 211. The communication interface 213 transmits information output from the processing unit 211 to the HMD 1, the HMD 500, the PC 220, and the server 200 via the network 230.
入力部214は、例えば、キーボード、マウス、タブレットと操作ペン等である。入力部214は、入力された情報を、処理部211に出力する。なお、表示部215がタッチパネル機能を有する場合、表示部215は入力部214の機能を兼ねるようにしてもよい。 The input unit 214 is, for example, a keyboard, a mouse, a tablet, and an operation pen. The input unit 214 outputs the input information to the processing unit 211. Note that when the display unit 215 has a touch panel function, the display unit 215 may also function as the input unit 214.
表示部215は、処理部211が出力した画像データに基づく画像を表示する。
一例として、表示部215には、HMD1が撮像した画像、HMD1のアバター、HMD500のアバター、PC220のアバター、PC210の入力部214の操作に応じた線画画像が合成されて表示される。
The display unit 215 displays an image based on the image data output from the processing unit 211.
As an example, the image captured by the HMD 1, the avatar of the HMD 1, the avatar of the HMD 500, the avatar of the PC 220, and the line drawing image corresponding to the operation of the input unit 214 of the PC 210 are combined and displayed on the display unit 215.
カメラ216は、例えば500万画素〜1000万画素の撮像素子を有するCMOS(相補型金属酸化膜半導体)またはCCD(Charge Coupled Device)である。 The camera 216 is, for example, a CMOS (Complementary Metal Oxide Semiconductor) or a CCD (Charge Coupled Device) having an image sensor with 5 to 10 million pixels.
次にHMD1、HMD500、PC210、及びPC220間で行う通話手順について説明する。なお、図9〜図19の処理において、各端末(HMD1、HMD500、PC210、PC220、及びサーバー200)は、各々の通信インタフェース(131、138、531、538、213、223、及び203)とネットワーク230を介して、通話を行う。 Next, a call procedure performed between the HMD1, the HMD500, the PC 210, and the PC 220 will be described. 9 to 19, each terminal (HMD1, HMD500, PC210, PC220, and server 200) has a communication interface (131, 138, 531, 538, 213, 223, and 203) and a network. A call is made via 230.
まず、HMD1から他の端末に発信する手順について説明する。
(ステップS1)図10に示すように、HMD1のユーザーは、HMD500、PC210、PC220と通話を行うため、HMD1のタッチスイッチ34を操作する。HMD1の処理部123は、タッチスイッチ34が出力した制御信号に基づき、HMD500、PC210、PC220に通話を開始することを示す発信操作を行う。
First, a procedure for making a call from the HMD 1 to another terminal will be described.
(Step S1) As shown in FIG. 10, the user of the HMD1 operates the touch switch 34 of the HMD1 to make a call with the HMD500, the PC210, and the PC220. Based on the control signal output from the touch switch 34, the processing unit 123 of the HMD 1 performs a call operation indicating that a call is started to the HMD 500, the PC 210, and the PC 220.
(ステップS2)HMD1の処理部123は、HMD1のアバター、HMD500のアバター、PC210のアバター、及びPC220のアバターに、アバター付加情報を付加して、LCD63に表示する。
なお、HMD1のLCD63に表示される画像は、受信した映像と、アバター(含むアバター付加情報)とが、別のレイヤー(層)に表示される。
(Step S2) The processing unit 123 of the HMD 1 adds the avatar additional information to the avatar of the HMD 1, the avatar of the HMD 500, the avatar of the PC 210, and the avatar of the PC 220, and displays them on the LCD 63.
In the image displayed on the LCD 63 of the HMD 1, the received video and the avatar (including avatar additional information) are displayed on different layers.
具体的には、処理部123のアバター生成部306は、HMD1のアバター画像データ、HMD500のアバター画像データ、PC210のアバター画像データ、及びPC220のアバター画像データを、アバター記憶部307から読み出す。次に、アバター生成部306は、送受信部303が出力する受信信号に基づき、HMD500、PC210、及びPC220の各端末に対する呼び出し中の画像情報を生成する。次に、アバター生成部306は、読み出した各アバター画像データ、及び生成した呼び出し中の画像情報を関連付けて画像合成部308に出力する。次に、画像合成部308は、アバター生成部306が出力した画像データを、LCDドライバ125を介して、LCD63に表示する。すなわち、HMD1のLCD63には、HMD1のアバター、HMD500のアバターと呼び出し中の画像、PC210のアバターと呼び出し中の画像(呼び出しマーク)、及びPC220のアバターと呼び出し中の画像が表示される。
なお、表示されるアバターは、予めHMD1のユーザーが設定されたもの、もしくはデフォルトであらかじめ設定されたものである。
以下の処理においても、アバター及び、アバター付加情報の表示を処理部123の各部が行う。
Specifically, the avatar generation unit 306 of the processing unit 123 reads the avatar image data of the HMD1, the avatar image data of the HMD500, the avatar image data of the PC 210, and the avatar image data of the PC 220 from the avatar storage unit 307. Next, the avatar generation unit 306 generates image information being called for each terminal of the HMD 500, the PC 210, and the PC 220 based on the reception signal output from the transmission / reception unit 303. Next, the avatar generation unit 306 associates each read avatar image data with the generated image information being called and outputs the image information to the image composition unit 308. Next, the image composition unit 308 displays the image data output from the avatar generation unit 306 on the LCD 63 via the LCD driver 125. That is, the HMD 1 avatar, the HMD 500 avatar and the calling image, the PC 210 avatar and the calling image (calling mark), and the PC 220 avatar and the calling image are displayed on the LCD 63 of the HMD 1.
The displayed avatar is set in advance by the user of the HMD 1 or set in advance by default.
Also in the following process, each part of the process part 123 performs display of an avatar and avatar additional information.
次に、HMD500の処理部523は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部523は、抽出した呼び出し情報に基づき、処理部523の記憶部からHMD1のアバター画像データを読み出す。次に、処理部221は、抽出した呼び出し情報に基づき、呼び出し中の画像情報を生成する。次に、処理部523は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中の画像情報に基づく画像を、LCD563に表示する。 Next, the processing unit 523 of the HMD 500 extracts call information from the received reception signal. Next, the processing unit 523 reads the avatar image data of the HMD 1 from the storage unit of the processing unit 523 based on the extracted call information. Next, the processing unit 221 generates image information being called based on the extracted call information. Next, the processing unit 523 displays an image based on the read avatar image data of the HMD 1 and the generated image information being called on the LCD 563.
次に、PC210の処理部211は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部211は、抽出した呼び出し情報に基づき、記憶部212からHMD1のアバター画像データを読み出す。次に、処理部211は、抽出した呼び出し情報に基づき、呼び出し中を示す画像情報を生成する。次に、処理部211は、読み出したHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部215に表示する。
次に、PC220の処理部221は、PC210と同様の処理を行い、記憶部222から読み出たHMD1のアバター画像データ、及び生成した呼び出し中を示す画像情報に基づく画像を、表示部225に表示する。
Next, the processing unit 211 of the PC 210 extracts call information from the received reception signal. Next, the processing unit 211 reads the avatar image data of the HMD 1 from the storage unit 212 based on the extracted call information. Next, the processing unit 211 generates image information indicating that a call is in progress based on the extracted call information. Next, the processing unit 211 displays on the display unit 215 an image based on the read avatar image data of the HMD 1 and the generated image information indicating that the call is in progress.
Next, the processing unit 221 of the PC 220 performs processing similar to that of the PC 210 and displays on the display unit 225 an image based on the avatar image data of the HMD 1 read from the storage unit 222 and the generated image information indicating that the call is in progress. To do.
次に、サーバー200の処理部201は、受信した受信信号から、呼び出し情報を抽出する。次に、処理部201は、抽出した呼び出し情報に基づき、HMD1からの呼び出しがあったことを示す呼び出し情報を、例えば時刻情報と関連付けて、記憶部202に記録する。 Next, the processing unit 201 of the server 200 extracts call information from the received reception signal. Next, based on the extracted call information, the processing unit 201 records call information indicating that there is a call from the HMD 1 in the storage unit 202 in association with, for example, time information.
(ステップS3)HMD1の処理部123は、カメラ64が撮像した映像(動画)をLCD63に表示するように制御する。 (Step S <b> 3) The processing unit 123 of the HMD 1 controls to display the video (moving image) captured by the camera 64 on the LCD 63.
(ステップS4)PC210のユーザーは、表示部215に表示された呼び出し中を示す画像を確認し、入力部214を操作して、通話に参加する。PC210の処理部211は、入力部214から入力された情報に基づき、通話に参加することを示す情報(以下、通話参加情報という)を、HMD1、HMD500、PC220、及びサーバー200に送信する。次に、処理部211は、表示部215上に、HMD1のアバター、及びPC210のアバターを表示する。 (Step S <b> 4) The user of the PC 210 confirms the image indicating that the calling is displayed on the display unit 215 and operates the input unit 214 to participate in the call. Based on the information input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating participation in the call (hereinafter referred to as call participation information) to the HMD1, the HMD 500, the PC 220, and the server 200. Next, the processing unit 211 displays the avatar of the HMD 1 and the avatar of the PC 210 on the display unit 215.
(ステップS5)HMD1の処理部123は、PC210から受信した通話参加情報に基づき、PC210に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、サーバー200の処理部201は、PC210から受信した通話参加情報に基づき、PC210が通話に参加していることを示す情報を記憶部202に記録する。
(Step S <b> 5) Based on the call participation information received from the PC 210, the processing unit 123 of the HMD 1 deletes from the LCD 63 image information indicating that the PC 210 is being called.
Next, the processing unit 201 of the server 200 records information indicating that the PC 210 is participating in a call in the storage unit 202 based on the call participation information received from the PC 210.
(ステップS6)HMD500のユーザーは、LCD563に表示された呼び出し中を示す画像を確認し、タッチスイッチ534を操作して、通話に参加する。なお、この状態において、LCD563上には、HMD1のアバター、及びHMD500のアバターが表示されている。次に、HMD500の処理部523は、タッチスイッチ534から出力された制御信号に基づき、通話参加情報を、HMD1、PC210、及びサーバー200に送信する。 (Step S6) The user of the HMD 500 confirms the image indicating that the call is being displayed displayed on the LCD 563, operates the touch switch 534, and participates in the call. In this state, the avatar of HMD1 and the avatar of HMD500 are displayed on the LCD 563. Next, the processing unit 523 of the HMD 500 transmits call participation information to the HMD 1, the PC 210, and the server 200 based on the control signal output from the touch switch 534.
(ステップS7)HMD500の処理部523は、LCD563にPC210のアバターを追加して表示する。
次に、HMD1の処理部123は、HMD500から受信した通話参加情報に基づき、HMD500に対する呼び出し中であることを示す画像情報を、LCD63から消去する。
次に、PC210の処理部211は、HMD500から受信した通話参加情報に基づき、HMD500のアバターを表示部215に表示する。
次に、サーバー200の処理部201は、HMD500から受信した通話参加情報に基づき、HMD500が通話に参加していることを示す情報を記憶部202に記録する。
なお、アバターの表示、及び、音声信号の再生については、後述する。
(Step S7) The processing unit 523 of the HMD 500 adds and displays the avatar of the PC 210 on the LCD 563.
Next, based on the call participation information received from the HMD 500, the processing unit 123 of the HMD 1 erases from the LCD 63 image information indicating that the HMD 500 is being called.
Next, the processing unit 211 of the PC 210 displays the avatar of the HMD 500 on the display unit 215 based on the call participation information received from the HMD 500.
Next, the processing unit 201 of the server 200 records information indicating that the HMD 500 is participating in a call in the storage unit 202 based on the call participation information received from the HMD 500.
The display of the avatar and the reproduction of the audio signal will be described later.
次に、HMD1によって撮影された映像を、他の端末に送信する手順を説明する。
(ステップS8)HMD1のユーザーは、カメラ64が撮像した映像を他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、送信される映像は、初期状態において低解像度に予め設定されている。低解像度とは、例えば、横が320画素、縦が240画素、1秒あたり30フレームである。なお、低解像度の映像を送信する理由は、限られた、通信インフラの整わない、転送速度の遅いネットワーク環境においても、HMD1のユーザーの首の動きによる映像のブレ等があっても、ある程度追従する画像を送信するためである。
Next, a procedure for transmitting video captured by the HMD 1 to another terminal will be described.
(Step S8) The user of the HMD 1 touches a predetermined area of the touch switch 34 in order to transmit the video captured by the camera 64 to another terminal. The transmitted video is preset to a low resolution in the initial state. The low resolution is, for example, 320 pixels horizontally, 240 pixels vertically, and 30 frames per second. The reason for transmitting low-resolution video is to some extent, even in the limited network environment where the communication infrastructure is not established and the transfer speed is slow, even if there is blurring of the video due to the movement of the neck of the user of HMD1. This is because an image to be transmitted is transmitted.
(ステップS9)図11に移って、HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した画像を低解像度に変換する。処理部123は、変換した低解像度の映像信号、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、及びサーバー200に送信する。 (Step S <b> 9) Moving to FIG. 11, the image switching unit 302 of the processing unit 123 of the HMD 1 converts the image captured by the camera 64 into a low resolution based on the control signal input from the touch switch 34. The processing unit 123 transmits the converted low-resolution video signal and HMD1 environment information to the HMD 500, the PC 210, and the server 200 participating in the call.
(ステップS10)各端末(HMD500、及びPC210)の各処理部(523、及び211)は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。各処理部は、算出した方位と、HMD1から受信した映像信号を、LCD563、表示部215に表示する。
サーバー200の処理部201は、HMD1から受信した環境情報に基づき、HMD1のカメラ64が向いている方向(方位)を算出する。処理部201は、算出した方位と、HMD1から受信した映像データを記憶部202に記録する。
(Step S10) Each processing unit (523 and 211) of each terminal (HMD500 and PC210) calculates the direction (azimuth) in which the camera 64 of the HMD1 is facing based on the environment information received from the HMD1. Each processing unit displays the calculated azimuth and the video signal received from the HMD 1 on the LCD 563 and the display unit 215.
The processing unit 201 of the server 200 calculates a direction (azimuth) in which the camera 64 of the HMD 1 is facing based on the environment information received from the HMD 1. The processing unit 201 records the calculated orientation and the video data received from the HMD 1 in the storage unit 202.
(ステップS11)端末HMD1の処理部123は、ステップS4及びS6の通話参加情報に基づき、PC210、及びHMD500との3者通話を開始する。
次に、HMD500の処理部523は、ステップS1、及びS4に基づき、HMD1、及びPC210との3者通話を開始する。
次に、PC210の処理部211は、ステップS1、及びS6に基づき、HMD1、及びHMD500との3者通話を開始する。
次に、サーバー200の処理部201は、ステップS1、S4、及びS6に基づき、3者通話の内容(音声データ、映像データ)の記録を開始する。
(Step S11) The processing unit 123 of the terminal HMD1 starts a three-party call with the PC 210 and the HMD 500 based on the call participation information in steps S4 and S6.
Next, the processing unit 523 of the HMD 500 starts a three-party call with the HMD 1 and the PC 210 based on Steps S1 and S4.
Next, the processing unit 211 of the PC 210 starts a three-party call with the HMD 1 and the HMD 500 based on Steps S1 and S6.
Next, the processing unit 201 of the server 200 starts recording the contents (voice data, video data) of the three-party call based on steps S1, S4, and S6.
(ステップS12)HMD1のユーザーは、カメラ64で撮像された映像の特定の箇所を、通話に参加しているユーザーに示すために、タッチスイッチ34上で予め定められている指の動作(第3操作)を行う。なお、タッチスイッチ34を操作する代わりに、HMD1のユーザーは、例えば2回続けて瞬ききをしても良い。このことはHMD1の撮像素子72によって検出され、タッチスイッチ34への操作と同等として処理される。 (Step S12) The user of the HMD 1 performs a predetermined finger operation on the touch switch 34 (third) in order to indicate a specific part of the image captured by the camera 64 to the user participating in the call. Operation). Instead of operating the touch switch 34, the user of the HMD 1 may blink twice, for example. This is detected by the image sensor 72 of the HMD 1 and processed as being equivalent to an operation on the touch switch 34.
(ステップS13)HMD1の処理部123の画像切替部302は、タッチスイッチ34から入力された制御信号に基づき、カメラ64が撮像した映像信号を中解像度に変換する。
次に、処理部123は、変換した中解像度の映像データ、及び環境情報を通話に参加しているHMD500、PC210、及びサーバー200に送信する。なお、中解像度の映像とは、例えば、横が800画素、縦が600画素である。中解像度の映像を送信する場合、HMD1のユーザーは、他の端末のユーザーに対して、映像を送信することを目的としているため、HMDを装着しているユーザーの首の動きが少なく、すなわち、カメラ64のブレが少ない。このため、処理部123は、ステップS9で設定した低解像度から解像度を中解像度に上げて、他のユーザーが見やすい映像を送信することを目的として、中解像度の映像に切り替える。
(Step S13) The image switching unit 302 of the processing unit 123 of the HMD 1 converts the video signal captured by the camera 64 into a medium resolution based on the control signal input from the touch switch 34.
Next, the processing unit 123 transmits the converted medium resolution video data and environment information to the HMD 500, the PC 210, and the server 200 participating in the call. The medium-resolution video is, for example, 800 pixels in the horizontal direction and 600 pixels in the vertical direction. When transmitting a medium-resolution video, the user of the HMD 1 aims to transmit the video to the user of another terminal, and therefore, the movement of the neck of the user wearing the HMD is small. There is little blur of the camera 64. For this reason, the processing unit 123 switches to the medium resolution video for the purpose of increasing the resolution from the low resolution set in step S9 to the medium resolution and transmitting a video that is easy for other users to view.
なお、通信インフラの環境が悪く、解像度を横が800画素、縦が600画素、30フレーム/秒で送信するだけの通信速度の確保が難しい場合、処理部123は、カメラのブレが少ないと判断されるこの状況において、フレームレートを落とし、例えば8フレーム/秒としてもよい。
また、HMD1の角速度センサー134によって使用者の首の回転が大きいと判断される場合、処理部123は、首の回転による映像の流れに追従するためにフレームレートを30フレーム/秒に保持すると共に、解像度を横が320画素、縦が240画素として送信するようにしてもよい。
If the communication infrastructure environment is poor and it is difficult to secure a communication speed sufficient to transmit at a resolution of 800 pixels in the horizontal direction, 600 pixels in the vertical direction, and 30 frames / second, the processing unit 123 determines that there is little camera shake. In this situation, the frame rate may be decreased, for example, 8 frames / second.
When the angular velocity sensor 134 of the HMD 1 determines that the user's neck rotation is large, the processing unit 123 holds the frame rate at 30 frames / second in order to follow the flow of the image due to the neck rotation. The resolution may be transmitted with 320 pixels in the horizontal direction and 240 pixels in the vertical direction.
(ステップS14)HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、ユーザーの指の動きに合わせて、図22に示すような水色のカーソル410の画像を、LCD63に表示する。なお、各端末(HMD1、HMD500、及びPC210)のLCD(63、563)、表示部215に表示される画像は、受信した映像と、カーソル画像とが、別のレイヤー(層)に表示、及び記録される。 (Step S14) Based on the control signal input from the touch switch 34, the processing unit 123 of the HMD 1 displays an image of a light blue cursor 410 as shown in FIG. To do. The images displayed on the LCD (63, 563) and the display unit 215 of each terminal (HMD1, HMD500, and PC210) are the received video and the cursor image displayed on different layers, and To be recorded.
具体的には、処理部123のカーソル生成部305は、入力検出部301から出力された制御信号に基づいて、カーソル画像データ、及びカーソル位置情報を生成する。カーソル生成部305は、生成したカーソル画像データ、及びカーソル位置情報を、画像合成部308に出力する。画像合成部308は、入力されたカーソル画像データ、及びカーソル位置情報に基づいて、カメラ64が撮像した画像、または通信インタフェース(131、138)を介して他の端末から受信した画像に、カーソルの画像を重畳して、重畳した画像をLCD63に表示する。
以下の処理においても、カーソル画像の表示を処理部123の各部が行う。
Specifically, the cursor generation unit 305 of the processing unit 123 generates cursor image data and cursor position information based on the control signal output from the input detection unit 301. The cursor generation unit 305 outputs the generated cursor image data and cursor position information to the image composition unit 308. Based on the input cursor image data and the cursor position information, the image composition unit 308 converts the cursor into an image captured by the camera 64 or an image received from another terminal via the communication interface (131, 138). The superimposed images are displayed on the LCD 63.
Also in the following processing, each part of the processing unit 123 displays a cursor image.
図21は、本実施形態に係るLCDまたは表示部に表示される画像の構成の一例を説明する図である。図21に示した例では、レイヤー1(800A)には、受信または送信している画像(映像、または静止画)が表示される。レイヤー2(800B)には、アバターが表示される。レイヤー3(800C)には、HMD1によるカーソル画像が表示され、レイヤー4(800D)には、HMD500による線画が表示され、レイヤー5(800E)には、PC210による線画が表示される。また、各端末(含むサーバー)のフラッシュメモリー(122、522)、記憶部(212、221、及び202)にも、画像は、図21に示したレイヤー構成の画像が、記録される。なお、図21に示したレイヤーの例は一例であり、レイヤーの順番は、この順でなくてもよく、例えば、操作された順にレイヤーに表示するようにしてもよい。 FIG. 21 is a diagram illustrating an example of a configuration of an image displayed on the LCD or the display unit according to the present embodiment. In the example shown in FIG. 21, an image (video or still image) being received or transmitted is displayed on layer 1 (800A). An avatar is displayed on layer 2 (800B). A cursor image by the HMD 1 is displayed on the layer 3 (800C), a line drawing by the HMD 500 is displayed on the layer 4 (800D), and a line drawing by the PC 210 is displayed on the layer 5 (800E). In addition, the images having the layer configuration shown in FIG. 21 are also recorded in the flash memories (122, 522) and the storage units (212, 221 and 202) of each terminal (including server). Note that the example of the layer illustrated in FIG. 21 is an example, and the order of the layers may not be in this order. For example, the layers may be displayed in the order in which they are operated.
図22は、本実施形態に係るカーソルが表示された画像の一例である。図22に示すように、例えば、各端末(HMD1、HMD500、PC210、及びPC220)のLCD(63、563)、表示部(215、225)には、画像400aにおいて、指が指し示している形状のカーソル410が表示される。なお、カーソルの形状は、一例であり、他の形状であってもよい。図22に示した例では、HMD1のユーザーは、画像400a中、値札411を、カーソル410で、指し示している状態である。
なお、HMD1から送信されている画像が動画であるため、HMD1のユーザーが首を動かしてしまうと、送信している映像もずれる。このため、HMD1のユーザーは、カーソルの指し示す位置を変えるために、カーソルの位置を変える場合もある。このため、各装置のLCD、及び表示部に、軌跡の残らないカーソルを表示する。
なお、カーソルの色は、端末毎に、予め定めておくようにしてもよい。本実施例では、HMD1のカーソルが水色、PC210のカーソルが緑、HMD500のカーソルが青に定められている。このように各端末に応じて、カーソルが色分けされるので、コミュニケーションにおけるミスが発生しにくいようになっている。
FIG. 22 is an example of an image on which a cursor according to the present embodiment is displayed. As shown in FIG. 22, for example, the LCD (63, 563) and the display unit (215, 225) of each terminal (HMD1, HMD500, PC210, and PC220) have a shape indicated by a finger in the image 400a. A cursor 410 is displayed. Note that the shape of the cursor is an example, and other shapes may be used. In the example illustrated in FIG. 22, the user of the HMD 1 is in a state of pointing the price tag 411 with the cursor 410 in the image 400 a.
In addition, since the image transmitted from HMD1 is a moving image, if the user of HMD1 moves the neck, the image | video currently transmitted will also shift. For this reason, the user of the HMD 1 may change the position of the cursor in order to change the position indicated by the cursor. For this reason, a cursor having no trace is displayed on the LCD and the display unit of each device.
Note that the color of the cursor may be determined in advance for each terminal. In this embodiment, the HMD1 cursor is light blue, the PC210 cursor is green, and the HMD500 cursor is blue. In this way, the cursor is color-coded according to each terminal, so that mistakes in communication are less likely to occur.
次に、処理部123は、カーソルを表示する位置情報、カーソルの色情報を、HMD500、PC210、及びサーバー200に送信する。
次に、HMD500の処理部523は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、LCD563上に水色のカーソルの画像を表示する。なお、処理部523は、予め端末毎にカーソルの表示色を定めておくようにしてもよい。この場合、処理部523は、カーソルを表示する位置情報のみを取得し、送信元がHMD1であるため水色のカーソルを表示するようにしてもよい。
次に、PC210の処理部211は、受信したカーソルを表示する位置情報、カーソルの色情報に基づき、表示部225上に水色のカーソルの画像を表示する。
次に、サーバー200の処理部201は、受信したカーソルを表示する位置情報に基づき、HMD1のカーソルの位置情報を記憶部202に記録する。
Next, the processing unit 123 transmits position information for displaying the cursor and cursor color information to the HMD 500, the PC 210, and the server 200.
Next, the processing unit 523 of the HMD 500 displays a light blue cursor image on the LCD 563 based on the received position information for displaying the cursor and the cursor color information. Note that the processing unit 523 may determine the display color of the cursor for each terminal in advance. In this case, the processing unit 523 may acquire only the position information for displaying the cursor and display a light blue cursor because the transmission source is the HMD1.
Next, the processing unit 211 of the PC 210 displays an image of a light blue cursor on the display unit 225 based on the received position information for displaying the cursor and cursor color information.
Next, the processing unit 201 of the server 200 records the position information of the cursor of the HMD 1 in the storage unit 202 based on the received position information for displaying the cursor.
次に、PC210が、受信した映像を一時停止させ、一時停止させた画像上に線画を描く手順について説明する。
(ステップS15)図12に移って、PC210ユーザーは、表示部215上にPC210のカーソル画像が表示されるように、入力部214のマウスを操作する。次に、PC210のユーザーは、静止画を見たいとき、マウスをクリックする。
Next, a procedure in which the PC 210 pauses the received video and draws a line drawing on the paused image will be described.
(Step S15) Moving to FIG. 12, the PC 210 user operates the mouse of the input unit 214 so that the cursor image of the PC 210 is displayed on the display unit 215. Next, the user of the PC 210 clicks the mouse to view a still image.
(ステップS16)PC210の処理部211は、入力部214から入力された情報に基づき、受信している映像を一時停止する。次に、処理部211は、一時停止した静止画を、記憶部212に記録し、さらにHMD1、HMD500、及びサーバー200に送信する。
映像を一時停止する理由は、通信環境によってはHMD1から配信される映像が特定の端末では遅延して表示されていることも想定されるためである。このため、静止画を重畳するには、すべての端末で同じ静止画が表示される必要がある。一時停止した画像を送信することにより、全ての端末で同じ静止画を観察することが可能となる。また、各端末は、静止画に各々線画を重畳しても、線画と静止画との関係が全ての端末で同じになるので、コミュニケーションのミスを減らすことが可能である。
通信速度が十分に早いことが判っている環境においては、ステップS15におけるPC210の操作に対応して、各端末が映像を、一時停止して静止画として表示してもよい。
また、一時停止の操作は、PC210によって行われている例を示しているが、映像の発信元であるHMD1からでも、HMD1と同じ構成要素を有し受信を行っているHMD500からでも可能である。例えば、HMD1から静止画が配信される場合、HMD1のLCD63に表示されている映像の一コマが配信される。
(Step S16) The processing unit 211 of the PC 210 temporarily stops the received video based on the information input from the input unit 214. Next, the processing unit 211 records the paused still image in the storage unit 212 and transmits the still image to the HMD 1, the HMD 500, and the server 200.
The reason for temporarily stopping the video is that it is assumed that the video distributed from the HMD 1 is displayed with a delay on a specific terminal depending on the communication environment. For this reason, in order to superimpose still images, the same still image needs to be displayed on all terminals. By transmitting the paused image, it is possible to observe the same still image on all terminals. In addition, even if each terminal superimposes a line image on a still image, the relationship between the line image and the still image is the same for all terminals, so it is possible to reduce communication errors.
In an environment where it is known that the communication speed is sufficiently high, each terminal may temporarily display the video as a still image in response to the operation of the PC 210 in step S15.
In addition, the pause operation is illustrated as being performed by the PC 210, but it can be performed from the HMD1 that is the transmission source of the video, or from the HMD 500 that has the same components as the HMD1 and is receiving. . For example, when a still image is distributed from the HMD 1, a frame of video displayed on the LCD 63 of the HMD 1 is distributed.
(ステップS17)HMD1の処理部123は、PC210から送信された静止画データを受信し、受信した静止画データをHMD1のフラッシュメモリー122に記録する。
次に、HMD500の処理部523は、PC210から送信された静止画データを受信し、受信した静止画データをHMD500のフラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、PC210から送信された静止画データを受信し、受信した静止画データを記憶部202に記録する。
(Step S <b> 17) The processing unit 123 of the HMD 1 receives the still image data transmitted from the PC 210 and records the received still image data in the flash memory 122 of the HMD 1.
Next, the processing unit 523 of the HMD 500 receives the still image data transmitted from the PC 210 and records the received still image data in the flash memory 522 of the HMD 500.
Next, the processing unit 201 of the server 200 receives the still image data transmitted from the PC 210 and records the received still image data in the storage unit 202.
(ステップS18)PC210のユーザーは、静止画上に線画を表示させるために、例えば、マウスをクリックしたまま、カーソルを表示部225内で移動させることで線画を描く。このとき、表示部225には、例えば、鉛筆のような形状のカーソルが表示されているようにしてもよい。
次に、PC210の処理部211は、入力部214から入力された情報に基づき、緑色の軌跡を伴った線画を、表示部225上に表示する。次に、処理部211は、カーソルの位置情報を、順次、記憶部212に記録する。次に、処理部211は、カーソルの位置情報を、順次、HMD1、HMD500、及びサーバー200に送信する。
なお、PC210による線画の色は、端末毎に予め定めておいてもよく、あるいは、色情報をPC210から他の端末へ送信するようにしてもよい。
(Step S18) In order to display a line drawing on a still image, for example, the user of the PC 210 draws a line drawing by moving the cursor within the display unit 225 while clicking the mouse. At this time, for example, a cursor shaped like a pencil may be displayed on the display unit 225.
Next, the processing unit 211 of the PC 210 displays a line drawing with a green locus on the display unit 225 based on the information input from the input unit 214. Next, the processing unit 211 sequentially records cursor position information in the storage unit 212. Next, the processing unit 211 sequentially transmits the cursor position information to the HMD 1, the HMD 500, and the server 200.
Note that the color of the line drawing by the PC 210 may be determined in advance for each terminal, or color information may be transmitted from the PC 210 to another terminal.
具体的には、処理部123の線画生成部304は、入力検出部301から出力された制御信号に基づいて、線画データを生成する。線画生成部304は、生成した線画データを、画像合成部308に出力する。画像合成部308は、カメラ64が撮像した画像データ、または通信インタフェース(131、138)を介して他の端末から受信した画像データに、入力された線画データを重畳して、重畳した画像データに基づく画像を、LCD63に表示する。
以下の処理においても、線画の表示を処理部123の各部が行う。
Specifically, the line drawing generation unit 304 of the processing unit 123 generates line drawing data based on the control signal output from the input detection unit 301. The line drawing generation unit 304 outputs the generated line drawing data to the image composition unit 308. The image composition unit 308 superimposes the input line drawing data on the image data captured by the camera 64 or the image data received from another terminal via the communication interface (131, 138), and superimposes the superimposed image data. The based image is displayed on the LCD 63.
Also in the following processing, each unit of the processing unit 123 displays a line drawing.
(ステップS19)HMD1の処理部123は、受信したカーソルの位置情報に基づき、LCD63上に、緑色の線画を表示する。次に、処理部123は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー122に記録する。
次に、HMD500の処理部523は、通受信したカーソルの位置情報に基づき、LCD563上に、緑色の線画を表示する。次に、処理部523は、カーソルの位置情報に基づき線画データを生成し、生成した線画データを、フラッシュメモリー522に記録する。
次に、サーバー200の処理部201は、受信したカーソルの位置情報に基づき、線画データを生成し、生成した線画データを、記憶部202に記録する。
(Step S19) The processing unit 123 of the HMD 1 displays a green line drawing on the LCD 63 based on the received cursor position information. Next, the processing unit 123 generates line drawing data based on the cursor position information, and records the generated line drawing data in the flash memory 122.
Next, the processing unit 523 of the HMD 500 displays a green line drawing on the LCD 563 based on the received position information of the cursor. Next, the processing unit 523 generates line drawing data based on the cursor position information, and records the generated line drawing data in the flash memory 522.
Next, the processing unit 201 of the server 200 generates line drawing data based on the received cursor position information, and records the generated line drawing data in the storage unit 202.
図23は、本実施形態に係る線画の一例である。図23に示した例では、画像400bに、矢印421a、及び文字「OK!」421bが表示されている。この矢印421a、及び文字421bは、PC210のユーザーが、マウスを用いて描写した線画である。また、図23は、例えば、図22において、HMD1のユーザーが、他の端末のユーザーに対して値札411をカーソル410で指し示したが、PC210のユーザーが話題にしたいのは、矢印421aが指し示す先の値札422であることを示している。
このように、線画をカメラ映像に重畳して描画する際には、カメラ映像は静止画であることが望ましい。すなわち、PC210のユーザーの意図に反して、HMD1のユーザーが首を動かしてしまうと、画像が動いてしまい、線画で指し示す被写体の位置が画面上で相対的にずれてしまうからである。しかしながら、静止画が表示されていれば、画像に線画を重畳していっても画像と線画が相対的にずれることはない。このため、HMD1のユーザーが首を動かないように、静止している必要はなく、使いやすいシステムが提供できる。
なお、線画と静止画とは別のレイヤーに記録されており、いつでも線画のみ消去することは可能である。
また、PC210のみではなく、全ての端末は、線画の描画と同時に動画が静止画することが可能である。
FIG. 23 is an example of a line drawing according to the present embodiment. In the example shown in FIG. 23, an arrow 421a and the characters “OK!” 421b are displayed on the image 400b. The arrow 421a and the character 421b are line drawings drawn by the user of the PC 210 using the mouse. 23, for example, in FIG. 22, the user of HMD1 points the price tag 411 to the user of another terminal with the cursor 410, but the user of the PC 210 wants to talk about the destination indicated by the arrow 421a. The price tag 422 is shown.
As described above, when a line image is drawn by being superimposed on a camera image, the camera image is preferably a still image. That is, if the user of the HMD 1 moves his / her head against the intention of the user of the PC 210, the image moves and the position of the subject pointed to by the line drawing is relatively shifted on the screen. However, if a still image is displayed, the image and the line drawing do not relatively shift even if the line drawing is superimposed on the image. For this reason, it is not necessary to be stationary so that the user of the HMD 1 does not move the neck, and an easy-to-use system can be provided.
Note that the line image and the still image are recorded in different layers, and it is possible to delete only the line image at any time.
Further, not only the PC 210 but all terminals are capable of moving a still image at the same time as drawing a line drawing.
次に、画像に重畳されるグリッドを変更する手順を説明する。
(ステップS20)図12に戻って、PC210のユーザーは、入力部214を用いてグリッドの種類を選択する。PC210の処理部211は、入力部214から入力された信号に基づき、選択されたグリッドの種類を示す情報を、HMD1、HMD5、及びサーバー200に送信する。グリッドを表示している理由は、例えば、PC210のユーザーは、画像中の特定の領域について説明を行うためである。
図24は、本実施形態に係るグリッドの一例を示す図である。図25は、本実施形態に係るグリッドの他の例を示す図である。
図24に示した例では、画像400cにおいて、縦線と横線による升目状のグリッド431が表示されている例である。図25に示した例では、画像400dにおいて、縦線と横線、及び同心円によるグリッド441が表示されている例である。なお、図24及び図25において、グリッドを実線で示したが、グリッドは、点線、破線等であってもよい。
このように、PC210のユーザーが、グリッドを変更した場合、他の端末に変更したグリッドの情報を送信する理由は、ユーザーの端末毎にグリッドが異なってしまうとコミュニケーションミスを防ぐためである。
なお、図24、及び図25に示したグリッドは1例であって、他のグリッドを表示するようにしてもよい。また、各端末のLCD、または表示部に表示されるグリッドは、動画や静止画とは別のレイヤーに表示される。
Next, a procedure for changing the grid superimposed on the image will be described.
(Step S20) Returning to FIG. 12, the user of the PC 210 uses the input unit 214 to select the type of grid. Based on the signal input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating the type of the selected grid to the HMD1, the HMD5, and the server 200. The reason for displaying the grid is, for example, that the user of the PC 210 explains a specific area in the image.
FIG. 24 is a diagram illustrating an example of a grid according to the present embodiment. FIG. 25 is a diagram illustrating another example of the grid according to the present embodiment.
The example illustrated in FIG. 24 is an example in which a grid-like grid 431 including vertical lines and horizontal lines is displayed in the image 400c. The example illustrated in FIG. 25 is an example in which a grid 441 including vertical lines, horizontal lines, and concentric circles is displayed in the image 400d. 24 and 25, the grid is indicated by a solid line, but the grid may be a dotted line, a broken line, or the like.
As described above, when the user of the PC 210 changes the grid, the reason for transmitting the changed grid information to another terminal is to prevent a communication error if the grid is different for each user terminal.
Note that the grids shown in FIGS. 24 and 25 are only examples, and other grids may be displayed. In addition, the grid displayed on the LCD or display unit of each terminal is displayed on a layer different from that of the moving image or the still image.
(ステップS21)PC210の処理部211は、選択されたグリッドに表示を変更する。
次に、HMD1の処理部123は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、HMD5の処理部523は、受信した信号に基づいて、選択されたグリッドに表示を変更する。
次に、サーバー200の処理部201は、受信した信号に基づいて、グリッドの変更を記録する。
(Step S21) The processing unit 211 of the PC 210 changes the display to the selected grid.
Next, the processing unit 123 of the HMD 1 changes the display to the selected grid based on the received signal.
Next, the processing unit 523 of the HMD 5 changes the display to the selected grid based on the received signal.
Next, the processing unit 201 of the server 200 records the grid change based on the received signal.
次に、途中からPC220が通話に参加した場合の処理手順について説明する。
(ステップS22)図13に移って、PC220のユーザーは、表示部225に表示された呼び出し中を示す画像を確認し、入力部224を操作して、通話に参加する。PC220の処理部221は、入力部224から入力された情報に基づき、通話参加情報を、サーバー200に送信する。
次に、処理部221は、表示部225にPC220のアバターを表示するように制御する。
Next, a processing procedure when the PC 220 participates in a call from the middle will be described.
(Step S <b> 22) Moving to FIG. 13, the user of the PC 220 confirms the image indicating that the calling is displayed on the display unit 225 and operates the input unit 224 to participate in the call. The processing unit 221 of the PC 220 transmits call participation information to the server 200 based on the information input from the input unit 224.
Next, the processing unit 221 controls the display unit 225 to display the PC 220 avatar.
(ステップS23)サーバー200の処理部201は、PC220から受信した通話参加情報に基づいて、HMD1、HMD500、PC210、及びPC220に対して、PC220の通話参加処理を行う。具体的には、処理部201は、PC220に他のLCD及び表示部に表示されている画像(含む線画、カーソル、グリッド)と同じ画像データを送信する。処理部221は、HMD1、HMD500、及びPC210に、PC220が通話参加したことを示す情報と、PC220のアバターを表示する指示を送信する。処理部201は、PC220に、HMD1、HMD500、及びPC210のアバターを表示する指示を送信する。
次に、処理部201は、PC220が通話に参加したことを示す情報を、記憶部202に記録する。
(Step S23) Based on the call participation information received from the PC 220, the processing unit 201 of the server 200 performs a call participation process of the PC 220 on the HMD1, the HMD 500, the PC 210, and the PC 220. Specifically, the processing unit 201 transmits the same image data as the images (including line drawings, cursors, and grids) displayed on the other LCD and the display unit to the PC 220. The processing unit 221 transmits information indicating that the PC 220 has joined the call and an instruction to display the PC 220 avatar to the HMD 1, the HMD 500, and the PC 210. The processing unit 201 transmits an instruction to display the avatars of the HMD 1, the HMD 500, and the PC 210 to the PC 220.
Next, the processing unit 201 records information indicating that the PC 220 has joined the call in the storage unit 202.
(ステップS24)PC220の処理部221は、サーバー200から受信した画像データに基づく画像を、表示部225に表示する。 (Step S <b> 24) The processing unit 221 of the PC 220 displays an image based on the image data received from the server 200 on the display unit 225.
(ステップS25)HMD1の処理部123は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD63上にPC220のアバターを追加して表示し、PC220に対する呼び出し中であることを示す画像情報を消去する。
次に、HMD500の処理部523は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、LCD563上にPC220のアバターを追加して表示する。
次に、PC210の処理部211は、サーバー200から受信したPC220のアバターを表示する指示に基づいて、表示部215上にPC220のアバターを追加して表示する。
次に、PC220の処理部221は、サーバー200から受信したHMD1、HMD500、及びPC210のアバターを表示する指示に基づいて、表示部225上にHMD1、HMD500、及びPC210のアバターを追加して表示する。
なお、ここで各端末のLCD、表示部に表示されるアバターの表示は、PC220の参加に伴い、各端末の所在地に応じて、右から東経に応じて東に位置する端末より右よりに再度表示し直されるようにしてもよい。
(Step S <b> 25) The processing unit 123 of the HMD 1 additionally displays the avatar of the PC 220 on the LCD 63 based on the instruction to display the avatar of the PC 220 received from the server 200, and an image indicating that the PC 220 is being called Erase information.
Next, the processing unit 523 of the HMD 500 adds and displays the PC 220 avatar on the LCD 563 based on the instruction to display the PC 220 avatar received from the server 200.
Next, the processing unit 211 of the PC 210 adds and displays the avatar of the PC 220 on the display unit 215 based on the instruction to display the avatar of the PC 220 received from the server 200.
Next, the processing unit 221 of the PC 220 adds and displays the avatars of HMD1, HMD500, and PC 210 on the display unit 225 based on the instruction to display the avatars of HMD1, HMD500, and PC 210 received from the server 200. .
The display of the avatar displayed on the LCD and the display unit of each terminal here is again from the right from the terminal located east according to the east longitude from the right according to the location of each terminal with the participation of the PC 220. It may be displayed again.
次に、異なる端末がカーソルや線画を共通の画像上に表示する手順について説明する。
(ステップS26)HMD500のユーザーは、線画を描写するために、タッチスイッチ534上で予め定められている指の動作を行う。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD500による線画を表示する指示を、HMD1、PC210、PC220、及びサーバー200に送信する。
Next, a procedure in which different terminals display a cursor and a line drawing on a common image will be described.
(Step S26) The user of the HMD 500 performs a predetermined finger operation on the touch switch 534 to draw a line drawing. The processing unit 523 of the HMD 500 transmits an instruction to display a line drawing by the HMD 500 to the HMD 1, the PC 210, the PC 220, and the server 200 based on the control signal input from the touch switch 534.
(ステップS27)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)上に、赤色の線画を表示する。HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、LCD563上に、赤色の線画を表示する。すなわち、PC210の線画(緑色)とは、異なる色で表示する。
次に、各端末の処理部は、HMD500から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122、記憶部(212、222、202)に記録する。HDM500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。
または、各処理部(123、523、211、221、及び201)は、HMD500のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、HMD500のユーザーが、タッチスイッチ534で指を動かして描写した線画が重畳されて表示される。
また、HMD500による線画は、送信された画像、及び他の端末が描写した線画と異なるレイヤー情報として、各端末、サーバーに記憶される。
(Step S27) The processing units (123, 211, and 221) of each terminal (HMD1, PC210, and PC220) are red on the LCD 63 and the display units (215, 225) based on the received signal received from the HMD500. Display the line drawing. The processing unit 523 of the HMD 500 displays a red line drawing on the LCD 563 based on the control signal input from the touch switch 534. That is, it is displayed in a color different from the line drawing (green) of the PC 210.
Next, the processing unit of each terminal records the position information of the cursor in the flash memory 122 and the storage unit (212, 222, 202) sequentially based on the received signal received from the HMD 500. Based on the control signal input from the touch switch 534, the processing unit 523 of the HDM 500 sequentially records the cursor position information in the flash memory 522 and the storage units (212, 222, 202).
Alternatively, each processing unit (123, 523, 211, 221 and 201) records the image data of the line drawing drawn by the user of the HMD 500 in the flash memory (122, 522) and the storage unit (212, 222, 202). .
In addition, on the LCD (63, 563) and the display unit (215, 225) of each terminal, the user of the HMD 500 depicted the image temporarily stopped by the PC 210 by moving the finger with the touch switch 534 in step S16. The line drawing is displayed superimposed.
The line drawing by the HMD 500 is stored in each terminal and server as layer information different from the transmitted image and the line drawing drawn by other terminals.
(ステップS28)HMD1のユーザーは、線画を描写するために、タッチスイッチ34上で予め定められている指の動作を行う。HMD1の処理部123は、HMD1による線画を表示する指示を、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S28) The user of the HMD 1 performs a predetermined finger operation on the touch switch 34 in order to draw a line drawing. The processing unit 123 of the HMD 1 transmits an instruction to display a line drawing by the HMD 1 to the HMD 500, the PC 210, the PC 220, and the server 200.
(ステップS29)各端末の処理部(523,211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)上に、青色の線画を表示する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、LCD63上に、青色の線画を表示する。
次に、各端末の処理部(523、211、221、及び201)は、HMD1から受信した受信信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー522、記憶部(212、222、202)に記録する。HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、カーソルの位置情報を、順次、フラッシュメモリー122に記録する。または、処理部(123、523、211、221、及び201)は、HMD1のユーザーが描写した線画の画像データをフラッシュメモリー(122、522)、記憶部(212、222、202)に記録する。
なお、各端末のLCD(63、563)、表示部(215、225)には、ステップS16で、PC210により一時停止された画像に、ステップS18でPC210が描写した緑色の線画、並びにステップS26でHMD500が描写した赤色の線画が、重畳されて表示される。
HMD1による線画を青色(R:0、G:0、B:255)にする理由は、カーソルを水色(R:100、G:100、B:255)で表示したため、同系色で表示することで、どのユーザーが捜査しているかを視覚的にわかりやすくするためである。
(Step S29) The processing units (523, 211, and 221) of each terminal display a blue line drawing on the LCD 563 and the display units (215, 225) based on the reception signal received from the HMD1. The processing unit 123 of the HMD 1 displays a blue line drawing on the LCD 63 based on the control signal input from the touch switch 34.
Next, the processing units (523, 211, 221 and 201) of each terminal sequentially store the cursor position information on the flash memory 522 and the storage units (212, 222, 202) based on the received signals received from the HMD1. ). The processing unit 123 of the HMD 1 sequentially records cursor position information in the flash memory 122 based on the control signal input from the touch switch 34. Alternatively, the processing units (123, 523, 211, 221 and 201) record the line drawing image data drawn by the user of the HMD 1 in the flash memory (122, 522) and the storage unit (212, 222, 202).
Note that the LCD (63, 563) and the display unit (215, 225) of each terminal have a green line drawing drawn by the PC 210 in Step S18 on the image paused by the PC 210 in Step S16, and in Step S26. The red line drawing depicted by the HMD 500 is displayed superimposed.
The reason why the line drawing by HMD1 is blue (R: 0, G: 0, B: 255) is that the cursor is displayed in light blue (R: 100, G: 100, B: 255). This is to make it easier to visually understand which user is investigating.
次に、他の端末のユーザーの要望によって別の端末の映像を要望された場合、映像が静止画として撮影されて画像情報が共有される場合の処理手順について説明する。
(ステップS30)図14に移って、例えば、HMD500のユーザーが、HMD500の通話マイクを介して、HMD1のカメラ64で撮像された映像の送信を要求する。
次に、HMD1のユーザーは、HMD500のユーザーの要求に応じて、カメラ64が撮像した映像を低解像度で、他の端末に送信するために、タッチスイッチ34の所定の領域をタッチする。なお、初期設定では、映像の送信時の解像度が、低解像度に設定されているが、タッチスイッチ34の操作により、解像度を変更することも可能である。
Next, a description will be given of a processing procedure in a case where a video of another terminal is requested according to a request of a user of another terminal, and the video is captured as a still image and image information is shared.
(Step S30) Moving to FIG. 14, for example, the user of the HMD 500 requests the transmission of the video imaged by the camera 64 of the HMD 1 via the call microphone of the HMD 500.
Next, in response to a request from the user of the HMD 500, the user of the HMD 1 touches a predetermined area of the touch switch 34 in order to transmit the video captured by the camera 64 to another terminal at a low resolution. In the initial setting, the resolution at the time of video transmission is set to a low resolution. However, the resolution can be changed by operating the touch switch 34.
(ステップS31)HMD1の処理部123は、ステップS29まで表示されていた画像を消去し、LCD63にカメラ64が撮像した画像を表示する。 (Step S <b> 31) The processing unit 123 of the HMD 1 deletes the image that has been displayed up to Step S <b> 29 and displays an image captured by the camera 64 on the LCD 63.
(ステップS32)HMD1の処理部123は、タッチスイッチ34から出力された制御信号に基づき、カメラ64が撮像した映像を低解像度に変換する。処理部123は、変換した低解像度の映像データ、及びHMD1の環境情報を、通話に参加しているHMD500、PC210、PC220及びサーバー200に送信する。 (Step S32) Based on the control signal output from the touch switch 34, the processing unit 123 of the HMD 1 converts the video captured by the camera 64 into a low resolution. The processing unit 123 transmits the converted low-resolution video data and the environment information of the HMD 1 to the HMD 500, the PC 210, the PC 220, and the server 200 participating in the call.
(ステップS33)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)に表示されていた画像と線画の表示を消す。 (Step S33) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) are displayed on the LCD 563 and the display units (215, 225) based on the received signal received from the HMD1. Erase the displayed image and line drawing.
(ステップS34)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した低解像度の映像データに基づく映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した低解像度の映像データを、記憶部202に記録する。
(Step S34) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive the LCD 563 and the display units (215, 225) from the HMD1 based on the received signal received from the HMD1. The video based on the low-resolution video data is displayed.
Next, the processing unit 201 of the server 200 records low-resolution video data received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
(ステップS35)HMD500のユーザーは、HMD1に詳細な画像を見るために高解像度の静止画を送信する要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、高解像度の静止画を送信する要求を、HMD1に送信する。 (Step S35) The user of the HMD 500 touches a predetermined area of the touch switch 534 to make a request for transmitting a high-resolution still image to the HMD 1 to view a detailed image. Next, the processing unit 523 of the HMD 500 transmits a request for transmitting a high-resolution still image to the HMD 1 based on the control signal input from the touch switch 534.
(ステップS36)HMD1の処理部123は、HMD500から受信した高解像度の静止画を送信する要求を示す情報を、LCD63に表示する。なお、高解像度の静止画とは、例えば、横が2500画素、縦が1875画素の画像である。 (Step S <b> 36) The processing unit 123 of the HMD 1 displays information indicating a request for transmitting a high-resolution still image received from the HMD 500 on the LCD 63. Note that a high-resolution still image is, for example, an image with 2500 pixels in the horizontal direction and 1875 pixels in the vertical direction.
(ステップS37)HMD1の処理部123は、HMD500からの受信信号に基づいて、例えば、HMD1の前方が暗い場合、照明のため前方ライト68を点灯する。 (Step S37) Based on the received signal from the HMD 500, for example, when the front of the HMD 1 is dark, the processing unit 123 of the HMD 1 turns on the front light 68 for illumination.
(ステップS38)図15に移って、HMD1の処理部123は、HMD500からの受信信号に基づいて自動的にカメラ64が撮像した高解像度の静止画データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S38) Moving to FIG. 15, the processing unit 123 of the HMD 1 combines high-resolution still image data automatically captured by the camera 64 based on the received signal from the HMD 500 with the environment information, the HMD 500, the PC 210, The data is transmitted to the PC 220 and the server 200.
(ステップS39)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した高解像度の静止画と環境情報に基づいた情報を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した高解像度の静止画を、記憶部202に記録する。
このように、動画での配信が難しい高解像度の映像は、他の端末からの操作に応じて高精細に撮影され、静止画として各端末に配信される。このことで、HMD1が使用されている環境の分析が他者より容易に行うことが可能である。
(Step S39) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive the LCD 563 and the display units (215, 225) from the HMD1 based on the received signal received from the HMD1. The high-resolution still image and information based on the environment information are displayed.
Next, the processing unit 201 of the server 200 records the high-resolution still image received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
In this way, high-resolution video that is difficult to distribute as a moving image is photographed with high definition in response to an operation from another terminal, and is distributed to each terminal as a still image. This makes it possible to analyze the environment in which the HMD 1 is used more easily than others.
(ステップS40)PC210のユーザーは、入力部214を操作して、HMD1から受信した静止画を表示部215で拡大表示する。PC210の処理部211は、入力部214から入力された制御信号に基づいて、表示画像を拡大する指示を、HMD1、HMD500、PC220、及びサーバー200に送信する。 (Step S40) The user of the PC 210 operates the input unit 214 to enlarge and display the still image received from the HMD 1 on the display unit 215. Based on the control signal input from the input unit 214, the processing unit 211 of the PC 210 transmits an instruction to enlarge the display image to the HMD1, the HMD 500, the PC 220, and the server 200.
(ステップS41)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225上の画像を拡大表示する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、拡大された画像データと、画像が拡大されたことを示す情報を記憶部202に記録する。
このように、HMD1から高解像度の静止画データが送られているので、拡大しても画質が劣化することのない画像が各端末に表示される。そして、この高解像度の静止画を一台の端末の操作だけで各端末の画像が自動的に拡大でき、この画像に対して詳細なコミュニケーションを行うことが可能である。
(Step S41) The processing units (123, 523, and 221) of each terminal (HMD1, HMD500, and PC220), based on the received signal received from the PC210, the images on the LCD (63,563) and the display unit 225 Is magnified.
Next, the processing unit 201 of the server 200 records the enlarged image data and information indicating that the image has been enlarged in the storage unit 202 based on the received signal received from the PC 210.
As described above, since high-resolution still image data is sent from the HMD 1, an image that does not deteriorate in image quality even when enlarged is displayed on each terminal. The high-resolution still image can be automatically enlarged by simply operating a single terminal, and detailed communication can be performed on this image.
次に、中解像度の映像を送信する処理について説明する。
(ステップS42)HMD500のユーザーは、HMD1に中解像度の映像を送信してもらう要求を行うために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、中解像度の映像を送信する要求を、HMD1に送信する。
Next, processing for transmitting a medium-resolution video will be described.
(Step S <b> 42) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to request the HMD 1 to transmit a medium resolution video. Next, the processing unit 523 of the HMD 500 transmits a request for transmitting a medium resolution video to the HMD 1 based on the control signal input from the touch switch 534.
この場合、HMD1のLCD63には、中解像度の映像を要望されている旨の表示がなされる。または、音声通話により要求が送信されるようにしてもよい。この要求に応じる場合、HMD1のユーザーは、画像がブレないようにする必要がある。すなわち、HMD1のユーザーは、あまり首を動かさないように、安定して被写体に対してカメラを向けることが要望されていることが分かる。
このように、各端末のユーザーは、各端末からの映像の要求のレベル(静止画か動画か)が判る。このため、各端末のユーザーは、どのようにしてカメラ64を被写体に対して向ければ良いかがユーザーが分かるため、使いやすいシステムとなっている。
In this case, the LCD 63 of the HMD 1 displays that a medium resolution image is desired. Alternatively, the request may be transmitted by voice call. When responding to this request, the user of the HMD 1 needs to prevent the image from blurring. That is, it can be seen that the user of the HMD 1 is required to stably point the camera at the subject so as not to move the neck much.
In this way, the user of each terminal can know the level of video request from each terminal (still image or moving image). For this reason, since the user of each terminal can know how to point the camera 64 toward the subject, the system is easy to use.
このように、中解像度の映像を送信できるのは、HMD1のユーザーが、比較的安定して被写体に対してカメラ64を向けていられる状態に限られる。このため、中解像度の映像の送信が好ましくないと判断した場合、HMD1のユーザーは、別途音声などによってこれを断ってもよい。このように、HMD1のユーザーの了解を得ることで、HMD1のユーザーがいる環境の画像をそのまま送信することを防ぐこともできる。すなわち、HMD1のユーザーの了解を得ることで、HMD1のユーザーのプライバシーを保護することもできる。
なお、HMD1のユーザーが中解像度の映像の送信を承認したとしても、実際に同ユーザーが移動している最中などで、カメラ64のブレが激しい場合もあるため、HMD1の処理部123は、角速度センサー134によって送信する映像の解像度を設定するようにしてもよい。例えば、角速度センサー134の出力が予め定められている値より大きい場合、HMD1の処理部123は、中解像度の要望が来ても、低解像度かつ高フレームレートで送信を行ってもよい。
As described above, the medium-resolution video can be transmitted only in a state where the user of the HMD 1 can point the camera 64 toward the subject relatively stably. For this reason, when it is determined that transmission of a medium-resolution video is not preferable, the user of the HMD 1 may refuse this by voice or the like. In this way, by obtaining the consent of the HMD1 user, it is possible to prevent the image of the environment where the HMD1 user is present from being transmitted as it is. That is, the privacy of the user of HMD1 can be protected by obtaining the consent of the user of HMD1.
Even if the HMD1 user approves the transmission of the medium-resolution video, the camera 64 may be severely blurred while the user is actually moving. You may make it set the resolution of the image | video transmitted by the angular velocity sensor 134. FIG. For example, when the output of the angular velocity sensor 134 is larger than a predetermined value, the processing unit 123 of the HMD 1 may perform transmission at a low resolution and a high frame rate even when a request for medium resolution is received.
(ステップS43)HMD1の処理部123は、HMD500から受信した中解像度の映像を送信する要求を示す情報を、LCD63に表示する。次に、HMD1のユーザーは、LCD63の表示を確認し、HMD500からの要求を承諾するために、タッチスイッチ34の所定の領域をタッチする。 (Step S <b> 43) The processing unit 123 of the HMD 1 displays information indicating a request for transmitting the medium resolution video received from the HMD 500 on the LCD 63. Next, the user of the HMD 1 confirms the display on the LCD 63 and touches a predetermined area of the touch switch 34 in order to accept the request from the HMD 500.
(ステップS44)HMD1の処理部123は、カメラ64が撮像した中解像度の映像データを環境情報と合わせて、HMD500、PC210、PC220、及びサーバー200に送信する。 (Step S44) The processing unit 123 of the HMD 1 transmits the medium resolution video data captured by the camera 64 to the HMD 500, the PC 210, the PC 220, and the server 200 together with the environment information.
次に、一つの端末が、別の端末からの画像に対して情報を付加して、完成した状態で他の端末に配信する手順を説明する。
(ステップS45)各端末(HMD500、PC210、及びPC220)の処理部(523、211、及び221)は、HMD1から受信した受信信号に基づいて、LCD563、表示部(215、225)にHMD1から受信した中解像度の映像を表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1から受信した中解像度の映像データを、記憶部202に記録する。
Next, a procedure in which one terminal adds information to an image from another terminal and distributes the image to another terminal in a completed state will be described.
(Step S45) The processing units (523, 211, and 221) of each terminal (HMD500, PC210, and PC220) receive from the HMD1 on the LCD 563 and the display units (215, 225) based on the reception signal received from the HMD1. Displays the medium resolution video.
Next, the processing unit 201 of the server 200 records the medium resolution video data received from the HMD 1 in the storage unit 202 based on the reception signal received from the HMD 1.
(ステップS46)図16に移って、HMD500のユーザーは、HMD1から受信している映像の静止画を記録するために、タッチスイッチ34の所定の領域をタッチする。 (Step S46) Moving to FIG. 16, the user of the HMD 500 touches a predetermined area of the touch switch 34 in order to record a still image of the video received from the HMD 1.
(ステップS47)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、HMD1から受信している映像の静止画の画像データを、フラッシュメモリー522に記録する。 (Step S <b> 47) The processing unit 523 of the HMD 500 records the image data of the still image received from the HMD 1 in the flash memory 522 based on the control signal input from the touch switch 534.
(ステップS48)HMD500のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ534の所定の領域をタッチする。次に、HMD500のユーザーは、タッチスイッチ534上で、指を動かして、線画を描写する。処理部523は、描写された線画を静止画に重畳して、LCD563上に表示する。処理部523は、線画を静止画に重畳した画像データを、フラッシュメモリー522に記録する。 (Step S48) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to superimpose and display a line image on a still image. Next, the user of the HMD 500 moves a finger on the touch switch 534 to draw a line drawing. The processing unit 523 superimposes the drawn line image on the still image and displays it on the LCD 563. The processing unit 523 records image data in which a line image is superimposed on a still image in the flash memory 522.
(ステップS49)HMD500のユーザーは、フラッシュメモリー522に記録した静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信するために、タッチスイッチ534の所定の領域をタッチする。 (Step S49) The user of the HMD 500 touches a predetermined area of the touch switch 534 in order to transmit the image data in which the line image is superimposed on the still image recorded in the flash memory 522 to the HMD 1, the PC 210, the PC 220, and the server 200. To do.
(ステップS50)HMD500の処理部523は、タッチスイッチ534から入力された制御信号に基づいて、フラッシュメモリー522に記録させた静止画に線画を重畳した画像データを、HMD1、PC210、PC220、及びサーバー200に送信する。 (Step S50) Based on the control signal input from the touch switch 534, the processing unit 523 of the HMD 500 converts the image data obtained by superimposing the line image on the still image recorded in the flash memory 522 to the HMD1, the PC 210, the PC 220, and the server. 200.
(ステップS51)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500から受信した受信信号に基づいて、LCD63、表示部(215、225)にHMD500から受信した静止画に線画が重畳された画像データに基づく画像を表示する。
次に、サーバー200の処理部201は、受信したHMD500から受信した受信信号に基づいて、HMD500から受信した静止画に線画が重畳された画像データを、記憶部202に記録する。
(Step S51) Based on the received signal received from the received HMD 500, the processing units (123, 211, and 221) of each terminal (HMD1, PC 210, and PC 220) send the HMD 500 to the LCD 63 and the display units (215, 225). An image based on the image data in which the line drawing is superimposed on the still image received from is displayed.
Next, the processing unit 201 of the server 200 records, in the storage unit 202, image data in which a line drawing is superimposed on the still image received from the HMD 500 based on the received signal received from the received HMD 500.
次に、別の端末からの映像も切り替える処理、その場合に低解像度の映像をデフォルトで送信する処理について説明する。
(ステップS52)HMD1のユーザーは、HMD500のカメラ564が撮像した映像を閲覧するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、HMD500に映像の閲覧要求を送信する。
Next, processing for switching a video from another terminal, and processing for transmitting a low-resolution video by default in that case will be described.
(Step S <b> 52) The user of the HMD 1 touches a predetermined area of the touch switch 34 in order to view the video captured by the camera 564 of the HMD 500. Next, the processing unit 123 of the HMD 1 transmits a video browsing request to the HMD 500.
(ステップS53)HMD500の処理部523は、HMD1から受信した映像を送信する要求を示す情報を、LCD563に表示する。次に、HMD500のユーザーは、LCD563の表示を確認し、HMD1からの要求を承諾するために、タッチスイッチ534の所定の領域をタッチする。 (Step S <b> 53) The processing unit 523 of the HMD 500 displays information indicating a request to transmit the video received from the HMD 1 on the LCD 563. Next, the user of the HMD 500 confirms the display on the LCD 563 and touches a predetermined area of the touch switch 534 in order to accept the request from the HMD 1.
(ステップS54)図17に移って、HMD500の処理部523は、カメラ564が撮像した映像を低解像度に変換する。処理部523は、変換した低解像度の映像信号とHMD500の環境情報とを合わせて、HMD1、PC210、PC220、及びサーバー200に送信する。すなわち、他の端末から、カメラで撮像した画像の送信要求があった場合、各端末の処理部は、まず低解像度の映像を送信する。その後、各端末のユーザーの要求に応じて、解像度を切り替える。 (Step S54) Moving to FIG. 17, the processing unit 523 of the HMD 500 converts the video captured by the camera 564 into a low resolution. The processing unit 523 transmits the converted low-resolution video signal and the environment information of the HMD 500 to the HMD 1, the PC 210, the PC 220, and the server 200. That is, when there is a transmission request for an image captured by a camera from another terminal, the processing unit of each terminal first transmits a low-resolution video. Thereafter, the resolution is switched according to the request of the user of each terminal.
(ステップS55)各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、受信したHMD500からの受信信号に基づいて、LCD63、表示部(215、225)に、HMD500から受信した低解像度の映像データに基づく映像を表示する。次に、各端末(HMD1、PC210、及びPC220)の処理部(123、211、及び221)は、HMD500からの受信信号に基づいて、HMD500から受信した環境情報に基づいて撮像した方向を算出し、算出した撮像した方向を、LCD63、表示部(215、225)に表示する。
次に、サーバー200の処理部201は、受信したHMD500からの受信信号に基づいて、HMD500から受信した静止画に低解像度の映像データと環境情報とを、記憶部202に記録する。
(Step S55) Based on the received signals from the received HMD 500, the processing units (123, 211, and 221) of the terminals (HMD1, PC 210, and PC 220) transfer the HMD 500 to the LCD 63 and the display units (215, 225). The video based on the low resolution video data received from is displayed. Next, the processing units (123, 211, and 221) of each terminal (HMD1, PC210, and PC220) calculate the imaged direction based on the environment information received from the HMD500, based on the received signal from the HMD500. The calculated imaging direction is displayed on the LCD 63 and the display unit (215, 225).
Next, the processing unit 201 of the server 200 records low-resolution video data and environment information in the still image received from the HMD 500 in the storage unit 202 based on the received signal from the HMD 500.
次に、特定の端末が通話を終了する手順を説明する。
(ステップS56)PC210のユーザーは、接続を終了するために、入力部214を操作する。次に、PC210の処理部211は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。
Next, a procedure for terminating a call by a specific terminal will be described.
(Step S56) The user of the PC 210 operates the input unit 214 to end the connection. Next, based on the control signal input from the input unit 214, the processing unit 211 of the PC 210 transmits information indicating the end of connection to the HMD1, the HMD 500, the PC 220, and the server 200.
(ステップS57)各端末(HMD1、HMD500、及びPC220)の処理部(123、523、及び221)は、PC210から受信した受信信号に基づいて、LCD(63、563)、表示部225に表示されていたPC210のアバターを消去する。
次に、サーバー200の処理部201は、PC210から受信した受信信号に基づいて、PC210の接続終了を記憶部202に記録する。
(Step S57) The processing units (123, 523, and 221) of each terminal (HMD1, HMD500, and PC220) are displayed on the LCD (63, 563) and the display unit 225 based on the received signal received from the PC210. Delete the avatar of the PC 210 that was on.
Next, the processing unit 201 of the server 200 records the connection end of the PC 210 in the storage unit 202 based on the received signal received from the PC 210.
(ステップS58)HMD500のユーザーは、接続を終了するために、タッチスイッチ534を操作する。次に、HMD500の処理部523は、入力部214から入力された制御信号に基づいて、接続の終了を示す情報を、HMD1、HMD500、PC220、及びサーバー200に送信する。 (Step S58) The user of the HMD 500 operates the touch switch 534 to end the connection. Next, the processing unit 523 of the HMD 500 transmits information indicating the end of connection to the HMD 1, the HMD 500, the PC 220, and the server 200 based on the control signal input from the input unit 214.
(ステップS59)各端末(HMD1、及びHMD500)の処理部(123、及び523)は、HMD500から受信した受信信号に基づいて、LCD63、表示部225に表示されていたHMD500のアバターを消去する。
次に、サーバー200の処理部201は、HMD500から受信した受信信号に基づいて、HMD500の接続終了を記憶部202に記録する。
(Step S59) The processing units (123 and 523) of each terminal (HMD1 and HMD500) erase the avatar of the HMD 500 displayed on the LCD 63 and the display unit 225 based on the received signal received from the HMD 500.
Next, the processing unit 201 of the server 200 records the connection end of the HMD 500 in the storage unit 202 based on the received signal received from the HMD 500.
次に、各端末のユーザーが、サーバー200に記録された画像(映像、静止画)を呼び出して利用する処理の手順を説明する。
(ステップS60)PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。
Next, a description will be given of a procedure of processing in which the user of each terminal calls and uses an image (video, still image) recorded on the server 200.
(Step S60) In order to select an image recorded in the server 200, the user of the PC 220 operates the input unit 224, for example, presses a predetermined key on the keyboard.
(ステップS61)図18に移って、PC220の表示部225には、サーバー200に記録されている画像の縮小された画像であるサムネイルの一覧表が表示されているとする。PC220のユーザーは、サーバー200に記録されている画像を選択するために、入力部224を操作、例えば、キーボードの所定のキーを押す。なお、サムネイルの一覧表は、PC220のユーザーが、キーボードの所定のキー、マウスの操作により、サーバー200から読み込んで表示するようにしてもよい。 (Step S61) Referring to FIG. 18, it is assumed that a list of thumbnails, which are reduced images of images recorded in the server 200, is displayed on the display unit 225 of the PC 220. The user of the PC 220 operates the input unit 224, for example, presses a predetermined key on the keyboard in order to select an image recorded in the server 200. Note that the thumbnail list may be read from the server 200 and displayed by the user of the PC 220 by operating predetermined keys on the keyboard and the mouse.
(ステップS62)PC220の処理部221は、入力部224から入力された制御信号に基づいて、選択した画像を示す情報を、サーバー200に送信する。 (Step S <b> 62) The processing unit 221 of the PC 220 transmits information indicating the selected image to the server 200 based on the control signal input from the input unit 224.
(ステップS63)サーバー200の処理部201は、PC220から受信した受信信号に基づいて、選択された映像とその映像に関連付けられて記憶部202に記録されている環境情報を読み出す。処理部201は、読み出した環境情報に基づいて、方位を算出する。処理部201は、読み出した映像データと算出した方位情報とを、HMD1、及びPC220に送信する。 (Step S <b> 63) Based on the received signal received from the PC 220, the processing unit 201 of the server 200 reads out the selected video and the environment information recorded in the storage unit 202 in association with the video. The processing unit 201 calculates an orientation based on the read environment information. The processing unit 201 transmits the read video data and the calculated azimuth information to the HMD 1 and the PC 220.
(ステップS64)サーバー200の処理部201は、HMD1、及びPC220に映像データを送信したことを、記憶部202に記録する。
次に、HMD1及びPC220の各処理部(123、及び221)は、サーバー200から受信した映像データと方位情報とに基づく画像を、各々、LCD63、及び表示部225に表示する。
(Step S64) The processing unit 201 of the server 200 records in the storage unit 202 that the video data has been transmitted to the HMD 1 and the PC 220.
Next, the processing units (123 and 221) of the HMD 1 and the PC 220 display images based on the video data and the orientation information received from the server 200 on the LCD 63 and the display unit 225, respectively.
(ステップS65)HMD1のユーザーは、サーバー200から送信されている映像に線画を描写するために、タッチスイッチ34の所定の領域をタッチ(第1操作)する。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、送信されている映像を一時停止する要求を、サーバー200に送信する。すなわち、サーバー200から読み出した映像に対して、線画を描写する場合においても、映像を一時停止して静止画を得る。そして、各端末は、この静止画に線画を重畳することができる。 (Step S <b> 65) The user of the HMD 1 touches a predetermined area of the touch switch 34 (first operation) in order to draw a line drawing on the video transmitted from the server 200. Next, the processing unit 123 of the HMD 1 transmits a request for temporarily stopping the transmitted video to the server 200 based on the control signal input from the touch switch 34. That is, even when a line drawing is drawn on the video read from the server 200, the video is paused to obtain a still image. And each terminal can superimpose a line drawing on this still picture.
(ステップS66)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、送信中の映像データを一時停止する。次に、処理部201は、送信中の映像データを一時停止したことを示す情報を、HMD1、及びPC220に送信する。 (Step S66) The processing unit 201 of the server 200 temporarily stops the video data being transmitted based on the received signal received from the HMD1. Next, the processing unit 201 transmits information indicating that the video data being transmitted has been temporarily stopped to the HMD 1 and the PC 220.
(ステップS67)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、一時停止した静止画を、各々、フラッシュメモリー122、記憶部222に記録する。なお、HMD1の処理部123は、ステップS65において、ユーザーがタッチスイッチ34をタッチしたことに基づいて、一時停止した静止画を、フラッシュメモリー122に記録するようにしてもよい。 (Step S67) The processing units (123 and 221) of the HMD 1 and the PC 220 record the paused still images in the flash memory 122 and the storage unit 222, respectively, based on the received signal received from the server 200. . Note that the processing unit 123 of the HMD 1 may record the paused still image in the flash memory 122 based on the user touching the touch switch 34 in step S65.
(ステップS68)図19に移って、HMD1のユーザーは、静止画に線画を重畳して表示するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1のユーザーは、タッチスイッチ34上で、指を動かして、線画を描写する。次に、HMD1の処理部123は、タッチスイッチ34の指の動きに応じて、カーソルの位置を、順次、PC200、及びサーバー200に送信する。 (Step S <b> 68) Moving to FIG. 19, the user of the HMD 1 touches a predetermined area of the touch switch 34 in order to display a line image superimposed on a still image. Next, the user of the HMD 1 moves a finger on the touch switch 34 to draw a line drawing. Next, the processing unit 123 of the HMD 1 sequentially transmits the cursor position to the PC 200 and the server 200 in accordance with the movement of the finger of the touch switch 34.
(ステップS69)HMD1、及びPC220の各処理部(123、及び221)は、描写された青色の線画を静止画に重畳して、各々、LCD63、表示部225上に表示する。次に、各処理部(123、及び221)は、青色の線画を静止画に重畳した画像データを、各々、フラッシュメモリー122、記憶部222に記録する。 (Step S69) Each processing unit (123 and 221) of the HMD 1 and the PC 220 superimposes the drawn blue line image on the still image and displays it on the LCD 63 and the display unit 225, respectively. Next, each processing unit (123 and 221) records image data in which a blue line image is superimposed on a still image in the flash memory 122 and the storage unit 222, respectively.
(ステップS70)HMD1のユーザーは、一時停止を解除して、映像の送信を再開するために、タッチスイッチ34の所定の領域をタッチする。次に、HMD1の処理部123は、一時停止を解除して、映像の送信を再開する要求を、サーバー200に送信する。 (Step S <b> 70) The user of the HMD 1 touches a predetermined area of the touch switch 34 in order to cancel the temporary stop and resume the transmission of the video. Next, the processing unit 123 of the HMD 1 cancels the temporary stop and transmits a request to resume transmission of video to the server 200.
(ステップS71)サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、一時停止を解除し、映像データの送信を再開する。次に、処理部201は、ステップS69で描写された線画の表示を消去する指示を、HMD1、及びPC220に送信する。 (Step S <b> 71) The processing unit 201 of the server 200 cancels the pause based on the received signal received from the HMD 1 and resumes transmission of video data. Next, the processing unit 201 transmits to the HMD 1 and the PC 220 an instruction to delete the line drawing displayed in step S69.
(ステップS72)HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に表示されていた青色の線画を消去する。次に、HMD1、及びPC220の各処理部(123、及び221)は、サーバー200から受信した受信信号に基づいて、各々、LCD63、表示部225に送信が再開された映像データと方位情報に基づく画像を表示する。 (Step S <b> 72) Each processing unit (123 and 221) of the HMD 1 and the PC 220 deletes the blue line drawing displayed on the LCD 63 and the display unit 225 based on the received signal received from the server 200. Next, the respective processing units (123 and 221) of the HMD 1 and the PC 220 are based on the video data and the orientation information whose transmission is resumed to the LCD 63 and the display unit 225, respectively, based on the received signal received from the server 200. Display an image.
次に、HMD1のユーザーの指示により、HMD1自ら撮影した映像に対して自らが線画を重畳する手順を説明する。
(ステップS73)HMD1のユーザーは、線画を描写して送信するために、タッチスイッチ34上の所定の位置で指を動かす。この場合、線画を送信するため、HMD1の処理部123は、カメラ64が撮像した映像を、低解像度から中解像度に切り替える。
Next, a procedure for superimposing a line drawing on the video captured by the HMD 1 itself according to an instruction of the user of the HMD 1 will be described.
(Step S73) The user of the HMD 1 moves his / her finger at a predetermined position on the touch switch 34 in order to draw and transmit a line drawing. In this case, in order to transmit the line drawing, the processing unit 123 of the HMD 1 switches the video captured by the camera 64 from low resolution to medium resolution.
(ステップS74)図20に移って、HMD1の処理部123は、カメラ64が撮像した動画を中解像度の映像に変換し、変換した中解像度の映像データを、PC220、及びサーバー200に送信する。 (Step S <b> 74) Moving to FIG. 20, the processing unit 123 of the HMD 1 converts the moving image captured by the camera 64 into a medium-resolution video, and transmits the converted medium-resolution video data to the PC 220 and the server 200.
(ステップS75)HMD1のユーザーは、送信中の映像を一時停止するために、タッチスイッチ34の所定の位置をタッチする。次に、HMD1のユーザーは、一時停止させた静止画上に線画を描写するために、タッチスイッチ34上で指を動かす。
次に、HMD1の処理部123は、タッチスイッチ34がタッチされたことに基づいて、送信中の映像を一時停止する指示を、PC220、及びサーバー200に送信する。
次に、処理部123は、タッチスイッチ34上の指の動きに応じて、順次、カーソルの位置を示す情報を、PC220、及びサーバー200に送信する。
(Step S75) The user of the HMD 1 touches a predetermined position of the touch switch 34 in order to pause the video being transmitted. Next, the user of the HMD 1 moves his / her finger on the touch switch 34 in order to draw a line drawing on the paused still image.
Next, based on the touch switch 34 being touched, the processing unit 123 of the HMD 1 transmits an instruction to temporarily stop the video being transmitted to the PC 220 and the server 200.
Next, the processing unit 123 sequentially transmits information indicating the position of the cursor to the PC 220 and the server 200 according to the movement of the finger on the touch switch 34.
(ステップS76)HMD1の処理部123は、タッチスイッチ34上の指の動きに応じて、静止画上に青色の線画を重畳して表示する。
次に、PC220の処理部221は、HMD1から受信した受信信号に基づいて、映像を一時停止する。次に、処理部221は、HMD1から受信した受信信号に基づいて、一時停止した静止画に青色の線画を重畳して、表示部225に表示する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、映像データを一時停止し、停止したときの静止画を記憶部202に記録する。次に、処理部201は、HMD1から受信した受信信号に基づいて、青色の線画を、記憶部202に記録する。
(Step S76) The processing unit 123 of the HMD 1 superimposes and displays a blue line image on the still image according to the movement of the finger on the touch switch 34.
Next, the processing unit 221 of the PC 220 temporarily stops the video based on the received signal received from the HMD 1. Next, based on the received signal received from the HMD 1, the processing unit 221 superimposes a blue line drawing on the paused still image and displays it on the display unit 225.
Next, the processing unit 201 of the server 200 temporarily stops the video data based on the received signal received from the HMD 1 and records the still image when the video data is stopped in the storage unit 202. Next, the processing unit 201 records a blue line drawing in the storage unit 202 based on the reception signal received from the HMD 1.
次に、ステップS1で通話を開始したHMD1により、全ての通話相手との通話を終了する処理について説明する。
(ステップS77)HMD1のユーザーは、全ての端末との通話を完了するため、タッチスイッチ34の所定の位置をタッチする。次に、HMD1の処理部123は、タッチスイッチ34から入力された制御信号に基づいて、通話を完了する指示を、ステップS77で通話に参加しているPC220、及びサーバー200に送信する。次に、処理部123は、PC220、及びサーバー200との通話を終了する。
Next, a process for ending calls with all call partners using the HMD 1 that started the call in step S1 will be described.
(Step S77) The user of the HMD 1 touches a predetermined position of the touch switch 34 in order to complete a call with all terminals. Next, based on the control signal input from the touch switch 34, the processing unit 123 of the HMD 1 transmits an instruction to complete the call to the PC 220 and the server 200 participating in the call in step S77. Next, the processing unit 123 ends the call with the PC 220 and the server 200.
(ステップS78)PC220の処理部221は、HMD1から受信した受信信号に基づいて、HMD1からの通話処理を終了する。
次に、サーバー200の処理部201は、HMD1から受信した受信信号に基づいて、HMD1及びPC220との接続が終了したことを示す情報を、記憶部202に記録する。
(Step S78) The processing unit 221 of the PC 220 ends the call processing from the HMD 1 based on the received signal received from the HMD 1.
Next, the processing unit 201 of the server 200 records information indicating that the connection between the HMD 1 and the PC 220 is completed in the storage unit 202 based on the received signal received from the HMD 1.
なお、図10〜図20に示した例において、各端末からの画像データの送信、線画の描写等の順序は、一例であり、各端末のユーザーの指示に応じた順序で行われる。 In the examples shown in FIGS. 10 to 20, the order of transmission of image data from each terminal, the drawing of line drawings, and the like is an example, and is performed in the order according to the instruction of the user of each terminal.
次に、アバターの表示について説明する。
図26は、本実施形態に係るアバターの表示手順のフローチャートである。
Next, display of an avatar will be described.
FIG. 26 is a flowchart of an avatar display procedure according to this embodiment.
(ステップS101)HMD1のユーザーは、タッチスイッチ34を操作して、相手端末の呼び出しを行う。 (Step S101) The user of the HMD 1 operates the touch switch 34 to call the partner terminal.
(ステップS102)HMD1の処理部123は、図27に示すように、呼び出している通話相手に対するアバターの画像、及び呼び出し中の画像を、LCD63に表示する。
図27は、本実施形態に係る通話相手を呼び出し中に表示される画像の一例を説明する図である。図27において、画像400には、画像401〜403、及び画像451〜453が含まれている。画像401〜403は、通話相手の各アバターである。画像451〜453は、呼び出し中を示す画像であり、図27に示した例では、「ベル」の形で表している。なお、呼び出し中においては、各通話相手の位置情報を取得できていないため、処理部123は、各通話相手のアバターの表示位置を、予め定められている順番に、配置して表示するようにしてもよい。また、図27に示した例では、アバター(401〜403)、及び呼び出し中の画像(451〜453)は、画像400の上部に表示されている例を示したが、これに限られない。例えば、LCD63に表示されている画像に応じて、画像400の下に並べて表示、右位置に縦に並べて表示、左位置に縦に並べて表示するようにしてもよい。また、アバター、及び呼び出し中の画像は、カラーであっても白黒であってもよい。
また、図27に示した例では、呼び出し中の画像(451〜453)を、アバター(401〜403)の右に表示する例を示したが、呼び出し中の画像(451〜453)は、左、上、下等に表示するようにしてもよい。さらに、呼び出し中の画像(451〜453)は、静止画であってもアニメーションであってもよい。
また、図27に示した例では、発信元のアバターを表示しない例を示したが、発信元のアバターも表示してもよい。
(Step S102) As shown in FIG. 27, the processing unit 123 of the HMD 1 displays an avatar image and a calling image on the calling party on the LCD 63.
FIG. 27 is a diagram for explaining an example of an image displayed while calling the calling party according to the present embodiment. In FIG. 27, an image 400 includes images 401 to 403 and images 451 to 453. Images 401 to 403 are each avatar of the other party. The images 451 to 453 are images indicating that a call is in progress, and in the example shown in FIG. In addition, since the position information of each call partner cannot be acquired during the call, the processing unit 123 arranges and displays the display positions of the avatars of the call opponents in a predetermined order. May be. In the example illustrated in FIG. 27, the avatars (401 to 403) and the images being called (451 to 453) are displayed on the upper part of the image 400, but are not limited thereto. For example, in accordance with the image displayed on the LCD 63, the image 400 may be displayed side by side, displayed vertically at the right position, and displayed vertically at the left position. The avatar and the image being called may be either color or black and white.
In the example shown in FIG. 27, an example of displaying the calling image (451 to 453) on the right side of the avatar (401 to 403) is shown, but the calling image (451 to 453) , Upper, lower, etc. may be displayed. Furthermore, the image (451 to 453) being called may be a still image or an animation.
Further, in the example shown in FIG. 27, the example in which the sender avatar is not displayed is shown, but the sender avatar may also be displayed.
(ステップS103)処理部123は、通話相手がHMD1からの呼び出しに応じて、通話に参加したことを検出する。通話に参加したことが検出できた場合(ステップS103;Yes)、ステップS104に進む。通話に参加したことが検出できない場合(ステップS103;No)、ステップS105に進む。 (Step S103) The processing unit 123 detects that the other party has joined the call in response to a call from the HMD1. If it is detected that the user has joined the call (step S103; Yes), the process proceeds to step S104. If it is not possible to detect participation in the call (step S103; No), the process proceeds to step S105.
(ステップS104)通話に参加したことが検出できた場合、処理部123は、参加を検出できた相手端末に対応する呼び出し中の画像を、図28に示すように消去する。
図28は、本実施形態に係る通話相手が通話に参加したときの表示の一例の図である。図28において、画像400aには、アバター401〜403、及び呼び出し中の画像452及び453が含まれている。図28に示した例では、アバター401に対応する通話相手が通話に参加し、アバター402及び403に対応する通話相手が通話に参加していない場合を表している。図28に示すように、アバター401に対応する通話相手が通話に参加したため、画像400aから、アバター401に対応する呼び出し中の画像451が消去されている。
(Step S104) When it is detected that the user has joined the call, the processing unit 123 deletes the calling image corresponding to the partner terminal whose participation has been detected as shown in FIG.
FIG. 28 is a view showing an example of a display when the call partner according to the present embodiment participates in a call. In FIG. 28, an image 400a includes avatars 401 to 403 and images 452 and 453 being called. In the example shown in FIG. 28, a call partner corresponding to the avatar 401 participates in the call, and a call partner corresponding to the avatars 402 and 403 does not participate in the call. As shown in FIG. 28, since the calling party corresponding to the avatar 401 has joined the call, the calling image 451 corresponding to the avatar 401 is deleted from the image 400a.
(ステップS105)通話に参加したことが検出できない場合、またはステップS104終了後、処理部123は、呼び出した通話相手のうち、少なくとも1人が通話に参加したか否かを判別する。1人も通話に参加していない場合(ステップS105;No)、ステップS103に戻る。少なくとも1人が通話に参加している場合(ステップS105;Yes)、ステップS106に進む。 (Step S105) If it is not possible to detect participation in a call, or after step S104 is completed, the processing unit 123 determines whether or not at least one of the called parties has joined the call. If no one is participating in the call (step S105; No), the process returns to step S103. When at least one person is participating in the call (step S105; Yes), the process proceeds to step S106.
(ステップS106)処理部123は、通話に参加している通話相手の環境情報を取得する。処理部123は、取得した環境情報から位置情報を抽出する。 (Step S <b> 106) The processing unit 123 acquires environment information of a call partner participating in the call. The processing unit 123 extracts position information from the acquired environment information.
(ステップS107)処理部123は、抽出した位置情報に基づいて、呼び出しを行っている通話相手のアバターの配置位置を、1次元で修正する。なお、1次元で修正とは、例えば、図27に示した例では、初期状態において、右から左に並べられて表示されているアバター401〜403の配置の順番を、位置情報に基づいて入れ替えることである。 (Step S107) Based on the extracted position information, the processing unit 123 corrects the arrangement position of the calling partner's avatar that is calling one-dimensionally. For example, in the example shown in FIG. 27, the one-dimensional correction is to change the order of arrangement of the avatars 401 to 403 displayed from right to left in the initial state based on the position information. That is.
図29は、本実施形態に係るアバターを再配置した後の表示の一例の図である。図29において、画像400bには、アバター401〜403、及び付加情報アイコンの画像461が含まれている。図29に示した例では、呼び出したアバター401〜403が、全て通話に参加したため、図27で表示されていた呼び出し中の画像(451〜453)が全て消去されている。また、図29に示した例では、アバター402及び403に対応する通話相手の位置情報が取得でき、アバター401に対応する通話相手の位置情報が取得できていない場合を示している。この場合、アバター402に対応する位置情報における経度の方が、アバター403の位置情報における経度より、HMD1に対して相対的に東であったため、アバター402を一番、右に配置し、アバター403を真ん中に配置している。また、アバター401の位置情報が取得できなかったため、アバター401に対して付加情報として画像461を付加して表示する。図29に示した例では、位置情報が不明のため、付加情報アイコン461として「?」を表示している。
なお、位置情報の不明なアバターが複数あった場合には、所定の順序、例えば左側から順に表示される。また、図29に示した例のように、位置情報を取得できているアバターを、右から順に配置し、位置情報を取得できていないアバターをその次に配置するようにしてもよい。
また、図29に示した例では、HMD1のユーザーが使用しているHMD1のLCD63には、自分のアバターは表示されていない。このため、表示されるアバターの位置は、HMD1のユーザーの位置と通話相手との相対位置によって変化するので、全てのユーザーが使用する端末のLCD、または表示部に表示される表示が、すべて異なったものとなっている。
FIG. 29 is a diagram illustrating an example of a display after rearranging the avatars according to the present embodiment. In FIG. 29, an image 400b includes avatars 401 to 403 and an additional information icon image 461. In the example shown in FIG. 29, since all the avatars 401 to 403 that have been called participate in the call, all the images (451 to 453) that are being called that are displayed in FIG. 27 are deleted. In the example shown in FIG. 29, the call partner position information corresponding to the avatars 402 and 403 can be acquired, and the call partner position information corresponding to the avatar 401 cannot be acquired. In this case, since the longitude in the position information corresponding to the avatar 402 is east relative to the HMD1 relative to the longitude in the position information of the avatar 403, the avatar 402 is arranged on the rightmost side, and the avatar 403 Is placed in the middle. Further, since the position information of the avatar 401 could not be acquired, an image 461 is added to the avatar 401 as additional information and displayed. In the example shown in FIG. 29, since the position information is unknown, “?” Is displayed as the additional information icon 461.
In addition, when there are a plurality of avatars whose position information is unknown, they are displayed in a predetermined order, for example, from the left side. In addition, as in the example illustrated in FIG. 29, the avatars for which position information can be acquired may be arranged in order from the right, and the avatars for which position information cannot be acquired may be arranged next.
In the example shown in FIG. 29, the user's avatar is not displayed on the LCD 63 of the HMD 1 used by the user of the HMD 1. For this reason, since the position of the displayed avatar changes depending on the relative position between the position of the user of the HMD 1 and the communication partner, the display displayed on the LCD or display unit of the terminal used by all users is completely different. It has become.
(ステップS108)ステップS107において、通話相手の位置情報が取得できない場合、処理部123は、通話に参加した順番に、アバターをLCD63に表示する。この場合、例えば、通話に参加した順番に、右から表示するようにしてもよい。 (Step S108) If the location information of the call partner cannot be acquired in step S107, the processing unit 123 displays the avatars on the LCD 63 in the order of participation in the call. In this case, for example, it may be displayed from the right in the order of participation in the call.
(ステップS109)処理部123の音声調整部310は、ステップS107で修正された各通話相手の位置情報に基づいて、ステレオイヤホン100に出力する音声信号の左右のバランスを調整する。なお、音声信号の調整については、後述する。 (Step S109) The audio adjustment unit 310 of the processing unit 123 adjusts the left / right balance of the audio signal output to the stereo earphone 100 based on the location information of each call partner corrected in step S107. The adjustment of the audio signal will be described later.
(ステップS110)処理部123の音声調整部310は、通話に参加している発話相手からの各音声信号のレベルを検出する。検出した音声レベルが、予め定められている閾値より大きい場合、すなわち音声情報が周囲の雑音ではなく端末使用者の発話による音声であると判別される場合、音声調整部310は、アバターの口元を動かすアニメーションを表示する。なお、アニメーションの表示は、処理部123のアバター生成部306が処理を行っている。 (Step S110) The voice adjustment unit 310 of the processing unit 123 detects the level of each voice signal from the speaking partner participating in the call. When the detected voice level is larger than a predetermined threshold, that is, when it is determined that the voice information is not the ambient noise but the voice of the terminal user's speech, the voice adjustment unit 310 uses the avatar's mouth. Display moving animation. Note that the avatar generation unit 306 of the processing unit 123 performs the display of the animation.
(ステップS111)通話相手の端末が、前述したHMD500のようにカメラを有し、目元等の画像を、HMD1に送信できる場合、処理部123は、通話相手に対応するアバターの表情を、アニメーションを用いて変化させる。
例えば、通話相手の目元が笑っていれば、通話相手に対応するアバターの表情も笑い、また通話相手の目元が困っていれば、通話相手に対応するアバターも困惑の表情を示すように表示するように制御するようにしてもよい。また、通話相手の端末がHMD500の場合、眼球の動きを撮像素子72で撮影することで検出して、検出した画像、または検出した結果に基づくアバターの表情情報を、他の端末に送信する。HMD1の処理部123は、HMD500から受信した受信情報に基づいて、HMD500に対応するアバターの目の動きに連動させるようにしてもよい。
(Step S <b> 111) When the terminal of the other party has a camera like the HMD 500 described above and can transmit an image such as the eyes to the HMD 1, the processing unit 123 animates the facial expression of the avatar corresponding to the other party. Use to change.
For example, if the call partner's eyes are laughing, the avatar's facial expression corresponding to the call partner is also laughed, and if the call partner's eyes are troubled, the avatar corresponding to the call partner is also displayed to show a confused expression. You may make it control so. When the other party's terminal is the HMD 500, the movement of the eyeball is detected by photographing with the image sensor 72, and the detected image or avatar expression information based on the detected result is transmitted to another terminal. The processing unit 123 of the HMD 1 may be linked to the movement of the avatar's eyes corresponding to the HMD 500 based on the reception information received from the HMD 500.
図30は、本実施形態に係るアバターの口元及び目線をアニメーションで表示する例の図である。図30において、画像400cには、アバター401、402、403a、及び付加情報アイコンの画像461が含まれている。図30に示した例では、図29に示したアバター403と異なっている。図30に示した例では、アバター403aに対応する発話相手から受信した音声信号が、予め定められているレベルより大きいと判別されたため、目線と口元をアニメーションで表示している。
図30に示したように、発話している相手のアバターの口元等をアニメーションで表示することで、そのアバターに対応する端末からの音声であることがより判りやすくなる。また、目線もアニメーションで表示した場合、アバターの表情の変化を示すことができるため、HMD1のユーザーにとって情報の取得が容易になる。例えば、これらの表情を示す情報に基づいて、HMD1のユーザーは、通話相手が、自分の話を理解しているのか、何に興味を示しているのか等の情報を取得することができる。
FIG. 30 is a diagram of an example in which the mouth and line of sight of the avatar according to the present embodiment are displayed by animation. In FIG. 30, an image 400c includes avatars 401, 402, and 403a and an additional information icon image 461. The example shown in FIG. 30 is different from the avatar 403 shown in FIG. In the example shown in FIG. 30, since it is determined that the audio signal received from the speaking partner corresponding to the avatar 403a is larger than a predetermined level, the eyes and mouth are displayed as animations.
As shown in FIG. 30, it is easier to understand that the voice is from the terminal corresponding to the avatar by displaying the mouth of the avatar of the other party who is speaking as an animation. Further, when the line of sight is also displayed as an animation, a change in the expression of the avatar can be shown, so that it becomes easy for the user of the HMD 1 to acquire information. For example, based on information indicating these facial expressions, the user of the HMD 1 can acquire information such as whether the other party understands his / her story and what he / she is interested in.
(ステップS112)HMD1の撮像素子72が撮像した画像に基づく表情情報、または、撮像素子72が撮像した画像データを、他の端末に送付する。 (Step S112) Expression information based on an image captured by the image sensor 72 of the HMD 1 or image data captured by the image sensor 72 is sent to another terminal.
(ステップS113)処理部123は、通話に参加している通話相手が通話を終了したか否かを判別する。通話相手が通話を終了していないと判別した場合(ステップS113;No)、ステップS103に戻り、ステップS103〜S113を繰り返す。通話相手が通話を終了したと判別した場合(ステップS113;Yes)、ステップS114に進む。 (Step S113) The processing unit 123 determines whether or not the other party participating in the call has ended the call. When it is determined that the other party has not ended the call (step S113; No), the process returns to step S103, and steps S103 to S113 are repeated. When it is determined that the other party has finished the call (step S113; Yes), the process proceeds to step S114.
(ステップS114)通話相手が通話を終了したと判別した場合、処理部123は、通話を終了した通話相手に対応するアバター、及び付加情報を示す画像を、LCD63の表示から消去する。次に、処理部123は、通話に残っている通話相手に対応するアバターの配置を修正する。
図31は、本実施形態に係る通話相手が1人、抜けた場合の表示の例を説明する図である。図31において、画像400dには、アバター402及び403が含まれている。図31に示した例では、図30に対して、アバター401が消去され、さらに、通話に参加している通話相手に対応するアバター402及び403の配置が修正された後の画像である。なお、図31においても、アバター402と403との配置は、HMD1の位置に対して、相対的に東に位置している通話相手に対応するアバターから順に、右から配置している。
さらに、図31のように、アバター401に対応する通話相手が一度、通話から抜けた後、このセッションが継続している期間に、再度、通話に参加した場合について説明する。この場合、処理部123は、通話に参加した通話相手に対応するアバター401を、再度、追加して、3つのアバターを再配置して表示する。
すなわち、処理部123は、通話への参加状態(通話参加か、通話から抜けたか)に基づいて、アバターの追加、または削除を行う。
(Step S114) When it is determined that the other party has finished the call, the processing unit 123 deletes the avatar corresponding to the other party who has finished the call and the image indicating the additional information from the display on the LCD 63. Next, the process part 123 corrects arrangement | positioning of the avatar corresponding to the other party who remains in the call.
FIG. 31 is a diagram for explaining an example of a display when one call partner according to the present embodiment is missed. In FIG. 31, an image 400d includes avatars 402 and 403. In the example illustrated in FIG. 31, the image after the avatar 401 is deleted and the arrangement of the avatars 402 and 403 corresponding to the call partner participating in the call is corrected with respect to FIG. 30. In FIG. 31 as well, the avatars 402 and 403 are arranged from the right in order from the avatar corresponding to the call partner located east relative to the position of the HMD1.
Furthermore, as shown in FIG. 31, a case will be described in which the call partner corresponding to the avatar 401 once participates in the call again during a period in which this session continues after the call partner has left the call. In this case, the processing unit 123 adds the avatar 401 corresponding to the call partner who participated in the call again, and rearranges and displays the three avatars.
That is, the processing unit 123 adds or deletes the avatar based on the participation state (whether the call has been joined or has left the call).
(ステップS115)図26に戻って、処理部123は、通話相手が通話に残っているか否かを判別する。通話相手が通話に残っている場合(ステップS115;Yes)、ステップS103に戻り、ステップS103〜S115を繰り返す。通話相手が通話に残っていない場合(ステップS115:No)、ステップS116に進む。 (Step S115) Returning to FIG. 26, the processing unit 123 determines whether or not the other party remains in the call. When the other party remains in the call (step S115; Yes), the process returns to step S103, and steps S103 to S115 are repeated. If the other party does not remain in the call (step S115: No), the process proceeds to step S116.
(ステップS116)。通話相手が通話に残っていない場合、全ての通話相手が通話を終了したため、処理部123は、LCD63に通話が終了したメッセージを文字表示、アイコン表示等で表示する。または、処理部123は、通話終了を、音声で再生するようにしてもよい。 (Step S116). If the other party does not remain in the call, since all the other parties have finished the call, the processing unit 123 displays a message indicating that the call has ended on the LCD 63 by text display, icon display, or the like. Alternatively, the processing unit 123 may reproduce the end of the call by voice.
以上のように、本実施形態によれば、通話相手の端末の位置情報(緯度、経度)に基づいた位置にアバターが表示され、さらにアバターの位置に応じて左右の音声のバランスも切り替わり、アバターの位置に応じた音声が聞こえてくるので、良好なコミュニケーションを取ることができる。 As described above, according to the present embodiment, the avatar is displayed at a position based on the position information (latitude, longitude) of the terminal of the other party, and the balance of the left and right voices is switched according to the position of the avatar. Since a sound corresponding to the position of the sound is heard, good communication can be performed.
次に、音声調整部310が行う左右の音量バランスの調整の一例を、図8、及び図32を用いて説明する。
図32は、本実施形態に係る音声調整部が行う左右の音量バランスの調整のフローチャートである。
Next, an example of the left / right volume balance adjustment performed by the audio adjustment unit 310 will be described with reference to FIGS. 8 and 32. FIG.
FIG. 32 is a flowchart of left and right volume balance adjustment performed by the audio adjustment unit according to the present embodiment.
(ステップS201)処理部123の音声調整部310は、エンコーダー129が出力する音声データ、送受信部303が出力する受信信号から音声データを取得する。 (Step S <b> 201) The audio adjustment unit 310 of the processing unit 123 acquires audio data from the audio data output from the encoder 129 and the reception signal output from the transmission / reception unit 303.
(ステップS202)アバター生成部306は、位置算出部309が出力するHMD1及び他の端末の位置情報を取得する。アバター生成部306は、取得したHMD1及び他の端末の位置情報に基づいて、各アバターの位置情報を音声調整部310に出力する。 (Step S202) The avatar generation unit 306 acquires the position information of the HMD 1 and other terminals output from the position calculation unit 309. The avatar generation unit 306 outputs the position information of each avatar to the voice adjustment unit 310 based on the acquired HMD1 and position information of other terminals.
(ステップS203)音声調整部310は、取得したHMD1の音声データ、各端末の音声データに基づく音声信号を、アバター生成部306が出力した各アバターの位置情報に基づいて、オーディオコネクター26に接続されているステレオイヤホン100で再生される左右の音声に振り分ける。 (Step S203) The voice adjustment unit 310 is connected to the audio connector 26 based on the position information of each avatar output from the avatar generation unit 306, based on the acquired voice data of the HMD1 and the voice data of each terminal, based on the position information of each avatar. The left and right sounds are reproduced by the stereo earphone 100 being used.
ここで、表示部60が使用者の右目側に配置され、第1スピーカー103が右耳に、第2スピーカー104が左耳に対応するようになっている場合について、具体的な例を説明する。通話に参加しているユーザーが、図9のように、HMD1のユーザーを除いて3人の場合、例えば、図29のようにLCD63に表示されているアバターは、HMD500のアバター401、PC210のアバター403、及びPC220のアバター402である。
3人の位置関係は、図29に示した例では、PC220のユーザーの位置が、HMD1の位置に対して、相対的に一番、東である。また、HMD500のユーザーの位置は取得できていない。このため、図29に示したように、HMD500のユーザーが、一番、西であるとする。PC210のユーザーの位置は、PC220とHMD500の位置の間である。このアバターの配置関係と同様に、音声調整部310は、PC220の音声信号を、右に比重を高くして振り分ける。例えば、音声調整部310は、右を80%の音量、左を20%の音量に振り分ける。音声調整部310は、HMD500の音声信号を、左に比重を高く、例えば、右を20%の音量、左を80%の音量に振り分ける。音声調整部310は、PC210の音声信号を、左右均等、すなわち、右を50%の音量、左を50%の音量に振り分ける。
音声調整部310は、このように振り分けた音声信号を合成して、合成した音声データをデコーダー121に出力する。
ステップS203の処理により、LCD63に表示されている各アバター(401〜403)の表示位置と、ステレオイヤホン100で聞く音声の聞こえる方向が一致する。
Here, a specific example will be described in the case where the display unit 60 is arranged on the right eye side of the user, the first speaker 103 corresponds to the right ear, and the second speaker 104 corresponds to the left ear. . If the number of users participating in the call is three as shown in FIG. 9 except for the HMD1 user, for example, the avatar displayed on the LCD 63 as shown in FIG. 403 and the avatar 402 of the PC 220.
In the example shown in FIG. 29, the position of the user of the PC 220 is the most east relative to the position of the HMD 1 in the positional relationship of the three persons. Further, the position of the user of the HMD 500 cannot be acquired. Therefore, as shown in FIG. 29, it is assumed that the user of the HMD 500 is the west most. The position of the user of the PC 210 is between the positions of the PC 220 and the HMD 500. Similar to the arrangement relationship of the avatars, the audio adjustment unit 310 distributes the audio signals of the PC 220 with a higher specific gravity to the right. For example, the audio adjustment unit 310 distributes the right volume to 80% and the left volume to 20%. The audio adjustment unit 310 distributes the audio signal of the HMD 500 to the left with a high specific gravity, for example, the right is assigned to a volume of 20% and the left is assigned to a volume of 80%. The audio adjustment unit 310 distributes the audio signal of the PC 210 equally to the left and right, that is, the right is 50% volume and the left is 50% volume.
The audio adjustment unit 310 synthesizes the audio signals thus distributed and outputs the synthesized audio data to the decoder 121.
As a result of the processing in step S203, the display position of each avatar (401 to 403) displayed on the LCD 63 matches the direction in which the sound heard by the stereo earphone 100 can be heard.
以上のように、視覚的なアバターの位置情報と、聴覚的なアバターに対応する端末からの音声の左右のバランスが一致していることにより、複数からの端末からの音声を、視覚と聴覚的を用いて、適切に聞き分けることが可能となる。そして、本実施形態によれば、例えば声質が似ている複数の音声が聞こえてきても、視覚と聴覚情報によってアバターの位置と音声のバランスが異なるようにしたので、ユーザーは、適切に異なるユーザーの音声として認識することが可能となる。 As described above, the left and right balances of the position information of the visual avatar and the sound from the terminal corresponding to the auditory avatar coincide with each other. It becomes possible to distinguish properly using. According to the present embodiment, for example, even when a plurality of voices having similar voice qualities are heard, the balance between the avatar position and the voice is different depending on the visual and auditory information. Can be recognized as a voice.
なお、本実施形態では、アバターを横に並べて表示する例を説明したが、アバターを縦に並べて表示するようにしてもよい。アバターの表示を上下に行う場合、各端末の処理部は、他の端末の緯度に従ってアバターの上下位置を決定する。また、音声は音声処理により、上に配置されたアバターに対応する端末からの音声は上から、下に配置されたアバターに対応する端末からの音声は下から聞こえるように、音響特性を変えてもよい。 In this embodiment, an example in which avatars are displayed side by side has been described, but avatars may be displayed side by side. When displaying the avatar vertically, the processing unit of each terminal determines the vertical position of the avatar according to the latitude of the other terminal. Also, the sound characteristics are changed by sound processing so that the sound from the terminal corresponding to the avatar arranged above can be heard from above, and the sound from the terminal corresponding to the avatar arranged below can be heard from below. Also good.
次にアバター表示の他の実施例を説明する。
図33は、本実施形態に係る他のアバター表示における表示手順のフローチャートである。以下の説明では、通話に参加しているユーザーが使用している端末が、全て本実施形態によるHMD1であるとして説明する。
(ステップS101〜S105)図26のステップS101〜S105と同様に、処理を行う。
Next, another embodiment of the avatar display will be described.
FIG. 33 is a flowchart of a display procedure in another avatar display according to this embodiment. In the following description, it is assumed that all terminals used by users participating in a call are the HMD 1 according to the present embodiment.
(Steps S101 to S105) Processing is performed in the same manner as steps S101 to S105 in FIG.
(ステップS301)処理部123の位置算出部309は、送受信部303が出力する受信信号から通話相手の環境情報を抽出する。位置算出部309は、抽出した環境情報から、各端末の位置情報、及び各端末のユーザーが向いている方向等の情報(以下、端末の位置方位情報という)を抽出、または算出する。なお、各端末から送信される環境情報は、各ユーザーが使用しているHMDが備える各種センサー(加速度センサー132、地磁気センサー133、角速度センサー134、GPSセンサー135、温湿度センサー136、心拍数センサー137など)の出力値である。位置算出部309は、抽出、または算出した各端末の位置方位情報を、アバター生成部306に出力する。 (Step S <b> 301) The position calculation unit 309 of the processing unit 123 extracts environment information of the communication partner from the reception signal output from the transmission / reception unit 303. The position calculation unit 309 extracts or calculates position information of each terminal and information such as a direction in which the user of each terminal is facing (hereinafter referred to as terminal position / orientation information) from the extracted environment information. The environment information transmitted from each terminal includes various sensors (acceleration sensor 132, geomagnetic sensor 133, angular velocity sensor 134, GPS sensor 135, temperature / humidity sensor 136, heart rate sensor 137) included in the HMD used by each user. Etc.). The position calculation unit 309 outputs the extracted or calculated position / orientation information of each terminal to the avatar generation unit 306.
(ステップS302)アバター生成部306は、HMD1の位置を中心として、通話相手の位置方位情報に基づいて、各通話相手に対応するアバターを、2次元的に、LCD63の表示画像内に配置して表示する。 (Step S302) The avatar generation unit 306 arranges the avatar corresponding to each call partner two-dimensionally in the display image of the LCD 63 based on the position and orientation information of the call partner with the position of the HMD 1 as the center. indicate.
(ステップS303)アバター生成部306は、予め定められている期間、各端末の位置情報の変化を観測し、観測した結果に基づいて、各端末のユーザーが移動中であるか否かを判別する。
各端末のユーザーが移動中である場合、アバター生成部306は、予め定められている期間、移動した移動距離と、移動に要した時間に基づいて、移動速度を算出し、算出した結果に基づいて、各端末のユーザーの移動手段を推定する。
各端末のユーザーが移動中ではない場合、アバター生成部306は、ユーザーが端末を自宅等で使用していると判断する。
次に、アバター生成部306は、推定した滞在場所を示す付加情報アイコン、または推定した移動手段を示す付加情報アイコンを生成する。
次に、アバター生成部306は、生成した各端末に対応する付加情報アイコンを、各アバターの付近に配置して表示する。
(Step S303) The avatar generation unit 306 observes a change in position information of each terminal for a predetermined period, and determines whether or not the user of each terminal is moving based on the observed result. .
When the user of each terminal is moving, the avatar generation unit 306 calculates the moving speed based on the moving distance moved for a predetermined period and the time required for moving, and based on the calculated result. Thus, the moving means of the user of each terminal is estimated.
When the user of each terminal is not moving, the avatar generation unit 306 determines that the user is using the terminal at home or the like.
Next, the avatar production | generation part 306 produces | generates the additional information icon which shows the estimated stay place, or the additional information icon which shows the estimated moving means.
Next, the avatar production | generation part 306 arrange | positions and displays the additional information icon corresponding to each produced | generated terminal in the vicinity of each avatar.
(ステップS304)以下、図26のステップS108〜S116と同様の処理を行う。 (Step S304) Thereafter, the same processing as steps S108 to S116 of FIG. 26 is performed.
ここで、アバターの配置手順について、具体的な例を説明する。
図34は、本実施形態に係るアバターを2次元的に配置した表示画像の一例を説明する図である。図34において、画像400eには、アバター401〜403、付加情報アイコン471〜473、及びHMD1の方向を示すマーク画像474を含んでいる。
Here, a specific example of the arrangement procedure of the avatar will be described.
FIG. 34 is a diagram illustrating an example of a display image in which avatars according to the present embodiment are two-dimensionally arranged. In FIG. 34, an image 400e includes avatars 401 to 403, additional information icons 471 to 473, and a mark image 474 indicating the direction of HMD1.
アバター生成部306は、HMD1の位置を、LCD63の中心に設定し、設定した中心部にHMD1の方向を示すマーク画像474を表示する。なお、図34において、マーク画像474「△」の頂点475は、例えば、北を表している。
次に、アバター生成部306は、アバター401に対応する位置情報を、HMD1の位置情報と比較して、アバター401を図34に示したように、マーク画像474に対して左下に配置して表示する。
次に、アバター生成部306は、アバター402に対応する位置情報を、HMD1の位置情報と比較して、アバター402を図34に示したように、マーク画像474に対して右下に配置して表示する。
次に、アバター生成部306は、アバター403に対応する位置情報を、HMD1の位置情報と比較して、アバター403を図34に示したように、マーク画像474に対して正面に配置して表示する。
なお、マーク画像474「△」と、各アバター(401〜403)との各間隔(L1〜L3)は、HMD1と各アバターに対応する端末との距離に基づいて、アバター生成部306により算出された値である。図34において、距離L1は距離L3より短く、距離L3は距離L2より短い。
図34に示した例では、アバター401に対応するユーザーが、HMD1のユーザーから一番、近い位置にいることを表している。また、アバター402に対応するユーザーが、HMD1のユーザーから一番、離れた位置にいることを表している。
なお、処理部123は、図34に示したアバターの配置を、所定の周期毎、または、通話相手の位置が変化したと判別される場合に、更新するようにしてもよい。
The avatar production | generation part 306 sets the position of HMD1 in the center of LCD63, and displays the mark image 474 which shows the direction of HMD1 in the set center part. In FIG. 34, the vertex 475 of the mark image 474 “Δ” represents, for example, north.
Next, the avatar generation unit 306 compares the position information corresponding to the avatar 401 with the position information of the HMD1, and displays the avatar 401 in the lower left with respect to the mark image 474 as shown in FIG. To do.
Next, the avatar generation unit 306 compares the position information corresponding to the avatar 402 with the position information of the HMD1, and arranges the avatar 402 at the lower right with respect to the mark image 474 as shown in FIG. indicate.
Next, the avatar generation unit 306 compares the position information corresponding to the avatar 403 with the position information of the HMD 1 and displays the avatar 403 in front of the mark image 474 as shown in FIG. To do.
The intervals (L1 to L3) between the mark image 474 “Δ” and each avatar (401 to 403) are calculated by the avatar generation unit 306 based on the distance between the HMD1 and the terminal corresponding to each avatar. Value. In FIG. 34, the distance L1 is shorter than the distance L3, and the distance L3 is shorter than the distance L2.
In the example illustrated in FIG. 34, the user corresponding to the avatar 401 is located closest to the user of the HMD 1. Moreover, it represents that the user corresponding to the avatar 402 is at the position farthest from the user of the HMD 1.
Note that the processing unit 123 may update the arrangement of the avatars shown in FIG. 34 every predetermined period or when it is determined that the position of the other party has changed.
図34のような画像がLCD63に表示されているため、HMD1のユーザーは、LCD63の画像を確認することで、各端末のユーザーの位置関係を、より視覚的に認識することが可能になる。
なお、各端末のLCDには、それぞれの端末の位置を中心にした、他の端末に対応したアバターが、各々配置して表示される。
Since the image as shown in FIG. 34 is displayed on the LCD 63, the user of the HMD 1 can more visually recognize the positional relationship of the user of each terminal by checking the image on the LCD 63.
In addition, avatars corresponding to other terminals centering on the position of each terminal are arranged and displayed on the LCD of each terminal.
また、図34で説明したアバターにおいても、ステップS110及びS111(図26)と同様に、各アバターに表情を付加することもできる。
例えば、通話相手がアバター403に対応する場合、アバター403に対応する端末(以下、アバター403の端末という)がHMD1の正面にあり、かつアバター403の端末がHMD1の方向を向いていると判断されれば、アバター403のように正面を向いている顔のアバターが表示される。
また、アバター403の端末が、横を向いていると判断される場合、アバター403の端末の地磁気センサー133の出力も加味して、処理部123は、アバターを右もしくは左を向いた状態で表示する。さらに、処理部123は、温湿度センサー136の出力や心拍数センサー137の出力が所定値以上であれば、アバター403に、汗を示す画像の付加情報を付加するようにしてもよい。
Also, in the avatar described with reference to FIG. 34, a facial expression can be added to each avatar similarly to steps S110 and S111 (FIG. 26).
For example, when the call partner corresponds to the avatar 403, it is determined that the terminal corresponding to the avatar 403 (hereinafter referred to as the terminal of the avatar 403) is in front of the HMD1, and the terminal of the avatar 403 is facing the direction of the HMD1. Then, the avatar of the face facing the front like the avatar 403 is displayed.
Further, when it is determined that the terminal of the avatar 403 is facing sideways, the processing unit 123 displays the avatar in a state of facing right or left in consideration of the output of the geomagnetic sensor 133 of the terminal of the avatar 403. To do. Further, the processing unit 123 may add additional information of an image indicating sweat to the avatar 403 if the output of the temperature / humidity sensor 136 or the output of the heart rate sensor 137 is equal to or greater than a predetermined value.
次に、図34において、各アバター(401〜403)に付加されている付加情報アイコン(471〜473)について説明する。
ステップS303(図33)において、アバター生成部306は、各アバターの端末の移動速度を算出する。
算出した結果、アバター401の端末が移動していないと判別された場合、アバター生成部306は、図34に示したように「家」の付加情報アイコン471を、アバター401の近傍に配置して表示する。
算出した結果、アバター402の端末の移動速度が航空機で移動していると推定される移動速度の場合、アバター生成部306は、図34に示したように「航空機」の付加情報アイコン472を、アバター402の近傍に配置して表示する。
算出した結果、アバター403の端末の移動速度が所定の速度であり、かつ端末から受信した情報に含まれる高度を示す情報が海上であると推定される移動速度の場合、アバター生成部306は、図34に示したように「船」の付加情報アイコン473を、アバター403の近傍に配置して表示する。この場合、例えば、アバター403の端末は、海の上を海抜ほぼゼロで移動している。
なお、図34の例では、航空機内での本実施形態における情報出力装置の使用が許可されている場合の表示例である。
Next, in FIG. 34, additional information icons (471 to 473) added to each avatar (401 to 403) will be described.
In step S303 (FIG. 33), the avatar generation unit 306 calculates the moving speed of each avatar's terminal.
As a result of the calculation, if it is determined that the terminal of the avatar 401 is not moving, the avatar generation unit 306 arranges the additional information icon 471 of “house” in the vicinity of the avatar 401 as shown in FIG. indicate.
As a result of the calculation, when the moving speed of the terminal of the avatar 402 is estimated to be moving by an aircraft, the avatar generation unit 306 displays an additional information icon 472 of “aircraft” as shown in FIG. It arrange | positions and displays in the vicinity of the avatar 402.
As a result of the calculation, when the moving speed of the terminal of the avatar 403 is a predetermined speed and the moving speed is estimated to be information indicating the altitude included in the information received from the terminal, the avatar generation unit 306 As shown in FIG. 34, the additional information icon 473 of “ship” is arranged and displayed in the vicinity of the avatar 403. In this case, for example, the terminal of the avatar 403 moves on the sea at almost zero above sea level.
Note that the example in FIG. 34 is a display example when the use of the information output device in the present embodiment in an aircraft is permitted.
付加情報アイコンの他の例として、線路上と思われる場所と高度で線路の方向に移動していると判断される場合には電車を示すアイコンを、また位置が山岳地であると判断される場合には山のアイコンを、また位置情報がテーマパークなどの遊園地と判断される場合には遊園地を示すアイコンを付加してもよい。
また、加速度センサー132の出力が継続して所定値以下であると判断される場合、無重量状態と判断して宇宙を示すアイコンを付加してもよい。これらのアイコンの種別の判断は、位置情報と地図データとの比較が必要なため、サーバー200の処理部201が行うようにしてもよい。
As another example of the additional information icon, if it is determined that the vehicle is moving in the direction of the track at a location that seems to be on the track, an icon indicating a train is determined, and the position is determined to be a mountainous area. In this case, a mountain icon may be added, and if the position information is determined to be an amusement park such as a theme park, an icon indicating an amusement park may be added.
In addition, when it is determined that the output of the acceleration sensor 132 continues to be equal to or less than the predetermined value, an icon indicating the universe may be added by determining the weightless state. The determination of these icon types may be performed by the processing unit 201 of the server 200 because the position information and the map data need to be compared.
次に、HMD1の表示部60が、図34の表示状態から、90度ほど左に回転した場合のアバター表示の例を説明する。
図35は、図34の表示において、HMD1の表示部60が90度ほど左に回転した場合のアバター表示の例を説明する図である。
図35に示した例では、HMD1の処理部123は、表示部60が、90度ほど左に回転したことを地磁気センサー133の出力に基づいて検出された場合であり、図34の画像400eに表示されていた全てのアバターが右に90度ほど回転して表示される。
この結果、図35に示したように、HMD1の右方向にアバター403及び付加情報アイコン473が表示される。同様に、左下にアバター402及び付加情報アイコン472が表示される。同様に、左上にアバター401及び付加情報アイコン471が表示される。
なお、この回転に伴って、音声調整部310は、ステップ109で調整した左右の音のバランスを変更する。音声調整部310は、音のバランスの変化を、HMD1の方位の動きに対してリアルタイムで行う。一方、音声調整部310は、アバターの表示の変更を、一定のローパスフィルターが掛かった状態で緩慢に行う。この理由は、首の動きが速くHMD1の方位が頻繁に変わる場合、表示もこれに合わせて回ると視覚による認識がついて行かなくなり、いわゆる「酔い」が生じる可能性があるためである。一方、音声の変化にはそのような問題の発生はないため、音声についてはリアルタイムで、左右のバランスを調整するようにしてもよい。
Next, an example of an avatar display when the display unit 60 of the HMD 1 is rotated to the left by 90 degrees from the display state of FIG. 34 will be described.
FIG. 35 is a diagram for explaining an example of an avatar display when the display unit 60 of the HMD 1 is rotated about 90 degrees to the left in the display of FIG.
In the example shown in FIG. 35, the processing unit 123 of the HMD 1 is a case where the display unit 60 detects that the display unit 60 has been rotated to the left by about 90 degrees based on the output of the geomagnetic sensor 133, and the image 400e in FIG. All displayed avatars are displayed rotated 90 degrees to the right.
As a result, as shown in FIG. 35, the avatar 403 and the additional information icon 473 are displayed in the right direction of the HMD1. Similarly, the avatar 402 and the additional information icon 472 are displayed on the lower left. Similarly, an avatar 401 and an additional information icon 471 are displayed on the upper left.
With this rotation, the audio adjustment unit 310 changes the balance between the left and right sounds adjusted in step 109. The sound adjustment unit 310 changes the sound balance in real time with respect to the movement of the orientation of the HMD 1. On the other hand, the voice adjustment unit 310 slowly changes the display of the avatar with a certain low-pass filter applied. The reason for this is that when the head movement is fast and the orientation of the HMD 1 changes frequently, visual recognition does not follow and the so-called “drunk” may occur. On the other hand, since such a problem does not occur in a change in sound, the left and right balance may be adjusted in real time for the sound.
以上のように、本実施形態によれば、通話相手の状態、ならびに通話相手との相対的な位置関係が各端末の表示部(含むLCD)に表示され、かつ音声が相手との相対的な方向より発せられたように聞こえる。この結果、本実施形態によれば、相手の位置関係を視覚と聴覚で識別できるので、良好なコミュニケーションを取ることが可能となる。 As described above, according to the present embodiment, the state of the call partner and the relative positional relationship with the call partner are displayed on the display unit (including LCD) of each terminal, and the voice is relative to the partner. Sounds like it was emitted from the direction. As a result, according to the present embodiment, the positional relationship of the other party can be identified visually and auditorily, so that good communication can be performed.
なお、各端末の各処理部は、図27〜図31、図34、及び図35に示したようなアバター、及びアバター付加情報アイコンを、レイヤー1に表示されている画像が透けて見えるように、半透明に表示するようにしてもよい。この場合、明度は、予め初期値を定めてあるようにしてもよい。また、明度は、ユーザーが、タッチスイッチ34を操作して調整するようにしてもよい。また、アバターのみを半透明に表示し、アバター付加情報のアイコンのみ半透明に表示してもよく、あるいは、その逆であってもよい。 Each processing unit of each terminal displays the avatar and the avatar additional information icon shown in FIGS. 27 to 31, 34, and 35 so that the image displayed on the layer 1 can be seen through. Alternatively, it may be displayed translucently. In this case, the brightness may have an initial value set in advance. The brightness may be adjusted by the user operating the touch switch 34. Further, only the avatar may be displayed translucently, and only the avatar additional information icon may be displayed translucently, or vice versa.
なお、本実施形態では、アバター記憶部307に予め複数のアバターを示す情報が記憶されている例を説明したが、これに限られない。例えば、HMD1の処理部123は、HMD1と通話を行っているユーザーのアバターを示す情報を、通信インタフェース(131、138)を介して受信するようにしてもよい。 In the present embodiment, an example in which information indicating a plurality of avatars is stored in advance in the avatar storage unit 307 is described, but the present invention is not limited thereto. For example, the processing unit 123 of the HMD 1 may receive information indicating the avatar of the user who is calling with the HMD 1 via the communication interface (131, 138).
なお、本実施形態では、ユーザーの表情情報を他の端末に送信して、アバターに表情を付加する例を示したが、表情情報は、ユーザーの状況に応じて、例えば、タッチスイッチ34等の操作により送信を許可しないように切り替えるようにしてもよい。 In the present embodiment, the facial expression information of the user is transmitted to another terminal and the facial expression is added to the avatar. However, the facial expression information may be, for example, a touch switch 34 or the like depending on the user's situation. You may make it switch so that transmission may not be permitted by operation.
なお、HMD1のLCD63は、裸眼による3次元表示が可能な表示部であってもよい。この場合、例えば、図20に示したように、アバターを横に並べて表示した場合であっても、例えば、HMD1との相対的な距離に基づいて、LCD63の奥行き方向に差を付けて各アバターを表示するようにしてもよい。
また、カメラ64は、3次元撮像が可能なものを備えるようにしてもよい。カメラ64が、3次元撮影が可能な場合、他の端末に送信する画像情報は、他の端末が全て3次元表示可能な表示部を備えていることが予め分かっていれば、3次元の画像情報を送信するようにしてもよい。
Note that the LCD 63 of the HMD 1 may be a display unit capable of three-dimensional display with the naked eye. In this case, for example, as shown in FIG. 20, even if the avatars are displayed side by side, the avatars are differentiated in the depth direction of the LCD 63 based on the relative distance to the HMD1, for example. May be displayed.
Further, the camera 64 may be provided with a camera capable of three-dimensional imaging. If the camera 64 is capable of three-dimensional imaging, the image information transmitted to the other terminal is a three-dimensional image if it is known in advance that the other terminal includes a display unit that can display three-dimensionally. Information may be transmitted.
なお、本実施形態では、処理部123が音声調整部310を備える例を説明したが、例えば、処理部123とデコーダー121との間に、独立した機能部であってもよく、あるいは、デコーダー121が備えるようにしてもよい。 In the present embodiment, the example in which the processing unit 123 includes the audio adjustment unit 310 has been described. However, for example, an independent functional unit may be provided between the processing unit 123 and the decoder 121, or the decoder 121 May be provided.
なお、本実施形態では、各端末から受信した音声を、各端末の位置関係に基づいて、左右に振り分ける例を説明したが、このとき、音声が予め定められている音量より小さい場合、音量を増幅した後に左右に振り分けるようにしてもよい。この処理は、例えば、初期設定において、自動的に行うように設定しておき、用途に応じて設定をオフにできるようにしてもよい。あるいは、初期設定では、設定をオフ状態に設定しておき、ユーザーがタッチスイッチ34を操作して設定をオンにするようにしてもよい。
また、音声調整部310は、単に増幅するのみではなく、音声帯域のみを抽出して、抽出した帯域のみを増幅するようにしてもよい。あるいは、音声の音量が、予め定められている音量以上であっても、雑音が多い場合、音声以外の帯域を制限して、雑音成分を抑制するようにしてもよい。
In this embodiment, the example in which the sound received from each terminal is distributed to the left and right based on the positional relationship of each terminal has been described. However, at this time, if the sound is smaller than a predetermined sound volume, You may make it distribute after amplifying to right and left. This process may be set to be performed automatically in the initial setting, for example, and the setting may be turned off according to the application. Alternatively, in the initial setting, the setting may be set to the off state, and the user may operate the touch switch 34 to turn on the setting.
Also, the audio adjustment unit 310 may not only amplify but also extract only the audio band and amplify only the extracted band. Alternatively, even if the sound volume is equal to or higher than a predetermined sound volume, if there is a lot of noise, the band other than the sound may be limited to suppress the noise component.
なお、本実施形態では、端末からの音声を、例えば、右の音量を80%、左の音量を20%のように、左右合わせて100%の例を説明したが、これに限られない。左右の音量の合計値は、100%でなくてもよく、100%より小さくてもよく、あるいは、100%以上であってもよい。例えば、通話に参加している人数に応じて、同複数の通話相手が話しているような場合、音声信号を合成したときに、聞きやすい音量になるように左右の音量の合計値を調整するようにしてもよい。 In the present embodiment, an example has been described in which the sound from the terminal is 100% in the left and right direction, for example, the right volume is 80% and the left volume is 20%, but is not limited thereto. The total value of the left and right volume may not be 100%, may be smaller than 100%, or may be 100% or more. For example, depending on the number of participants in the call, if the other parties are talking, adjust the total left and right volume so that the volume is easy to hear when the audio signal is synthesized You may do it.
なお、本実施形態では、音声を、ステレオイヤホン100を用いてステレオ再生する例を説明したが、オーディオコネクター26に接続された2つのスピーカー(図示せず)で再生してもよい。 In the present embodiment, an example in which audio is reproduced in stereo using the stereo earphone 100 has been described. However, audio may be reproduced by two speakers (not shown) connected to the audio connector 26.
なお、本実施形態では、複数の通話相手がいる場合を例に説明したが、通話相手が1人であっても、音声調整部310は、通話相手の音声信号を、左右に振り分けるようにしてもよい。この場合においても、通話相手が、発信元のHMD1に対して、どの方向に位置しているのかを、音声により容易に認識することができる。また、処理部123は、通話相手が1人であっても、LCD63に表示するアバターを、HMD1との相対的な位置関係や、方位に基づいて配置して表示するようにしてもよい。これにより、視覚的にも通話相手との位置関係を、ユーザーは容易に認識することができる。 In this embodiment, the case where there are a plurality of call partners has been described as an example. However, even if there is only one call partner, the voice adjustment unit 310 distributes the voice signal of the call partner to the left and right. Also good. Even in this case, it is possible to easily recognize by voice the direction in which the other party is located with respect to the HMD 1 of the caller. Further, the processing unit 123 may arrange and display the avatar to be displayed on the LCD 63 based on the relative positional relationship with the HMD 1 and the azimuth even if there is only one call partner. Thereby, the user can easily recognize the positional relationship with the call partner visually.
なお、本実施形態では、HMD1、及びHMD500のユーザーが、タッチスイッチ(34、534)を操作して、各種の操作を行う例を示したが、これに限られない。例えば、リモコン140を介して操作を行うようにしてもよい。あるいは、切り替えや選択等の操作においては、各端末(HMD1、及びHMD500)の処理部(122、及び522)は、ユーザーの瞬きの回数を検出し、検出した瞬きの回数に基づいて、例えば、カーソル表示、線画の描写等を切り替えるように制御してもよい。 In the present embodiment, an example in which the users of the HMD 1 and the HMD 500 perform various operations by operating the touch switches (34, 534) has been described, but the present invention is not limited thereto. For example, the operation may be performed via the remote controller 140. Alternatively, in operations such as switching and selection, the processing units (122 and 522) of each terminal (HMD1 and HMD500) detect the number of blinks of the user, and based on the detected number of blinks, for example, You may control so that a cursor display, the drawing of a line drawing, etc. may be switched.
なお、本実施形態では、各端末が画像に線画を描写する例を示したが、これに限られない。例えば、PC210の入力部214のキーボードから入力されたコメントを、受信している画像に重畳するようにしてもよい。この場合においても、コメントは、各端末、及びサーバーにおいて、受信している画像と異なるレイヤーに表示、及び記憶される。このため、コメントのみの表示、削除を行うことができる。 In this embodiment, an example in which each terminal draws a line drawing on an image has been shown, but the present invention is not limited to this. For example, a comment input from the keyboard of the input unit 214 of the PC 210 may be superimposed on the received image. Even in this case, the comment is displayed and stored in a different layer from the received image in each terminal and server. For this reason, only the comment can be displayed and deleted.
なお、本実施形態では、カーソルの色と、線画の色とを同系色にする例を説明したが、さらにアバターの色も同系色にするようにしてもよい。例えば、HMD500のLCD563に表示されるHDM1によるカーソルが水色、線画が青色の場合、HMD1のアバターの服の色、及び髪の毛の色を、青色系にするようにしてもよい。これにより、どのユーザーが、カーソルの操作や線画を描写しているのかを、さらに視覚的に認識しやすくなる。 In the present embodiment, an example in which the color of the cursor and the color of the line drawing are made similar to each other has been described. However, the color of the avatar may also be made similar. For example, when the cursor by HDM1 displayed on the LCD 563 of the HMD 500 is light blue and the line drawing is blue, the clothes color of the avatar of HMD1 and the color of the hair may be blue. This makes it easier to visually recognize which user is drawing a cursor operation or line drawing.
なお、本実施形態では、位置情報に基づいて、複数のアバターの配置を生成し、生成したアバターの配置に基づいて、各アバターに対応する音声信号を左右に割り振る例を説明したが、これに限られない。例えば、処理部123は、先に位置情報に基づいて、各アバターに対応する音声信号を左右に割り振り、割り振った音声の位置関係と一致するようにアバターを配置して表示するようにしてもよい。 In addition, although this embodiment demonstrated the example which produces | generates arrangement | positioning of several avatars based on positional information, and allocates the audio | voice signal corresponding to each avatar on the left and right based on the arrangement | positioning of the produced | generated avatar, Not limited. For example, the processing unit 123 may first allocate audio signals corresponding to each avatar to the left and right based on the position information, and arrange and display the avatar so as to match the allocated audio positional relationship. .
なお、本実施形態では、オーディオコネクター26に、ステレオイヤホン100が接続される例を説明したが、例えば、4チャネルタイプのイヤホン(図示せず)を接続するようにしてもよい。4チャネルタイプのイヤホンであれば、左右の広がりに加えて、前後の広がりも充実させることができるため、音声調整部310は、通話参加者の音声信号を、前後も含めて左右に割り振るようにしてもよい。この結果、さらに、聴覚による通話相手の識別を容易に行えるようになる。この場合、処理部123は、用いる位置情報に、方位の情報も加味するようにしてもよい。 In this embodiment, an example in which the stereo earphone 100 is connected to the audio connector 26 has been described. However, for example, a 4-channel type earphone (not shown) may be connected. In the case of a 4-channel type earphone, in addition to the left and right spread, the front and rear spread can be enhanced, so the voice adjustment unit 310 allocates the voice signal of the call participant to the left and right including the front and rear. May be. As a result, it is possible to easily identify the other party by hearing. In this case, the processing unit 123 may add direction information to the position information to be used.
なお、本実施形態では、位置情報に基づいて、通話相手の音声信号を左右に割り振った後、そのまま、あるいは増幅して再生する例を示したが、これに限られない。ステレオイヤホン100を接続して使用している場合、製品によっては、左右の音量差がある場合もある。このような場合、処理部123は、通話開始前に、左右、同音量の、例えば400[Hz]のサイン波のテスト信号を、オーディオコネクター26を介して、ステレオイヤホン100に出力する。ユーザーは、このテスト信号を聞いて、左右のバランスを調整するようにしてもよい。そして、通話時、処理部123は、テスト信号により調整された左右のバランスも加味して、再生する左右の音量を調整するようにしてもよい。
このように、初期状態でのキャリブレーションを行うことで、例えば、左右の耳で、聞こえ方が異なっているユーザーにおいても、そのユーザーにとって最適な左右の音量バランスで再生される。この結果、複数の通話相手を容易に識別することが可能になる。
In the present embodiment, an example in which the voice signal of the other party is allocated to the left and right based on the position information and then reproduced as it is or amplified is shown, but the present invention is not limited to this. When the stereo earphone 100 is connected and used, depending on the product, there may be a difference in volume between left and right. In such a case, the processing unit 123 outputs a test signal of a sine wave of, for example, 400 [Hz] having the same volume, left and right, to the stereo earphone 100 via the audio connector 26 before starting the call. The user may listen to this test signal and adjust the left / right balance. Then, during a call, the processing unit 123 may adjust the right and left volume to be reproduced in consideration of the left and right balance adjusted by the test signal.
In this way, by performing calibration in the initial state, for example, even a user who hears differently between the left and right ears can be reproduced with a right and left volume balance that is optimal for the user. As a result, a plurality of call partners can be easily identified.
なお、本実施形態では、位置情報に基づいて、アバターを配置、および音声信号を左右に割り振る例を説明したが、同じ位置情報を有するユーザーが、通話に参加している場合もある。このような場合、処理部123は、例えば、同じ位置情報を有する通話相手に対応するアバターの配置を、通話に参加した順に、右から(または上から)配置して表示するようにしてもよい。そして、音声調整部310は、このように配置されたアバターの位置情報に基づいて、同じ位置情報を有する通話相手の音声信号を左右に割り振るようにすることで、アバターの配置と音声信号の聞こえ方を一致させるようにしてもよい。 In this embodiment, an example in which avatars are arranged and audio signals are allocated to the left and right based on position information has been described. However, a user having the same position information may participate in a call. In such a case, for example, the processing unit 123 may display the arrangement of avatars corresponding to the call partner having the same position information from the right (or from the top) in the order of participation in the call. . Then, the voice adjustment unit 310 allocates the voice signals of the other party having the same position information to the left and right based on the position information of the avatars arranged in this way, so that the arrangement of the avatar and the sound signal can be heard. You may make it match.
なお、複数の通話相手と通話を行う場合、1人のユーザーが使用している端末(HMD)のLCDまたは表示部が白黒表示であり、カメラ64が白黒撮像しかできない場合、他の端末の処理部は、この端末に合わせて、白黒の画像を送信するようにしてもよい。この場合、送信するデータを軽減できる効果もある。あるいは、カラーで撮像した画像を送信し、端末側で、白黒に変換して表示するようにしてもよい。 When a call is made with a plurality of call partners, when the LCD or display unit of a terminal (HMD) used by one user is in monochrome display and the camera 64 can only perform monochrome imaging, the processing of other terminals The unit may transmit a monochrome image in accordance with the terminal. In this case, there is an effect that data to be transmitted can be reduced. Alternatively, an image captured in color may be transmitted and converted into black and white on the terminal side and displayed.
なお、本実施形態では、映像(動画)を、初期状態では、低解像度で送信し、ユーザーからの要求に応じて、中解像度等に切り替える例を示したが、これに限られない。解像度の種類は、さらに多くてもよい。また、ユーザーがタッチスイッチ34を用いて、解像度及びフレームレートを設定するようにしてもよい。具体的には、低解像度における解像度及び第1フレームレートの第1設定、低解像度における解像度及び第2フレームレートの第2設定、中解像度における解像度及び第3フレームレートの第3設定、等である。
ただし、ユーザーが解像度を設定した場合、他の端末のユーザーの端末においても同じ解像度で、通話のやりとりを行う必要があるため、通話開始時等に、用いる解像度を示す情報を送信しておくようにしてもよい。
また、送信する画像は、利用する用途に応じて、白黒であっても、カラーであってもよく、カラーの場合、用途に応じて8ビットカラー、16ビットカラー等であってもよい。
In the present embodiment, an example in which video (moving image) is transmitted at low resolution in the initial state and switched to medium resolution or the like in response to a request from the user has been described. However, the present invention is not limited to this. There may be more types of resolution. Further, the user may set the resolution and the frame rate by using the touch switch 34. Specifically, the first setting of the resolution and the first frame rate at the low resolution, the second setting of the resolution and the second frame rate at the low resolution, the third setting of the resolution and the third frame rate at the medium resolution, and the like. .
However, when the user sets the resolution, it is necessary to exchange the call at the same resolution on the user terminal of the other terminal, so that information indicating the resolution to be used is transmitted at the start of the call. It may be.
The image to be transmitted may be monochrome or color depending on the application to be used. In the case of color, the image may be 8-bit color, 16-bit color, or the like.
なお、本実施形態では、例えば、図29に示したように、通話相手に対応する各アバターを同等の大きさで表示する例を説明したが、処理部123は、表示するアバターの大きさを、各位置情報に基づいて変えるようにしてもよい。この場合、HMD1のLCD63に表示されるアバターは、HMD1との相対的な位置関係に基づき、例えば、一番近くにいる通話相手のアバターを一番大きく表示し、一番遠くにいる通話相手のアバターを一番小さく表示するようにしてもよい。この結果、アバターを、横、または縦一列に並べて配置した場合においても、発信者と通話相手の距離感を、視覚的に認識することができる。 In the present embodiment, for example, as illustrated in FIG. 29, the example in which each avatar corresponding to the other party is displayed in the same size has been described. However, the processing unit 123 determines the size of the avatar to be displayed. It may be changed based on each position information. In this case, the avatar displayed on the LCD 63 of the HMD 1 is based on the relative positional relationship with the HMD 1. For example, the avatar of the nearest caller is displayed in the largest size, and the farthest caller is displayed. The avatar may be displayed in the smallest size. As a result, even when the avatars are arranged side by side or vertically, the sense of distance between the caller and the other party can be visually recognized.
なお、本実施形態では、アバターの大きさが固定されている例を説明したが、通話中に大きさを可変するようにしてもよい。例えば、処理部123は、発話している通話相手のアバターを大きく表示するように可変するようにしてもよい。この結果、アバターを、横、または縦一列に並べて配置した場合においても、発信者と通話相手の距離感を、視覚的に認識することができる。 In the present embodiment, the example in which the size of the avatar is fixed has been described, but the size may be varied during a call. For example, the processing unit 123 may be varied so that the avatar of the talking partner is greatly displayed. As a result, even when the avatars are arranged side by side or vertically, the sense of distance between the caller and the other party can be visually recognized.
なお、本実施形態では、例えば、図29に示した例では、アバターとして擬人化した画像を説明したが、これに限られない。アバターは、例えば、動物、ロボット等であってもよい。このようなアバターを用いる場合、アバターに表情を単純には付加できない。そのような場合、表情を変える代わりに、処理部123は、アバターの大きさを変える、アバターの色調を変える、アバターを点滅させる、アバターを振動させる等、制御してもよい。 In the present embodiment, for example, in the example illustrated in FIG. 29, an anthropomorphic image as an avatar has been described, but the present invention is not limited thereto. The avatar may be, for example, an animal or a robot. When such an avatar is used, a facial expression cannot be simply added to the avatar. In such a case, instead of changing the facial expression, the processing unit 123 may perform control such as changing the size of the avatar, changing the color of the avatar, blinking the avatar, or vibrating the avatar.
なお、本実施形態の図10〜図20の例では、HMD1のユーザーを含めて4者で通話を行い、全てのユーザー間で同じ画像を共有する例を説明したが、これに限られない。例えば、画像をリクエストされた端末は、リクエストした端末のみに画像情報を、送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに画像情報を、送信するようにしてもよい。
また、画像に限らず、音声信号についても、リクエストされた端末は、リクエストした端末のみに音声信号を送信するようにしてもよい。または、送信元で、送信先を限定したり、グループ化してあるメンバーのみに、音声信号を送信するようにしてもよい。
In the example of FIGS. 10 to 20 of the present embodiment, an example has been described in which a call is made by four parties including the user of the HMD 1 and the same image is shared among all users, but the present invention is not limited to this. For example, the terminal that requested the image may transmit the image information only to the requested terminal. Alternatively, the transmission source may limit the transmission destination or transmit the image information only to grouped members.
Further, not only for images but also for audio signals, the requested terminal may transmit the audio signal only to the requested terminal. Alternatively, the audio signal may be transmitted only to members who are limited by the transmission source or grouped.
なお、本実施形態では、ディスプレイ本体20をヘッドバンド40に装着して使用する例を説明したが、これに限られない。ユーザーは、ディスプレイ本体20をヘッドバンド40に装着せずに、単体で使用してもよい。 In this embodiment, the example in which the display main body 20 is mounted on the headband 40 has been described, but the present invention is not limited to this. The user may use the display body 20 alone without attaching it to the headband 40.
なお、本実施形態では、情報出力装置が、位置情報取得部と、音声情報取得部と、音声調整部とを備える例を説明したが、これに限られない。例えば、各部を備える装置を有するシステムであってもよい。 In the present embodiment, the example in which the information output device includes the position information acquisition unit, the audio information acquisition unit, and the audio adjustment unit has been described, but the present invention is not limited thereto. For example, a system having an apparatus including each unit may be used.
なお、本発明の技術範囲は上記の実施形態に限定されるものではない。上記の実施形態で説明した要件のうち少なくとも1つの要件は、省略される場合がある。上記の実施形態で説明した各要件は、適宜、組み合わせることができる。 The technical scope of the present invention is not limited to the above embodiment. At least one of the requirements described in the above embodiments may be omitted. The requirements described in the above embodiments can be combined as appropriate.
なお、上述のHMD1(含む500)は、内部にコンピュータシステム(例えば、処理部123、523)を有している。そして、各機能部の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリーやOS、周辺機器等のハードウェアを含むものである。 The above-described HMD 1 (including 500) has a computer system (for example, the processing units 123 and 523) therein. The operation process of each functional unit is stored in a computer-readable recording medium in the form of a program, and the above processing is performed by the computer system reading and executing the program. Here, the computer system includes a CPU, various memories, an OS, and hardware such as peripheral devices.
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバーやクライアントとなるコンピュータシステム内部の揮発性メモリーのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。 Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, it also includes those that hold a program for a certain period of time, such as volatile memory inside a computer system that serves as a server or client in that case. The program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.
1…ヘッドマウントディスプレイ、20…ディスプレイ本体、26…オーディオコネクター、34…タッチスイッチ、60…表示部、63…表示パネル(表示部)、64…カメラ、72…撮像素子、100…イヤホン、103…第1スピーカー、104…第2スピーカー、121…デコーダー、123…処理部、131…WiFi通信回路、132…加速度センサー、133…地磁気センサー、137 心拍数センサー、138…3G/LTE通信回路、140…リモコン、301…入力検出部、302…画像切替部、303…送受信部、304…線画生成部、305 カーソル生成部、306…アバター生成部、307…アバター記憶部、308…画像合成部、309…位置算出部、310…音声調整部 DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 20 ... Display main body, 26 ... Audio connector, 34 ... Touch switch, 60 ... Display part, 63 ... Display panel (display part), 64 ... Camera, 72 ... Image sensor, 100 ... Earphone, 103 ... 1st speaker, 104 ... 2nd speaker, 121 ... decoder, 123 ... processing unit, 131 ... WiFi communication circuit, 132 ... acceleration sensor, 133 ... geomagnetic sensor, 137 heart rate sensor, 138 ... 3G / LTE communication circuit, 140 ... Remote control unit 301 ... input detection unit 302 ... image switching unit 303 ... transmission / reception unit 304 ... line drawing generation unit 305 cursor generation unit 306 ... avatar generation unit 307 ... avatar storage unit 308 ... image synthesis unit 309 ... Position calculation unit, 310 ... Audio adjustment unit
Claims (9)
前記端末から音声情報を取得する音声取得部と、
前記位置取得部が取得した位置情報に基づいて、前記音声取得部が取得した音声信号を、左右の音声信号に振り分ける音声調整部と、
を備えることを特徴とする情報出力装置。 A location acquisition unit that acquires location information of the terminal from a terminal;
An audio acquisition unit for acquiring audio information from the terminal;
Based on the position information acquired by the position acquisition unit, the audio adjustment unit that distributes the audio signal acquired by the audio acquisition unit into left and right audio signals;
An information output device comprising:
前記端末の利用者の分身であるアバターを生成するアバター生成部と、
を備え、
前記アバター生成部は、
前記位置取得部が取得した位置情報に基づいて、前記生成したアバターの配置を決定し、決定した前記アバターの配置に基づいて前記アバターを前記表示部に表示し、
前記音声調整部は、
前記アバター生成部が生成したアバターの配置に基づいて、前記左右の音声信号に振り分ける音量を調整する
ことを特徴とする請求項1に記載の情報出力装置。 A display for displaying an image;
An avatar generating unit that generates an avatar that is a substitute of the user of the terminal;
With
The avatar generator is
Based on the position information acquired by the position acquisition unit, determine the arrangement of the generated avatar, display the avatar on the display unit based on the determined arrangement of the avatar,
The voice adjustment unit
The information output device according to claim 1, wherein a volume to be distributed to the left and right audio signals is adjusted based on the arrangement of avatars generated by the avatar generation unit.
複数の前記端末から取得した各位置情報に基づいて、複数の前記端末から取得した各音声信号の左右の振り分け音量を調整する
ことを特徴とする請求項1または請求項2に記載の情報出力装置。 The voice adjustment unit
The information output device according to claim 1 or 2, wherein the left and right distribution volume of each audio signal acquired from the plurality of terminals is adjusted based on the position information acquired from the plurality of terminals. .
前記位置取得部が複数の前記端末から取得した各位置情報に基づいて、前記生成した複数のアバターの配置を決定し、
前記音声調整部は、
前記アバター生成部が生成した複数のアバターの左右の配置に基づいて、複数の前記端末から取得した各音声信号の左右の振り分け音量を調整する
ことを特徴とする請求項2に記載の情報出力装置。 The avatar generator is
Based on the position information acquired from the plurality of terminals by the position acquisition unit, determine the arrangement of the plurality of generated avatars,
The voice adjustment unit
The information output device according to claim 2, wherein the left and right distribution volume of each audio signal acquired from the plurality of terminals is adjusted based on the left and right arrangement of the plurality of avatars generated by the avatar generation unit. .
前記端末からの通話への参加状態に基づいて、前記生成したアバターの表示と配置を調整し、
前記音声調整部は、
前記アバター生成部が調整したアバターの表示と配置に基づいて、前記端末から取得した各音声信号の左右の振り分け音量を調整する
ことを特徴とする請求項2に記載の情報出力装置。 The avatar generator is
Based on the participation state of the call from the terminal, adjust the display and arrangement of the generated avatar,
The voice adjustment unit
The information output device according to claim 2, wherein the left and right distribution volume of each audio signal acquired from the terminal is adjusted based on the display and arrangement of the avatar adjusted by the avatar generation unit.
前記端末から前記位置情報を取得できない場合、前記アバターを、通話に参加した順番に、予め定められている位置へ配置して前記表示部に表示する
ことを特徴とする請求項2に記載の情報出力装置。 The avatar generator is
The information according to claim 2, wherein when the position information cannot be obtained from the terminal, the avatars are arranged at predetermined positions in the order of participation in the call and displayed on the display unit. Output device.
前記位置取得部が他の前記端末から取得した位置情報と、自端末の位置情報に基づいて、前記音声取得部が取得した音声信号を、左右の音声信号に振り分ける
ことを特徴とする請求項1から請求項6のいずれか1項に記載の情報出力装置。
The voice adjustment unit
The audio signal acquired by the audio acquisition unit is distributed to left and right audio signals based on the location information acquired from the other terminal by the location acquisition unit and the location information of the terminal itself. The information output device according to claim 6.
前記位置取得部が他の前記端末から取得した位置情報と、自端末の位置情報に基づいて、前記生成したアバターを配置して前記表示部に表示する
ことを特徴とする請求項2に記載の情報出力装置。 The avatar generator is
The said position acquisition part arrange | positions the produced | generated avatar based on the positional information which the said terminal acquired from the said other terminal, and the positional information on an own terminal, and displays it on the said display part. Information output device.
位置取得部が、端末から前記端末の位置情報を取得する位置取得手順と、
音声取得部が、前記端末から音声情報を取得する音声取得手順と、
音声調整部が、前記位置取得手順が取得した位置情報に基づいて、前記音声取得手順が取得した音声信号を、左右の音声信号に振り分ける音声調整手順と、
を含むことを特徴とする情報出力方法。 An information output method in an information output device,
A position acquisition unit for acquiring position information of the terminal from the terminal;
A voice acquisition procedure in which a voice acquisition unit acquires voice information from the terminal;
A voice adjustment procedure in which the voice adjustment unit distributes the voice signal acquired by the voice acquisition procedure into left and right voice signals based on the position information acquired by the position acquisition procedure;
An information output method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039149A JP2013175929A (en) | 2012-02-24 | 2012-02-24 | Information output device and information output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012039149A JP2013175929A (en) | 2012-02-24 | 2012-02-24 | Information output device and information output method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013175929A true JP2013175929A (en) | 2013-09-05 |
Family
ID=49268463
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012039149A Pending JP2013175929A (en) | 2012-02-24 | 2012-02-24 | Information output device and information output method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013175929A (en) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016048534A (en) * | 2013-12-25 | 2016-04-07 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program; and information processing device, control method thereof, and program |
WO2016117061A1 (en) * | 2015-01-22 | 2016-07-28 | 株式会社野村総合研究所 | Wearable terminal and information processing system using same |
WO2016182504A1 (en) * | 2015-05-08 | 2016-11-17 | Chow Bryan Shwo-Kang | A virtual reality headset |
JP2016224554A (en) * | 2015-05-27 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Eye-mount display device |
JP2017055851A (en) * | 2015-09-14 | 2017-03-23 | 株式会社コーエーテクモゲームス | Information processing device, display control method, and display control program |
JP2017516140A (en) * | 2014-04-29 | 2017-06-15 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Facial expression tracking |
KR20170085477A (en) * | 2014-08-04 | 2017-07-24 | 페이스북, 인크. | Method and system for reconstructing obstructed face portions for virtual reality environment |
JP6250779B1 (en) * | 2016-12-26 | 2017-12-20 | 株式会社コロプラ | Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus |
JP6266814B1 (en) * | 2017-01-27 | 2018-01-24 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
JP2018078398A (en) * | 2016-11-07 | 2018-05-17 | 株式会社ネイン | Autonomous assistant system using multifunctional earphone |
JP2020509468A (en) * | 2017-02-13 | 2020-03-26 | 株式会社ソニー・インタラクティブエンタテインメント | Simulation method and system |
JP2021515925A (en) * | 2018-02-08 | 2021-06-24 | ライン プラス コーポレーションLINE Plus Corporation | Methods, systems, and non-temporary computer-readable recording media that provide chat rooms in three-dimensional form |
-
2012
- 2012-02-24 JP JP2012039149A patent/JP2013175929A/en active Pending
Cited By (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016048534A (en) * | 2013-12-25 | 2016-04-07 | キヤノンマーケティングジャパン株式会社 | Information processing system, control method thereof, and program; and information processing device, control method thereof, and program |
JP2017516140A (en) * | 2014-04-29 | 2017-06-15 | マイクロソフト テクノロジー ライセンシング,エルエルシー | Facial expression tracking |
US10593025B2 (en) | 2014-08-04 | 2020-03-17 | Facebook Technologies, Llc | Method and system for reconstructing obstructed face portions for virtual reality environment |
KR20170085477A (en) * | 2014-08-04 | 2017-07-24 | 페이스북, 인크. | Method and system for reconstructing obstructed face portions for virtual reality environment |
JP2017534096A (en) * | 2014-08-04 | 2017-11-16 | フェイスブック,インク. | Method and system for reconstructing an obstructed face in a virtual reality environment |
US10445863B2 (en) | 2014-08-04 | 2019-10-15 | Facebook Technologies, Llc | Method and system for reconstructing obstructed face portions for virtual reality environment |
KR102422469B1 (en) * | 2014-08-04 | 2022-07-20 | 페이스북 테크놀로지스, 엘엘씨 | Method and system for reconstructing obstructed face portions for virtual reality environment |
US11238568B2 (en) | 2014-08-04 | 2022-02-01 | Facebook Technologies, Llc | Method and system for reconstructing obstructed face portions for virtual reality environment |
WO2016117061A1 (en) * | 2015-01-22 | 2016-07-28 | 株式会社野村総合研究所 | Wearable terminal and information processing system using same |
WO2016182504A1 (en) * | 2015-05-08 | 2016-11-17 | Chow Bryan Shwo-Kang | A virtual reality headset |
JP2016224554A (en) * | 2015-05-27 | 2016-12-28 | 株式会社ソニー・インタラクティブエンタテインメント | Eye-mount display device |
US10275021B2 (en) | 2015-05-27 | 2019-04-30 | Sony Interactive Entertainment Inc. | Display apparatus of front-of-the-eye mounted type |
JP2017055851A (en) * | 2015-09-14 | 2017-03-23 | 株式会社コーエーテクモゲームス | Information processing device, display control method, and display control program |
JP2018078398A (en) * | 2016-11-07 | 2018-05-17 | 株式会社ネイン | Autonomous assistant system using multifunctional earphone |
JP2018106364A (en) * | 2016-12-26 | 2018-07-05 | 株式会社コロプラ | Method implemented by computer for communication via virtual space, program for causing computer to execute method, and information processing apparatus |
US10319346B2 (en) | 2016-12-26 | 2019-06-11 | Colopl, Inc. | Method for communicating via virtual space and system for executing the method |
JP6250779B1 (en) * | 2016-12-26 | 2017-12-20 | 株式会社コロプラ | Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus |
JP2018120519A (en) * | 2017-01-27 | 2018-08-02 | 株式会社コロプラ | Information processing method and program for causing computer to execute the same |
US10313481B2 (en) | 2017-01-27 | 2019-06-04 | Colopl, Inc. | Information processing method and system for executing the information method |
JP6266814B1 (en) * | 2017-01-27 | 2018-01-24 | 株式会社コロプラ | Information processing method and program for causing computer to execute information processing method |
JP2020509468A (en) * | 2017-02-13 | 2020-03-26 | 株式会社ソニー・インタラクティブエンタテインメント | Simulation method and system |
JP7232765B2 (en) | 2017-02-13 | 2023-03-03 | 株式会社ソニー・インタラクティブエンタテインメント | Simulation method and system |
JP2021515925A (en) * | 2018-02-08 | 2021-06-24 | ライン プラス コーポレーションLINE Plus Corporation | Methods, systems, and non-temporary computer-readable recording media that provide chat rooms in three-dimensional form |
US11392262B2 (en) | 2018-02-08 | 2022-07-19 | LINE Plus Corporation | Method, system, and non-transitory computer readable record medium for providing chatroom in 3D form |
JP7127138B2 (en) | 2018-02-08 | 2022-08-29 | ライン プラス コーポレーション | A method, system, and non-transitory computer-readable recording medium for providing a chat room in three-dimensional form |
US12135860B2 (en) | 2018-02-08 | 2024-11-05 | LINE Plus Corporation | Method, system, and non-transitory computer readable record medium for providing chatroom in 3D form |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013175929A (en) | Information output device and information output method | |
RU2670784C9 (en) | Orientation and visualization of virtual object | |
US11908086B2 (en) | Techniques for participation in a shared setting | |
US9245389B2 (en) | Information processing apparatus and recording medium | |
JP2014021707A (en) | Information input/output device and information input/output method | |
US20090219224A1 (en) | Head tracking for enhanced 3d experience using face detection | |
US20100208029A1 (en) | Mobile immersive display system | |
JP6074894B2 (en) | Information display device | |
CN110830811A (en) | Live broadcast interaction method, device, system, terminal and storage medium | |
JP2014011624A (en) | Information input/output device and head-mounted display device | |
JP2021099825A (en) | Program, method, and information processing device | |
CN110139116B (en) | Live broadcast room switching method and device and storage medium | |
WO2018225218A1 (en) | Information processing device and image generation method | |
JP2014212473A (en) | Communication device and head-mounted display device | |
JP2013174730A (en) | Information display device | |
US12088781B2 (en) | Hyper-connected and synchronized AR glasses | |
JP2013174729A (en) | Information display device, and information display method | |
JP3027983B2 (en) | Two-way interactive system | |
JP6461322B2 (en) | Control device and display device | |
JP2002027419A (en) | Image terminal device and communication system using the same | |
WO2023248832A1 (en) | Remote viewing system and on-site imaging system | |
US20240323537A1 (en) | Display terminal, communication system, display method, and recording medium | |
JP2019083029A (en) | Information processing method, information processing program, information processing system, and information processing device | |
US20240323538A1 (en) | Display terminal, communication system, display method, and recording medium | |
JP7546053B2 (en) | Information Processing System |