JP2004199159A - Information processing method, information processing device, program, and recording medium - Google Patents
Information processing method, information processing device, program, and recording medium Download PDFInfo
- Publication number
- JP2004199159A JP2004199159A JP2002363914A JP2002363914A JP2004199159A JP 2004199159 A JP2004199159 A JP 2004199159A JP 2002363914 A JP2002363914 A JP 2002363914A JP 2002363914 A JP2002363914 A JP 2002363914A JP 2004199159 A JP2004199159 A JP 2004199159A
- Authority
- JP
- Japan
- Prior art keywords
- user
- terminal
- image
- viewpoint position
- avatar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、ネットワークを介して他の端末と繋がっている端末に適用可能であり、2次元画像に他の端末の使用者の視点位置を示すアバタ画像を合成することを可能とする情報処理方法、装置、プログラムおよび記憶媒体に関する。
【0002】
【従来の技術】
従来、たとえば道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像の中から、使用者が経路内で観察したい位置の指定を行なうことで1枚のパノラマ実写画像を選択、また使用者が観察したい方向の指定を行なうことでその1枚のパノラマ実写画像の一部分を切り出し、画面に表示して使用者が実世界を疑似体験するということが行なわれていた。ここでパノラマ実写画像とは、ある地点から全周方向にわたって実世界を撮影した画像のことであり、複数台のカメラの光軸を外側に向けるように配置して撮影した複数枚の画像を合成したり、双曲面ミラーや魚眼レンズを利用して撮影した歪んだ画像を幾何学的に変換して得ることができる。また、使用者が経路内で観察したい位置・方向のことを、それぞれ視点位置/視線方向と呼ぶことにする。ここで1枚1枚のパノラマ実写画像には、撮影時にカメラに取り付けたGPSやジャイロセンサなどによって計測した位置/方向情報を対応付けて記録しておく。画像表示の際には、使用者がたとえばジョイスティックなどのユーザインタフェースを用いて、視点位置や視線方向を指示する。ジョイスティックを用いる場合は、前後に倒すと前後方向移動、また左右にねじったり倒したりすると左右方向回転などの操作を行なうことができる。また、このような実世界を疑似体験するシステムでは、道路などの経路に沿ってパノラマ実写画像の撮影を行なうことで、コンピュータグラフィックス(CG)による3次元モデルをもとに画像を作成するよりも容易に、かつリアリティーに溢れた表現が可能なシステムを構築することができる。
【0003】
一方、3次元仮想空間をウォークスルーできる3次元仮想空間表示端末を、ネットワークを介して複数台接続することで、複数の使用者が同一の3次元仮想空間を共有できるものがある。このような3次元仮想空間共有システムでは、自分以外の使用者が3次元仮想空間中のどの位置にいて、どの方向を見ているかということを示すために、3次元仮想空間中に使用者のアバタ(化身)を表示することがある。ある3次元仮想空間表示端末を利用している使用者Aは、3次元仮想空間中をウォークスルーしているときに、目の前にいる他の3次元仮想空間表示端末を利用している使用者Bのアバタを3次元仮想空間中に観察することができる。このような3次元仮想空間共有システムでは、3次元仮想空間は例えばVRML(Virtual Reality Modeling Language)と呼ばれる3次元モデルを記述する言語などで構築されている。ここで3次元仮想空間は3次元モデルで構成されているため、ある3次元仮想空間表示端末の使用者Aから見た他の3次元仮想空間表示端末の使用者Bのアバタが建物(障害物)の陰に隠れてしまうと、当然使用者Bのアバタは使用者Aの視界から消える。
【0004】
【発明が解決しようとする課題】
パノラマ実写画像を利用して実世界の疑似体験を実現する実世界疑似体験システムでは、カメラで撮影した1枚以上のパノラマ実写画像の中から1枚を選択、そして観察したい方向を切り出して表示するので、実世界の3次元モデルを持たない。実世界疑似体験を実現する画像表示端末をネットワークを介して複数台接続し、自分以外の画像表示端末使用者のアバタを画像中に表示する際、システムが実世界の3次元モデルを持っていないため、アバタと建物(障害物)の隠蔽関係の表現が難しくなる。例えば、ある画像表示端末使用者Aから見たパノラマ実写画像中に、他の画像表示端末使用者Bのアバタが表示されている様子を図2(a)に示す。使用者Aの位置と使用者Bのアバタの位置の間に何も存在しない場合はこのままでよい。しかし、図2(b)に示すように使用者BのアバタがT字路の左向こう側の道、すなわち建物(障害物)の陰に移動すると、システムが3次元モデルを持つ場合と異なり、隠蔽関係が正しく表現されないまま使用者Aの視界にそのまま表示されてしまう。
【0005】
本発明は以上の事情を鑑みてなされたものであり、たとえばネットワークを介して他の端末と繋がっている端末に適用可能であり、2次元画像に他の端末の使用者の視点位置を示すアバタ画像を合成する際、3次元モデルを持たなくても2次元画像中の建物(障害物)とアバタの隠蔽関係が正しく表現できることを目的とする。
【0006】
【課題を解決するための手段】
本発明の目的を達成するために、本発明の情報処理方法、装置、プログラムおよび記憶媒体は以下の構成を備える。
【0007】
すなわち、ネットワークを介して他の端末と繋がっている端末に適用可能であり、複数のセグメント情報で管理されている経路上の任意の位置からの2次元画像を提供する情報処理方法であって、端末の使用者の視点位置を取得し、前記端末の使用者の視点位置に対応した2次元画像を取得し、前記他の端末の使用者の視点位置を取得し、アバタ画像を取得し、前記2次元画像に前記他の端末の使用者の視点位置を示すアバタ画像を合成する情報処理方法であり、前記合成されるアバタ画像は、前記端末の使用者の視点位置を含むセグメントと、前記他の端末の使用者の視点位置を含むセグメントの位置関係によって選択されることを特徴とする情報処理方法。
【0008】
【発明の実施の形態】
以下、添付図面に従って、本発明の好適な実施形態について説明する。
【0009】
本実施形態では、たとえば道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像の中から、使用者が経路内で観察したい位置の指定を行なうことで1枚のパノラマ実写画像を選択、また使用者が観察したい方向の指定を行なうことでその1枚のパノラマ実写画像の一部分を切り出し、ネットワークを介して実世界疑似体験を共有する他の使用者の視点位置/視線方向を示すアバタをパノラマ実写画像と共に表示して実世界の疑似体験共有を行なう際に使用される。
【0010】
図1は本発明の実施形態による情報処理装置の概略構成を示すブロック図である。本実施形態の情報処理装置は、n台の画像表示端末10−1〜10〜n、画像表示管理サーバ11、これらを繋ぐネットワーク12からなる。
【0011】
まず、画像表示端末について説明する。画像表示端末は、ネットワーク12にn台接続されており、各画像表示端末を別々の使用者が利用する。画像表示端末10−1〜10−nはいずれも同じ構成となっており、ここでは画像表示端末10−1についてのみ詳しく説明する。画像表示端末10−1は、操作部100、視点位置/視線方向計算手段101、視点位置/視線方向管理手段102、通信部103、画像表示制御手段104、パノラマ実写画像記憶部105、地図情報記憶部106、アバタデータ記憶部107、画像表示部108からなる。
【0012】
100は、操作部であり、例えばジョイスティックやボタンなどから構成される。画像表示端末10−1の使用者は、操作部100のジョイスティックを操作して、視点位置/視線方向計算手段101に対して、道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像の中から、使用者が経路内で観察したい視点位置/視線方向(視点情報)を計算するためのジョイスティック操作情報を送る。また、使用者は操作部100のボタンを操作して、画像表示制御手段104に対して、画像表示部108に表示する内容を決定する画像表示内容情報を送る。さらに、画像表示端末10−1の使用者は、操作部100のボタンを操作して、他の画像表示端末の使用者と実世界の疑似体験を共有したいかどうかの情報を、図示しない矢印により視点位置/視線方向管理手段102と、(通信部103、ネットワーク12を介して)画像表示管理サーバ11に送ることもできる。さらに、画像表示端末10−1の使用者は操作部100のボタンを操作して、他の画像表示端末に表示される自分のアバタの属性情報などを、図示しない矢印により視点位置/視線方向管理手段102に送ることもできる。
【0013】
ここで、操作部100に備えられるジョイスティックやボタンは、視点位置/視線方向の操作や画像表示内容の制御を行なうことができるものであれば何でもよく、トラックボールやマウスやキーボードなどによって構成されてもよいことは言うまでもない。
【0014】
101は、視点位置/視線方向計算手段であり、操作部100からジョイスティック操作情報を受け取り、道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像の中から、使用者が経路内で観察したい視点位置/視線方向情報を計算する。たとえば操作部100からジョイスティックを前後に倒したというジョイスティック操作情報が送られてきた場合、視点位置をパノラマ実写画像の撮影を行なった経路に沿って切り替え、また操作部100からジョイスティックを左右にねじったり倒したりしたというジョイスティック操作情報が送られてきた場合、パノラマ実写画像内で見回すように視線方向を変える。視点位置/視線方向計算手段101は、視点位置/視線方向管理手段102に対して視点位置/視線方向情報を送る。
【0015】
102は、視点位置/視線方向管理手段であり、視点位置/視線方向計算手段101から送られてきた視点位置/視線方向情報(あるいは操作部100から図示しない線により指示されたアバタ属性情報)を受け取り管理する。また、視点位置/視線方向管理手段102は、視点位置/視線方向計算手段101から送られてきた視点位置/視線方向情報(あるいは操作部100から図示しない線により指示されたアバタ属性情報)を、(通信部103、ネットワーク12を介して)他の画像表示端末に送ったり、他の画像表示端末の視点位置/視線方向情報(あるいは操作部により指示されたアバタ属性)を、(ネットワーク12、通信部103を介して)受け取り管理する。これらの視点位置/視線方向情報は、図3に示すような管理テーブルで管理し、この管理テーブルは画像表示制御手段104に送られる。この管理テーブルでは、どの画像表示端末の使用者が疑似体験の共有を望むか望まないかを画像表示管理サーバ11に尋ねて、使用者が共有を望む画像表示端末の視点位置/視線方向情報のみ管理するようにしてもよい。なお、図3の管理テーブルでは、画像表示端末10−2の使用者が共有を望んでいないため、画像表示端末10−2の視点位置/視線方向情報を管理していない様子がわかる。また、各画像表示端末のアバタの属性を受け取り管理するようにしてもよい。
【0016】
なお、図3の管理テーブルでは、視点位置をあらかじめ定めた道路セグメントID(図4)と、道路セグメント内でのフレーム番号によってあらわし、視線方向をあらかじめ定めた基準方向(例えば撮影時の北方向を0°とする)に対する相対方向角度としている。しかし、もちろん視点位置/視線方向情報はこれらの記述に限ったものではなく、例えば視点位置を緯度経度や全てのパノラマ実写画像のフレーム番号を用いて表したり、視線方向を撮影時の前方向を基準方向にした相対方向角度としてあらわしてもよい。
【0017】
103は、通信部であり、視点位置/視線方向管理手段102や操作部100とネットワーク12間のデータのやり取りを行なう。通信部103は、例えばネットワークインタフェースカードや、そのドライバなどから構成される。
【0018】
104は、画像表示制御手段であり、視点位置/視線方向管理手段102から送られてくる管理テーブル(図3)の情報を受け取る。また画像表示制御手段104は、画像表示部108に表示する内容を示す画像表示内容情報を、操作部100から受け取る。
【0019】
さらに、画像表示制御手段104は、それらの管理テーブルの情報や画像表示内容情報をもとに、パノラマ実写画像記憶部105、地図情報記憶部106、アバタデータ記憶部107に対して、それぞれパノラマ実写画像、地図情報、アバタデータを要求して受け取る。そして画像表示制御手段104は、受け取った管理テーブルの情報、画像表示内容情報、パノラマ実写画像、地図情報、アバタデータをもとに画像表示部108に表示する画像を合成して作成し、画像表示部108に対して表示画像を送る。また、画像表示制御手段104は、操作部100から送られてくる画像表示内容情報をもとに画像表示モードを管理もしくは変更する。画像表示モードには、例えば地図表示のON/OFF、アバタ表示のON/OFF、アバタ情報(アノテーション、ユーザ名、属性など)の表示ON/OFFなどが含まれる。たとえば、図6(a)では、地図表示ON、アバタ表示ON、アバタ情報の表示ONであるときの様子が示されている。
【0020】
105は、パノラマ実写画像記憶部であり、ハードディスクなどから構成される。パノラマ実写画像記憶部105は、道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像を記憶している。パノラマ実写画像は、複数台のカメラの光軸を外側に向けるように配置して撮影した複数枚の画像を合成したり、双曲面ミラーや魚眼レンズを利用して撮影した歪んだ画像を幾何的に変換して得ることができるが、これらの技術は公知であるためここでは詳しく述べない。また1枚1枚のパノラマ実写画像には、撮影時にカメラに取り付けたGPSやジャイロセンサなどによって計測した位置/方向情報を対応付けて記録しておく。パノラマ実写画像記憶部105は、画像表示制御手段104から要求されたパノラマ実写画像を画像表示制御手段104に送る。パノラマ実写画像記憶部105は、画像表示制御手段104から送られてくる視点位置/視線方向情報に対応したパノラマ実写画像を画像表示制御手段104に送る。ここで送るパノラマ実写画像は360°全方向のものでもよいが、あらかじめ決められた角度毎に分割しておいてもよい。この場合、視線方向情報に対応した部分のみを送るようにすることで送信するデータ量を削減することができ、送信時の負担を減らすことができる。
【0021】
ここで、パノラマ実写画像記憶部105はデータを記憶できるものであればなんでもよく、光ディスクやテープやメモリなどによって構成されてもよいことはいうまでもない。
【0022】
106は、地図情報記憶部であり、ハードディスクなどから構成される。地図情報記憶部106は、実世界を疑似体験する経路を含む領域を上から見た2次元の地図画像や、地図経路を構成する道路セグメント情報を記憶している。この地図画像にはあらかじめパノラマ実写画像を撮影した道路などの経路に色付けしておいてもよい。この場合、地図画像を表示する際に使用者が移動できる経路を見分け易くなる。ここで道路セグメントとは、図4(a)に示すような交差点で区切られた経路の一部で直線とみなせる部分のことを指す。道路セグメントは、図4(a)に示すようにそれぞれID(#1〜#8)がつけられており、各道路セグメントは撮影時の北方向を0°とした角度(0°以上180°未満)が対応付けられている(図4(b))。なお、図4の地図では紙面に向かって上を撮影時の北方向とする。道路セグメントの分割、IDの割り振り、角度の対応付けは本装置の利用に先立ちGUIなどにより手動で行なっても、自動で行なっても、その組み合わせによって行なってもよい。地図情報記憶部106は、画像表示制御手段104から要求された地図画像や道路セグメント情報といった地図情報を画像表示制御手段104に送る。地図画像を送る際、記憶している地図画像全体を送ってもよいが、地図画像データが大きい場合には、画像表示制御手段104から視点位置/視線方向情報を送ってもらい、複数の区分に分割した地図画像から必要な部分のみを送るようにしてもよい。必要な部分のみを送るようにすることで、送信するデータ量を削減することができるため、送信時の負担を減らすことができる。また、視線方向が地図上で上方向になるように画像を回転してから送ってもよい。
【0023】
ここで、地図情報記憶部106はデータを記憶できるものであればなんでもよく、光ディスクやテープやメモリなどによって構成されてもよいことはいうまでもない。
【0024】
107は、アバタデータ記憶部であり、ハードディスクなどから構成される。
アバタデータ記憶部107は、画像表示部108にパノラマ実写画像と共に表示するアバタの画像を記憶している。アバタには、図3に示すように人間タイプ、モンスタータイプなどいくつかの種類の属性がある。アバタデータ記憶部107は、画像表示制御手段104から要求された属性のアバタ画像を画像表示制御手段104に送る。その際、アバタの画像として前後左右などを向いている複数の画像を用意しておき、画像表示端末10−1の視点位置/視線方向情報と、他の画像表示端末の視点位置/視線方向情報の相互関係、すなわち位置関係/角度関係によって、アバタの向いている方向を決定し、画像を選択して送ってもよい。
また、経路を含む領域を上から見た2次元の地図画像上での画像表示端末10−1の視点位置と他の画像表示端末の視点位置を求め、その視点位置間距離に応じて、アバタの表示サイズ(近い場合は大きいサイズ、遠い場合は小さいサイズ)を変更したり、アルファブレンディングの割合といった表示濃度(近い場合は濃く、遠い場合は薄く)を変更したり、表示色(近い場合は鮮やかに、遠い場合は地味に)を変更してもよい。
【0025】
ここで、アバタデータ記憶部107はデータを記憶できるものであればなんでもよく、光ディスクやテープやメモリなどによって構成されてもよいことはいうまでもない。
【0026】
108は、画像表示部であり、プロジェクタおよびスクリーンなどから構成される。画像表示部108は、画像表示制御手段104から送られた表示画像を表示する。画像表示部108は、画像を表示できればなんでもよく、パソコンのCRT、液晶ディスプレイやテレビモニタなどから構成されてもよいことはいうまでもない。
【0027】
以上のような構成を備えた画像表示端末10−1は、パソコンやディスプレイやジョイスティックやキーボードやマウスなどから構成される。画像表示端末10−1と、画像表示端末10−2〜10−nはそれぞれ同じ構成となっているため、画像表示制御端末10−2〜10−nの説明は省く。また、各画像表示端末は別々の使用者が利用することとなっている。
【0028】
11は、画像表示管理サーバであり、パソコンやディスプレイやジョイスティックやキーボードやマウスなどから構成される。画像表示管理サーバ11は、各画像表示端末10−1〜10−nから送られてくる現実世界の疑似体験を共有したいかどうかの情報を受け取り、テーブルで管理して、各画像表示端末にその情報を送る。
【0029】
ネットワーク12は、LAN(Local Area Network)などから構成される。ネットワーク12は、画像表示端末10−1〜10−n、および画像表示管理サーバ11を繋ぎ、各端末・サーバ間のデータ送受信の経路となる。ネットワーク12は、各端末・サーバ間のデータ送受信の経路となれればなんでもよく、WAN(Wide Area Network)やインターネットの一部から構成されてもよいことはいうまでもない。
【0030】
以上のような構成を備えた本実施形態の制御方法について、以下説明する。図5は本実施形態の情報処理装置における画像表示端末10−1の処理手順を説明するフローチャートである。
【0031】
本フローチャートに先立ち、パノラマ実写画像記憶部105に記憶するパノラマ実写画像を作成しなければならないが、そのステップは既知の技術を用いることとしてここでは説明を省く。
【0032】
ステップS501では、システムの初期化を行なう。システムの初期化とはシステムを構成する各機器の電源を入れたり、プログラムを起動したりといった、本実施形態の制御方法を進めるにあたり最初に行なうステップである。システム初期化の時点では、あらかじめ視点位置/視線方向情報が設定されており、対応するパノラマ実写画像が画像表示部108に表示されているものとする。システムの初期化処理が終わり次第ステップS502へ進む。
【0033】
ステップS502では、画像表示部108の画像表示モードを管理もしくは変更するような操作部100へのボタン入力があったかどうかを判別する。ボタンの入力があった場合は、ステップS503へ進む。また、ボタンの入力がなかった場合は、ステップS504へ進む。
【0034】
ステップS503では、操作部100のボタンの入力と合わせて、操作部100から画像表示制御手段104へ画像表示内容情報が送られる。ステップS503では、画像表示制御手段104に送られてきた画像表示内容情報に合わせて、画像表示部108に表示する画像表示モードを管理もしくは変更する。ここで、画像表示モードには、例えば地図表示のON/OFF、アバタ表示のON/OFF、アバタ情報(アノテーション、ユーザ名、属性など)の表示ON/OFFなどが含まれる。画像表示モードを変更するとは、地図表示、アバタ表示、アバタ情報(アノテーション、ユーザ名、属性など)の表示ON/OFFを切り替えることである。地図表示のON/OFFとは、実世界を疑似体験する経路を含む領域を上から見た2次元の地図画像を、パノラマ実写画像と合わせて表示するかどうかということである。(なお、図6(a)では地図表示がON状態である。)アバタ表示のON/OFFとは、パノラマ実写画像にアバタを合わせて表示するかどうかということである。(なお、図6(a)はアバタ表示がONの状態である。)アバタ情報(アノテーション、ユーザ名、属性など)の表示のON/OFFとは、アバタ自体の表示とは関係なくアバタに関する情報を表示するかどうかということである。図6(a)に示すように、アバタ情報(アノテーション、ユーザ名、属性など)の表示がONになっている場合は、アバタ表示がON/OFFいずれに関わらずアバタの場所を指示すようにアバタに関する情報をアノテーションなどで表示する。また、図6(b)に示すように、常にアバタ情報(アノテーション、ユーザ名、属性など)を表示することで、ビルに隠れたアバタの位置をパノラマ実写画像上で把握することが可能となる。このアバタ情報(アノテーション、ユーザ名、属性など)の表示/非表示は、使用者が画像表示端末10−1の操作部100を操作することで決定することができる。なお、図6の地図画像では、画像表示端末10−1の使用者の視点位置/視線方向を三角印であらわしており、他の画像表示端末の使用者の視点位置を丸印であらわしている。
【0035】
また、(操作部100に画像表示モード変更以外のボタンを用意しておき)ボタンが押されたと判断された場合、画像表示端末10−1が画像表示管理サーバ11や他の画像表示端末に対して、実世界疑似体験を共有するかどうかといったことや、アバタの属性情報などを変更して送ることもできる。ステップS503の処理が終了したらステップS502に戻る。
【0036】
ステップS504では、操作部100のジョイスティックの入力があったかどうかを判別する。ジョイスティックへの入力があった場合は、ステップS505へ進む。また、ジョイスティックの入力がなかった場合は、ステップS502へ戻る。
【0037】
ステップS505では、ステップS504でジョイスティックの入力があったものとして、操作部100から視点位置/視線方向計算手段101へとジョイスティック操作情報が送られる。そして、視点位置/視線方向計算手段101では、そのジョイスティック操作情報をもとに視点位置/視線方向の計算が行なわれ、視点位置/視線方向管理手段102に視点位置/視線方向情報が送られる。なお計算された視点位置/視線方向は、次に計算されるまではその値を保持されるものとする。視点位置の計算は、具体的にはジョイスティックを前後に倒す入力に従って図3に示す道路セグメントIDを切り替えたり、フレーム番号を順番に切り替えるといったことで行なわれる。また、視線方向の計算は、具体的にはジョイスティックを左右にねじったり倒す入力に従って図3に示す基準方向に対する相対方向角度を連続的に切り替えるといったことで行なわれる。ステップS505の処理が終了したらステップS506に進む。
【0038】
ステップS506では、視点位置/視線方向管理手段102が、視点位置/視線方向計算手段101から送られてきた視点位置/視線方向情報を、図3に示すような管理テーブルで管理する。同様に、視点位置/視線方向管理手段102は、他の画像表示端末と現実世界の疑似体験を共有するかどうか、あるいはアバタの属性情報を、操作部100のボタン操作情報をもとに管理してもよい。これらの視点位置/視線方向情報、共有するかどうか、アバタの属性情報は、(通信部103、ネットワーク12を介して)他の画像表示端末もしくは画像表示管理サーバ11に送られる。また、視点位置/視線方向管理手段102は、他の画像表示端末から送られる視点位置/視線方向情報、アバタの属性情報を受け取り管理する。さらに、視点位置/視線方向管理手段102は、画像表示管理サーバ11から、他の画像表示端末の共有、非共有状態(図3では○が共有、×が非共有をあらわす)を、(ネットワーク12、通信部13を介して)受け取り管理してもよい。ここで、ネットワーク12経由での情報のやり取りは、各画像表示端末もしくは画像表示管理サーバ間で同期をとって行なっても、非同期のまま行なってもどちらでもよい。ステップS506の処理が終了したらステップS507に進む。
【0039】
ステップS507では、まず視点位置/視線方向管理手段102が管理している管理テーブルの情報を画像表示制御手段104に送る。そして、画像表示制御手段104は、管理テーブルの(画像表示端末10−1の)視点位置/視線方向情報をもとに、パノラマ実写画像記憶部105に対してパノラマ実写画像を要求する。パノラマ実写画像記憶部105は、対応したパノラマ実写画像を画像表示制御手段104に送る。ステップS507の処理が終了したらステップS508に進む。
【0040】
ステップS508では、まず視点位置/視線方向管理手段102が管理している管理テーブルの情報を画像表示制御手段104に送る。次に、画像表示制御手段104が、地図情報記憶部106に対して地図画像および地図経路を構成する道路セグメント(交差点で区切られた経路で直線とみなせる部分)情報の要求を行なう。そして、地図情報記憶部106は、画像表示制御手段104に対して図4に示すような地図画像(図4(a))および地図経路を構成する道路セグメント情報(図4(b))を送る。ここで、地図画像には視点位置/視線方向情報をもとに次の交差点先で曲がる道を色付けしておいてもよい。この場合、使用者が次の交差点先で曲がる道を把握し易くなる。
【0041】
次に、画像表示制御手段104は、アバタを表示する道路セグメントを探索して求める。道路セグメントの探索とは、画像表示端末10−1の使用者がいる道路セグメントを基点セグメントとして、基点セグメントと、繋がっている道路セグメントのなす角度が一定角度以内(例えば5°以内)のものを順々に探索していくことである。図4においては、画像表示端末10−1の使用者が#4の道路セグメントにいる場合、繋がっている道路セグメント#3、#5、#6、#7、#8のうち、#4となす角度が5°以内なのは#3のみである。ここで、基点セグメント#4と一度探索した道路セグメント#3、#5、#6、#7、#8にはフラグを立てておき再度探索されないようにしておく。次に、#3に繋がっている道路セグメントは#2、#4、#5、#6だが、フラグの立っていない#2のみが探索の対象候補となる。しかし、道路セグメント#2と#4がなす角度は45°であるため探索の対象とはならない。以上より、図4において、画像表示端末10−1の使用者が#4の道路セグメントにいる場合の道路セグメントを探索して求めた結果は、#4および#3となる。ステップS508の処理が終了したらステップS509に進む。
【0042】
ステップS509では、まず視点位置/視線方向管理手段102が管理している管理テーブルの情報を画像表示制御手段104に送る。そして、画像表示制御手段104は、管理テーブルの各画像表示端末の視点位置/視線方向情報およびアバタ属性情報をもとに、アバタデータ記憶部107に対してアバタ画像を要求する。アバタデータ記憶部107は、対応したアバタ画像を画像表示制御手段104に送る。ステップS509の処理が終了したらステップS510に進む。
【0043】
ステップS510では、画像表示制御手段104が、画像表示モード、および視点位置/視線方向管理手段102から送られてきた管理テーブル、およびパノラマ実写画像記憶部105から送られてきたパノラマ実写画像、および地図情報記憶部106から送られてきた地図画像と道路セグメントから求めた探索結果、およびアバタデータ記憶部107から送られてきたアバタ画像をもとに、画像表示部108に表示する画像を合成して作成して、画像表示部108に表示する。
アバタ表示の際は、ステップS508で求めた道路セグメント探索結果上に存在するアバタのみ選択して表示すればよい。ステップS508で求めた道路セグメント探索結果は、画像表示端末10−1の使用者がいる道路セグメントを基点セグメントとして、基点セグメントと、繋がっている道路セグメントのなす角度が一定角度以内(例えば5°以内)のものを順々に探索していったものである。よって、画像表示端末10−1の使用者は、ステップS508で求めた道路セグメント探索結果上、すなわち画像表示端末10−1の使用者がいる道路セグメントから見て直線と見なせる道路セグメント上のアバタのみ観察することができる。
このように地図画像の道路形状(経路の形状)をもとに表示するアバタを選択することで、3次元モデルを持たなくても画像中の建物(障害物)とアバタの隠蔽関係が正しく表現できる。また、図6(b)に示すように探索結果以外の道路セグメントに存在するアバタのユーザ名(使用者名)や属性などの情報をアノテーションとして常に表示しておいてもよい。このアバタ情報(アノテーション、ユーザ名、属性など)の表示/非表示は、使用者が画像表示端末10−1の操作部100を操作することで決定することができる。ステップS510の処理が終了したらステップS511に進む。
【0044】
ステップS511では、使用者が終了処理を行なっていた場合、システムを終了させる。
【0045】
システムを終了させるとは、プログラムを終了させたり、システムを構成する各機器の電源を切ったりといった本実施形態の制御方法を終わらせるために最後に行なうステップである。使用者が終了処理を行なっていない場合は、ステップS502に戻る。
【0046】
以上、本実施形態の情報処理装置における画像表示端末10−1の処理手順の説明を行なった。画像表示端末10−2〜10−nも同様の同様の処理手順であるため説明は省略する。
【0047】
図7は本実施形態の情報処理装置における画像表示管理サーバ11の処理手順を説明するフローチャートである。
【0048】
ステップS701では、システムの初期化を行なう。システムの初期化とはシステムを構成する各機器の電源を入れたり、プログラムを起動したりといった、本実施形態の制御方法を進めるにあたり最初に行なうステップである。ステップS701のシステム初期化は、各画像表示端末のシステム初期化に先立ち行なわれることが好ましい。システムの初期化が終わったらステップS702へ進む。
【0049】
ステップS702では、各画像表示端末から送られてくる共有状態の管理を行なう。共有状態は図8に示すようなテーブルで管理する。ステップS702の処理が終了したらステップS703へ進む。
【0050】
ステップS703では、各画像表示端末に対して、図8に示す各画像表示端末の共有状態を送る。ステップS703の処理が終了したらステップS704へ進む。
【0051】
ステップS704では、使用者が終了処理を行なっていた場合、システムを終了させる。
システムを終了させるとは、プログラムを終了させたり、システムを構成する各機器の電源を切ったりといった本実施形態の制御方法を終わらせるために最後に行なうステップである。ステップS704でシステム終了を行なう場合は、各画像表示端末のシステム終了後に行なうことが好ましい。使用者が終了処理を行なっていない場合は、ステップS702に戻る。
【0052】
以上、本実施形態の情報処理装置における処理手順の説明を行なった。
【0053】
以上説明したように、たとえば道路などの経路に沿って撮影を行なった1枚以上のパノラマ実写画像の中から、使用者が経路内で観察したい位置の指定を行なうことで1枚のパノラマ実写画像を選択、また使用者が観察したい方向の指定を行なうことでその1枚のパノラマ実写画像の一部分を切り出し、ネットワークを介して実世界疑似体験を共有する他の使用者の視点位置/視線方向を示すアバタをパノラマ実写画像と共に合成表示して実世界の疑似体験共有を行なう際、使用者が指定した経路上の位置から見て直線と見なせる道路上のアバタのみ選択表示することで、本実施形態の情報処理装置が3次元モデルを持たなくても画像中の建物(障害物)とアバタの隠蔽関係を正しく表現することができる。
【0054】
(他の実施の形態)
また、視点情報として視点位置のみを用いるようにしてもよい。
【0055】
また、地図画像の大きさ、解像度、さらには一つの画面内での地図画像の位置を使用者が操作部100を操作して手動で変更するようにしてもよい。
【0056】
また、図3に示すようなアバタ属性(人間タイプ、モンスタータイプ)によって画面内におけるアバタの表示する位置(高さ方向)を変えたり、パノラマ実写画像を撮影する際の条件(カメラの高さ、画角)によって画面内におけるアバタの表示する位置(高さ方向)を変えてもよい。アバタ属性によって表示する位置を変えるときには、例えば人間タイプなら道路に接する高さに表示し、モンスタータイプなら空中に浮遊するように表示すればよい。
【0057】
また、ステップS508のように道路セグメントの探索を毎回行なわずに、あらかじめ探索結果を求めておき、テーブルなどに記憶したものを用いてもよい。
例えば図4(a)の経路においては、使用者が存在する道路セグメントIDと、アバタを表示する道路セグメントIDを対応付けた図9のようなテーブルをあらかじめ用意する。図9のテーブルは、表示するアバタを選択する際に、ステップS508で道路セグメントを探索する代わりに利用される。ここで、ある画像端末の使用者が道路セグメントID#4に存在するときは、他の画像表示端末の使用者のアバタで道路セグメントIDが#3および#4に存在するものだけを表示すればよい。なお、図9のテーブルは地図情報記憶部106に記憶され、ステップS508において地図画像と同時に画像表示制御手段104に送られる。
【0058】
また、パノラマ実写画像記憶部105あるいは地図情報記憶部106あるいはアバタデータ記憶部107に記憶するデータを、画像表示管理サーバ11あるいは図示しないデータ記憶サーバに保存しておき、画像表示端末を使用する際にデータをサーバからダウンロードしてもよい。こうすることで新しいパノラマ実写画像や地図情報やアバタデータなどを効率的に各画像表示端末で追加・変更することができる。
【0059】
また、視点位置/視線方向管理手段102で他の画像表示端末の視点位置/視線方向の情報などを管理しているので、それらの情報およびパノラマ実写画像記憶部105に記憶しているパノラマ実写画像を利用することで、他の画像表示端末の使用者が見ている画像を(画像表示端末間で画像データを送ることなく)作り出し、表示することができる。その際、他の画像表示端末の使用者が見ている画像は、自分の画像と切り替えても、自分の画像と別の画像として表示してもよい。
【0060】
なお、本発明の実施形態は、複数の機器(たとえばホストコンピュータ、インタフェイス機器、リーダ、プリンタなど)から構成されるシステムに適用しても、一つの機器からなる装置(たとえば、複写機、ファクシミリ装置など)に適用してもよい。
【0061】
また、本発明の実施形態の目的は、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体(または記録媒体)を、システムあるいは装置に供給し、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行することによっても、達成されることは言うまでもない。
【0062】
この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明の実施形態を構成することになる。また、コンピュータが読み出したプログラムコードを実行することにより、前述した実施形態の機能が実現されるだけでなく、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0063】
さらに、記憶媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれた後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
【0064】
本発明の実施形態を上記記憶媒体に適用する場合、その記憶媒体には、先に説明したフローチャート(図5、図7)に対応するプログラムコードが格納されることになる。
【0065】
【発明の効果】
ネットワークを介して他の端末と繋がっている端末に適用可能であり、2次元画像に他の端末の使用者の視点位置を示すアバタ画像を合成する際、3次元モデルを持たなくても2次元画像中の建物(障害物)とアバタの隠蔽関係を正しく表現することができる。
【図面の簡単な説明】
【図1】本発明の実施形態における情報処理装置の構成を示すブロック図である。
【図2】従来例を説明する図である。
【図3】視点位置/視線方向管理手段が管理する管理テーブルを示す図である。
【図4】地図画像と道路セグメント情報を示す図である。
【図5】本発明の実施形態における画像表示端末の動作を説明するフローチャートである。
【図6】アバタ情報(アノテーション、ユーザ名、属性など)の表示などを説明する図である。
【図7】本発明の実施形態における画像表示管理サーバの動作を説明するフローチャートである。
【図8】各画像表示端末の共有状態を管理するテーブルを示す図である。
【図9】道路セグメントの探索結果をあらかじめ求めた結果を示すテーブルである。[0001]
TECHNICAL FIELD OF THE INVENTION
INDUSTRIAL APPLICABILITY The present invention is applicable to a terminal connected to another terminal via a network, and an information processing method capable of combining an avatar image indicating a viewpoint position of a user of another terminal with a two-dimensional image. , Apparatus, program and storage medium.
[0002]
[Prior art]
Conventionally, a user selects one real panoramic image by specifying a position to be observed in the route from one or more real panoramic images taken along a route such as a road. When a user designates a direction to be observed, a part of the one panoramic photographed image is cut out and displayed on a screen so that the user can simulate the real world. Here, the panoramic real image is an image obtained by photographing the real world from a certain point in the entire circumferential direction, and a plurality of images photographed by arranging the plurality of cameras so that their optical axes are directed outward are combined. Or a distorted image taken using a hyperboloid mirror or a fisheye lens can be geometrically transformed and obtained. In addition, the positions and directions that the user wants to observe in the route are referred to as viewpoint positions / viewing line directions, respectively. Here, position / direction information measured by a GPS or a gyro sensor attached to the camera at the time of shooting is recorded in association with each real panoramic image. At the time of image display, the user uses a user interface such as a joystick to specify a viewpoint position and a line of sight. When a joystick is used, operations such as forward and backward movement can be performed when the joystick is tilted forward and backward, and operations such as left and right rotation can be performed when twisted and tilted left and right. Further, in such a system for simulating the real world, by photographing a panoramic real image along a route such as a road, an image is created based on a three-dimensional model based on computer graphics (CG). It is also possible to construct a system that can easily and realistically express expressions.
[0003]
On the other hand, by connecting a plurality of three-dimensional virtual space display terminals capable of walking through the three-dimensional virtual space via a network, a plurality of users can share the same three-dimensional virtual space. In such a three-dimensional virtual space sharing system, a user other than the user is placed in the three-dimensional virtual space in order to indicate which position in the three-dimensional virtual space the user is looking in. May display avatar (incarnation). A user A who uses a certain three-dimensional virtual space display terminal uses another three-dimensional virtual space display terminal in front of him while walking through the three-dimensional virtual space. The avatar of the person B can be observed in the three-dimensional virtual space. In such a three-dimensional virtual space sharing system, the three-dimensional virtual space is constructed by, for example, a language that describes a three-dimensional model called VRML (Virtual Reality Modeling Language). Here, since the three-dimensional virtual space is constituted by a three-dimensional model, the avatar of the user B of another three-dimensional virtual space display terminal viewed from the user A of a certain three-dimensional virtual space display terminal is a building (obstacle). ), The avatar of the user B naturally disappears from the view of the user A.
[0004]
[Problems to be solved by the invention]
In a real-world simulated experience system that realizes a simulated real-world experience using a panoramic real-world image, one of one or more panoramic real-world images captured by a camera is selected, and a direction to be observed is cut out and displayed. Therefore, it does not have a three-dimensional model of the real world. When connecting multiple image display terminals for real-world simulated experience via a network and displaying avatars of other image display terminal users in the image, the system does not have a 3D model of the real world Therefore, it is difficult to express the concealment relationship between the avatar and the building (obstacle). For example, FIG. 2A shows a state in which an avatar of another image display terminal user B is displayed in a panoramic real image viewed from a certain image display terminal user A. If there is nothing between the position of the user A and the position of the avatar of the user B, this may be left as it is. However, as shown in FIG. 2B, when the avatar of the user B moves to the left side of the T-junction, that is, behind the building (obstacle), unlike the case where the system has a three-dimensional model, The concealment relationship is displayed in the field of view of the user A without being correctly represented.
[0005]
The present invention has been made in view of the above circumstances, and is applicable to, for example, a terminal connected to another terminal via a network, and an avatar indicating a viewpoint position of a user of another terminal in a two-dimensional image. It is an object of the present invention to correctly represent the concealment relationship between a building (obstacle) and an avatar in a two-dimensional image without having a three-dimensional model when synthesizing images.
[0006]
[Means for Solving the Problems]
In order to achieve an object of the present invention, an information processing method, apparatus, program, and storage medium of the present invention have the following configurations.
[0007]
That is, an information processing method which is applicable to a terminal connected to another terminal via a network and provides a two-dimensional image from an arbitrary position on a route managed by a plurality of segment information, Obtain the viewpoint position of the user of the terminal, obtain a two-dimensional image corresponding to the viewpoint position of the user of the terminal, obtain the viewpoint position of the user of the other terminal, obtain an avatar image, An information processing method for combining an avatar image indicating a viewpoint position of a user of the another terminal with a two-dimensional image, wherein the combined avatar image includes a segment including a viewpoint position of a user of the terminal, The information processing method is selected based on a positional relationship between segments including a viewpoint position of a user of the terminal.
[0008]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, preferred embodiments of the present invention will be described with reference to the accompanying drawings.
[0009]
In the present embodiment, for example, a user specifies a position to be observed in a route from one or more real panoramic images taken along a route such as a road, so that one real panoramic image can be obtained. By selecting and specifying the direction in which the user wants to observe, a portion of the one panoramic photographed image is cut out, and the viewpoint position / line-of-sight direction of another user sharing the real world simulated experience via the network is indicated. It is used when the avatar is displayed together with the panoramic photographed image to share the simulated experience of the real world.
[0010]
FIG. 1 is a block diagram showing a schematic configuration of an information processing apparatus according to an embodiment of the present invention. The information processing apparatus according to the present embodiment includes n image display terminals 10-1 to 10-n, an image display management server 11, and a
[0011]
First, the image display terminal will be described. The n image display terminals are connected to the
[0012]
An operation unit 100 includes, for example, a joystick and buttons. The user of the image display terminal 10-1 operates the joystick of the operation unit 100 to instruct the viewpoint position / gaze
[0013]
Here, the joystick or button provided on the operation unit 100 may be anything as long as it can control the viewpoint position / viewing direction and control the image display content, and is configured by a trackball, a mouse, a keyboard, or the like. Needless to say, it is good.
[0014]
[0015]
[0016]
In the management table of FIG. 3, the viewpoint position is represented by a predetermined road segment ID (FIG. 4) and a frame number in the road segment, and the line of sight direction is determined by a predetermined reference direction (for example, the north direction at the time of shooting is indicated by the north direction). 0 °). However, of course, the viewpoint position / viewing direction information is not limited to these descriptions. For example, the viewpoint position is represented by using the latitude and longitude or the frame numbers of all the panoramic images, and the viewing direction is defined by the forward direction at the time of shooting. It may be expressed as a relative direction angle with respect to the reference direction.
[0017]
A communication unit 103 exchanges data between the viewpoint position / viewing
[0018]
[0019]
Further, the image
[0020]
Reference numeral 105 denotes a panoramic photographed image storage unit, which includes a hard disk or the like. The panoramic real image storage unit 105 stores one or more panoramic real images captured along a route such as a road. A panoramic live-action image is composed by combining multiple images taken with the optical axes of multiple cameras facing outward and combining distorted images taken using a hyperboloid mirror or fisheye lens. Although they can be obtained by conversion, these techniques are well known and will not be described in detail here. In addition, position / direction information measured by a GPS or a gyro sensor attached to the camera at the time of shooting is recorded in association with each real panoramic image. The panoramic real image storage unit 105 sends the panoramic real image requested by the image
[0021]
Here, it is needless to say that the panorama actual photographed image storage unit 105 may be anything as long as it can store data, and may be constituted by an optical disk, a tape, a memory, or the like.
[0022]
[0023]
Here, the map
[0024]
The avatar
Further, a viewpoint position of the image display terminal 10-1 and a viewpoint position of another image display terminal on a two-dimensional map image when the area including the route is viewed from above are obtained, and an avatar is determined according to the distance between the viewpoint positions. You can change the display size (larger if closer, smaller if farther), change the display density (darker nearer, lighter if farther) such as the alpha blending ratio, or change the display color (closer if closer) Vividly, if it is far away sober) may be changed.
[0025]
Here, it is needless to say that the avatar
[0026]
[0027]
The image display terminal 10-1 having the above configuration includes a personal computer, a display, a joystick, a keyboard, a mouse, and the like. Since the image display terminal 10-1 and the image display terminals 10-2 to 10-n have the same configuration, description of the image display control terminals 10-2 to 10-n will be omitted. Further, each image display terminal is to be used by a different user.
[0028]
Reference numeral 11 denotes an image display management server, which includes a personal computer, a display, a joystick, a keyboard, a mouse, and the like. The image display management server 11 receives information from the image display terminals 10-1 to 10-n as to whether the user wants to share the real world simulated experience, manages the information in a table, and sends the information to each image display terminal. Send information.
[0029]
The
[0030]
The control method of the present embodiment having the above configuration will be described below. FIG. 5 is a flowchart illustrating a processing procedure of the image display terminal 10-1 in the information processing apparatus according to the present embodiment.
[0031]
Prior to this flowchart, a panoramic real image to be stored in the panoramic real image storage unit 105 must be created. However, the steps are performed using a known technique, and a description thereof is omitted here.
[0032]
In step S501, the system is initialized. The initialization of the system is a first step performed when the control method of the present embodiment is advanced, such as turning on the power of each device constituting the system or starting a program. At the time of system initialization, it is assumed that viewpoint position / viewing direction information has been set in advance, and the corresponding panoramic real image is displayed on the
[0033]
In step S502, it is determined whether a button input to the operation unit 100 for managing or changing the image display mode of the
[0034]
In step S503, the image display content information is transmitted from the operation unit 100 to the image
[0035]
When it is determined that the button has been pressed (preparing a button other than the image display mode change in the operation unit 100), the image display terminal 10-1 sends the image display management server 11 and the other image display terminals. It is also possible to change whether or not to share a real-world simulated experience, or to change and send avatar attribute information. Upon completion of the process in the step S503, the process returns to the step S502.
[0036]
In step S504, it is determined whether or not the joystick of the operation unit 100 has been input. If there is an input to the joystick, the process proceeds to step S505. If no joystick is input, the process returns to step S502.
[0037]
In step S505, joystick operation information is sent from the operation unit 100 to the viewpoint position / viewing
[0038]
In step S506, the viewpoint position / line-of-sight
[0039]
In step S507, the information of the management table managed by the viewpoint position / viewing
[0040]
In step S508, first, information on the management table managed by the viewpoint position / viewing
[0041]
Next, the image display control means 104 searches and finds a road segment for displaying an avatar. The search for a road segment refers to a road segment in which the user of the image display terminal 10-1 is used as a base segment, and an angle between the base segment and a connected road segment is within a certain angle (for example, within 5 °). It is to search in order. In FIG. 4, when the user of the image display terminal 10-1 is on the
[0042]
In step S509, information of the management table managed by the viewpoint position / viewing
[0043]
In step S510, the image
At the time of avatar display, only avatars existing on the road segment search result obtained in step S508 may be selected and displayed. The road segment search result obtained in step S508 indicates that the angle between the base segment and the connected road segment is within a certain angle (for example, within 5 °), using the road segment where the user of the image display terminal 10-1 is the base segment. ) Were searched in order. Therefore, the user of the image display terminal 10-1 determines only the avatar on the road segment search result obtained in step S508, that is, on the road segment that can be regarded as a straight line when viewed from the road segment where the user of the image display terminal 10-1 is located. Can be observed.
By selecting the avatar to be displayed based on the road shape (route shape) of the map image in this way, the concealment relationship between the building (obstacle) and the avatar in the image can be correctly expressed without having a three-dimensional model. it can. Further, as shown in FIG. 6B, information such as a user name (user name) and an attribute of an avatar existing in a road segment other than the search result may be always displayed as an annotation. Display / non-display of the avatar information (annotation, user name, attribute, and the like) can be determined by the user operating the operation unit 100 of the image display terminal 10-1. When the process in step S510 ends, the process advances to step S511.
[0044]
In step S511, if the user has performed termination processing, the system is terminated.
[0045]
Terminating the system is the last step performed to terminate the control method of the present embodiment, such as terminating the program or turning off the power of each device constituting the system. If the user has not performed the termination processing, the process returns to step S502.
[0046]
The processing procedure of the image display terminal 10-1 in the information processing apparatus according to the present embodiment has been described above. Since the image display terminals 10-2 to 10-n have the same processing procedure, the description is omitted.
[0047]
FIG. 7 is a flowchart illustrating a processing procedure of the image display management server 11 in the information processing apparatus according to the present embodiment.
[0048]
In step S701, the system is initialized. The initialization of the system is a first step performed when the control method of the present embodiment is advanced, such as turning on the power of each device constituting the system or starting a program. It is preferable that the system initialization in step S701 be performed before the system initialization of each image display terminal. When the initialization of the system is completed, the process proceeds to step S702.
[0049]
In step S702, the sharing state sent from each image display terminal is managed. The sharing state is managed by a table as shown in FIG. When the process in step S702 ends, the process proceeds to step S703.
[0050]
In step S703, the sharing state of each image display terminal shown in FIG. 8 is sent to each image display terminal. Upon completion of the process in the step S703, the process proceeds to a step S704.
[0051]
In step S704, if the user has performed termination processing, the system is terminated.
Terminating the system is the last step performed to terminate the control method of the present embodiment, such as terminating the program or turning off the power of each device constituting the system. When the system is terminated in step S704, it is preferable to perform the termination after the system termination of each image display terminal. If the user has not performed the termination processing, the process returns to step S702.
[0052]
The processing procedure in the information processing apparatus according to the present embodiment has been described above.
[0053]
As described above, one actual panoramic image can be obtained by specifying a position to be observed in the route from one or more actual panoramic images taken along a route such as a road. Is selected, and the user designates the direction to be observed to cut out a part of the one panoramic photographed image, and the viewpoint position / line-of-sight direction of another user sharing the real world simulated experience via a network is selected. When performing the simulated experience sharing of the real world by combining and displaying the avatar shown together with the panoramic real image, only the avatar on the road that can be regarded as a straight line when viewed from the position on the route specified by the user is selected and displayed according to the present embodiment. Even if the information processing device does not have a three-dimensional model, the concealing relationship between the building (obstacle) and the avatar in the image can be correctly expressed.
[0054]
(Other embodiments)
Alternatively, only the viewpoint position may be used as the viewpoint information.
[0055]
The user may manually change the size and resolution of the map image and the position of the map image in one screen by operating the operation unit 100.
[0056]
In addition, the position (height direction) where the avatar is displayed on the screen is changed according to the avatar attributes (human type and monster type) as shown in FIG. 3, and the conditions (camera height, The position (height direction) where the avatar is displayed on the screen may be changed depending on the (angle of view). When the display position is changed according to the avatar attribute, for example, a human type may be displayed at a height in contact with a road, and a monster type may be displayed so as to float in the air.
[0057]
Instead of searching for a road segment every time as in step S508, a search result may be obtained in advance and a search result stored in a table or the like may be used.
For example, in the route shown in FIG. 4A, a table as shown in FIG. 9 in which the road segment ID where the user exists and the road segment ID for displaying the avatar are associated is prepared in advance. The table of FIG. 9 is used instead of searching for a road segment in step S508 when selecting an avatar to be displayed. Here, when the user of a certain image terminal exists in the road
[0058]
In addition, the data stored in the panoramic photographed image storage unit 105, the map
[0059]
Further, since the viewpoint position / viewing
[0060]
Note that the embodiment of the present invention is applied to a system including a plurality of devices (for example, a host computer, an interface device, a reader, a printer, etc.), but is not limited to a single device (for example, a copier, a facsimile). Device).
[0061]
Further, an object of an embodiment of the present invention is to supply a storage medium (or a recording medium) in which a program code of software for realizing the functions of the above-described embodiments is recorded to a system or an apparatus, and a computer (a computer) of the system or the apparatus. It is needless to say that the present invention can also be achieved by a CPU or an MPU) reading and executing the program code stored in the storage medium.
[0062]
In this case, the program code itself read from the storage medium implements the functions of the above-described embodiment, and the storage medium storing the program code constitutes an embodiment of the present invention. When the computer executes the readout program code, not only the functions of the above-described embodiments are realized, but also an operating system (OS) running on the computer based on the instruction of the program code. It goes without saying that a part or all of the actual processing is performed and the functions of the above-described embodiments are realized by the processing.
[0063]
Further, after the program code read from the storage medium is written into a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer, the function of the program is performed based on the instruction of the program code. It goes without saying that the CPU included in the expansion card or the function expansion unit performs part or all of the actual processing, and the processing realizes the functions of the above-described embodiments.
[0064]
When the embodiment of the present invention is applied to the storage medium, the storage medium stores program codes corresponding to the above-described flowcharts (FIGS. 5 and 7).
[0065]
【The invention's effect】
Applicable to a terminal connected to another terminal via a network. When combining an avatar image indicating a viewpoint position of a user of another terminal with a two-dimensional image, two-dimensional images can be obtained without having a three-dimensional model. The concealment relationship between the avatar and the building (obstacle) in the image can be correctly expressed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an information processing apparatus according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating a conventional example.
FIG. 3 is a diagram showing a management table managed by a viewpoint position / viewing direction management unit.
FIG. 4 is a diagram showing a map image and road segment information.
FIG. 5 is a flowchart illustrating an operation of the image display terminal according to the embodiment of the present invention.
FIG. 6 is a diagram for explaining display of avatar information (annotation, user name, attribute, and the like);
FIG. 7 is a flowchart illustrating an operation of the image display management server according to the embodiment of the present invention.
FIG. 8 is a diagram showing a table for managing a sharing state of each image display terminal.
FIG. 9 is a table showing a result obtained in advance of a search result of a road segment;
Claims (9)
端末の使用者の視点位置を取得し、
前記端末の使用者の視点位置に対応した2次元画像を取得し、
前記他の端末の使用者の視点位置を取得し、
アバタ画像を取得し、
前記2次元画像に前記他の端末の使用者の視点位置を示すアバタ画像を合成する情報処理方法であり、
前記合成されるアバタ画像は、前記端末の使用者の視点位置を含むセグメントと、前記他の端末の使用者の視点位置を含むセグメントの位置関係によって選択されることを特徴とする情報処理方法。An information processing method which is applicable to a terminal connected to another terminal via a network and provides a two-dimensional image from an arbitrary position on a route managed by a plurality of segment information,
Obtain the viewpoint position of the user of the terminal,
Acquiring a two-dimensional image corresponding to the viewpoint position of the user of the terminal,
Obtaining the viewpoint position of the user of the other terminal,
Get the avatar image,
An information processing method of combining an avatar image indicating a viewpoint position of a user of the other terminal with the two-dimensional image,
The information processing method according to claim 1, wherein the synthesized avatar image is selected based on a positional relationship between a segment including a viewpoint position of a user of the terminal and a segment including a viewpoint position of a user of the other terminal.
他の端末の使用者の視線方向を取得し、
前記合成されるアバタ画像は、前記端末の使用者の視線方向と、前記他の端末の使用者の視線方向の角度関係によって選択されることを特徴とする請求項1乃至2のいずれかに記載の情報処理方法。Furthermore, the gaze direction of the terminal user is obtained,
Obtain the gaze direction of the user of the other terminal,
The avatar image to be synthesized is selected based on an angle relationship between a line-of-sight direction of a user of the terminal and a line-of-sight direction of a user of the another terminal. Information processing method.
前記端末の使用者の視点位置と、前記他の端末の使用者の視点位置の位置関係によって選択されることを特徴とする請求項1乃至3のいずれかに記載の情報処理方法。The size, density or color of the synthesized avatar image is
4. The information processing method according to claim 1, wherein the selection is performed based on a positional relationship between a viewpoint position of a user of the terminal and a viewpoint position of a user of the another terminal. 5.
前記合成されるアバタ画像の2次元画像内での位置は、前記取得した他の端末のアバタ情報あるいは2次元画像を撮影した際のカメラの高さあるいは画角によって決定されることを特徴とする請求項1乃至4のいずれかに記載の情報処理方法。In addition, obtain avatar information of other terminals,
The position of the combined avatar image in the two-dimensional image is determined by the acquired avatar information of the other terminal or the height or angle of view of the camera when the two-dimensional image is captured. The information processing method according to claim 1.
前記2次元画像に前記取得した他の端末のアバタ情報を合成することを特徴とする請求項1乃至4のいずれかに記載の情報処理方法。In addition, obtain avatar information of other terminals,
The information processing method according to claim 1, wherein the acquired avatar information of the other terminal is combined with the two-dimensional image.
複数のセグメント情報で管理されている経路上の任意の位置からの2次元画像を提供する情報処理装置であって、
端末の使用者の視点位置を取得する第1の視点位置取得手段と、
前記端末の使用者の視点位置に対応した2次元画像を取得する2次元画像取得手段と、
前記他の端末の使用者の視点位置を取得する第2の視点位置取得手段と、
アバタ画像を取得するアバタ画像取得手段と、
前記2次元画像に前記他の端末の使用者の視点位置を示すアバタ画像を合成するアバタ画像合成手段と、
前記端末の使用者の視点位置を含むセグメントと、前記他の端末の使用者の視点位置を含むセグメントの位置関係によって、前記合成されるアバタ画像を選択するアバタ画像選択手段とを備えることを特徴とする情報処理装置。Applicable to terminals connected to other terminals via a network,
An information processing apparatus for providing a two-dimensional image from an arbitrary position on a route managed by a plurality of segment information,
First viewpoint position acquisition means for acquiring the viewpoint position of the user of the terminal;
Two-dimensional image acquisition means for acquiring a two-dimensional image corresponding to a viewpoint position of a user of the terminal;
Second viewpoint position acquisition means for acquiring a viewpoint position of a user of the other terminal;
An avatar image obtaining means for obtaining an avatar image;
Avatar image combining means for combining the two-dimensional image with an avatar image indicating a viewpoint position of a user of the other terminal;
An avatar image selecting means for selecting the avatar image to be synthesized according to a positional relationship between a segment including a viewpoint position of a user of the terminal and a segment including a viewpoint position of a user of the other terminal. Information processing device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002363914A JP2004199159A (en) | 2002-12-16 | 2002-12-16 | Information processing method, information processing device, program, and recording medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002363914A JP2004199159A (en) | 2002-12-16 | 2002-12-16 | Information processing method, information processing device, program, and recording medium |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004199159A true JP2004199159A (en) | 2004-07-15 |
Family
ID=32761934
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002363914A Withdrawn JP2004199159A (en) | 2002-12-16 | 2002-12-16 | Information processing method, information processing device, program, and recording medium |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004199159A (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026090A (en) * | 2005-07-15 | 2007-02-01 | Oki Electric Ind Co Ltd | Video preparation device |
JP2009123001A (en) * | 2007-11-15 | 2009-06-04 | Internatl Business Mach Corp <Ibm> | Method, unit and program for automatic reference mark generation in shared virtual space |
WO2010143359A1 (en) * | 2009-06-10 | 2010-12-16 | 日本電気株式会社 | Avatar display system, device, method, and program |
JP2019046250A (en) * | 2017-09-04 | 2019-03-22 | 株式会社コロプラ | Program executed by computer to provide virtual space, method thereof, information processing apparatus for executing said program |
JP2023026312A (en) * | 2021-08-11 | 2023-02-24 | 株式会社Abal | Composite space bodily sensation system |
JP7382111B1 (en) | 2022-12-23 | 2023-11-16 | Kddi株式会社 | Information processing device and information processing method |
-
2002
- 2002-12-16 JP JP2002363914A patent/JP2004199159A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007026090A (en) * | 2005-07-15 | 2007-02-01 | Oki Electric Ind Co Ltd | Video preparation device |
JP2009123001A (en) * | 2007-11-15 | 2009-06-04 | Internatl Business Mach Corp <Ibm> | Method, unit and program for automatic reference mark generation in shared virtual space |
WO2010143359A1 (en) * | 2009-06-10 | 2010-12-16 | 日本電気株式会社 | Avatar display system, device, method, and program |
JP2019046250A (en) * | 2017-09-04 | 2019-03-22 | 株式会社コロプラ | Program executed by computer to provide virtual space, method thereof, information processing apparatus for executing said program |
JP2023026312A (en) * | 2021-08-11 | 2023-02-24 | 株式会社Abal | Composite space bodily sensation system |
JP7382111B1 (en) | 2022-12-23 | 2023-11-16 | Kddi株式会社 | Information processing device and information processing method |
JP2024090859A (en) * | 2022-12-23 | 2024-07-04 | Kddi株式会社 | Information processing device and information processing method |
JP7523648B2 (en) | 2022-12-23 | 2024-07-26 | Kddi株式会社 | Information processing device and information processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11381758B2 (en) | System and method for acquiring virtual and augmented reality scenes by a user | |
US9324298B2 (en) | Image processing system, image processing apparatus, storage medium having stored therein image processing program, and image processing method | |
US8933965B2 (en) | Method for calculating light source information and generating images combining real and virtual images | |
JP7498209B2 (en) | Information processing device, information processing method, and computer program | |
CN108446310B (en) | Virtual street view map generation method and device and client device | |
US10403044B2 (en) | Telelocation: location sharing for users in augmented and virtual reality environments | |
JP4065507B2 (en) | Information presentation apparatus and information processing method | |
US20110102460A1 (en) | Platform for widespread augmented reality and 3d mapping | |
Veas et al. | Extended overview techniques for outdoor augmented reality | |
US20140152764A1 (en) | Information processing system, information processing apparatus, storage medium having stored therein information processing program, and information transmission/reception method | |
JP2018533317A (en) | Virtual reality video transmission method, playback method, and program using them | |
US10803652B2 (en) | Image generating apparatus, image generating method, and program for displaying fixation point objects in a virtual space | |
JP6775669B2 (en) | Information processing device | |
KR102005251B1 (en) | Server, provider terminal and method for providing image of offerings base on virtual reality | |
JP2004199159A (en) | Information processing method, information processing device, program, and recording medium | |
JP6149967B1 (en) | Video distribution server, video output device, video distribution system, and video distribution method | |
JP2006040053A (en) | Image processing method and program | |
JP2005044102A (en) | Image reproduction method and device | |
US20220405996A1 (en) | Program, information processing apparatus, and information processing method | |
JP2004062755A (en) | Image providing device and image processing method | |
WO2022237047A1 (en) | Surface grid scanning and displaying method and system and apparatus | |
JP2004234457A (en) | Information processing apparatus, method, program, and storage medium | |
JP2003208146A (en) | Image display device and information processing method | |
US20240078767A1 (en) | Information processing apparatus and information processing method | |
JP2024037496A (en) | Image processing device, program, and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20060307 |