Nothing Special   »   [go: up one dir, main page]

JP2004064639A - Picture communication system and information processing method - Google Patents

Picture communication system and information processing method Download PDF

Info

Publication number
JP2004064639A
JP2004064639A JP2002223280A JP2002223280A JP2004064639A JP 2004064639 A JP2004064639 A JP 2004064639A JP 2002223280 A JP2002223280 A JP 2002223280A JP 2002223280 A JP2002223280 A JP 2002223280A JP 2004064639 A JP2004064639 A JP 2004064639A
Authority
JP
Japan
Prior art keywords
image
information
camera
video
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2002223280A
Other languages
Japanese (ja)
Inventor
Rika Tanaka
田中 利果
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2002223280A priority Critical patent/JP2004064639A/en
Publication of JP2004064639A publication Critical patent/JP2004064639A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Selective Calling Equipment (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To stably obtain video in a desired direction by easily controlling photographing using a photographing means such as a portable camera from a remote site. <P>SOLUTION: In the picture communication system having a camera server device and an image client device, the camera server device has a video input means, an attitude detecting means for detecting the attitude of the video input means, a control means for controlling photographing conditions from video direction control request information from the image client and information on the attitude detected by the attitude detecting means, and a transmission means for transmitting video photographed in accordance with the photographing conditions to the image client device, and the image client device has a transmission means for transmitting the video direction control request information to the camera server device, a receiving means for receiving image information transmitted from the camera server device, and a display means. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、携帯カメラなどの撮影部の撮影条件を遠隔地から制御するものに関する。
【0002】
【従来の技術】
従来、コンピュータに接続して(パン・チルト・ズームなどが)制御可能なカメラ、いわゆるコムカメラが登場している。このコムカメラの遠隔地にあるクライアント端末からコムカメラの動作を制御し、コムカメラで撮影された静止画像、動画像をインターネット等を介して受信することにより、クライアント端末側でモニタ表示できるシステムが開発されている。また、このようなコムカメラをネットワーク上に配置して、ネットワーク上のユーザーに画像を配信するプログラムが知られている。このようなシステムでは、画像をほぼリアルタイムに送信することができ、遠隔地の風景等を容易に見ることが可能となっている。
【0003】
また、広角なカメラをコンピュータに接続し、カメラで撮影された静止画像、動画像をインターネット等を介して受信することにより、クライアント端末側で任意の方向をモニタ表示できるシステムが開発されている。さらに、このようなカメラをネットワーク上に配置して、ネットワーク上のユーザーに画像を配信するシステムでは、遠隔地の風景等を容易に見ることが可能となっている。
【0004】
しかし、これらシステムの個々のカメラ位置は固定されており、自由に移動することができない。
【0005】
特開2001−189927では、映像・音声情報を取得する移動ステーションを設け、情報収集地点から離間した地点において、あたかも情報収集地点にいるような体験を仮想的に行わせる疑似体験システムを提案している。しかし、移動ステーションの移動も遠隔から操作するため、制御が難しく、移動できる場所が限定されてしまう。
【0006】
任意の場所に持ち運び可能な携帯カメラからにおいては、ネットワーク等を通じて、クライアント端末側から撮像画像を視察可能とすることも可能である。しかし、このような携帯カメラの制御はカメラを携帯している人のみにゆだねられており、クライアント端末側では、任意の方向の見回しができないという問題がある。
【0007】
特開2000−209613では、携帯カメラの撮像画像から、リアルタイムにパノラマ画像を作成し、クライアント側に提供することで上記の問題を解決している。しかし、現場の携帯カメラ撮影者は、パノラマ画像が作成できるような撮影を強いられる。
【0008】
【発明が解決しようとする課題】
自由に現場を動き回って撮影できる携帯カメラでは,現場でカメラを携帯する人が、クライアント側の要求する映像をうまく撮像しない限り、クライアント端末側では自由に見まわすことができなかった。つまり、遠隔にいる人と現場にいる人とが共に、現場をそれぞれ自由に体験することができなかった。
【0009】
本発明は、携帯カメラなどの撮影手段を用いた撮影を遠隔地から簡単に制御でき、所望の方向の映像を安定的に得られるようにすることを目的とする。
【0010】
また、ネットワーク等に接続された携帯カメラで撮像した画像に対し、携帯カメラの姿勢情報を計測し利用して画像処理することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示可能とすることを目的とする。
【0011】
また、ネットワーク等に接続された携帯カメラであって、携帯カメラの姿勢変化を和らげる機構を有することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示可能とすることを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために本発明は以下の構成を有する。
【0013】
本願請求項1記載の発明は、カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、前記カメラサーバ装置は、映像を撮影する映像入力手段と、前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、前記映像入力手段の姿勢を検出する姿勢検出手段と、前記映像方向制御要求情報と前記姿勢検出手段で検出された姿勢情報とから前記映像入力手段の撮影条件を制御する制御手段と、前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、前記画像クライアント装置は、前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、前記カメラサーバ装置から送信された画像情報を受信する受信手段と、前記画像情報情報を表示する表示手段とを有することを特徴とする。
【0014】
本願請求項5記載の発明は、カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、前記カメラサーバ装置は、姿勢が安定的に支持されるように指示部によって指示されている映像入力手段と、前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、前記映像方向制御要求情報に応じて前記映像入力手段の撮影条件を制御する制御手段と、前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、前記画像クライアント装置は、前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、前記カメラサーバ装置から送信された画像情報を受信する受信手段と、前記画像情報情報を表示する表示手段とを有することを特徴とする。
【0015】
本願請求項6記載の発明は、映像方向制御要求情報に応じて撮影部を制御する情報処理方法であって、ユーザによって指示された映像方向制御要求情報を入力し、前記撮影部の姿勢情報を入力し、前記映像方向制御要求情報と前記姿勢情報とに基づき、前記撮影部の撮影条件を求め、前記撮影条件を用いて前記撮影部を制御することを特徴とする。
【0016】
【発明の実施の形態】
(実施形態1)
以下、本発明の一例となる実施の形態を図1に基づいて説明する。
【0017】
本実施の形態では、カメラサーバ装置(コムカメラ101及びカメラ姿勢計測部106及びサーバ制御装置102)から任意の映像を取得するために、遠隔地にある画像クライアント装置(クライアント制御装置107及びコマンド入力部110及びディスプレイ装置111)で参照しながらコムカメラ101を遠隔操作する例について説明する。
【0018】
特に、本実施の形態では、人がコムカメラ101を携帯し、街の風景を撮影している。
【0019】
101は、カメラアングルや撮像条件などを接続線101−aからの制御信号に基づいて制御されることが可能なカメラ(コムカメラとする)である。このコムカメラ101は、撮影した映像のデータを接続線101−bを介してリアルタイムに出力することが可能である。
【0020】
106は、カメラ姿勢を計測するためのカメラ姿勢計測部106であり、ここではジャイロセンサを用いている。カメラ姿勢とは、カメラ自体(カメラの雲台)の姿勢のことをいい、ビュー方向や、カメラ制御パラメータ(パン角、チルト角など:カメラの雲台に対するカメラレンズの方向)と区別する。カメラを携帯することでカメラ姿勢が変化し(図7)、画像クライアント装置側では、カメラ遠隔操作の操作性(特にパン、チルト)が悪化することがある。カメラ姿勢情報を計測して利用することで、カメラの遠隔操作の操作性を向上させることが必要である。
【0021】
一方、携帯カメラの姿勢が大きく変化しないような機構を取り入れることにより、カメラ姿勢計測部106は省略することができる。カメラ携帯者自体の自然な動き(単なる歩行による姿勢変化)は遠隔操作にはさほど影響を与えないことから、携帯カメラの姿勢が大きく変化しないような機構として図8、携帯カメラの姿勢が大きく変化しないような携帯方法として図9を示す。図8では、携帯カメラ姿勢が常に平行に保たれ、かつ携帯棒に対しカメラの雲台が前方を向くように保たれる機構であり、例えば出前機の機構が利用できる。また、図9では、カメラを背骨と垂直になるよう携帯することで、カメラの姿勢が一定に保たれる。本実施形態では、図7のような形態をしていることから、カメラ姿勢が大きく変化するものとして、カメラ姿勢計測部106を取り入れる。
【0022】
携帯のカメラ姿勢計測部106で計測されたカメラ姿勢情報は後述するカメラ制御手段103に送られる。
【0023】
102は、後述するクライアント制御装置からネットワーク回線を介して送信された制御信号および前記コムカメラ姿勢計測部106からの信号に基づいてコムカメラを制御する為のサーバ制御装置である。このサーバ制御装置102はいわゆるパーソナルコンピュータ等が用いられる。
【0024】
サーバ制御装置102の具体的な構成を以下に説明する。
【0025】
103は、コムカメラ101を接続線101−a(RS232Cインタフェース等)を介して制御するカメラ制御手段である。カメラ制御手段103は、後述するクライアント制御装置107から送信され、ネットワーク回線及び通信インタフェース105を介して入力されたカメラ制御要求情報を取得し、カメラ姿勢計測装部106から出力されるカメラ姿勢情報を取得する。さらに103は、これらカメラ制御要求情報および、カメラ姿勢情報からカメラ制御情報を生成し、コムカメラ101を制御する。なお、本実施の形態でいうカメラ制御情報とは、コムカメラ101を制御するために各装置間でやり取りする必要のある情報を総称していい、例えば、カメラのパン、チルト、ズームなどである。
【0026】
104は、コムカメラ101の撮影した映像を接続線101−bを介して入力する、画像キャプチャ装置等の映像入力手段である。
【0027】
105は、ネットワーク回線を介して接続された外部装置(クライアント制御装置107等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0028】
更に、サーバ制御装置102は、装置内の各部の動作制御及び必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0029】
次に、画像クライアント装置(クライアント制御装置107及びコマンド入力部110及びディスプレイ装置111)について、具体的に説明する。
【0030】
107は、ユーザからの操作入力に応じて、サーバ制御装置102から適切な情報を取得するクライアント制御装置である。このクライアント制御装置107は、サーバ制御装置102と同様、主にパーソナルコンピュータが用いられる。
【0031】
108は、通信インタフェース105と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0032】
110は、ユーザのカメラ制御コマンド情報を入力するコマンド入力部110であり、入力されたコマンド情報を後述するカメラ制御情報計測手段109に出力する。
【0033】
109はコマンド入力部110から入力されたコマンド情報をカメラ制御情報として解釈するカメラ制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ101へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部110としてジョイスティックやマウスなどを用い、カメラ制御情報計測手段109ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部110はさまざまな入力デバイスで代用することが可能である。カメラ制御情報計測手段109で計測されたカメラ制御情報は通信インタフェース108へ送信される。
【0034】
112は通信インタフェース108より入力された情報を表示する情報表示手段である。本実施形態では、画像情報をクライアントが装着しているヘッドマウントディスプレイ111に表示している。これにより、クライアントユーザはカメラ101で撮影された映像を視認することができる。
【0035】
本実施形態におけるサーバ制御装置の動作を図4(a)に示すフローチャートを用いて説明する。
【0036】
ステップS40aで処理を開始する。
【0037】
ステップS41aでは、クライアント制御装置107から送信されてくるカメラ制御要求情報を取得する。
【0038】
ステップS42aでは、カメラ姿勢計測装置106から送信されてくるカメラ姿勢情報を取得する。
【0039】
ステップS43aでは、S41aで取得したカメラ制御要求情報、およびS42aで取得したカメラ姿勢情報を基に、カメラ制御パラメータを求める。上述したように、このステップは、カメラ101自体の動きに影響されずに、カメラ制御要求が満たされるために必要なステップである。
【0040】
本実施形態では、カメラ制御情報のカメラ制御パラメータとしてパン(θ)、チルト(φ)、ズーム(z)がある。θはパン角、φはチルト角、zはズーム倍率をそれぞれ示す。
カメラ制御パラメータ(θ、φ、z)に対し、カメラ制御要求パラメータを(θc、φc、zc)、カメラ姿勢情報を(θi、φi、zi)とすると、
(θ、φ、z)=(θc、φc、zc)−(θi、φi、0)
でカメラ制御パラメータを求めることができる。ただし、パン角度の範囲は、本実施形態では−90度〜90度であるので、この範囲を計算角度が超える場合には上限または下限の値、すなわち90度または−90度の値が設定される。この演算により、カメラを携帯することによる遠隔操作の操作性の悪さが改善される。
【0041】
ステップS44aでは、S43aで計算されたカメラ制御パラメータに従って、実際にカメラを操作する。
【0042】
ステップS45aでは、カメラ101で撮像した映像を映像入力手段104に入力する。
【0043】
ステップS46aでは、S45aで入力された映像情報を通信インタフェース105を通してクライアント制御装置107に送信する。映像情報と共に音声情報なども送信してもよい。
【0044】
本実施形態におけるクライアント制御装置の動作を図4(b)に示すフローチャートを用いて説明する。
【0045】
ステップS40bで接続を開始する。
【0046】
ステップS41bでは、クライアントユーザからのコマンドを受け付ける。
【0047】
ステップS42bでは、S41bで入力されたコマンドをカメラ制御要求情報として解釈する。
【0048】
ステップS43bでは、S41bで解釈されたカメラ制御要求情報を、通信インタフェース108を通してサーバ制御装置102に送信する。
【0049】
ステップS44bでは、ステップS43bで送信したカメラ制御要求情報によってサーバ制御装置102から返送された情報を受け付ける。
【0050】
ステップS45bでは、S44bでサーバ制御装置102から入力された情報をユーザに表示する。
【0051】
本実施形態によれば、ネットワーク等に接続された携帯カメラにおいて、携帯カメラの姿勢変化を和らげる機構または、携帯カメラの姿勢情報を利用することで、クライアント側ではカメラを携帯することによる姿勢変化の影響を受けない入力する要求に合った携帯カメラの位置から視察可能な任意のシーン画像をモニタ表示可能にする装置に関する。
【0052】
(実施形態2)
本発明の第2の実施形態として、第1の実施形態で用いたコムカメラの代わりに、広角カメラ(魚眼レンズ)を用いた場合の実施の形態を図2に基づいて説明する。
【0053】
本実施の形態では、カメラサーバ装置(広角カメラ101及びカメラ姿勢計測部106及びサーバ制御装置102)の広角カメラで撮影される広角な映像を利用して、遠隔地にある画像クライアント装置(クライアント制御装置207及びコマンド入力部110及びディスプレイ装置111)で任意の方向の画像(ビュー)を参照する。
【0054】
特に、本実施の形態では、人が広角カメラ201を携帯し、街の風景を撮影している。
【0055】
201は、ほぼ全周囲が撮影できる広角カメラであり、例えば魚眼レンズカメラなどである。この広角カメラ201は、撮影した映像のデータは接続線201−bを介してリアルタイムに出力することが可能である。
【0056】
206は、カメラの姿勢を計測するためのカメラ姿勢計測部206であり、ここではジャイロセンサを用いている。本実施形態ではカメラを携帯することでカメラの姿勢が変化してしまう。ここで計測されるカメラ姿勢情報を、カメラサーバ装置側もしくは画像クライアント装置側でビュー方向を制御するのに利用する。本実施形態ではカメラサーバ装置側でビュー制御する。
【0057】
カメラ姿勢計測部206で計測されたカメラ姿勢情報は後述する画像制御手段203に送られる。
【0058】
ここでも実施形態1と同様に、携帯カメラの姿勢が大きく変化しないような機構を取り入れることにより、カメラ姿勢計測装置206は省略することができる。携帯カメラの姿勢が大きく変化しないような機構として図10を示す。
【0059】
202は、後述するクライアント制御装置からネットワーク回線を介して送信された制御信号および前記カメラ姿勢計測部206からの信号に基づいて出力画像を制御する為のサーバ制御装置である。このサーバ制御装置202はいわゆるパーソナルコンピュータ等が用いられる。
【0060】
サーバ制御装置202の具体的な構成を以下に説明する。
【0061】
204は、広角カメラ201の撮影した映像を接続線201−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段203に送られる。
【0062】
画像処理手段203は、映像入力手段204から入力される広角カメラ201の撮像映像を制御する画像処理手段である。画像処理手段203は、実施形態1におけるクライアント制御装置207から送信され、ネットワーク回線及び通信インタフェース205を介して入力されたビュー制御要求情報(クライアントから要求されるビュー方向などの情報)を取得し、さらに、カメラ姿勢計測部206がある場合はカメラ姿勢計測装部206から出力されるカメラ姿勢情報を取得する。さらに画像処理手段203は、映像入力手段204から入力された画像から、ビュー制御要求情報および、ある場合にはカメラ姿勢情報をもとに適切なビュー画像を生成する。この際、広角カメラで撮像することから生じる画像歪みも補正する。
【0063】
205は、ネットワーク回線を介して接続された外部装置(クライアント制御装置207等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0064】
更に、サーバ制御装置202は、装置内必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0065】
次に、画像クライアント装置(クライアント制御装置207及びコマンド入力部210及びディスプレイ装置211)について、具体的に説明する。
【0066】
207は、ユーザからの操作入力に応じて、サーバ制御装置102から適切な情報を取得するクライアント制御装置である。このクライアント制御装置207は、サーバ制御装置202と同様、主にパーソナルコンピュータが用いられる。
【0067】
208は、通信インタフェース205と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0068】
210は、ユーザのビュー制御コマンド情報を入力するコマンド入力部210であり、入力されたコマンド情報をビュー制御情報計測手段209に出力する。
【0069】
209はコマンド入力部210から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ201へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部210としてジョイスティックやマウスなどを用い、ビュー制御情報計測手段209ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部210はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段209で計測されたビュー制御情報は通信インタフェース208へ送信される。
【0070】
212は通信インタフェース208より入力された情報を表示する情報表示手段である。本実施形態では、映像情報をクライアントが装着しているヘッドマウントディスプレイ211に表示している。これにより、クライアントユーザはカメラ201で撮影された任意のビュー映像を視認することができる。
【0071】
本実施形態におけるサーバ制御装置の動作を図5(a)に示すフローチャートを用いて説明する。
【0072】
ステップS50aで処理を開始する。
【0073】
ステップS51aでは、クライアント制御装置207から送信されてくるビュー制御要求情報を取得する。
【0074】
ステップS52aでは、カメラ姿勢計測装置206から送信されてくるカメラ姿勢情報を取得する。
【0075】
ステップS53aでは、広角カメラ201で撮像した映像を映像入力手段204に入力する。
【0076】
ステップS54aでは、S51aで取得したビュー制御要求情報、およびS52aで取得したカメラ姿勢情報を基に、S53aで入力された映像からビュー画像の生成を行う。
【0077】
本実施形態では、ビュー制御情報のパラメータとしてパン(θ)、チルト(φ)がある。θはパン角、φはチルト角をそれぞれ示す。
【0078】
ビュー制御パラメータ(θ、φ)に対し、ビュー制御要求パラメータを(θc、φc)、カメラ姿勢情報を(θi、φi)とすると、
(θ、φ)=(θc、φc)−(θi、φi)
でビュー制御パラメータを求めることができる。ここで、S53aで入力された映像は広角カメラで撮像した映像であり、歪みが生じている。この画像歪みを考慮してビュー制御パラメータ(θ、φ)に対応するビュー画像を生成する。
【0079】
ステップS5では、S4で生成したビュー画像の画像情報通信インタフェース205を通してクライアント制御装置207に送信する。画像情報と共に音声情報なども送信してもよい。
【0080】
本実施形態におけるクライアント制御装置の動作を図5(b)に示すフローチャートを用いて説明する。
【0081】
ステップS50bで接続を開始する。
【0082】
ステップS51bでは、クライアントユーザからのコマンドを受け付ける。
【0083】
ステップS52bでは、S51bで入力されたコマンドをビュー制御要求情報として解釈する。
【0084】
ステップS53bでは、S51bで解釈されたビュー制御要求情報を、通信インタフェース208を通してサーバ制御装置202に送信する。
【0085】
ステップS54bでは、ステップS53bで送信したビュー制御要求情報によってサーバ制御装置202から返送された情報を受け付ける。
【0086】
ステップS55bでは、S54bでサーバ制御装置202から入力された情報をユーザに表示する。
【0087】
(実施形態3)
第3の実施形態として図3に基づいて説明する。
【0088】
本実施の形態では第2に実施形態と同様、カメラサーバ装置(広角カメラ301及びカメラ姿勢計測部306及びサーバ制御装置302)からの広角な画像を利用して、遠隔地にあるクライアント端末(クライアント制御装置307及びコマンド入力部310及びディスプレイ装置311)で任意の方向の画像(ビュー)を参照する。
【0089】
第2の実施形態ではクライアントの要求するビュー画像の生成をカメラサーバ装置側で行った。本実施形態では、カメラサーバ装置側では画像の補正のみを行い、ビュー画像の生成は画像クライアント装置側で行う。
【0090】
特に、本実施の形態では、人が広角カメラ301を携帯し、街の風景を撮影している。
【0091】
301は、ほぼ全周囲が撮影できる広角カメラである。この広角カメラ301は、撮影した映像のデータは接続線301−bを介してリアルタイムに出力することが可能である。
【0092】
306は、カメラの姿勢を計測するためのカメラ姿勢計測装置306であり、ここではジャイロセンサを用いている。カメラ姿勢計測装置306で計測されたカメラ姿勢情報は後述する画像処理手段304に送られる。
【0093】
302は、広角カメラ姿勢計測部306からの信号に基づいて出力する画像の制御を行う為のサーバ制御装置である。このサーバ制御装置302はいわゆるパーソナルコンピュータ等が用いられる。更にサーバ制御装置302は、画像処理手段303で生成された画像情報やカメラ姿勢情報などを、無線ネットワーク回線を介して複数のクライアント制御装置に送信することが可能である。
【0094】
サーバ制御装置302の具体的な構成を以下に説明する。
【0095】
304は、は接続線301−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段303に送られる。
【0096】
画像処理手段303は、広角カメラ301の撮影した映像の歪みを補正し、さらに、カメラ姿勢計測装部306から出力されるカメラ姿勢情報を利用し、カメラ姿勢一定の画像に変換する。
【0097】
305は、ネットワーク回線を介して接続された外部装置(クライアント制御装置307等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0098】
更に、サーバ制御装置302は、装置内の必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0099】
次に、画像クライアント装置(クライアント制御装置307及びコマンド入力部310及びディスプレイ装置311)について、具体的に説明する。
【0100】
307は、サーバ制御装置302から画像情報を取得し、ユーザからの操作入力に応じて、適切な情報を生成するクライアント制御装置である。このクライアント制御装置307は、サーバ制御装置302と同様、主にパーソナルコンピュータが用いられる。
【0101】
308は、通信インタフェース305と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0102】
310は、ユーザのビュー制御コマンド情報を入力するコマンド入力部310であり、入力されたコマンド情報をビュー制御情報計測手段309に出力する。
【0103】
309はコマンド入力部310から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ301へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部310としてジョイスティックやマウスなどを用い、ビュー制御情報計測手段309ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部310はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段309で計測されたビュー制御情報は後述する画像処理手段312へ送信される。
【0104】
312は画像処理手段である。画像処理手段312は通信インタフェース308より入力された画像情報及び、ビュー制御情報計測手段309から入力されるビュー制御情報からビュー画像を生成する。画像処理手段312で生成されたビュー画像はディスプレイ装置311で表示される。
【0105】
本実施形態におけるサーバ制御装置の動作を図6(a)に示すフローチャートを用いて説明する。
【0106】
ステップS60aで処理を開始する。
【0107】
ステップS61aでは、広角カメラ301で撮像した映像が映像入力手段304に入力される。
【0108】
ステップS62aでは、カメラ姿勢計測装置306から送信されてくるカメラ姿勢情報を取得する。
【0109】
ステップS63aでは、広角レンズ情報及びS62aで取得したカメラ姿勢情報を基に、S61aで入力された映像の補正を行う。この際、撮像画像自体の歪みも補正する。
【0110】
ステップS64aでは、S63aで生成した画像を通信インタフェース305を通してクライアント制御装置207に送信する。
【0111】
本実施形態におけるクライアント制御装置の動作を図6(b)に示すフローチャートを用いて説明する。
【0112】
ステップS60bで接続を開始する。
【0113】
ステップS61bでは、クライアントユーザからのコマンドを受け付ける。
【0114】
ステップS62bでは、S61bで入力されたコマンドをビュー制御要求情報として解釈する。
【0115】
ステップS63bでは、サーバ制御装置302から送信された情報を受け付ける。
【0116】
ステップS64bでは、S61bで解釈されたビュー制御要求情報を基に、S63bで入力された画像情報からビュー情報を生成する。
【0117】
ステップS65bでは、S64bで作成したビュー画像を表示する。
【0118】
本実施形態では、サーバ側で「レンズ歪み補正」や「カメラ姿勢情報を基に、撮像映像の方向を統一する補正」を行ったが、後者の補正などは特に、カメラ姿勢情報などをカメラサーバからクライアントサーバに送信し、クライアント側で行うことにすることも可能である。
【0119】
(実施形態4)
第4の実施形態として図12に基づいて説明する。
【0120】
本実施の形態では第3に実施形態と同様、カメラサーバ装置(広角カメラ401及びカメラ姿勢計測部406及びサーバ制御装置402)からの広角な画像を利用して、遠隔地にあるクライアント装置(クライアント制御装置407及びコマンド入力部410及びディスプレイ装置411)で任意の方向の画像(ビュー)を参照する。クライアント装置側のユーザはカメラ姿勢と同期して回転する回転イスに座ってHMDを装着する(図12)。
【0121】
本実施の形態では、人が広角カメラ401を携帯し、街の風景を撮影している。
【0122】
401は、ほぼ全周囲が撮影できる広角カメラである。この広角カメラ401は、撮影した映像のデータは接続線401−bを介してリアルタイムに出力することが可能である。
【0123】
406は、カメラの姿勢を計測するためのカメラ姿勢計測装置406であり、ここではジャイロセンサを用いている。カメラ姿勢計測装置406で計測されたカメラ姿勢情報は後述する画像処理手段404に送られ、さらにネットワーク回線を介して画像クライアント装置に送られる。
【0124】
402は、広角カメラ401の撮像画像や姿勢計測部406からの信号に基づいて、画像クライアント装置に送る情報の制御を行い、無線ネットワーク回線を介して複数の画像クライアント制御装置に送信することが可能である。
【0125】
サーバ制御装置402の具体的な構成を以下に説明する。
【0126】
404は、は接続線401−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段403に送られる。
【0127】
画像処理手段403は、広角カメラ301の撮影した映像の歪みを補正する。
【0128】
405は、ネットワーク回線を介して接続された外部装置(クライアント制御装置407等)と画像情報、カメラ姿勢情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0129】
更に、サーバ制御装置402は、装置内の必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0130】
次に、クライアント装置(クライアント制御装置407及びコマンド入力部410及びディスプレイ装置411及び回転シート414)について、具体的に説明する。
【0131】
407は、サーバ制御装置402からネットワーク回線を介して送信された情報に基づいて回転シートを制御し、ユーザからの操作入力に応じて、適切な画像を生成するクライアント制御装置である。このクライアント制御装置407は、サーバ制御装置402と同様、主にパーソナルコンピュータが用いられる。
【0132】
408は、通信インタフェース405と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0133】
410は、ユーザのビュー制御コマンド情報を入力するコマンド入力部410であり、入力されたコマンド情報をビュー制御情報計測手段409に出力する。
【0134】
413は、サーバ制御装置402からネットワーク回線を介して送信されるカメラ姿勢情報を取得し、後述する回転シート414を制御するシート制御手段413である。
【0135】
回転シート414はシート制御手段413の信号に基づき、回転する。シート414により、ユーザは遠隔のカメラ携帯者と同じ姿勢を体験することができる。
【0136】
409はコマンド入力部410から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態では回転シートに対するユーザの頭の傾き情報をカメラ401へのビュー制御要求と対応付けて解釈している。コマンド入力部410はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段409で計測されたビュー制御情報は後述する画像処理手段412へ送信される。
【0137】
412は画像処理手段である。画像処理手段412は通信インタフェース408より入力された画像情報及び、ビュー制御情報計測手段409から入力されるビュー制御情報からビュー画像を生成する。画像処理手段412で生成されたビュー画像はディスプレイ装置411で表示される。これにより、ユーザは任意の方向を見回すことが可能になる。
【0138】
本実施形態におけるサーバ制御装置の動作を図13(a)に示すフローチャートを用いて説明する。
【0139】
ステップS130aで処理を開始する。
【0140】
ステップS131aでは、広角カメラ401で撮像した映像が映像入力手段404に入力される。
【0141】
ステップS132aでは、カメラ姿勢計測装置406から送信されてくるカメラ姿勢情報を取得する。
【0142】
ステップS133aでは、広角レンズ情報基に、S131aで入力された映像の歪み補正を行う。
【0143】
ステップS134aでは、S133aで生成した画像及びS132aで取得したカメラ姿勢情報を、通信インタフェース405を通してクライアント制御装置207に送信する。
【0144】
本実施形態におけるクライアント制御装置の動作を図13(b)に示すフローチャートを用いて説明する。
【0145】
ステップS130bで接続を開始する。
【0146】
ステップS131bでは、サーバ制御装置402から送信された情報を受け付ける。
【0147】
ステップS132bでは、S131bで取得したカメラ姿勢情報を基に、回転シートを制御する。
【0148】
ステップS133bでは、クライアントユーザからのコマンドを受け付ける。
【0149】
ステップS134bでは、S131bで入力されたコマンドからビュー画像を生成する。
【0150】
ステップS135bでは、S134bで作成したビュー画像を表示する。
【0151】
以上説明したように、上記各実施形態によれば、持ち運び可能なカメラサーバ装置に、カメラを携帯することで生じる撮像画像のブレを補正する機能を持たせたことで、遠隔にある画像クライアント装置側で任意のビュー画像を参照することが可能になる。これを利用すれば、一人が携帯カメラを持ち運んで観光地を訪れることで、遠隔にいる人も、背負われながら共に現地を旅行しているような体験をすることが可能となる。
【0152】
特に実施形態3および4では、カメラサーバ装置側では、本来カメラを携帯することで生じる方向のズレを補正した広角画像を提供し、クライアント装置側で任意の方向の画像を抽出しているため、1つのカメラサーバ装置に対し、複数の画像クライアント装置を割り当てることが可能となる。これを利用すれば、一人が携帯カメラを持ち運んで観光地を訪れることで、複数人で旅行しているような体験をすることが可能となる。また、これを旅行会社などで利用し、各ツアーのツアーコンダクターが携帯カメラを持ち運ぶことにすれば、現在行われている任意のツアーに仮想参加することが可能になる。
【0153】
【発明の効果】
本発明によれば、携帯カメラなどの撮影手段を用いた撮影を遠隔地から簡単に制御でき、所望の方向の映像を安定的に得ることができる。
【0154】
本願請求項1の発明によれば、ネットワーク等に接続された携帯カメラで撮像した画像に対し、携帯カメラの姿勢情報を計測し利用して画像処理することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示することができる。
【0155】
本願請求項5の発明によれば、ネットワーク等に接続された携帯カメラであって、携帯カメラの姿勢変化を和らげる機構を有することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示することができる。
【図面の簡単な説明】
【図1】第1実施形態の概略構成を示すブロック図である。
【図2】第2実施形態の概略構成を示すブロック図である。
【図3】第3実施形態の概略構成を示すブロック図である。
【図4】第1実施形態の処理手順を説明するフローチャートである。
【図5】第2実施形態の処理手順を説明するフローチャートである。
【図6】第3実施形態の処理手順を説明するフローチャートである。
【図7】第1実施形態におけるサーバ装置の概略図である。
【図8】第1実施形態における携帯カメラ姿勢が大きく変化しないような機構の例である。
【図9】第1実施形態における携帯カメラの姿勢が大きく変化しないような携帯方法の例である。
【図10】第2実施形態におけるサーバ装置の概略図である。
【図11】第1実施形態における携帯広角カメラ姿勢が大きく変化しないような機構の例である。
【図12】第4実施形態の概略構成を示すブロック図である。
【図13】第4実施形態の処理手順を説明するフローチャートである。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for controlling shooting conditions of a shooting unit such as a portable camera from a remote place.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, cameras that can be controlled (pan, tilt, zoom, and the like) by connecting to a computer, so-called comb cameras, have appeared. By controlling the operation of the com camera from a client terminal at a remote location of the com camera and receiving a still image or a moving image taken by the com camera via the Internet or the like, a system capable of displaying a monitor on the client terminal side is provided. Is being developed. In addition, there is a known program that arranges such a comb camera on a network and distributes images to users on the network. In such a system, images can be transmitted almost in real time, and it is possible to easily see landscapes and the like in remote places.
[0003]
Further, a system has been developed in which a wide-angle camera is connected to a computer, and a still image and a moving image captured by the camera are received via the Internet or the like, so that a client terminal can monitor and display an arbitrary direction. Further, in a system in which such a camera is arranged on a network and an image is distributed to a user on the network, it is possible to easily view a landscape in a remote place.
[0004]
However, the individual camera positions of these systems are fixed and cannot move freely.
[0005]
Japanese Patent Application Laid-Open No. 2001-189927 proposes a simulated experience system in which a mobile station for acquiring video / audio information is provided, and at a point separated from the information collection point, the user can virtually experience as if they were at the information collection point. I have. However, since the movement of the mobile station is operated remotely, it is difficult to control and the place where the mobile station can be moved is limited.
[0006]
From a portable camera that can be carried to an arbitrary place, it is also possible to allow a client terminal to view a captured image via a network or the like. However, such control of the portable camera is left to only the person carrying the camera, and there is a problem that the client terminal cannot look around in any direction.
[0007]
JP-A-2000-209613 solves the above problem by creating a panoramic image in real time from a captured image of a portable camera and providing the panoramic image to a client. However, a portable camera photographer at the site is forced to take a photograph so that a panoramic image can be created.
[0008]
[Problems to be solved by the invention]
With a portable camera that can freely move around the site and shoot, the person who carries the camera at the site cannot see the image freely on the client terminal side unless the image requested by the client side is properly imaged. In other words, both the remote person and the person at the site could not freely experience the site.
[0009]
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to easily control photographing using photographing means such as a portable camera from a remote place, and to stably obtain an image in a desired direction.
[0010]
In addition, by measuring and using the posture information of the portable camera and performing image processing on the image captured by the portable camera connected to a network or the like, the client terminal is not affected by the change in the posture of the portable camera, and the client terminal can perform the requested processing. It is an object of the present invention to be able to display an arbitrary scene image that can be observed from a position of a portable camera suitable for the camera.
[0011]
In addition, a portable camera connected to a network or the like and having a mechanism for reducing a change in the posture of the portable camera allows the client terminal to receive the position of the portable camera that meets the request without being affected by the change in the posture of the portable camera. It is an object of the present invention to be able to display an arbitrary scene image which can be observed from a user.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0013]
The invention according to claim 1 of the present application is an image communication system having a camera server device and an image client device, wherein the camera server device is transmitted from the image client device with image input means for photographing an image. Video direction control request information input means for receiving video direction control request information, attitude detection means for detecting the attitude of the video input means, and the video direction control request information and the attitude information detected by the attitude detection means. The image client, comprising: a control unit that controls a shooting condition of the video input unit; and a sending unit that transmits image information about a video shot by the video input unit to the image client device according to the shooting condition. The apparatus comprises: a command input unit for inputting a command related to control of the video input unit; and a video direction corresponding to the command. Transmitting means for transmitting a control request information to the camera server, and receiving means for receiving image information transmitted from the camera server apparatus, and having a display means for displaying the image information data.
[0014]
The invention according to claim 5 of the present application is an image communication system including a camera server device and an image client device, wherein the camera server device is instructed by the instruction unit so that the posture is stably supported. Video input means, video direction control request information input means for receiving video direction control request information transmitted from the image client device, and control for controlling shooting conditions of the video input means according to the video direction control request information Means, and transmission means for transmitting image information relating to a video image captured by the video input means to the image client device according to the imaging conditions, wherein the image client device has a command related to control of the video input device. Command input means for inputting a command, and transmitting image direction control request information corresponding to the command to the camera server device. That the transmitting means, receiving means for receiving image information transmitted from the camera server apparatus, and having a display means for displaying the image information data.
[0015]
The invention according to claim 6 of the present application is an information processing method for controlling a photographing unit in accordance with image direction control request information, wherein image direction control request information specified by a user is input, and posture information of the image pickup unit is changed. The photographing condition of the photographing unit is obtained based on the input image direction control request information and the posture information, and the photographing unit is controlled using the photographing condition.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
Hereinafter, an exemplary embodiment of the present invention will be described with reference to FIG.
[0017]
In the present embodiment, in order to obtain an arbitrary image from the camera server device (com camera 101, camera attitude measuring unit 106, and server control device 102), a remote image client device (client control device 107 and command input) An example of remotely controlling the comb camera 101 while referring to the unit 110 and the display device 111) will be described.
[0018]
In particular, in the present embodiment, a person carries the comb camera 101 and photographs a city landscape.
[0019]
Reference numeral 101 denotes a camera (referred to as a comb camera) capable of controlling a camera angle, an imaging condition, and the like based on a control signal from the connection line 101-a. The comb camera 101 can output data of a captured video in real time via the connection line 101-b.
[0020]
Reference numeral 106 denotes a camera posture measuring unit 106 for measuring a camera posture, and here, a gyro sensor is used. The camera attitude refers to the attitude of the camera itself (camera head), and is distinguished from the view direction and camera control parameters (pan angle, tilt angle, etc .: the direction of the camera lens with respect to the camera head). When the user carries the camera, the camera posture changes (FIG. 7), and the operability (particularly, pan and tilt) of the camera remote operation may be deteriorated on the image client device side. It is necessary to improve the operability of remote operation of the camera by measuring and using the camera posture information.
[0021]
On the other hand, by adopting a mechanism that does not significantly change the attitude of the portable camera, the camera attitude measuring unit 106 can be omitted. Since the natural movement of the camera carrier itself (change in posture due to mere walking) does not significantly affect remote operation, FIG. FIG. 9 shows a portable method that does not use such a method. FIG. 8 shows a mechanism in which the posture of the portable camera is always kept parallel, and the head of the camera is kept forward with respect to the portable rod. For example, a mechanism of a delivery machine can be used. Also, in FIG. 9, the camera is held perpendicular to the spine, so that the posture of the camera is kept constant. In the present embodiment, since the camera is configured as shown in FIG. 7, the camera attitude measuring unit 106 is adopted assuming that the camera attitude greatly changes.
[0022]
The camera posture information measured by the portable camera posture measurement unit 106 is sent to a camera control unit 103 described later.
[0023]
Reference numeral 102 denotes a server control device for controlling the comb camera based on a control signal transmitted from a client control device to be described later via a network line and a signal from the comb camera posture measuring unit 106. As the server control device 102, a so-called personal computer or the like is used.
[0024]
The specific configuration of the server control device 102 will be described below.
[0025]
A camera control unit 103 controls the comb camera 101 via a connection line 101-a (such as an RS232C interface). The camera control unit 103 acquires camera control request information transmitted from a client control device 107 described later and input via the network line and the communication interface 105, and converts camera posture information output from the camera posture measurement unit 106. get. Further, the camera 103 generates camera control information from the camera control request information and the camera attitude information, and controls the comb camera 101. Note that the camera control information referred to in the present embodiment generally refers to information that needs to be exchanged between devices in order to control the comb camera 101, and includes, for example, pan, tilt, and zoom of the camera. .
[0026]
Reference numeral 104 denotes a video input unit, such as an image capture device, for inputting video captured by the comb camera 101 via the connection line 101-b.
[0027]
Reference numeral 105 denotes a network adapter capable of communicating image information, audio information, and various types of control information with an external device (such as the client control device 107) connected via a network line, and is referred to as a communication interface.
[0028]
Further, the server control device 102 has a storage device such as a CPU, a ROM, and a RAM for controlling the operation of each unit in the device and performing necessary calculations, and stores programs and various parameters.
[0029]
Next, the image client device (the client control device 107, the command input unit 110, and the display device 111) will be specifically described.
[0030]
Reference numeral 107 denotes a client control device that acquires appropriate information from the server control device 102 in response to an operation input from a user. As the client control device 107, a personal computer is mainly used like the server control device 102.
[0031]
Reference numeral 108 denotes a network adapter having the same function as the communication interface 105, and is called a communication interface.
[0032]
Reference numeral 110 denotes a command input unit 110 for inputting camera control command information of the user, and outputs the input command information to a camera control information measuring unit 109 described later.
[0033]
Reference numeral 109 denotes a camera control information measurement unit that interprets command information input from the command input unit 110 as camera control information. In the present embodiment, the inclination information of the GPS mounted on the user's head is interpreted in association with a view control request to the camera 101. Of course, various input devices can be used as the command input unit 110, such as using a joystick or a mouse as the command input unit 110 and interpreting the input information as view control information in the camera control information measuring unit 109. . The camera control information measured by the camera control information measuring means 109 is transmitted to the communication interface 108.
[0034]
An information display unit 112 displays information input from the communication interface 108. In the present embodiment, image information is displayed on the head mounted display 111 mounted on the client. Thereby, the client user can visually recognize the video shot by the camera 101.
[0035]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0036]
The process starts in step S40a.
[0037]
In step S41a, camera control request information transmitted from the client control device 107 is obtained.
[0038]
In step S42a, the camera posture information transmitted from the camera posture measurement device 106 is obtained.
[0039]
In step S43a, camera control parameters are obtained based on the camera control request information obtained in S41a and the camera attitude information obtained in S42a. As described above, this step is necessary to satisfy the camera control request without being affected by the movement of the camera 101 itself.
[0040]
In the present embodiment, the camera control parameters of the camera control information include pan (θ), tilt (φ), and zoom (z). θ indicates a pan angle, φ indicates a tilt angle, and z indicates a zoom magnification.
Assuming that camera control request parameters are (θc, φc, zc) and camera attitude information is (θi, φi, zi) with respect to camera control parameters (θ, φ, z),
(Θ, φ, z) = (θc, φc, zc) − (θi, φi, 0)
Can be used to determine camera control parameters. However, since the range of the pan angle is -90 degrees to 90 degrees in the present embodiment, if the calculated angle exceeds this range, the upper or lower limit value, that is, the value of 90 degrees or -90 degrees is set. You. With this calculation, the operability of remote operation caused by carrying the camera is improved.
[0041]
In step S44a, the camera is actually operated according to the camera control parameters calculated in S43a.
[0042]
In step S45a, the image captured by the camera 101 is input to the image input unit 104.
[0043]
In step S46a, the video information input in S45a is transmitted to the client control device 107 through the communication interface 105. Audio information and the like may be transmitted together with the video information.
[0044]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0045]
The connection is started in step S40b.
[0046]
In step S41b, a command from the client user is received.
[0047]
In step S42b, the command input in S41b is interpreted as camera control request information.
[0048]
In step S43b, the camera control request information interpreted in S41b is transmitted to the server control device 102 through the communication interface 108.
[0049]
In step S44b, information returned from the server control device 102 based on the camera control request information transmitted in step S43b is received.
[0050]
In step S45b, the information input from the server control device 102 in S44b is displayed to the user.
[0051]
According to the present embodiment, in a portable camera connected to a network or the like, by using a mechanism for reducing the posture change of the portable camera or the posture information of the portable camera, the posture change due to carrying the camera on the client side is reduced. The present invention relates to a device that enables an arbitrary scene image that can be observed from a position of a portable camera that meets an input request that is not affected by the monitor to be displayed on a monitor.
[0052]
(Embodiment 2)
As a second embodiment of the present invention, an embodiment in which a wide-angle camera (fisheye lens) is used instead of the comb camera used in the first embodiment will be described with reference to FIG.
[0053]
In the present embodiment, a wide-angle image captured by a wide-angle camera of a camera server device (the wide-angle camera 101, the camera attitude measuring unit 106, and the server control device 102) is used, and an image client device (client control The image (view) in an arbitrary direction is referred to by the device 207, the command input unit 110, and the display device 111).
[0054]
In particular, in the present embodiment, a person carries the wide-angle camera 201 and photographs a city scenery.
[0055]
Reference numeral 201 denotes a wide-angle camera that can capture almost the entire periphery, such as a fish-eye lens camera. The wide-angle camera 201 can output the data of the captured video in real time via the connection line 201-b.
[0056]
Reference numeral 206 denotes a camera posture measuring unit 206 for measuring the posture of the camera, and here, a gyro sensor is used. In the present embodiment, the posture of the camera is changed by carrying the camera. The camera posture information measured here is used to control the view direction on the camera server device side or the image client device side. In the present embodiment, view control is performed on the camera server device side.
[0057]
The camera posture information measured by the camera posture measurement unit 206 is sent to an image control unit 203 described later.
[0058]
Here, as in the first embodiment, the camera posture measuring device 206 can be omitted by incorporating a mechanism that does not greatly change the posture of the portable camera. FIG. 10 shows a mechanism that does not significantly change the attitude of the portable camera.
[0059]
Reference numeral 202 denotes a server control device for controlling an output image based on a control signal transmitted from a client control device described later via a network line and a signal from the camera posture measuring unit 206. As the server control device 202, a so-called personal computer or the like is used.
[0060]
The specific configuration of the server control device 202 will be described below.
[0061]
Reference numeral 204 denotes an image input unit, such as an image capture device, for inputting an image captured by the wide-angle camera 201 via the connection line 201-b. The image input here is sent to the image processing means 203 described later.
[0062]
The image processing unit 203 is an image processing unit that controls a captured image of the wide-angle camera 201 input from the image input unit 204. The image processing unit 203 acquires view control request information (information such as a view direction requested from a client) transmitted from the client control device 207 in the first embodiment and input via the network line and the communication interface 205. Further, when there is a camera posture measuring unit 206, the camera posture information output from the camera posture measuring unit 206 is obtained. Further, the image processing unit 203 generates an appropriate view image from the image input from the video input unit 204 based on the view control request information and, in some cases, the camera attitude information. At this time, the image distortion caused by imaging with the wide-angle camera is also corrected.
[0063]
Reference numeral 205 denotes a network adapter capable of communicating image information, audio information, and various types of control information with an external device (such as the client control device 207) connected via a network line, and is referred to as a communication interface.
[0064]
Further, the server control device 202 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0065]
Next, the image client device (the client control device 207, the command input unit 210, and the display device 211) will be specifically described.
[0066]
Reference numeral 207 denotes a client control device that acquires appropriate information from the server control device 102 in response to an operation input from a user. As the client control device 207, a personal computer is mainly used like the server control device 202.
[0067]
A network adapter 208 has the same function as the communication interface 205, and is called a communication interface.
[0068]
Reference numeral 210 denotes a command input unit 210 for inputting the user's view control command information, and outputs the input command information to the view control information measuring unit 209.
[0069]
Reference numeral 209 denotes a view control information measuring unit that interprets command information input from the command input unit 210 as view control information. In the present embodiment, the inclination information of the GPS mounted on the user's head is interpreted in association with the view control request to the camera 201. Of course, various input devices can be used as the command input unit 210, such as using a joystick or a mouse as the command input unit 210 and interpreting the input information as view control information in the view control information measuring unit 209. . The view control information measured by the view control information measuring unit 209 is transmitted to the communication interface 208.
[0070]
Reference numeral 212 denotes an information display unit that displays information input from the communication interface 208. In the present embodiment, the video information is displayed on the head mounted display 211 mounted on the client. Thereby, the client user can visually recognize an arbitrary view image captured by the camera 201.
[0071]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0072]
The process starts in step S50a.
[0073]
In step S51a, view control request information transmitted from the client control device 207 is obtained.
[0074]
In step S52a, the camera posture information transmitted from the camera posture measurement device 206 is obtained.
[0075]
In step S53a, the image captured by the wide-angle camera 201 is input to the image input unit 204.
[0076]
In step S54a, a view image is generated from the video input in S53a, based on the view control request information acquired in S51a and the camera attitude information acquired in S52a.
[0077]
In the present embodiment, the parameters of the view control information include pan (θ) and tilt (φ). θ indicates a pan angle and φ indicates a tilt angle.
[0078]
Assuming that the view control request parameter is (θc, φc) and the camera attitude information is (θi, φi) with respect to the view control parameter (θ, φ),
(Θ, φ) = (θc, φc) − (θi, φi)
Can be used to determine the view control parameters. Here, the image input in S53a is an image captured by a wide-angle camera, and has distortion. A view image corresponding to the view control parameters (θ, φ) is generated in consideration of the image distortion.
[0079]
In step S5, the view image generated in S4 is transmitted to the client control device 207 through the image information communication interface 205. Sound information and the like may be transmitted together with the image information.
[0080]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0081]
Connection is started in step S50b.
[0082]
In step S51b, a command from the client user is received.
[0083]
In step S52b, the command input in S51b is interpreted as view control request information.
[0084]
In step S53b, the view control request information interpreted in S51b is transmitted to the server control device 202 through the communication interface 208.
[0085]
In step S54b, information returned from the server control device 202 based on the view control request information transmitted in step S53b is received.
[0086]
In step S55b, the information input from the server control device 202 in S54b is displayed to the user.
[0087]
(Embodiment 3)
A third embodiment will be described with reference to FIG.
[0088]
In the present embodiment, similarly to the second embodiment, a client terminal (client) at a remote location is used by using a wide-angle image from a camera server device (wide-angle camera 301, camera attitude measuring unit 306, and server control device 302). The control device 307, the command input unit 310, and the display device 311) refer to an image (view) in an arbitrary direction.
[0089]
In the second embodiment, the view image requested by the client is generated on the camera server device side. In the present embodiment, only the image correction is performed on the camera server device side, and the generation of the view image is performed on the image client device side.
[0090]
In particular, in the present embodiment, a person carries the wide-angle camera 301 and photographs a city scenery.
[0091]
Reference numeral 301 denotes a wide-angle camera that can capture almost the entire periphery. The wide-angle camera 301 can output the data of the captured video in real time via the connection line 301-b.
[0092]
Reference numeral 306 denotes a camera posture measuring device 306 for measuring the posture of the camera, which uses a gyro sensor here. The camera posture information measured by the camera posture measurement device 306 is sent to an image processing unit 304 described later.
[0093]
Reference numeral 302 denotes a server control device for controlling an image output based on a signal from the wide-angle camera posture measurement unit 306. As the server control device 302, a so-called personal computer or the like is used. Further, the server control device 302 can transmit image information, camera posture information, and the like generated by the image processing unit 303 to a plurality of client control devices via a wireless network line.
[0094]
The specific configuration of the server control device 302 will be described below.
[0095]
Reference numeral 304 denotes a video input unit such as an image capture device for inputting via the connection line 301-b. The image input here is sent to the image processing means 303 described later.
[0096]
The image processing unit 303 corrects the distortion of the image captured by the wide-angle camera 301, and further converts the image into a fixed camera posture image using the camera posture information output from the camera posture measurement unit 306.
[0097]
Reference numeral 305 denotes a network adapter capable of communicating image information, audio information, and various types of control information with an external device (such as the client control device 307) connected via a network line, and is referred to as a communication interface.
[0098]
Further, the server control device 302 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0099]
Next, the image client device (the client control device 307, the command input unit 310, and the display device 311) will be specifically described.
[0100]
Reference numeral 307 denotes a client control device that acquires image information from the server control device 302 and generates appropriate information according to an operation input from a user. As the client control device 307, a personal computer is mainly used like the server control device 302.
[0101]
A network adapter 308 has the same function as the communication interface 305, and is called a communication interface.
[0102]
Reference numeral 310 denotes a command input unit 310 for inputting user's view control command information, and outputs the input command information to the view control information measuring unit 309.
[0103]
Reference numeral 309 denotes a view control information measuring unit that interprets command information input from the command input unit 310 as view control information. In the present embodiment, the inclination information of the GPS mounted on the user's head is interpreted in association with the view control request to the camera 301. Of course, the command input unit 310 can be substituted with various input devices, such as using a joystick or a mouse as the command input unit 310 and interpreting the input information as view control information in the view control information measuring unit 309. . The view control information measured by the view control information measuring unit 309 is transmitted to an image processing unit 312 described later.
[0104]
Reference numeral 312 denotes an image processing unit. The image processing unit 312 generates a view image from the image information input from the communication interface 308 and the view control information input from the view control information measurement unit 309. The view image generated by the image processing unit 312 is displayed on the display device 311.
[0105]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0106]
The process starts in step S60a.
[0107]
In step S61a, the image captured by the wide-angle camera 301 is input to the image input unit 304.
[0108]
In step S62a, the camera posture information transmitted from the camera posture measurement device 306 is obtained.
[0109]
In step S63a, the image input in S61a is corrected based on the wide-angle lens information and the camera posture information acquired in S62a. At this time, the distortion of the captured image itself is also corrected.
[0110]
In step S64a, the image generated in S63a is transmitted to the client control device 207 via the communication interface 305.
[0111]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0112]
The connection is started in step S60b.
[0113]
In step S61b, a command from the client user is received.
[0114]
In step S62b, the command input in S61b is interpreted as view control request information.
[0115]
In step S63b, information transmitted from server control device 302 is accepted.
[0116]
In step S64b, view information is generated from the image information input in S63b based on the view control request information interpreted in S61b.
[0117]
In step S65b, the view image created in S64b is displayed.
[0118]
In the present embodiment, the server performs “lens distortion correction” and “correction to unify the direction of the captured image based on the camera posture information”. From the client server to the client server.
[0119]
(Embodiment 4)
A fourth embodiment will be described with reference to FIG.
[0120]
In the present embodiment, similarly to the third embodiment, a client device (client) located at a remote place is used by using a wide-angle image from a camera server device (wide-angle camera 401, camera attitude measuring unit 406, and server control device 402). The control device 407, the command input unit 410, and the display device 411) refer to an image (view) in an arbitrary direction. The user on the client device side wears the HMD while sitting on a rotating chair that rotates in synchronization with the camera posture (FIG. 12).
[0121]
In the present embodiment, a person carries the wide-angle camera 401 and takes a picture of a city.
[0122]
Reference numeral 401 denotes a wide-angle camera that can capture almost the entire periphery. The wide-angle camera 401 can output the data of the captured video in real time via the connection line 401-b.
[0123]
Reference numeral 406 denotes a camera posture measuring device 406 for measuring the posture of the camera, and here a gyro sensor is used. The camera posture information measured by the camera posture measurement device 406 is sent to an image processing unit 404 described later, and further sent to an image client device via a network line.
[0124]
A control unit 402 controls information to be sent to the image client device based on a captured image of the wide-angle camera 401 and a signal from the attitude measurement unit 406, and can transmit the information to a plurality of image client control devices via a wireless network line. It is.
[0125]
The specific configuration of the server control device 402 will be described below.
[0126]
Reference numeral 404 denotes a video input unit such as an image capture device for inputting via the connection line 401-b. The image input here is sent to the image processing means 403 described later.
[0127]
The image processing unit 403 corrects a distortion of an image captured by the wide-angle camera 301.
[0128]
A network adapter 405 enables communication of image information, camera attitude information, audio information, and various types of control information with an external device (such as a client control device 407) connected via a network line. Call.
[0129]
Further, the server control device 402 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0130]
Next, the client device (the client control device 407, the command input unit 410, the display device 411, and the rotating sheet 414) will be specifically described.
[0131]
Reference numeral 407 denotes a client control device that controls the rotating sheet based on information transmitted from the server control device 402 via a network line, and generates an appropriate image according to an operation input from a user. As the client control device 407, a personal computer is mainly used like the server control device 402.
[0132]
Reference numeral 408 denotes a network adapter having the same function as the communication interface 405, and is called a communication interface.
[0133]
Reference numeral 410 denotes a command input unit 410 for inputting the user's view control command information, and outputs the input command information to the view control information measuring unit 409.
[0134]
Reference numeral 413 denotes a sheet control unit 413 that acquires camera posture information transmitted from the server control device 402 via a network line and controls a rotating sheet 414 described below.
[0135]
The rotating sheet 414 rotates based on a signal from the sheet control unit 413. Seat 414 allows the user to experience the same posture as a remote camera carrier.
[0136]
Reference numeral 409 denotes a view control information measuring unit that interprets command information input from the command input unit 410 as view control information. In the present embodiment, the tilt information of the user's head with respect to the rotating sheet is interpreted in association with a view control request to the camera 401. The command input unit 410 can be replaced with various input devices. The view control information measured by the view control information measuring unit 409 is transmitted to an image processing unit 412 described later.
[0137]
412 is an image processing unit. The image processing unit 412 generates a view image from the image information input from the communication interface 408 and the view control information input from the view control information measurement unit 409. The view image generated by the image processing unit 412 is displayed on the display device 411. This allows the user to look around in any direction.
[0138]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0139]
The process starts in step S130a.
[0140]
In step S131a, the image captured by the wide-angle camera 401 is input to the image input unit 404.
[0141]
In step S132a, the camera posture information transmitted from the camera posture measurement device 406 is obtained.
[0142]
In step S133a, distortion correction of the image input in S131a is performed based on the wide-angle lens information.
[0143]
In step S134a, the image generated in S133a and the camera posture information acquired in S132a are transmitted to the client control device 207 via the communication interface 405.
[0144]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0145]
The connection is started in step S130b.
[0146]
In step S131b, information transmitted from server control device 402 is received.
[0147]
In step S132b, the rotating sheet is controlled based on the camera posture information acquired in S131b.
[0148]
In step S133b, a command from the client user is received.
[0149]
In step S134b, a view image is generated from the command input in S131b.
[0150]
In step S135b, the view image created in S134b is displayed.
[0151]
As described above, according to the above embodiments, a portable camera server device is provided with a function of correcting blurring of a captured image caused by carrying a camera, so that a remote image client device is provided. Side can refer to any view image. If this is used, one person can carry a portable camera and visit a sightseeing spot, so that even a remote person can experience the experience of traveling together while carrying his / her back.
[0152]
In particular, in the third and fourth embodiments, the camera server device side provides a wide-angle image in which the deviation in the direction originally caused by carrying the camera is provided, and the client device side extracts an image in an arbitrary direction. A plurality of image client devices can be assigned to one camera server device. If this is used, it becomes possible for one person to carry a portable camera and visit a sightseeing spot, so that the experience of traveling by a plurality of people becomes possible. In addition, if this is used by a travel agency and the tour conductor of each tour carries a portable camera, it is possible to virtually participate in any tour currently being performed.
[0153]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, imaging | photography using imaging | photography means, such as a portable camera, can be easily controlled from a remote place, and the image of a desired direction can be obtained stably.
[0154]
According to the invention of claim 1 of the present application, an image captured by a mobile camera connected to a network or the like is processed by measuring and using the attitude information of the mobile camera. It is possible to display an arbitrary scene image that can be observed from the position of the portable camera that meets the request without being affected by the change.
[0155]
According to the invention of claim 5 of the present application, a portable camera connected to a network or the like and having a mechanism for reducing a change in posture of the portable camera, the client terminal is not affected by the change in posture of the portable camera. An arbitrary scene image that can be observed from the position of the portable camera that meets the request can be displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a first embodiment.
FIG. 2 is a block diagram illustrating a schematic configuration of a second embodiment.
FIG. 3 is a block diagram illustrating a schematic configuration of a third embodiment.
FIG. 4 is a flowchart illustrating a processing procedure according to the first embodiment.
FIG. 5 is a flowchart illustrating a processing procedure according to a second embodiment.
FIG. 6 is a flowchart illustrating a processing procedure according to a third embodiment.
FIG. 7 is a schematic diagram of a server device according to the first embodiment.
FIG. 8 is an example of a mechanism in the first embodiment in which the attitude of the portable camera does not change significantly.
FIG. 9 is an example of a portable method according to the first embodiment in which the posture of the portable camera does not significantly change.
FIG. 10 is a schematic diagram of a server device according to the second embodiment.
FIG. 11 is an example of a mechanism in the first embodiment in which the attitude of the portable wide-angle camera does not change significantly.
FIG. 12 is a block diagram showing a schematic configuration of a fourth embodiment.
FIG. 13 is a flowchart illustrating a processing procedure according to a fourth embodiment.

Claims (8)

カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、
前記カメラサーバ装置は、
映像を撮影する映像入力手段と、
前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、
前記映像入力手段の姿勢を検出する姿勢検出手段と、
前記映像方向制御要求情報と前記姿勢検出手段で検出された姿勢情報とから前記映像入力手段の撮影条件を制御する制御手段と、
前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、
前記画像クライアント装置は、
前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、
前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、
前記カメラサーバ装置から送信された画像情報を受信する受信手段と、
前記画像情報情報を表示する表示手段とを有することを特徴とする画像通信システム。
An image communication system having a camera server device and an image client device,
The camera server device,
Video input means for capturing video,
Image direction control request information input means for receiving image direction control request information transmitted from the image client device,
Attitude detection means for detecting the attitude of the video input means,
A control unit that controls a shooting condition of the video input unit from the video direction control request information and the posture information detected by the posture detection unit,
Transmitting means for transmitting to the image client device image information about the video taken by the video input means according to the shooting conditions,
The image client device includes:
Command input means for inputting a command related to control of the video input means,
Transmission means for transmitting video direction control request information according to the command to the camera server device,
Receiving means for receiving image information transmitted from the camera server device;
Display means for displaying the image information information.
前記映像入力手段の姿勢を安定的に支持する指示手段を有することを特徴とする請求項1記載の画像通信システム。2. The image communication system according to claim 1, further comprising an instruction unit for stably supporting the attitude of the video input unit. 前記映像方向制御要求情報は、前記映像入力手段を操作するための情報であることを特徴とする請求項1記載の画像通信システム。The image communication system according to claim 1, wherein the image direction control request information is information for operating the image input unit. 前記映像入力手段は広角な映像を入力し、
前記映像方向制御要求情報は前記クライアント装置へ送信する画像情報で示される映像のビュー方向を示す情報であることを特徴とする請求項1記載の画像通信システム。
The image input means inputs a wide-angle image,
2. The image communication system according to claim 1, wherein the image direction control request information is information indicating a view direction of a video indicated by image information transmitted to the client device.
カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、
前記カメラサーバ装置は、
姿勢が安定的に支持されるように指示部によって指示されている映像入力手段と、
前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、
前記映像方向制御要求情報に応じて前記映像入力手段の撮影条件を制御する制御手段と、
前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、
前記画像クライアント装置は、
前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、
前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、
前記カメラサーバ装置から送信された画像情報を受信する受信手段と、
前記画像情報情報を表示する表示手段とを有することを特徴とする画像通信システム。
An image communication system having a camera server device and an image client device,
The camera server device,
A video input unit instructed by the instruction unit so that the posture is stably supported,
Image direction control request information input means for receiving image direction control request information transmitted from the image client device,
Control means for controlling shooting conditions of the video input means according to the video direction control request information,
Transmitting means for transmitting to the image client device image information about the video taken by the video input means according to the shooting conditions,
The image client device includes:
Command input means for inputting a command related to control of the video input means,
Transmission means for transmitting video direction control request information according to the command to the camera server device,
Receiving means for receiving image information transmitted from the camera server device;
Display means for displaying the image information information.
映像方向制御要求情報に応じて撮影部を制御する情報処理方法であって、
ユーザによって指示された映像方向制御要求情報を入力し、
前記撮影部の姿勢情報を入力し、
前記映像方向制御要求情報と前記姿勢情報とに基づき、前記撮影部の撮影条件を求め、
前記撮影条件を用いて前記撮影部を制御することを特徴とする情報処理方法。
An information processing method for controlling a photographing unit according to video direction control request information,
Input the video direction control request information specified by the user,
Input the posture information of the imaging unit,
Based on the image direction control request information and the attitude information, determine the imaging conditions of the imaging unit,
An information processing method comprising controlling the photographing unit using the photographing conditions.
前記撮影部は撮影者によって保持され、前記撮影者の動作による影響が少なくなるように指示される指示部によって指示されていることを特徴とする請求項6記載の情報処理方法。7. The information processing method according to claim 6, wherein the photographing unit is held by a photographer, and is instructed by an instruction unit that is instructed to reduce the influence of the operation of the photographer. 請求項6記載の情報処理方法を実現するためのプログラム。A program for realizing the information processing method according to claim 6.
JP2002223280A 2002-07-31 2002-07-31 Picture communication system and information processing method Withdrawn JP2004064639A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002223280A JP2004064639A (en) 2002-07-31 2002-07-31 Picture communication system and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002223280A JP2004064639A (en) 2002-07-31 2002-07-31 Picture communication system and information processing method

Publications (1)

Publication Number Publication Date
JP2004064639A true JP2004064639A (en) 2004-02-26

Family

ID=31943076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002223280A Withdrawn JP2004064639A (en) 2002-07-31 2002-07-31 Picture communication system and information processing method

Country Status (1)

Country Link
JP (1) JP2004064639A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521844A (en) * 2007-03-15 2010-06-24 モボティックス アクチエンゲゼルシャフト Monitoring system
WO2016017245A1 (en) * 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system
WO2017168998A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
JP2021168461A (en) * 2020-04-13 2021-10-21 ミナミホールディングス株式会社 Photographer terminal, information processing unit, information processing method, and computer program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010521844A (en) * 2007-03-15 2010-06-24 モボティックス アクチエンゲゼルシャフト Monitoring system
WO2016017245A1 (en) * 2014-07-31 2016-02-04 ソニー株式会社 Information processing device, information processing method, and image display system
JPWO2016017245A1 (en) * 2014-07-31 2017-04-27 ソニー株式会社 Information processing apparatus, information processing method, and image display system
US20170278262A1 (en) 2014-07-31 2017-09-28 Sony Corporation Information processing device, method of information processing, and image display system
US10269132B2 (en) 2014-07-31 2019-04-23 Sony Corporation Displaying images according to head posture and camera posture
WO2017168998A1 (en) * 2016-03-28 2017-10-05 ソニー株式会社 Information processing device, information processing method, and program
US11360545B2 (en) 2016-03-28 2022-06-14 Sony Corporation Information processing device, information processing method, and program
JP2021168461A (en) * 2020-04-13 2021-10-21 ミナミホールディングス株式会社 Photographer terminal, information processing unit, information processing method, and computer program

Similar Documents

Publication Publication Date Title
JP5005080B2 (en) Panorama image generation method
TWI663876B (en) Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment for image processing device
JP4098808B2 (en) Remote video display method, video acquisition device, method thereof, and program thereof
JP6510652B2 (en) Imaging system and imaging control method
JP5865388B2 (en) Image generating apparatus and image generating method
WO2013069050A1 (en) Image generation device and image generation method
WO2013069047A1 (en) Image generation device, and image generation method
WO2013069049A1 (en) Image generation device, and image generation method
JP6732617B2 (en) Information processing apparatus and image generation method
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
JP7372061B2 (en) Remote work support system
JP2020005146A (en) Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device
KR101703924B1 (en) 3d virtual reality system using 3d-spectacles for virtual image display
JP2021047062A (en) Surveying system and surveying method using eyewear device
KR101814714B1 (en) Method and system for remote control of camera in smart phone
WO2015056466A1 (en) Display device, image generation device, display method and program
JPH118845A (en) Panoramic image generation device and its method
JP6649010B2 (en) Information processing device
JP5847591B2 (en) Information processing apparatus, information processing method and program for information processing apparatus
JP2004064639A (en) Picture communication system and information processing method
JP6924630B2 (en) Image shooting device, image shooting program, image shooting method
JP4946914B2 (en) Camera system
JP2004363987A (en) Image presentation system
JP2001136431A (en) Camera controller and camera control method and storage medium
JP7341674B2 (en) Information processing device, information processing method and program

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20051004