JP2004064639A - Picture communication system and information processing method - Google Patents
Picture communication system and information processing method Download PDFInfo
- Publication number
- JP2004064639A JP2004064639A JP2002223280A JP2002223280A JP2004064639A JP 2004064639 A JP2004064639 A JP 2004064639A JP 2002223280 A JP2002223280 A JP 2002223280A JP 2002223280 A JP2002223280 A JP 2002223280A JP 2004064639 A JP2004064639 A JP 2004064639A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- camera
- video
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Studio Devices (AREA)
- Selective Calling Equipment (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、携帯カメラなどの撮影部の撮影条件を遠隔地から制御するものに関する。
【0002】
【従来の技術】
従来、コンピュータに接続して(パン・チルト・ズームなどが)制御可能なカメラ、いわゆるコムカメラが登場している。このコムカメラの遠隔地にあるクライアント端末からコムカメラの動作を制御し、コムカメラで撮影された静止画像、動画像をインターネット等を介して受信することにより、クライアント端末側でモニタ表示できるシステムが開発されている。また、このようなコムカメラをネットワーク上に配置して、ネットワーク上のユーザーに画像を配信するプログラムが知られている。このようなシステムでは、画像をほぼリアルタイムに送信することができ、遠隔地の風景等を容易に見ることが可能となっている。
【0003】
また、広角なカメラをコンピュータに接続し、カメラで撮影された静止画像、動画像をインターネット等を介して受信することにより、クライアント端末側で任意の方向をモニタ表示できるシステムが開発されている。さらに、このようなカメラをネットワーク上に配置して、ネットワーク上のユーザーに画像を配信するシステムでは、遠隔地の風景等を容易に見ることが可能となっている。
【0004】
しかし、これらシステムの個々のカメラ位置は固定されており、自由に移動することができない。
【0005】
特開2001−189927では、映像・音声情報を取得する移動ステーションを設け、情報収集地点から離間した地点において、あたかも情報収集地点にいるような体験を仮想的に行わせる疑似体験システムを提案している。しかし、移動ステーションの移動も遠隔から操作するため、制御が難しく、移動できる場所が限定されてしまう。
【0006】
任意の場所に持ち運び可能な携帯カメラからにおいては、ネットワーク等を通じて、クライアント端末側から撮像画像を視察可能とすることも可能である。しかし、このような携帯カメラの制御はカメラを携帯している人のみにゆだねられており、クライアント端末側では、任意の方向の見回しができないという問題がある。
【0007】
特開2000−209613では、携帯カメラの撮像画像から、リアルタイムにパノラマ画像を作成し、クライアント側に提供することで上記の問題を解決している。しかし、現場の携帯カメラ撮影者は、パノラマ画像が作成できるような撮影を強いられる。
【0008】
【発明が解決しようとする課題】
自由に現場を動き回って撮影できる携帯カメラでは,現場でカメラを携帯する人が、クライアント側の要求する映像をうまく撮像しない限り、クライアント端末側では自由に見まわすことができなかった。つまり、遠隔にいる人と現場にいる人とが共に、現場をそれぞれ自由に体験することができなかった。
【0009】
本発明は、携帯カメラなどの撮影手段を用いた撮影を遠隔地から簡単に制御でき、所望の方向の映像を安定的に得られるようにすることを目的とする。
【0010】
また、ネットワーク等に接続された携帯カメラで撮像した画像に対し、携帯カメラの姿勢情報を計測し利用して画像処理することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示可能とすることを目的とする。
【0011】
また、ネットワーク等に接続された携帯カメラであって、携帯カメラの姿勢変化を和らげる機構を有することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示可能とすることを目的とする。
【0012】
【課題を解決するための手段】
上記目的を達成するために本発明は以下の構成を有する。
【0013】
本願請求項1記載の発明は、カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、前記カメラサーバ装置は、映像を撮影する映像入力手段と、前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、前記映像入力手段の姿勢を検出する姿勢検出手段と、前記映像方向制御要求情報と前記姿勢検出手段で検出された姿勢情報とから前記映像入力手段の撮影条件を制御する制御手段と、前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、前記画像クライアント装置は、前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、前記カメラサーバ装置から送信された画像情報を受信する受信手段と、前記画像情報情報を表示する表示手段とを有することを特徴とする。
【0014】
本願請求項5記載の発明は、カメラサーバ装置と、画像クライアント装置とを有する画像通信システムであって、前記カメラサーバ装置は、姿勢が安定的に支持されるように指示部によって指示されている映像入力手段と、前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、前記映像方向制御要求情報に応じて前記映像入力手段の撮影条件を制御する制御手段と、前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、前記画像クライアント装置は、前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、前記カメラサーバ装置から送信された画像情報を受信する受信手段と、前記画像情報情報を表示する表示手段とを有することを特徴とする。
【0015】
本願請求項6記載の発明は、映像方向制御要求情報に応じて撮影部を制御する情報処理方法であって、ユーザによって指示された映像方向制御要求情報を入力し、前記撮影部の姿勢情報を入力し、前記映像方向制御要求情報と前記姿勢情報とに基づき、前記撮影部の撮影条件を求め、前記撮影条件を用いて前記撮影部を制御することを特徴とする。
【0016】
【発明の実施の形態】
(実施形態1)
以下、本発明の一例となる実施の形態を図1に基づいて説明する。
【0017】
本実施の形態では、カメラサーバ装置(コムカメラ101及びカメラ姿勢計測部106及びサーバ制御装置102)から任意の映像を取得するために、遠隔地にある画像クライアント装置(クライアント制御装置107及びコマンド入力部110及びディスプレイ装置111)で参照しながらコムカメラ101を遠隔操作する例について説明する。
【0018】
特に、本実施の形態では、人がコムカメラ101を携帯し、街の風景を撮影している。
【0019】
101は、カメラアングルや撮像条件などを接続線101−aからの制御信号に基づいて制御されることが可能なカメラ(コムカメラとする)である。このコムカメラ101は、撮影した映像のデータを接続線101−bを介してリアルタイムに出力することが可能である。
【0020】
106は、カメラ姿勢を計測するためのカメラ姿勢計測部106であり、ここではジャイロセンサを用いている。カメラ姿勢とは、カメラ自体(カメラの雲台)の姿勢のことをいい、ビュー方向や、カメラ制御パラメータ(パン角、チルト角など:カメラの雲台に対するカメラレンズの方向)と区別する。カメラを携帯することでカメラ姿勢が変化し(図7)、画像クライアント装置側では、カメラ遠隔操作の操作性(特にパン、チルト)が悪化することがある。カメラ姿勢情報を計測して利用することで、カメラの遠隔操作の操作性を向上させることが必要である。
【0021】
一方、携帯カメラの姿勢が大きく変化しないような機構を取り入れることにより、カメラ姿勢計測部106は省略することができる。カメラ携帯者自体の自然な動き(単なる歩行による姿勢変化)は遠隔操作にはさほど影響を与えないことから、携帯カメラの姿勢が大きく変化しないような機構として図8、携帯カメラの姿勢が大きく変化しないような携帯方法として図9を示す。図8では、携帯カメラ姿勢が常に平行に保たれ、かつ携帯棒に対しカメラの雲台が前方を向くように保たれる機構であり、例えば出前機の機構が利用できる。また、図9では、カメラを背骨と垂直になるよう携帯することで、カメラの姿勢が一定に保たれる。本実施形態では、図7のような形態をしていることから、カメラ姿勢が大きく変化するものとして、カメラ姿勢計測部106を取り入れる。
【0022】
携帯のカメラ姿勢計測部106で計測されたカメラ姿勢情報は後述するカメラ制御手段103に送られる。
【0023】
102は、後述するクライアント制御装置からネットワーク回線を介して送信された制御信号および前記コムカメラ姿勢計測部106からの信号に基づいてコムカメラを制御する為のサーバ制御装置である。このサーバ制御装置102はいわゆるパーソナルコンピュータ等が用いられる。
【0024】
サーバ制御装置102の具体的な構成を以下に説明する。
【0025】
103は、コムカメラ101を接続線101−a(RS232Cインタフェース等)を介して制御するカメラ制御手段である。カメラ制御手段103は、後述するクライアント制御装置107から送信され、ネットワーク回線及び通信インタフェース105を介して入力されたカメラ制御要求情報を取得し、カメラ姿勢計測装部106から出力されるカメラ姿勢情報を取得する。さらに103は、これらカメラ制御要求情報および、カメラ姿勢情報からカメラ制御情報を生成し、コムカメラ101を制御する。なお、本実施の形態でいうカメラ制御情報とは、コムカメラ101を制御するために各装置間でやり取りする必要のある情報を総称していい、例えば、カメラのパン、チルト、ズームなどである。
【0026】
104は、コムカメラ101の撮影した映像を接続線101−bを介して入力する、画像キャプチャ装置等の映像入力手段である。
【0027】
105は、ネットワーク回線を介して接続された外部装置(クライアント制御装置107等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0028】
更に、サーバ制御装置102は、装置内の各部の動作制御及び必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0029】
次に、画像クライアント装置(クライアント制御装置107及びコマンド入力部110及びディスプレイ装置111)について、具体的に説明する。
【0030】
107は、ユーザからの操作入力に応じて、サーバ制御装置102から適切な情報を取得するクライアント制御装置である。このクライアント制御装置107は、サーバ制御装置102と同様、主にパーソナルコンピュータが用いられる。
【0031】
108は、通信インタフェース105と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0032】
110は、ユーザのカメラ制御コマンド情報を入力するコマンド入力部110であり、入力されたコマンド情報を後述するカメラ制御情報計測手段109に出力する。
【0033】
109はコマンド入力部110から入力されたコマンド情報をカメラ制御情報として解釈するカメラ制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ101へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部110としてジョイスティックやマウスなどを用い、カメラ制御情報計測手段109ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部110はさまざまな入力デバイスで代用することが可能である。カメラ制御情報計測手段109で計測されたカメラ制御情報は通信インタフェース108へ送信される。
【0034】
112は通信インタフェース108より入力された情報を表示する情報表示手段である。本実施形態では、画像情報をクライアントが装着しているヘッドマウントディスプレイ111に表示している。これにより、クライアントユーザはカメラ101で撮影された映像を視認することができる。
【0035】
本実施形態におけるサーバ制御装置の動作を図4(a)に示すフローチャートを用いて説明する。
【0036】
ステップS40aで処理を開始する。
【0037】
ステップS41aでは、クライアント制御装置107から送信されてくるカメラ制御要求情報を取得する。
【0038】
ステップS42aでは、カメラ姿勢計測装置106から送信されてくるカメラ姿勢情報を取得する。
【0039】
ステップS43aでは、S41aで取得したカメラ制御要求情報、およびS42aで取得したカメラ姿勢情報を基に、カメラ制御パラメータを求める。上述したように、このステップは、カメラ101自体の動きに影響されずに、カメラ制御要求が満たされるために必要なステップである。
【0040】
本実施形態では、カメラ制御情報のカメラ制御パラメータとしてパン(θ)、チルト(φ)、ズーム(z)がある。θはパン角、φはチルト角、zはズーム倍率をそれぞれ示す。
カメラ制御パラメータ(θ、φ、z)に対し、カメラ制御要求パラメータを(θc、φc、zc)、カメラ姿勢情報を(θi、φi、zi)とすると、
(θ、φ、z)=(θc、φc、zc)−(θi、φi、0)
でカメラ制御パラメータを求めることができる。ただし、パン角度の範囲は、本実施形態では−90度〜90度であるので、この範囲を計算角度が超える場合には上限または下限の値、すなわち90度または−90度の値が設定される。この演算により、カメラを携帯することによる遠隔操作の操作性の悪さが改善される。
【0041】
ステップS44aでは、S43aで計算されたカメラ制御パラメータに従って、実際にカメラを操作する。
【0042】
ステップS45aでは、カメラ101で撮像した映像を映像入力手段104に入力する。
【0043】
ステップS46aでは、S45aで入力された映像情報を通信インタフェース105を通してクライアント制御装置107に送信する。映像情報と共に音声情報なども送信してもよい。
【0044】
本実施形態におけるクライアント制御装置の動作を図4(b)に示すフローチャートを用いて説明する。
【0045】
ステップS40bで接続を開始する。
【0046】
ステップS41bでは、クライアントユーザからのコマンドを受け付ける。
【0047】
ステップS42bでは、S41bで入力されたコマンドをカメラ制御要求情報として解釈する。
【0048】
ステップS43bでは、S41bで解釈されたカメラ制御要求情報を、通信インタフェース108を通してサーバ制御装置102に送信する。
【0049】
ステップS44bでは、ステップS43bで送信したカメラ制御要求情報によってサーバ制御装置102から返送された情報を受け付ける。
【0050】
ステップS45bでは、S44bでサーバ制御装置102から入力された情報をユーザに表示する。
【0051】
本実施形態によれば、ネットワーク等に接続された携帯カメラにおいて、携帯カメラの姿勢変化を和らげる機構または、携帯カメラの姿勢情報を利用することで、クライアント側ではカメラを携帯することによる姿勢変化の影響を受けない入力する要求に合った携帯カメラの位置から視察可能な任意のシーン画像をモニタ表示可能にする装置に関する。
【0052】
(実施形態2)
本発明の第2の実施形態として、第1の実施形態で用いたコムカメラの代わりに、広角カメラ(魚眼レンズ)を用いた場合の実施の形態を図2に基づいて説明する。
【0053】
本実施の形態では、カメラサーバ装置(広角カメラ101及びカメラ姿勢計測部106及びサーバ制御装置102)の広角カメラで撮影される広角な映像を利用して、遠隔地にある画像クライアント装置(クライアント制御装置207及びコマンド入力部110及びディスプレイ装置111)で任意の方向の画像(ビュー)を参照する。
【0054】
特に、本実施の形態では、人が広角カメラ201を携帯し、街の風景を撮影している。
【0055】
201は、ほぼ全周囲が撮影できる広角カメラであり、例えば魚眼レンズカメラなどである。この広角カメラ201は、撮影した映像のデータは接続線201−bを介してリアルタイムに出力することが可能である。
【0056】
206は、カメラの姿勢を計測するためのカメラ姿勢計測部206であり、ここではジャイロセンサを用いている。本実施形態ではカメラを携帯することでカメラの姿勢が変化してしまう。ここで計測されるカメラ姿勢情報を、カメラサーバ装置側もしくは画像クライアント装置側でビュー方向を制御するのに利用する。本実施形態ではカメラサーバ装置側でビュー制御する。
【0057】
カメラ姿勢計測部206で計測されたカメラ姿勢情報は後述する画像制御手段203に送られる。
【0058】
ここでも実施形態1と同様に、携帯カメラの姿勢が大きく変化しないような機構を取り入れることにより、カメラ姿勢計測装置206は省略することができる。携帯カメラの姿勢が大きく変化しないような機構として図10を示す。
【0059】
202は、後述するクライアント制御装置からネットワーク回線を介して送信された制御信号および前記カメラ姿勢計測部206からの信号に基づいて出力画像を制御する為のサーバ制御装置である。このサーバ制御装置202はいわゆるパーソナルコンピュータ等が用いられる。
【0060】
サーバ制御装置202の具体的な構成を以下に説明する。
【0061】
204は、広角カメラ201の撮影した映像を接続線201−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段203に送られる。
【0062】
画像処理手段203は、映像入力手段204から入力される広角カメラ201の撮像映像を制御する画像処理手段である。画像処理手段203は、実施形態1におけるクライアント制御装置207から送信され、ネットワーク回線及び通信インタフェース205を介して入力されたビュー制御要求情報(クライアントから要求されるビュー方向などの情報)を取得し、さらに、カメラ姿勢計測部206がある場合はカメラ姿勢計測装部206から出力されるカメラ姿勢情報を取得する。さらに画像処理手段203は、映像入力手段204から入力された画像から、ビュー制御要求情報および、ある場合にはカメラ姿勢情報をもとに適切なビュー画像を生成する。この際、広角カメラで撮像することから生じる画像歪みも補正する。
【0063】
205は、ネットワーク回線を介して接続された外部装置(クライアント制御装置207等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0064】
更に、サーバ制御装置202は、装置内必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0065】
次に、画像クライアント装置(クライアント制御装置207及びコマンド入力部210及びディスプレイ装置211)について、具体的に説明する。
【0066】
207は、ユーザからの操作入力に応じて、サーバ制御装置102から適切な情報を取得するクライアント制御装置である。このクライアント制御装置207は、サーバ制御装置202と同様、主にパーソナルコンピュータが用いられる。
【0067】
208は、通信インタフェース205と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0068】
210は、ユーザのビュー制御コマンド情報を入力するコマンド入力部210であり、入力されたコマンド情報をビュー制御情報計測手段209に出力する。
【0069】
209はコマンド入力部210から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ201へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部210としてジョイスティックやマウスなどを用い、ビュー制御情報計測手段209ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部210はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段209で計測されたビュー制御情報は通信インタフェース208へ送信される。
【0070】
212は通信インタフェース208より入力された情報を表示する情報表示手段である。本実施形態では、映像情報をクライアントが装着しているヘッドマウントディスプレイ211に表示している。これにより、クライアントユーザはカメラ201で撮影された任意のビュー映像を視認することができる。
【0071】
本実施形態におけるサーバ制御装置の動作を図5(a)に示すフローチャートを用いて説明する。
【0072】
ステップS50aで処理を開始する。
【0073】
ステップS51aでは、クライアント制御装置207から送信されてくるビュー制御要求情報を取得する。
【0074】
ステップS52aでは、カメラ姿勢計測装置206から送信されてくるカメラ姿勢情報を取得する。
【0075】
ステップS53aでは、広角カメラ201で撮像した映像を映像入力手段204に入力する。
【0076】
ステップS54aでは、S51aで取得したビュー制御要求情報、およびS52aで取得したカメラ姿勢情報を基に、S53aで入力された映像からビュー画像の生成を行う。
【0077】
本実施形態では、ビュー制御情報のパラメータとしてパン(θ)、チルト(φ)がある。θはパン角、φはチルト角をそれぞれ示す。
【0078】
ビュー制御パラメータ(θ、φ)に対し、ビュー制御要求パラメータを(θc、φc)、カメラ姿勢情報を(θi、φi)とすると、
(θ、φ)=(θc、φc)−(θi、φi)
でビュー制御パラメータを求めることができる。ここで、S53aで入力された映像は広角カメラで撮像した映像であり、歪みが生じている。この画像歪みを考慮してビュー制御パラメータ(θ、φ)に対応するビュー画像を生成する。
【0079】
ステップS5では、S4で生成したビュー画像の画像情報通信インタフェース205を通してクライアント制御装置207に送信する。画像情報と共に音声情報なども送信してもよい。
【0080】
本実施形態におけるクライアント制御装置の動作を図5(b)に示すフローチャートを用いて説明する。
【0081】
ステップS50bで接続を開始する。
【0082】
ステップS51bでは、クライアントユーザからのコマンドを受け付ける。
【0083】
ステップS52bでは、S51bで入力されたコマンドをビュー制御要求情報として解釈する。
【0084】
ステップS53bでは、S51bで解釈されたビュー制御要求情報を、通信インタフェース208を通してサーバ制御装置202に送信する。
【0085】
ステップS54bでは、ステップS53bで送信したビュー制御要求情報によってサーバ制御装置202から返送された情報を受け付ける。
【0086】
ステップS55bでは、S54bでサーバ制御装置202から入力された情報をユーザに表示する。
【0087】
(実施形態3)
第3の実施形態として図3に基づいて説明する。
【0088】
本実施の形態では第2に実施形態と同様、カメラサーバ装置(広角カメラ301及びカメラ姿勢計測部306及びサーバ制御装置302)からの広角な画像を利用して、遠隔地にあるクライアント端末(クライアント制御装置307及びコマンド入力部310及びディスプレイ装置311)で任意の方向の画像(ビュー)を参照する。
【0089】
第2の実施形態ではクライアントの要求するビュー画像の生成をカメラサーバ装置側で行った。本実施形態では、カメラサーバ装置側では画像の補正のみを行い、ビュー画像の生成は画像クライアント装置側で行う。
【0090】
特に、本実施の形態では、人が広角カメラ301を携帯し、街の風景を撮影している。
【0091】
301は、ほぼ全周囲が撮影できる広角カメラである。この広角カメラ301は、撮影した映像のデータは接続線301−bを介してリアルタイムに出力することが可能である。
【0092】
306は、カメラの姿勢を計測するためのカメラ姿勢計測装置306であり、ここではジャイロセンサを用いている。カメラ姿勢計測装置306で計測されたカメラ姿勢情報は後述する画像処理手段304に送られる。
【0093】
302は、広角カメラ姿勢計測部306からの信号に基づいて出力する画像の制御を行う為のサーバ制御装置である。このサーバ制御装置302はいわゆるパーソナルコンピュータ等が用いられる。更にサーバ制御装置302は、画像処理手段303で生成された画像情報やカメラ姿勢情報などを、無線ネットワーク回線を介して複数のクライアント制御装置に送信することが可能である。
【0094】
サーバ制御装置302の具体的な構成を以下に説明する。
【0095】
304は、は接続線301−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段303に送られる。
【0096】
画像処理手段303は、広角カメラ301の撮影した映像の歪みを補正し、さらに、カメラ姿勢計測装部306から出力されるカメラ姿勢情報を利用し、カメラ姿勢一定の画像に変換する。
【0097】
305は、ネットワーク回線を介して接続された外部装置(クライアント制御装置307等)と画像情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0098】
更に、サーバ制御装置302は、装置内の必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0099】
次に、画像クライアント装置(クライアント制御装置307及びコマンド入力部310及びディスプレイ装置311)について、具体的に説明する。
【0100】
307は、サーバ制御装置302から画像情報を取得し、ユーザからの操作入力に応じて、適切な情報を生成するクライアント制御装置である。このクライアント制御装置307は、サーバ制御装置302と同様、主にパーソナルコンピュータが用いられる。
【0101】
308は、通信インタフェース305と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0102】
310は、ユーザのビュー制御コマンド情報を入力するコマンド入力部310であり、入力されたコマンド情報をビュー制御情報計測手段309に出力する。
【0103】
309はコマンド入力部310から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態ではユーザの頭に搭載したGPSの傾き情報をカメラ301へのビュー制御要求と対応付けて解釈している。もちろん、コマンド入力部310としてジョイスティックやマウスなどを用い、ビュー制御情報計測手段309ではその入力情報をビュー制御情報として解釈するなど、コマンド入力部310はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段309で計測されたビュー制御情報は後述する画像処理手段312へ送信される。
【0104】
312は画像処理手段である。画像処理手段312は通信インタフェース308より入力された画像情報及び、ビュー制御情報計測手段309から入力されるビュー制御情報からビュー画像を生成する。画像処理手段312で生成されたビュー画像はディスプレイ装置311で表示される。
【0105】
本実施形態におけるサーバ制御装置の動作を図6(a)に示すフローチャートを用いて説明する。
【0106】
ステップS60aで処理を開始する。
【0107】
ステップS61aでは、広角カメラ301で撮像した映像が映像入力手段304に入力される。
【0108】
ステップS62aでは、カメラ姿勢計測装置306から送信されてくるカメラ姿勢情報を取得する。
【0109】
ステップS63aでは、広角レンズ情報及びS62aで取得したカメラ姿勢情報を基に、S61aで入力された映像の補正を行う。この際、撮像画像自体の歪みも補正する。
【0110】
ステップS64aでは、S63aで生成した画像を通信インタフェース305を通してクライアント制御装置207に送信する。
【0111】
本実施形態におけるクライアント制御装置の動作を図6(b)に示すフローチャートを用いて説明する。
【0112】
ステップS60bで接続を開始する。
【0113】
ステップS61bでは、クライアントユーザからのコマンドを受け付ける。
【0114】
ステップS62bでは、S61bで入力されたコマンドをビュー制御要求情報として解釈する。
【0115】
ステップS63bでは、サーバ制御装置302から送信された情報を受け付ける。
【0116】
ステップS64bでは、S61bで解釈されたビュー制御要求情報を基に、S63bで入力された画像情報からビュー情報を生成する。
【0117】
ステップS65bでは、S64bで作成したビュー画像を表示する。
【0118】
本実施形態では、サーバ側で「レンズ歪み補正」や「カメラ姿勢情報を基に、撮像映像の方向を統一する補正」を行ったが、後者の補正などは特に、カメラ姿勢情報などをカメラサーバからクライアントサーバに送信し、クライアント側で行うことにすることも可能である。
【0119】
(実施形態4)
第4の実施形態として図12に基づいて説明する。
【0120】
本実施の形態では第3に実施形態と同様、カメラサーバ装置(広角カメラ401及びカメラ姿勢計測部406及びサーバ制御装置402)からの広角な画像を利用して、遠隔地にあるクライアント装置(クライアント制御装置407及びコマンド入力部410及びディスプレイ装置411)で任意の方向の画像(ビュー)を参照する。クライアント装置側のユーザはカメラ姿勢と同期して回転する回転イスに座ってHMDを装着する(図12)。
【0121】
本実施の形態では、人が広角カメラ401を携帯し、街の風景を撮影している。
【0122】
401は、ほぼ全周囲が撮影できる広角カメラである。この広角カメラ401は、撮影した映像のデータは接続線401−bを介してリアルタイムに出力することが可能である。
【0123】
406は、カメラの姿勢を計測するためのカメラ姿勢計測装置406であり、ここではジャイロセンサを用いている。カメラ姿勢計測装置406で計測されたカメラ姿勢情報は後述する画像処理手段404に送られ、さらにネットワーク回線を介して画像クライアント装置に送られる。
【0124】
402は、広角カメラ401の撮像画像や姿勢計測部406からの信号に基づいて、画像クライアント装置に送る情報の制御を行い、無線ネットワーク回線を介して複数の画像クライアント制御装置に送信することが可能である。
【0125】
サーバ制御装置402の具体的な構成を以下に説明する。
【0126】
404は、は接続線401−bを介して入力する、画像キャプチャ装置等の映像入力手段である。ここで入力された画像は後述する画像処理手段403に送られる。
【0127】
画像処理手段403は、広角カメラ301の撮影した映像の歪みを補正する。
【0128】
405は、ネットワーク回線を介して接続された外部装置(クライアント制御装置407等)と画像情報、カメラ姿勢情報、音声情報、各種制御情報の通信を行うことを可能とするネットワークアダプタであり、通信インタフェースと呼ぶ。
【0129】
更に、サーバ制御装置402は、装置内の必要な演算を行うCPUやROM、RAM等の記憶装置を有しており、プログラムおよび各種パラメータ等を格納する。
【0130】
次に、クライアント装置(クライアント制御装置407及びコマンド入力部410及びディスプレイ装置411及び回転シート414)について、具体的に説明する。
【0131】
407は、サーバ制御装置402からネットワーク回線を介して送信された情報に基づいて回転シートを制御し、ユーザからの操作入力に応じて、適切な画像を生成するクライアント制御装置である。このクライアント制御装置407は、サーバ制御装置402と同様、主にパーソナルコンピュータが用いられる。
【0132】
408は、通信インタフェース405と同様の機能を有するネットワークアダプタであり、通信インタフェースとよぶ。
【0133】
410は、ユーザのビュー制御コマンド情報を入力するコマンド入力部410であり、入力されたコマンド情報をビュー制御情報計測手段409に出力する。
【0134】
413は、サーバ制御装置402からネットワーク回線を介して送信されるカメラ姿勢情報を取得し、後述する回転シート414を制御するシート制御手段413である。
【0135】
回転シート414はシート制御手段413の信号に基づき、回転する。シート414により、ユーザは遠隔のカメラ携帯者と同じ姿勢を体験することができる。
【0136】
409はコマンド入力部410から入力されたコマンド情報をビュー制御情報として解釈するビュー制御情報計測手段である。本実施形態では回転シートに対するユーザの頭の傾き情報をカメラ401へのビュー制御要求と対応付けて解釈している。コマンド入力部410はさまざまな入力デバイスで代用することが可能である。ビュー制御情報計測手段409で計測されたビュー制御情報は後述する画像処理手段412へ送信される。
【0137】
412は画像処理手段である。画像処理手段412は通信インタフェース408より入力された画像情報及び、ビュー制御情報計測手段409から入力されるビュー制御情報からビュー画像を生成する。画像処理手段412で生成されたビュー画像はディスプレイ装置411で表示される。これにより、ユーザは任意の方向を見回すことが可能になる。
【0138】
本実施形態におけるサーバ制御装置の動作を図13(a)に示すフローチャートを用いて説明する。
【0139】
ステップS130aで処理を開始する。
【0140】
ステップS131aでは、広角カメラ401で撮像した映像が映像入力手段404に入力される。
【0141】
ステップS132aでは、カメラ姿勢計測装置406から送信されてくるカメラ姿勢情報を取得する。
【0142】
ステップS133aでは、広角レンズ情報基に、S131aで入力された映像の歪み補正を行う。
【0143】
ステップS134aでは、S133aで生成した画像及びS132aで取得したカメラ姿勢情報を、通信インタフェース405を通してクライアント制御装置207に送信する。
【0144】
本実施形態におけるクライアント制御装置の動作を図13(b)に示すフローチャートを用いて説明する。
【0145】
ステップS130bで接続を開始する。
【0146】
ステップS131bでは、サーバ制御装置402から送信された情報を受け付ける。
【0147】
ステップS132bでは、S131bで取得したカメラ姿勢情報を基に、回転シートを制御する。
【0148】
ステップS133bでは、クライアントユーザからのコマンドを受け付ける。
【0149】
ステップS134bでは、S131bで入力されたコマンドからビュー画像を生成する。
【0150】
ステップS135bでは、S134bで作成したビュー画像を表示する。
【0151】
以上説明したように、上記各実施形態によれば、持ち運び可能なカメラサーバ装置に、カメラを携帯することで生じる撮像画像のブレを補正する機能を持たせたことで、遠隔にある画像クライアント装置側で任意のビュー画像を参照することが可能になる。これを利用すれば、一人が携帯カメラを持ち運んで観光地を訪れることで、遠隔にいる人も、背負われながら共に現地を旅行しているような体験をすることが可能となる。
【0152】
特に実施形態3および4では、カメラサーバ装置側では、本来カメラを携帯することで生じる方向のズレを補正した広角画像を提供し、クライアント装置側で任意の方向の画像を抽出しているため、1つのカメラサーバ装置に対し、複数の画像クライアント装置を割り当てることが可能となる。これを利用すれば、一人が携帯カメラを持ち運んで観光地を訪れることで、複数人で旅行しているような体験をすることが可能となる。また、これを旅行会社などで利用し、各ツアーのツアーコンダクターが携帯カメラを持ち運ぶことにすれば、現在行われている任意のツアーに仮想参加することが可能になる。
【0153】
【発明の効果】
本発明によれば、携帯カメラなどの撮影手段を用いた撮影を遠隔地から簡単に制御でき、所望の方向の映像を安定的に得ることができる。
【0154】
本願請求項1の発明によれば、ネットワーク等に接続された携帯カメラで撮像した画像に対し、携帯カメラの姿勢情報を計測し利用して画像処理することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示することができる。
【0155】
本願請求項5の発明によれば、ネットワーク等に接続された携帯カメラであって、携帯カメラの姿勢変化を和らげる機構を有することで、クライアント端末側では、携帯カメラ姿勢変化の影響を受けず、要求に合った携帯カメラの位置から視察可能な任意のシーン画像を表示することができる。
【図面の簡単な説明】
【図1】第1実施形態の概略構成を示すブロック図である。
【図2】第2実施形態の概略構成を示すブロック図である。
【図3】第3実施形態の概略構成を示すブロック図である。
【図4】第1実施形態の処理手順を説明するフローチャートである。
【図5】第2実施形態の処理手順を説明するフローチャートである。
【図6】第3実施形態の処理手順を説明するフローチャートである。
【図7】第1実施形態におけるサーバ装置の概略図である。
【図8】第1実施形態における携帯カメラ姿勢が大きく変化しないような機構の例である。
【図9】第1実施形態における携帯カメラの姿勢が大きく変化しないような携帯方法の例である。
【図10】第2実施形態におけるサーバ装置の概略図である。
【図11】第1実施形態における携帯広角カメラ姿勢が大きく変化しないような機構の例である。
【図12】第4実施形態の概略構成を示すブロック図である。
【図13】第4実施形態の処理手順を説明するフローチャートである。[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an apparatus for controlling shooting conditions of a shooting unit such as a portable camera from a remote place.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, cameras that can be controlled (pan, tilt, zoom, and the like) by connecting to a computer, so-called comb cameras, have appeared. By controlling the operation of the com camera from a client terminal at a remote location of the com camera and receiving a still image or a moving image taken by the com camera via the Internet or the like, a system capable of displaying a monitor on the client terminal side is provided. Is being developed. In addition, there is a known program that arranges such a comb camera on a network and distributes images to users on the network. In such a system, images can be transmitted almost in real time, and it is possible to easily see landscapes and the like in remote places.
[0003]
Further, a system has been developed in which a wide-angle camera is connected to a computer, and a still image and a moving image captured by the camera are received via the Internet or the like, so that a client terminal can monitor and display an arbitrary direction. Further, in a system in which such a camera is arranged on a network and an image is distributed to a user on the network, it is possible to easily view a landscape in a remote place.
[0004]
However, the individual camera positions of these systems are fixed and cannot move freely.
[0005]
Japanese Patent Application Laid-Open No. 2001-189927 proposes a simulated experience system in which a mobile station for acquiring video / audio information is provided, and at a point separated from the information collection point, the user can virtually experience as if they were at the information collection point. I have. However, since the movement of the mobile station is operated remotely, it is difficult to control and the place where the mobile station can be moved is limited.
[0006]
From a portable camera that can be carried to an arbitrary place, it is also possible to allow a client terminal to view a captured image via a network or the like. However, such control of the portable camera is left to only the person carrying the camera, and there is a problem that the client terminal cannot look around in any direction.
[0007]
JP-A-2000-209613 solves the above problem by creating a panoramic image in real time from a captured image of a portable camera and providing the panoramic image to a client. However, a portable camera photographer at the site is forced to take a photograph so that a panoramic image can be created.
[0008]
[Problems to be solved by the invention]
With a portable camera that can freely move around the site and shoot, the person who carries the camera at the site cannot see the image freely on the client terminal side unless the image requested by the client side is properly imaged. In other words, both the remote person and the person at the site could not freely experience the site.
[0009]
SUMMARY OF THE INVENTION An object of the present invention is to make it possible to easily control photographing using photographing means such as a portable camera from a remote place, and to stably obtain an image in a desired direction.
[0010]
In addition, by measuring and using the posture information of the portable camera and performing image processing on the image captured by the portable camera connected to a network or the like, the client terminal is not affected by the change in the posture of the portable camera, and the client terminal can perform the requested processing. It is an object of the present invention to be able to display an arbitrary scene image that can be observed from a position of a portable camera suitable for the camera.
[0011]
In addition, a portable camera connected to a network or the like and having a mechanism for reducing a change in the posture of the portable camera allows the client terminal to receive the position of the portable camera that meets the request without being affected by the change in the posture of the portable camera. It is an object of the present invention to be able to display an arbitrary scene image which can be observed from a user.
[0012]
[Means for Solving the Problems]
In order to achieve the above object, the present invention has the following configuration.
[0013]
The invention according to claim 1 of the present application is an image communication system having a camera server device and an image client device, wherein the camera server device is transmitted from the image client device with image input means for photographing an image. Video direction control request information input means for receiving video direction control request information, attitude detection means for detecting the attitude of the video input means, and the video direction control request information and the attitude information detected by the attitude detection means. The image client, comprising: a control unit that controls a shooting condition of the video input unit; and a sending unit that transmits image information about a video shot by the video input unit to the image client device according to the shooting condition. The apparatus comprises: a command input unit for inputting a command related to control of the video input unit; and a video direction corresponding to the command. Transmitting means for transmitting a control request information to the camera server, and receiving means for receiving image information transmitted from the camera server apparatus, and having a display means for displaying the image information data.
[0014]
The invention according to claim 5 of the present application is an image communication system including a camera server device and an image client device, wherein the camera server device is instructed by the instruction unit so that the posture is stably supported. Video input means, video direction control request information input means for receiving video direction control request information transmitted from the image client device, and control for controlling shooting conditions of the video input means according to the video direction control request information Means, and transmission means for transmitting image information relating to a video image captured by the video input means to the image client device according to the imaging conditions, wherein the image client device has a command related to control of the video input device. Command input means for inputting a command, and transmitting image direction control request information corresponding to the command to the camera server device. That the transmitting means, receiving means for receiving image information transmitted from the camera server apparatus, and having a display means for displaying the image information data.
[0015]
The invention according to claim 6 of the present application is an information processing method for controlling a photographing unit in accordance with image direction control request information, wherein image direction control request information specified by a user is input, and posture information of the image pickup unit is changed. The photographing condition of the photographing unit is obtained based on the input image direction control request information and the posture information, and the photographing unit is controlled using the photographing condition.
[0016]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
Hereinafter, an exemplary embodiment of the present invention will be described with reference to FIG.
[0017]
In the present embodiment, in order to obtain an arbitrary image from the camera server device (
[0018]
In particular, in the present embodiment, a person carries the
[0019]
[0020]
Reference numeral 106 denotes a camera posture measuring unit 106 for measuring a camera posture, and here, a gyro sensor is used. The camera attitude refers to the attitude of the camera itself (camera head), and is distinguished from the view direction and camera control parameters (pan angle, tilt angle, etc .: the direction of the camera lens with respect to the camera head). When the user carries the camera, the camera posture changes (FIG. 7), and the operability (particularly, pan and tilt) of the camera remote operation may be deteriorated on the image client device side. It is necessary to improve the operability of remote operation of the camera by measuring and using the camera posture information.
[0021]
On the other hand, by adopting a mechanism that does not significantly change the attitude of the portable camera, the camera attitude measuring unit 106 can be omitted. Since the natural movement of the camera carrier itself (change in posture due to mere walking) does not significantly affect remote operation, FIG. FIG. 9 shows a portable method that does not use such a method. FIG. 8 shows a mechanism in which the posture of the portable camera is always kept parallel, and the head of the camera is kept forward with respect to the portable rod. For example, a mechanism of a delivery machine can be used. Also, in FIG. 9, the camera is held perpendicular to the spine, so that the posture of the camera is kept constant. In the present embodiment, since the camera is configured as shown in FIG. 7, the camera attitude measuring unit 106 is adopted assuming that the camera attitude greatly changes.
[0022]
The camera posture information measured by the portable camera posture measurement unit 106 is sent to a
[0023]
Reference numeral 102 denotes a server control device for controlling the comb camera based on a control signal transmitted from a client control device to be described later via a network line and a signal from the comb camera posture measuring unit 106. As the server control device 102, a so-called personal computer or the like is used.
[0024]
The specific configuration of the server control device 102 will be described below.
[0025]
A
[0026]
[0027]
Reference numeral 105 denotes a network adapter capable of communicating image information, audio information, and various types of control information with an external device (such as the client control device 107) connected via a network line, and is referred to as a communication interface.
[0028]
Further, the server control device 102 has a storage device such as a CPU, a ROM, and a RAM for controlling the operation of each unit in the device and performing necessary calculations, and stores programs and various parameters.
[0029]
Next, the image client device (the
[0030]
[0031]
Reference numeral 108 denotes a network adapter having the same function as the communication interface 105, and is called a communication interface.
[0032]
[0033]
Reference numeral 109 denotes a camera control information measurement unit that interprets command information input from the
[0034]
An
[0035]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0036]
The process starts in step S40a.
[0037]
In step S41a, camera control request information transmitted from the
[0038]
In step S42a, the camera posture information transmitted from the camera posture measurement device 106 is obtained.
[0039]
In step S43a, camera control parameters are obtained based on the camera control request information obtained in S41a and the camera attitude information obtained in S42a. As described above, this step is necessary to satisfy the camera control request without being affected by the movement of the
[0040]
In the present embodiment, the camera control parameters of the camera control information include pan (θ), tilt (φ), and zoom (z). θ indicates a pan angle, φ indicates a tilt angle, and z indicates a zoom magnification.
Assuming that camera control request parameters are (θc, φc, zc) and camera attitude information is (θi, φi, zi) with respect to camera control parameters (θ, φ, z),
(Θ, φ, z) = (θc, φc, zc) − (θi, φi, 0)
Can be used to determine camera control parameters. However, since the range of the pan angle is -90 degrees to 90 degrees in the present embodiment, if the calculated angle exceeds this range, the upper or lower limit value, that is, the value of 90 degrees or -90 degrees is set. You. With this calculation, the operability of remote operation caused by carrying the camera is improved.
[0041]
In step S44a, the camera is actually operated according to the camera control parameters calculated in S43a.
[0042]
In step S45a, the image captured by the
[0043]
In step S46a, the video information input in S45a is transmitted to the
[0044]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0045]
The connection is started in step S40b.
[0046]
In step S41b, a command from the client user is received.
[0047]
In step S42b, the command input in S41b is interpreted as camera control request information.
[0048]
In step S43b, the camera control request information interpreted in S41b is transmitted to the server control device 102 through the communication interface 108.
[0049]
In step S44b, information returned from the server control device 102 based on the camera control request information transmitted in step S43b is received.
[0050]
In step S45b, the information input from the server control device 102 in S44b is displayed to the user.
[0051]
According to the present embodiment, in a portable camera connected to a network or the like, by using a mechanism for reducing the posture change of the portable camera or the posture information of the portable camera, the posture change due to carrying the camera on the client side is reduced. The present invention relates to a device that enables an arbitrary scene image that can be observed from a position of a portable camera that meets an input request that is not affected by the monitor to be displayed on a monitor.
[0052]
(Embodiment 2)
As a second embodiment of the present invention, an embodiment in which a wide-angle camera (fisheye lens) is used instead of the comb camera used in the first embodiment will be described with reference to FIG.
[0053]
In the present embodiment, a wide-angle image captured by a wide-angle camera of a camera server device (the wide-
[0054]
In particular, in the present embodiment, a person carries the wide-
[0055]
[0056]
Reference numeral 206 denotes a camera posture measuring unit 206 for measuring the posture of the camera, and here, a gyro sensor is used. In the present embodiment, the posture of the camera is changed by carrying the camera. The camera posture information measured here is used to control the view direction on the camera server device side or the image client device side. In the present embodiment, view control is performed on the camera server device side.
[0057]
The camera posture information measured by the camera posture measurement unit 206 is sent to an image control unit 203 described later.
[0058]
Here, as in the first embodiment, the camera posture measuring device 206 can be omitted by incorporating a mechanism that does not greatly change the posture of the portable camera. FIG. 10 shows a mechanism that does not significantly change the attitude of the portable camera.
[0059]
Reference numeral 202 denotes a server control device for controlling an output image based on a control signal transmitted from a client control device described later via a network line and a signal from the camera posture measuring unit 206. As the server control device 202, a so-called personal computer or the like is used.
[0060]
The specific configuration of the server control device 202 will be described below.
[0061]
[0062]
The image processing unit 203 is an image processing unit that controls a captured image of the wide-
[0063]
[0064]
Further, the server control device 202 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0065]
Next, the image client device (the client control device 207, the
[0066]
Reference numeral 207 denotes a client control device that acquires appropriate information from the server control device 102 in response to an operation input from a user. As the client control device 207, a personal computer is mainly used like the server control device 202.
[0067]
A
[0068]
[0069]
Reference numeral 209 denotes a view control information measuring unit that interprets command information input from the
[0070]
[0071]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0072]
The process starts in step S50a.
[0073]
In step S51a, view control request information transmitted from the client control device 207 is obtained.
[0074]
In step S52a, the camera posture information transmitted from the camera posture measurement device 206 is obtained.
[0075]
In step S53a, the image captured by the wide-
[0076]
In step S54a, a view image is generated from the video input in S53a, based on the view control request information acquired in S51a and the camera attitude information acquired in S52a.
[0077]
In the present embodiment, the parameters of the view control information include pan (θ) and tilt (φ). θ indicates a pan angle and φ indicates a tilt angle.
[0078]
Assuming that the view control request parameter is (θc, φc) and the camera attitude information is (θi, φi) with respect to the view control parameter (θ, φ),
(Θ, φ) = (θc, φc) − (θi, φi)
Can be used to determine the view control parameters. Here, the image input in S53a is an image captured by a wide-angle camera, and has distortion. A view image corresponding to the view control parameters (θ, φ) is generated in consideration of the image distortion.
[0079]
In step S5, the view image generated in S4 is transmitted to the client control device 207 through the image
[0080]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0081]
Connection is started in step S50b.
[0082]
In step S51b, a command from the client user is received.
[0083]
In step S52b, the command input in S51b is interpreted as view control request information.
[0084]
In step S53b, the view control request information interpreted in S51b is transmitted to the server control device 202 through the
[0085]
In step S54b, information returned from the server control device 202 based on the view control request information transmitted in step S53b is received.
[0086]
In step S55b, the information input from the server control device 202 in S54b is displayed to the user.
[0087]
(Embodiment 3)
A third embodiment will be described with reference to FIG.
[0088]
In the present embodiment, similarly to the second embodiment, a client terminal (client) at a remote location is used by using a wide-angle image from a camera server device (wide-
[0089]
In the second embodiment, the view image requested by the client is generated on the camera server device side. In the present embodiment, only the image correction is performed on the camera server device side, and the generation of the view image is performed on the image client device side.
[0090]
In particular, in the present embodiment, a person carries the wide-
[0091]
[0092]
Reference numeral 306 denotes a camera posture measuring device 306 for measuring the posture of the camera, which uses a gyro sensor here. The camera posture information measured by the camera posture measurement device 306 is sent to an image processing unit 304 described later.
[0093]
Reference numeral 302 denotes a server control device for controlling an image output based on a signal from the wide-angle camera posture measurement unit 306. As the server control device 302, a so-called personal computer or the like is used. Further, the server control device 302 can transmit image information, camera posture information, and the like generated by the image processing unit 303 to a plurality of client control devices via a wireless network line.
[0094]
The specific configuration of the server control device 302 will be described below.
[0095]
Reference numeral 304 denotes a video input unit such as an image capture device for inputting via the connection line 301-b. The image input here is sent to the image processing means 303 described later.
[0096]
The image processing unit 303 corrects the distortion of the image captured by the wide-
[0097]
Reference numeral 305 denotes a network adapter capable of communicating image information, audio information, and various types of control information with an external device (such as the client control device 307) connected via a network line, and is referred to as a communication interface.
[0098]
Further, the server control device 302 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0099]
Next, the image client device (the
[0100]
[0101]
A
[0102]
Reference numeral 310 denotes a command input unit 310 for inputting user's view control command information, and outputs the input command information to the view control
[0103]
[0104]
[0105]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0106]
The process starts in step S60a.
[0107]
In step S61a, the image captured by the wide-
[0108]
In step S62a, the camera posture information transmitted from the camera posture measurement device 306 is obtained.
[0109]
In step S63a, the image input in S61a is corrected based on the wide-angle lens information and the camera posture information acquired in S62a. At this time, the distortion of the captured image itself is also corrected.
[0110]
In step S64a, the image generated in S63a is transmitted to the client control device 207 via the communication interface 305.
[0111]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0112]
The connection is started in step S60b.
[0113]
In step S61b, a command from the client user is received.
[0114]
In step S62b, the command input in S61b is interpreted as view control request information.
[0115]
In step S63b, information transmitted from server control device 302 is accepted.
[0116]
In step S64b, view information is generated from the image information input in S63b based on the view control request information interpreted in S61b.
[0117]
In step S65b, the view image created in S64b is displayed.
[0118]
In the present embodiment, the server performs “lens distortion correction” and “correction to unify the direction of the captured image based on the camera posture information”. From the client server to the client server.
[0119]
(Embodiment 4)
A fourth embodiment will be described with reference to FIG.
[0120]
In the present embodiment, similarly to the third embodiment, a client device (client) located at a remote place is used by using a wide-angle image from a camera server device (wide-angle camera 401, camera attitude measuring unit 406, and server control device 402). The control device 407, the command input unit 410, and the display device 411) refer to an image (view) in an arbitrary direction. The user on the client device side wears the HMD while sitting on a rotating chair that rotates in synchronization with the camera posture (FIG. 12).
[0121]
In the present embodiment, a person carries the wide-angle camera 401 and takes a picture of a city.
[0122]
Reference numeral 401 denotes a wide-angle camera that can capture almost the entire periphery. The wide-angle camera 401 can output the data of the captured video in real time via the connection line 401-b.
[0123]
Reference numeral 406 denotes a camera posture measuring device 406 for measuring the posture of the camera, and here a gyro sensor is used. The camera posture information measured by the camera posture measurement device 406 is sent to an image processing unit 404 described later, and further sent to an image client device via a network line.
[0124]
A control unit 402 controls information to be sent to the image client device based on a captured image of the wide-angle camera 401 and a signal from the attitude measurement unit 406, and can transmit the information to a plurality of image client control devices via a wireless network line. It is.
[0125]
The specific configuration of the server control device 402 will be described below.
[0126]
Reference numeral 404 denotes a video input unit such as an image capture device for inputting via the connection line 401-b. The image input here is sent to the image processing means 403 described later.
[0127]
The image processing unit 403 corrects a distortion of an image captured by the wide-
[0128]
A network adapter 405 enables communication of image information, camera attitude information, audio information, and various types of control information with an external device (such as a client control device 407) connected via a network line. Call.
[0129]
Further, the server control device 402 has a storage device such as a CPU, a ROM, and a RAM for performing necessary calculations in the device, and stores programs and various parameters.
[0130]
Next, the client device (the client control device 407, the command input unit 410, the display device 411, and the rotating sheet 414) will be specifically described.
[0131]
Reference numeral 407 denotes a client control device that controls the rotating sheet based on information transmitted from the server control device 402 via a network line, and generates an appropriate image according to an operation input from a user. As the client control device 407, a personal computer is mainly used like the server control device 402.
[0132]
Reference numeral 408 denotes a network adapter having the same function as the communication interface 405, and is called a communication interface.
[0133]
Reference numeral 410 denotes a command input unit 410 for inputting the user's view control command information, and outputs the input command information to the view control information measuring unit 409.
[0134]
Reference numeral 413 denotes a sheet control unit 413 that acquires camera posture information transmitted from the server control device 402 via a network line and controls a rotating sheet 414 described below.
[0135]
The rotating sheet 414 rotates based on a signal from the sheet control unit 413. Seat 414 allows the user to experience the same posture as a remote camera carrier.
[0136]
Reference numeral 409 denotes a view control information measuring unit that interprets command information input from the command input unit 410 as view control information. In the present embodiment, the tilt information of the user's head with respect to the rotating sheet is interpreted in association with a view control request to the camera 401. The command input unit 410 can be replaced with various input devices. The view control information measured by the view control information measuring unit 409 is transmitted to an image processing unit 412 described later.
[0137]
412 is an image processing unit. The image processing unit 412 generates a view image from the image information input from the communication interface 408 and the view control information input from the view control information measurement unit 409. The view image generated by the image processing unit 412 is displayed on the display device 411. This allows the user to look around in any direction.
[0138]
The operation of the server control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0139]
The process starts in step S130a.
[0140]
In step S131a, the image captured by the wide-angle camera 401 is input to the image input unit 404.
[0141]
In step S132a, the camera posture information transmitted from the camera posture measurement device 406 is obtained.
[0142]
In step S133a, distortion correction of the image input in S131a is performed based on the wide-angle lens information.
[0143]
In step S134a, the image generated in S133a and the camera posture information acquired in S132a are transmitted to the client control device 207 via the communication interface 405.
[0144]
The operation of the client control device according to the present embodiment will be described with reference to the flowchart shown in FIG.
[0145]
The connection is started in step S130b.
[0146]
In step S131b, information transmitted from server control device 402 is received.
[0147]
In step S132b, the rotating sheet is controlled based on the camera posture information acquired in S131b.
[0148]
In step S133b, a command from the client user is received.
[0149]
In step S134b, a view image is generated from the command input in S131b.
[0150]
In step S135b, the view image created in S134b is displayed.
[0151]
As described above, according to the above embodiments, a portable camera server device is provided with a function of correcting blurring of a captured image caused by carrying a camera, so that a remote image client device is provided. Side can refer to any view image. If this is used, one person can carry a portable camera and visit a sightseeing spot, so that even a remote person can experience the experience of traveling together while carrying his / her back.
[0152]
In particular, in the third and fourth embodiments, the camera server device side provides a wide-angle image in which the deviation in the direction originally caused by carrying the camera is provided, and the client device side extracts an image in an arbitrary direction. A plurality of image client devices can be assigned to one camera server device. If this is used, it becomes possible for one person to carry a portable camera and visit a sightseeing spot, so that the experience of traveling by a plurality of people becomes possible. In addition, if this is used by a travel agency and the tour conductor of each tour carries a portable camera, it is possible to virtually participate in any tour currently being performed.
[0153]
【The invention's effect】
ADVANTAGE OF THE INVENTION According to this invention, imaging | photography using imaging | photography means, such as a portable camera, can be easily controlled from a remote place, and the image of a desired direction can be obtained stably.
[0154]
According to the invention of claim 1 of the present application, an image captured by a mobile camera connected to a network or the like is processed by measuring and using the attitude information of the mobile camera. It is possible to display an arbitrary scene image that can be observed from the position of the portable camera that meets the request without being affected by the change.
[0155]
According to the invention of claim 5 of the present application, a portable camera connected to a network or the like and having a mechanism for reducing a change in posture of the portable camera, the client terminal is not affected by the change in posture of the portable camera. An arbitrary scene image that can be observed from the position of the portable camera that meets the request can be displayed.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a schematic configuration of a first embodiment.
FIG. 2 is a block diagram illustrating a schematic configuration of a second embodiment.
FIG. 3 is a block diagram illustrating a schematic configuration of a third embodiment.
FIG. 4 is a flowchart illustrating a processing procedure according to the first embodiment.
FIG. 5 is a flowchart illustrating a processing procedure according to a second embodiment.
FIG. 6 is a flowchart illustrating a processing procedure according to a third embodiment.
FIG. 7 is a schematic diagram of a server device according to the first embodiment.
FIG. 8 is an example of a mechanism in the first embodiment in which the attitude of the portable camera does not change significantly.
FIG. 9 is an example of a portable method according to the first embodiment in which the posture of the portable camera does not significantly change.
FIG. 10 is a schematic diagram of a server device according to the second embodiment.
FIG. 11 is an example of a mechanism in the first embodiment in which the attitude of the portable wide-angle camera does not change significantly.
FIG. 12 is a block diagram showing a schematic configuration of a fourth embodiment.
FIG. 13 is a flowchart illustrating a processing procedure according to a fourth embodiment.
Claims (8)
前記カメラサーバ装置は、
映像を撮影する映像入力手段と、
前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、
前記映像入力手段の姿勢を検出する姿勢検出手段と、
前記映像方向制御要求情報と前記姿勢検出手段で検出された姿勢情報とから前記映像入力手段の撮影条件を制御する制御手段と、
前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、
前記画像クライアント装置は、
前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、
前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、
前記カメラサーバ装置から送信された画像情報を受信する受信手段と、
前記画像情報情報を表示する表示手段とを有することを特徴とする画像通信システム。An image communication system having a camera server device and an image client device,
The camera server device,
Video input means for capturing video,
Image direction control request information input means for receiving image direction control request information transmitted from the image client device,
Attitude detection means for detecting the attitude of the video input means,
A control unit that controls a shooting condition of the video input unit from the video direction control request information and the posture information detected by the posture detection unit,
Transmitting means for transmitting to the image client device image information about the video taken by the video input means according to the shooting conditions,
The image client device includes:
Command input means for inputting a command related to control of the video input means,
Transmission means for transmitting video direction control request information according to the command to the camera server device,
Receiving means for receiving image information transmitted from the camera server device;
Display means for displaying the image information information.
前記映像方向制御要求情報は前記クライアント装置へ送信する画像情報で示される映像のビュー方向を示す情報であることを特徴とする請求項1記載の画像通信システム。The image input means inputs a wide-angle image,
2. The image communication system according to claim 1, wherein the image direction control request information is information indicating a view direction of a video indicated by image information transmitted to the client device.
前記カメラサーバ装置は、
姿勢が安定的に支持されるように指示部によって指示されている映像入力手段と、
前記画像クライアント装置から送信される映像方向制御要求情報を受信する映像方向制御要求情報入力手段と、
前記映像方向制御要求情報に応じて前記映像入力手段の撮影条件を制御する制御手段と、
前記撮影条件に応じて前記映像入力手段で撮影された映像に関する画像情報を前記画像クライアント装置へ送信する送信手段とを有し、
前記画像クライアント装置は、
前記映像入力手段の制御に関するコマンドを入力するコマンド入力手段と、
前記コマンドに応じた映像方向制御要求情報を前記カメラサーバ装置へ送信する送信手段と、
前記カメラサーバ装置から送信された画像情報を受信する受信手段と、
前記画像情報情報を表示する表示手段とを有することを特徴とする画像通信システム。An image communication system having a camera server device and an image client device,
The camera server device,
A video input unit instructed by the instruction unit so that the posture is stably supported,
Image direction control request information input means for receiving image direction control request information transmitted from the image client device,
Control means for controlling shooting conditions of the video input means according to the video direction control request information,
Transmitting means for transmitting to the image client device image information about the video taken by the video input means according to the shooting conditions,
The image client device includes:
Command input means for inputting a command related to control of the video input means,
Transmission means for transmitting video direction control request information according to the command to the camera server device,
Receiving means for receiving image information transmitted from the camera server device;
Display means for displaying the image information information.
ユーザによって指示された映像方向制御要求情報を入力し、
前記撮影部の姿勢情報を入力し、
前記映像方向制御要求情報と前記姿勢情報とに基づき、前記撮影部の撮影条件を求め、
前記撮影条件を用いて前記撮影部を制御することを特徴とする情報処理方法。An information processing method for controlling a photographing unit according to video direction control request information,
Input the video direction control request information specified by the user,
Input the posture information of the imaging unit,
Based on the image direction control request information and the attitude information, determine the imaging conditions of the imaging unit,
An information processing method comprising controlling the photographing unit using the photographing conditions.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223280A JP2004064639A (en) | 2002-07-31 | 2002-07-31 | Picture communication system and information processing method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002223280A JP2004064639A (en) | 2002-07-31 | 2002-07-31 | Picture communication system and information processing method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004064639A true JP2004064639A (en) | 2004-02-26 |
Family
ID=31943076
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002223280A Withdrawn JP2004064639A (en) | 2002-07-31 | 2002-07-31 | Picture communication system and information processing method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2004064639A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521844A (en) * | 2007-03-15 | 2010-06-24 | モボティックス アクチエンゲゼルシャフト | Monitoring system |
WO2016017245A1 (en) * | 2014-07-31 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and image display system |
WO2017168998A1 (en) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
JP2021168461A (en) * | 2020-04-13 | 2021-10-21 | ミナミホールディングス株式会社 | Photographer terminal, information processing unit, information processing method, and computer program |
-
2002
- 2002-07-31 JP JP2002223280A patent/JP2004064639A/en not_active Withdrawn
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521844A (en) * | 2007-03-15 | 2010-06-24 | モボティックス アクチエンゲゼルシャフト | Monitoring system |
WO2016017245A1 (en) * | 2014-07-31 | 2016-02-04 | ソニー株式会社 | Information processing device, information processing method, and image display system |
JPWO2016017245A1 (en) * | 2014-07-31 | 2017-04-27 | ソニー株式会社 | Information processing apparatus, information processing method, and image display system |
US20170278262A1 (en) | 2014-07-31 | 2017-09-28 | Sony Corporation | Information processing device, method of information processing, and image display system |
US10269132B2 (en) | 2014-07-31 | 2019-04-23 | Sony Corporation | Displaying images according to head posture and camera posture |
WO2017168998A1 (en) * | 2016-03-28 | 2017-10-05 | ソニー株式会社 | Information processing device, information processing method, and program |
US11360545B2 (en) | 2016-03-28 | 2022-06-14 | Sony Corporation | Information processing device, information processing method, and program |
JP2021168461A (en) * | 2020-04-13 | 2021-10-21 | ミナミホールディングス株式会社 | Photographer terminal, information processing unit, information processing method, and computer program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5005080B2 (en) | Panorama image generation method | |
TWI663876B (en) | Image processing device, image processing method, non-transitory computer readable recording medium and photographing assist equipment for image processing device | |
JP4098808B2 (en) | Remote video display method, video acquisition device, method thereof, and program thereof | |
JP6510652B2 (en) | Imaging system and imaging control method | |
JP5865388B2 (en) | Image generating apparatus and image generating method | |
WO2013069050A1 (en) | Image generation device and image generation method | |
WO2013069047A1 (en) | Image generation device, and image generation method | |
WO2013069049A1 (en) | Image generation device, and image generation method | |
JP6732617B2 (en) | Information processing apparatus and image generation method | |
JP6899875B2 (en) | Information processing device, video display system, information processing device control method, and program | |
JP7372061B2 (en) | Remote work support system | |
JP2020005146A (en) | Output control device, display terminal, information processing apparatus, movable body, remote control system, output control method, program, and photographing control device | |
KR101703924B1 (en) | 3d virtual reality system using 3d-spectacles for virtual image display | |
JP2021047062A (en) | Surveying system and surveying method using eyewear device | |
KR101814714B1 (en) | Method and system for remote control of camera in smart phone | |
WO2015056466A1 (en) | Display device, image generation device, display method and program | |
JPH118845A (en) | Panoramic image generation device and its method | |
JP6649010B2 (en) | Information processing device | |
JP5847591B2 (en) | Information processing apparatus, information processing method and program for information processing apparatus | |
JP2004064639A (en) | Picture communication system and information processing method | |
JP6924630B2 (en) | Image shooting device, image shooting program, image shooting method | |
JP4946914B2 (en) | Camera system | |
JP2004363987A (en) | Image presentation system | |
JP2001136431A (en) | Camera controller and camera control method and storage medium | |
JP7341674B2 (en) | Information processing device, information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Application deemed to be withdrawn because no request for examination was validly filed |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20051004 |