JP2019003325A - Image processing system, image processing method and program - Google Patents
Image processing system, image processing method and program Download PDFInfo
- Publication number
- JP2019003325A JP2019003325A JP2017115986A JP2017115986A JP2019003325A JP 2019003325 A JP2019003325 A JP 2019003325A JP 2017115986 A JP2017115986 A JP 2017115986A JP 2017115986 A JP2017115986 A JP 2017115986A JP 2019003325 A JP2019003325 A JP 2019003325A
- Authority
- JP
- Japan
- Prior art keywords
- image
- foreground
- background
- background image
- exposure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Processing Or Creating Images (AREA)
- Image Generation (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、被写体を撮影した画像を処理する画像処理装置、画像処理方法、プログラム及び画像処理システムに関する。 The present invention relates to an image processing apparatus, an image processing method, a program, and an image processing system that process an image obtained by photographing a subject.
昨今、複数のカメラを異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数視点画像を用いて、これら複数のカメラとは異なる仮想的な視点または仮想的なカメラからの仮想視点コンテンツを生成する技術が注目されている。複数視点画像から任意に視点を変更可能な仮想視点コンテンツを生成する技術によれば、例えば、サッカーやバスケットボールのハイライトシーンを様々な角度から視聴することが出来る。したがって、仮想視点コンテンツを生成する技術は、任意に視点を変更できない通常の画像と比較してユーザに高臨場感を与えることが出来る。このようにして生成された画像は仮想視点画像と呼ばれる。 Nowadays, multiple cameras are installed at different positions and synchronized shooting from multiple viewpoints. Using multiple viewpoint images obtained by the shooting, virtual viewpoints or virtual cameras different from these multiple cameras are used. A technique for generating virtual viewpoint content has attracted attention. According to the technology for generating virtual viewpoint content in which viewpoints can be arbitrarily changed from a plurality of viewpoint images, for example, a soccer or basketball highlight scene can be viewed from various angles. Therefore, the technology for generating the virtual viewpoint content can give the user a higher sense of presence compared with a normal image in which the viewpoint cannot be arbitrarily changed. The image generated in this way is called a virtual viewpoint image.
特許文献1には、同一の範囲を取り囲むように複数のカメラを配置して、その同一の範囲を撮影した画像を用いて、任意の指定に対応する仮想視点画像を生成、表示する技術が開示されている。 Patent Document 1 discloses a technique for arranging and arranging a plurality of cameras so as to surround the same range, and generating and displaying a virtual viewpoint image corresponding to an arbitrary designation using an image obtained by photographing the same range. Has been.
また、仮想視点画像を生成するには、一般的に、画像内でモデル生成の対象となるオブジェクトが存在する部分が識別されている必要がある。そのオブジェクトが存在する部分は前景と呼ばれ、それ以外は背景と呼ばれる。 In order to generate a virtual viewpoint image, it is generally necessary to identify a portion where an object to be model generated exists in the image. The part where the object exists is called the foreground, otherwise it is called the background.
複数の撮影画像を合成して例えば仮想視点画像のような1つの画像を生成する際には、撮影画像の輝度や色合いに差が出ないようにすることが望まれる。しかしながら、仮想視点画像を生成する際の合成に用いる前景画像と背景画像とで例えば撮影された際のタイミングや撮影した撮影装置が異なると、撮影時の露出が異なる場合が生じ得る。露出が異なる前景画像と背景画像とを仮想視点画像の生成に用いると不自然な画像が合成されるという問題が生ずることがある。 When a plurality of photographed images are combined to generate one image such as a virtual viewpoint image, it is desirable to prevent differences in brightness and color of the photographed images. However, if the foreground image and the background image used for composition when generating the virtual viewpoint image are different in timing at the time of shooting, for example, and the shooting device used for shooting, the exposure at the time of shooting may be different. When a foreground image and a background image having different exposures are used for generating a virtual viewpoint image, there may be a problem that an unnatural image is synthesized.
そこで、本発明は、仮想視点画像を生成する際に前景画像と背景画像との撮影時の露出の差による不自然さを低減することを目的とする。 Therefore, an object of the present invention is to reduce unnaturalness due to a difference in exposure during shooting of a foreground image and a background image when generating a virtual viewpoint image.
本発明は、複数の撮像装置にて撮影された複数の画像を用いて仮想視点画像を生成する画像処理装置であって、前記複数の画像のうちの何れかに基づく画像であって、所定のオブジェクトに対応する前景画像を取得する第1取得手段と、前記第1取得手段により取得された前記前景画像が撮影された際の露出を示す露出情報を取得する第2取得手段と、前記複数の画像のうちの何れかに基づく画像であって、前記第2取得手段により取得された露出情報に対応する露出で撮影され、前記所定のオブジェトが含まれない背景画像を、前記第2取得手段により取得された露出情報に基づいて取得する第3取得手段と、前記第1取得手段により取得された前記前景画像と前記第3取得手段により取得された前記背景画像とを用いて仮想視点画像を生成する生成手段と、を有することを特徴とする。 The present invention is an image processing device that generates a virtual viewpoint image using a plurality of images photographed by a plurality of imaging devices, and is an image based on any of the plurality of images, wherein A first acquisition unit that acquires a foreground image corresponding to an object; a second acquisition unit that acquires exposure information indicating exposure when the foreground image acquired by the first acquisition unit is captured; An image based on any one of the images, which is captured with an exposure corresponding to the exposure information acquired by the second acquisition unit, and does not include the predetermined object, a background image is acquired by the second acquisition unit. A virtual viewpoint image is generated using third acquisition means acquired based on the acquired exposure information, the foreground image acquired by the first acquisition means, and the background image acquired by the third acquisition means. Characterized in that it has a generation unit configured to, a.
また、本発明の他の態様は、複数の撮像装置にて撮影された複数の画像をそれぞれ分離した複数の前景画像および複数の背景画像の中から、仮想視点画像の生成に用いる前景画像および背景画像を決定する決定手段と、前記決定された前記前景画像の撮影時の露出情報と、前記決定された前記背景画像の撮影時の露出情報とを取得する取得手段と、前記前景画像と前記背景画像を基に、前記仮想視点画像を生成する処理手段と、を有し、前記処理手段は、前記決定された前記前景画像と前記背景画像との前記露出情報が異なる場合、前記決定された前景画像の露出に前記背景画像の露出を合わせる処理を行い、前記露出を合わせる処理後の前記背景画像と、前記決定された前景画像とを使用して、前記仮想視点画像を生成することを特徴とする。 Another aspect of the present invention provides a foreground image and a background used for generating a virtual viewpoint image from a plurality of foreground images and a plurality of background images obtained by separating a plurality of images taken by a plurality of imaging devices, respectively. Determining means for determining an image; acquisition means for acquiring exposure information at the time of shooting of the determined foreground image; and exposure information at the time of shooting of the determined background image; the foreground image and the background; Processing means for generating the virtual viewpoint image based on an image, and the processing means, when the exposure information of the determined foreground image and the background image is different, the determined foreground Performing the process of adjusting the exposure of the background image to the exposure of the image, and generating the virtual viewpoint image using the background image after the process of adjusting the exposure and the determined foreground image. You .
本発明によれば、仮想視点画像を生成する際に前景画像と背景画像との撮影時の露出の差による不自然さを低減することができる。 According to the present invention, when generating a virtual viewpoint image, it is possible to reduce unnaturalness due to a difference in exposure during photographing between the foreground image and the background image.
以下、図面を参照しながら、本発明の実施形態の一例を詳細に説明する。
本実施形態では、複数のカメラをスタジアム等に設置して同期撮影を行い、撮影途中に撮影パラメータが変更された撮影データを用いて、仮想視点画像を生成する画像処理システムを例に挙げて説明する。
<第1の実施形態>
第1の実施形態では、撮影時の撮影パラメータ変更によって仮想視点画像の生成に用いる画像の露出情報が異なっている場合に、露出情報の一致する画像をデータベースより再取得して仮想視点画像を生成する例について説明する。
Hereinafter, an example of an embodiment of the present invention will be described in detail with reference to the drawings.
In the present embodiment, an example of an image processing system that installs a plurality of cameras in a stadium or the like, performs synchronous shooting, and generates a virtual viewpoint image using shooting data in which shooting parameters are changed during shooting will be described as an example. To do.
<First Embodiment>
In the first embodiment, when exposure information of an image used for generating a virtual viewpoint image differs due to a change in shooting parameters at the time of shooting, a virtual viewpoint image is generated by re-acquiring images with matching exposure information from the database. An example will be described.
図1は、本実施形態に係わる画像処理システム100の概略構成を示すブロック図である。
画像処理システム100は、センサシステム110a〜センサシステム110z、画像コンピューティングサーバ200、コントローラ300、スイッチングハブ180、及びエンドユーザ端末190を有する。
コントローラ300は、制御ステーション310と仮想カメラ操作UI330を有する。制御ステーション310は、画像処理システム100を構成するそれぞれのブロックに対してネットワーク310a〜310c、180a、180b、及びデイジーチェーン170a〜170yを通じて動作状態の管理及びパラメータ設定制御等を行う。これら各ネットワークは、例えば、Ethernet(Ethernet、イーサネットは登録商標)であるIEEE標準準拠のGbE(ギガビットイーサネット)や10GbEを用いることができる。また、各ネットワークは、インターコネクトInfiniband、産業用イーサネット等を組合せて構成されてもよい。さらに、これらにも限定されず、他の種別のネットワークであってもよい。
FIG. 1 is a block diagram showing a schematic configuration of an
The
The
先ず、センサシステム110a〜110zの26セットの画像及び音声をセンサシステム110zから画像コンピューティングサーバ200へ送信する動作を説明する。本実施形態の画像処理システム100では、センサシステム110a〜110zがデイジーチェーン170a〜170yにより接続される。
なお、本実施形態において、特別な説明がない場合には、センサシステム110aからセンサシステム110zまでの26セットの各システムを区別せずに、センサシステム110と記載する。各センサシステム110内の各装置についても同様に、特別な説明がない場合にはそれらを区別せずに、マイク111、カメラ112、雲台113、外部センサ114、及びカメラアダプタ120と記載する。なお、センサシステムの台数として26セットを記載しているが、これはあくまでも一例であり、台数はこの例に限定されるものではない。また、本実施形態では、特に断りがない限り、画像という文言が動画と静止画の概念を含むものとして説明する。すなわち、本実施形態の画像処理システム100は、静止画及び動画の何れについても処理可能である。また、本実施形態では、画像処理システム100により提供される仮想視点コンテンツには、仮想視点画像と仮想視点音声が含まれるが、これに限らない。例えば、仮想視点コンテンツに音声が含まれていなくてもよい。また例えば、仮想視点コンテンツに含まれる音声が、仮想視点に最も近いマイクにより集音された音声であってもよい。また、本実施形態では、説明の簡略化のため、部分的に音声についての記載を省略しているが、基本的に画像と音声は共に処理されるものとする。さらに、本実施形態では、特に断りがない限り、ネットワークを介して伝送される画像データ、音声データを、単に画像、音声と記載する。
First, an operation of transmitting 26 sets of images and sounds of the
In addition, in this embodiment, when there is no special description, each system of 26 sets from the
センサシステム110a〜110zは、それぞれが1台ずつのカメラ112a〜112zを有する。すなわち、画像処理システム100は、被写体を複数の方向から撮影するための複数のカメラを有する。複数のセンサシステム110同士はデイジーチェーン170により接続されている。この接続形態により、撮影画像のいわゆる4Kや8K等への高解像度化及び高フレームレート化に伴う画像データの大容量化において、接続ケーブル数の削減や配線作業の省力化が可能となっている。また、接続形態はデイジーチェーン170に限らず、各センサシステム110a〜110zがスイッチングハブ180に接続され、スイッチングハブ180を経由してセンサシステム110間のデータ送受信を行うスター型のネットワーク構成であってもよい。
Each of the
また、図1では、デイジーチェーン170となるようセンサシステム110a〜110zの全てがカスケード接続されている構成を示したが、この接続例に限定するものではない。例えば、複数のセンサシステム110をいくつかのグループに分割して、分割したグループ単位でセンサシステム110間をデイジーチェーン接続してもよい。そして、分割単位の終端となるカメラアダプタ120がスイッチングハブ180に接続されて画像コンピューティングサーバ200へ画像データの入力を行うようになされていてもよい。このような構成は、スタジアムにおいて特に有効である。例えば、スタジアムが複数階で構成され、フロア毎にセンサシステム110を配備する場合が考えられる。この場合、フロア毎或いはスタジアムの半周毎に、画像コンピューティングサーバ200への入力を行うことができ、全センサシステム110を一つのデイジーチェーンで接続する配線が困難な場所でも設置の簡便化及びシステムの柔軟化を図ることができる。
1 shows a configuration in which all of the
本実施形態において、センサシステム110aは、マイク111a、カメラ112a、雲台113a、外部センサ114a、及びカメラアダプタ120aを有する。カメラアダプタ120の機能の少なくとも一部はフロントエンドサーバ230が有していてもよい。本実施形態の場合、センサシステム110b〜110zについては、センサシステム110aと同様の構成なのでその説明を省略する。なお、センサシステム110b〜110zは、センサシステム110aと同じ構成に限定されるものではなく、それぞれのセンサシステム110が異なる構成になされていてもよい。
In the present embodiment, the
カメラ112aにて撮影された画像と、マイク111aにて集音された音声とは、カメラアダプタ120aにおいて様々な画像処理、音声処理が施された後、デイジーチェーン170aを通してセンサシステム110bのカメラアダプタ120bに伝送される。カメラアダプタ120は、撮影した画像から、オブジェクトの画像を含む前景画像と、それ以外の背景画像とを分離する。カメラアダプタ120aで実施される画像処理の詳細については後述する。また、カメラ112aは、撮影時の絞りやシャッタースピード、ISO感度といったカメラ露出情報を出力する機能を備えている。カメラアダプタ120aからは、カメラ112aにて撮影された画像のデータと一緒に、その露出情報も、カメラアダプタ120bに送られる。本実施形態では、露出情報としてEV値を用いることとする。なお、シャッタースピードをT、絞りをFとした場合、EV値は、下記の式(1)により求めることができる。
EV=log2F2−log2T 式(1)
The image captured by the
EV = log 2 F 2 -log 2 T Formula (1)
同様に、センサシステム110bは、カメラ112bで撮影した画像とマイク111bで集音した音声とを、センサシステム110aから取得した画像及び音声と合わせてセンサシステム110cに伝送する。このような動作が各センサシステム110にて続けられることにより、それらセンサシステム110a〜110zで取得された画像及び音声は、最終段のセンサシステム110zからネットワーク180bを用いてスイッチングハブ180に伝送される。そして、それら画像及び音声のデータは、スイッチングハブ180から画像コンピューティングサーバ200へ伝送される。
Similarly, the sensor system 110b transmits the image captured by the camera 112b and the sound collected by the
次に、画像コンピューティングサーバ200の構成及び動作について説明する。
本実施形態の画像コンピューティングサーバ200は、スイッチングハブ180を介してセンサシステム110zから取得したデータの処理を行う。画像コンピューティングサーバ200は、フロントエンドサーバ230、データベース250(データベースは、適宜、DBとも記載する。)、バックエンドサーバ270、タイムサーバ290を有する。
Next, the configuration and operation of the
The
タイムサーバ290は、時刻及び同期信号を配信する機能を有し、スイッチングハブ180を介して、センサシステム110a〜110zに時刻及び同期信号を配信する。時刻と同期信号を受信したカメラアダプタ120a〜120zは、時刻と同期信号を基にカメラ112a〜112zをゲンロック(Genlock)させて画像フレーム同期を行う。すなわち、タイムサーバ290は、複数のカメラ112の撮影タイミングを同期させる。これにより、画像処理システム100は、同じタイミングで撮影された複数の撮影画像に基づいて仮想視点画像を生成できることになり、撮影タイミングのずれによる仮想視点画像の品質低下を抑制できる。
The
フロントエンドサーバ230は、スイッチングハブ180を介してセンサシステム110zから取得した画像及び音声から、セグメント化された伝送パケットを再構成してデータ形式を変換する。そして、フロントエンドサーバ230は、そのデータ形式変換後の画像データを、カメラの識別子やデータ種別、フレーム番号に応じてデータベース250に書き込む。この時、各カメラアダプタ120からの前景画像や背景画像と一緒に伝送されたカメラ露出情報は、データ形式変換後の画像データと関連付けてフレーム単位でデータベース250に書き込まれる。
The front-
次に、バックエンドサーバ270は、仮想カメラ操作UI330から視点の指定を受け付け、受け付けられた視点に基づいて、データベース250の中に保存されている複数の画像及び音声の中から、仮想視点コンテンツの生成に必要な画像及び音声を決定する。そして、バックエンドサーバ270は、それら決定した画像及び音声のデータをデータベース250から読み出し、それら読み出したデータを用いて、レンダリング処理等を行うことにより仮想視点コンテンツを生成する。
Next, the back-
なお、画像コンピューティングサーバ200の構成は図1の構成例に限らない。例えば、フロントエンドサーバ230、データベース250、バックエンドサーバ270のうち少なくとも二つが一体となって構成されていてもよい。また、フロントエンドサーバ230、データベース250、バックエンドサーバ270の少なくとも何れかが複数含まれていてもよい。また、画像コンピューティングサーバ200内の任意の位置に、それら装置以外の装置が含まれていてもよい。さらに、画像コンピューティングサーバ200の機能の少なくとも一部は、エンドユーザ端末190や仮想カメラ操作UI330が有していてもよい。
The configuration of the
バックエンドサーバ270は、複数のカメラ112により撮影された撮影画像(複数視点画像)と視点情報とに基づく仮想視点コンテンツをレンダリング処理により生成する。より具体的には、バックエンドサーバ270は、複数のカメラ112にて取得された撮影画像から、それぞれ対応したカメラアダプタ120により抽出された所定領域の画像データと、ユーザ操作により指定された視点とに基づいて、仮想視点コンテンツを生成する。そして、バックエンドサーバ270は、生成した仮想視点コンテンツの画像と、音声とを、エンドユーザ端末190に送信する。エンドユーザ端末190はディスプレイとスピーカを有しており、バックエンドサーバ270から送信されてきた仮想視点コンテンツの画像をディスプレイに表示させ、音声をスピーカから出力させる。
The back-
本実施形態における仮想視点コンテンツは、仮想的な視点から被写体を撮影した場合に得られる画像としての仮想視点画像を含むコンテンツである。言い換えると、仮想視点画像は、指定された視点における見えを表す画像である。仮想的な視点(仮想視点)は、ユーザにより任意に指定されてもよいし、画像解析の結果等に基づいて自動的に指定されてもよい。すなわち、仮想視点画像には、ユーザが任意に指定した視点に対応する任意視点画像(自由視点画像)が含まれる。また、複数の視点候補からユーザが指定した視点に対応する画像や、装置が自動で指定した視点に対応する画像も、仮想視点画像に含まれる。なお、本実施形態では、仮想視点コンテンツには音声(オーディオデータ)が含まれる場合の例を挙げて説明しているが、必ずしも音声が含まれていなくてもよい。また、バックエンドサーバ270は、仮想視点画像をH.264やHEVCに代表される標準技術により圧縮符号化した上で、MPEG−DASHプロトコルを使ってエンドユーザ端末190へ送信してもよい。したがって、本実施形態によれば、エンドユーザ端末190を操作するユーザは、例えば自ら指定した任意の視点に応じた仮想視点画像と音声を視聴することができることになる。
The virtual viewpoint content in the present embodiment is content including a virtual viewpoint image as an image obtained when a subject is photographed from a virtual viewpoint. In other words, the virtual viewpoint image is an image representing the appearance at the designated viewpoint. The virtual viewpoint (virtual viewpoint) may be arbitrarily specified by the user, or may be automatically specified based on the result of image analysis or the like. That is, the virtual viewpoint image includes an arbitrary viewpoint image (free viewpoint image) corresponding to the viewpoint arbitrarily designated by the user. An image corresponding to a viewpoint designated by the user from a plurality of viewpoint candidates and an image corresponding to a viewpoint automatically designated by the apparatus are also included in the virtual viewpoint image. In the present embodiment, the virtual viewpoint content is described with an example in which audio (audio data) is included, but the audio may not necessarily include audio. Further, the back-
このように、本実施形態の画像処理システム100は、映像収集ドメイン、データ保存ドメイン、及び映像生成ドメインという、3つの機能ドメインを有している。すなわち本実施形態において、映像収集ドメインはセンサシステム110a〜110zを含み、データ保存ドメインはデータベース250、フロントエンドサーバ230及びバックエンドサーバ270を含む。また、映像生成ドメインは仮想カメラ操作UI330及びエンドユーザ端末190を含む。なお、本構成に限らず、例えば、仮想カメラ操作UI330が直接センサシステム110a〜110zから画像を取得することも可能である。
As described above, the
ただし、本実施形態の画像処理システム100では、例えば仮想カメラ操作UI330がセンサシステム110a〜110zから直接画像を取得する構成ではなく、図1に示したように、データ保存ドメインを中間に配置する構成を採用している。具体的には、データ保存ドメインのフロントエンドサーバ230は、センサシステム110a〜110zで取得された画像や音声及びそれらのデータのメタ情報を、データベース250の共通スキーマ及びデータ型に変換している。これにより、センサシステム110a〜110zのカメラ112が例えば他機種のカメラに変更されたとしても、そのカメラ機種変更による差分をフロントエンドサーバ230により吸収して、データベース250に登録することができる。このことによって、カメラ112が他機種のカメラに変更された場合に、仮想カメラ操作UI330が適切に動作しなくなってしまうという状態が生ずるのを防ぐことができる。
However, in the
また本実施形態の画像処理システム100において、仮想カメラ操作UI330は、直接データベース250にアクセスせずにバックエンドサーバ270を介してアクセスする構成となされている。すなわち、バックエンドサーバ270で画像生成処理に係わる共通処理を行い、操作UIに係わるアプリケーションの差分部分を、仮想カメラ操作UI330で行っている。このことにより、例えば仮想カメラ操作UI330の開発において、UI操作デバイスや、生成したい仮想視点画像を操作するUIの機能要求に対する開発に注力することができるようになる。また、バックエンドサーバ270は、仮想カメラ操作UI330の要求に応じて画像生成処理に係わる共通処理を追加又は削除することも可能である。このことによって仮想カメラ操作UI330の要求に柔軟に対応することができる。このように、本実施形態の画像処理システム100においては、被写体を複数の方向から撮影するための複数のカメラ112による撮影で得られた画像データに基づいて、バックエンドサーバ270により仮想視点画像が生成される。なお、本実施形態の画像処理システム100は、前述した物理的な構成に限定される場合だけでなく、論理的に構成されていてもよい。
In the
次に、本実施形態の画像処理システム100におけるカメラアダプタ120、フロントエンドサーバ230、バックエンドサーバ270が備える機能について、図2以降の各図を用いて詳細に説明する。
図2は、本実施形態のカメラアダプタ120の機能ブロックを示した図である。
図2に示すように、カメラアダプタ120は、ネットワークアダプタ6110、伝送部6120、画像処理部6130、及び外部機器制御部6140を有して構成されている。
Next, functions of the
FIG. 2 is a diagram illustrating functional blocks of the
As shown in FIG. 2, the
ネットワークアダプタ6110は、データ送受信部6111と時刻制御部6112を有して構成されている。
データ送受信部6111は、デイジーチェーン170、スイッチングハブ180、ネットワーク291,310a等を介して、他のカメラアダプタ120、フロントエンドサーバ230、タイムサーバ290、制御ステーション310等とデータ通信を行う。データ送受信部6111は、後述する前景背景分離部6131がカメラ112の撮影画像から分離した前景画像及び背景画像を、別のカメラアダプタ120に対して出力する。
また、データ送受信部6111は、前景画像と背景画像をそれぞれ異なるフレームレートで出力する機能を備えているものとする。本実施形態の場合、前景画像は高フレームレートで出力され、撮影対象(所定領域)を含まない背景画像は低フレームレートで出力されるものとする。出力先のカメラアダプタ120は、画像処理システム100内の各カメラアダプタ120のうち、後述するデータルーティング処理部6122の処理に応じて予め定められた順序における次のカメラアダプタ120である。各カメラアダプタ120が前景画像と背景画像とを出力することで、バックエンドサーバ270では複数の視点から撮影された前景画像と背景画像に基づく仮想視点画像の生成が可能となる。
The
The data transmission /
Further, the data transmitting / receiving
時刻制御部6112は、例えばIEEE1588規格のOrdinay Clockに準拠し、タイムサーバ290との間で送受信したデータのタイムスタンプを保存する機能を有し、タイムサーバ290と時刻同期を行う。なお、時刻同期は、IEEE1588に限定されず、他のEtherAVB規格や、独自プロトコルによってタイムサーバとの時刻同期が実現されてもよい。
The
伝送部6120は、ネットワークアダプタ6110を介してスイッチングハブ180等に対するデータの伝送を制御する機能を有する。伝送部6120は、データ圧縮・伸張部6121、データルーティング処理部6122、時刻同期制御部6123、画像・音声伝送処理部6124、データルーティング情報保持部6125の各機能部を有して構成されている。
The
データルーティング情報保持部6125は、データ送受信部6111で送受信されるデータの送信先を決定するためのアドレス情報等を保持する機能を有する。
データ圧縮・伸張部6121は、データ送受信部6111を介して送受信されるデータに対して所定の圧縮方式、圧縮率、及びフレームレートを適用した圧縮を行う機能と、圧縮されたデータを伸張する機能とを有している。
The data routing
The data compression /
データルーティング処理部6122は、データルーティング情報保持部6125が保持しているアドレス情報を基に、データ送受信部6111が受信したデータ及び画像処理部6130で処理されたデータのルーティング先を決定する。さらに、データルーティング処理部6122は、決定したルーティング先へデータを送信する機能をも有している。ルーティング先としては、同一の注視点にフォーカスされたカメラ112に対応するカメラアダプタ120とするのが、それぞれのカメラ112同士の画像フレーム相関が高いため画像処理を行う上で好適である。複数のカメラアダプタ120それぞれに対するデータルーティング処理部6122による決定に応じて、画像処理システム100内において前景画像や背景画像をリレー形式で出力するカメラアダプタ120の順序が決められる。
The data routing processing unit 6122 determines the routing destination of the data received by the data transmission /
時刻同期制御部6123は、IEEE1588規格のPTP(Precision Time Protocol)に準拠し、タイムサーバ290と時刻同期に係わる処理を行う機能を有している。なお、PTPだけでなく、他の同様のプロトコルを利用して時刻同期が行われてもよい。
The time synchronization control unit 6123 conforms to the IEEE 1588 standard PTP (Precision Time Protocol) and has a function of performing processing related to time synchronization with the
画像・音声伝送処理部6124は、画像又は音声のデータを、データ送受信部6111を介して他のカメラアダプタ120またはフロントエンドサーバ230へ転送するためのメッセージを作成する機能を有している。メッセージには、画像又は音声のデータ、及び各データのメタ情報が含まれる。本実施形態の場合、メタ情報には、画像の撮影または音声のサンプリングをした時のタイムコードまたはシーケンス番号、データ種別、カメラ112やマイク111の個体を示す識別子等が含まれる。また、画像・音声伝送処理部6124は、他のカメラアダプタ120から、データ送受信部6111を介してメッセージを受け取る。そして、画像・音声伝送処理部6124は、そのメッセージに含まれるデータ種別に応じて、伝送プロトコル規定のパケットサイズにフラグメントされたデータ情報を、画像または音声のデータに復元する。なお、データを復元した際に、そのデータが圧縮されている場合、データ圧縮・伸張部6121は、その圧縮に対応した伸張処理を行う。
The image / audio
画像処理部6130は、カメラ制御部6141の制御によりカメラ112が撮影した画像データ、及び、他のカメラアダプタ120から受取った画像データに対して処理を行う機能を有する。画像処理部6130は、前景背景分離部6131、三次元モデル情報生成部6132、キャリブレーション制御部6133の各機能部を有して構成されている。
The
前景背景分離部6131は、カメラ112が撮影した画像データを、前景画像と背景画像に分離する機能を有している。すなわち、複数のカメラアダプタ120それぞれの前景背景分離部6131は、それぞれ対応したカメラ112による撮影画像から所定領域を抽出する。本実施形態における所定領域は、例えば撮影画像に対するオブジェクト検出の結果得られる前景画像であり、前景背景分離部6131は、この所定領域の抽出を行うことにより、撮影画像を前景画像と背景画像に分離する。なお、本実施形態のように、例えばスタジアムに画像処理システム100が設置される場合、撮影画像に対するオブジェクトとしては、例えば人物を例に挙げることができる。この場合の人物のオブジェクトは、特定人物(例えば選手、監督、審判等)であってもよいし、ボールやゴール等のように画像パターンが予め定められている物体であってもよい。また、オブジェクトは、人物等のような動体だけでなく、静止した物体であってもよい。本実施形態の画像処理システム100では、人物等の重要なオブジェクトを含む前景画像と、それらオブジェクトを含まない背景領域とを分離して処理することで、生成される仮想視点画像のオブジェクトに該当する部分の画像の品質を向上させることができる。また、本実施形態によれば、前景画像と背景画像の分離を複数のカメラアダプタ120それぞれが行うことで、複数のカメラ112を備えた画像処理システム100における負荷を分散させることができる。なお、所定領域は、前景画像に限らず、例えば背景画像であってもよい。
The foreground /
三次元モデル情報生成部6132は、前景背景分離部6131で分離された前景画像及び他のカメラアダプタ120から受取った前景画像を利用し、例えばステレオカメラの原理を用いて三次元モデルに係わる画像情報を生成する機能を有している。また、三次元モデル生成には、例えばVisual Hullを用いる方法が使用されてもよい。
The 3D model
キャリブレーション制御部6133は、後述するカメラ制御部6141を介してカメラ112から、キャリブレーションに必要な画像データを取得して、キャリブレーションに係わる演算処理を行うフロントエンドサーバ230に送信する機能を有している。
The
外部機器制御部6140は、カメラ制御部6141、マイク制御部6142、雲台制御部6143、センサ制御部6144の各機能部を有して構成されている。カメラ制御部6141はこのカメラアダプタ120に備えられているカメラ112と接続され、同様に、マイク制御部6142はマイク111と、雲台制御部6143は雲台113と、センサ制御部6144は外部センサ114と接続されている。
The external
カメラ制御部6141は、接続されているカメラ112の制御、撮影画像取得、同期信号提供、及び時刻設定等を行う機能を有している。カメラ112の制御には、例えば撮影パラメータ(画素数、色深度、フレームレート、ホワイトバランス等)の設定及び参照、カメラ112の状態(撮影中、停止中、同期中、エラー等)の取得、撮影の開始と停止、ピント調整等がある。同期信号提供は、時刻同期制御部6123がタイムサーバ290と同期した時刻を利用し、撮影タイミング(制御クロック)をカメラ112に送ることで行われる。時刻設定は、時刻同期制御部6123がタイムサーバ290と同期した時刻を例えばSMPTE12Mのフォーマットに準拠したタイムコードで送ることにより行われる。これにより、カメラ112から受取る画像データには、そのタイムコードが付与されることになる。なお、タイムコードのフォーマットは、SMPTE12Mに限定されるわけではなく、他のフォーマットであってもよい。また、カメラ制御部6141は、カメラ112に対するタイムコードの送信を行わず、カメラ112から受取った画像データに自身がタイムコードを付与してもよい。
The
マイク制御部6142は、接続されているマイク111の制御、集音の開始や停止、集音された音声データの取得等を行う機能を有している。マイク111の制御には、例えば、ゲイン調整、状態取得等がある。また、カメラ制御部6141の場合と同様、マイク111には、音声サンプリングのタイミングとタイムコードが送信される。音声サンプリングのタイミングとなるクロック情報としては、タイムサーバ290からの時刻情報を例えば48KHzのワードクロックに変換した情報等が用いられる。
The
雲台制御部6143は、接続されている雲台113の制御を行う機能を有している。雲台113の制御は、例えばいわゆるパン・チルト制御や、状態取得等がある。
センサ制御部6144は、接続されている外部センサ114がセンシングしたセンサ情報を取得する機能を有する。例えば、外部センサ114としてジャイロセンサが利用される場合は、センサ制御部6144は、振動を表す情報を取得することができる。このセンサ制御部6144が取得した振動情報は、画像処理部6130に送られる。これにより、画像処理部6130は、センサ制御部6144が取得した振動情報を用いて、前景背景分離部6131での処理に先立って振動を抑えた画像を生成することができる。
The pan
The
図3は、本実施形態のフロントエンドサーバ230の機能ブロックを示した図である。
図3に示すように、フロントエンドサーバ230は、データ入力制御部2120、データ同期部2130、画像処理部2150、三次元モデル結合部2160、画像結合部2170、撮影データファイル生成部2180を有する。さらに、フロントエンドサーバ230は、制御部2110、CADデータ記憶部2135、キャリブレーション部2140、非撮影データファイル生成部2185、DBアクセス制御部2190を有して構成されている。
FIG. 3 is a diagram showing functional blocks of the front-
As shown in FIG. 3, the front-
制御部2110は、CPUやDRAM、プログラムデータや各種データを記憶したHDDやNANDメモリ等の記憶媒体、Ethernet(登録商標)等のハードウェアで構成される。そして、制御部2110は、フロントエンドサーバ230の各機能ブロック及びフロントエンドサーバ230のシステム全体の制御を行う。また、制御部2110は、モード制御を行って、キャリブレーション動作や撮影前の準備動作、及び撮影中動作等の動作モードを切り替える。また、制御部2110は、ネットワークを介して制御ステーション310からの制御指示を受信し、各モードの切り替えやデータの入出力等を行う。また制御部2110は、ネットワークを通じて制御ステーション310からスタジアムCADデータを取得し、そのスタジアムCADデータをCADデータ記憶部2135と非撮影データファイル生成部2185に送信する。
The
データ入力制御部2120は、ネットワークとスイッチングハブ180を介して、カメラアダプタ120と接続されている。そして、データ入力制御部2120は、カメラアダプタ120から前述した前景画像、背景画像、前述したオブジェクト等の被写体の三次元モデル、音声データ、及びカメラ露出情報を取得する。また、データ入力制御部2120は、取得した前景画像及び背景画像をデータ同期部2130に送信し、カメラキャリブレーション撮影画像データをキャリブレーション部2140に送信する。また、データ入力制御部2120は、受信したデータの圧縮伸張やデータルーティング処理等を行う機能を有する。ここで、制御部2110とデータ入力制御部2120は共に、Ethernet(登録商標)等のネットワークによる通信機能を有しているが、通信機能はこれらで共有されていてもよい。その場合、制御ステーション310からの制御コマンドによる指示やスタジアムCADデータをデータ入力制御部2120が受けて、制御部2110に対して送る方法を用いてもよい。
The data
データ同期部2130は、カメラアダプタ120から取得されたデータを不図示のDRAM上に一次的に記憶し、前景画像、背景画像、音声データ、三次元モデルデータ、及びカメラ露出情報が揃うまでバッファリングする。なお、前景画像、背景画像、音声データ、三次元モデルデータ、及びカメラ露出情報をまとめて、以下の説明では撮影データと称する。撮影データには、ルーティング情報やタイムコード情報(時間情報)、カメラ識別子等のメタ情報が付与されており、データ同期部2130は、このメタ情報を元にデータの属性を確認する。これにより、データ同期部2130は、同一時刻のデータであることなどを判断してデータが揃ったことを確認する。データが揃ったら、データ同期部2130は、前景画像及び背景画像を画像処理部2150に、三次元モデルデータを三次元モデル結合部2160に、音声データを撮影データファイル生成部2180にそれぞれ送信する。なお、ここで揃えるデータは、後述する撮影データファイル生成部2180でファイル生成を行うために必要なデータである。
The data synchronizer 2130 temporarily stores data acquired from the
CADデータ記憶部2135は、制御部2110から受け取ったスタジアム形状を示す三次元データ(以下、スタジアム形状データと称する。)を不図示のDRAMまたはHDDやNANDメモリ等の記憶媒体に保存する。そして、CADデータ記憶部2135は、画像結合部2170に対して、スタジアム形状データの要求を受け取った際に保存されたスタジアム形状データを送信する。
The CAD
キャリブレーション部2140は、カメラ112のキャリブレーション動作を行い、キャリブレーションによって得られたカメラパラメータを、後述する非撮影データファイル生成部2185に送る。また同時に、キャリブレーション部2140は、自身の記憶領域にもカメラパラメータを保持し、その保持したカメラパラメータの情報を、後述する三次元モデル結合部2160に送信する。
The
画像処理部2150は、データ同期部2130を介して供給された前景画像と背景画像に対し、カメラ間の色や輝度値の合わせこみ、RAW画像データが入力される場合にはその現像処理、カメラのレンズ歪みの補正等の処理を行う。そして、画像処理部2150は、画像処理を行った前景画像を撮影データファイル生成部2180に、背景画像を画像結合部2170にそれぞれ送信する。
The
三次元モデル結合部2160は、データ同期部2130を介して供給された同一時刻の三次元モデルデータを、キャリブレーション部2140が生成したカメラパラメータを用いて結合する。そして、三次元モデル結合部2160は、いわゆるVisualHullと呼ばれる方法を用いて、スタジアム全体における前景画像の三次元モデルデータを生成する。三次元モデル結合部2160にて生成された三次元モデルは、撮影データファイル生成部2180に送られる。
The 3D
画像結合部2170は、画像処理部2150から背景画像を取得し、CADデータ記憶部2135からスタジアム形状データを取得し、そのスタジアム形状データの座標に対する背景画像の位置を特定する。画像結合部2170は、背景画像の各々についてスタジアム形状データの座標に対する位置が特定できると、それら背景画像を結合して一つの背景画像とする。なお、背景画像の三次元形状データの作成については、バックエンドサーバ270が実施してもよい。
The
撮影データファイル生成部2180は、データ同期部2130から音声とカメラ露出情報を、画像処理部2150から前景画像を、三次元モデル結合部2160から三次元モデルデータを、画像結合部2170から三次元形状に結合された背景画像を、取得する。そして、撮影データファイル生成部2180は、それら取得したデータをDBアクセス制御部2190に対して出力する。ここで、撮影データファイル生成部2180は、これらのデータをそれぞれの時間情報に基づいて対応付けて出力する。なお、撮影データファイル生成部2180は、これらのデータの一部を対応付けて出力してもよい。例えば、撮影データファイル生成部2180は、前景画像と背景画像とを、前景画像の時間情報及び背景画像の時間情報に基づいて対応付けて出力する。なお、カメラアダプタ120が出力した背景画像のフレームレートは前景画像のフレームレートより低いため、ある時刻においては背景画像が存在しない場合がある。この場合、撮影データファイル生成部2180は、背景画像の対応付けは行わない。また、撮影データファイル生成部2180は、前景画像、背景画像、及び三次元モデルデータを、前景画像の時間情報、背景画像の時間情報、及び三次元モデルデータの時間情報に基づいて対応付けて出力する。なお、撮影データファイル生成部2180は、対応付けられたデータをデータの種類別にファイル化して出力してもよいし、複数種類のデータを時間情報が示す時刻ごとにまとめてファイル化して出力してもよい。そして、このようにして対応付けられた撮影データが、DBアクセス制御部2190を介してデータベース250に出力される。これにより、バックエンドサーバ270は、時刻情報が対応した前景画像と背景画像とから仮想視点画像を生成可能となる。
The shooting data file
非撮影データファイル生成部2185は、キャリブレーション部2140からカメラパラメータ、制御部2110からスタジアム形状データを取得し、ファイル形式に応じて成形した後にDBアクセス制御部2190に送信する。なお、非撮影データファイル生成部2185は、入力されるデータであるカメラパラメータ又はスタジアム形状データを、個別にファイル形式に応じて成形する。すなわち、非撮影データファイル生成部2185は、カメラパラメータとスタジアム形状データのどちらか一方のデータを受信した場合、それらを個別にDBアクセス制御部2190に送信する。
The non-photographed data file
DBアクセス制御部2190は、いわゆるInfiniBand等により高速な通信が可能となるようにデータベース250と接続される。そして、DBアクセス制御部2190は、撮影データファイル生成部2180と非撮影データファイル生成部2185から受信したデータを、データベース250に対して送信する。本実施形態の場合、撮影データファイル生成部2180が時刻情報に基づいて対応付けた撮影データは、DBアクセス制御部2190を介して、データベース250へ出力される。
The DB
なお、本実施形態では、フロントエンドサーバ230が前景画像と背景画像の対応付けを行うものとするが、これに限らず、データベース250が対応付けを行ってもよい。この場合、データベース250は、フロントエンドサーバ230から、時刻情報を有する前景画像及び背景画像を取得する。そして、データベース250は、前景画像と背景画像とを前景画像の時刻情報及び背景画像の時刻情報に基づいて対応付けて、データベース250が備える記憶部に出力してもよい。
In the present embodiment, the front-
図4は、本実施形態のバックエンドサーバ270の機能ブロックを示した図である。
図4に示すように、バックエンドサーバ270は、データ受信部3001、前景の処理のための、前景テクスチャ決定部3003、テクスチャ境界色合わせ部3004、仮想視点前景画像生成部3005を有する。また、バックエンドサーバ270は、背景テクスチャ貼り付け部3002、レンダリングモード管理部3014、レンダリング部3006を有する。さらに、バックエンドサーバ270は、仮想視点音声生成部3007、合成部3008、画像出力部3009を有する。また、バックエンドサーバ270は、前景のデータの読出しのために、前景オブジェクト決定部3010、要求リスト生成部3011、要求データ出力部3012を有する。加えて、バックエンドサーバ270は、前景画像カメラ露出情報取得部3015、背景画像カメラ露出情報取得部3016、カメラ露出情報比較部3017、背景画像取得判定部3018、背景画像要求部3019を有する。
FIG. 4 is a diagram illustrating functional blocks of the back-
As shown in FIG. 4, the back-
データ受信部3001は、データベース250及びコントローラ300から送信されるデータを受信する。また、データ受信部3001は、データベース250から、スタジアム形状データ、前景画像、背景画像、前景画像の三次元モデル(以降、前景三次元モデルと称する)、及び音声を受信する。さらに、データ受信部3001は、受信した前景画像及び背景画像に関連づけられたカメラ露出情報をもデータベース250から受信する。
The
また、データ受信部3001は、コントローラ300から、仮想視点画像の生成に係る視点を指定する仮想カメラパラメータを受信する。仮想カメラパラメータは、仮想視点の位置や姿勢等を表すデータであり、例えば外部パラメータの行列と内部パラメータの行列が用いられる。なお、データ受信部3001がコントローラ300から取得するデータは、仮想カメラパラメータに限らない。コントローラ300から出力される情報は、視点の指定方法、コントローラ300が動作させているアプリケーションを特定する情報、コントローラ300の識別情報、コントローラ300を使用するユーザの識別情報の、少なくとも何れかを含んでいてもよい。また、データ受信部3001は、コントローラ300から出力される上記の情報と同様の情報を、エンドユーザ端末190から取得してもよい。さらに、データ受信部3001は、データベース250やコントローラ300等の装置から、複数のカメラ112に関する情報を取得してもよい。複数のカメラ112に関する情報は、例えば、複数のカメラ112の数に関する情報や複数のカメラ112の動作状態に関する情報等である。カメラ112の動作状態には、例えば、カメラ112の正常状態、故障状態、待機状態、起動状態、及び再起動状態の少なくとも何れかが含まれる。
The
背景テクスチャ貼り付け部3002は、背景メッシュモデル管理部3013から背景メッシュモデル(スタジアム形状データ)を取得する。背景テクスチャ貼り付け部3002は、背景メッシュモデルで示される三次元空間形状に対して、データベース250から取得した背景画像をテクスチャとして貼り付けることでテクスチャ付き背景メッシュモデルを生成する。メッシュモデルとは、例えばCADデータ等の三次元の空間形状を面の集合で表現したデータのことである。テクスチャとは、物体の表面の質感を表現するために貼り付ける画像のことである。ただし、データ受信部3001がデータベース250より受信するデータの中に、背景メッシュモデル及び背景画像が存在しない場合がある。この場合、背景テクスチャ貼り付け部3002は、直前にデータベース250より受信した背景メッシュモデル及び背景画像を用いてテクスチャ付き背景メッシュモデルを生成する。
The background
前景テクスチャ決定部3003は、前景画像及び前景三次元モデル群より前景三次元モデルのテクスチャ情報を決定する。
前景テクスチャ境界色合わせ部3004は、各前景三次元モデルのテクスチャ情報と各三次元モデル群からテクスチャの境界の色合わせを行い、前景オブジェクト毎に色付き前景三次元モデル群を生成する。
仮想視点前景画像生成部3005は、仮想カメラパラメータに基づいて、前景画像群を仮想視点からの見た目となるように透視変換する。
The foreground
The foreground texture boundary
The virtual viewpoint foreground
レンダリング部3006は、レンダリングモード管理部3014で決定された、仮想視点画像の生成に用いられる方式に基づいて、背景画像と前景画像をレンダリングして全景の仮想視点画像を生成する。なお、仮想視点画像の生成方式の一例としては、モデルベースレンダリング(Model−Based Rendering:MBR)やイメージベース(Image−Based Rendering:IBR)がある。
The
レンダリングモード管理部3014は、複数のレンダリングモードの中から使用するレンダリングモードを決定する。この決定は、データ受信部3001が取得した情報に基づいて行われる。本実施形態では、複数のレンダリングモードを要求に応じて切り替え可能な構成にすることで、柔軟にシステムを構成することが可能になり、本実施形態の画像処理システム100をスタジアム以外の被写体にも適用可能となる。なお、レンダリングモード管理部3014が保持するレンダリングモードは、システムに予め設定された方式であってもよい。
The rendering
仮想視点音声生成部3007は、仮想カメラパラメータに基づいて、仮想視点において聞こえる音声(音声群)を生成する。
合成部3008は、レンダリング部3006で生成された画像群と仮想視点音声生成部3007で生成された音声とを合成して仮想視点コンテンツを生成する。なお、バックエンドサーバ270は、レンダリング部3006で生成された、音声を含まない仮想視点画像を出力してもよい。
画像出力部3009は、合成部3008にて生成された仮想視点コンテンツを、ネットワークを介してコントローラ300とエンドユーザ端末190へ出力する。ただし、外部への伝送には、Ethernet(登録商標)等のネットワークに限定されるものではなく、SDI、DisplayPort、HDMI(登録商標)等の信号伝送路が用いられてもよい。
The virtual viewpoint
The
The
前景オブジェクト決定部3010は、仮想カメラパラメータと前景三次元モデルに含まれる前景オブジェクトの空間上の位置を示す前景オブジェクトの位置情報から、表示される前景オブジェクト群を決定して、前景オブジェクトリストを出力する。つまり、前景オブジェクト決定部3010は、仮想視点の画像情報を物理的なカメラ112にマッピングする処理を実施する。この仮想視点は、レンダリングモード管理部3014で決定されるレンダリングモードに応じてマッピング結果が異なる。そのため、前景オブジェクト決定部3010は、複数の前景オブジェクトを決定する制御部を備えており、その制御部がレンダリングモードと連動して制御を行うようになされている。
The foreground
要求リスト生成部3011は、指定時間の前景オブジェクトリストに対応する前景画像群と前景三次元モデル群、及び背景画像と音声データを、データベース250に要求するための、要求リストを生成する。前景オブジェクトについては仮想視点を考慮して選択されたデータがデータベース250に要求されるが、背景画像と音声データについてはそのフレームに関する全てのデータが要求される。バックエンドサーバ270の起動後、背景メッシュモデルが取得されるまで背景メッシュモデルの要求リストが生成される。また、要求リストには、要求する前景画像群及び背景画像に関連付けられたカメラ露出情報も含まれる。
The request
要求データ出力部3012は、入力された要求リストを基に、データベース250に対してデータ要求のコマンドを出力する。
背景メッシュモデル管理部3013は、データベース250から受信した背景メッシュモデルを記憶する。
前景画像カメラ露出情報取得部3015は、データベース250から取得する前景画像群に関連付けられたカメラ露出情報を全て取得する。
背景画像カメラ露出情報取得部3016は、データベース250から取得した背景画像に関連付けられたカメラ露出情報を取得する。
The request
The background mesh
The foreground image camera exposure
The background image camera exposure
カメラ露出情報比較部3017は、前景画像カメラ露出情報取得部3015が取得した全てのカメラ露出情報と、背景画像カメラ露出情報取得部3016が取得したカメラ露出情報とを比較する。本実施形態の場合、カメラ露出情報比較部3017は、背景画像のカメラ露出情報が、前景画像群のカメラ露出情報と一致しているかの観点で比較を行う。カメラ露出情報比較部3017は、先ず、取得した前景画像群のカメラ露出情報について、各前景画像のカメラ露出情報のEV値が同一値であるかを確認する。次に、カメラ露出情報比較部3017は、前景画像群のカメラ露出情報のうち異なる数値が複数存在する場合には、露出情報ごとの数が最も多いカメラ露出情報のEV値を、前景画像のカメラ露出情報とする。そして、カメラ露出情報比較部3017は、前記前景画像のカメラ露出情報のEV値と、背景画像カメラ露出情報取得部3016が取得した背景画像のカメラ露出情報のEV値との差分を算出し、差分値を背景画像取得判定部3018に出力する。なお、本実施形態では、前景画像と背景画像のEV値の差分を比較結果としたが、一致または不一致を示すフラグであってもよい。
The camera exposure
背景画像取得判定部3018は、カメラ露出情報比較部3017による比較結果に応じて背景画像の再取得の指示を生成して出力する。例えば比較結果が前景画像と背景画像のカメラ露出情報の一致を示す場合、背景画像取得判定部3018は、背景テクスチャ貼り付け部3002に対し、生成したテクスチャ付き背景メッシュモデルをレンダリング部3006に出力するよう指示する。一方、例えば、比較結果が前景画像と背景画像のカメラ露出情報の不一致を示す場合、背景画像取得判定部3018は、背景画像要求部3019に対して、背景画像の再取得を指示する。その際、背景画像取得判定部3018は、カメラ露出情報比較部3017より前景画像のカメラ露出情報も取得し、背景画像要求部3019に出力する。
The background image
背景画像要求部3019は、背景画像取得判定部3018からの指示に応じて、前景画像のカメラ露出情報と一致したカメラ露出情報を持つ背景画像を要求するコマンドを、データベース250に出力する。本実施形態の場合、データベース250に要求する背景画像は、仮想視点画像の生成に使用可能な背景画像の中で、前景画像のカメラ露出情報と一致したカメラ露出情報を持つ背景画像である。具体的には、データベース250に要求する背景画像は、データ受信部3001が直前に取得した背景画像における撮影時刻より後の時刻であって、且つ最も近い撮影時刻の背景画像とする。この結果、前景画像のカメラ露出情報と同一のカメラ露出情報を持つ背景画像データが、背景テクスチャ貼り付け03002に入力されることになる。
In response to an instruction from the background image
なお、本実施形態では、バックエンドサーバ270が仮想視点画像の生成方式の決定と仮想視点画像の生成の両方を行う場合を中心に説明するが、これには限らない。すなわち、生成方式を決定した装置はその決定結果に応じたデータを出力すればよい。例えば、フロントエンドサーバ230が、複数のカメラ112に関する情報や仮想視点画像の生成に係る視点を指定する装置から出力される情報等に基づいて、仮想視点画像の生成に用いられる生成方式を決定してもよい。そして、フロントエンドサーバ230は、カメラ112による撮影に基づく画像データと決定された生成方式を示す情報とを、データベース250等の記憶装置とバックエンドサーバ270等の画像生成装置の少なくとも何れかに出力してもよい。この場合、例えばフロントエンドサーバ230が出力した生成方式を示す情報に基づいて、バックエンドサーバ270が仮想視点画像を生成する。このようにフロントエンドサーバ230が生成方式を決定することで、決定された方式とは別の方式での画像生成のためのデータを、データベース250やバックエンドサーバ270が処理することによる処理負荷を低減できる。一方、本実施形態のように、バックエンドサーバ270が生成方式を決定する場合、データベース250は、複数の生成方式に対応可能なデータを保持するため、複数の生成方式それぞれに対応する複数の仮想視点画像の生成が可能となる。
In this embodiment, the case where the back-
次に、本実施形態における仮想視点画像生成方法について、図5を用いて説明する。
図5は、オペレータ(ユーザ)により仮想カメラ操作UI330の操作が行われてから、仮想視点画像が生成されてエンドユーザ端末190に表示されるまでの、仮想カメラ操作UI330、バックエンドサーバ270及びデータベース250の処理フローである。
Next, a virtual viewpoint image generation method according to this embodiment will be described with reference to FIG.
FIG. 5 illustrates the virtual
先ず、図5のS3300において、仮想カメラ操作UI330は、オペレータ(ユーザ)から仮想カメラを操作するための入力を取得する。仮想カメラ操作UI330への入力装置としては、ジョイスティック、ジョグダイヤル、タッチパネル、キーボード、及びマウス等が用いられるとする。ここでは、オペレータによる仮想カメラの操作として、例えば仮想カメラの位置や姿勢、ズーム倍率等の操作指示が入力されたとする。オペレータから仮想カメラの操作指示が入力されると、仮想カメラ操作UI330は、S3301において、その操作指示に応じた仮想カメラパラメータを導出(算出)する。この場合の仮想カメラパラメータには、仮想カメラの位置と姿勢等を示す外部パラメータ、及び仮想カメラのズーム倍率等を示す内部パラメータが含まれる。そして、仮想カメラ操作UI330は、S3302において、導出した仮想カメラパラメータを、バックエンドサーバ270に送信する。
First, in S3300 of FIG. 5, the virtual
バックエンドサーバ270は、仮想カメラパラメータを受信すると、S3303において、データベース250に対して前景三次元モデル群を要求する。データベース250は、S3304において、バックエンドサーバ270からの要求に応じて前景オブジェクトの位置情報を含む前景三次元モデル群をバックエンドサーバ270に送信する。これにより、バックエンドサーバ270は、S3305において、仮想カメラパラメータと前景三次元モデルに含まれる前景オブジェクトの位置情報に基づいて、仮想カメラの視野に入る前景オブジェクト群を幾何学的に導出(算出)する。そして、バックエンドサーバ270は、S3306において、前景オブジェクト群を要求するリクエストを、データベース250に送信する。
When receiving the virtual camera parameter, the back-
データベース250は、バックエンドサーバ270からリクエストを受信すると、S3307において、そのリクエストに応じたデータを読み出してバックエンドサーバ270に送信する。バックエンドサーバ270は、データベース250からデータを受信すると、S3308において、前景オブジェクト群の前景画像に関連付けられた全てのカメラ露出情報から前景画像のカメラ露出情報のEV値を算出する。さらに、バックエンドサーバ270は、その算出したEV値と、受信した背景画像のカメラ露出情報EV値とが一致しているか否かの比較を行う。なお、バックエンドサーバ270は、仮想視点画像の生成に用いる複数の前景画像の平均EV値を前景画像のカメラ露出情報EV値とし、仮想視点画像の生成に用いる複数の背景画像の平均EV値を背景画像のカメラ露出情報EV値としてもよい。なお、バックエンドサーバ270は、前景画像のカメラ露出情報のEV値と、背景画像のカメラ露出情報EV値との差が所定の閾値より小さいか否かを判定するようにしてもよい。そして、バックエンドサーバ270は、前景画像と背景画像のカメラ露出情報(EV値)が不一致の場合、S3309において、前景画像と同じカメラ露出情報が関連付けられた背景画像の送信を、データベース250にリクエストする。なお、バックエンドサーバ270は、仮想視点画像の生成に用いる複数の前景画像を取得し、取得した前景画像に基づいて定めたEV値を有する背景画像をデータベース250にリクエストするようにしてもよい。
Upon receiving a request from the
データベース250は、バックエンドサーバ270からのリクエストを受信すると、S3310において、そのリクエストに応じて、前景画像と同じカメラ露出情報が関連付けられた背景画像のデータを読み出して、バックエンドサーバ270に送信する。バックエンドサーバ270は、S3311において、データベース250から受信した前景画像、前景三次元モデル及び背景画像を基に仮想視点の前景画像及び背景画像を生成し、それらを合成して仮想視点の全景画像を生成する。また、バックエンドサーバ270は、S3311において、音声データ群に基づいて仮想カメラの位置に応じた音声データの合成を行い、仮想視点の全景画像と統合して仮想視点の画像及び音声を生成する。そして、バックエンドサーバ270は、その生成した仮想視点の画像及び音声を、S3312において、仮想カメラ操作UI330に送信する。仮想カメラ操作UI330は、受信した画像を例えばエンドユーザ端末190に表示等させることで、仮想カメラの撮影画像の表示等を実現する。
Upon receiving the request from the back-
以上、前景画像と背景画像とを異なるフレームレートで出力する第1の実施形態の画像処理システム100において、撮影時の撮影パラメータ変更等によって前景画像と背景画像とでカメラ露出情報が異なった際の仮想視点画像の生成方法について説明した。
本実施形態の画像処理システム100においては、仮想視点画像生成に使用される前景画像と背景画像のカメラ露出情報を一致させることができる。これにより、本実施形態の画像処理システム100によれば、複数のカメラ112にて撮像された画像データを基に仮想視点画像を生成する場合に、カメラ露出情報の一致する前景画像と背景画像を用いて仮想視点画像を生成できる。すなわち、本実施形態によれば、輝度が不連続になるような不自然さのない自然な仮想視点画像の生成が可能となる。なお、バックエンドサーバ270は、前景画像と背景画像とでカメラ露出情報が異なる場合、背景画像を優先し、背景画像が撮影された際の露出で撮影された前景画像を仮想視点画像の生成に用いる構成としてもよい。
As described above, in the
In the
<第2の実施形態>
以下、第2の実施形態として、撮影時の撮影パラメータ変更等によって仮想視点画像の生成に用いる前景画像と背景画像の露出情報が異なった場合に、背景画像の画質を前景画像に適するように調整して、仮想視点画像を生成する方法について説明する。
<Second Embodiment>
Hereinafter, as the second embodiment, when the exposure information of the foreground image and the background image used for generating the virtual viewpoint image is different due to the shooting parameter change at the time of shooting or the like, the image quality of the background image is adjusted to be suitable for the foreground image. A method for generating a virtual viewpoint image will be described.
第2の実施形態における画像処理システム100の概略構成は前述した第1の実施形態と同様である。センサシステム110、スイッチングハブ180、エンドユーザ端末190、フロントエンドサーバ230、データベース250、タイムサーバ290、制御ステーション310、仮想カメラ操作UI330は前述同様であるためその説明は省略する。
The schematic configuration of the
図6は、第2の実施形態におけるバックエンドサーバ270の機能ブロックを示した図である。第2の実施形態のバックエンドサーバ270は、図4に示したバックエンドサーバ270のカメラ露出情報比較部3017、背景画像取得判定部3018、及び背景画像要求部3019を備えず、一方、背景画像画質補正部3020を備えている。なお、図6のデータ受信部3001〜背景画像カメラ露出情報取得部3016は、概ね図4に示したデータ受信部3001〜背景画像カメラ露出情報取得部3016と同様の構成であるためそれらの説明は省略する。
FIG. 6 is a diagram illustrating functional blocks of the back-
背景画像画質補正部3020は、前景画像及び背景画像のカメラ露出情報に基づき、背景画像の画質を補正する。このため、背景画像画質補正部3020は、先ず、前景画像カメラ露出情報取得部3015が取得した全てのカメラ露出情報と、背景画像カメラ露出情報取得部3016が取得したカメラ露出情報とを取得する。なお、第2の実施形態においても第1の実施形態と同様に、前景画像群のカメラ露出情報のうち異なる数値が存在する場合、それら複数ある前景画像のカメラ露出情報のうち最も多数のカメラ露出情報のEV値が、前景画像のカメラ露出情報となされる。そして、背景画像画質補正部3020は、データベース250からデータ受信部3001を介して供給される背景画像の画質を、それら前景画像及び背景画像のカメラ露出情報を基に補正する。具体的には、前景画像のカメラ露出情報をEVf、背景画像のカメラ露出情報をEVb、背景画像データをBPとして表した場合、背景画像画質補正部3020は、下記式(2)演算により、補正後の背景画像データBPcを算出する。
BPc=BP*2(EVf-EVb) 式(2)
The background image image
BPc = BP * 2 (EVf-EVb) formula (2)
第2の実施形態の場合、背景画像画質補正部3020により画質補正がなされた後の背景画像(BPc)は、背景テクスチャ貼り付け部3002に出力される。第2の実施形態の場合、背景テクスチャ貼り付け部3002は、画質補正後の背景画像を三次元空間形状に貼り付けて、テクスチャ付き背景メッシュモデルを生成する。
In the case of the second embodiment, the background image (BPc) after the image quality correction by the background image image
第2の実施形態のバックエンドサーバ270は、前景画像のカメラ露出情報と背景画像のカメラ露出情報が異なる場合、前景画像のカメラ露出情報に基づいて背景画像の画質補正を行うことで、不自然さのない仮想視点画像を得ることができる。また、バックエンドサーバ270は、前景画像のカメラ露出情報に基づいて背景画像の画像処理を行うことで前景画像の明るさや色味と背景画像の明るさや色味とを対応させることができる。したがって、このような前景画像および背景画像を用いて仮想視点画像を生成するので不自然さのない仮想視点画像を得ることができる。
When the camera exposure information of the foreground image and the camera exposure information of the background image are different from each other, the back-
なお、第2の実施形態の場合、背景画像画質補正部3020による背景画像の補正処理は、バックエンドサーバ270が前景画像及び背景画像をデータベース250より取得する度に実行されるが、この例に限定されるものではない。例えば、背景画像画質補正部3020は、前景画像のカメラ露出情報と背景画像のカメラ露出情報とを比較し、これら二つのカメラ露出情報が不一致である場合にのみ背景画像データの補正を行うようにしてもよい。
In the case of the second embodiment, the background image correction processing by the background image image
また、本実施形態のバックエンドサーバ270は、前景画像群のカメラ露出情報のうち異なる数値が存在する場合、最も多数のカメラ露出情報のEV値を前景画像のカメラ露出情報とし、それ以外のEV値を持つ前景画像を背景画像と同様に補正してもよい。これにより、カメラ間でも露出が異なる場合、前景画像と背景画像の輝度の不一致を簡単に調整することができる。なお、バックエンドサーバ270は、前景画像と背景画像とでカメラ露出情報が異なる場合、前景画像を背景画像に対応させるために画像処理し、前景画像の色調や明るさを補正する構成としてもよい。
Further, when there are different values among the camera exposure information of the foreground image group, the back-
<第3の実施形態>
前述した実施形態では、前景画像のカメラ露出情報と背景画像のカメラ露出情報が一致しなくなった時点で、適切な背景画像を再取得(第1の実施形態)、または背景画像の画質補正(第2の実施形態)を行い、前景画像と背景画像の輝度の不一致を解消している。しかしながら、例えば前景画像のカメラ露出情報が或る時刻を挟んだ前後で急激に変更された場合、生成された仮想視点画像は、時間方向で輝度が不連続になった不自然な映像になってしまう虞がある。
<Third Embodiment>
In the above-described embodiment, when the camera exposure information of the foreground image and the camera exposure information of the background image no longer match, an appropriate background image is reacquired (first embodiment), or the image quality of the background image is corrected (first image). Embodiment 2) is performed, and the brightness mismatch between the foreground image and the background image is eliminated. However, for example, when the camera exposure information of the foreground image is changed abruptly before and after a certain time, the generated virtual viewpoint image becomes an unnatural image with luminance discontinuity in the time direction. There is a risk of it.
そこで、第3の実施形態では、前景画像のカメラ露出情報が或る時刻を挟んで急激に変更された場合でも、時間方向で輝度が不連続になることなのない自然な仮想視点画像を生成可能にする処理について説明する。
第3の実施形態における画像処理システム100の概略構成は前述した第1の実施形態と同様である。センサシステム110、スイッチングハブ180、エンドユーザ端末190、フロントエンドサーバ230、データベース250、タイムサーバ290、制御ステーション310、仮想カメラ操作UI330は前述同様であるためその説明は省略する。
Therefore, in the third embodiment, even when the camera exposure information of the foreground image is abruptly changed at a certain time, it is possible to generate a natural virtual viewpoint image in which the luminance does not become discontinuous in the time direction. The process of making will be described.
The schematic configuration of the
図7は、第3の実施形態におけるバックエンドサーバ270の機能ブロックを示した図である。第3の実施形態のバックエンドサーバ270は、図4のバックエンドサーバ270のカメラ露出情報比較部3017、背景画像取得判定部3018、背景画像要求部3019を備えず、一方、背景画像画質補正部3020と時刻情報要求部3021を有する。なお、図7のデータ受信部3001〜背景画像カメラ露出情報取得部3016は、概ね図4に示したデータ受信部3001〜背景画像カメラ露出情報取得部3016と同様の構成であるためそれらの説明は省略する。
FIG. 7 is a diagram illustrating functional blocks of the back-
時刻情報要求部3021は、バックエンドサーバ270が取得した前景画像及び背景画像の時刻情報、さらに、前景画像のカメラ露出情報と同じ値が関連付けられた背景画像の時刻情報をデータベース250に要求する。
The time
背景画像画質補正部3020は、前景画像及び背景画像のカメラ露出情報と、データベース250から取得した時刻情報とを用いて、仮想視点画像を生成したいフレームの時刻に適した背景画像のカメラ露出情報を算出し、背景画像の画質補正を行う。
The background image
以下、第3の実施形態における背景画像の画質補正処理について、図8を用いて詳細に説明する。
図8において、仮想視点画像を生成したいフレームの時刻をtx、背景画像がデータベース250に存在する時刻をt1、t2(t1<t2)とする。また、露出変更は時刻txの直前で行われており、露出変更以前のカメラ露出情報はEVα、露出変更後のカメラ露出情報はEVβとする。
Hereinafter, the image quality correction processing of the background image in the third embodiment will be described in detail with reference to FIG.
In FIG. 8, the time of the frame for which the virtual viewpoint image is to be generated is tx, and the time when the background image exists in the
先ず、前景画像カメラ露出情報取得部3015は前景画像のカメラ露出情報を取得し、背景画像カメラ露出情報取得部3016は背景画像のカメラ露出情報を取得する。ここで、時刻tx時点ではその直前に露出変更が行われているため、前景画像カメラ露出情報取得部3015が取得している前景画像のカメラ露出情報はEVβとなる。一方、背景画像には対応するデータが存在しないため、背景画像カメラ露出情報取得部3016が取得する背景画像のカメラ露出情報は、バックエンドサーバ270が直前に取得した背景画像のカメラ露出情報であるEVαとなる。
First, the foreground image camera exposure
次に、時刻情報要求部3021は、バックエンドサーバ270が直前に取得した背景画像の時刻情報、及び、前景画像のカメラ露出情報EVβと同じ値をもつ背景画像が存在する時刻情報を、データベース250に要求する。
Next, the time
データベース250は、時刻情報要求部3021の要求に応じて所定の時刻情報をバックエンドサーバ270に出力する。なお、バックエンドサーバ270が直前に取得した背景画像の時刻情報はt1、前景画像のカメラ露出情報EVβと同じ値をもつ背景画像が存在する時刻情報はt2である。
The
バックエンドサーバ270が時刻情報をデータベース250より取得すると、背景画像画質補正部3020は、前景画像カメラ露出情報取得部3015と背景画像カメラ露出情報取得部3016とから、それぞれカメラ露出情報を取得する。第3の実施形態においても第1、第2の実施形態と同様に、前景画像群のカメラ露出情報のうち異なる数値が存在する場合には、最も多数のカメラ露出情報のEV値が前景画像のカメラ露出情報となされる。
When the back-
第3の実施形態の場合、背景画像画質補正部3020は、下記式(3)の演算により、仮想視点画像を生成するフレーム時刻txのカメラ露出情報EVxを算出する。
EVx=EVβ*(tx−t1)/(t2−t1)+EVα*(t2−tx)/(t2−t1) 式(3)
In the case of the third embodiment, the background image
EVx = EVβ * (tx−t1) / (t2−t1) + EVα * (t2−tx) / (t2−t1) Equation (3)
さらに、背景画像画質補正部3020は、下記式(4)の演算を行い、背景画像データの補正を行う。なお、式(4)のBPは補正前の背景画像データ、BPcは補正後の背景画像データを表している。
BPc=BP*2(EVx-EVα) 式(4)
Further, the background image image
BPc = BP * 2 (EVx-EVα ) Formula (4)
そして、背景画像画質補正部3020は、画質補正した背景画像を背景テクスチャ貼り付け部3002に出力する。背景テクスチャ貼り付け部3002は、画質補正後の背景画像を三次元空間形状に貼り付けて、テクスチャ付き背景メッシュモデルを生成する。
Then, the background image
以上説明したように、第3の実施形態のバックエンドサーバ270は、前景画像のカメラ露出情報と背景画像のカメラ露出情報が異なる場合、前景画像及び背景画像のカメラ露出情報と時刻情報に基づいて、背景画像の画質補正を行う。これにより、第3の実施形態によれば、時間方向においても輝度が不連続になることのない自然な仮想視点画像を生成することができる。
As described above, the back-
<第4の実施形態>
前述の実施形態では、仮想視点画像生成時に前景画像と背景画像のカメラ露出情報が不一致の場合に、適切な背景画像を再取得(第1の実施形態)、または背景画像の画質補正(第2、第3の実施形態)行って前景画像と背景画像の輝度の不一致を解消している。
第4の実施形態では、データベース250に撮影データを格納する前に、前景画像と背景画像のカメラ露出情報の不一致を検出して、輝度の不一致を解消した背景画像を生成する処理について説明する。
第4の実施形態における画像処理システム100の概略構成は前述した第1の実施形態と同様である。センサシステム110、スイッチングハブ180、エンドユーザ端末190、データベース250、タイムサーバ290、制御ステーション310、仮想カメラ操作UI330は前述同様であるためその説明は省略する。
<Fourth Embodiment>
In the above-described embodiment, if the camera exposure information of the foreground image and the background image does not match when the virtual viewpoint image is generated, an appropriate background image is reacquired (first embodiment), or the image quality of the background image is corrected (the second image). In the third embodiment, the brightness mismatch between the foreground image and the background image is eliminated.
In the fourth embodiment, a process of detecting a mismatch between camera exposure information of a foreground image and a background image before storing shooting data in the
The schematic configuration of the
図9は、第4の実施形態におけるフロントエンドサーバ230の機能ブロックを示した図である。第4の実施形態のフロントエンドサーバ230は、図3に示したフロントエンドサーバ230にカメラ露出情報比較部2200が加えられた構成となされている。なお、図9のデータ入力制御部2120〜DBアクセス制御部2190は、概ね図3に示したデータ入力制御部2120〜DBアクセス制御部2190と同様の構成であるためそれらの説明は省略する。
FIG. 9 is a functional block diagram of the front-
フロントエンドサーバ230のデータ同期部2130は、第1の実施形態と同様に、同一時刻の撮影データを揃うまでデータをバッファする。データ同期部2130は、撮影データが揃うと、前景画像及び背景画像を画像処理部2150に、三次元モデルデータを三次元モデル結合部2160に、音声データを撮影データファイル生成部2180にそれぞれ送信する。また、データ同期部2130は、カメラ露出情報をカメラ露出情報比較部2200に出力する。
Similar to the first embodiment, the
カメラ露出情報比較部2200は、データ同期部2130から、全てのセンサシステム110の前景画像及び背景画像のカメラ露出情報を取得する。先ず、カメラ露出情報比較部2200は、複数ある前景画像のカメラ露出情報のうち異なる数値が存在する場合には、最も多数のカメラ露出情報のEV値を前景画像のカメラ露出情報とする。次に、カメラ露出情報比較部2200は、全ての背景画像のカメラ露出情報について、前景画像のカメラ露出情報との比較を行う。第4の実施形態において、カメラ露出情報比較部2200は、前景画像のカメラ露出情報のEV値と、各センサシステム110の背景画像のEV値との差分を算出し、それら差分値をカメラ識別子と一緒に画像処理部2150へ出力する。
The camera exposure
第4の実施形態における画像処理部2150は、第1の実施形態と同様に、前景画像及び背景画像のRAW画像データが入力される場合にはその現像処理、及び、カメラのレンズ歪みの補正等の処理を行う。そして、画像処理部2150は、カメラ露出情報比較部2200から入力されたEV値の差分値及びカメラ識別子を基に、前景画像のカメラ露出情報の値とは異なる値をもつ背景画像の画質を補正する。背景画像の画質の補正の際には、第2の実施形態の式(2)、又は第3の実施形態の式(3)、式(4)等を用いた補正処理を行う。そして、画像処理部2150は、画像処理後の前景画像を撮影データファイル生成部2180に、また、画像処理後の背景画像を画像結合部2170にそれぞれ出力する。
As in the first embodiment, the
画像結合部2170は、画像処理部2150から背景画像を取得し、CADデータ記憶部2135からスタジアムの三次元形状データ(スタジアム形状データ)を取得して、取得したスタジアム形状データの座標に対する背景画像の位置を特定する。そして、画像結合部2170は、背景画像の各々についてスタジアム形状データの座標に対する位置が特定できると、背景画像を結合して一つの背景画像とする。
The
図10は、第4の実施形態におけるバックエンドサーバ270の機能ブロックを示した図である。第4の実施形態のバックエンドサーバ270は、図4の前景画像カメラ露出情報取得部3015、背景画像カメラ露出情報取得部3016、カメラ露出情報比較部3017、背景画像取得判定部3018、背景画像要求部3019を除いた構成となされている。なお、図10のデータ受信部3001〜レンダリングモード管理部3014は、概ね図4に示したデータ受信部3001〜レンダリングモード管理部3014と同様の構成であるためそれらの説明は省略する。
FIG. 10 is a diagram illustrating functional blocks of the back-
第4の実施形態におけるバックエンドサーバ270は、前景画像及び背景画像のカメラ露出情報を取得してカメラ露出情報の比較処理を行う必要がない。したがって、バックエンドサーバ270は、仮想カメラ操作UI330を介して指定された視点を基に、データベース250から対応する前景画像及び背景画像と音声データを読み出し、レンダリング処理を行って仮想視点画像を生成する。
The back-
すなわち、第4の実施形態の画像処理システム100は、前景画像のカメラ露出情報と背景画像のカメラ露出情報が異なる場合、フロントエンドサーバ230にて背景画像の画質補正を行うことで、輝度が不連続になることにない自然な仮想視点画像を生成できる。
That is, in the
<第5の実施形態>
第5の実施形態では、センサシステム110にて背景画像の伝送タイミングを変更することで、前景画像と背景画像のカメラ露出情報の不一致解消する処理について説明する。
第5の実施形態における画像処理システム100の概略構成は前述した第1の実施形態と同様である。センサシステム110、スイッチングハブ180、エンドユーザ端末190、フロントエンドサーバ230、データベース250、タイムサーバ290、制御ステーション310、仮想カメラ操作UI330は前述同様であるためその説明は省略する。また、第5の実施形態のバックエンドサーバ270は、前述した第4の実施形態と同様の機能を備えるため、その説明も省略する。
<Fifth Embodiment>
In the fifth embodiment, description will be given of processing for eliminating the mismatch between the camera exposure information of the foreground image and the background image by changing the transmission timing of the background image in the sensor system 110.
The schematic configuration of the
以下、図2を参照して、第5の実施形態において、センサシステム110内のカメラアダプタ120で実施される、背景画像の伝送タイミング変更処理について説明する。
第5の実施形態のカメラアダプタ120のカメラ制御部6141は、カメラ112と接続され、撮影パラメータ(画素数、色深度、フレームレート、ホワイトバランスの設定等)の変更指示に応じてカメラ制御を行う。同時に、カメラ制御部6141は、撮影パラメータを変更したことをデータ送受信部6111に通知する。
Hereinafter, with reference to FIG. 2, background image transmission timing change processing performed by the
A
データ送受信部6111は、前述の第1の実施形態と同様に、前景背景分離部6131がカメラ112の撮影画像から分離した前景画像及び背景画像を、別のカメラアダプタ120に対して出力する。この時、データ送受信部6111は、カメラ112の撮影画像から分離した背景画像の一部フレームを間引きし、前景画像より低フレームレートで背景画像を出力する。ただし、データ送受信部6111は、カメラ制御部6141より撮影パラメータ変更の通知を受信すると、撮影パラメータ変更直後の背景画像の間引き処理をキャンセルし、その背景画像を別のカメラアダプタ120に対して出力する。
Similar to the first embodiment, the data transmission /
以上説明したように、第5の本実施形態の画像処理システム100では、撮影パラメータ変更直後の前景画像と背景画像が共にデータベース250に格納されることになり、バックエンドサーバ270では輝度が不連続になることのない仮想視点画像を生成できる。
As described above, in the
<第6の実施形態>
第5の実施形態では、センサシステム110にて背景画像の伝送タイミングを変更することで、前景画像と背景画像のカメラ露出情報の不一致解消する処理を例に挙げた。第6の実施形態では、カメラアダプタ120の外部より撮影パラメータ変更指示が入力された際、カメラ112に撮影パラメータを設定するタイミングを制御することで前景画像と背景画像のカメラ露出情報の不一致を解消する処理について説明する。なお、第6の実施形態の画像処理システム100の構成は、第5の実施形態の場合と同様である。
<Sixth Embodiment>
In the fifth embodiment, an example is given of processing for eliminating the mismatch between the camera exposure information of the foreground image and the background image by changing the transmission timing of the background image in the sensor system 110. In the sixth embodiment, when a shooting parameter change instruction is input from the outside of the
第6の実施形態の場合、先ず、カメラ制御部6141は、データ送受信部6111で実施される背景画像の間引きタイミングを取得しておく。そして、カメラ制御部6141は、撮影パラメータ変更指示が入力されても、前景画像及び背景画像の両方が別のカメラアダプタ120に出力されることが確定している撮影画像から、変更後の撮影パラメータが適用されるようにカメラ112を制御する。
In the case of the sixth embodiment, first, the
第6の実施形態によれば、撮影パラメータ変更直後の前景画像と背景画像が共にデータベース250に格納されることになり、バックエンドサーバ270では輝度が不連続になることのない仮想視点画像を生成できる。
According to the sixth embodiment, both the foreground image and the background image immediately after the shooting parameter change are stored in the
本発明は、上述の各実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read the program. It can also be realized by processing to be executed. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.
上述の実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。即ち、本発明は、その技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed as being limited thereto. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100:画像処理システム、110:センサシステム、112:カメラ、120:カメラアダプタ、180:スイッチングハブ、200:画像コンピューティングサーバ、230:フロントエンドサーバ、250:データベース、270:バックエンドサーバ、290:タイムサーバ、300:コントローラ、310:制御ステーション、330:仮想カメラ操作UI、190:エンドユーザ端末 100: Image processing system, 110: Sensor system, 112: Camera, 120: Camera adapter, 180: Switching hub, 200: Image computing server, 230: Front end server, 250: Database, 270: Back end server, 290: Time server, 300: Controller, 310: Control station, 330: Virtual camera operation UI, 190: End user terminal
Claims (22)
前記複数の画像のうちの何れかに基づく画像であって、所定のオブジェクトに対応する前景画像を取得する第1取得手段と、
前記第1取得手段により取得された前記前景画像が撮影された際の露出を示す露出情報を取得する第2取得手段と、
前記複数の画像のうちの何れかに基づく画像であって、前記第2取得手段により取得された露出情報に対応する露出で撮影され、前記所定のオブジェクトが含まれない背景画像を、前記第2取得手段により取得された露出情報に基づいて取得する第3取得手段と、
前記第1取得手段により取得された前記前景画像と前記第3取得手段により取得された前記背景画像とを用いて仮想視点画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 An image processing device that generates a virtual viewpoint image using a plurality of images photographed by a plurality of imaging devices,
First acquisition means for acquiring a foreground image corresponding to a predetermined object, the image being based on any of the plurality of images;
Second acquisition means for acquiring exposure information indicating exposure when the foreground image acquired by the first acquisition means is captured;
A background image that is based on any one of the plurality of images and is photographed with an exposure corresponding to the exposure information acquired by the second acquisition means and does not include the predetermined object, Third acquisition means for acquiring based on the exposure information acquired by the acquisition means;
Generating means for generating a virtual viewpoint image using the foreground image acquired by the first acquisition means and the background image acquired by the third acquisition means;
An image processing apparatus comprising:
前記第3取得手段は、前記第2取得手段により取得された前記複数の前景画像の露出情報に基づいて定めた露出で撮影された前記背景画像を取得することを特徴とする請求項1又は2に記載の画像処理装置。 The first acquisition means acquires a plurality of foreground images corresponding to the predetermined object,
The said 3rd acquisition means acquires the said background image image | photographed with the exposure defined based on the exposure information of these foreground images acquired by the said 2nd acquisition means. An image processing apparatus according to 1.
前記決定された前記前景画像の撮影時の露出情報と、前記決定された前記背景画像の撮影時の露出情報とを取得する取得手段と、
前記前景画像と前記背景画像を基に、前記仮想視点画像を生成する処理手段と、を有し、
前記処理手段は、前記決定された前記前景画像と前記背景画像との前記露出情報が異なる場合、前記決定された前景画像の露出に前記背景画像の露出を合わせる処理を行い、前記露出を合わせる処理後の前記背景画像と、前記決定された前景画像とを使用して、前記仮想視点画像を生成することを特徴とする画像処理装置。 Determining means for determining a foreground image and a background image to be used for generating a virtual viewpoint image from a plurality of foreground images and a plurality of background images obtained by separating a plurality of images captured by a plurality of imaging devices, respectively;
Acquisition means for acquiring exposure information at the time of shooting of the determined foreground image and exposure information at the time of shooting of the determined background image;
Processing means for generating the virtual viewpoint image based on the foreground image and the background image,
When the exposure information of the determined foreground image and the background image is different, the processing means performs a process of adjusting the exposure of the background image to the exposure of the determined foreground image, and a process of adjusting the exposure An image processing apparatus that generates the virtual viewpoint image using the subsequent background image and the determined foreground image.
前記決定された前景画像が複数存在し、前記複数の前景画像の露出情報が異なっている場合、前記複数の前景画像の複数の露出情報の中で、露出情報ごとの数が最も多い露出情報を前記決定された前景画像の露出情報として設定し、
前記設定した露出情報とは異なる露出情報の前景画像に対して、前記設定された露出情報の前記前景画像に画質を合わせる前記画質補正処理を行うことを特徴とする請求項6に記載の画像処理装置。 The processing means includes
When there are a plurality of the determined foreground images and the exposure information of the plurality of foreground images is different, the exposure information having the largest number for each exposure information among the plurality of exposure information of the plurality of foreground images. Set as exposure information of the determined foreground image,
The image processing according to claim 6, wherein the image quality correction process is performed on a foreground image having exposure information different from the set exposure information so as to match an image quality with the foreground image having the set exposure information. apparatus.
前記撮影された画像が分離された前景画像と背景画像とで、撮影時の露出情報が異なる場合には、前記前景画像および前記背景画像の露出情報を基に、前記背景画像に対して、前記前景画像に画質を合わせる所定の画質補正処理を行い、前記画質補正処理がなされた後の背景画像を前記保持手段に保持させる処理手段と、
前記保持手段に保持されている複数の前景画像および複数の背景画像の中から、仮想視点画像の生成に用いる前景画像および背景画像を決定する決定手段と、
前記決定された前景画像と前記背景画像とを用いて仮想視点画像を生成する生成手段と、
を有することを特徴とする画像処理装置。 Holding means for holding a plurality of foreground images and a plurality of background images obtained by respectively separating a plurality of images taken by a plurality of imaging devices;
When the foreground image and the background image from which the captured image is separated have different exposure information at the time of shooting, the exposure information of the foreground image and the background image is used for the background image. Processing means for performing a predetermined image quality correction process for matching the image quality to the foreground image, and holding the background image after the image quality correction process is performed in the holding means;
Determining means for determining a foreground image and a background image used for generating a virtual viewpoint image from among a plurality of foreground images and a plurality of background images held in the holding means;
Generating means for generating a virtual viewpoint image using the determined foreground image and the background image;
An image processing apparatus comprising:
前記制御手段から出力された前記前景画像および前記背景画像を基に、仮想視点画像を生成する処理手段と、を有し、
前記制御手段は、前記画像の撮影時に露出が変更された場合、前記背景画像に対する前記間引き処理をキャンセルすることを特徴とする画像処理装置。 Control means for separating a captured image into a foreground image and a background image, performing a thinning process on the separated background image, and outputting a frame rate of the background image as a frame rate lower than the frame rate of the foreground image; ,
Processing means for generating a virtual viewpoint image based on the foreground image and the background image output from the control means,
The image processing apparatus according to claim 1, wherein the control unit cancels the thinning-out process for the background image when an exposure is changed at the time of photographing the image.
前記制御手段から出力された前記前景画像および前記背景画像を基に、仮想視点画像を生成する処理手段と、を有し、
前記制御手段は、前記画像の撮影時の露出を変更する指示が入力された場合には、前記撮像した画像から分離された前記前景画像と背景画像の両方を出力するタイミングに合わせて、前記露出の変更を適用することを特徴とする画像処理装置。 Control means for separating a captured image into a foreground image and a background image, and outputting the foreground image and the background image at different frame rates;
Processing means for generating a virtual viewpoint image based on the foreground image and the background image output from the control means,
When an instruction to change the exposure at the time of capturing the image is input, the control unit adjusts the exposure in accordance with a timing to output both the foreground image and the background image separated from the captured image. An image processing apparatus characterized by applying the change.
前記決定された前記前景画像の撮影時の露出情報と、前記決定された前記背景画像の撮影時の露出情報とを取得する取得工程と、
前記前景画像と前記背景画像を基に、前記仮想視点画像を生成する処理工程と、を有し、
前記処理工程では、前記決定された前記前景画像と前記背景画像との前記露出情報が異なる場合、前記決定された前景画像の露出に前記背景画像の露出を合わせる処理を行い、前記露出を合わせる処理後の前記背景画像と、前記決定された前景画像とを使用して、前記仮想視点画像を生成することを特徴とする画像処理装置の画像処理方法。 A determination step of determining a foreground image and a background image used for generating a virtual viewpoint image from a plurality of foreground images and a plurality of background images obtained by separating a plurality of images captured by a plurality of imaging devices, respectively;
An acquisition step of acquiring exposure information at the time of shooting of the determined foreground image and exposure information at the time of shooting of the determined background image;
A process for generating the virtual viewpoint image based on the foreground image and the background image, and
In the processing step, if the exposure information of the determined foreground image and the background image is different, a process of adjusting the exposure of the background image to the exposure of the determined foreground image, and the process of adjusting the exposure An image processing method for an image processing apparatus, wherein the virtual viewpoint image is generated by using the background image after and the determined foreground image.
前記撮影された画像が分離された前景画像と背景画像とで、撮影時の露出情報が異なる場合には、前記前景画像および前記背景画像の露出情報を基に、前記背景画像に対して、前記前景画像に画質を合わせる所定の画質補正処理を行い、前記画質補正処理がなされた後の背景画像を前記保持工程に保持させる処理工程と、
前記保持工程にて保持されている複数の前景画像および複数の背景画像の中から、仮想視点画像の生成に用いる前景画像および背景画像を決定する決定工程と、
前記決定された前景画像と前記背景画像とを用いて仮想視点画像を生成する生成工程と、
を有することを特徴とする画像処理装置の画像処理方法。 A holding step of holding a plurality of foreground images and a plurality of background images obtained by separating a plurality of images taken by a plurality of imaging devices, respectively;
When the foreground image and the background image from which the captured image is separated have different exposure information at the time of shooting, the exposure information of the foreground image and the background image is used for the background image. Performing a predetermined image quality correction process for matching the image quality to the foreground image, and holding the background image after the image quality correction process in the holding process;
A determining step for determining a foreground image and a background image used for generating a virtual viewpoint image from a plurality of foreground images and a plurality of background images held in the holding step;
Generating a virtual viewpoint image using the determined foreground image and the background image;
An image processing method for an image processing apparatus, comprising:
前記制御工程から出力された前記前景画像および前記背景画像を基に、仮想視点画像を生成する処理工程と、を有し、
前記制御工程では、前記画像の撮影時に露出が変更された場合、前記背景画像に対する前記間引き処理をキャンセルすることを特徴とする画像処理装置の画像処理方法。 A control step of separating the captured image into a foreground image and a background image, performing a thinning process on the separated background image, and outputting the frame rate of the background image as a frame rate lower than the frame rate of the foreground image; ,
A processing step of generating a virtual viewpoint image based on the foreground image and the background image output from the control step,
An image processing method of an image processing apparatus, wherein, in the control step, the thinning process for the background image is canceled when an exposure is changed when the image is captured.
前記制御工程から出力された前記前景画像および前記背景画像を基に、仮想視点画像を生成する処理工程と、を有し、
前記制御工程では、前記画像の撮影時の露出を変更する指示が入力された場合には、前記撮像した画像から分離された前記前景画像と背景画像の両方を出力するタイミングに合わせて、前記露出の変更を適用することを特徴とする画像処理装置の画像処理方法。 A control step of separating the captured image into a foreground image and a background image and outputting the foreground image and the background image at different frame rates;
A processing step of generating a virtual viewpoint image based on the foreground image and the background image output from the control step,
In the control step, when an instruction to change the exposure at the time of capturing the image is input, the exposure is performed in accordance with a timing for outputting both the foreground image and the background image separated from the captured image. An image processing method for an image processing apparatus, characterized by applying a change of
前記撮像装置から出力された前記前景画像および背景画像と前記露出情報とを取得する請求項5から14の何れか1項に記載の画像処理装置と、
を有する画像処理システム。 An imaging device that separates a captured image into a foreground image and a background image and outputs them at different frame rates, and outputs exposure information at the time of capturing the image together with the foreground image and the background image;
The image processing device according to any one of claims 5 to 14, wherein the foreground image and the background image output from the imaging device and the exposure information are acquired.
An image processing system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115986A JP2019003325A (en) | 2017-06-13 | 2017-06-13 | Image processing system, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017115986A JP2019003325A (en) | 2017-06-13 | 2017-06-13 | Image processing system, image processing method and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019003325A true JP2019003325A (en) | 2019-01-10 |
Family
ID=65006872
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017115986A Pending JP2019003325A (en) | 2017-06-13 | 2017-06-13 | Image processing system, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019003325A (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020191598A (en) * | 2019-05-23 | 2020-11-26 | キヤノン株式会社 | Image processing system |
-
2017
- 2017-06-13 JP JP2017115986A patent/JP2019003325A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020191598A (en) * | 2019-05-23 | 2020-11-26 | キヤノン株式会社 | Image processing system |
US11935157B2 (en) | 2019-05-23 | 2024-03-19 | Canon Kabushiki Kaisha | Image processing system, image processing method, and storage medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11750792B2 (en) | Information processing apparatus, image generation method, control method, and storage medium | |
US11689706B2 (en) | Method for generating virtual viewpoint image and image processing apparatus | |
JP6894687B2 (en) | Image processing system, image processing device, control method, and program | |
JP6482498B2 (en) | Control device, control method, and program | |
JP6808357B2 (en) | Information processing device, control method, and program | |
JP6957215B2 (en) | Information processing equipment, information processing methods and programs | |
US20200329189A1 (en) | Control device, control method, and program | |
JP2018112997A (en) | Image processor, method of the same, program, and image processing system | |
US11095871B2 (en) | System that generates virtual viewpoint image, method and storage medium | |
US11677925B2 (en) | Information processing apparatus and control method therefor | |
US10708469B2 (en) | Image processing apparatus, method of controlling the same, non-transitory computer-readable storage medium, and image processing system | |
JP2019022151A (en) | Information processing apparatus, image processing system, control method, and program | |
JP6827996B2 (en) | Image processing device, control method, and program | |
JP6790145B2 (en) | Control device, control method, and program | |
JP2019003325A (en) | Image processing system, image processing method and program | |
JP2019140483A (en) | Image processing system, image processing system control method, transmission device, transmission method, and program | |
JP2023075859A (en) | Information processing apparatus, information processing method, and program | |
JP7104504B2 (en) | Image processing system, image processing device, image transmission method, and program | |
JP2019096926A (en) | Image processing system, image processing method and program | |
JP2019071650A (en) | Control device, control method, and program | |
JP2019102940A (en) | Virtual viewpoint content generation system, voice processing device, control method for virtual viewpoint content generation system, and program | |
JP2018191236A (en) | Information processing system, information processing method, apparatus, and program | |
JP2021068373A (en) | Control apparatus, image processing system, control method, and program | |
JP7134636B2 (en) | Control device, control method and program | |
JP2023075860A (en) | Information processing apparatus, information processing method, and program |