JP7494153B2 - Generation device, generation method, and program - Google Patents
Generation device, generation method, and program Download PDFInfo
- Publication number
- JP7494153B2 JP7494153B2 JP2021146788A JP2021146788A JP7494153B2 JP 7494153 B2 JP7494153 B2 JP 7494153B2 JP 2021146788 A JP2021146788 A JP 2021146788A JP 2021146788 A JP2021146788 A JP 2021146788A JP 7494153 B2 JP7494153 B2 JP 7494153B2
- Authority
- JP
- Japan
- Prior art keywords
- subject
- virtual viewpoint
- image
- shape
- generating device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title description 21
- 230000005484 gravity Effects 0.000 claims description 56
- 238000003384 imaging method Methods 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 2
- 238000004364 calculation method Methods 0.000 description 33
- 238000010586 diagram Methods 0.000 description 26
- 238000004040 coloring Methods 0.000 description 21
- 238000013500 data storage Methods 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 5
- 230000005540 biological transmission Effects 0.000 description 4
- 238000009877 rendering Methods 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000449 premovement Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
Images
Landscapes
- Studio Devices (AREA)
- Processing Or Creating Images (AREA)
Description
本開示は、仮想視点画像を生成する技術に関するものである。 This disclosure relates to technology for generating virtual viewpoint images.
近年、撮影領域の周囲に複数の撮影装置を配置して撮影を行い、それぞれの撮影装置から取得された複数の撮影画像を用いて、指定された視点(仮想視点)から見た画像(仮想視点画像)を生成する技術が注目されている。この技術によれば、サッカーやラグビー等のスポーツ競技、コンサート及びダンス等を任意の視点から見るような画像を生成することができるため、ユーザに高臨場感を与えることができる。 In recent years, a technology that uses multiple image capture devices arranged around a capture area to capture images and generates an image (virtual viewpoint image) viewed from a specified viewpoint (virtual viewpoint) using the multiple captured images acquired from each of the capture devices has been attracting attention. This technology can generate images that allow users to view sporting events such as soccer and rugby, concerts, and dances from any viewpoint, providing a highly realistic experience to the user.
特許文献1では、複数のカメラが被写体を取り囲むように配置して被写体を撮影した画像を用いて、任意の仮想カメラ画像を生成、表示する技術が開示されている。特許文献1によれば、仮想カメラ画像生成の技術を用いた視聴コンテンツにおいて、撮影された演技者(被写体)のダンス、演技などをいろいろな角度から視聴することが可能となる。 Patent Document 1 discloses a technology for generating and displaying arbitrary virtual camera images using images of a subject captured by multiple cameras arranged to surround the subject. According to Patent Document 1, in viewing content using the technology for generating virtual camera images, it becomes possible to view the dance, performance, etc. of a filmed performer (subject) from various angles.
しかしながら、例えばダンスや演技などにおいては、撮影時に、被写体である演者の位置が所望の位置と異なる位置となる場合がありうる。この結果、撮影画像に基づいて生成される仮想視点画像においても、演者の位置が所望の位置と異なる位置となってしまう。また、撮影時に被写体の位置がずれている場合に、指定される仮想視点の位置によっては、ユーザは仮想視点画像上で被写体の位置が所望の位置と異なる位置となっていることに気づかないこともありうる。 However, for example, in dancing or acting, the subject may be in a position different from the desired position during filming. As a result, the subject's position in the virtual viewpoint image generated based on the filmed image will also be different from the desired position. Furthermore, if the subject's position is misaligned during filming, depending on the specified virtual viewpoint position, the user may not notice that the subject's position in the virtual viewpoint image is different from the desired position.
本開示は上記の課題に鑑みてなされたものである。その目的は、被写体の位置が所望する位置と異なることに対応可能な仮想視点画像を生成することである。 This disclosure has been made in consideration of the above problems. Its purpose is to generate a virtual viewpoint image that can accommodate cases where the subject's position is different from the desired position.
本開示に係る生成装置は、複数の撮影装置が撮影領域における被写体を撮影することにより得られる複数の撮影画像に基づく前記被写体の形状を表す形状データを取得する取得手段と、前記撮影領域における複数の被写体の位置に対応する複数の被写体位置を特定する第1の特定手段と、前記第1の特定手段により特定される複数の被写体位置に基づいて、基準位置を特定する第2の特定手段と、前記取得手段により取得される形状データに基づいて、前記第1の特定手段により特定される被写体位置と前記第2の特定手段により特定される基準位置とのずれに応じた仮想視点画像を生成する生成手段とを有することを特徴とする。 The generating device according to the present disclosure is characterized in that it has an acquisition means for acquiring shape data representing the shape of a subject based on multiple captured images obtained by multiple imaging devices capturing images of the subject in a shooting area, a first identification means for identifying multiple subject positions corresponding to the positions of the multiple subjects in the shooting area, a second identification means for identifying a reference position based on the multiple subject positions identified by the first identification means, and a generating means for generating a virtual viewpoint image based on the shape data acquired by the acquisition means according to the deviation between the subject positions identified by the first identification means and the reference position identified by the second identification means.
本開示によれば、被写体の位置が所望する位置と異なることに対応可能な仮想視点画像を生成することができる。 According to the present disclosure, it is possible to generate a virtual viewpoint image that can accommodate the subject's position being different from the desired position.
以下、本開示の実施形態について、図面を参照しながら説明する。なお、以下の実施形態に記載される構成要素は、実施の形態の一例を示すものであり、本開示をそれらのみに限定するものではない。 Embodiments of the present disclosure will be described below with reference to the drawings. Note that the components described in the following embodiments are examples of embodiments, and the present disclosure is not limited to these.
(第1の実施形態)
図1は、本実施形態に係る画像処理システム100を示す図である。画像処理システム100は、複数の撮影装置110、画像生成装置120、及び端末装置130を有する。各撮影装置110と画像生成装置120は、LAN(Local Area Network)ケーブル等の通信ケーブルを介して接続している。なお、本実施形態においては、通信ケーブルはLANケーブルであるものとするが、通信ケーブルは実施形態に限定されるものではない。
First Embodiment
1 is a diagram showing an
撮影装置110は、例えば画像(静止画及び動画)を撮影可能なデジタルカメラである。各撮影装置110は、撮影スタジオなどで撮影領域を囲むように設置され、画像(映像)を撮影する。本実施形態では、ダンスシーンなど複数の演者を被写体として撮影する場合を例にとって説明する。撮影された画像は、撮影装置110から画像生成装置120に送信される。図2は、撮影装置110の設置例を示す図である。本実施形態においては、複数の撮影装置110は、それぞれ撮影スタジオ内のすべて又は一部を撮影するように設置されているものとする。つまり、本実施形態の画像処理システム100には、被写体を複数の方向から撮影するための複数の撮影装置110が含まれる。
The
画像生成装置120は、撮影装置110により得られた撮影画像を蓄積しておき、端末装置130におけるユーザ操作により、仮想視点情報と再生時刻情報とが入力されると、撮影画像と仮想視点とに基づいて、仮想視点画像を生成する。ここで、仮想視点情報は、撮影画像から構築される仮想空間における仮想的な視点(仮想視点)の位置と、仮想視点からの視線方向とを示す情報を含む。なお、仮想視点情報に含まれる情報はこれに限定されない。例えば、仮想視点の視野の広さ(画角)に関する情報が含まれてもよい。また、仮想視点の位置、仮想視点からの視線方向、及び仮想視点の画角のうち、少なくともいずれかを表す情報が含まれる構成でもよい。再生時刻情報は、撮影画像の録画開始時刻からの時刻情報である。ユーザは、例えば後述する端末装置130を操作して再生時刻を指定することにより、録画された撮影画像において指定された再生時刻に対応するシーンの仮想視点画像を生成することができる。
The
画像生成装置120は、例えば、サーバ装置であり、データベース機能や、画像処理機能を備えている。データベースには、本番の撮影の開始前など、予め被写体が存在しない状態の場面を撮影した画像を背景画像として、撮影装置110を介して保持しておく。また、被写体の存在するシーンでは、画像生成装置120は、撮影画像のうち演者等の人物、及び演者が使用する道具など特定のオブジェクトに対応する領域(以下、前景画像ともいう)を画像処理により分離して、前景画像として保持しておく。なお、特定オブジェクトは、小道具などの画像パターンが予め定められている物体であってもよい。
The
仮想視点情報に対応した仮想視点画像は、データベースで管理された背景画像と特定オブジェクト画像とから生成されるものとする。仮想視点画像の生成方式として、例えばモデルベースレンダリング(Model-Based Rendering:MBR)が用いられる。MBRとは、被写体を複数の方向から撮影した複数の撮影画像に基づいて生成される三次元形状を用いて仮想視点画像を生成する方式である。具体的には、視体積交差法、Multi-View-Stereo(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。なお、仮想視点画像の生成方法は、MBR以外のレンダリング手法を用いてもよい。生成された仮想視点画像は、LANケーブルなどを介して、端末装置130に伝送される。
The virtual viewpoint image corresponding to the virtual viewpoint information is generated from a background image and a specific object image managed in a database. For example, model-based rendering (MBR) is used as a method for generating the virtual viewpoint image. MBR is a method for generating a virtual viewpoint image using a three-dimensional shape generated based on multiple captured images of a subject taken from multiple directions. Specifically, it is a technology that uses a three-dimensional shape (model) of a target scene obtained by a three-dimensional shape restoration method such as a visual volume intersection method or Multi-View-Stereo (MVS) to generate an image of the scene as seen from a virtual viewpoint. Note that the method for generating the virtual viewpoint image may use a rendering method other than MBR. The generated virtual viewpoint image is transmitted to the
端末装置130は、例えば、PC(Personal Computer)やタブレットである。コントローラ131は、例えば、マウス、キーボード、6軸コントローラ、タッチパネルであり、これらを用いてユーザは操作し、画面上に静止画像や動画像を表示する。端末装置130は、例えば、画像生成装置120から受信した仮想視点画像を表示部132に表示する。端末装置130は、さらに、接続されたコントローラ131に対するユーザ操作に応じて、再生時刻と仮想視点の移動の指示(移動量と移動方向に関する指示)を受け付け、受け付けた指示に応じた指示情報を示す伝送信号を画像生成装置120に送信する。
The
図3は、画像生成装置120のハードウェア構成を示す図である。
Figure 3 shows the hardware configuration of the
画像生成装置120は、CPU301と、ROM302と、RAM303と、HDD304と、表示部305と、入力部306と、通信部307とを有する。CPU301は、ROM302に記憶された制御プログラムを読み出して各種処理を実行する。RAM303は、CPU301の主メモリ、ワークエリア等の一時記憶領域として用いられる。HDD304は、各種データや各種プログラム等を記憶する。表示部305は、各種情報を表示する。入力部306は、キーボードやマウスを有し、ユーザによる各種操作を受け付ける。通信部307は、ネットワークを介して撮影装置110等の外部装置との通信処理を行う。なお、ネットワークとしては、イーサネット(登録商標)が挙げられる。また、他の例としては、通信部307は、無線により外部装置との通信を行ってもよい。
The
なお、図3に示す例では、HDD304、表示部305及び入力部306が画像生成装置120の内部に含まれるものとしたが、これに限定されない。例えば、HDD304、表示部305及び入力部306の少なくともいずれかが、他の装置として画像生成装置120の外部に接続される構成でもよい。また、後述する画像生成装置120の機能や処理は、CPU301がROM302又はHDD304に格納されているプログラムを読み出し、このプログラムを実行することにより実現されるものである。また、端末装置130のハードウェア構成についても、画像生成装置120のハードウェア構成と同様である。
In the example shown in FIG. 3, the
図4は、画像生成装置120の機能構成を示す図である。ここで、本実施形態における画像生成装置120が行う処理について説明する。本実施形態においては、ダンスシーンを撮影し、撮影画像に基づいて仮想視点画像を生成することを想定する。しかしながら、ダンス中における被写体の立ち位置が、所望の立ち位置とは異なる位置となることがありうる。図16(a)は、線で囲まれた撮影領域が複数のカメラで撮影されることにより生成された仮想空間上の被写体と、仮想視点に対応する仮想的なカメラ(以下、仮想カメラという)との概念図である。仮想カメラ2101のように被写体を正面から撮影し視聴する場合もあれば、仮想カメラ2102のように被写体を横方向から撮影し視聴するなど、自由な角度から被写体を撮影するような仮想カメラを指定可能である。図16(c)は仮想カメラ2102に対応する仮想視点画像の画面表示である。ここで、演者は、仮想カメラ2102から撮影した場合に、一直線上になるような立ち位置で演技したいと考えているとする。しかしながら、実際に撮影した場合に、立ち位置がずれでしまい、図16(c)のように被写体の立ち位置が直線上に揃っていない仮想視点画像となってしまうことがありうる。
Figure 4 is a diagram showing the functional configuration of the
また、演者が仮想視点画像を見て立ち位置を確認するという用途も考えられる。このとき、指定される仮想カメラによっては、立ち位置のずれを容易に認識できない場合がある。図16(b)は仮想カメラ2101に対応する仮想視点画像の画面表示である。仮想カメラ2101に対応する仮想視点画像においては、被写体の立ち位置は揃っているように見える。しかし実際には、仮想カメラ2102から撮影された仮想視点画像上では、被写体の立ち位置がずれてしまっている。本実施形態における画像生成装置120は、上記の問題を解決することを目的とする。
Another possible use would be for an actor to check his/her standing position by looking at the virtual viewpoint image. In this case, depending on the virtual camera specified, it may not be easy to recognize the deviation in standing position. FIG. 16(b) is a screen display of a virtual viewpoint image corresponding to
画像生成装置120は、撮影画像入力401、前景背景分離部402、撮影画像データ保存部403、カメラパラメータ保持部404、被写体形状生成部405、被写体形状重心算出部406、被写体形状移動部407、及び被写体位置決定部408を有する。また、画像生成装置120は、ユーザ入力部409、仮想視点情報設定部410、着色情報算出部411、仮想視点画像生成部412、及び画像出力部413を有する。以下、各処理部について説明する。
The
撮影画像入力部401は、撮影装置110からLANケーブルを介して入力された伝送信号を撮影画像データに変換して、前景背景分離部402へ出力する。前景背景分離部402は、撮影画像入力部401から入力された撮影画像のうち、被写体の演技開始前など予め被写体が存在しない状態の場面を撮影した画像を背景画像データとして、撮影画像データ保存部403へ出力する。また、被写体の演技中に撮影された画像から被写体を抽出し、前景画像データとして撮影画像データ保存部403へ出力する。
The captured
撮影画像データ保存部403は、データベースであり、前景背景分離部402から入力された撮影画像データのうち、被写体が存在しない状態で予め撮影された画像を背景画像データとしてHDD304に保存する。また撮影画像データ保存部403は、背景画像データと被写体の存在する撮影画像データとの差分データを前景画像データとしてHDD304に保存する。また、撮影画像データ保存部403は、被写体形状生成部405に前景画像データを出力する。また、着色情報算出部411により指定された背景画像データと前景画像データを着色情報算出部411へ出力する。
The photographed image
カメラパラメータ保持部404は、複数の撮影装置110の撮影位置情報、撮影装置110のレンズの焦点距離、及び撮影装置110のシャッタースピード等のカメラ設定情報を、カメラパラメータ情報として保持する。複数の撮影装置110はあらかじめ決められた位置に設置され、カメラパラメータ情報があらかじめ取得されるものとする。また、カメラパラメータ保持部404は、カメラパラメータ情報を、被写体形状生成部405及び着色情報算出部411に出力する。
The camera
被写体形状生成部405は、前景画像データと、カメラパラメータ情報とを用いて、被写体の形状を表す形状データを生成する。被写体形状生成部405は、例えば、視体積交差法などの三次元形状復元手法を用いて被写体の形状データを生成するとする。また、形状データを被写体形状重心算出部406と着色情報算出部411へ出力する。
The subject
被写体形状重心算出部406は、撮影領域における被写体の位置を特定する。具体的には、被写体形状重心算出部406は、被写体形状生成部405から入力された形状データを使用して、被写体の形状の重心を被写体位置として特定する。このとき、被写体形状重心算出部406は、所定視点位置から被写体を見た場合の重心位置を算出する。被写体形状重心算出部406は、例えば、被写体を真上から見下ろす視点での重心位置を被写体の位置として算出する。被写体形状重心算出部406は、被写体重心位置からなる被写体重心情報を、被写体形状移動部407へ出力する。
The subject shape center of
被写体形状移動部407は、被写体形状重心算出部406から入力された被写体重心情報と、後述する被写体位置設定部408から入力された被写体移動先位置情報とに基づき、被写体の形状データを配置する位置を決定する。ここで、被写体移動先位置情報は、被写体が配置されるべき基準の位置(以下、基準位置ともいう)を表す情報である。被写体形状移動部407は、基準位置と被写体の位置とのずれに応じて、形状データの配置を決定する。
The subject
被写体形状移動部407は、被写体移動先位置情報が床面に設定された所定の間隔(例えば3メートル間隔)の格子点情報である場合、格子点の位置を基準位置として、格子点の位置と、被写体の重心の位置とが一致するように、被写体の形状データを配置する。なお、被写体移動先位置情報に基づいて、被写体の形状データが再生成されてもよい。また、被写体形状移動部407は、基準位置と被写体の位置とのずれが所定の閾値以上である場合に、ずれが所定の閾値よりも小さくなるように形状データの位置を変更し、変更した位置に形状データが配置されるようにしてもよい。なお、被写体形状移動部407は、被写体形状移動部407は、移動した形状データを仮想視点画像生成部412へ出力する。
When the subject destination position information is lattice point information at a predetermined interval (e.g., 3 meter intervals) set on the floor surface, the subject
被写体位置設定部408は、ユーザにより予め設定された三次元空間上の被写体移動先位置情報を被写体形状移動部407へ出力する。例えば、複数の被写体を所定の直線上の所定区間に配置されるように床面に対応した3メートル間隔の格子点情報を出力するものとする。なお、被写体移動先位置情報は格子点に限定されず、例えば直線や曲線であってもよい。
The subject
ユーザ入力部409は、端末装置130からLANケーブルを介して入力された伝送信号をユーザ入力データに変換する。ユーザ入力データが再生時刻情報と仮想視点情報である場合、再生時刻情報と仮想視点情報を仮想視点情報設定部410へ出力する。
The
仮想視点情報設定部410は、ユーザ入力部409から入力された再生時刻情報と仮想視点情報に基づき、仮想空間内の現在位置と方向と再生時刻とを更新する。
The virtual viewpoint
その後、再生時刻情報と仮想視点情報とを被写体形状生成部405と着色情報算出部411と仮想視点画像生成部412へ出力する。なお、仮想空間の原点は競技場の中心などを予め設定するものとする。
Then, the playback time information and virtual viewpoint information are output to the subject
着色情報算出部411は、仮想視点情報設定部410から入力された再生時刻情報と仮想視点情報とに基づいた前景画像データと背景画像データとを撮影画像データ保存部403から入力する。またカメラパラメータをカメラパラメータ保持部404から入力し、また形状データを被写体形状生成部405から入力する。次に仮想視点位置から見た被写体形状に対して、該当時刻に実カメラで撮影された画像データの色情報でレンダリング(着色処理)して被写体形状の着色情報を保持する。例えば、仮想視点から形状データに基づく被写体が見えている状況で、仮想視点の位置から所定の範囲内に実カメラ位置情報がある場合、その実カメラの前景画像データを形状の色として使用するものとする。また着色情報算出部411は、仮想視点画像生成部412へ着色情報を出力する。
The coloring
仮想視点画像生成部412は、仮想視点情報設定部408から入力された再生時刻情報と仮想視点情報とに基づいた前景画像データと背景画像データとを撮影画像データ保存部403から入力する。またカメラパラメータをカメラパラメータ保持部404から入力し、また移動形状データを被写体形状移動部407から入力する。その後、背景画像データを仮想視点位置から背景として見えるように投影変換や画像処理を施して仮想視点画像の背景とする。さらに次に仮想視点位置から見た移動被写体形状に対して、該当時刻に撮影装置で撮影された画像データによる着色情報を着色情報算出部411より入力して、色情報でレンダリング(着色処理)して仮想視点画像を生成する。最後に仮想視点画像生成部412にて生成された仮想視点画像を画像出力部413へ出力する。画像出力部413は、仮想視点画像生成部412から入力した画像データを、端末装置130へ伝送可能な伝送信号に変換して、端末装置130へ出力する。
The virtual viewpoint
次に、画像生成装置120の動作について説明する。図5は、実施例1に係る画像生成装置120の動作を示すフローチャートである。CPU301がROM302またはHDD304に記憶されたプログラムを読み出して実行することにより、以下の処理が行われる。端末装置130から仮想視点情報及び再生時刻を指定するための入力が行われると、処理が開始される。
Next, the operation of the
仮想視点情報設定部410は、ユーザ入力部409を介して、仮想視点情報と再生時刻情報が入力されたか否か判断する(S501)。仮想視点情報と再生時刻情報が入力されない場合(S501のNo)、待機する。一方、仮想視点情報と再生時刻情報が入力された場合(S501のYes)、仮想視点情報と再生時刻情報とを被写体形状生成部405と着色情報算出部411と仮想視点画像生成部412へ出力する。
The virtual viewpoint
次に、被写体形状生成部405は、仮想視点情報設定部410から入力された再生時刻情報に基づく撮影画像データ保存部403から入力された前景画像データと、カメラパラメータ保持部404から入力されたカメラパラメータ情報を読み込む(S502)。続いて被写体形状生成部405は、被写体の3次元形状を推定する(S503)。例えば、視体積交差法などの三次元形状復元手法を用いて被写体の形状データを生成するとする。ここで、形状データとは、複数の点群からなり各点は位置情報を含むものとする。
Next, the subject
次に、着色情報算出部411は、仮想視点情報設定部410から入力された再生時刻情報と仮想視点情報に基づいた前景画像データと背景画像データとを撮影画像データ保存部403から入力する。またカメラパラメータをカメラパラメータ保持部404から入力し、また形状データを被写体形状生成部405から入力する。次に仮想視点位置から見た被写体形状に対して、該当時刻に実カメラで撮影された画像データの色情報でレンダリング(着色処理)、被写体形状の着色情報を保持する(S504)。
Next, the coloring
次に、被写体形状重心算出部406は、被写体形状生成部405から入力された被写体形状の所定視点位置から見た場合の重心位置を、被写体位置として特定する(S505)。なお、本実施例では真上から見た場合の重心位置を被写体形状重心情報とする。図6(a)は、仮想空間上で真上から見た被写体の形状データと、形状データの重心位置の概念図である。本実施形態では、複数の被写体を所定格子点上に配置しなおすため、被写体に対して真上から見下ろす視点で、被写体の前後方向軸の中心位置、また左右方向軸の中心位置などを算出して重心位置を算出する。その重心位置は被写体の黒点で示しており、重心位置を直線上や格子点上に配置することになる。
Next, the subject shape center of
図5の説明に戻り、被写体形状移動部407は、被写体位置設定部408より三次元空間上の被写体移動先位置情報があるか否か判定する(S506)。被写体位置設定部408より三次元空間上の被写体移動先位置情報がある場合(S506のYes)、被写体移動先位置情報を入力する(S507)。一方で、被写体移動先位置情報がない場合(S506のNo)、S509へ進む。図6(b)は、被写体移動先位置情報に基づく被写体の基準位置を表す、床面の格子点位置の概念図である。例えば、複数の被写体を所定の直線上の所定区間に配置されるように床面に対応した3メートル間隔の格子点情報を出力するものとする。
Returning to the explanation of FIG. 5, the subject
図5の説明に戻り、次に、被写体形状移動部407は、被写体形状重心算出部406から入力された被写体重心情報と被写体位置設定部408から入力された被写体移動先位置情報に基づき、形状データを移動する(S508)。図6(c)は、移動後の被写体形状の概念図である。被写体形状に対して真上から見下ろす視点で、被写体移動先位置情報に基づく格子点位置と被写体形状の重心位置とが一致するように被写体位置を変更し、変更した被写体位置に形状データを移動したことを示している。これにより、移動被写体形状の位置は一定の距離間となるように移動されたことになる。なお、基準位置と被写体位置とが所定の閾値よりも小さくなるように被写体位置が変更され、形状データが配置されてもよい。
Returning to the explanation of FIG. 5, next, the subject
図5の説明に戻り、仮想視点画像生成部412は、移動された形状データに基づいて、仮想視点位置から見た形状データに対して、指定時刻に撮影装置110で撮影された画像データを用いてレンダリング(着色処理)して仮想視点画像を生成する(S509)。すなわち、被写体移動前に決定、保持された被写体の色情報を被写体移動後にレンダリングすることで被写体が移動された位置で表示されることになる。仮想視点画像生成部412は、仮想視点画像生成部412にて生成された仮想視点画像を画像出力部413へ出力する(S510)。以上説明した処理は、録画して蓄積した画像データに基づいて行われてもよいし、撮影装置110による撮影が行われるのと並行して、リアルタイムで行うことも可能である。
Returning to the explanation of FIG. 5, the virtual viewpoint
なお、上述した図5の説明では、被写体移動前に決定、保持された被写体の色情報を被写体移動後にレンダリングする、と説明しているが、これに限定されない。例えば、対象とする被写体を指定の位置に移動させると共に全撮影装置110の撮影位置と対象の被写体以外の位置も対象の被写体との位置関係を保つように相対的に移動させて、対象とする被写体のみをレンダリングする。これを各被写体に対して順次行い合成することで仮想視点画像を生成するとしてもよい。すなわち、被写体の移動前に色情報を決定するのではなく、被写体移動後に色情報の計算とレンダリングとを行う構成であってもよい。
Note that, in the explanation of FIG. 5 above, it is explained that the color information of the subject that was determined and held before the subject moved is rendered after the subject moved, but this is not limited to this. For example, the target subject is moved to a specified position, and the shooting positions of all the
図7は、図16(a)に示す被写体を撮影した場合に、図5に示す処理を行うことにより生成される仮想視点画像を表す図である。図7(a)は、撮影領域に対応する三次元空間における被写体の形状データの位置を表す。図7(a)によれば、複数の被写体がダンスなどの演技をしながらも、演技実施時とは異なる立ち位置である所定の格子点位置に移動され、一定の距離をとった立ち位置で、同じ動作をしている様子が仮想カメラで撮影される。仮想カメラ901の位置から被写体を撮影しても仮想カメラ902の位置から被写体を撮影しても、実際にダンスなどの演技をした立ち位置と比較して、異なる立ち位置になる。
Figure 7 is a diagram showing a virtual viewpoint image generated by performing the processing shown in Figure 5 when the subject shown in Figure 16 (a) is photographed. Figure 7 (a) shows the position of the shape data of the subject in three-dimensional space corresponding to the photographing area. According to Figure 7 (a), multiple subjects, while performing a dance or other performance, are moved to a specified lattice point position, which is a different standing position from when performing the performance, and the virtual camera photographs them performing the same movement from a standing position at a certain distance. Whether the subjects are photographed from the position of
図7(b)は、端末装置130に表示される、仮想カメラ901に対応する仮想視点画像の表示例である。被写体の正面から撮影しても一定の位置を常に保って演技させることが可能となる。また、図7(c)は仮想カメラ902に対応する仮想視点画像の表示例である。被写体の横方向から撮影しても直線状に配置しなおして表示可能であるため、常に同じ位置で演技させることが可能となる。
Figure 7(b) is an example of a virtual viewpoint image corresponding to
以上、実施例1の形態によれば、複数被写体を複数カメラで撮影し、仮想視点撮影し表示する場合に、所望の位置に被写体を配置しなおした仮想視点画像を生成することが可能となる。演技の撮影時と比較して、仮想カメラの映像においては被写体の揃った演技を視聴することが可能となる。なお、上述した例では、基準位置が格子点で表されるものとしたが、基準位置は所定の直線や曲線で表されてもよい。この場合は、被写体の位置が線上からずれた場合、被写体位置が線上の任意の点(例えば、現在の被写体の位置から最も近い線上の点)の位置と一致するように形状データが配置される。また、基準位置は、任意の位置の点(座標)であってもよい。このとき、被写体が複数存在する場合は、被写体ごとに基準位置の点が設定されてもよい。 As described above, according to the first embodiment, when multiple subjects are photographed by multiple cameras and photographed from a virtual viewpoint and displayed, it is possible to generate a virtual viewpoint image in which the subjects are repositioned at a desired position. Compared to when the performance is photographed, it is possible to view a performance with the subjects aligned in the image of the virtual camera. In the above example, the reference position is represented by a lattice point, but the reference position may be represented by a predetermined straight line or curve. In this case, if the subject position deviates from the line, the shape data is positioned so that the subject position coincides with the position of an arbitrary point on the line (for example, a point on the line closest to the current subject position). The reference position may also be a point (coordinate) at an arbitrary position. In this case, if there are multiple subjects, a reference position point may be set for each subject.
また、基準位置は、複数の被写体の被写体位置に基づいて特定されてもよい。例えば、3人の被写体が撮影される場合に、3人の被写体が一直線上に位置するように立ち位置を設定したいものとする。このとき、3人のうち2人の被写体位置を結ぶ直線を算出し、算出した直線上の点を基準位置として、残りの1人の被写体位置を変更する。こうすることで、3人の被写体が一直線上に位置するように形状データが配置された仮想視点画像が生成される。なお、被写体の数が3人以外の場合にも適用可能である。 The reference position may also be specified based on the subject positions of multiple subjects. For example, suppose that when three subjects are to be photographed, it is desired to set the standing positions so that the three subjects are positioned in a straight line. In this case, a line connecting the subject positions of two of the three subjects is calculated, and a point on the calculated line is used as the reference position, and the subject position of the remaining person is changed. In this way, a virtual viewpoint image is generated in which shape data is arranged so that the three subjects are positioned in a straight line. Note that this can also be applied to cases where the number of subjects is other than three.
また、基準位置は、図7(a)に示したような撮影領域に対応する三次元空間位置に被写体を配置するに限らず、撮影領域外の任意の三次元空間位置に設定されてもよい。図17は、撮影領域外の三次元空間位置に被写体の形状データを配置した例を表す。図17に示す例では、対象とする被写体の形状データを移動するための基準位置が、撮影領域外の位置に設定されている。図17によれば、複数の被写体は実際にダンスなどの演技を撮影領域内で撮影したとしても、その撮影領域よりも広い領域でダンスなどの演技をしているように仮想カメラ901の位置からは撮影される。
The reference position is not limited to placing the subject at a three-dimensional space position corresponding to the shooting area as shown in FIG. 7(a), but may be set to any three-dimensional space position outside the shooting area. FIG. 17 shows an example in which the shape data of the subject is placed at a three-dimensional space position outside the shooting area. In the example shown in FIG. 17, the reference position for moving the shape data of the target subject is set to a position outside the shooting area. According to FIG. 17, even if multiple subjects are actually photographed performing a dance or other performance within the shooting area, they are photographed from the position of the
(第2の実施形態)
本実施形態では、被写体の所定の特徴に基づき、被写体の位置を変更する例である。図8は、第2の実施形態に係る画像生成装置1100の機能構成を示す図である。画像生成装置1100は、図4に示した第1の実施形態に係る画像生成装置120の被写体形状重心算出部406のかわりに、被写体特徴生成部1101を有する。なお、画像生成装置1100のハードウェア構成は、第1の実施形態に係る画像生成装置120と同様であるものとする。また、画像生成装置120と同様の構成については、同じ符号を付し、説明を省略する。
Second Embodiment
In this embodiment, the position of the subject is changed based on a predetermined feature of the subject. FIG. 8 is a diagram showing a functional configuration of an
被写体特徴生成部1101は、被写体形状生成部405から入力された形状データと形状データに対応した着色情報から、被写体の所定特徴認識とその位置を算出する。例えば、複数の被写体の顔を特徴として直線上や床面の所定格子点上に配置しなおす場合には、形状データと着色情報とを使用して被写体の顔認識を行い、顔の位置を特定する。これにより、その後の処理において、顔の位置が真上から見下ろす視点で、顔の位置が所定の直線上や格子点上にくるように形状データが配置されるようになる。すなわち、被写体特徴生成部1101は、被写体の形状における所定の部位を被写体位置として特定する。被写体特徴生成部1101は、被写体特徴位置情報を、被写体形状移動部407へ出力する。
The subject
図9は、第2の実施形態に係る画像処理装置1100による画像処理を示すフローチャートである。なお、S501からS504までは図5の説明と同一であるため説明は省略する。またS506からS510においても図5の説明と同一であるため説明は省略する。
Figure 9 is a flowchart showing image processing by the
S1201において、被写体形状生成部405は、被写体位置として所定の部位の位置を特定する。このとき、被写体形状生成部405は、被写体の形状データのうち所定の特徴を有する位置を、例えば顔認識などの画像解析を使用して特定する。
In S1201, the subject
図10は、被写体の顔認識を形状データと着色情報とから解析し、顔の位置を特定し被写体位置とする場合の例である。被写体特徴生成部1101は、図10(a)に示すように、被写体の顔の位置を特定する。また、被写体形状移動部407は、被写体特徴生成部1101が特定した被写体位置に基づいて、形状データを配置する。これにより、図10(b)に示すように、上から見た場合に顔の位置が格子点と一致するように形状データが配置される。
Figure 10 shows an example of a case where the subject's face is recognized and analyzed from shape data and coloring information, and the position of the face is identified and taken as the subject position. The subject
なお、被写体の特徴認識(例えば顔認識など)及び位置の特定は、撮影装置110により得られる複数の撮影画像から特徴(顔)が抽出され、さらにカメラパラメータ情報に基づいて特徴の位置(三次元空間上の位置)が算出されるものとする。しかしこれに限定されず、例えば仮想カメラを所定の位置に設定して仮想視点画像を生成し、生成された仮想視点画像を使用して特徴認識及び位置の特定が行われてもよい。
Note that feature recognition (e.g., facial recognition) and position identification of the subject are performed by extracting features (faces) from multiple captured images obtained by the
以上説明したように、本実施形態の画像生成装置1100は、被写体の所定の部位の位置を特定し、特定した位置と基準位置とのずれに応じて形状データを配置し仮想視点画像を生成する。所定の部位は、顔に限らず、手や足、靴などであってもよい。これにより、例えば靴のCM(コマーシャル)撮影を行う場合は、靴の特徴を識別し、靴の位置と基準位置とが一致する、又は位置のずれが所定の閾値より小さくなるように、形状データを配置することが可能となる。このようにすることで、靴の位置が所望の位置となるような仮想視点画像を生成することができる。
As described above, the
(第3の実施形態)
第3の実施形態は、時間軸方向における被写体の重心位置に基づき、被写体の位置を変更する例である。図11は、実施例3に係る画像生成装置1500の機能構成を示す図である。画像生成装置1500は、図4に示した第1の実施形態に係る画像生成装置120の被写体形状重心算出部406のかわりに、被写体形状平均重心算出部1601を有する。なお、本実施形態における画像生成装置1500のハードウェア構成は、上述した実施形態と同様であるものとする。また、同様の機能構成については同じ符号を付し、説明を省略する。
Third Embodiment
The third embodiment is an example in which the position of the subject is changed based on the position of the center of gravity of the subject in the time axis direction. Fig. 11 is a diagram showing the functional configuration of an
被写体形状平均重心算出部1501は、撮影装置110により得られる撮影画像の動画フレームのそれぞれにおいて、被写体の重心位置を算出する。例えばダンスシーン10分間が撮影された場合には、各フレームにおいて被写体を真上から見下ろす視点での重心位置を特定し、さらに各動画フレームの重心位置の平均位置を算出する。被写体形状平均重心算出部1501は、算出した重心の平均位置を被写体位置とし、平均位置の情報を被写体形状移動部407へ出力する。
The subject shape average center of
図12は、実施例3に係る画像処理装置1500による画像処理を示すフローチャートである。なお、図16に示す処理のうち、図5に示す各処理と同じ処理については、説明を省略する。
Figure 12 is a flowchart showing image processing by the
S504の処理の後、被写体形状平均重心算出部1501は、被写体形状生成部405から入力された複数の撮影フレームの被写体形状の所定視点位置から見た場合の重心位置を算出する。また、被写体形状平均重心算出部1501は、各動画フレームにおける被写体の重心に基づいて、重心の平均位置を算出し、平均位置の情報を被写体形状移動部407へ出力する(S1601)。
After the processing of S504, the subject shape average center of
図13は、被写体の重心の平均位置を表す図である。例えばダンスシーンの一連の中で、被写体は図13(a)に示す矢印の方向に移動したとする。ここでは、被写体の演技中における移動前の時刻のフレームと演技中における移動後のフレームとで、被写体の重心位置が算出される。さらに、各フレームの重心の平均位置が算出される。図13(a)においては、重心の平均位置として、点1301が特定される。
Figure 13 is a diagram showing the average position of the center of gravity of a subject. For example, suppose that in a series of dance scenes, the subject moves in the direction of the arrow shown in Figure 13(a). Here, the position of the center of gravity of the subject is calculated for a frame before the movement during the subject's performance and a frame after the movement during the performance. Furthermore, the average position of the center of gravity of each frame is calculated. In Figure 13(a),
図13(b)は、基準位置に基づいて重心の平均位置を移動させた場合の図である。被写体に対して真上から見下ろす視点で、被写体移動先位置情報に基づく格子点位置に、被写体の平均重心位置が一致するように形状データが配置される。これにより、被写体の位置は、一連の撮影の間は平均して一定の位置に配置され、その周辺で移動していくことになる。 Figure 13 (b) shows the case where the average position of the center of gravity is moved based on the reference position. When viewed from directly above the subject, the shape data is positioned so that the average center of gravity position of the subject coincides with the grid point position based on the subject destination position information. As a result, the subject is positioned at a constant position on average during a series of shots, and moves around that position.
以上、本実施形態によれば、撮影時間に対する被写体の重心の平均位置を算出し、所定高視点上に配置しなおすことで、シーンの一連の移動にも違和感なく被写体の再配置が可能となる。なお、本実施例では、平均重心位置を算出するとしたが、これに限らず、撮影の任意のフレームの被写体重心位置を基本位置として使用してもよいものとする。例えば、撮影開始時点のフレームの被写体重心位置を、床面の格子点位置に合わせて再配置することも可能であるし、撮影終了の直前のフレームの被写体重心位置を用いてもよいものとする。また、本実施形態においては、被写体の重心を特定し、重心の平均位置を被写体位置としたが、これに限定されない。例えば、第2の実施形態で説明した所定の部位の位置を特定し、その平均位置を被写体位置としてもよい。 As described above, according to this embodiment, the average position of the center of gravity of the subject over the shooting time is calculated, and the subject is repositioned at a predetermined height viewpoint, making it possible to reposition the subject without creating a sense of incongruity even with a series of movements in the scene. Note that, although this embodiment calculates the average center of gravity position, this is not limited to this, and the center of gravity position of the subject in any frame of shooting may be used as the basic position. For example, it is possible to reposition the center of gravity position of the subject in the frame at the start of shooting to match the grid point position of the floor surface, or the center of gravity position of the subject in the frame immediately before the end of shooting may be used. Also, in this embodiment, the center of gravity of the subject is identified, and the average position of the center of gravity is used as the subject position, but this is not limited to this. For example, the position of the specified part described in the second embodiment may be identified, and the average position may be used as the subject position.
(第4の実施形態)
第4の実施形態では、被写体を移動させるのではなく、被写体の移動前後の位置関係に基づいて仮想カメラ相対的に移動して撮影して、移動前仮想カメラ画像と合成する方法について説明する。図14は、被写体位置差分算出部1901、複数カオス視点情報設定部1902、複数仮想視点画像生成部1903を有する。なお、画像生成装置1100のハードウェア構成は、上述した実施形態と同様であるものとする。また、同様の構成については、同じ符号を付し、説明を省略する。
Fourth Embodiment
In the fourth embodiment, a method is described in which the subject is not moved, but the virtual camera is moved relatively based on the positional relationship before and after the movement of the subject, and the captured image is synthesized with the pre-movement virtual camera image. Fig. 14 has a subject position
被写体位置差分算出部1901は、被写体形状重心算出部405から被写体重心情報を入力する。また被写体位置設定部408から被写体の基準位置の情報を入力し、基準位置と被写体重心位置との差分を算出する。
The subject position
複数仮想視点設定部1902は、ユーザ入力部409から入力された再生時刻情報と仮想視点情報に基づき、仮想空間内の現在位置と方向と再生時刻とを更新し、再生時刻情報と仮想視点情報とを複数仮想視点画像生成部1903へ出力する。また、複数仮想視点設定部1902は、被写体位置差分算出部1901から被写体の移動前位置と被写体の移動後位置との位置関係を被写体差分情報として入力した場合、その被写体差分情報に基づく差分仮想視点情報を生成する。
The multiple virtual
複数仮想視点画像生成部1903は、複数仮想視点情報設定部1902から入力された再生時刻情報と仮想視点情報とに基づいた前景画像データと背景画像データとを撮影画像データ保存部403から入力する。またカメラパラメータをカメラパラメータ保持部404から入力し、移動後の形状データを被写体形状移動部407から入力する。その後、背景画像データを仮想視点位置から背景として見えるように投影変換や画像処理を施して仮想視点画像の背景とする。次に仮想視点位置から見た移動被写体形状に対して、該当時刻に実カメラで撮影された画像データによる色情報でレンダリング(着色処理)して仮想視点画像を生成する。また、被写体位置差分算出部1901が被写体差分情報を算出したことによる差分仮想視点情報を入力された場合、差分仮想視点情報の指定位置で仮想視点画像を生成し、ユーザ入力に基づく仮想視点画像と合成する。最後に仮想視点画像を画像出力部413へ出力する。
The multiple virtual viewpoint
図15は、仮想空間上の移動させる被写体位置における仮想カメラ位置の概念図である。床面の中心(0、0)の位置を原点として、移動後の被写体位置情報も同様に床面の中心(0、0)の位置とする。なお単位はメートルとする。移動前の被写体の位置が(0、2)であるとすると、基準位置(0、0)に被写体を配置する場合は、仮想カメラ2001の位置(x、y)を、(0、2)移動した位置(x、y+2)に移動される。そして、移動させた仮想カメラ2001から被写体を撮影して仮想視点画像を生成する。さらに、生成した仮想視点画像と、移動させたい被写体以外を撮影した仮想カメラ2001に対応する仮想視点画像と合成する。
Figure 15 is a conceptual diagram of the virtual camera position at the subject position to be moved in virtual space. The center (0,0) of the floor surface is set as the origin, and the subject position information after the movement is also set as the center (0,0) of the floor surface. The unit is meters. If the position of the subject before the movement is (0,2), when placing the subject at the reference position (0,0), the position (x,y) of the
以上、本実施形態によれば、移動させたい被写体に対して仮想カメラを移動させて仮想視点画像を生成し、移動させたい被写体以外を撮影する仮想カメラに対応する仮想視点画像と合成する。これにより、仮想視点画像の合成のみで、被写体の位置を移動させることが可能となる。 As described above, according to this embodiment, a virtual viewpoint image is generated by moving a virtual camera relative to a subject to be moved, and is then composited with a virtual viewpoint image corresponding to a virtual camera capturing an image of an object other than the subject to be moved. This makes it possible to move the position of the subject simply by composite of the virtual viewpoint images.
(その他の実施形態)
上述した実施形態においては、被写体位置と基準位置とのずれに応じて、被写体の形状データを配置し直して仮想視点画像を生成する例について説明した。しかしこれに限定されず、被写体位置と基準位置とがずれていることを識別可能な情報を含む仮想視点画像が生成される構成でもよい。例えば、特定された被写体位置に形状データが配置するとともに、基準位置を示す情報(例えば、格子点や直線など)を表示させてもよい。また、被写体位置に形状データが配置するとともに、基準位置からずれている被写体を識別可能にする表示を行ってもよい。これは例えば、基準位置からずれている被写体の形状データを線で囲む、被写体の色又は明度を変更して強調する等である。これらの方法により、仮想視点画像を見るユーザは被写体位置と基準位置とがずれていることを認識することができる。例えば、演者が生成された仮想視点画像を見て立ち位置を確認したい場合に、仮想視点の位置によらずに、演者の位置のずれを容易に識別することができる。
Other Embodiments
In the above-mentioned embodiment, an example was described in which the shape data of the subject is rearranged according to the deviation between the subject position and the reference position to generate a virtual viewpoint image. However, the present invention is not limited to this, and a configuration may be used in which a virtual viewpoint image is generated that includes information that can identify that the subject position is offset from the reference position. For example, shape data may be arranged at a specified subject position, and information indicating the reference position (for example, a lattice point or a straight line) may be displayed. In addition, shape data may be arranged at the subject position, and a display that makes it possible to identify a subject that is offset from the reference position may be performed. For example, the shape data of a subject that is offset from the reference position may be surrounded by a line, or the color or brightness of the subject may be changed to highlight the subject. With these methods, a user who views the virtual viewpoint image can recognize that the subject position is offset from the reference position. For example, when a performer wants to check his/her standing position by looking at the generated virtual viewpoint image, the offset of the performer's position can be easily identified regardless of the position of the virtual viewpoint.
本開示は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present disclosure can also be realized by supplying a program that realizes one or more of the functions of the above-described embodiments to a system or device via a network or a storage medium, and having one or more processors in the computer of the system or device read and execute the program. It can also be realized by a circuit (e.g., an ASIC) that realizes one or more of the functions.
120 画像生成装置
405 被写体形状生成部
406 被写体形状重心算出部
408 被写体位置設定部
412 仮想視点画像生成部
120
Claims (17)
前記撮影領域における複数の被写体の位置に対応する複数の被写体位置を特定する第1の特定手段と、
前記第1の特定手段により特定される複数の被写体位置に基づいて、基準位置を特定する第2の特定手段と、
前記取得手段により取得される形状データに基づいて、前記第1の特定手段により特定される被写体位置と前記第2の特定手段により特定される基準位置とのずれに応じた仮想視点画像を生成する生成手段と
を有することを特徴とする生成装置。 an acquisition means for acquiring shape data representing a shape of a subject based on a plurality of captured images obtained by capturing images of the subject in a capturing area using a plurality of image capturing devices;
a first specifying means for specifying a plurality of subject positions corresponding to positions of a plurality of subjects in the shooting area;
a second specifying means for specifying a reference position based on a plurality of subject positions specified by the first specifying means;
and a generation means for generating a virtual viewpoint image according to a deviation between a subject position identified by the first identification means and a reference position identified by the second identification means, based on the shape data acquired by the acquisition means.
前記ずれが所定の閾値よりも小さくなるように、前記第1の特定手段により特定される被写体位置を変更し、
変更した被写体位置に基づいて前記形状データを配置することにより仮想視点画像を生成する
ことを特徴とする請求項1に記載の生成装置。 The generating means includes:
changing the subject position identified by the first identification means so that the deviation becomes smaller than a predetermined threshold value;
The generating device according to claim 1 , further comprising: a virtual viewpoint image generating unit configured to generate the virtual viewpoint image by arranging the shape data based on a changed subject position.
前記ずれに基づいて、前記第1の特定手段により特定される被写体位置と前記基準位置とが一致するように前記被写体位置を変更し、
変更した被写体位置に基づいて前記形状データを配置することにより仮想視点画像を生成する
ことを特徴とする請求項1に記載の生成装置。 The generating means includes:
changing the subject position based on the deviation so that the subject position identified by the first identification means coincides with the reference position;
The generating device according to claim 1 , further comprising: a virtual viewpoint image generating unit configured to generate the virtual viewpoint image by arranging the shape data based on a changed subject position.
前記撮影領域における複数の被写体の位置に対応する複数の被写体位置を特定する第1の特定工程と、
前記第1の特定工程により特定される複数の被写体位置に基づいて、基準位置を特定する第2の特定工程と、
前記取得工程において取得される形状データに基づいて、前記第1の特定工程において特定される位置と前記第2の特定工程において特定される基準位置とのずれに応じた仮想視点画像を生成する生成工程と
を有することを特徴とする生成方法。 an acquisition step of acquiring shape data representing a shape of a subject based on a plurality of captured images obtained by capturing images of the subject in a capturing area using a plurality of image capturing devices;
a first specifying step of specifying a plurality of subject positions corresponding to positions of a plurality of subjects in the shooting area;
a second specifying step of specifying a reference position based on the plurality of subject positions specified by the first specifying step ;
and a generation step of generating a virtual viewpoint image according to a deviation between the position identified in the first identification step and the reference position identified in the second identification step, based on the shape data acquired in the acquisition step.
前記撮影領域における複数の被写体の位置に対応する複数の被写体位置を特定する第1の特定手段と、
前記第1の特定手段により特定される複数の被写体位置に基づいて、基準位置を特定する第2の特定手段と、
前記取得手段により取得される形状データに基づいて、前記第1の特定手段により特定される被写体位置と前記第2の特定手段により特定される基準位置とのずれに応じた仮想視点画像を生成する生成手段と
を有することを特徴とする生成システム。 an acquisition means for acquiring shape data representing a shape of a subject based on a plurality of captured images obtained by capturing images of the subject in a capturing area using a plurality of image capturing devices;
a first specifying means for specifying a plurality of subject positions corresponding to positions of a plurality of subjects in the photographing area;
a second specifying means for specifying a reference position based on a plurality of subject positions specified by the first specifying means;
and a generation means for generating a virtual viewpoint image according to a deviation between the subject position identified by the first identification means and the reference position identified by the second identification means, based on the shape data acquired by the acquisition means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17/544,786 US12141911B2 (en) | 2020-12-15 | 2021-12-07 | Generation apparatus, generation method, and storage medium |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020207877 | 2020-12-15 | ||
JP2020207877 | 2020-12-15 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022094907A JP2022094907A (en) | 2022-06-27 |
JP7494153B2 true JP7494153B2 (en) | 2024-06-03 |
Family
ID=82162603
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021146788A Active JP7494153B2 (en) | 2020-12-15 | 2021-09-09 | Generation device, generation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7494153B2 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020086983A (en) | 2018-11-27 | 2020-06-04 | キヤノン株式会社 | Image processing device, image processing method, and program |
US10796489B1 (en) | 2017-09-13 | 2020-10-06 | Lucasfilm Entertainment Company Ltd. | Game engine responsive to motion-capture data for mixed-reality environments |
-
2021
- 2021-09-09 JP JP2021146788A patent/JP7494153B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10796489B1 (en) | 2017-09-13 | 2020-10-06 | Lucasfilm Entertainment Company Ltd. | Game engine responsive to motion-capture data for mixed-reality environments |
JP2020086983A (en) | 2018-11-27 | 2020-06-04 | キヤノン株式会社 | Image processing device, image processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP2022094907A (en) | 2022-06-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918455B2 (en) | Image processing equipment, image processing methods and programs | |
JP7023696B2 (en) | Information processing equipment, information processing methods and programs | |
JP7459870B2 (en) | Image processing device, image processing method, and program | |
US11847735B2 (en) | Information processing apparatus, information processing method, and recording medium | |
WO2020050103A1 (en) | Virtual viewpoint control device and method for controlling same | |
JP7446754B2 (en) | Image processing device, image processing method, and program | |
WO2020129659A1 (en) | Image processing device, image processing method, and program | |
JP7494153B2 (en) | Generation device, generation method, and program | |
JP7514346B2 (en) | Image processing device, method, and program | |
JP7296735B2 (en) | Image processing device, image processing method and program | |
WO2022230718A1 (en) | Information processing device, information processing method, and program | |
JP2020101897A (en) | Information processing apparatus, information processing method and program | |
JP7505547B2 (en) | IMAGE PROCESSING DEVICE, CALIBRATION BOARD, AND 3D MODEL DATA GENERATION METHOD | |
JP5192442B2 (en) | VIDEO GENERATION DEVICE, VIDEO GENERATION METHOD, VIDEO GENERATION PROGRAM, AND COMPUTER-READABLE RECORDING MEDIUM CONTAINING THE PROGRAM | |
JP2022012398A (en) | Information processor, information processing method, and program | |
US12141911B2 (en) | Generation apparatus, generation method, and storage medium | |
JP4395082B2 (en) | Video generation apparatus and program | |
JP2022043539A (en) | Image processing apparatus, image processing system, image processing method, and program | |
US11682175B2 (en) | Previsualization devices and systems for the film industry | |
US20220189103A1 (en) | Generation apparatus, generation method, and storage medium | |
WO2022230715A1 (en) | Information processing device, information processing method, and program | |
JP2023167486A (en) | Image processing device, image processing method and program | |
KR102652371B1 (en) | Video production system for learning motion | |
JP2022050305A (en) | Processing system, control method therefor, and program | |
JP2023079950A (en) | Information processing apparatus, information processing system, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220902 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230928 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231010 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231208 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240423 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240522 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7494153 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |