JP2021056900A - Image processor, image processing method, and program - Google Patents
Image processor, image processing method, and program Download PDFInfo
- Publication number
- JP2021056900A JP2021056900A JP2019180969A JP2019180969A JP2021056900A JP 2021056900 A JP2021056900 A JP 2021056900A JP 2019180969 A JP2019180969 A JP 2019180969A JP 2019180969 A JP2019180969 A JP 2019180969A JP 2021056900 A JP2021056900 A JP 2021056900A
- Authority
- JP
- Japan
- Prior art keywords
- image
- virtual viewpoint
- area
- image processing
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003672 processing method Methods 0.000 title claims 4
- 238000000034 method Methods 0.000 claims description 26
- 230000008569 process Effects 0.000 claims description 10
- 230000000007 visual effect Effects 0.000 claims description 4
- 230000000386 athletic effect Effects 0.000 description 11
- 230000006870 function Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 238000000926 separation method Methods 0.000 description 5
- 230000004044 response Effects 0.000 description 4
- 239000012141 concentrate Substances 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- RZSCFTDHFNHMOR-UHFFFAOYSA-N n-(2,4-difluorophenyl)-2-[3-(trifluoromethyl)phenoxy]pyridine-3-carboxamide;1,1-dimethyl-3-(4-propan-2-ylphenyl)urea Chemical compound CC(C)C1=CC=C(NC(=O)N(C)C)C=C1.FC1=CC(F)=CC=C1NC(=O)C1=CC=CN=C1OC1=CC=CC(C(F)(F)F)=C1 RZSCFTDHFNHMOR-UHFFFAOYSA-N 0.000 description 3
- 238000009877 rendering Methods 0.000 description 3
- 241000272470 Circus Species 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000000605 extraction Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Processing Or Creating Images (AREA)
Abstract
Description
本発明は、仮想視点画像を生成する技術に関するものである。 The present invention relates to a technique for generating a virtual viewpoint image.
複数の撮影装置を異なる位置に設置して同期撮影し、その撮影により得られた複数の撮影画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮影画像に基づいて、撮影画像に含まれるオブジェクトの3次元形状データを生成し、仮想視点の位置及び向きに応じたレンダリング処理を行うことにより、仮想視点画像が生成される。 There is a technique in which a plurality of photographing devices are installed at different positions to perform synchronous photography, and a virtual viewpoint image in which the viewpoint can be arbitrarily changed is generated by using a plurality of captured images obtained by the photographing. Specifically, a virtual viewpoint image is generated by generating three-dimensional shape data of an object included in the captured image based on a plurality of captured images and performing rendering processing according to the position and orientation of the virtual viewpoint. To.
特許文献1には、競技場の周囲に設置されたカメラでサッカー競技や陸上競技を撮影して仮想視点画像を生成することが開示されている。このようにして生成された仮想視点画像を視聴することにより、ユーザは競技を様々な方向から観戦することができる。 Patent Document 1 discloses that a camera installed around a stadium captures a soccer competition or an athletics competition to generate a virtual viewpoint image. By viewing the virtual viewpoint image generated in this way, the user can watch the competition from various directions.
競技場において陸上競技が行われる場合、100m走や走り幅跳び、やり投げ等の複数種目の競技が同じ競技場内で並行して進行することがある。このような状況の競技場を撮影した画像に基づいて仮想視点画像を生成した場合、ユーザにとっての仮想視点画像の見やすさが低下する虞がある。例えば、ユーザが100m走を観戦しようとした際に、100m走の選手を走り幅跳びの選手が隠してしまったり、画像に映りこんでいる走り幅跳びが気になってユーザが100m走に集中できなくなったりすることが考えられる。 When athletics are held in the stadium, multiple types of competition such as 100m dash, long jump, javelin throw, etc. may proceed in parallel in the same stadium. When the virtual viewpoint image is generated based on the image of the stadium in such a situation, the visibility of the virtual viewpoint image for the user may be deteriorated. For example, when a user tries to watch the 100m dash, the long jump player hides the 100m dash player, or the long jump that is reflected in the image makes the user unable to concentrate on the 100m dash. Can be considered.
このような課題は陸上競技に限らず、柔道や体操など同一会場で複数の競技が行われる場合に同様に起こりうる。また、複数の演技が行われるサーカスなどを撮影対象とした場合も、ユーザが見たい特定の範囲内の人物等が見づらくなるなど、同様の課題が生じうる。 Such problems are not limited to athletics, but can occur similarly when multiple sports such as judo and gymnastics are held at the same venue. Further, even when a circus or the like in which a plurality of performances are performed is targeted for shooting, the same problem may occur, such as difficulty in seeing a person or the like within a specific range that the user wants to see.
本発明は上記の課題に鑑みてなされたものであり、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to make it easier to see an area in a photographed area where a specific event is performed in a virtual viewpoint image generated based on a photographed image.
上述した課題を解決するために、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、撮影領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得手段と、仮想視点の位置及び向きを示す視点情報を取得する情報取得手段と、前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定手段と、前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定手段により特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得手段により取得された前記複数の画像と前記情報取得手段により取得された視点情報とに基づいて生成する画像生成手段と、を有する。 In order to solve the above-mentioned problems, the image processing apparatus according to the present invention has, for example, the following configuration. That is, an image acquisition means for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot a shooting area from different directions, an information acquisition means for acquiring viewpoint information indicating the position and direction of a virtual viewpoint, and the shooting. A specific means for specifying a partial area in the shooting area where a specific event is performed among the events performed in the area, and a virtual viewpoint image according to the position and orientation of the virtual viewpoint, which is an object in the shooting area. Among the virtual viewpoint images in which the display of objects not located in the partial area specified by the specific means is restricted, the plurality of images acquired by the image acquisition means and the viewpoint acquired by the information acquisition means. It has an image generation means for generating based on information.
本発明によれば、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることができる。 According to the present invention, in a virtual viewpoint image generated based on a captured image, it is possible to make it easier to see an area in the captured area where a specific event is performed.
[システム構成]
図1は、本実施形態に係る画像生成システム100の構成例を示すブロック図である。画像生成システム100は、図1に示されるように、複数の撮影装置110、画像生成装置120、及びユーザ端末130を備える。
[System configuration]
FIG. 1 is a block diagram showing a configuration example of the
複数の撮影装置110は、図2に示すように、撮影領域200の一部又は全体をそれぞれ異なる方向から撮影する。各撮影装置110は、例えば、静止画像及び動画像を撮影可能なデジタルカメラ等である。複数の撮影装置110は、撮影領域200を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、複数の撮影装置110は撮影領域200の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域200の周囲の一部にのみ設置されていてもよい。また、撮影装置110の数は図に示す例に限定されず、例えば撮影領域200を陸上競技の競技場とする場合には、競技場の周囲に100台程度の撮影装置110が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮影装置110が設置されていてもよい。
As shown in FIG. 2, the plurality of photographing
本実施形態における撮影領域200は、複数種目の陸上競技が同時進行する競技場である。ただし撮影領域200はこれに限定されるものではなく、陸上競技以外の競技が行われる競技場であってもよいし、サーカスの演技などが行われる舞台であってもよい。以下では、競技場において行われる競技や、舞台で行われる演技等を、イベントと表記する。例えば、陸上競技の競技場においては100m走、走り幅跳び、及びやり投げ等の複数の異なるイベントがそれぞれ異なる領域で行われる。
The photographing
複数の撮影装置110により撮影された画像は、例えばLANケーブル等の通信媒体を介して、画像生成装置120に伝送される。なお、画像生成装置120への画像の伝送は無線により行われても良い。
Images taken by the plurality of photographing
画像生成装置120は、例えばサーバ装置等であり、データベース機能や画像処理機能を備える。画像生成装置120は、複数の撮影装置110による撮影に基づく複数の画像(複数視点画像)を取得して蓄積する。複数視点画像に含まれる画像は、撮影画像であってもよいし、撮影画像に対して例えば所定の領域を抽出する処理などの画像処理が行われることで得られる画像であってもよい。そして画像生成装置120は、複数視点画像と、ユーザ端末130を介して指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成する。
The
本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作に基づいて行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。 The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image. Further, in the present embodiment, the case where the virtual viewpoint is specified based on the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.
画像生成装置120は、競技の開始前など、選手等の所定のオブジェクトが存在しない状態の競技場が予め撮影された画像を背景画像データとして記憶するデータベース機能を有する。また、画像生成装置120は、競技中の選手等の前景を画像処理により撮影画像から分離して得られた画像を前景画像データとして記憶する。なお、前景の分離方法としては、例えば、撮影画像と背景画像との差分に基づいて前景を抽出するオブジェクト抽出の画像処理を用いる。また、そのほかの方法として、撮影画像から検出された動体を前景として分離するようにしてもよい。なお、前景となるオブジェクトは競技を行う選手だけでなく、他の人物(例えば審判など)であっても良いし、やり投げのやり又は走り高跳びのマットやポールなどの器具であっても良い。
The
画像生成装置120は、保持している背景画像データと前景画像データから、指定された仮想視点に対応する仮想視点画像を生成する。そして画像生成装置120は、生成した仮想視点画像を、LANケーブル等を介して、ユーザ端末130へ出力する。
The
仮想視点画像の生成方式としては、例えば、モデルベースレンダリング(Model−Based Rendering:MBR)を用いることができる。MBRとは、オブジェクトを複数の方向から撮影した複数の撮影画像に基づいて生成される三次元モデルを用いて、仮想視点画像を生成する方式である。具体的には、三次元形状復元方法により得られた対象オブジェクトの三次元形状に対して、仮想視点からの三次元形状の見えに対応した複数の撮影画像をレンダリング画像として投影することで、仮想視点画像を生成する方式である。なお、三次元形状復元方法としては、視体積交差法、又はMVS(Multi−View−Stereo)等の方法を用いることができる。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。 As a virtual viewpoint image generation method, for example, model-based rendering (MBR) can be used. The MBR is a method of generating a virtual viewpoint image by using a three-dimensional model generated based on a plurality of captured images of an object captured from a plurality of directions. Specifically, by projecting a plurality of captured images corresponding to the appearance of the three-dimensional shape from the virtual viewpoint as a rendered image on the three-dimensional shape of the target object obtained by the three-dimensional shape restoration method, it is virtual. This is a method for generating a viewpoint image. As the three-dimensional shape restoration method, a method such as a visual volume crossing method or an MVS (Multi-View-Stereo) can be used. However, the method of generating the virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of the captured image without using the three-dimensional model can be used.
ユーザ端末130は、例えばPCやタブレット端末などであり、マウス、キーボード、6軸コントローラ、又はタッチパネル等のユーザ操作を受け付ける操作部と、画像を表示する表示部とを有する。ユーザ端末130は、注目する競技を選択するための操作や、仮想視点を指定するための操作をユーザから受け付け、ユーザ操作に応じた情報を、LANケーブル等を介して画像生成装置120へ出力する。また、ユーザ端末130は、画像生成装置120から受信した仮想視点画像を表示部に表示させることで、ユーザ操作に応じた仮想視点画像をユーザに視聴させる。
The
本実施形態において、仮想視点を指定するための操作に応じてユーザ端末130から画像生成装置120に入力される情報は、仮想視点画像の生成に用いられる視点情報であり、仮想視点の位置及び向き(視線方向)を示す。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。仮想視点の位置を表すパラメータは、撮影領域200内の位置に関連付けられた原点を有する仮想空間上の三次元位置を表し、例えば撮影領域200の中央等の所定位置に対する仮想視点の相対的な位置を示す。仮想視点の向きを表すパラメータは、仮想視点の位置からどの方向を見た様子を表す仮想視点画像を生成するかを示す。
In the present embodiment, the information input from the
なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。なお、ユーザ端末130からはユーザ操作の内容を示す操作情報が画像生成装置120へ入力され、画像生成装置120が操作情報に基づいて視点情報を生成してもよい。
The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. .. The
なお、画像生成システム100の構成は図1に示したものに限定されない。例えば、画像生成装置120に複数のユーザ端末130が接続されてもよいし、複数の画像生成装置120が撮影装置110から複数視点画像を取得して仮想視点画像を生成してもよい。
The configuration of the
[ハードウェア構成]
図3は、画像生成装置120のハードウェア構成例を示す図である。なお、ユーザ端末130の構成も、以下で説明する画像生成装置120と同様である。画像生成装置120は、CPU301、ROM302、RAM303、HDD304、入力部305、表示部306、及び通信部307を有する。
[Hardware configuration]
FIG. 3 is a diagram showing a hardware configuration example of the
CPU301は、ROM302やHDD304に記憶された制御プログラムを用いて、演算処理や各種プログラムを実行することで、画像生成装置120の各機能を実現する。なお、画像生成装置120がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、ブートプログラム、制御プログラム、画像生成装置120の各部に設定するパラメータ等を記憶する記憶領域を有する。RAM303は、CPU301の主メモリ、ワークエリア等の一致時記憶領域として用いられる。HDD304は、各種データやプログラムを記憶する。なお、HDD304に替えてSSDなどその他の補助記憶装置が用いられてもよい。
The
入力部305は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU301に入力する。表示部306は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像生成装置120を操作するためのGUI(Graphical User Interface)などを表示する。CPU301は、表示部306を制御する表示制御部として動作する。通信部307は、撮影装置110及びユーザ端末130等の外部装置との通信処理を実行する。なお、通信部307による通信は、LAN等の有線ネットワークを介して行われても良いし、無線ネットワークを介して行われても良い。
The
本実施形態では表示部306と入力部305が画像生成装置120の内部に存在するものとするが、表示部306と入力部305との少なくとも一方が画像生成装置120の外部に別の装置として存在していてもよい。
In the present embodiment, it is assumed that the
[画像生成装置の機能構成]
図4は、本実施形態における画像生成装置120の機能構成を示すブロック図である。画像取得部401は、撮影装置110から撮影画像を受信し、前景背景分離部402に送信する。前景背景分離部402は、画像取得部401から受信した撮影画像から、選手等のオブジェクトに対応する前景領域を抽出し、前景画像データとしてデータ保持部403に保存する。データ保持部403は、前景背景分離部402から受信した前景画像データに加えて、競技の開始前などの被写体が存在しない状態の競技場の撮影画像を背景画像データとして保持する。
[Functional configuration of image generator]
FIG. 4 is a block diagram showing a functional configuration of the
モデル生成部404は、データ保持部403から取得した前景画像データと、撮影装置110の位置や姿勢等を示すカメラパラメータとに基づいて、オブジェクトのモデル情報を生成する。モデル情報には、モデルの形状を表す点群データ、及びモデルの位置を表す位置情報などが含まれる。すなわち、モデル情報は、オブジェクトの三次元形状とオブジェクトの位置を表すデータである。
The
情報取得部405は、ユーザ端末130からのユーザ操作に応じた入力をユーザコマンドデータとして受信する。ユーザコマンドデータが、注目する競技を選択する操作に応じた選択情報である場合、情報取得部405は選択情報をエリア管理部407に送信する。選択情報は例えば、複数の競技種目と、その競技種目が選択されたか否かを示す。また、ユーザコマンドデータが、仮想視点を指定する操作に応じた視点情報である場合、情報取得部405は、視点情報を視点設定部406に送信する。
The
視点設定部406は、情報取得部405から受信した情報に基づいて、仮想空間内の仮想視点の位置及び向きを設定し、設定された仮想視点を示す視点情報を画像生成部409に送信する。エリア管理部407は、撮影対象の各競技が行われる競技エリアと、注目対象として指定されている競技とを示す競技エリア情報を管理する。そして、情報取得部405より受信した選択情報に基づいて競技エリア情報を更新し、更新されたことをモデル表示判定部408に通知する。
The
図5を用いて、エリア管理部407により管理される競技エリア情報の例について説明する。図5(A)に示すように、撮影領域200内には走り幅跳びが行われる部分領域であるエリア501と、棒高跳びが行われる部分領域であるエリア502と、100m走が行われる部分領域であるエリア503が含まれる。この例では各エリアが重なりなく設定されているが、複数のエリアの一部が重なっていてもよい。
An example of competition area information managed by the
図5(B)は競技エリア情報510の一例を示す。競技エリア情報510には、複数の競技種目と、各競技が行われる競技エリアを示す座標情報と、各競技が注目対象として指定されているかを示す競技指定情報が含まれる。図5(B)の例では、棒高跳びが注目対象の競技として指定されている。なお、競技エリアの座標情報は、撮影対象となる競技場に応じて予め設定されているものとする。ただし、競技エリアの座標情報は、実際の競技の進行状況に応じて修正できるようにしても良いし、ユーザ端末130からの情報取得部405を介した入力に応じて修正できるようにしても良い。
FIG. 5B shows an example of the
また、図5(B)では競技エリアがX軸及びY軸の2次元座標で表される例を示したが、競技エリアがZ軸方向(高さ方向)の座標を含む3次元座標で表されても良い。また、図5の例では、競技エリアが2点の座標を頂点とする長方形であるものとしたが、競技エリアの形状はこれに限定されず、また競技に応じて競技エリアの形状が異なっていてもよい。また、時間によって撮影領域200内で実施される競技内容やその競技エリアが変わる場合は、競技エリア情報510は上記の情報に加えて、各競技の時刻情報を有していてもよい。この場合、予め競技進行スケジュールに基づいて競技の時刻情報が入力されても良いし、実際の競技の進行状況や撮影状況に応じて時刻情報が更新されるようにしても良い。
Further, in FIG. 5B, an example in which the competition area is represented by the two-dimensional coordinates of the X-axis and the Y-axis is shown, but the competition area is represented by the three-dimensional coordinates including the coordinates in the Z-axis direction (height direction). May be done. Further, in the example of FIG. 5, the competition area is assumed to be a rectangle having the coordinates of two points as vertices, but the shape of the competition area is not limited to this, and the shape of the competition area differs depending on the competition. You may. Further, when the content of the competition to be performed in the photographing
モデル表示判定部408は、競技エリア情報に基づいて、撮影領域200内の複数の領域であってそれぞれ異なるイベントが行われる複数の領域のうち、注目対象として指定された競技に対応する1以上の領域を特定する。競技エリア情報が各競技の時刻情報を有する場合には、モデル表示判定部408は、その時刻情報に基づいて注目されるべきイベントが行われる領域を特定してもよい。これにより、競技の選択に係るユーザ操作の手間を削減できる。
Based on the competition area information, the model
そしてモデル表示判定部408は、モデル生成部404からモデル情報を取得し、モデル情報が表す撮影領域200内の各オブジェクトについて、仮想視点画像における表示を行うか否かを判定し、判定結果を画像生成部409に送信する。本実施例での判定方法としては、注目対象として指定された競技の競技エリア内に各オブジェクトが位置するか否かが判定され、指定された競技エリア内に位置するオブジェクトのみが仮想視点画像における表示対象となるものとする。
Then, the model
なお、本実施形態では、オブジェクトが特定の競技エリア内に位置するかを判定する基準として、オブジェクト全体(人物の場合は身体全体)がそのエリアに含まれている場合にそのオブジェクトがエリア内に位置すると判定するものとする。ただしこれに限らず、例えばオブジェクトの半分以上の部分がそのエリアに含まれる場合にそのオブジェクトがエリア内に位置すると判定されてもよい。または、オブジェクトの特定の部分(例えば重心又は地面に接する部分)がそのエリアに含まれる場合にそのオブジェクトがエリア内に位置すると判定されてもよい。 In the present embodiment, as a criterion for determining whether an object is located in a specific competition area, when the entire object (in the case of a person, the entire body) is included in the area, the object is included in the area. It shall be determined that it is located. However, the present invention is not limited to this, and for example, when a part of half or more of an object is included in the area, it may be determined that the object is located in the area. Alternatively, if a specific part of the object (for example, a part in contact with the center of gravity or the ground) is included in the area, it may be determined that the object is located in the area.
画像生成部409は、モデル表示判定部408からモデル表示の判定結果を受信し、表示を行うと判定されたオブジェクトのモデル情報を、モデル生成部404から取得する。そして画像生成部409は、モデル生成部404から取得したモデル情報と、データ保持部403から取得した前景画像データ及び背景画像データと、視点設定部406により設定された仮想視点を示す視点情報に基づいて、仮想視点画像を生成する。具体的には、仮想視点から見たモデルに対して、画像データの色情報を用いてレンダリング処理を行う。画像生成部409は、生成した仮想視点画像を画像出力部410に送信する。画像出力部410は、画像生成部409から受信した仮想視点画像を、ユーザ端末130に送信する。
The
なお、画像生成装置120の構成は図4に示した例に限定されず、図4に示した構成要素の一部が画像生成装置120とは別の装置に実装されていてもよい。例えば、前景背景分離部402が撮影装置110に実装され、画像生成装置120は前景背景分離により得られた画像データを撮影装置110から取得してもよい。
The configuration of the
[動作フロー]
次に図6を用いて、本実施形態に係る画像生成装置120の処理フローについて説明する。図6に示す処理は、画像生成装置120のCPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。図6に示す処理は、画像生成装置120が撮影装置110及びユーザ端末130と接続され、仮想視点画像の生成に係る処理を行うための指示が画像生成装置120に入力されたタイミングで開始される。ただし、図6に示す処理の開始タイミングはこれに限定されない。なお、図6を用いた以下の説明においては、予め撮影装置110により撮影された複数のフレームから構成される動画の複数視点画像に基づいて、動画の仮想視点画像が生成されるものとする。ただし、撮影装置110による撮影と並行してリアルタイムで動画の仮想視点画像が生成されてもよい。また、静止画の仮想視点画像が生成されてもよい。
[Operation flow]
Next, the processing flow of the
S600において、画像取得部401が撮影装置110から複数視点画像を取得し、前景背景分離部402が複数視点画像から前景画像データを抽出する。そしてモデル生成部404が、前景画像データに基づいてオブジェクトのモデル情報を取得する。S601において、情報取得部405がユーザ端末130から注目対象の競技を選択する操作に応じた選択情報を取得し、エリア管理部407は選択情報に基づいて競技エリア情報を更新する。
In S600, the
図7に、画像生成装置120による表示制御に基づいて、競技選択時にユーザ端末130に表示されるGUI画面の例を示す。ユーザ端末130が有する表示部710には、画面700が表示される。画面700は、競技場の全体図と、エリア管理部407で管理される各競技の競技エリアを示す。ユーザは競技場内における各競技の競技エリア(図7の例では走り幅跳びのエリア701と、棒高跳びのエリア702と、100m走のエリア703)を認識しながら、注目したい対象の競技を選択できる。また、画面700内の競技選択メニュー704は、選択可能な競技のうち、注目対象として現在選択中の競技(図7の例では棒高跳)とそれ以外の競技(図7の例では走幅跳と100m走)を識別可能に示す。選択可能な競技としては、進行中の競技のみが表示されても良いし、すでに終了した競技や将来行われる競技も併せて表示されても良い。また、新たな競技が開始された場合には、それをユーザに通知するメッセージが画面700に表示されてもよい。
FIG. 7 shows an example of a GUI screen displayed on the
なお、図7の例では1つの競技が選択されているが、2以上の競技が選択されてもよい。また、本実施形態ではユーザが競技を選択し、画像生成装置120が選択された競技に対応するエリアを特定するものとするが、これに限らず、ユーザが注目対象の領域を直接選択してもよい。また、ユーザが非注目対象の競技又は領域を選択し、画像生成装置120はその選択に応じた入力に基づいて注目対象の領域を特定してもよい。
In the example of FIG. 7, one competition is selected, but two or more competitions may be selected. Further, in the present embodiment, the user selects the competition and the
S602において、モデル表示判定部408は、モデル生成部404からモデル情報を取得し、モデル情報が示す撮影領域200内の複数のオブジェクトの中から、判定対象のオブジェクトを選択する。S604において、モデル表示判定部408は、エリア管理部407から競技エリア情報を取得し、S602で選択されたオブジェクトが、注目対象として指定されている競技の競技エリア内に位置するかを判定する。選択されたオブジェクトが競技エリア内に位置する場合、S604においてモデル表示判定部408は、そのオブジェクトを仮想視点画像における表示対象に設定する。一方、選択されたオブジェクトが競技エリア内に位置しない場合、S605においてモデル表示判定部408は、そのオブジェクトを仮想視点画像における表示対象に設定しない。
In S602, the model
S606において、モデル表示判定部408は、モデル情報が示す全てのオブジェクトに対して表示又は非表示の設定がされたかを判定する。未設定のオブジェクトがある場合にはS602に戻り、判定対象のオブジェクトが新たに選択される。一方、すべてのオブジェクトについて設定が完了した場合はS607に進む。
In S606, the model
S607において、視点設定部406は、ユーザ端末130から情報取得部405を介して入力された情報に基づいて仮想視点を設定し、視点情報を更新して画像生成部409に送信する。S608において、画像生成部409は、S604で表示対象に設定されたオブジェクトのモデル情報をモデル生成部404から取得する。そして画像生成部409は、表示対象のオブジェクトのモデル情報と、S607で受信した視点情報と、データ保持部403から取得した前景及び背景画像データに基づいて、仮想視点の位置及び向きに応じた仮想視点画像を生成する。ここで生成される仮想視点画像には、表示対象に設定されたオブジェクト(注目対象の競技に対応する領域内に位置するオブジェクト)のうち仮想視点の位置及び向きに応じた視界内のオブジェクトが含まれる。S609において、画像出力部410は、S608で生成された仮想視点画像をユーザ端末130に出力する。
In S607, the
[仮想視点画像の例]
図8を用いて、図6のS608で生成される仮想視点画像について具体的に説明する。図8(A)は、撮影領域200内の注目対象として指定された棒高跳エリア801と、S607で設定された仮想視点802と、オブジェクト803及びオブジェクト804との位置関係を示す。オブジェクト803は、棒高跳エリア801のエリア内に位置し、オブジェクト804は、棒高跳エリア801のエリア外に位置する。また、仮想視点802の位置及び向きに応じた視野内にオブジェクト803及びオブジェクト804が含まれているものとする。
[Example of virtual viewpoint image]
The virtual viewpoint image generated in S608 of FIG. 6 will be specifically described with reference to FIG. FIG. 8A shows the positional relationship between the
図8(B)は、図8(A)に示す状況に応じてS608で生成される仮想視点画像生成の表示例を示す。ユーザ端末130の表示部710に、仮想視点画像800が表示されている。仮想視点画像800において、棒高跳エリア801のエリア内に位置するオブジェクト803は表示されるが、棒高跳エリア801のエリア外に位置するオブジェクト804は表示されていない。すなわち、画像生成装置120は、指定された棒高跳びエリア801外のオブジェクト804の表示が制限され、指定された棒高跳びエリア801内のオブジェクト803のみが表示されるような仮想視点画像800を生成している。図8(b)においてはオブジェクト804を模式的に点線で示しているが、実際にはオブジェクト804は仮想視点画像800に表示されず、仮想視点画像800を見るユーザからは視認できない。
FIG. 8B shows a display example of virtual viewpoint image generation generated in S608 according to the situation shown in FIG. 8A. The
このような仮想視点画像800が表示されることにより、ユーザ端末130を用いて仮想視点画像800を見るユーザは、注目対象として指定したエリア内の画像に集中することができる。例えば、注目対象を棒高跳びとした場合に、幅跳びの選手が表示されないことにより、棒高跳びの競技の仮想視点画像800の見やすさが向上する。
By displaying such a
なお、上記の説明においては、注目対象として指定された競技に対応する競技エリア(指定エリア)外のオブジェクトが表示されないものとしたが、画像生成装置120は指定エリア内に位置しないオブジェクトの表示を制限すればよい。すなわち、画像生成装置120は、撮影領域200内のオブジェクトのうち1以上の指定エリア内に位置しないオブジェクトの表示が制限された仮想視点画像を生成すればよく、制限の内容は表示有無の制限に限定されない。例えば、指定エリア外のオブジェクトに透過処理を施して半透明で表示することで、そのオブジェクトの表示の視認性を低減させるように表示制限がされても良い。また例えば、指定エリア外のオブジェクトを特定の単色で着色することで目立たないようにしても良い。また、指定エリア外のオブジェクトのうち、仮想視点から見て指定エリアの手前側にあるオブジェクトと、指定エリアの奥側にあるオブジェクトとの表示態様がそれぞれ異なってもよい。
In the above description, it is assumed that the objects outside the competition area (designated area) corresponding to the competition designated as the attention target are not displayed, but the
また、モデル表示判定部408は、指定エリア外のオブジェクトの表示を制限するか否か、又は指定エリア外のオブジェクトの表示の制限内容を、ユーザ端末130からの入力等に基づいて設定してもよい。そして画像生成部409は、その設定に応じて仮想視点画像を生成してもよい。
Further, the model
また、指定エリア外のオブジェクトについて、オブジェクトの種別毎に表示態様を異ならせたり、オブジェクトの種別ごとに表示有無を選択したりできるようにしても良い。例えば、仮想視点の位置及び向きに応じた視野に含まれ且つ指定エリア内に位置しないオブジェクトのうち、人物のオブジェクトは表示されず、マットやポールなどの器具のオブジェクトは表示されるようにしてもよい。これにより、指定エリア外の人物を非表示にすることで指定エリア内のオブジェクトの視認性を向上させつつ、指定エリア外の器具は表示させることで競技場の臨場感を維持することができる。なお、オブジェクトの種別は人物と器具に限定されず、例えば動体と静止物体とを異なる種別のオブジェクトとして扱ってもよい。 Further, for the objects outside the designated area, the display mode may be different for each object type, and the display / non-display may be selected for each object type. For example, among the objects included in the field of view according to the position and orientation of the virtual viewpoint and not located in the specified area, the object of the person is not displayed, and the object of the instrument such as the mat or the pole is displayed. Good. As a result, the visibility of the objects in the designated area can be improved by hiding the person outside the designated area, and the presence of the stadium can be maintained by displaying the equipment outside the designated area. The type of object is not limited to a person and an instrument, and for example, a moving object and a stationary object may be treated as different types of objects.
また、ユーザ端末130からの入力に応じて仮想視点の設定を行う際の、仮想視点の初期値が、注目対象として指定された競技に応じて異なっていても良い。例えば、仮想視点の初期位置が指定エリアの中央位置に設定されても良いし、競技に応じた最も注目すべきポイント(100m走のゴールや、高跳びのバーなど)が見えるように設定されても良い。また、仮想視点の初期状態を、過去に同じ競技が指定された際の仮想視点の状態に設定しても良い。この場合、画像生成装置120は、ユーザ操作により選択された競技に応じた仮想視点の位置及び向きを示す視点情報を取得する。そして、競技ごとの仮想視点を示す情報がエリア管理部407で管理され、ユーザ端末130に送信される。また、ユーザ端末130からの入力に応じて仮想視点の設定を行う際に、指定エリア内でのみ仮想視点の位置を指定可能なように制限されても良い。また、指定エリアがある方向にのみ仮想視点の向きを指定可能なように制限されても良い。このような処理により、競技ごとの見やすい視点に応じた仮想視点画像をユーザに提供できる。
Further, the initial value of the virtual viewpoint when setting the virtual viewpoint in response to the input from the
また、エリア管理部407は、図11に示すような、複数の仮想視点(仮想視点A〜F)と競技とを対応付ける対応情報を保持していてもよい。この場合、ユーザはユーザ端末130を介して、仮想視点A〜Fの中から特定の仮想視点を選択する。情報取得部405はこの選択操作に応じた入力を受け付け、視点設定部406は選択に応じた仮想視点を設定する。そしてエリア管理部407は、選択された仮想視点に対応付けられた競技のエリアを指定エリアとして設定する。これにより、S601の競技選択が行われなくても、仮想視点に対応付けられた競技エリア内のオブジェクトのみが表示される仮想視点画像が生成される。図11に示す対応情報によれば、1つの競技に複数の仮想視点を対応付けることができるため、ユーザは複数の仮想視点を切り替えながら競技を観戦することができる。それぞれの仮想視点の位置及び向きは競技に応じて予め定められていてもよいし、各仮想視点の位置及び向きを変更可能にして、変更された各仮想視点の位置及び向きを保持するようにしてもよい。エリア管理部407が保持する対応情報における仮想視点と競技との対応関係は、予め定められていてもよいし、ユーザ端末130の操作に応じて設定及び変更できるようにしてもよい。また、それぞれの仮想視点を識別するための名称をユーザが設定できるようにしてもよい。
Further, the
なお、図11を用いた上記の例では複数の仮想視点から特定の仮想視点を選択するユーザ操作に応じて指定エリアが設定されるものとしたが、これに限らず、ユーザに指定された仮想視点の位置及び向きを示す視点情報に基づいて指定エリアが設定されてもよい。すなわち、ユーザがユーザ端末130を介して仮想視点を自由に指定し、エリア管理部407は複数の競技エリアのうち指定された仮想視点に対応する競技エリアを特定して、その競技エリアを指定エリアとして設定してもよい。指定された仮想視点に対応する競技エリアは、例えば、仮想視点に最も近い競技エリアや、仮想視点画像に最も大きく映る競技エリアなどであってもよい。
In the above example using FIG. 11, the designated area is set according to the user operation of selecting a specific virtual viewpoint from a plurality of virtual viewpoints, but the present invention is not limited to this, and the virtual viewpoint designated by the user is not limited to this. A designated area may be set based on viewpoint information indicating the position and orientation of the viewpoint. That is, the user can freely specify the virtual viewpoint via the
また、上述した実施形態では、指定エリア外のオブジェクトを非表示とする場合に、画像生成部409が指定エリア内のオブジェクトのモデル情報を取得し、そのモデル情報と仮想視点を示す視点情報とに基づいて仮想視点画像を生成するものとした。すなわち、モデル生成部404により生成されたモデル情報のうち、指定エリア内に位置しないオブジェクトのモデル情報を用いずに仮想視点画像が生成されるものとした。ただし、仮想視点画像の生成方法はこれに限定されない。例えば、画像生成部409は、仮想視点の視野に含まれる範囲を特定し、指定エリア内のオブジェクトのうちその視野の範囲内に位置するオブジェクトのモデル情報を取得してもよい。これにより、画像生成部409が処理するモデル情報のデータ量を削減できる。
Further, in the above-described embodiment, when the object outside the designated area is hidden, the
また、画像生成装置120は、モデル情報を取得する前に指定エリアの選択を受け付け、指定エリア内のオブジェクトのモデル情報をモデル生成部404により生成し、指定エリア外のオブジェクトのモデル情報を生成しなくてもよい。この場合、限られたエリア内のオブジェクトのモデルのみ生成されるため、モデル生成時間を短縮できるという効果がある。ただし、画像生成装置120に複数のユーザ端末130が接続され、複数のユーザ端末130によりそれぞれ異なる競技が選択されうる場合は、この限りでない。このような場合は、画像生成装置120は撮影領域200内のオブジェクト全体のモデルを生成し、各ユーザ端末130からの競技選択の情報に基づいて、それぞれのユーザ端末130用の仮想視点画像を並行して生成してもよい。
Further, the
[オブジェクトの位置履歴を用いる例]
以下では、オブジェクトの位置履歴を用いて、仮想視点画像における各オブジェクトの表示有無を判定する場合について説明する。この場合、モデル表示判定部408は、複数の時刻におけるオブジェクトの位置を示すモデル情報を取得し、モデル毎の位置履歴を保持する。そしてモデル表示判定部408は、エリア管理部407から取得した競技エリア情報と各オブジェクトの位置履歴に基づいて、各オブジェクトの表示を行うか否かを判定する。
[Example using object position history]
In the following, a case of determining whether or not to display each object in the virtual viewpoint image will be described using the position history of the objects. In this case, the model
図9を用いて、オブジェクトの位置変化と位置履歴について説明する。9(A)は、複数の撮影時刻(t1、t2、t3)における、棒高跳エリア901、走幅跳エリア902、オブジェクト903及びオブジェクト904の位置関係を示す。図9(B)は、図9(A)に示す状況に対応するオブジェクトの履歴情報910の例を示す。履歴情報910は、各撮影時刻において各オブジェクトが位置する競技エリアを示す。
The position change and the position history of the object will be described with reference to FIG. 9 (A) shows the positional relationship between the
図9の例において、オブジェクト904(オブジェクトB)は、時刻t1では走幅跳エリア902にいるが、時刻t2では棒高跳エリア901に位置し、時刻t3では再度、走幅跳エリア902に位置している。なお、図9(B)の例では履歴情報910がオブジェクトの位置する競技エリアの履歴を示すものとしたが、履歴情報910はオブジェクトの座標の履歴を示しても良いし、オブジェクトが位置する競技エリアの変更の履歴を示してもよい。
In the example of FIG. 9, the object 904 (object B) is in the
次に、オブジェクトの位置履歴を用いる場合の画像生成装置の処理フローについて、図10を用いて説明する。図10において、図6を用いて説明した処理と同様の処理については同じ符号を付している。以下では図6を用いて説明した処理フローとの差異を中心に説明する。 Next, the processing flow of the image generator when the position history of the object is used will be described with reference to FIG. In FIG. 10, the same reference numerals are given to the same processes as those described with reference to FIG. In the following, the differences from the processing flow described with reference to FIG. 6 will be mainly described.
S600において、モデル生成部404によりモデル情報が生成されると、モデル表示判定部408はモデル情報に基づいてオブジェクトの位置の履歴を示す履歴情報を生成して保持する。S601からS603の処理は図6を用いて説明した処理と同様である。
In S600, when the model information is generated by the
判定対象のオブジェクトが注目対象として指定された指定エリア内に位置する場合、S1001においてモデル表示判定部408は、判定対象のオブジェクトが他の時刻に指定エリア外に位置するかを履歴情報に基づいて判定する。そして、他の時刻においても対象のオブジェクトが指定エリア内に位置する場合は、S604においてそのオブジェクトは表示対象に設定される。一方、他の時刻において対象のオブジェクトが指定エリア外に位置する場合は、S605においてそのオブジェクトは非表示に設定される。S606以降の処理は図6を用いて説明した処理と同様である。
When the object to be determined is located in the designated area designated as the object of interest, the model
図9に示した例では、注目対象の競技として棒高跳を選択され、時刻t2の仮想視点画像を生成する場合、オブジェクト904は時刻t2の時点では棒高跳エリア901に位置する。しかし、オブジェクト904は他の時刻t1及びt3では棒高跳エリア901の外(走幅跳エリア902)に位置するため、オブジェクト904は非表示に設定され、時刻t2の仮想視点画像に表示されない。
In the example shown in FIG. 9, when pole vault is selected as the competition of interest and a virtual viewpoint image at time t2 is generated, the
このようにすることによって、注目競技と異なる競技の選手が注目競技のエリアに一時的に侵入した場合等に、その選手を仮想視点画像に表示させないようにすることができる。これにより、注目競技に関係ないオブジェクトが表示されたり消えたりすることによる仮想視点画像の見やすさの低下を抑制することができる。 By doing so, when a player in a competition different from the attention competition temporarily invades the area of the attention competition, the player can be prevented from being displayed in the virtual viewpoint image. As a result, it is possible to suppress a decrease in the visibility of the virtual viewpoint image due to the display and disappearance of objects that are not related to the competition of interest.
なお、図9の例では時刻t1〜t3の3つの時刻に対応するオブジェクトの履歴情報を示したが、画像生成装置120は競技が撮影される期間全体に含まれる各時刻のオブジェクトの位置を示す履歴情報を保持してもよい。ただし、S1001の判定の際には、生成する仮想視点画像の時刻の前あるいは後の一方におけるオブジェクトの位置履歴が判定対象となっても良いし、仮想視点画像の時刻を含む一定期間におけるオブジェクトの位置履歴が判定対象となってもよい。例えば、ある時刻の仮想視点画像において、その時刻に指定エリア内に位置するオブジェクトのうち、その時刻の前後数分の期間内に指定エリア内に位置しないオブジェクトは表示されず、当該期間内に指定エリア内に位置するオブジェクトは表示されてもよい。
In the example of FIG. 9, the history information of the objects corresponding to the three times t1 to t3 is shown, but the
また、指定エリア内に位置する時間が指定エリア外に位置する時間より長いオブジェクトを表示対象にしてもよいし、少なくとも1時刻において指定エリア内に位置したモデルを表示対象としても良い。また、他の時刻に指定エリア外にいるオブジェクトであっても、生成する仮想視点画像の時刻において指定エリア内の中央付近に位置するオブジェクトは表示対象にするなど、エリア内でのオブジェクトの位置に応じて表示有無が決定されてもよい。 Further, an object whose time located in the designated area is longer than the time located outside the designated area may be displayed, or a model located in the designated area at least one time may be displayed. Also, even if the object is outside the specified area at another time, the object located near the center of the specified area at the time of the generated virtual viewpoint image will be displayed, and the position of the object within the area will be changed. Whether or not to display may be determined accordingly.
また、同様にオブジェクトの位置履歴を用いて、指定エリア外に一時的に出てしまったオブジェクトを表示対象のままにしても良い。例えば、ある時刻の仮想視点画像において、その時刻に指定エリア外に位置するオブジェクトのうち、その時刻の前後数分の期間内に指定エリア内に位置しないオブジェクトは表示されず、当該期間内に指定エリア内に位置するオブジェクトは表示されてもよい。図9の例では、オブジェクト904は時刻t2では走幅跳エリア902の外(棒高跳エリア901)に位置するが、他の時刻t1及びt3では走幅跳エリア902にいるため、注目対象として走幅跳が指定された場合にオブジェクト904を表示対象としても良い。これにより、注目対象の競技の選手が競技の合間に一時的に指定エリアから離れてしまうような場合にも、その選手の様子を仮想視点画像に映し続けることができる。
Similarly, the position history of the object may be used to leave the object temporarily out of the designated area as the display target. For example, in a virtual viewpoint image at a certain time, among the objects located outside the specified area at that time, the objects that are not located within the specified area within a period of several minutes before and after that time are not displayed and are specified within the period. Objects located within the area may be displayed. In the example of FIG. 9, the
また、オブジェクトの位置履歴を基に、各オブジェクトに対応する競技(各選手が参加している競技)を判定しても良い。その場合、判定対象のオブジェクトが最も長い時間位置するエリアの競技をそのオブジェクトに対応する競技としても良い。また、オブジェクトが2以上のエリアに同程度の時間だけ位置する場合には、2つ以上の競技をそのオブジェクトに対応付けても良い。2以上の競技エリアの一部が重なる場合には、重なったエリアに位置するオブジェクトの位置履歴を用いることで、そのオブジェクトがどちらの競技に対応するオブジェクトかを判定することもできる。 Further, the competition corresponding to each object (competition in which each player participates) may be determined based on the position history of the object. In that case, the competition in the area where the object to be determined is located for the longest time may be the competition corresponding to the object. Further, when an object is located in two or more areas for the same amount of time, two or more competitions may be associated with the object. When a part of two or more competition areas overlaps, it is possible to determine which competition the object corresponds to by using the position history of the objects located in the overlapping areas.
以上説明したように、本実施形態に係る画像生成装置120は、撮影領域200をそれぞれ異なる方向から撮影する複数の撮影装置110による撮影に基づく複数視点画像を取得する。また、画像生成装置120は、仮想視点の位置及び向きを示す視点情報を取得し、撮影領域200で行われるイベントのうち特定のイベントが行われる撮影領域200内の部分領域を特定する。そして画像生成装置120は、撮影領域200内のオブジェクトのうち特定された部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、複数視点画像と視点情報とに基づいて生成する。
As described above, the
このような構成によれば、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることができる。例えば、ユーザが100m走を観戦しようとした場合に、100m走の選手を走り幅跳びの選手が隠してしまったり、画像に映りこんでいる走り幅跳びが気になってユーザが100m走に集中できなくなったりすることのない、見やすい仮想視点画像を提供できる。 According to such a configuration, in the virtual viewpoint image generated based on the captured image, it is possible to easily see the region in the captured area where a specific event is performed. For example, when the user tries to watch the 100m dash, the long jump player hides the 100m dash player, or the long jump that is reflected in the image makes the user unable to concentrate on the 100m dash. It is possible to provide a virtual viewpoint image that is easy to see.
なお、本実施形態では、陸上競技場において複数種目の陸上競技が行われる例を中心に説明したが、これに限らず、体操や柔道、レスリングのように同じ競技場で複数の競技あるいは複数の試合が同時進行する場合にも本実施形態を適用できる。すなわち、同じ競技場で行われる複数の競技又は試合のうち、特定の競技又は試合が行われるエリアの外に位置するオブジェクトの表示が制限された仮想視点画像を生成することができる。あるいは、同会場で競技に限らない複数のイベントが同時に進行される場合にも、同様に本実施形態を適用できる。 In this embodiment, a plurality of types of athletics are mainly performed in the athletics stadium, but the present invention is not limited to this, and a plurality of athletics or a plurality of athletics such as gymnastics, judo, and wrestling are described. This embodiment can be applied even when the games are going on at the same time. That is, it is possible to generate a virtual viewpoint image in which the display of an object located outside the area where a specific competition or match is held is restricted among a plurality of competitions or matches played in the same stadium. Alternatively, the present embodiment can be similarly applied to the case where a plurality of events, not limited to competitions, are simultaneously held at the same venue.
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a computer-readable recording medium.
100 画像生成システム
110 撮影装置
120 画像生成装置
130 ユーザ端末
200 撮影領域
100
Claims (24)
仮想視点の位置及び向きを示す視点情報を取得する情報取得手段と、
前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定手段と、
前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定手段により特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得手段により取得された前記複数の画像と前記情報取得手段により取得された視点情報とに基づいて生成する画像生成手段と、を有することを特徴とする画像処理装置。 An image acquisition means for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot a shooting area from different directions, and an image acquisition means.
Information acquisition means for acquiring viewpoint information indicating the position and orientation of the virtual viewpoint,
A specific means for specifying a partial area in the shooting area where a specific event is performed among the events performed in the shooting area, and
A virtual viewpoint image according to the position and orientation of the virtual viewpoint, wherein the display of objects not located in the partial area specified by the specific means among the objects in the shooting area is restricted. An image processing apparatus comprising, an image generation means for generating based on the plurality of images acquired by the image acquisition means and viewpoint information acquired by the information acquisition means.
前記画像生成手段は、前記モデル生成手段により生成されたモデル情報と前記情報取得手段により取得された視点情報とに基づいて前記仮想視点画像を生成することを特徴とする請求項1又は2に記載の画像処理装置。 It has a model generating means for generating model information representing a three-dimensional shape of an object in the photographing area based on the plurality of images acquired by the image acquiring means.
The first or second aspect of the present invention, wherein the image generation means generates the virtual viewpoint image based on the model information generated by the model generation means and the viewpoint information acquired by the information acquisition means. Image processing equipment.
前記特定手段は、それぞれ異なる種目の競技が行われる複数の領域のうち前記特定のイベントが行われる領域を前記部分領域として特定することを特徴とする請求項1乃至15の何れか1項に記載の画像処理装置。 The shooting area is a stadium where multiple types of competitions are held.
The specific means according to any one of claims 1 to 15, wherein the region where the specific event is performed is specified as the partial region among a plurality of regions where competitions of different events are performed. Image processing equipment.
画像生成手段は、前記設定手段による設定に応じて前記仮想視点画像を生成することを特徴とする請求項1乃至16の何れか1項に記載の画像処理装置。 It has a setting means for setting whether or not to limit the display of an object not located in the partial area specified by the specific means.
The image processing apparatus according to any one of claims 1 to 16, wherein the image generation means generates the virtual viewpoint image according to the setting by the setting means.
前記複数の仮想視点の何れかを選択するユーザ操作に応じた入力を受け付ける受付手段を有し、
前記特定手段は、前記受付手段により受け付けられた入力と前記保持手段により保持された前記対応情報とに基づいて、前記ユーザ操作により選択された仮想視点に対応するイベントが行われる領域を前記部分領域として特定することを特徴とする請求項1乃至17の何れか1項に記載の画像処理装置。 A holding means that holds correspondence information that associates multiple virtual viewpoints with events,
It has a receiving means for receiving an input according to a user operation for selecting one of the plurality of virtual viewpoints.
The specific means is a partial area in which an event corresponding to a virtual viewpoint selected by the user operation is performed based on the input received by the receiving means and the corresponding information held by the holding means. The image processing apparatus according to any one of claims 1 to 17, wherein the image processing apparatus is specified as.
仮想視点の位置及び向きを示す視点情報を取得する情報取得工程と、
前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定工程と、
前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定工程において特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得工程において取得された前記複数の画像と前記情報取得工程において取得された視点情報とに基づいて生成する画像生成工程と、を有することを特徴とする画像処理方法。 An image acquisition process for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot the shooting area from different directions, and
An information acquisition process for acquiring viewpoint information indicating the position and orientation of a virtual viewpoint,
A specific step of specifying a partial area in the shooting area where a specific event is performed among the events performed in the shooting area, and
A virtual viewpoint image according to the position and orientation of the virtual viewpoint, wherein the display of objects not located in the partial area specified in the specific step among the objects in the shooting area is restricted. An image processing method comprising the plurality of images acquired in the image acquisition step and an image generation step of generating based on the viewpoint information acquired in the information acquisition step.
前記特定工程は、それぞれ異なる種目の競技が行われる複数の領域のうち前記特定のイベントが行われる領域を前記部分領域として特定することを特徴とする請求項22に記載の画像処理方法。 The shooting area is a stadium where multiple types of competitions are held.
The image processing method according to claim 22, wherein the specific step specifies a region in which the specific event is performed among a plurality of regions in which competitions of different events are performed as the partial region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019180969A JP7446754B2 (en) | 2019-09-30 | 2019-09-30 | Image processing device, image processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019180969A JP7446754B2 (en) | 2019-09-30 | 2019-09-30 | Image processing device, image processing method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021056900A true JP2021056900A (en) | 2021-04-08 |
JP7446754B2 JP7446754B2 (en) | 2024-03-11 |
Family
ID=75270816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019180969A Active JP7446754B2 (en) | 2019-09-30 | 2019-09-30 | Image processing device, image processing method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7446754B2 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145571A1 (en) * | 2022-01-31 | 2023-08-03 | キヤノン株式会社 | Information processing device, information processing method, data structure, and program |
WO2023167324A1 (en) * | 2022-03-03 | 2023-09-07 | 株式会社安川電機 | Production system and reproduction method |
WO2024001223A1 (en) * | 2022-06-27 | 2024-01-04 | 华为技术有限公司 | Display method, device, and system |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019095936A (en) * | 2017-11-20 | 2019-06-20 | キヤノン株式会社 | Image processor, method for processing image, and program |
-
2019
- 2019-09-30 JP JP2019180969A patent/JP7446754B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019095936A (en) * | 2017-11-20 | 2019-06-20 | キヤノン株式会社 | Image processor, method for processing image, and program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023145571A1 (en) * | 2022-01-31 | 2023-08-03 | キヤノン株式会社 | Information processing device, information processing method, data structure, and program |
WO2023167324A1 (en) * | 2022-03-03 | 2023-09-07 | 株式会社安川電機 | Production system and reproduction method |
WO2024001223A1 (en) * | 2022-06-27 | 2024-01-04 | 华为技术有限公司 | Display method, device, and system |
Also Published As
Publication number | Publication date |
---|---|
JP7446754B2 (en) | 2024-03-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6918455B2 (en) | Image processing equipment, image processing methods and programs | |
JP7140487B2 (en) | Information processing device, display control method, and program | |
US20210227201A1 (en) | Display control apparatus, display control method, and storage medium | |
JP7446754B2 (en) | Image processing device, image processing method, and program | |
JP7366611B2 (en) | Image processing device, image processing method, and program | |
JP7023696B2 (en) | Information processing equipment, information processing methods and programs | |
KR20180059765A (en) | Information processing apparatus, information processing method, and program | |
JP2020086983A (en) | Image processing device, image processing method, and program | |
US11468258B2 (en) | Information processing apparatus, information processing method, and storage medium | |
JP2020042407A (en) | Information processor and information processing method and program | |
US20220277520A1 (en) | Information processing apparatus, information processing method, and storage medium | |
JP6812181B2 (en) | Image processing device, image processing method, and program | |
JP2019197340A (en) | Information processor, method for processing information, and program | |
KR102453296B1 (en) | Information processing apparatus, control method therefor and computer program | |
JP7401199B2 (en) | Information processing device, information processing method, and program | |
JP7479793B2 (en) | Image processing device, system for generating virtual viewpoint video, and method and program for controlling the image processing device | |
JP7296735B2 (en) | Image processing device, image processing method and program | |
JP2023057124A (en) | Image processing apparatus, method, and program | |
JP2020135290A (en) | Image generation device, image generation method, image generation system, and program | |
JP2022182836A (en) | Video processing device and its control method, and program | |
JP2022169177A (en) | Information processing device, information processing method, and program | |
JP2022110751A (en) | Information processing device, information processing method, and program | |
JP2021144522A (en) | Image processing apparatus, image processing method, program, and image processing system | |
JP2020190978A (en) | Information processing apparatus, information processing method, and program | |
EP4261788A1 (en) | Image processing apparatus, image processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220920 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20231003 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20231201 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20231213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240228 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7446754 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |