Nothing Special   »   [go: up one dir, main page]

JP2021056900A - Image processor, image processing method, and program - Google Patents

Image processor, image processing method, and program Download PDF

Info

Publication number
JP2021056900A
JP2021056900A JP2019180969A JP2019180969A JP2021056900A JP 2021056900 A JP2021056900 A JP 2021056900A JP 2019180969 A JP2019180969 A JP 2019180969A JP 2019180969 A JP2019180969 A JP 2019180969A JP 2021056900 A JP2021056900 A JP 2021056900A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
area
image processing
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019180969A
Other languages
Japanese (ja)
Other versions
JP7446754B2 (en
Inventor
麻衣 小宮山
Mai Komiyama
麻衣 小宮山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019180969A priority Critical patent/JP7446754B2/en
Publication of JP2021056900A publication Critical patent/JP2021056900A/en
Application granted granted Critical
Publication of JP7446754B2 publication Critical patent/JP7446754B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To make it easy to view a region where a specific event within a photographing region is performed in a virtual viewpoint image generated based on a photographed image.SOLUTION: An image generator 120 acquires a plurality of viewpoint images based on photographing performed by a plurality of photographing devices 110 which photograph a photographed region 200 from mutually different directions. The image generator 120 acquires viewpoint information indicating the position and the direction of a virtual viewpoint and specifies a partial region in the photographing region 200 where a specific event included in those performed in the photographed region 200 is performed. Then the image generator 120 generates, based on the plurality of viewpoint images and viewpoint information, a virtual viewpoint image which has limitation on display of an object not located within the specified partial region included in the object in the photographed image 200.SELECTED DRAWING: Figure 8

Description

本発明は、仮想視点画像を生成する技術に関するものである。 The present invention relates to a technique for generating a virtual viewpoint image.

複数の撮影装置を異なる位置に設置して同期撮影し、その撮影により得られた複数の撮影画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。具体的には、複数の撮影画像に基づいて、撮影画像に含まれるオブジェクトの3次元形状データを生成し、仮想視点の位置及び向きに応じたレンダリング処理を行うことにより、仮想視点画像が生成される。 There is a technique in which a plurality of photographing devices are installed at different positions to perform synchronous photography, and a virtual viewpoint image in which the viewpoint can be arbitrarily changed is generated by using a plurality of captured images obtained by the photographing. Specifically, a virtual viewpoint image is generated by generating three-dimensional shape data of an object included in the captured image based on a plurality of captured images and performing rendering processing according to the position and orientation of the virtual viewpoint. To.

特許文献1には、競技場の周囲に設置されたカメラでサッカー競技や陸上競技を撮影して仮想視点画像を生成することが開示されている。このようにして生成された仮想視点画像を視聴することにより、ユーザは競技を様々な方向から観戦することができる。 Patent Document 1 discloses that a camera installed around a stadium captures a soccer competition or an athletics competition to generate a virtual viewpoint image. By viewing the virtual viewpoint image generated in this way, the user can watch the competition from various directions.

特開2017−211828号公報Japanese Unexamined Patent Publication No. 2017-21128

競技場において陸上競技が行われる場合、100m走や走り幅跳び、やり投げ等の複数種目の競技が同じ競技場内で並行して進行することがある。このような状況の競技場を撮影した画像に基づいて仮想視点画像を生成した場合、ユーザにとっての仮想視点画像の見やすさが低下する虞がある。例えば、ユーザが100m走を観戦しようとした際に、100m走の選手を走り幅跳びの選手が隠してしまったり、画像に映りこんでいる走り幅跳びが気になってユーザが100m走に集中できなくなったりすることが考えられる。 When athletics are held in the stadium, multiple types of competition such as 100m dash, long jump, javelin throw, etc. may proceed in parallel in the same stadium. When the virtual viewpoint image is generated based on the image of the stadium in such a situation, the visibility of the virtual viewpoint image for the user may be deteriorated. For example, when a user tries to watch the 100m dash, the long jump player hides the 100m dash player, or the long jump that is reflected in the image makes the user unable to concentrate on the 100m dash. Can be considered.

このような課題は陸上競技に限らず、柔道や体操など同一会場で複数の競技が行われる場合に同様に起こりうる。また、複数の演技が行われるサーカスなどを撮影対象とした場合も、ユーザが見たい特定の範囲内の人物等が見づらくなるなど、同様の課題が生じうる。 Such problems are not limited to athletics, but can occur similarly when multiple sports such as judo and gymnastics are held at the same venue. Further, even when a circus or the like in which a plurality of performances are performed is targeted for shooting, the same problem may occur, such as difficulty in seeing a person or the like within a specific range that the user wants to see.

本発明は上記の課題に鑑みてなされたものであり、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to make it easier to see an area in a photographed area where a specific event is performed in a virtual viewpoint image generated based on a photographed image.

上述した課題を解決するために、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、撮影領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得手段と、仮想視点の位置及び向きを示す視点情報を取得する情報取得手段と、前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定手段と、前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定手段により特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得手段により取得された前記複数の画像と前記情報取得手段により取得された視点情報とに基づいて生成する画像生成手段と、を有する。 In order to solve the above-mentioned problems, the image processing apparatus according to the present invention has, for example, the following configuration. That is, an image acquisition means for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot a shooting area from different directions, an information acquisition means for acquiring viewpoint information indicating the position and direction of a virtual viewpoint, and the shooting. A specific means for specifying a partial area in the shooting area where a specific event is performed among the events performed in the area, and a virtual viewpoint image according to the position and orientation of the virtual viewpoint, which is an object in the shooting area. Among the virtual viewpoint images in which the display of objects not located in the partial area specified by the specific means is restricted, the plurality of images acquired by the image acquisition means and the viewpoint acquired by the information acquisition means. It has an image generation means for generating based on information.

本発明によれば、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることができる。 According to the present invention, in a virtual viewpoint image generated based on a captured image, it is possible to make it easier to see an area in the captured area where a specific event is performed.

画像生成システムの構成を示すブロック図である。It is a block diagram which shows the structure of an image generation system. 撮影装置の設置例を示す図である。It is a figure which shows the installation example of the photographing apparatus. 画像生成装置のハードウェア構成例を示す図である。It is a figure which shows the hardware configuration example of an image generator. 画像生成装置の機能構成例を示すブロック図である。It is a block diagram which shows the functional structure example of an image generation apparatus. 競技エリア情報の例を説明するための図である。It is a figure for demonstrating the example of the competition area information. 画像生成装置の処理の例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of processing of an image generation apparatus. ユーザ端末の表示画面の例を示す図である。It is a figure which shows the example of the display screen of a user terminal. 生成される仮想視点画像の例を説明するための図である。It is a figure for demonstrating the example of the generated virtual viewpoint image. オブジェクトの位置履歴の例を説明するための図である。It is a figure for demonstrating the example of the position history of an object. 画像生成装置の処理の例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of processing of an image generation apparatus. 仮想視点と競技とを対応付ける情報の例を示す図である。It is a figure which shows the example of the information which associates a virtual viewpoint with a competition.

[システム構成]
図1は、本実施形態に係る画像生成システム100の構成例を示すブロック図である。画像生成システム100は、図1に示されるように、複数の撮影装置110、画像生成装置120、及びユーザ端末130を備える。
[System configuration]
FIG. 1 is a block diagram showing a configuration example of the image generation system 100 according to the present embodiment. As shown in FIG. 1, the image generation system 100 includes a plurality of photographing devices 110, an image generation device 120, and a user terminal 130.

複数の撮影装置110は、図2に示すように、撮影領域200の一部又は全体をそれぞれ異なる方向から撮影する。各撮影装置110は、例えば、静止画像及び動画像を撮影可能なデジタルカメラ等である。複数の撮影装置110は、撮影領域200を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、複数の撮影装置110は撮影領域200の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域200の周囲の一部にのみ設置されていてもよい。また、撮影装置110の数は図に示す例に限定されず、例えば撮影領域200を陸上競技の競技場とする場合には、競技場の周囲に100台程度の撮影装置110が設置されてもよい。また、望遠カメラと広角カメラなど機能が異なる撮影装置110が設置されていてもよい。 As shown in FIG. 2, the plurality of photographing devices 110 photograph a part or the whole of the photographing area 200 from different directions. Each photographing device 110 is, for example, a digital camera capable of photographing a still image and a moving image. The plurality of photographing devices 110 are installed at different positions so as to surround the photographing area 200, and photograph in synchronization with each other. The plurality of photographing devices 110 may not be installed over the entire circumference of the photographing area 200, and may be installed only in a part around the photographing area 200 depending on the limitation of the installation place or the like. Further, the number of photographing devices 110 is not limited to the example shown in the figure. For example, when the photographing area 200 is used as an athletics stadium, even if about 100 photographing devices 110 are installed around the stadium. Good. Further, a photographing device 110 having different functions such as a telephoto camera and a wide-angle camera may be installed.

本実施形態における撮影領域200は、複数種目の陸上競技が同時進行する競技場である。ただし撮影領域200はこれに限定されるものではなく、陸上競技以外の競技が行われる競技場であってもよいし、サーカスの演技などが行われる舞台であってもよい。以下では、競技場において行われる競技や、舞台で行われる演技等を、イベントと表記する。例えば、陸上競技の競技場においては100m走、走り幅跳び、及びやり投げ等の複数の異なるイベントがそれぞれ異なる領域で行われる。 The photographing area 200 in the present embodiment is a stadium where a plurality of types of athletics are simultaneously carried out. However, the photographing area 200 is not limited to this, and may be a stadium where a competition other than athletics is performed, or a stage where a circus performance or the like is performed. In the following, competitions held at the stadium and performances performed on the stage will be referred to as events. For example, in an athletics stadium, a plurality of different events such as 100m dash, long jump, and javelin throw are performed in different areas.

複数の撮影装置110により撮影された画像は、例えばLANケーブル等の通信媒体を介して、画像生成装置120に伝送される。なお、画像生成装置120への画像の伝送は無線により行われても良い。 Images taken by the plurality of photographing devices 110 are transmitted to the image generating device 120 via a communication medium such as a LAN cable. The image may be transmitted wirelessly to the image generator 120.

画像生成装置120は、例えばサーバ装置等であり、データベース機能や画像処理機能を備える。画像生成装置120は、複数の撮影装置110による撮影に基づく複数の画像(複数視点画像)を取得して蓄積する。複数視点画像に含まれる画像は、撮影画像であってもよいし、撮影画像に対して例えば所定の領域を抽出する処理などの画像処理が行われることで得られる画像であってもよい。そして画像生成装置120は、複数視点画像と、ユーザ端末130を介して指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成する。 The image generation device 120 is, for example, a server device or the like, and has a database function and an image processing function. The image generation device 120 acquires and stores a plurality of images (multi-viewpoint images) based on the images taken by the plurality of photographing devices 110. The image included in the multi-viewpoint image may be a captured image, or may be an image obtained by performing image processing such as extraction of a predetermined region on the captured image. Then, the image generation device 120 generates a virtual viewpoint image representing the appearance from the designated virtual viewpoint based on the plurality of viewpoint images and the virtual viewpoint designated via the user terminal 130.

本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作に基づいて行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。 The virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image. Further, in the present embodiment, the case where the virtual viewpoint is specified based on the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like. Further, in the present embodiment, the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.

画像生成装置120は、競技の開始前など、選手等の所定のオブジェクトが存在しない状態の競技場が予め撮影された画像を背景画像データとして記憶するデータベース機能を有する。また、画像生成装置120は、競技中の選手等の前景を画像処理により撮影画像から分離して得られた画像を前景画像データとして記憶する。なお、前景の分離方法としては、例えば、撮影画像と背景画像との差分に基づいて前景を抽出するオブジェクト抽出の画像処理を用いる。また、そのほかの方法として、撮影画像から検出された動体を前景として分離するようにしてもよい。なお、前景となるオブジェクトは競技を行う選手だけでなく、他の人物(例えば審判など)であっても良いし、やり投げのやり又は走り高跳びのマットやポールなどの器具であっても良い。 The image generation device 120 has a database function of storing an image taken in advance of a stadium in a state where a predetermined object such as a player does not exist, such as before the start of a competition, as background image data. Further, the image generation device 120 stores the image obtained by separating the foreground of the athlete or the like during the competition from the captured image by image processing as the foreground image data. As a method for separating the foreground, for example, an image processing of object extraction that extracts the foreground based on the difference between the captured image and the background image is used. In addition, as another method, a moving object detected from the captured image may be separated as the foreground. The object to be the foreground may be not only the athlete performing the competition but also another person (for example, a referee), or an instrument such as a javelin throw or high jump mat or pole.

画像生成装置120は、保持している背景画像データと前景画像データから、指定された仮想視点に対応する仮想視点画像を生成する。そして画像生成装置120は、生成した仮想視点画像を、LANケーブル等を介して、ユーザ端末130へ出力する。 The image generation device 120 generates a virtual viewpoint image corresponding to the designated virtual viewpoint from the held background image data and foreground image data. Then, the image generation device 120 outputs the generated virtual viewpoint image to the user terminal 130 via a LAN cable or the like.

仮想視点画像の生成方式としては、例えば、モデルベースレンダリング(Model−Based Rendering:MBR)を用いることができる。MBRとは、オブジェクトを複数の方向から撮影した複数の撮影画像に基づいて生成される三次元モデルを用いて、仮想視点画像を生成する方式である。具体的には、三次元形状復元方法により得られた対象オブジェクトの三次元形状に対して、仮想視点からの三次元形状の見えに対応した複数の撮影画像をレンダリング画像として投影することで、仮想視点画像を生成する方式である。なお、三次元形状復元方法としては、視体積交差法、又はMVS(Multi−View−Stereo)等の方法を用いることができる。ただし、仮想視点画像の生成方法はこれに限定されず、三次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。 As a virtual viewpoint image generation method, for example, model-based rendering (MBR) can be used. The MBR is a method of generating a virtual viewpoint image by using a three-dimensional model generated based on a plurality of captured images of an object captured from a plurality of directions. Specifically, by projecting a plurality of captured images corresponding to the appearance of the three-dimensional shape from the virtual viewpoint as a rendered image on the three-dimensional shape of the target object obtained by the three-dimensional shape restoration method, it is virtual. This is a method for generating a viewpoint image. As the three-dimensional shape restoration method, a method such as a visual volume crossing method or an MVS (Multi-View-Stereo) can be used. However, the method of generating the virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of the captured image without using the three-dimensional model can be used.

ユーザ端末130は、例えばPCやタブレット端末などであり、マウス、キーボード、6軸コントローラ、又はタッチパネル等のユーザ操作を受け付ける操作部と、画像を表示する表示部とを有する。ユーザ端末130は、注目する競技を選択するための操作や、仮想視点を指定するための操作をユーザから受け付け、ユーザ操作に応じた情報を、LANケーブル等を介して画像生成装置120へ出力する。また、ユーザ端末130は、画像生成装置120から受信した仮想視点画像を表示部に表示させることで、ユーザ操作に応じた仮想視点画像をユーザに視聴させる。 The user terminal 130 is, for example, a PC or a tablet terminal, and has an operation unit that accepts user operations such as a mouse, keyboard, 6-axis controller, or touch panel, and a display unit that displays an image. The user terminal 130 receives an operation for selecting a competition of interest and an operation for designating a virtual viewpoint from the user, and outputs information according to the user operation to the image generator 120 via a LAN cable or the like. .. Further, the user terminal 130 causes the user to view the virtual viewpoint image according to the user operation by displaying the virtual viewpoint image received from the image generation device 120 on the display unit.

本実施形態において、仮想視点を指定するための操作に応じてユーザ端末130から画像生成装置120に入力される情報は、仮想視点画像の生成に用いられる視点情報であり、仮想視点の位置及び向き(視線方向)を示す。具体的には、視点情報は、仮想視点の三次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。仮想視点の位置を表すパラメータは、撮影領域200内の位置に関連付けられた原点を有する仮想空間上の三次元位置を表し、例えば撮影領域200の中央等の所定位置に対する仮想視点の相対的な位置を示す。仮想視点の向きを表すパラメータは、仮想視点の位置からどの方向を見た様子を表す仮想視点画像を生成するかを示す。 In the present embodiment, the information input from the user terminal 130 to the image generation device 120 in response to the operation for designating the virtual viewpoint is the viewpoint information used for generating the virtual viewpoint image, and the position and orientation of the virtual viewpoint. (Gaze direction) is shown. Specifically, the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the orientation of the virtual viewpoint in the pan, tilt, and roll directions. The parameter representing the position of the virtual viewpoint represents a three-dimensional position on the virtual space having an origin associated with the position in the shooting area 200, and is a relative position of the virtual viewpoint with respect to a predetermined position such as the center of the shooting area 200. Is shown. The parameter representing the direction of the virtual viewpoint indicates in which direction the virtual viewpoint image is generated from the position of the virtual viewpoint.

なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。なお、ユーザ端末130からはユーザ操作の内容を示す操作情報が画像生成装置120へ入力され、画像生成装置120が操作情報に基づいて視点情報を生成してもよい。 The content of the viewpoint information is not limited to the above. For example, the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint. Further, the viewpoint information may have a plurality of parameter sets. For example, the viewpoint information may have a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image, and may be information indicating the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. .. The user terminal 130 may input operation information indicating the content of the user operation to the image generation device 120, and the image generation device 120 may generate viewpoint information based on the operation information.

なお、画像生成システム100の構成は図1に示したものに限定されない。例えば、画像生成装置120に複数のユーザ端末130が接続されてもよいし、複数の画像生成装置120が撮影装置110から複数視点画像を取得して仮想視点画像を生成してもよい。 The configuration of the image generation system 100 is not limited to that shown in FIG. For example, a plurality of user terminals 130 may be connected to the image generation device 120, or the plurality of image generation devices 120 may acquire a plurality of viewpoint images from the photographing device 110 and generate a virtual viewpoint image.

[ハードウェア構成]
図3は、画像生成装置120のハードウェア構成例を示す図である。なお、ユーザ端末130の構成も、以下で説明する画像生成装置120と同様である。画像生成装置120は、CPU301、ROM302、RAM303、HDD304、入力部305、表示部306、及び通信部307を有する。
[Hardware configuration]
FIG. 3 is a diagram showing a hardware configuration example of the image generation device 120. The configuration of the user terminal 130 is also the same as that of the image generation device 120 described below. The image generation device 120 includes a CPU 301, a ROM 302, a RAM 303, an HDD 304, an input unit 305, a display unit 306, and a communication unit 307.

CPU301は、ROM302やHDD304に記憶された制御プログラムを用いて、演算処理や各種プログラムを実行することで、画像生成装置120の各機能を実現する。なお、画像生成装置120がCPU301とは異なる1又は複数の専用のハードウェアを有し、CPU301による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM302は、ブートプログラム、制御プログラム、画像生成装置120の各部に設定するパラメータ等を記憶する記憶領域を有する。RAM303は、CPU301の主メモリ、ワークエリア等の一致時記憶領域として用いられる。HDD304は、各種データやプログラムを記憶する。なお、HDD304に替えてSSDなどその他の補助記憶装置が用いられてもよい。 The CPU 301 realizes each function of the image generation device 120 by executing arithmetic processing and various programs using the control programs stored in the ROM 302 and the HDD 304. The image generator 120 may have one or more dedicated hardware different from the CPU 301, and the dedicated hardware may execute at least a part of the processing by the CPU 301. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors). The ROM 302 has a storage area for storing a boot program, a control program, parameters set in each part of the image generation device 120, and the like. The RAM 303 is used as a matching storage area for the main memory, work area, etc. of the CPU 301. The HDD 304 stores various data and programs. In addition, other auxiliary storage devices such as SSD may be used instead of HDD 304.

入力部305は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU301に入力する。表示部306は、例えば液晶ディスプレイやLED等で構成され、ユーザが画像生成装置120を操作するためのGUI(Graphical User Interface)などを表示する。CPU301は、表示部306を制御する表示制御部として動作する。通信部307は、撮影装置110及びユーザ端末130等の外部装置との通信処理を実行する。なお、通信部307による通信は、LAN等の有線ネットワークを介して行われても良いし、無線ネットワークを介して行われても良い。 The input unit 305 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, or the like, and inputs various instructions to the CPU 301 in response to an operation by the user. The display unit 306 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) or the like for the user to operate the image generation device 120. The CPU 301 operates as a display control unit that controls the display unit 306. The communication unit 307 executes communication processing with external devices such as the photographing device 110 and the user terminal 130. The communication by the communication unit 307 may be performed via a wired network such as a LAN, or may be performed via a wireless network.

本実施形態では表示部306と入力部305が画像生成装置120の内部に存在するものとするが、表示部306と入力部305との少なくとも一方が画像生成装置120の外部に別の装置として存在していてもよい。 In the present embodiment, it is assumed that the display unit 306 and the input unit 305 exist inside the image generation device 120, but at least one of the display unit 306 and the input unit 305 exists as another device outside the image generation device 120. You may be doing it.

[画像生成装置の機能構成]
図4は、本実施形態における画像生成装置120の機能構成を示すブロック図である。画像取得部401は、撮影装置110から撮影画像を受信し、前景背景分離部402に送信する。前景背景分離部402は、画像取得部401から受信した撮影画像から、選手等のオブジェクトに対応する前景領域を抽出し、前景画像データとしてデータ保持部403に保存する。データ保持部403は、前景背景分離部402から受信した前景画像データに加えて、競技の開始前などの被写体が存在しない状態の競技場の撮影画像を背景画像データとして保持する。
[Functional configuration of image generator]
FIG. 4 is a block diagram showing a functional configuration of the image generation device 120 according to the present embodiment. The image acquisition unit 401 receives the captured image from the photographing device 110 and transmits it to the foreground background separating unit 402. The foreground background separation unit 402 extracts a foreground area corresponding to an object such as a player from the captured image received from the image acquisition unit 401, and stores it in the data holding unit 403 as foreground image data. In addition to the foreground image data received from the foreground / background separation unit 402, the data holding unit 403 holds as background image data a photographed image of the stadium in a state where no subject exists, such as before the start of the competition.

モデル生成部404は、データ保持部403から取得した前景画像データと、撮影装置110の位置や姿勢等を示すカメラパラメータとに基づいて、オブジェクトのモデル情報を生成する。モデル情報には、モデルの形状を表す点群データ、及びモデルの位置を表す位置情報などが含まれる。すなわち、モデル情報は、オブジェクトの三次元形状とオブジェクトの位置を表すデータである。 The model generation unit 404 generates model information of the object based on the foreground image data acquired from the data holding unit 403 and the camera parameters indicating the position and orientation of the photographing device 110. The model information includes point cloud data representing the shape of the model, position information representing the position of the model, and the like. That is, the model information is data representing the three-dimensional shape of the object and the position of the object.

情報取得部405は、ユーザ端末130からのユーザ操作に応じた入力をユーザコマンドデータとして受信する。ユーザコマンドデータが、注目する競技を選択する操作に応じた選択情報である場合、情報取得部405は選択情報をエリア管理部407に送信する。選択情報は例えば、複数の競技種目と、その競技種目が選択されたか否かを示す。また、ユーザコマンドデータが、仮想視点を指定する操作に応じた視点情報である場合、情報取得部405は、視点情報を視点設定部406に送信する。 The information acquisition unit 405 receives the input corresponding to the user operation from the user terminal 130 as user command data. When the user command data is selection information corresponding to the operation of selecting the competition of interest, the information acquisition unit 405 transmits the selection information to the area management unit 407. The selection information indicates, for example, a plurality of competition events and whether or not the competition event has been selected. Further, when the user command data is the viewpoint information corresponding to the operation of designating the virtual viewpoint, the information acquisition unit 405 transmits the viewpoint information to the viewpoint setting unit 406.

視点設定部406は、情報取得部405から受信した情報に基づいて、仮想空間内の仮想視点の位置及び向きを設定し、設定された仮想視点を示す視点情報を画像生成部409に送信する。エリア管理部407は、撮影対象の各競技が行われる競技エリアと、注目対象として指定されている競技とを示す競技エリア情報を管理する。そして、情報取得部405より受信した選択情報に基づいて競技エリア情報を更新し、更新されたことをモデル表示判定部408に通知する。 The viewpoint setting unit 406 sets the position and orientation of the virtual viewpoint in the virtual space based on the information received from the information acquisition unit 405, and transmits the viewpoint information indicating the set virtual viewpoint to the image generation unit 409. The area management unit 407 manages competition area information indicating the competition area in which each competition to be photographed is performed and the competition designated as the target of attention. Then, the competition area information is updated based on the selection information received from the information acquisition unit 405, and the model display determination unit 408 is notified of the update.

図5を用いて、エリア管理部407により管理される競技エリア情報の例について説明する。図5(A)に示すように、撮影領域200内には走り幅跳びが行われる部分領域であるエリア501と、棒高跳びが行われる部分領域であるエリア502と、100m走が行われる部分領域であるエリア503が含まれる。この例では各エリアが重なりなく設定されているが、複数のエリアの一部が重なっていてもよい。 An example of competition area information managed by the area management unit 407 will be described with reference to FIG. As shown in FIG. 5A, the photographing area 200 includes an area 501 which is a partial area where the long jump is performed, an area 502 which is a partial area where the pole vault is performed, and an area which is a partial area where the 100m run is performed. 503 is included. In this example, the areas are set so as not to overlap, but a part of a plurality of areas may overlap.

図5(B)は競技エリア情報510の一例を示す。競技エリア情報510には、複数の競技種目と、各競技が行われる競技エリアを示す座標情報と、各競技が注目対象として指定されているかを示す競技指定情報が含まれる。図5(B)の例では、棒高跳びが注目対象の競技として指定されている。なお、競技エリアの座標情報は、撮影対象となる競技場に応じて予め設定されているものとする。ただし、競技エリアの座標情報は、実際の競技の進行状況に応じて修正できるようにしても良いし、ユーザ端末130からの情報取得部405を介した入力に応じて修正できるようにしても良い。 FIG. 5B shows an example of the competition area information 510. The competition area information 510 includes a plurality of competition events, coordinate information indicating a competition area in which each competition is held, and competition designation information indicating whether each competition is designated as a target of attention. In the example of FIG. 5B, pole vaulting is designated as the sport of interest. The coordinate information of the competition area shall be preset according to the stadium to be photographed. However, the coordinate information of the competition area may be modified according to the actual progress of the competition, or may be modified according to the input from the user terminal 130 via the information acquisition unit 405. ..

また、図5(B)では競技エリアがX軸及びY軸の2次元座標で表される例を示したが、競技エリアがZ軸方向(高さ方向)の座標を含む3次元座標で表されても良い。また、図5の例では、競技エリアが2点の座標を頂点とする長方形であるものとしたが、競技エリアの形状はこれに限定されず、また競技に応じて競技エリアの形状が異なっていてもよい。また、時間によって撮影領域200内で実施される競技内容やその競技エリアが変わる場合は、競技エリア情報510は上記の情報に加えて、各競技の時刻情報を有していてもよい。この場合、予め競技進行スケジュールに基づいて競技の時刻情報が入力されても良いし、実際の競技の進行状況や撮影状況に応じて時刻情報が更新されるようにしても良い。 Further, in FIG. 5B, an example in which the competition area is represented by the two-dimensional coordinates of the X-axis and the Y-axis is shown, but the competition area is represented by the three-dimensional coordinates including the coordinates in the Z-axis direction (height direction). May be done. Further, in the example of FIG. 5, the competition area is assumed to be a rectangle having the coordinates of two points as vertices, but the shape of the competition area is not limited to this, and the shape of the competition area differs depending on the competition. You may. Further, when the content of the competition to be performed in the photographing area 200 and the competition area thereof change depending on the time, the competition area information 510 may have time information of each competition in addition to the above information. In this case, the time information of the competition may be input in advance based on the competition progress schedule, or the time information may be updated according to the actual progress status of the competition and the shooting status.

モデル表示判定部408は、競技エリア情報に基づいて、撮影領域200内の複数の領域であってそれぞれ異なるイベントが行われる複数の領域のうち、注目対象として指定された競技に対応する1以上の領域を特定する。競技エリア情報が各競技の時刻情報を有する場合には、モデル表示判定部408は、その時刻情報に基づいて注目されるべきイベントが行われる領域を特定してもよい。これにより、競技の選択に係るユーザ操作の手間を削減できる。 Based on the competition area information, the model display determination unit 408 is one or more of the plurality of regions in the shooting region 200 where different events are performed, and one or more corresponding to the competition designated as the target of attention. Identify the area. When the competition area information has the time information of each competition, the model display determination unit 408 may specify the area where the event to be noted is performed based on the time information. As a result, it is possible to reduce the time and effort of the user operation related to the selection of the competition.

そしてモデル表示判定部408は、モデル生成部404からモデル情報を取得し、モデル情報が表す撮影領域200内の各オブジェクトについて、仮想視点画像における表示を行うか否かを判定し、判定結果を画像生成部409に送信する。本実施例での判定方法としては、注目対象として指定された競技の競技エリア内に各オブジェクトが位置するか否かが判定され、指定された競技エリア内に位置するオブジェクトのみが仮想視点画像における表示対象となるものとする。 Then, the model display determination unit 408 acquires model information from the model generation unit 404, determines whether or not to display each object in the shooting area 200 represented by the model information in the virtual viewpoint image, and displays the determination result as an image. It is transmitted to the generation unit 409. As a determination method in this embodiment, it is determined whether or not each object is located in the competition area of the competition designated as the object of interest, and only the objects located in the designated competition area are in the virtual viewpoint image. It shall be the display target.

なお、本実施形態では、オブジェクトが特定の競技エリア内に位置するかを判定する基準として、オブジェクト全体(人物の場合は身体全体)がそのエリアに含まれている場合にそのオブジェクトがエリア内に位置すると判定するものとする。ただしこれに限らず、例えばオブジェクトの半分以上の部分がそのエリアに含まれる場合にそのオブジェクトがエリア内に位置すると判定されてもよい。または、オブジェクトの特定の部分(例えば重心又は地面に接する部分)がそのエリアに含まれる場合にそのオブジェクトがエリア内に位置すると判定されてもよい。 In the present embodiment, as a criterion for determining whether an object is located in a specific competition area, when the entire object (in the case of a person, the entire body) is included in the area, the object is included in the area. It shall be determined that it is located. However, the present invention is not limited to this, and for example, when a part of half or more of an object is included in the area, it may be determined that the object is located in the area. Alternatively, if a specific part of the object (for example, a part in contact with the center of gravity or the ground) is included in the area, it may be determined that the object is located in the area.

画像生成部409は、モデル表示判定部408からモデル表示の判定結果を受信し、表示を行うと判定されたオブジェクトのモデル情報を、モデル生成部404から取得する。そして画像生成部409は、モデル生成部404から取得したモデル情報と、データ保持部403から取得した前景画像データ及び背景画像データと、視点設定部406により設定された仮想視点を示す視点情報に基づいて、仮想視点画像を生成する。具体的には、仮想視点から見たモデルに対して、画像データの色情報を用いてレンダリング処理を行う。画像生成部409は、生成した仮想視点画像を画像出力部410に送信する。画像出力部410は、画像生成部409から受信した仮想視点画像を、ユーザ端末130に送信する。 The image generation unit 409 receives the model display determination result from the model display determination unit 408, and acquires the model information of the object determined to be displayed from the model generation unit 404. Then, the image generation unit 409 is based on the model information acquired from the model generation unit 404, the foreground image data and the background image data acquired from the data holding unit 403, and the viewpoint information indicating the virtual viewpoint set by the viewpoint setting unit 406. To generate a virtual viewpoint image. Specifically, the rendering process is performed on the model viewed from the virtual viewpoint using the color information of the image data. The image generation unit 409 transmits the generated virtual viewpoint image to the image output unit 410. The image output unit 410 transmits the virtual viewpoint image received from the image generation unit 409 to the user terminal 130.

なお、画像生成装置120の構成は図4に示した例に限定されず、図4に示した構成要素の一部が画像生成装置120とは別の装置に実装されていてもよい。例えば、前景背景分離部402が撮影装置110に実装され、画像生成装置120は前景背景分離により得られた画像データを撮影装置110から取得してもよい。 The configuration of the image generation device 120 is not limited to the example shown in FIG. 4, and some of the components shown in FIG. 4 may be mounted on a device different from the image generation device 120. For example, the foreground / background separation unit 402 may be mounted on the photographing device 110, and the image generation device 120 may acquire the image data obtained by the foreground / background separation from the photographing device 110.

[動作フロー]
次に図6を用いて、本実施形態に係る画像生成装置120の処理フローについて説明する。図6に示す処理は、画像生成装置120のCPU301がROM302に格納されたプログラムをRAM303に展開して実行することで実現される。なお、図6に示す処理の少なくとも一部を、CPU301とは異なる1又は複数の専用のハードウェアにより実現してもよい。図6に示す処理は、画像生成装置120が撮影装置110及びユーザ端末130と接続され、仮想視点画像の生成に係る処理を行うための指示が画像生成装置120に入力されたタイミングで開始される。ただし、図6に示す処理の開始タイミングはこれに限定されない。なお、図6を用いた以下の説明においては、予め撮影装置110により撮影された複数のフレームから構成される動画の複数視点画像に基づいて、動画の仮想視点画像が生成されるものとする。ただし、撮影装置110による撮影と並行してリアルタイムで動画の仮想視点画像が生成されてもよい。また、静止画の仮想視点画像が生成されてもよい。
[Operation flow]
Next, the processing flow of the image generation device 120 according to the present embodiment will be described with reference to FIG. The process shown in FIG. 6 is realized by the CPU 301 of the image generator 120 expanding the program stored in the ROM 302 into the RAM 303 and executing the program. At least a part of the processing shown in FIG. 6 may be realized by one or a plurality of dedicated hardware different from the CPU 301. The process shown in FIG. 6 is started at the timing when the image generation device 120 is connected to the photographing device 110 and the user terminal 130 and an instruction for performing the process related to the generation of the virtual viewpoint image is input to the image generation device 120. .. However, the start timing of the process shown in FIG. 6 is not limited to this. In the following description using FIG. 6, it is assumed that a virtual viewpoint image of a moving image is generated based on a plurality of viewpoint images of a moving image composed of a plurality of frames previously photographed by the photographing device 110. However, a virtual viewpoint image of a moving image may be generated in real time in parallel with the shooting by the shooting device 110. Further, a virtual viewpoint image of a still image may be generated.

S600において、画像取得部401が撮影装置110から複数視点画像を取得し、前景背景分離部402が複数視点画像から前景画像データを抽出する。そしてモデル生成部404が、前景画像データに基づいてオブジェクトのモデル情報を取得する。S601において、情報取得部405がユーザ端末130から注目対象の競技を選択する操作に応じた選択情報を取得し、エリア管理部407は選択情報に基づいて競技エリア情報を更新する。 In S600, the image acquisition unit 401 acquires a plurality of viewpoint images from the photographing device 110, and the foreground background separation unit 402 extracts the foreground image data from the plurality of viewpoint images. Then, the model generation unit 404 acquires the model information of the object based on the foreground image data. In S601, the information acquisition unit 405 acquires selection information according to the operation of selecting the competition of interest from the user terminal 130, and the area management unit 407 updates the competition area information based on the selection information.

図7に、画像生成装置120による表示制御に基づいて、競技選択時にユーザ端末130に表示されるGUI画面の例を示す。ユーザ端末130が有する表示部710には、画面700が表示される。画面700は、競技場の全体図と、エリア管理部407で管理される各競技の競技エリアを示す。ユーザは競技場内における各競技の競技エリア(図7の例では走り幅跳びのエリア701と、棒高跳びのエリア702と、100m走のエリア703)を認識しながら、注目したい対象の競技を選択できる。また、画面700内の競技選択メニュー704は、選択可能な競技のうち、注目対象として現在選択中の競技(図7の例では棒高跳)とそれ以外の競技(図7の例では走幅跳と100m走)を識別可能に示す。選択可能な競技としては、進行中の競技のみが表示されても良いし、すでに終了した競技や将来行われる競技も併せて表示されても良い。また、新たな競技が開始された場合には、それをユーザに通知するメッセージが画面700に表示されてもよい。 FIG. 7 shows an example of a GUI screen displayed on the user terminal 130 at the time of competition selection based on the display control by the image generation device 120. The screen 700 is displayed on the display unit 710 of the user terminal 130. The screen 700 shows an overall view of the stadium and the competition area of each competition managed by the area management unit 407. The user can select the competition of interest while recognizing the competition area of each competition in the stadium (in the example of FIG. 7, the long jump area 701, the pole vault area 702, and the 100m running area 703). In addition, the competition selection menu 704 on the screen 700 shows the competition currently selected as the target of interest (pole vault in the example of FIG. 7) and other competitions (long jump and 100m run in the example of FIG. 7) among the selectable competitions. ) Is identifiable. As the selectable competition, only the competition in progress may be displayed, or the competition that has already been completed or the competition that will be held in the future may also be displayed. Further, when a new competition is started, a message notifying the user of the new competition may be displayed on the screen 700.

なお、図7の例では1つの競技が選択されているが、2以上の競技が選択されてもよい。また、本実施形態ではユーザが競技を選択し、画像生成装置120が選択された競技に対応するエリアを特定するものとするが、これに限らず、ユーザが注目対象の領域を直接選択してもよい。また、ユーザが非注目対象の競技又は領域を選択し、画像生成装置120はその選択に応じた入力に基づいて注目対象の領域を特定してもよい。 In the example of FIG. 7, one competition is selected, but two or more competitions may be selected. Further, in the present embodiment, the user selects the competition and the image generator 120 specifies the area corresponding to the selected competition, but the present invention is not limited to this, and the user directly selects the area of interest. May be good. Further, the user may select a competition or region of interest, and the image generator 120 may specify the region of interest based on the input according to the selection.

S602において、モデル表示判定部408は、モデル生成部404からモデル情報を取得し、モデル情報が示す撮影領域200内の複数のオブジェクトの中から、判定対象のオブジェクトを選択する。S604において、モデル表示判定部408は、エリア管理部407から競技エリア情報を取得し、S602で選択されたオブジェクトが、注目対象として指定されている競技の競技エリア内に位置するかを判定する。選択されたオブジェクトが競技エリア内に位置する場合、S604においてモデル表示判定部408は、そのオブジェクトを仮想視点画像における表示対象に設定する。一方、選択されたオブジェクトが競技エリア内に位置しない場合、S605においてモデル表示判定部408は、そのオブジェクトを仮想視点画像における表示対象に設定しない。 In S602, the model display determination unit 408 acquires model information from the model generation unit 404, and selects an object to be determined from a plurality of objects in the photographing area 200 indicated by the model information. In S604, the model display determination unit 408 acquires the competition area information from the area management unit 407, and determines whether the object selected in S602 is located in the competition area of the competition designated as the attention target. When the selected object is located in the competition area, the model display determination unit 408 sets the object as a display target in the virtual viewpoint image in S604. On the other hand, when the selected object is not located in the competition area, the model display determination unit 408 does not set the object as a display target in the virtual viewpoint image in S605.

S606において、モデル表示判定部408は、モデル情報が示す全てのオブジェクトに対して表示又は非表示の設定がされたかを判定する。未設定のオブジェクトがある場合にはS602に戻り、判定対象のオブジェクトが新たに選択される。一方、すべてのオブジェクトについて設定が完了した場合はS607に進む。 In S606, the model display determination unit 408 determines whether the display or non-display is set for all the objects indicated by the model information. If there is an unset object, the process returns to S602 and the object to be determined is newly selected. On the other hand, when the setting is completed for all the objects, the process proceeds to S607.

S607において、視点設定部406は、ユーザ端末130から情報取得部405を介して入力された情報に基づいて仮想視点を設定し、視点情報を更新して画像生成部409に送信する。S608において、画像生成部409は、S604で表示対象に設定されたオブジェクトのモデル情報をモデル生成部404から取得する。そして画像生成部409は、表示対象のオブジェクトのモデル情報と、S607で受信した視点情報と、データ保持部403から取得した前景及び背景画像データに基づいて、仮想視点の位置及び向きに応じた仮想視点画像を生成する。ここで生成される仮想視点画像には、表示対象に設定されたオブジェクト(注目対象の競技に対応する領域内に位置するオブジェクト)のうち仮想視点の位置及び向きに応じた視界内のオブジェクトが含まれる。S609において、画像出力部410は、S608で生成された仮想視点画像をユーザ端末130に出力する。 In S607, the viewpoint setting unit 406 sets a virtual viewpoint based on the information input from the user terminal 130 via the information acquisition unit 405, updates the viewpoint information, and transmits it to the image generation unit 409. In S608, the image generation unit 409 acquires the model information of the object set as the display target in S604 from the model generation unit 404. Then, the image generation unit 409 virtualizes according to the position and orientation of the virtual viewpoint based on the model information of the object to be displayed, the viewpoint information received in S607, and the foreground and background image data acquired from the data holding unit 403. Generate a viewpoint image. The virtual viewpoint image generated here includes objects in the field of view according to the position and orientation of the virtual viewpoint among the objects set to be displayed (objects located in the area corresponding to the competition of interest). Is done. In S609, the image output unit 410 outputs the virtual viewpoint image generated in S608 to the user terminal 130.

[仮想視点画像の例]
図8を用いて、図6のS608で生成される仮想視点画像について具体的に説明する。図8(A)は、撮影領域200内の注目対象として指定された棒高跳エリア801と、S607で設定された仮想視点802と、オブジェクト803及びオブジェクト804との位置関係を示す。オブジェクト803は、棒高跳エリア801のエリア内に位置し、オブジェクト804は、棒高跳エリア801のエリア外に位置する。また、仮想視点802の位置及び向きに応じた視野内にオブジェクト803及びオブジェクト804が含まれているものとする。
[Example of virtual viewpoint image]
The virtual viewpoint image generated in S608 of FIG. 6 will be specifically described with reference to FIG. FIG. 8A shows the positional relationship between the pole vault area 801 designated as the object of interest in the shooting area 200, the virtual viewpoint 802 set in S607, and the objects 803 and 804. The object 803 is located in the area of the pole vault area 801 and the object 804 is located outside the area of the pole vault area 801. Further, it is assumed that the object 803 and the object 804 are included in the field of view according to the position and orientation of the virtual viewpoint 802.

図8(B)は、図8(A)に示す状況に応じてS608で生成される仮想視点画像生成の表示例を示す。ユーザ端末130の表示部710に、仮想視点画像800が表示されている。仮想視点画像800において、棒高跳エリア801のエリア内に位置するオブジェクト803は表示されるが、棒高跳エリア801のエリア外に位置するオブジェクト804は表示されていない。すなわち、画像生成装置120は、指定された棒高跳びエリア801外のオブジェクト804の表示が制限され、指定された棒高跳びエリア801内のオブジェクト803のみが表示されるような仮想視点画像800を生成している。図8(b)においてはオブジェクト804を模式的に点線で示しているが、実際にはオブジェクト804は仮想視点画像800に表示されず、仮想視点画像800を見るユーザからは視認できない。 FIG. 8B shows a display example of virtual viewpoint image generation generated in S608 according to the situation shown in FIG. 8A. The virtual viewpoint image 800 is displayed on the display unit 710 of the user terminal 130. In the virtual viewpoint image 800, the object 803 located in the area of the pole vault area 801 is displayed, but the object 804 located outside the area of the pole vault area 801 is not displayed. That is, the image generation device 120 generates a virtual viewpoint image 800 in which the display of the object 804 outside the designated pole vault area 801 is restricted and only the object 803 within the designated pole vault area 801 is displayed. .. Although the object 804 is schematically shown by a dotted line in FIG. 8B, the object 804 is not actually displayed on the virtual viewpoint image 800 and cannot be visually recognized by the user who sees the virtual viewpoint image 800.

このような仮想視点画像800が表示されることにより、ユーザ端末130を用いて仮想視点画像800を見るユーザは、注目対象として指定したエリア内の画像に集中することができる。例えば、注目対象を棒高跳びとした場合に、幅跳びの選手が表示されないことにより、棒高跳びの競技の仮想視点画像800の見やすさが向上する。 By displaying such a virtual viewpoint image 800, the user who sees the virtual viewpoint image 800 using the user terminal 130 can concentrate on the image in the area designated as the attention target. For example, when the object of interest is the pole vault, the long jump player is not displayed, so that the visibility of the virtual viewpoint image 800 of the pole vault competition is improved.

なお、上記の説明においては、注目対象として指定された競技に対応する競技エリア(指定エリア)外のオブジェクトが表示されないものとしたが、画像生成装置120は指定エリア内に位置しないオブジェクトの表示を制限すればよい。すなわち、画像生成装置120は、撮影領域200内のオブジェクトのうち1以上の指定エリア内に位置しないオブジェクトの表示が制限された仮想視点画像を生成すればよく、制限の内容は表示有無の制限に限定されない。例えば、指定エリア外のオブジェクトに透過処理を施して半透明で表示することで、そのオブジェクトの表示の視認性を低減させるように表示制限がされても良い。また例えば、指定エリア外のオブジェクトを特定の単色で着色することで目立たないようにしても良い。また、指定エリア外のオブジェクトのうち、仮想視点から見て指定エリアの手前側にあるオブジェクトと、指定エリアの奥側にあるオブジェクトとの表示態様がそれぞれ異なってもよい。 In the above description, it is assumed that the objects outside the competition area (designated area) corresponding to the competition designated as the attention target are not displayed, but the image generator 120 displays the objects not located in the designated area. You can limit it. That is, the image generation device 120 may generate a virtual viewpoint image in which the display of objects not located in one or more designated areas among the objects in the shooting area 200 is restricted, and the content of the restriction is the restriction on the presence or absence of display. Not limited. For example, by performing transparency processing on an object outside the designated area and displaying it semi-transparently, the display may be restricted so as to reduce the visibility of the display of the object. Further, for example, an object outside the designated area may be colored with a specific single color to make it inconspicuous. Further, among the objects outside the designated area, the display mode of the object on the front side of the designated area and the object on the back side of the designated area when viewed from the virtual viewpoint may be different.

また、モデル表示判定部408は、指定エリア外のオブジェクトの表示を制限するか否か、又は指定エリア外のオブジェクトの表示の制限内容を、ユーザ端末130からの入力等に基づいて設定してもよい。そして画像生成部409は、その設定に応じて仮想視点画像を生成してもよい。 Further, the model display determination unit 408 may set whether or not to restrict the display of objects outside the designated area, or set the content of the restriction on the display of objects outside the designated area based on the input from the user terminal 130 or the like. Good. Then, the image generation unit 409 may generate a virtual viewpoint image according to the setting.

また、指定エリア外のオブジェクトについて、オブジェクトの種別毎に表示態様を異ならせたり、オブジェクトの種別ごとに表示有無を選択したりできるようにしても良い。例えば、仮想視点の位置及び向きに応じた視野に含まれ且つ指定エリア内に位置しないオブジェクトのうち、人物のオブジェクトは表示されず、マットやポールなどの器具のオブジェクトは表示されるようにしてもよい。これにより、指定エリア外の人物を非表示にすることで指定エリア内のオブジェクトの視認性を向上させつつ、指定エリア外の器具は表示させることで競技場の臨場感を維持することができる。なお、オブジェクトの種別は人物と器具に限定されず、例えば動体と静止物体とを異なる種別のオブジェクトとして扱ってもよい。 Further, for the objects outside the designated area, the display mode may be different for each object type, and the display / non-display may be selected for each object type. For example, among the objects included in the field of view according to the position and orientation of the virtual viewpoint and not located in the specified area, the object of the person is not displayed, and the object of the instrument such as the mat or the pole is displayed. Good. As a result, the visibility of the objects in the designated area can be improved by hiding the person outside the designated area, and the presence of the stadium can be maintained by displaying the equipment outside the designated area. The type of object is not limited to a person and an instrument, and for example, a moving object and a stationary object may be treated as different types of objects.

また、ユーザ端末130からの入力に応じて仮想視点の設定を行う際の、仮想視点の初期値が、注目対象として指定された競技に応じて異なっていても良い。例えば、仮想視点の初期位置が指定エリアの中央位置に設定されても良いし、競技に応じた最も注目すべきポイント(100m走のゴールや、高跳びのバーなど)が見えるように設定されても良い。また、仮想視点の初期状態を、過去に同じ競技が指定された際の仮想視点の状態に設定しても良い。この場合、画像生成装置120は、ユーザ操作により選択された競技に応じた仮想視点の位置及び向きを示す視点情報を取得する。そして、競技ごとの仮想視点を示す情報がエリア管理部407で管理され、ユーザ端末130に送信される。また、ユーザ端末130からの入力に応じて仮想視点の設定を行う際に、指定エリア内でのみ仮想視点の位置を指定可能なように制限されても良い。また、指定エリアがある方向にのみ仮想視点の向きを指定可能なように制限されても良い。このような処理により、競技ごとの見やすい視点に応じた仮想視点画像をユーザに提供できる。 Further, the initial value of the virtual viewpoint when setting the virtual viewpoint in response to the input from the user terminal 130 may be different depending on the competition designated as the target of attention. For example, the initial position of the virtual viewpoint may be set to the center position of the designated area, or the most notable points according to the competition (100m dash goal, high jump bar, etc.) may be set so that they can be seen. Is also good. Further, the initial state of the virtual viewpoint may be set to the state of the virtual viewpoint when the same competition was designated in the past. In this case, the image generation device 120 acquires viewpoint information indicating the position and orientation of the virtual viewpoint according to the competition selected by the user operation. Then, the information indicating the virtual viewpoint for each competition is managed by the area management unit 407 and transmitted to the user terminal 130. Further, when setting the virtual viewpoint in response to the input from the user terminal 130, the position of the virtual viewpoint may be restricted so that the position of the virtual viewpoint can be specified only within the designated area. Further, it may be restricted so that the direction of the virtual viewpoint can be specified only in a certain direction in the designated area. By such processing, it is possible to provide the user with a virtual viewpoint image according to an easy-to-see viewpoint for each competition.

また、エリア管理部407は、図11に示すような、複数の仮想視点(仮想視点A〜F)と競技とを対応付ける対応情報を保持していてもよい。この場合、ユーザはユーザ端末130を介して、仮想視点A〜Fの中から特定の仮想視点を選択する。情報取得部405はこの選択操作に応じた入力を受け付け、視点設定部406は選択に応じた仮想視点を設定する。そしてエリア管理部407は、選択された仮想視点に対応付けられた競技のエリアを指定エリアとして設定する。これにより、S601の競技選択が行われなくても、仮想視点に対応付けられた競技エリア内のオブジェクトのみが表示される仮想視点画像が生成される。図11に示す対応情報によれば、1つの競技に複数の仮想視点を対応付けることができるため、ユーザは複数の仮想視点を切り替えながら競技を観戦することができる。それぞれの仮想視点の位置及び向きは競技に応じて予め定められていてもよいし、各仮想視点の位置及び向きを変更可能にして、変更された各仮想視点の位置及び向きを保持するようにしてもよい。エリア管理部407が保持する対応情報における仮想視点と競技との対応関係は、予め定められていてもよいし、ユーザ端末130の操作に応じて設定及び変更できるようにしてもよい。また、それぞれの仮想視点を識別するための名称をユーザが設定できるようにしてもよい。 Further, the area management unit 407 may hold correspondence information for associating a plurality of virtual viewpoints (virtual viewpoints A to F) with the competition as shown in FIG. In this case, the user selects a specific virtual viewpoint from the virtual viewpoints A to F via the user terminal 130. The information acquisition unit 405 receives the input corresponding to this selection operation, and the viewpoint setting unit 406 sets a virtual viewpoint according to the selection. Then, the area management unit 407 sets the competition area associated with the selected virtual viewpoint as a designated area. As a result, even if the competition selection of S601 is not performed, a virtual viewpoint image in which only the objects in the competition area associated with the virtual viewpoint are displayed is generated. According to the correspondence information shown in FIG. 11, since a plurality of virtual viewpoints can be associated with one competition, the user can watch the competition while switching between the plurality of virtual viewpoints. The position and orientation of each virtual viewpoint may be predetermined according to the competition, or the position and orientation of each virtual viewpoint can be changed to hold the changed position and orientation of each virtual viewpoint. You may. The correspondence relationship between the virtual viewpoint and the competition in the correspondence information held by the area management unit 407 may be predetermined, or may be set and changed according to the operation of the user terminal 130. In addition, the user may be able to set a name for identifying each virtual viewpoint.

なお、図11を用いた上記の例では複数の仮想視点から特定の仮想視点を選択するユーザ操作に応じて指定エリアが設定されるものとしたが、これに限らず、ユーザに指定された仮想視点の位置及び向きを示す視点情報に基づいて指定エリアが設定されてもよい。すなわち、ユーザがユーザ端末130を介して仮想視点を自由に指定し、エリア管理部407は複数の競技エリアのうち指定された仮想視点に対応する競技エリアを特定して、その競技エリアを指定エリアとして設定してもよい。指定された仮想視点に対応する競技エリアは、例えば、仮想視点に最も近い競技エリアや、仮想視点画像に最も大きく映る競技エリアなどであってもよい。 In the above example using FIG. 11, the designated area is set according to the user operation of selecting a specific virtual viewpoint from a plurality of virtual viewpoints, but the present invention is not limited to this, and the virtual viewpoint designated by the user is not limited to this. A designated area may be set based on viewpoint information indicating the position and orientation of the viewpoint. That is, the user can freely specify the virtual viewpoint via the user terminal 130, the area management unit 407 specifies the competition area corresponding to the designated virtual viewpoint from the plurality of competition areas, and the competition area is designated as the designated area. It may be set as. The competition area corresponding to the designated virtual viewpoint may be, for example, a competition area closest to the virtual viewpoint, a competition area most visible in the virtual viewpoint image, or the like.

また、上述した実施形態では、指定エリア外のオブジェクトを非表示とする場合に、画像生成部409が指定エリア内のオブジェクトのモデル情報を取得し、そのモデル情報と仮想視点を示す視点情報とに基づいて仮想視点画像を生成するものとした。すなわち、モデル生成部404により生成されたモデル情報のうち、指定エリア内に位置しないオブジェクトのモデル情報を用いずに仮想視点画像が生成されるものとした。ただし、仮想視点画像の生成方法はこれに限定されない。例えば、画像生成部409は、仮想視点の視野に含まれる範囲を特定し、指定エリア内のオブジェクトのうちその視野の範囲内に位置するオブジェクトのモデル情報を取得してもよい。これにより、画像生成部409が処理するモデル情報のデータ量を削減できる。 Further, in the above-described embodiment, when the object outside the designated area is hidden, the image generation unit 409 acquires the model information of the object in the designated area, and obtains the model information and the viewpoint information indicating the virtual viewpoint. Based on this, a virtual viewpoint image is generated. That is, among the model information generated by the model generation unit 404, the virtual viewpoint image is generated without using the model information of the object not located in the designated area. However, the method of generating the virtual viewpoint image is not limited to this. For example, the image generation unit 409 may specify a range included in the field of view of the virtual viewpoint and acquire model information of an object located within the range of the field of view among the objects in the designated area. As a result, the amount of model information data processed by the image generation unit 409 can be reduced.

また、画像生成装置120は、モデル情報を取得する前に指定エリアの選択を受け付け、指定エリア内のオブジェクトのモデル情報をモデル生成部404により生成し、指定エリア外のオブジェクトのモデル情報を生成しなくてもよい。この場合、限られたエリア内のオブジェクトのモデルのみ生成されるため、モデル生成時間を短縮できるという効果がある。ただし、画像生成装置120に複数のユーザ端末130が接続され、複数のユーザ端末130によりそれぞれ異なる競技が選択されうる場合は、この限りでない。このような場合は、画像生成装置120は撮影領域200内のオブジェクト全体のモデルを生成し、各ユーザ端末130からの競技選択の情報に基づいて、それぞれのユーザ端末130用の仮想視点画像を並行して生成してもよい。 Further, the image generation device 120 accepts the selection of the designated area before acquiring the model information, generates the model information of the object in the designated area by the model generation unit 404, and generates the model information of the object outside the designated area. It does not have to be. In this case, since only the model of the object in the limited area is generated, there is an effect that the model generation time can be shortened. However, this does not apply when a plurality of user terminals 130 are connected to the image generator 120 and different competitions can be selected by the plurality of user terminals 130. In such a case, the image generation device 120 generates a model of the entire object in the shooting area 200, and based on the information of the competition selection from each user terminal 130, the virtual viewpoint image for each user terminal 130 is displayed in parallel. May be generated.

[オブジェクトの位置履歴を用いる例]
以下では、オブジェクトの位置履歴を用いて、仮想視点画像における各オブジェクトの表示有無を判定する場合について説明する。この場合、モデル表示判定部408は、複数の時刻におけるオブジェクトの位置を示すモデル情報を取得し、モデル毎の位置履歴を保持する。そしてモデル表示判定部408は、エリア管理部407から取得した競技エリア情報と各オブジェクトの位置履歴に基づいて、各オブジェクトの表示を行うか否かを判定する。
[Example using object position history]
In the following, a case of determining whether or not to display each object in the virtual viewpoint image will be described using the position history of the objects. In this case, the model display determination unit 408 acquires model information indicating the positions of the objects at a plurality of times and holds the position history for each model. Then, the model display determination unit 408 determines whether or not to display each object based on the competition area information acquired from the area management unit 407 and the position history of each object.

図9を用いて、オブジェクトの位置変化と位置履歴について説明する。9(A)は、複数の撮影時刻(t1、t2、t3)における、棒高跳エリア901、走幅跳エリア902、オブジェクト903及びオブジェクト904の位置関係を示す。図9(B)は、図9(A)に示す状況に対応するオブジェクトの履歴情報910の例を示す。履歴情報910は、各撮影時刻において各オブジェクトが位置する競技エリアを示す。 The position change and the position history of the object will be described with reference to FIG. 9 (A) shows the positional relationship between the pole vault area 901, the long jump area 902, the object 903, and the object 904 at a plurality of shooting times (t1, t2, t3). FIG. 9B shows an example of the history information 910 of the object corresponding to the situation shown in FIG. 9A. The history information 910 indicates a competition area in which each object is located at each shooting time.

図9の例において、オブジェクト904(オブジェクトB)は、時刻t1では走幅跳エリア902にいるが、時刻t2では棒高跳エリア901に位置し、時刻t3では再度、走幅跳エリア902に位置している。なお、図9(B)の例では履歴情報910がオブジェクトの位置する競技エリアの履歴を示すものとしたが、履歴情報910はオブジェクトの座標の履歴を示しても良いし、オブジェクトが位置する競技エリアの変更の履歴を示してもよい。 In the example of FIG. 9, the object 904 (object B) is in the long jump area 902 at time t1, but is located in the pole vault area 901 at time t2, and is again located in the long jump area 902 at time t3. In the example of FIG. 9B, the history information 910 indicates the history of the competition area where the object is located, but the history information 910 may indicate the history of the coordinates of the object, or the competition in which the object is located. The history of area changes may be shown.

次に、オブジェクトの位置履歴を用いる場合の画像生成装置の処理フローについて、図10を用いて説明する。図10において、図6を用いて説明した処理と同様の処理については同じ符号を付している。以下では図6を用いて説明した処理フローとの差異を中心に説明する。 Next, the processing flow of the image generator when the position history of the object is used will be described with reference to FIG. In FIG. 10, the same reference numerals are given to the same processes as those described with reference to FIG. In the following, the differences from the processing flow described with reference to FIG. 6 will be mainly described.

S600において、モデル生成部404によりモデル情報が生成されると、モデル表示判定部408はモデル情報に基づいてオブジェクトの位置の履歴を示す履歴情報を生成して保持する。S601からS603の処理は図6を用いて説明した処理と同様である。 In S600, when the model information is generated by the model generation unit 404, the model display determination unit 408 generates and holds the history information indicating the history of the position of the object based on the model information. The processing of S601 to S603 is the same as the processing described with reference to FIG.

判定対象のオブジェクトが注目対象として指定された指定エリア内に位置する場合、S1001においてモデル表示判定部408は、判定対象のオブジェクトが他の時刻に指定エリア外に位置するかを履歴情報に基づいて判定する。そして、他の時刻においても対象のオブジェクトが指定エリア内に位置する場合は、S604においてそのオブジェクトは表示対象に設定される。一方、他の時刻において対象のオブジェクトが指定エリア外に位置する場合は、S605においてそのオブジェクトは非表示に設定される。S606以降の処理は図6を用いて説明した処理と同様である。 When the object to be determined is located in the designated area designated as the object of interest, the model display determination unit 408 in S1001 determines whether the object to be determined is located outside the designated area at another time based on the history information. judge. Then, if the target object is located in the designated area at another time, the object is set as the display target in S604. On the other hand, when the target object is located outside the designated area at another time, the object is set to be hidden in S605. The processing after S606 is the same as the processing described with reference to FIG.

図9に示した例では、注目対象の競技として棒高跳を選択され、時刻t2の仮想視点画像を生成する場合、オブジェクト904は時刻t2の時点では棒高跳エリア901に位置する。しかし、オブジェクト904は他の時刻t1及びt3では棒高跳エリア901の外(走幅跳エリア902)に位置するため、オブジェクト904は非表示に設定され、時刻t2の仮想視点画像に表示されない。 In the example shown in FIG. 9, when pole vault is selected as the competition of interest and a virtual viewpoint image at time t2 is generated, the object 904 is located in the pole vault area 901 at time t2. However, since the object 904 is located outside the pole vault area 901 (long jump area 902) at other times t1 and t3, the object 904 is set to be hidden and is not displayed in the virtual viewpoint image at time t2.

このようにすることによって、注目競技と異なる競技の選手が注目競技のエリアに一時的に侵入した場合等に、その選手を仮想視点画像に表示させないようにすることができる。これにより、注目競技に関係ないオブジェクトが表示されたり消えたりすることによる仮想視点画像の見やすさの低下を抑制することができる。 By doing so, when a player in a competition different from the attention competition temporarily invades the area of the attention competition, the player can be prevented from being displayed in the virtual viewpoint image. As a result, it is possible to suppress a decrease in the visibility of the virtual viewpoint image due to the display and disappearance of objects that are not related to the competition of interest.

なお、図9の例では時刻t1〜t3の3つの時刻に対応するオブジェクトの履歴情報を示したが、画像生成装置120は競技が撮影される期間全体に含まれる各時刻のオブジェクトの位置を示す履歴情報を保持してもよい。ただし、S1001の判定の際には、生成する仮想視点画像の時刻の前あるいは後の一方におけるオブジェクトの位置履歴が判定対象となっても良いし、仮想視点画像の時刻を含む一定期間におけるオブジェクトの位置履歴が判定対象となってもよい。例えば、ある時刻の仮想視点画像において、その時刻に指定エリア内に位置するオブジェクトのうち、その時刻の前後数分の期間内に指定エリア内に位置しないオブジェクトは表示されず、当該期間内に指定エリア内に位置するオブジェクトは表示されてもよい。 In the example of FIG. 9, the history information of the objects corresponding to the three times t1 to t3 is shown, but the image generator 120 shows the positions of the objects at each time included in the entire period in which the competition is photographed. History information may be retained. However, when determining S1001, the position history of the object before or after the time of the generated virtual viewpoint image may be the determination target, or the object in a certain period including the time of the virtual viewpoint image may be determined. The position history may be the determination target. For example, in a virtual viewpoint image at a certain time, among the objects located in the specified area at that time, the objects that are not located in the specified area within a period of several minutes before and after that time are not displayed and are specified within the period. Objects located within the area may be displayed.

また、指定エリア内に位置する時間が指定エリア外に位置する時間より長いオブジェクトを表示対象にしてもよいし、少なくとも1時刻において指定エリア内に位置したモデルを表示対象としても良い。また、他の時刻に指定エリア外にいるオブジェクトであっても、生成する仮想視点画像の時刻において指定エリア内の中央付近に位置するオブジェクトは表示対象にするなど、エリア内でのオブジェクトの位置に応じて表示有無が決定されてもよい。 Further, an object whose time located in the designated area is longer than the time located outside the designated area may be displayed, or a model located in the designated area at least one time may be displayed. Also, even if the object is outside the specified area at another time, the object located near the center of the specified area at the time of the generated virtual viewpoint image will be displayed, and the position of the object within the area will be changed. Whether or not to display may be determined accordingly.

また、同様にオブジェクトの位置履歴を用いて、指定エリア外に一時的に出てしまったオブジェクトを表示対象のままにしても良い。例えば、ある時刻の仮想視点画像において、その時刻に指定エリア外に位置するオブジェクトのうち、その時刻の前後数分の期間内に指定エリア内に位置しないオブジェクトは表示されず、当該期間内に指定エリア内に位置するオブジェクトは表示されてもよい。図9の例では、オブジェクト904は時刻t2では走幅跳エリア902の外(棒高跳エリア901)に位置するが、他の時刻t1及びt3では走幅跳エリア902にいるため、注目対象として走幅跳が指定された場合にオブジェクト904を表示対象としても良い。これにより、注目対象の競技の選手が競技の合間に一時的に指定エリアから離れてしまうような場合にも、その選手の様子を仮想視点画像に映し続けることができる。 Similarly, the position history of the object may be used to leave the object temporarily out of the designated area as the display target. For example, in a virtual viewpoint image at a certain time, among the objects located outside the specified area at that time, the objects that are not located within the specified area within a period of several minutes before and after that time are not displayed and are specified within the period. Objects located within the area may be displayed. In the example of FIG. 9, the object 904 is located outside the long jump area 902 (pole vault area 901) at time t2, but is in the long jump area 902 at other times t1 and t3. The object 904 may be displayed as a display target. As a result, even if a player of the competition to be focused on temporarily leaves the designated area between competitions, the state of the player can be continuously projected on the virtual viewpoint image.

また、オブジェクトの位置履歴を基に、各オブジェクトに対応する競技(各選手が参加している競技)を判定しても良い。その場合、判定対象のオブジェクトが最も長い時間位置するエリアの競技をそのオブジェクトに対応する競技としても良い。また、オブジェクトが2以上のエリアに同程度の時間だけ位置する場合には、2つ以上の競技をそのオブジェクトに対応付けても良い。2以上の競技エリアの一部が重なる場合には、重なったエリアに位置するオブジェクトの位置履歴を用いることで、そのオブジェクトがどちらの競技に対応するオブジェクトかを判定することもできる。 Further, the competition corresponding to each object (competition in which each player participates) may be determined based on the position history of the object. In that case, the competition in the area where the object to be determined is located for the longest time may be the competition corresponding to the object. Further, when an object is located in two or more areas for the same amount of time, two or more competitions may be associated with the object. When a part of two or more competition areas overlaps, it is possible to determine which competition the object corresponds to by using the position history of the objects located in the overlapping areas.

以上説明したように、本実施形態に係る画像生成装置120は、撮影領域200をそれぞれ異なる方向から撮影する複数の撮影装置110による撮影に基づく複数視点画像を取得する。また、画像生成装置120は、仮想視点の位置及び向きを示す視点情報を取得し、撮影領域200で行われるイベントのうち特定のイベントが行われる撮影領域200内の部分領域を特定する。そして画像生成装置120は、撮影領域200内のオブジェクトのうち特定された部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、複数視点画像と視点情報とに基づいて生成する。 As described above, the image generation device 120 according to the present embodiment acquires a plurality of viewpoint images based on shooting by a plurality of shooting devices 110 that shoot the shooting area 200 from different directions. Further, the image generation device 120 acquires viewpoint information indicating the position and orientation of the virtual viewpoint, and identifies a partial area in the shooting area 200 in which a specific event is performed among the events performed in the shooting area 200. Then, the image generation device 120 generates a virtual viewpoint image in which the display of the object not located in the specified partial area among the objects in the shooting area 200 is restricted, based on the plurality of viewpoint images and the viewpoint information.

このような構成によれば、撮影画像に基づいて生成される仮想視点画像において、撮影領域内の特定のイベントが行われる領域を見やすくすることができる。例えば、ユーザが100m走を観戦しようとした場合に、100m走の選手を走り幅跳びの選手が隠してしまったり、画像に映りこんでいる走り幅跳びが気になってユーザが100m走に集中できなくなったりすることのない、見やすい仮想視点画像を提供できる。 According to such a configuration, in the virtual viewpoint image generated based on the captured image, it is possible to easily see the region in the captured area where a specific event is performed. For example, when the user tries to watch the 100m dash, the long jump player hides the 100m dash player, or the long jump that is reflected in the image makes the user unable to concentrate on the 100m dash. It is possible to provide a virtual viewpoint image that is easy to see.

なお、本実施形態では、陸上競技場において複数種目の陸上競技が行われる例を中心に説明したが、これに限らず、体操や柔道、レスリングのように同じ競技場で複数の競技あるいは複数の試合が同時進行する場合にも本実施形態を適用できる。すなわち、同じ競技場で行われる複数の競技又は試合のうち、特定の競技又は試合が行われるエリアの外に位置するオブジェクトの表示が制限された仮想視点画像を生成することができる。あるいは、同会場で競技に限らない複数のイベントが同時に進行される場合にも、同様に本実施形態を適用できる。 In this embodiment, a plurality of types of athletics are mainly performed in the athletics stadium, but the present invention is not limited to this, and a plurality of athletics or a plurality of athletics such as gymnastics, judo, and wrestling are described. This embodiment can be applied even when the games are going on at the same time. That is, it is possible to generate a virtual viewpoint image in which the display of an object located outside the area where a specific competition or match is held is restricted among a plurality of competitions or matches played in the same stadium. Alternatively, the present embodiment can be similarly applied to the case where a plurality of events, not limited to competitions, are simultaneously held at the same venue.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。 The present invention supplies a program that realizes one or more functions of the above-described embodiment to a system or device via a network or storage medium, and one or more processors in the computer of the system or device reads and executes the program. It can also be realized by the processing to be performed. It can also be realized by a circuit (for example, ASIC or the like) that realizes one or more functions. Further, the program may be recorded and provided on a computer-readable recording medium.

100 画像生成システム
110 撮影装置
120 画像生成装置
130 ユーザ端末
200 撮影領域
100 Image generation system 110 Imaging device 120 Image generator 130 User terminal 200 Imaging area

Claims (24)

撮影領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得手段と、
仮想視点の位置及び向きを示す視点情報を取得する情報取得手段と、
前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定手段と、
前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定手段により特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得手段により取得された前記複数の画像と前記情報取得手段により取得された視点情報とに基づいて生成する画像生成手段と、を有することを特徴とする画像処理装置。
An image acquisition means for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot a shooting area from different directions, and an image acquisition means.
Information acquisition means for acquiring viewpoint information indicating the position and orientation of the virtual viewpoint,
A specific means for specifying a partial area in the shooting area where a specific event is performed among the events performed in the shooting area, and
A virtual viewpoint image according to the position and orientation of the virtual viewpoint, wherein the display of objects not located in the partial area specified by the specific means among the objects in the shooting area is restricted. An image processing apparatus comprising, an image generation means for generating based on the plurality of images acquired by the image acquisition means and viewpoint information acquired by the information acquisition means.
前記画像生成手段により生成される仮想視点画像において、前記仮想視点の位置及び向きに応じた視野に含まれるオブジェクトであって且つ前記特定手段により特定された前記部分領域内に位置するオブジェクトが表示されることを特徴とする請求項1に記載の画像処理装置。 In the virtual viewpoint image generated by the image generation means, an object included in the field of view corresponding to the position and orientation of the virtual viewpoint and located in the partial region specified by the specific means is displayed. The image processing apparatus according to claim 1. 前記画像生成手段により生成される仮想視点画像において、前記特定手段により特定された前記部分領域内に位置しないオブジェクトは表示されないことを特徴とする請求項1又は2に記載の画像処理装置。 The image processing apparatus according to claim 1 or 2, wherein in the virtual viewpoint image generated by the image generation means, an object not located in the partial area specified by the specific means is not displayed. 前記画像生成手段により生成される仮想視点画像において、前記特定手段により特定された前記部分領域内に位置しないオブジェクトが半透明で表示されることを特徴とする請求項1又は2に記載の画像処理装置。 The image processing according to claim 1 or 2, wherein in the virtual viewpoint image generated by the image generation means, an object not located in the partial region specified by the specific means is displayed semi-transparently. apparatus. 前記画像生成手段により生成される仮想視点画像において、前記仮想視点の位置及び向きに応じた視野に含まれ且つ前記特定手段により特定された前記部分領域内に位置しないオブジェクトのうち、第1種別のオブジェクトは表示されず、第2種別のオブジェクトは表示されることを特徴とする請求項1又は2に記載の画像処理装置。 In the virtual viewpoint image generated by the image generation means, among the objects included in the field of view corresponding to the position and orientation of the virtual viewpoint and not located in the partial area specified by the specific means, the first type. The image processing apparatus according to claim 1 or 2, wherein the object is not displayed and the second type object is displayed. 前記第1種別のオブジェクトは器具であり、前記第2種別のオブジェクトは人物であることを特徴とする請求項5に記載の画像処理装置。 The image processing apparatus according to claim 5, wherein the first type object is an instrument, and the second type object is a person. 前記画像生成手段により生成される所定の時刻の仮想視点画像において、前記仮想視点の位置及び向きに応じた視野に含まれ且つ前記所定の時刻に前記部分領域内に位置しないオブジェクトのうち、所定の期間内に前記部分領域内に位置しないオブジェクトは表示されず、前記所定の期間内に前記部分領域内に位置するオブジェクトは表示されることを特徴とする請求項1又は2に記載の画像処理装置。 In a virtual viewpoint image generated by the image generation means at a predetermined time, among the objects included in the visual field according to the position and orientation of the virtual viewpoint and not located in the partial region at the predetermined time, a predetermined The image processing apparatus according to claim 1 or 2, wherein the object not located in the partial area is not displayed within the period, and the object located in the partial area is displayed within the predetermined period. .. 前記画像生成手段により生成される所定の時刻の仮想視点画像において、前記仮想視点の位置及び向きに応じた視野に含まれ且つ前記所定の時刻に前記部分領域内に位置するオブジェクトのうち、所定の期間内に前記部分領域内に位置しないオブジェクトは表示されず、前記所定の期間内に前記部分領域内に位置するオブジェクトは表示されることを特徴とする請求項1に記載の画像処理装置。 In a virtual viewpoint image generated by the image generation means at a predetermined time, among the objects included in the visual field according to the position and orientation of the virtual viewpoint and located in the partial region at the predetermined time, a predetermined value is obtained. The image processing apparatus according to claim 1, wherein the object not located in the partial area is not displayed within the period, and the object located in the partial area is displayed within the predetermined period. 前記特定手段は、1以上の領域を選択するユーザ操作に基づいて1以上の前記部分領域を特定することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the specifying means specifies one or more of the partial areas based on a user operation of selecting one or more areas. 前記特定手段は、1以上のイベントを選択するユーザ操作に基づいて1以上の前記部分領域を特定することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 8, wherein the specifying means specifies one or more of the partial regions based on a user operation of selecting one or more events. 前記特定手段は、前記情報取得手段により取得された視点情報に基づいて、前記撮影領域内の複数の所定の領域のうち前記視点情報に対応する1以上の前記部分領域を特定することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The specific means is characterized in that it identifies one or more of the partial areas corresponding to the viewpoint information among a plurality of predetermined areas in the photographing region based on the viewpoint information acquired by the information acquisition means. The image processing apparatus according to any one of claims 1 to 8. 前記特定手段は、前記撮影領域で行われる複数のイベントのうち少なくとも何れかの時刻に関する情報に基づいて、前記部分領域を特定することを特徴とする請求項1乃至8の何れか1項に記載の画像処理装置。 The specifying means according to any one of claims 1 to 8, wherein the specifying means specifies the partial area based on information regarding at least one of a plurality of events performed in the photographing area. Image processing equipment. 前記撮影領域内のオブジェクトの3次元形状を表すモデル情報を、前記画像取得手段により取得された前記複数の画像に基づいて生成するモデル生成手段を有し、
前記画像生成手段は、前記モデル生成手段により生成されたモデル情報と前記情報取得手段により取得された視点情報とに基づいて前記仮想視点画像を生成することを特徴とする請求項1又は2に記載の画像処理装置。
It has a model generating means for generating model information representing a three-dimensional shape of an object in the photographing area based on the plurality of images acquired by the image acquiring means.
The first or second aspect of the present invention, wherein the image generation means generates the virtual viewpoint image based on the model information generated by the model generation means and the viewpoint information acquired by the information acquisition means. Image processing equipment.
前記モデル生成手段は、前記特定手段により特定された前記部分領域内に位置しないオブジェクトのモデル情報を生成しないことを特徴とする請求項13に記載の画像処理装置。 The image processing apparatus according to claim 13, wherein the model generating means does not generate model information of an object not located in the partial region specified by the specific means. 前記画像生成手段は、前記モデル生成手段により生成されたモデル情報のうち、前記特定手段により特定された前記部分領域内に位置しないオブジェクトのモデル情報を用いずに前記仮想視点画像を生成することを特徴とする請求項13に記載の画像処理装置。 The image generation means generates the virtual viewpoint image without using the model information of an object not located in the partial region specified by the specific means among the model information generated by the model generation means. The image processing apparatus according to claim 13. 前記撮影領域は複数種目の競技が行われる競技場であり、
前記特定手段は、それぞれ異なる種目の競技が行われる複数の領域のうち前記特定のイベントが行われる領域を前記部分領域として特定することを特徴とする請求項1乃至15の何れか1項に記載の画像処理装置。
The shooting area is a stadium where multiple types of competitions are held.
The specific means according to any one of claims 1 to 15, wherein the region where the specific event is performed is specified as the partial region among a plurality of regions where competitions of different events are performed. Image processing equipment.
前記特定手段により特定された前記部分領域内に位置しないオブジェクトの表示を制限するか否かを設定する設定手段を有し、
画像生成手段は、前記設定手段による設定に応じて前記仮想視点画像を生成することを特徴とする請求項1乃至16の何れか1項に記載の画像処理装置。
It has a setting means for setting whether or not to limit the display of an object not located in the partial area specified by the specific means.
The image processing apparatus according to any one of claims 1 to 16, wherein the image generation means generates the virtual viewpoint image according to the setting by the setting means.
複数の仮想視点とイベントとを対応付ける対応情報を保持する保持手段と、
前記複数の仮想視点の何れかを選択するユーザ操作に応じた入力を受け付ける受付手段を有し、
前記特定手段は、前記受付手段により受け付けられた入力と前記保持手段により保持された前記対応情報とに基づいて、前記ユーザ操作により選択された仮想視点に対応するイベントが行われる領域を前記部分領域として特定することを特徴とする請求項1乃至17の何れか1項に記載の画像処理装置。
A holding means that holds correspondence information that associates multiple virtual viewpoints with events,
It has a receiving means for receiving an input according to a user operation for selecting one of the plurality of virtual viewpoints.
The specific means is a partial area in which an event corresponding to a virtual viewpoint selected by the user operation is performed based on the input received by the receiving means and the corresponding information held by the holding means. The image processing apparatus according to any one of claims 1 to 17, wherein the image processing apparatus is specified as.
前記撮影領域内の複数の領域のうち前記特定手段により特定された前記部分領域を識別可能に示す画像を表示部に表示させる表示制御手段を有することを特徴とする請求項1乃至18の何れか1項に記載の画像処理装置。 Any of claims 1 to 18, wherein the display unit includes a display control means for displaying on the display unit an image that identifiablely indicates the partial area specified by the specific means among the plurality of areas in the photographing area. The image processing apparatus according to item 1. 前記情報取得手段は、ユーザ操作により選択されたイベントに応じた仮想視点の位置及び向きを示す視点情報を取得することを特徴とする請求項1乃至19の何れか1項に記載の画像処理装置。 The image processing apparatus according to any one of claims 1 to 19, wherein the information acquisition means acquires viewpoint information indicating the position and orientation of a virtual viewpoint according to an event selected by a user operation. .. 撮影領域をそれぞれ異なる方向から撮影する複数の撮影装置による撮影に基づく複数の画像を取得する画像取得工程と、
仮想視点の位置及び向きを示す視点情報を取得する情報取得工程と、
前記撮影領域で行われるイベントのうち特定のイベントが行われる前記撮影領域内の部分領域を特定する特定工程と、
前記仮想視点の位置及び向きに応じた仮想視点画像であって、前記撮影領域内のオブジェクトのうち前記特定工程において特定された前記部分領域内に位置しないオブジェクトの表示が制限された仮想視点画像を、前記画像取得工程において取得された前記複数の画像と前記情報取得工程において取得された視点情報とに基づいて生成する画像生成工程と、を有することを特徴とする画像処理方法。
An image acquisition process for acquiring a plurality of images based on shooting by a plurality of shooting devices that shoot the shooting area from different directions, and
An information acquisition process for acquiring viewpoint information indicating the position and orientation of a virtual viewpoint,
A specific step of specifying a partial area in the shooting area where a specific event is performed among the events performed in the shooting area, and
A virtual viewpoint image according to the position and orientation of the virtual viewpoint, wherein the display of objects not located in the partial area specified in the specific step among the objects in the shooting area is restricted. An image processing method comprising the plurality of images acquired in the image acquisition step and an image generation step of generating based on the viewpoint information acquired in the information acquisition step.
前記画像生成工程により生成される仮想視点画像において、前記仮想視点の位置及び向きに応じた視野に含まれるオブジェクトであって且つ前記部分領域内に位置するオブジェクトが表示され、前記部分領域内に位置しないオブジェクトは表示されないことを特徴とする請求項21に記載の画像処理方法。 In the virtual viewpoint image generated by the image generation step, an object included in the visual field according to the position and orientation of the virtual viewpoint and located in the partial region is displayed, and the object is positioned in the partial region. The image processing method according to claim 21, wherein an object that does not display is not displayed. 前記撮影領域は複数種目の競技が行われる競技場であり、
前記特定工程は、それぞれ異なる種目の競技が行われる複数の領域のうち前記特定のイベントが行われる領域を前記部分領域として特定することを特徴とする請求項22に記載の画像処理方法。
The shooting area is a stadium where multiple types of competitions are held.
The image processing method according to claim 22, wherein the specific step specifies a region in which the specific event is performed among a plurality of regions in which competitions of different events are performed as the partial region.
コンピュータを、請求項1乃至20の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the image processing apparatus according to any one of claims 1 to 20.
JP2019180969A 2019-09-30 2019-09-30 Image processing device, image processing method, and program Active JP7446754B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019180969A JP7446754B2 (en) 2019-09-30 2019-09-30 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019180969A JP7446754B2 (en) 2019-09-30 2019-09-30 Image processing device, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2021056900A true JP2021056900A (en) 2021-04-08
JP7446754B2 JP7446754B2 (en) 2024-03-11

Family

ID=75270816

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019180969A Active JP7446754B2 (en) 2019-09-30 2019-09-30 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP7446754B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145571A1 (en) * 2022-01-31 2023-08-03 キヤノン株式会社 Information processing device, information processing method, data structure, and program
WO2023167324A1 (en) * 2022-03-03 2023-09-07 株式会社安川電機 Production system and reproduction method
WO2024001223A1 (en) * 2022-06-27 2024-01-04 华为技术有限公司 Display method, device, and system

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095936A (en) * 2017-11-20 2019-06-20 キヤノン株式会社 Image processor, method for processing image, and program

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019095936A (en) * 2017-11-20 2019-06-20 キヤノン株式会社 Image processor, method for processing image, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023145571A1 (en) * 2022-01-31 2023-08-03 キヤノン株式会社 Information processing device, information processing method, data structure, and program
WO2023167324A1 (en) * 2022-03-03 2023-09-07 株式会社安川電機 Production system and reproduction method
WO2024001223A1 (en) * 2022-06-27 2024-01-04 华为技术有限公司 Display method, device, and system

Also Published As

Publication number Publication date
JP7446754B2 (en) 2024-03-11

Similar Documents

Publication Publication Date Title
JP6918455B2 (en) Image processing equipment, image processing methods and programs
JP7140487B2 (en) Information processing device, display control method, and program
US20210227201A1 (en) Display control apparatus, display control method, and storage medium
JP7446754B2 (en) Image processing device, image processing method, and program
JP7366611B2 (en) Image processing device, image processing method, and program
JP7023696B2 (en) Information processing equipment, information processing methods and programs
KR20180059765A (en) Information processing apparatus, information processing method, and program
JP2020086983A (en) Image processing device, image processing method, and program
US11468258B2 (en) Information processing apparatus, information processing method, and storage medium
JP2020042407A (en) Information processor and information processing method and program
US20220277520A1 (en) Information processing apparatus, information processing method, and storage medium
JP6812181B2 (en) Image processing device, image processing method, and program
JP2019197340A (en) Information processor, method for processing information, and program
KR102453296B1 (en) Information processing apparatus, control method therefor and computer program
JP7401199B2 (en) Information processing device, information processing method, and program
JP7479793B2 (en) Image processing device, system for generating virtual viewpoint video, and method and program for controlling the image processing device
JP7296735B2 (en) Image processing device, image processing method and program
JP2023057124A (en) Image processing apparatus, method, and program
JP2020135290A (en) Image generation device, image generation method, image generation system, and program
JP2022182836A (en) Video processing device and its control method, and program
JP2022169177A (en) Information processing device, information processing method, and program
JP2022110751A (en) Information processing device, information processing method, and program
JP2021144522A (en) Image processing apparatus, image processing method, program, and image processing system
JP2020190978A (en) Information processing apparatus, information processing method, and program
EP4261788A1 (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231003

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231201

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20231213

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240228

R151 Written notification of patent or utility model registration

Ref document number: 7446754

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151