Nothing Special   »   [go: up one dir, main page]

JP2020067960A - 画像処理装置、画像処理方法、及びプログラム - Google Patents

画像処理装置、画像処理方法、及びプログラム Download PDF

Info

Publication number
JP2020067960A
JP2020067960A JP2018202034A JP2018202034A JP2020067960A JP 2020067960 A JP2020067960 A JP 2020067960A JP 2018202034 A JP2018202034 A JP 2018202034A JP 2018202034 A JP2018202034 A JP 2018202034A JP 2020067960 A JP2020067960 A JP 2020067960A
Authority
JP
Japan
Prior art keywords
image
virtual viewpoint
image processing
viewpoint
boundary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018202034A
Other languages
English (en)
Other versions
JP7313811B2 (ja
Inventor
大地 阿達
Taichi Adachi
大地 阿達
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2018202034A priority Critical patent/JP7313811B2/ja
Priority to US16/660,338 priority patent/US11277596B2/en
Publication of JP2020067960A publication Critical patent/JP2020067960A/ja
Application granted granted Critical
Publication of JP7313811B2 publication Critical patent/JP7313811B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

【課題】 生成される仮想視点画像がどのような位置の仮想視点に応じた画像なのかをユーザにとって把握しやすくする。【解決手段】 カメラ群110により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像を生成する画像処理装置200は、仮想視点の位置を示す視点情報を取得する。そして画像処理装置200は、撮影領域に含まれる所定領域の内部と外部との境界と仮想視点との位置関係に応じた画像と、上記の境界を表す画像との、少なくとも何れかを含む仮想視点画像を生成する。【選択図】 図3

Description

本発明は、複数の撮影装置により取得される複数の画像に基づいて生成される仮想視点画像に関するものである。
複数の撮影装置(カメラ)を異なる位置に設置して多視点で同期撮影し、当該撮影により得られた複数の画像を用いて、視点を任意に変更可能な仮想視点画像を生成する技術がある。例えば、サッカーやバスケットボールなどのスポーツ競技を撮影した複数の画像に基づいて、ユーザにより設定された視点に応じた仮想視点画像を生成することにより、ユーザは様々な角度から競技を観戦することができる。このような仮想視点画像を表示することで、通常の撮影画像を表示する場合と比較して、視聴者に高い臨場感を与えることができる。
特許文献1には、背景差分情報を用いて撮影画像からオブジェクト領域を抽出することが記載されている。また、複数のカメラによる複数の撮影画像それぞれからの抽出結果を用いてオブジェクトの3次元モデルを生成し、生成されたモデルを仮想視点に応じてレンダリングすることで、仮想視点コンテンツを生成する方法について記載されている。
特開2017−212592号公報
しかしながら、従来の技術により生成された仮想視点画像を見るユーザにとって、その仮想視点画像がどのような位置の仮想視点に応じた画像なのか把握しづらい場合が考えられる。例えばアーティスティックスイミングのような水中競技を撮影対象として仮想視点画像を生成する場合、背景差分情報を用いて従来の方法で仮想視点画像を生成しようとすると、選手の3次元モデルを生成するためにプール内の水は背景として扱う必要がある。そのため、撮影画像からはプール内の水の3次元モデルは生成されない。また、背景の中でもプールサイドや観客席については、予めレーザー等を用いて空間測定をすることにより3次元モデルを生成することができるが、水はレーザー等の光を十分に反射しないため、同様の方法ではプール内の水の3次元モデルは生成されない。そして、水の3次元モデルが生成されないことによりプール内の水が再現されない仮想視点画像が生成された場合、その仮想視点画像が水中の仮想視点に応じた画像なのか水上の仮想視点に応じた画像なのかをユーザが把握しづらく、ユーザにとって不便である。
本発明は上記の課題に鑑みてなされたものであり、生成された仮想視点画像がどのような位置の仮想視点に応じた画像なのかをユーザにとって把握しやすくすることを目的とする。
上記課題を解決するため、本発明に係る画像処理装置は、例えば以下の構成を有する。すなわち、複数の撮影装置により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像を生成する画像処理装置であって、仮想視点の位置を示す視点情報を取得する視点取得手段と、前記視点取得手段により取得される前記視点情報が示す前記仮想視点の位置に応じた前記仮想視点画像を生成する生成手段であって、前記撮影領域に含まれる所定領域の内部と外部との境界と前記仮想視点との位置関係に応じた画像と、前記境界を表す画像との、少なくとも何れかを含む前記仮想視点画像を生成する生成手段とを有する。
本発明によれば、生成された仮想視点画像がどのような位置の仮想視点に応じた画像なのかをユーザにとって把握しやすくできる。
情報処理システムの構成例を示す図である。 画像処理装置のハードウェア構成例を示す図である。 画像処理装置の動作の一例を示すフローチャートである。 3次元空間内の仮想視点の位置の例を示す図である。 サーバにより生成される仮想視点画像の一例を示す図である。 サブ空間情報の例を示す図である。 画像処理装置により出力される仮想視点画像の一例を示す図である。 画像処理装置により出力される仮想視点画像の一例を示す図である。 画像処理装置の動作の一例を示すフローチャートである。 画像処理装置により出力される仮想視点画像の一例を示す図である。 画像処理装置の動作の一例を示すフローチャートである。 画像処理装置により出力される仮想視点画像の一例を示す図である。
[情報処理システムの構成]
図1は、情報処理システム10の構成例を示す図である。情報処理システム10は、複数のカメラによる撮影に基づく複数の画像と、指定された仮想視点とに基づいて、指定された仮想視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて情報処理システム10により自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、情報処理システム10により処理される仮想視点画像は静止画であってもよい。
情報処理システム10は、カメラ群110、コントローラ120、サーバ130、画像処理装置200、表示装置300、及び記憶部400を有する。カメラ群110は、撮影領域を複数の方向から撮影する複数のカメラを有する。すなわち、撮影領域はカメラ群110に含まれる複数のカメラの少なくとも何れかにより撮影される空間である。撮影領域は例えば水泳競技が行われる競技場であるが、これに限らず、その他の競技が行われる競技場、もしくはコンサートや演劇が行われる舞台などであってもよい。カメラ群110を構成する複数のカメラは、このような撮影領域を取り囲むようにそれぞれ異なる位置に設置され、同期して撮影を行う。なお、図1ではカメラ群110が3台のカメラを有するものとしているが、カメラ群110が有するカメラの数はこれに限定されない。
本実施形態では撮影領域が水泳の競技場であり、カメラはプールの外とプールの水の中との両方に設置されるものとして説明する。例えば、50mプールの中心に向けて、プールの外に30台のカメラが設置され、水中にも30台のカメラが設置される。なお、カメラはプールの外とプールの中の何れか一方にのみ設置されていてもよいが、水中の映像は水中のカメラの方が精細に撮像できるため、プールの中と外の両方にカメラが設置されている方が高画質の仮想視点画像を生成できる。また、カメラ群110は撮影領域の全周にわたって設置されていなくてもよく、設置場所の制限等によっては撮影領域の一部の方向にのみ設置されていてもよい。また、カメラ群110には、望遠カメラと広角カメラなど機能が異なるカメラが含まれていてもよい。
コントローラ120は、ジョイスティックやボタン、タッチパネルなどの操作部を有し、ユーザから仮想視点を指定するための操作を受け付ける。そしてコントローラ120は、ユーザ操作により指定された仮想視点を示す視点情報をサーバ130と記憶部400へ出力する。視点情報には、仮想視点に対応する仮想カメラの位置及び向きの情報が含まれるが、これに限らず、仮想カメラの画角や焦点距離、焦点位置などの情報が含まれていてもよい。サーバ130は、カメラ群110から取得した複数の撮影画像と、コントローラ120から取得した視点情報とに基づいて、その視点情報が示す仮想視点に応じた仮想視点画像を生成する。そしてサーバ130は、生成した仮想視点画像を記憶部400へ出力する。
仮想視点画像の生成方法としては、例えば以下の方法がある。サーバ130は、撮影領域内の背景(例えばプールや観客席)の3次元形状を表す背景モデルを予め取得する。またサーバ130は、カメラ群110から取得した複数の撮影画像に基づく背景差分情報を用いて、撮影領域内の前景となるオブジェクト(例えば選手)の3次元形状を表す前景モデルを生成する。そしてサーバ130は、生成した前景モデルと、取得した背景モデルに対し、コントローラ120から取得した視点情報に応じた撮影画像をマッピングし、レンダリングを行うことにより、仮想視点画像を生成する。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
記憶部400は、サーバ130から出力された仮想視点画像と、コントローラ120から出力された視点情報と、サブ空間情報とを、ハードディスクドライブやSSD、SDカードなどの記録媒体に記憶する。サブ空間情報は3次元空間内の所定領域であるサブ空間、例えばプール内の水が満たされた領域を表す座標データを含む領域情報である。サブ空間情報は、例えば予め撮影領域を計測した結果に基づいて記憶部400に入力されるが、これに限らず、コントローラ120を介したユーザ操作に基づいて入力されてもよいし、その他の方法で入力されてもよい。
画像処理装置200は、仮想視点画像取得部210(以降、画像取得部210)、サブ空間情報取得部220(以降、情報取得部220)、仮想視点取得部230(以降、視点取得部230)、判定部240、及び情報付加部250を有する。画像取得部210、情報取得部220、及び視点取得部230はそれぞれ、仮想視点画像、サブ空間情報、及び視点情報を、ネットワークを介して画像処理装置200と接続された記憶部400から取得する。なお、画像処理装置200はネットワークを介さずに記憶部400と接続されてもよい。判定部240は、取得したサブ空間情報および視点情報に基づいて、指定された仮想視点の位置がサブ空間に包含されるかを判定し、その結果を情報付加部250に出力する。情報付加部250は、判定部240による判定の結果に基づいて、記憶部400から取得した仮想視点画像に情報を付加し、表示装置300へ出力する。画像処理装置200から出力される画像も、サーバ130から出力される画像と同じく、カメラ群110により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像である。情報付加部250により付加される情報の詳細については後述する。
表示装置300は、画像処理装置200から出力された仮想視点画像をユーザに対して表示する。なお、図1では一例として単一の表示装置300が画像処理装置200と接続されるものとしているが、複数の表示装置300が画像処理装置200に接続されていてもよい。また、画像処理装置200からのデータの出力先は表示装置300に限らず、データを記憶する記憶装置などであってもよい。
なお、情報処理システム10の構成は図1に示したものに限定されない。例えば、図1では記憶部400がサーバ130や画像処理装置200とは別の装置として構成される例を示しているが、これに限らず、記憶部400がサーバ130の内部に構成されていてもよいし、記憶部400が画像処理装置200の内部に構成されてもよい。また、仮想視点画像と視点情報とサブ空間情報とが複数の装置に分かれて記憶されていてもよい。また、サーバ130と画像処理装置200とが一体となって構成されていてもよい。
[画像処理装置の構成]
図2を用いて、画像処理装置200のハードウェア構成について説明する。画像処理装置200は、CPU201、ROM202、RAM203、補助記憶装置204、及び通信部205を有する。CPU201は、画像処理装置200の全体を制御する中央演算ユニットであり、画像処理装置200の処理シーケンスを統括的に制御することで、図1に示す画像処理装置200の各機能部を実現する。なお、画像処理装置200がCPU201とは異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。
ROM202及び補助記憶装置204は、後述するフローチャートに示す処理を実現するためのプログラムやデータを格納する。RAM203は、データの一時保存やプログラムのロードに使用される。通信部205は、ネットワーク206を介して記憶部400や表示装置300などの外部装置とのデータの送受信を行う。画像処理装置200の各構成要素は、バス207を介して相互に接続される。
[画像処理装置の処理フロー]
次に画像処理装置200の処理フローについて、図3のフローチャートを用いて説明する。図3に示される一連の処理は、画像処理装置200のCPU201がROM202または補助記憶装置204に記憶された制御プログラムをRAM203に展開し、実行することにより実施される。なお、図3に示す処理の一部または全部を、CPU201とは異なる1又は複数の専用のハードウェアにより実現してもよい。後に説明する図9や図11のフローチャートに示す処理についても同様である。図3に示す処理は、例えば、情報付加部250により情報が付加された仮想視点画像の生成の指示が画像処理装置200に入力されたタイミングで開始される。ただし、図3に示す処理の開始タイミングは上記に限定されない。
S301において、画像取得部210は、記憶部400から仮想視点画像を取得する。仮想視点画像は例えば24ビットPNGフォーマットの画像であるが、仮想視点画像の形式はこれに限定されない。図5は画像取得部210により取得される仮想視点画像の例を示し、図4は図5の仮想視点画像に対応する撮影領域及び仮想視点の状況を示す。図4に示す状況では、撮影領域である水泳の競技場に対応する3次元空間内に、水中の領域であるサブ空間20、前景オブジェクト3、背景オブジェクト4、仮想視点30及び仮想視点31が存在する。前景オブジェクト3はサブ空間の内部と外部との境界(水面)をまたいで位置し、仮想視点30はサブ空間20の内部に位置し、背景オブジェクト4および仮想視点31はサブ空間20の外部に位置する。
図5(a)は、コントローラ120により仮想視点30が指定された場合にサーバ130により生成され、記憶部400を介して画像取得部210により取得される仮想視点画像を示す。一方、図5(b)は、コントローラ120により仮想視点31が指定された場合にサーバ130により生成され、記憶部400を介して画像取得部210により取得される仮想視点画像を示す。すなわち、図5(a)に示す仮想視点画像は前景オブジェクト3を水中から見上げたアングルに対応し、図5(b)に示す仮想視点画像は前景オブジェクト3を水面より上から見下ろしたアングルに対応する。
カメラ群110による撮影時において前景オブジェクト3の上半身は水上にあり、下半身は水中にある。そのため、撮影画像を用いて色付けがされた前景オブジェクト3の3次元モデルは上半身と下半身とで色が異なる。図5(a)の仮想視点画像においては、前景オブジェクト3が水の無い空間に浮いているように描画される。これは、撮影画像に基づく背景差分情報からは前景オブジェクト3のみが抽出されるため、サーバ130により生成される仮想視点画像においては水が表現されないからである。図5(b)の仮想視点画像においては、背景としてプールの底面が前景オブジェクト3の後方に描画されるが、前景オブジェクト3は水の無い空間に浮いているように描画される。
S302において、情報取得部220は、サブ空間20に関する領域情報であるサブ空間情報を取得し、カメラ群110の少なくとも何れかにより撮影される撮影領域内におけるサブ空間20の内側の領域と外側の領域との境界を特定する。サブ空間情報は具体的には、図6に示すように、サブ空間20を表現する多面体の頂点に対応するXYZ座標と、多面体の面に含まれる頂点のインデックスの情報を含む、OBJファイルフォーマットのデータである。ただし、サブ空間情報の形式や内容はこれに限定されない。例えば、サブ空間情報はその他の3Dファイルフォーマットのデータであってもよいし、X−Y面およびX−Z面内の長方形の座標とサイズを記述したテキストファイルなどであってもよい。また、サブ空間情報は、サブ空間の内部と外部との境界を表す情報、例えば水面の高さを示す情報であってもよい。
S303において、視点取得部230は、記憶部400から仮想視点を示す視点情報を取得する。視点情報は例えば、仮想カメラの位置t1=(x1、y1、z1)、姿勢r1=(rx1、ry1、rz1)、及び焦点距離f1=(fx1、fy1)を3次元座標で表す情報であり、テキストファイルに記述される。ただし視点情報の形式や内容はこれに限定されない。
S304において、判定部240は、視点情報により示される仮想視点の位置がサブ空間情報により特定されるサブ空間20に含まれる否かを判定する。判定方法としては、例えば、サブ空間20を構成する多面体の各面における内側に向かう正規化した法線ni=(nx、ny,nz)と仮想視点の位置t1を比較し、t1が各面の法線の指す方向にあるかどうか、つまり内側かどうかを平面の方程式から算出する。平面の方程式よりni・t1+ti=nx・x1+ny・y1+nz・z1+tiが0より大きければ仮想視点は内側に位置し、そうでなければ仮想視点は面上または外側に位置すると判定される。ここでtiは各平面の媒介変数であり、各平面上の点(例えばいずれかの頂点)と平面の方程式からあらかじめ算出される。サブ空間20を構成する多面体のすべての面について上記の判定の結果が内側であれば、仮想視点はサブ空間20に包含されると判断され、S305に進む。一方、仮想視点がサブ空間20に包含されないと判断された場合は、S306に進む。なお、仮想視点の位置がサブ空間に含まれるか否かの判定方法は上記に限定されず、そのほかの方法が用いられてもよい。
S305又はS306において、画像処理装置200は、表示装置300へ出力すべき仮想視点画像における水面の表示を、S304における判定の結果に基づいて制御する。具体的には、S305に進んだ場合、情報付加部250は、S301において取得された仮想視点画像に、水中からみた水面を表す画像を付加する。一方、S306に進んだ場合、情報付加部250は、S301において取得された仮想視点画像に、水上からみた水面を表す画像を付加する。水面を表す画像を付加する処理の詳細については後述する。図7(a)は、図5(a)に示す仮想視点画像に対してS305において水面が付加された画像を示し、図7(b)は、図5(b)に示す仮想視点画像に対してS306において水面が付加された画像を示す。S307において、情報付加部250は、S305又はS306において水面を付加することで生成された仮想視点画像を表示装置300へ出力する。
このようにして画像処理装置200から出力される画像は、コントローラ120を介した操作に応じた視点情報により示される仮想視点の位置に応じた仮想視点画像である。ただし、サーバ130から出力される仮想視点画像とは異なり、画像処理装置200から出力される仮想視点画像には水面を表す画像が付加されている。そのため、画像処理装置200から出力される仮想視点画像を見るユーザは、仮想視点と水面との位置関係から、仮想視点がどのような位置に設定されているのかを容易に把握することができる。さらに、水面を表す画像が付加された仮想視点画像は、サーバ130から出力される水面のない仮想視点画像よりも現実空間における見え方に近くなり、仮想視点画像を見るユーザに与える違和感を抑制することができる。
また、現実空間においては光の反射や屈折の影響により、水中からみた水面と水上からみた水面とは見た目が異なる。そこで、画像処理装置200は、水中に対応するサブ空間の境界と仮想視点との位置関係に基づいて、その境界である水面の表示態様を決定し、決定結果に応じた水面を表す画像を付加することで、現実空間の見え方により近い仮想視点画像を生成する。例えば、画像処理装置200は、視点情報により示される仮想視点の位置が水中にある場合と水面より上にある場合とで、水面の色及び模様の少なくとも何れかが異なる仮想視点画像を生成する。これにより、仮想視点画像を現実空間における見え方に近づけ、仮想視点画像がユーザに与える違和感をより抑制することができる。ただし、画像処理装置200の処理を簡単にするために、仮想視点の位置が水中であっても水面より上であっても同様の水面を表す画像が仮想視点画像に付加されてもよい。
[水面を表す画像の付加処理]
以下では、図3のS305又はS306において画像処理装置200が水面を付加した仮想視点画像を生成する処理の詳細について説明する。まず画像処理装置200は、記憶部400から取得した仮想視点画像に対応する仮想視点デプス情報を取得する。仮想視点デプス情報は、サーバ130において仮想視点画像を生成する際に用いられるデプスバッファの値を示す情報であり、仮想視点画像の各画素について、その画素に対応する被写体と仮想視点との距離を示す。ここでは、画像処理装置200が記憶部400を介してサーバ130から仮想視点デプス情報を取得するものとするが、これに限らず、サーバ130から仮想視点デプス情報を直接取得してもよい。
また画像処理装置200は、記憶部400から取得したサブ空間情報に基づいて、水中の領域を表すサブ空間20の3次元モデルを生成し、記憶部400から取得した視点情報に基づいてサブ空間20の3次元モデルをレンダリングする。ここで、サブ空間20の3次元モデルにマッピングされるテクスチャは、仮想視点とサブ空間20の境界との位置関係に基づいて決まる。例えば、仮想視点が水面より上にある場合(S306の場合)はサブ空間20の3次元モデルの色をシアン(R,G,B)=(0、255、255)とし、仮想視点が水中にある場合(S305の場合)はシアンとは濃さや明るさが異なる色とする。また、仮想視点が水面より上にある場合はサブ空間20の3次元モデルに光の反射や波を表す模様やアニメーションをつけ、仮想視点が水中にある場合は気泡を表す模様やアニメ―ションをつけてもよい。
そして画像処理装置200は、記憶部400から取得した水面が付加される前の仮想視点画像の画素のうち、仮想視点デプス情報が示す距離が仮想視点と水面との距離よりも遠い画素にのみ、サブ空間20のレンダリング結果を重畳させる。例えば、図5(a)のようなプールの水中から上を見上げるような視点に応じてサブ空間20の3次元モデルをレンダリングした結果は、画像全体が水を表す色や模様で覆われたものとなる。そして、図5(a)の画像において、仮想視点デプス情報が示す距離が仮想視点と水面との距離よりも近い画素は、前景オブジェクト3の下半身が映っている画素である。そこで、画像処理装置200は、図5(a)の画像のうち前景オブジェクト3の下半身が映っている部分以外の画素に、サブ空間20の3次元モデルのレンダリング結果を重畳することで、水を表す色や模様でそれらの画素を塗りつぶす。なお、重畳されるサブ空間20の3次元モデルのレンダリング結果は半透明になるようにしてもよい。この場合、画像処理装置200は、仮想視点とサブ空間20の境界との位置関係に基づいて透明度が異なるように制御してもよい。以上の処理によって、図7に示すような、水面を表す画像が付加された仮想視点画像を生成することができる。
なお、水面が表示される仮想視点画像を生成する方法は上記に限定されない。例えば、水中の領域を表すサブ空間20の3次元モデルを生成して使用する代わりに、水面を表す平面状のオブジェクトの3次元モデルを生成して使用してもよい。また、仮想視点デプス情報を用いる代わりに、画像処理装置200が前景オブジェクト3の3次元モデルを取得し、前景オブジェクト3とサブ空間20の位置関係を算出して、サブ空間20のレンダリング結果を重畳させる画素を決定してもよい。また、仮想視点画像に付加される水面の画像は、撮影領域内の水面全体を表す画像に限らない。例えば、図8(a)及び図8(b)に示すように、水面と前景オブジェクト3とが交わる箇所から半径3mの範囲など、撮影領域内の所定の被写体の位置に基づいて決まる水面の一部分を表す画像のみが仮想視点画像に含まれてもよい。
また、サーバ130により水面のない仮想視点画像を生成してから画像処理装置200において水面を付加するのではなく、水面が表示される仮想視点画像を直接生成してもよい。具体的には、画像処理装置200はまず、前景オブジェクトの3次元モデルと背景の3次元モデルを取得する。また画像処理装置200は、記憶部400から取得したサブ空間情報に基づいて、水面を表す平面状のオブジェクトの3次元モデルを生成する。そして画像処理装置200は、記憶部400から取得した視点情報に基づいてこれらの3次元モデルをレンダリングすることで、水面が表示される仮想視点画像を生成してもよい。この場合にも、画像処理装置200は、仮想視点の位置が水面より上にあるか水中にあるかに応じて、水面を表すオブジェクトのモデルにマッピングするテクスチャを異ならせることで、水面の表示を制御してもよい。
例えば、画像処理装置200は、水面を表す画像の色を決定するためにカメラ群110に含まれる複数のカメラのうち何れのカメラにより得られる画像を用いるかを、仮想視点と水面との位置関係に基づいて決定する。そして、仮想視点が水面より上にある場合は水の外に設置されたカメラによる撮影画像に基づいて水面を表す3次元モデルに色付けをし、仮想視点が水中にある場合は水中に設置されたカメラによる撮影画像に基づいて色付けをしてもよい。これにより、現実空間において水面を上から見た場合と水中からみた場合での光の反射や屈折による見え方の差を、仮想視点画像においても再現することができる。
なお、上記の説明では仮想視点が水面より上にある場合も水中にある場合も仮想視点画像内に水面が表示されるものとしたが、これに限らない。画像処理装置200は、仮想視点とサブ空間20の境界との位置関係に基づいて、仮想視点画像における水面を表す画像の表示有無を決定してもよい。例えば、仮想視点が水面より上に位置する場合にのみ水面が表示されてもよい。また、仮想視点と水面との位置関係に応じて異なる表示態様で表示される画像は、水面を表す画像に限定されない。例えば画像処理装置200は、カメラ群110の少なくとも何れかにより得られる画像に基づいて3次元モデルが生成されるオブジェクト(例えば前景オブジェクト3)の色を、仮想視点の位置が水面より上にあるか水中にあるかに応じて異ならせてもよい。また、画像処理装置200により生成される仮想視点画像に含まれるサブ空間20の境界を表す画像は、水中の領域と水の外の領域との境界である水面を表す画像に限定されない。例えば、カメラ群110による撮影対象が地上における競技の場合に、地中に対応するサブ空間が設定され、画像処理装置200は仮想視点が地面より上にある場合と地中にある場合とで仮想視点画像における地面の表示態様を異ならせてもよい。
[仮想視点の位置が含まれる領域の表示]
上記では、画像処理装置200の情報付加部250により、仮想視点画像に水面を表すオブジェクトが付加される場合を中心に説明した。ただし、情報付加部250により付加される情報はこれに限定されない。以下では、視点情報により示される仮想視点とサブ空間の境界との位置関係を示す情報を表示する付加画像が仮想視点画像に付加される場合について説明する。図9はこの場合の画像処理装置200による処理フローを示しており、図3に示したものと同様の処理については同じ符号を付している。図3の処理フローとの差異は、S905とS906の処理であるため、その差異となる処理を中心に説明する。
S304において仮想視点がサブ空間20に包含されると判定された場合、S905において情報付加部250は、仮想視点の位置がサブ空間20の内部の領域に含まれることを示す画像を仮想視点画像に付加する。一方、S304において仮想視点がサブ空間20に包含されないと判定された場合、S906において情報付加部250は、仮想視点の位置がサブ空間20の外部の領域に含まれることを示す画像を仮想視点画像に付加する。
図10(a)は、図5(a)に示す仮想視点画像に対してS905において付加画像が付加された画像を示し、図10(b)は、図5(b)に示す仮想視点画像に対してS906において付加画像が付加された画像を示す。図10(a)に示す仮想視点画像における付加された画像は、仮想視点が水中であることを表示する付加画像1010である。一方、図10(b)に示す仮想視点画像における付加された画像は、仮想視点が水上であることを表示する付加画像1011である。付加画像1010及び付加画像1011は、例えば画像の左上から右に50画素、下に50画素の位置など、仮想視点画像内の所定の位置に合成される。なお、付加画像の表示内容はアニメーションでもよい。また、付加画像が合成される位置は上記に限らず、ユーザにより指定された位置でもよいし、仮想視点の位置や時刻によって異なる位置であってもよい。
このようにして仮想視点の位置が含まれる領域を示す画像が付加された仮想視点画像が表示装置300に表示されることで、仮想視点画像を見るユーザは、仮想視点が水中に設定されているのか水上に設定されているのかを容易に把握することができる。また、付加画像を表示させるこの方法は、上述した水面を表すオブジェクトを表示させる方法と比較して、画像処理装置200の処理を簡単にすることができ、画像処理装置200に仮想視点デプス情報を入力する必要もなくなる。なお、画像処理装置200は、図10に示す付加画像と、図7や図8に示す水面を表すオブジェクトとの、両方を仮想視点画像に付加してもよい。これにより、ユーザにとっての利便性を更に高めることができる。
上記の説明では仮想視点が水面より上にある場合も水中にある場合も仮想視点画像内に付加画像が表示されるものとしたが、これに限らない。画像処理装置200は、仮想視点が水面より上にある場合と水中にある場合の何れか一方の場合にのみ、仮想視点画像内に付加画像を表示させてもよい。また、水中と水上の2種類の表示に限らず、例えば水面を中心とする所定範囲内の高さに仮想視点が設定されている場合には、「水面」を表す付加画像が仮想視点画像内に表示されてもよい。また、サブ空間はプール内の水中の領域に限定されず、カメラ群110による撮影対象が地上の競技の場合において地中の領域がサブ空間に設定されてもよい。また例えば、撮影対象がサッカーの場合において、仮想視点がオフサイドラインより奥に位置するか否か、又は仮想視点がハーフラインに対してどちら側に位置するかに応じて、仮想視点画像に付加される情報を異ならせてもよい。
[仮想視点の位置を示す情報の表示]
以下では、情報付加部250により情報が付加される別の例として、視点情報により示される仮想視点の位置とサブ空間の境界の位置とを示す情報が仮想視点画像に付加される場合について説明する。図11はこの場合の画像処理装置200による処理フローを示しており、図3に示したものと同様の処理については同じ符号を付している。図3の処理フローとの差異は、S1105とS1106の処理であるため、その差異となる処理を中心に説明する。
S1105又はS1106において情報付加部250は、仮想視点の位置を示すインジケータを仮想視点画像に付加する。ここで、S1105の場合、すなわち仮想視点が水中に位置する場合には、赤色のインジケータが付加され、S1106の場合、すなわち仮想視点が水面より上に位置する場合には、緑色のインジケータが付加される。具体的には、画像処理装置200は、記憶部400から取得したサブ空間情報に基づいて、3次元空間における所定の軸方向(例えば鉛直方向(x、y、z)=(0,0,1))においてサブ空間20が存在する範囲(例えば高さdが0<d<5の範囲)を特定する。また、画像処理装置200は、記憶部400から取得した視点情報に基づいて、上記の所定の軸方向における仮想視点の位置を特定する。そして画像処理装置200は、上記のサブ空間20が存在する範囲と仮想視点の位置との関係を示すインジケータを生成し、仮想視点がサブ空間20に含まれるか否かの判定結果に応じた色のインジケータを仮想視点画像に重畳する。
図12(a)は、図5(a)に示す仮想視点画像に対してS1105においてインジケータが付加された画像を示し、図12(b)は、図5(b)に示す仮想視点画像に対してS1106においてインジケータが付加された画像を示す。インジケータ上の矢印1110の位置が所定の軸方向における仮想視点の位置を示し、インジケータ上のライン1020がサブ空間に対応する範囲の上限(例えば水面の位置)を示し、ライン1030がサブ空間に対応する範囲の下限(例えば水底の位置)を示す。仮想視点の位置がサブ空間の範囲内にある場合(仮想視点が水中に位置する場合)は、図12(a)に示すように、矢印1110がライン1020とライン1030の間に表示され、かつインジケータが赤く表示される。一方、仮想視点の位置がサブ空間の範囲の上限を超えている場合(仮想視点が水面より上に位置する場合)は、図12(b)に示すように、矢印1110がライン1020よりも上方に表示され、かつインジケータが緑色で表示される。
このように、仮想視点画像内に仮想視点の位置と水面の位置とを示すインジケータが表示されることにより、仮想視点画像を見るユーザは、仮想視点が水面に対してどのような位置に設定されているかを容易に把握することができる。この方法によれば、上述した「水中」や「水上」の表示を行う場合と比較して、水面と仮想視点の距離などをユーザが把握しやすく、利便性をより向上させることができる。また、仮想視点の位置が水中なのか水面より上なのかに応じて、仮想視点の位置を示すインジケータの表示色を異ならせることにより、水中の視点からの画像なのか水上の視点からの画像なのかがユーザにとってより把握しやすくなる。ただし、画像処理装置200は、仮想視点の位置によらず同じ色のインジケータを表示させてもよいし、水面の位置は示さず仮想視点の位置のみを示すインジケータを表示させてもよい。また、画像処理装置200は、図12に示すインジケータを、図7や図8に示す水面を表すオブジェクトや、図10に示す付加画像と共に、仮想視点画像に付加してもよい。これにより、ユーザにとっての利便性を更に高めることができる。
上記の説明では仮想視点が水面より上にある場合も水中にある場合も仮想視点画像内にインジケータが表示されるものとしたが、これに限らない。画像処理装置200は、仮想視点が水面より上にある場合と水中にある場合の何れか一方の場合にのみ、仮想視点画像内にインジケータを表示させてもよい。また、仮想視点画像に付加されるインジケータが示す内容は、仮想視点と水面の高さ方向の位置に限らず、水平方向の位置であってもよい。また、仮想視点画像に付加される仮想視点の位置を示す情報の形態は、上記のインジケータに限定されない。例えば、図4のように3次元空間全体における仮想視点の位置を簡略的に示した図を、仮想視点画像上にワイプ表示されるように合成してもよい。
以上説明したように、本実施形態における画像処理装置200は、カメラ群110により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像を生成する。具体的には、画像処理装置200は、仮想視点の位置を示す視点情報を取得する。そして画像処理装置200は、撮影領域に含まれる所定領域(例えばサブ空間20)の内部と外部との境界と仮想視点との位置関係に応じた画像と、上記の境界を表す画像との、少なくとも何れかを含む仮想視点画像を生成する。上記のような構成によれば、生成された仮想視点画像がどのような位置の仮想視点に応じた画像なのかをユーザにとって把握しやすくできる。
なお、上述の実施形態では、撮影領域の内部に位置するサブ空間が1つである場合について説明したが、サブ空間の数はこれに限定されない。例えば撮影領域がサッカー競技場である場合に、フィールドの半面をそれぞれ別のサブ空間とするなど、撮影領域内にサブ空間を複数設定してもよい。また、複数のサブ空間の一部が重なっていてもよい。このような場合、例えば画像処理装置200は、仮想視点の位置が何れのサブ空間に含まれるかを表す画像を仮想視点画像に付加してもよいし、複数のサブ空間それぞれの境界を表すオブジェクトを含む仮想視点画像を生成してもよい。
また、上述の実施形態では、仮想視点の位置がサブ空間に含まれるか否かに基づいて画像の表示を制御する場合について説明したが、これに限らず、仮想視点の方向がサブ空間を向いているか否かに基づいて画像の表示が制御されてもよい。また、仮想視点の位置がサブ空間に含まれるか否かに基づいて、仮想視点画像と共に再生される音響信号を制御してもよい。例えば、仮想視点が水中に位置する場合は仮想視点が水面より上に位置する場合と比べて音量を小さくしてもよいし、仮想視点が水中に位置する場合にのみ音がぼやけるように音響信号を加工してもよい。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
10 情報処理システム
110 カメラ群
200 画像処理装置

Claims (14)

  1. 複数の撮影装置により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像を生成する画像処理装置であって、
    仮想視点の位置を示す視点情報を取得する視点取得手段と、
    前記視点取得手段により取得される前記視点情報が示す前記仮想視点の位置に応じた前記仮想視点画像を生成する生成手段であって、前記撮影領域に含まれる所定領域の内部と外部との境界と前記仮想視点との位置関係に応じた画像と、前記境界を表す画像との、少なくとも何れかを含む前記仮想視点画像を生成する生成手段とを有することを特徴とする画像処理装置。
  2. 前記仮想視点画像における前記境界を表す画像の表示有無及び表示態様の少なくとも何れかを、前記視点情報が示す前記仮想視点と前記境界との位置関係に基づいて決定する決定手段を有し、
    前記生成手段は、前記決定手段による決定結果に基づいて前記仮想視点画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記決定手段は、前記仮想視点画像における前記境界を表す画像の色及び透明度の少なくとも何れかを、前記仮想視点と前記境界との位置関係に基づいて決定することを特徴とする請求項2に記載の画像処理装置。
  4. 前記決定手段は、前記境界を表す画像の色を決定するために前記複数の撮影装置のうち何れの撮影装置により得られる画像を用いるかを、前記仮想視点と前記境界との位置関係に基づいて決定することを特徴とする請求項2又は3に記載の画像処理装置。
  5. 前記所定領域の頂点に対応する座標の情報を含む領域情報を取得する情報取得手段を有し、
    前記生成手段は、前記情報取得手段により取得される前記領域情報と前記視点取得手段により取得される前記視点情報とに基づいて前記仮想視点画像を生成することを特徴とする請求項1乃至4の何れか1項に記載の画像処理装置。
  6. 前記生成手段は、前記仮想視点と前記境界との位置関係に応じた画像として、前記仮想視点の高さと前記境界の高さとを示す画像を含む前記仮想視点画像を生成することを特徴とする請求項1乃至5の何れか1項に記載の画像処理装置。
  7. 前記生成手段は、前記仮想視点と前記境界との位置関係に応じた画像として、前記仮想視点の位置が前記所定領域に含まれるか否かを表す画像を含む前記仮想視点画像を生成することを特徴とする請求項1乃至6の何れか1項に記載の画像処理装置。
  8. 前記所定領域は水中の領域であり、
    前記所定領域の前記境界は水面であることを特徴とする請求項1乃至7の何れか1項に記載の画像処理装置。
  9. 前記生成手段は、前記複数の撮影装置の撮影領域に含まれる水面の一部分であって、前記撮影領域に含まれる所定の被写体の位置に基づいて決まる一部分を表す画像を含む前記仮想視点画像を生成することを特徴とする請求項8に記載の画像処理装置。
  10. 前記生成手段は、前記視点情報によって示される前記仮想視点の位置が水中にある場合と、前記視点情報によって示される前記仮想視点の位置が水面より上にある場合とで、当該水面を表す画像の色及び透明度の少なくとも何れかが異なる前記仮想視点画像を生成することを特徴とする請求項1乃至9の何れか1項に記載の画像処理装置。
  11. 複数の撮影装置により撮影領域を複数の方向から撮影することで得られる複数の画像に基づく仮想視点画像を生成する画像処理方法であって、
    仮想視点の位置を示す視点情報を取得する視点取得工程と、
    前記視点取得工程において取得される前記視点情報が示す前記仮想視点の位置に応じた前記仮想視点画像を生成する生成工程であって、前記撮影領域に含まれる所定領域の内部と外部との境界と前記仮想視点との位置関係に応じた画像及び前記境界を表す画像の少なくとも何れかを含む前記仮想視点画像を生成する生成工程とを有することを特徴とする画像処理方法。
  12. 前記仮想視点画像における前記境界を表す画像の表示有無及び表示態様の少なくとも何れかを、前記視点情報が示す前記仮想視点と前記境界との位置関係に基づいて決定する決定工程を有し、
    前記生成工程は、前記決定工程における決定結果に基づいて前記仮想視点画像を生成することを特徴とする請求項11に記載の画像処理方法。
  13. 前記所定領域は水中の領域であり、
    前記境界は水面であることを特徴とする請求項11又は12に記載の画像処理方法。
  14. コンピュータを、請求項1乃至10の何れか1項に記載の画像処理装置の各手段として機能させるためのプログラム。
JP2018202034A 2018-10-26 2018-10-26 画像処理装置、画像処理方法、及びプログラム Active JP7313811B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018202034A JP7313811B2 (ja) 2018-10-26 2018-10-26 画像処理装置、画像処理方法、及びプログラム
US16/660,338 US11277596B2 (en) 2018-10-26 2019-10-22 Image processing apparatus, image processing method, and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018202034A JP7313811B2 (ja) 2018-10-26 2018-10-26 画像処理装置、画像処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JP2020067960A true JP2020067960A (ja) 2020-04-30
JP7313811B2 JP7313811B2 (ja) 2023-07-25

Family

ID=70326158

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018202034A Active JP7313811B2 (ja) 2018-10-26 2018-10-26 画像処理装置、画像処理方法、及びプログラム

Country Status (2)

Country Link
US (1) US11277596B2 (ja)
JP (1) JP7313811B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047637A1 (ja) * 2021-09-22 2023-03-30 ソニーグループ株式会社 情報処理装置およびプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111726619B (zh) * 2020-07-06 2022-06-03 重庆理工大学 一种基于虚拟视点质量模型的多视点视频比特分配方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346165A (ja) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc 画像処理装置及び画像処理方法
JP2017012397A (ja) * 2015-06-30 2017-01-19 株式会社セガゲームス プログラム

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2802653B1 (fr) * 1999-12-21 2003-01-24 Poseidon Procede et systeme pour detecter un objet devant un fond
US6741250B1 (en) * 2001-02-09 2004-05-25 Be Here Corporation Method and system for generation of multiple viewpoints into a scene viewed by motionless cameras and for presentation of a view path
US7106361B2 (en) * 2001-02-12 2006-09-12 Carnegie Mellon University System and method for manipulating the point of interest in a sequence of images
US20030210329A1 (en) * 2001-11-08 2003-11-13 Aagaard Kenneth Joseph Video system and methods for operating a video system
JP4021685B2 (ja) * 2002-03-04 2007-12-12 松下電器産業株式会社 画像合成変換装置
FR2858450B1 (fr) * 2003-07-28 2005-11-11 Vision Iq Procede et systeme pour detecter un corps dans une zone situee a proximite d'une interface
US9648346B2 (en) * 2009-06-25 2017-05-09 Microsoft Technology Licensing, Llc Multi-view video compression and streaming based on viewpoints of remote viewer
US9147283B1 (en) * 2011-10-30 2015-09-29 Lockhead Martin Corporation Water surface visualization during a simulation
KR20140035000A (ko) * 2012-09-11 2014-03-21 삼성전자주식회사 영상 촬영 장치 및 그 제어 방법
US9412183B2 (en) * 2013-10-18 2016-08-09 Apple Inc. Method for color balancing underwater photography
WO2016038240A1 (en) * 2014-09-09 2016-03-17 Nokia Technologies Oy Stereo image recording and playback
JP6514125B2 (ja) * 2016-01-27 2019-05-15 京セラ株式会社 電子機器、電子機器の制御方法、制御プログラム並びに制御装置
JP6482498B2 (ja) 2016-05-25 2019-03-13 キヤノン株式会社 制御装置、制御方法、及び、プログラム
US10181249B2 (en) * 2016-09-07 2019-01-15 Seal Innovation, Inc. Systems, methods and computer program products for detecting a presence of an object in a body of water
US10785384B2 (en) * 2017-09-27 2020-09-22 Apple Inc. Submersible electronic devices with imaging capabilities

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005346165A (ja) * 2004-05-31 2005-12-15 Sony Computer Entertainment Inc 画像処理装置及び画像処理方法
JP2017012397A (ja) * 2015-06-30 2017-01-19 株式会社セガゲームス プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023047637A1 (ja) * 2021-09-22 2023-03-30 ソニーグループ株式会社 情報処理装置およびプログラム

Also Published As

Publication number Publication date
US20200137371A1 (en) 2020-04-30
JP7313811B2 (ja) 2023-07-25
US11277596B2 (en) 2022-03-15

Similar Documents

Publication Publication Date Title
JP6340017B2 (ja) 被写体と3次元仮想空間をリアルタイムに合成する撮影システム
JP4764305B2 (ja) 立体画像生成装置、方法およびプログラム
US10127712B2 (en) Immersive content framing
EP3534336B1 (en) Panoramic image generating method and apparatus
KR102359978B1 (ko) 다중-소스 가상 콘텐츠 합성을 갖는 혼합 현실 시스템 및 이를 사용하여 가상 콘텐츠를 생성하는 방법
US20210065432A1 (en) Method and system for generating an image of a subject in a scene
CN112513712A (zh) 具有虚拟内容翘曲的混合现实系统和使用该系统生成虚拟内容的方法
WO2019159617A1 (ja) 画像処理装置、画像処理方法およびプログラム
US11120613B2 (en) Image generating device and method of generating image
JP7080586B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2016539398A (ja) 未知の対象物に対する拡張現実コンテンツの生成
CN105611267B (zh) 现实世界和虚拟世界图像基于深度和色度信息的合并
JP7313811B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7006810B2 (ja) 3次元計測装置、移動ロボット、手押し車型移動装置および3次元計測処理方法
EP3665656B1 (en) Three-dimensional video processing
KR102623700B1 (ko) 정보처리장치, 정보처리방법, 및 컴퓨터 프로그램
JP2012234411A (ja) 画像生成装置、画像生成システム、画像生成プログラムおよび画像生成方法
CA3155612A1 (en) Method and system for providing at least a portion of content having six degrees of freedom motion
JP4575937B2 (ja) 画像生成装置、画像生成方法、ならびに、プログラム
EP2962290B1 (en) Relaying 3d information by depth simulation using 2d pixel displacement
JP2021018570A (ja) 画像処理装置、画像処理システム、画像処理方法およびプログラム
US20230410416A1 (en) Image processing system, image processing method, and storage medium
US20240233297A1 (en) Image processing apparatus, image processing method, and computer-readable storage medium
JP2022103836A (ja) 情報処理装置、情報処理方法及びプログラム
JP2024098577A (ja) 画像処理装置、画像処理方法、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211021

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220805

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230613

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R151 Written notification of patent or utility model registration

Ref document number: 7313811

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151