Nothing Special   »   [go: up one dir, main page]

JP6625745B2 - 画像処理装置 - Google Patents

画像処理装置 Download PDF

Info

Publication number
JP6625745B2
JP6625745B2 JP2018523688A JP2018523688A JP6625745B2 JP 6625745 B2 JP6625745 B2 JP 6625745B2 JP 2018523688 A JP2018523688 A JP 2018523688A JP 2018523688 A JP2018523688 A JP 2018523688A JP 6625745 B2 JP6625745 B2 JP 6625745B2
Authority
JP
Japan
Prior art keywords
image
distance
virtual object
color
subject portion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018523688A
Other languages
English (en)
Other versions
JPWO2017217296A1 (ja
Inventor
和田 信也
信也 和田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Interactive Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Interactive Entertainment Inc filed Critical Sony Interactive Entertainment Inc
Publication of JPWO2017217296A1 publication Critical patent/JPWO2017217296A1/ja
Application granted granted Critical
Publication of JP6625745B2 publication Critical patent/JP6625745B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/80Shading
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2215/00Indexing scheme for image rendering
    • G06T2215/16Using real world measurements to influence rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2012Colour editing, changing, or manipulating; Use of colour codes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0077Colour aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Architecture (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Description

本発明は、カメラの撮影画像に仮想オブジェクトを合成した画像を生成する画像処理装置、画像処理方法、プログラム、及び情報記憶媒体に関する。
カメラによって得られる撮影画像に対して、仮想オブジェクトを合成する技術が知られている。このような技術を用いることにより、現実には存在しない仮想オブジェクトがあたかも実空間に存在するかのような画像をユーザーに提示することができる。
もし仮想オブジェクトが実空間に実際に存在したとすると、周囲の環境光などのライティングによって、仮想オブジェクトの色が変化したり、陰影が生じたりするはずである。しかしながら、上記従来例の技術では、このようなライティングによる効果を表現することが困難であった。
本発明は上記実情を考慮してなされたものであって、その目的の一つは、実空間の景色を表す景色画像に仮想オブジェクトを合成する際に、リアリティのあるライティング効果をもたらすことのできる画像処理装置、画像処理方法、プログラム、及び情報記憶媒体を提供することにある。
本発明に係る画像処理装置は、実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得部と、実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部と、を含み、前記合成画像生成部は、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定することを特徴とする。
また、本発明に係る別の画像処理装置は、実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離の情報を含んだ距離画像を取得する距離画像取得部と、実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部と、を含み、前記合成画像生成部は、前記被写体部分の実空間内における位置、及び前記仮想オブジェクトの表示色に基づいて、前記仮想オブジェクトからの光による前記被写体部分の色の変化量を算出し、当該算出した変化量に応じて、当該被写体部分に対応する前記景色画像内の画素の色を変化させることを特徴とする。
本発明に係る画像処理方法は、被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得ステップと、実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成ステップと、を含み、前記合成画像生成ステップでは、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定することを特徴とする。
本発明に係るプログラムは、実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得部、及び、実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部、としてコンピュータを機能させるためのプログラムであって、前記合成画像生成部は、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定するプログラムである。このプログラムは、コンピュータ読み取り可能で非一時的な情報記憶媒体に格納されて提供されてよい。
本発明の実施の形態に係る画像処理装置を使用する様子を示す図である。 本発明の実施の形態に係る画像処理装置の構成を示す構成ブロック図である。 本発明の実施の形態に係る画像処理装置の機能を示す機能ブロック図である。 実空間内の景色を表す景色画像の一例を示す図である。 図4の景色画像に対応する距離画像の一例を示す図である。 距離画像内において距離が検出された検出点を仮想空間内にプロットした様子を示す図である。 本実施形態における光源画像の一例を示す図である。 仮想オブジェクトが配置された合成画像の一例を示す図である。 本発明の実施の形態に係る画像処理装置が実行する処理の流れの一例を示すフロー図である。
以下、本発明の実施形態について、図面に基づき詳細に説明する。
図1は、本発明の一実施形態に係る画像処理装置1を使用する様子を示す図である。また、図2は画像処理装置1の構成を示す構成ブロック図である。画像処理装置1は、例えば家庭用ゲーム機や携帯型ゲーム機、パーソナルコンピュータ、スマートホン等であって、図2に示すように、制御部11と、記憶部12と、インタフェース部13と、を含んで構成されている。また、画像処理装置1は、図2に示すように、表示装置14、及びステレオカメラ15と接続されている。
制御部11は少なくとも一つのプロセッサーを含んで構成され、記憶部12に記憶されているプログラムを実行して各種の情報処理を実行する。本実施形態において制御部11が実行する処理の具体例については、後述する。記憶部12は、RAM等のメモリデバイスを少なくとも一つ含み、制御部11が実行するプログラム、及び当該プログラムによって処理されるデータを格納する。インタフェース部13は、画像処理装置1が表示装置14、及びステレオカメラ15との間で各種の情報を授受するためのインタフェースである。
表示装置14は、ヘッドマウントディスプレイや家庭用テレビ受像機、液晶ディスプレイ等であって、画像処理装置1が出力する映像信号に応じた画像を画面上に表示する。
ステレオカメラ15は、左右に並んで配置された複数のカメラから構成されている。本実施形態では具体的に、ステレオカメラ15はカメラ15aとカメラ15bの2台のカメラから構成されているものとする。これらのカメラの視差を利用することで、2台のカメラ双方の撮影範囲内に写っている被写体までの距離を算出することができる。各カメラによって撮影された撮影画像は、インタフェース部13経由で画像処理装置1に入力される。
なお、表示装置14、及びステレオカメラ15は、いずれも画像処理装置1の筐体内に内蔵されてもよいし、画像処理装置1と有線又は無線により接続される別個の装置であってもよい。また、ステレオカメラ15は表示装置14に固定されてもよいし、表示装置14の筐体に内蔵されてもよい。
以下、画像処理装置1が実現する機能について、図3を用いて説明する。図3に示すように、画像処理装置1は、機能的に、画像取得部21と、空間座標算出部22と、オブジェクト表示色決定部23と、合成画像生成部24と、を含んで構成されている。これらの機能は、制御部11が記憶部12に記憶されたプログラムに従って動作することにより実現される。このプログラムは、インターネット等の通信ネットワークを介して画像処理装置1に提供されてもよいし、光ディスク等のコンピュータ読み取り可能な情報記憶媒体に格納されて提供されてもよい。本実施形態において画像処理装置1は、実空間の景色を表す景色画像VIに対して仮想オブジェクトOを配置してなる合成画像CIを生成する。生成された合成画像CIは、表示装置14に表示される。
画像取得部21は、ステレオカメラ15が実空間を撮影することで得られる距離画像(デプスマップ)DMを取得する。本実施形態において距離画像DMは、画像内の複数の単位領域ごとに、距離Dと色成分Cの情報を含んだ画像である。ここで単位領域は、画像内の一つ一つの画素であってもよいし、互いに隣接する複数の画素からなる画素ブロックであってもよい。距離Dは、対応する単位領域に写っている被写体の部分(以下、検出点Pという)までの距離である。画像取得部21は、カメラ15aの撮影画像とカメラ15bの撮影画像の間における同じ検出点Pの視差による位置のずれから、当該検出点Pまでの距離Dを算出する。色成分Cは、対応する単位領域の色を表す情報であって、一又は複数の数値によって構成される。例えば色成分Cは、R(赤)、G(緑)、B(青)の基本色それぞれの輝度を表す数値であってよい。画像取得部21は、カメラ15a及びカメラ15bのいずれかの撮影画像内における、当該単位領域の画素値を、色成分Cとして取得する。なお、カメラ15a及びカメラ15bの撮影画像がモノクロ画像の場合、色成分Cは当該単位領域の輝度や明度を表す一種類の数値であってもよい。
図4は、ステレオカメラ15を構成するカメラの一つによって撮影された、実空間内の景色を表す景色画像VIの一例を示している。また、図5は、この景色画像VIに対応する距離画像DMの一例を示している。この図の例では、距離画像DM内の全ての単位領域において距離Dが特定できているわけではない。具体的に、図中のドットパターンが、その位置に写っている被写体部分までの距離Dが特定された単位領域を示している。これに対してドットパターンが配置されていない領域は、距離Dが特定できていない領域である。ステレオカメラ15によって得られる2つの撮影画像の間で対応関係が特定できない箇所については、距離Dが算出されないことになる。検出点Pは、距離画像DM内において距離Dが特定された単位領域と一対一で対応している。つまり、ある大きさを持った物体が距離画像DM内において複数の単位領域にまたがって写っている場合、その物体の表面に複数の検出点Pが存在することになる。
空間座標算出部22は、上述した距離画像DMに含まれる各単位領域の画像内における位置、及び距離Dの情報に基づいて、各検出点Pの実空間内における位置座標(空間座標)Xを算出する。具体的に、ここでは注目する単位領域の距離画像DM内における位置座標を(u,v)で表すこととする。この座標値は、ステレオカメラ15の位置を基準とした検出点Pまでの方向を表している。この座標値(u,v)と距離Dの情報を用いることで、ステレオカメラ15の位置を原点とした空間座標系における検出点Pの位置座標Xの値を算出できる。なお、各単位領域の色成分Cは、この検出点Pの位置にある被写体部分の色を表している。つまり、実空間内の複数の検出点Pのそれぞれに対して、位置座標Xと色成分Cの情報が得られることになる。
一例として、距離画像DM内のN個の単位領域について、距離Dと色成分Cとが特定されているとする。ここで、iを1からNまでの整数として、i番目の単位領域の距離画像DM内の位置座標を(ui,vi)、当該単位領域に写っている被写体までの距離をDiと表記する。また、当該単位領域の色成分がCri,Cgi,Cbiの3つの輝度値によって表現されるものとする。このとき、i番目の単位領域に対応する検出点Piの位置座標Xiは、ui,vi,Diの3つの数値から算出される。位置座標Xiは、3次元空間の座標値(xi,yi,zi)によって表される。また、検出点Piの色成分Cは3つの輝度値(Cri,Cgi,Cbi)によって表される。このようにして、N個の検出点Pのそれぞれについて、その位置座標Xの座標値(xi,yi,zi)と色成分Cの輝度値(Cri,Cgi,Cbi)が特定される。
図6は、実空間に対応する仮想空間内に複数の検出点Pをプロットした様子を示している。この図における各検出点Pの位置は、位置座標Xによって表される実空間内の位置に対応している。また、図中においてステレオカメラ15の撮影位置から延びている直線は、ステレオカメラ15の撮影範囲を示している。このように、距離画像DMを用いることによって、ステレオカメラ15の撮影範囲内に存在する物体の位置や色が特定されることになる。
オブジェクト表示色決定部23は、実空間に対応する仮想空間内に仮想オブジェクトOを配置する。なお、仮想オブジェクトOの形状や表面のテクスチャー等の情報は、予め記憶部12に格納されているものとする。
さらにオブジェクト表示色決定部23は、仮想オブジェクトOの表示色を、空間座標算出部22によって算出された各検出点Pの位置座標X、及び色成分Cの情報に基づいて決定する。より具体的に、オブジェクト表示色決定部23は、仮想オブジェクトO表面の本来の色に対して、周囲の光による影響(ライティング効果)を反映させることによって、実際に表示する際の仮想オブジェクトO表面の色成分を決定する。このライティング効果を決定する際に、各検出点Pの位置座標X、及び色成分Cの情報を光源として利用する。これは、イメージベースドライティングと呼ばれる、画像を光源として利用する公知の手法に類似した手法である。ただし、イメージベースドライティングでは予め用意された画像が光源として用いられるため、実空間内の時間変化をリアルタイムに仮想オブジェクトOに反映させることは難しい。また、イメージベースドライティングでは仮想オブジェクトOから十分離れた位置に光源が存在すると仮定するため、仮想オブジェクトOの位置の変化による光源の影響の変化を再現することができず、仮想オブジェクトOの配置位置によらず仮想オブジェクトOに対するライティング効果は同じものになる。これに対して本実施形態では、実際にステレオカメラ15を用いて距離画像DMを取得し、その距離画像DMに基づいて算出される各検出点Pの位置座標X及び色成分Cの情報を光源として利用する。そのため、イメージベースドライティングと比較して、周囲の光による仮想オブジェクトOへの影響をより現実に近い形で再現することができる。
以下、オブジェクト表示色決定部23が検出点Pの情報を用いて仮想オブジェクトOの表示色を決定する処理の具体例について、説明する。まずオブジェクト表示色決定部23は、各検出点Pの位置座標Xを、仮想オブジェクトOの配置位置を原点とした極座標系(球面座標系)の座標値に変換する。この極座標系の座標値は、仮想オブジェクトOから見た各検出点Pの方向を表す2個の角度値θ,φと、原点から検出点Pまでの距離rからなる。ここで、θは仮想オブジェクトOから見た検出点Pの方位を表す0度から360度までの値である。φは仮想オブジェクトOから見た検出点Pの仰角または俯角を表し、水平方向を0度として−90度(真下方向)から90度(真上方向)までの値をとる。
図7は、この極座標系の(θ,φ)平面に一部の検出点Pを配置した様子を示しており、サンプルとして検出点P1〜P3の3点を含む複数の検出点Pの位置が示されている。このように(θ,φ)平面に検出点Pを配置してなる平面画像が、イメージベースドライティングにおける光源画像と同様に、仮想オブジェクトOに対するライティング効果の決定のために用いられる。以下では、(θ,φ)平面上に検出点Pを配置して得られる平面画像を光源画像LMという。光源画像LMは、その内部を分割して得られる複数の単位領域のそれぞれに対して、色成分C及び距離rの情報が設定された画像である。検出点Pに対応する単位領域については、この検出点Pに応じた色成分C及び距離rが設定される。色成分Cはその検出点Pに存在する物体の色を表し、距離rは仮想オブジェクトOから検出点Pまでの距離を表している。なお、検出点Pの色成分Cは、距離画像DM内の当該検出点Pに対応する単位領域の色成分Cそのものであってもよいし、当該検出点P及びその周囲の検出点Pの色成分Cの平均値等であってもよい。
この光源画像LMは、全ての単位領域に検出点Pが対応しているわけではなく、検出点Pが対応しない単位領域も存在する。例えば、ステレオカメラ15から見て他の物体の陰に隠れて死角になっている箇所については、そこにどのような物体が存在するのか距離画像DMを用いて特定することができない。そのため、そのような死角に何らかの物体が存在している場合であっても、光源画像LM内にその物体を表す検出点Pは含まれないことになる。また、前述したように、距離画像DM内の全ての単位領域について距離Dが特定できるとは限らないため、距離Dが特定できていない単位領域に写っている被写体については、その被写体に対応する検出点Pを光源画像LM内に配置することができない。また、そもそもステレオカメラ15の撮影範囲外に存在する物体の情報は、光源画像LMに反映されない。このような理由により、光源画像LM内には検出点Pが対応しない単位領域(以下、空白領域という)が存在することになる。この空白領域については、ライティング効果を決定する際に無視してもよいが、既知の検出点Pの情報を用いて補間処理を実行することによって、空白領域の色成分C及び距離rを決定してもよい。この補間処理の具体例については、後述する。
必要に応じて補間処理を実行した後、オブジェクト表示色決定部23は、この光源画像LM内で色成分Cが設定された各単位領域(すなわち、検出点Pに対応する単位領域、及び補間処理によって色成分Cが算出された単位領域)を光源として、その光源からの光が照射された際の仮想オブジェクトOの表示色を決定する。これは、イメージベースドライティングと類似の処理によって実現できる。ただし、本実施形態では光源画像LM内の各単位領域に対して、色成分Cだけでなく仮想オブジェクトOからの距離rが設定されている。そのため、仮想オブジェクトOの表示色を決定する際に、距離rが小さい単位領域(すなわち、仮想オブジェクトOに近い位置に物体があると想定される単位領域)ほど、その単位領域による仮想オブジェクトOへのライティング効果が強くなるようにする。具体的には、例えば距離rが小さい単位領域については輝度が実際よりも大きく、また距離rが大きな単位領域については輝度が実際よりも小さくなるように色成分Cに含まれる輝度値を補正する。そして、イメージベースドライティングと同様の計算式で各単位領域の補正後の色成分Cが表す色を仮想オブジェクトOの表面に投影する。これにより、各検出点Pの現実の位置と仮想オブジェクトOとの位置関係を反映した、よりリアリティがあるライティング効果を実現することができる。なお、光源画像LMによる仮想オブジェクトOへのライティング効果を算出する際には、距離rだけではなく、仮想オブジェクトO表面の材質(仮想オブジェクトOが周囲の光を反射しやすい物質か、反射しにくい物質かなど)に関する設定や、単位領域からの光の仮想オブジェクトO表面に対する入射角などの情報を用いてもよい。
さらにオブジェクト表示色決定部23は、仮想オブジェクトOを配置することによって生じる周囲の物体の色の変化を算出してもよい。具体的にオブジェクト表示色決定部23は、仮想空間内において仮想オブジェクトOが配置される位置の周囲の各検出点Pに対して、前述した仮想オブジェクトOについて行ったのと同様のライティング効果の演算を行って、仮想オブジェクトOからの光による色の変化量を算出する。ただし、他の検出点Pによる光の影響は、実空間を実際に撮影した景色画像VIに反映されているはずなので、オブジェクト表示色決定部23は仮想オブジェクトO表面の色成分による検出点Pへの影響だけを計算すればよい。また、全ての検出点Pについて、仮想オブジェクトOからの光の影響を反映する必要はない。例えばオブジェクト表示色決定部23は、仮想オブジェクトOからの距離が所定値以下の検出点Pについてのみ、仮想オブジェクトOによって生じる色の変化量を算出する。仮想オブジェクトOによるライティング効果の計算の具体例については、後述する。
合成画像生成部24は、景色画像VIに仮想オブジェクトOを配置してなる合成画像CIを生成する。ここで、景色画像VIに重ねて配置される仮想オブジェクトOは、ステレオカメラ15に対応する仮想空間内の位置から見た形状であって、かつ、オブジェクト表示色決定部23によって決定された表示色で表示される。
また、合成画像生成部24は、景色画像VI内の仮想オブジェクトOの周囲の領域に対して、仮想オブジェクトOの影響による色の変化を生じさせる。具体的に合成画像生成部24は、前述した処理によって算出された、検出点Pごとの仮想オブジェクトOからの光による色の変化量を、景色画像VI内の検出点Pに対応する画素に反映させる。また、検出点Pに対応する画素だけでなく、その周囲の画素についても同様に画素値を変化させてもよい。これにより、仮想オブジェクトOが現実に存在する場合にその光によって生じると想定されるライティング効果を景色画像VIに発生させることができる。
図8は、合成画像CIの一例を示す図であって、図4で示した景色画像VIに仮想オブジェクトOが配置された様子を示している。このようにして生成された合成画像CIは、表示装置14の画面に表示される。これにより、景色画像VIの中に現実の周囲の景色によるライティング効果を反映して色合いの変化した仮想オブジェクトOが存在する様子を表示することができる。
以下、オブジェクト表示色決定部23が光源画像LM内の空白領域の色成分C及び距離rを決定する補間処理の具体例について、説明する。
まず第1の例として、内挿を用いる例について説明する。この例では、光源画像LM内の複数の検出点Pを結んで光源画像LMを複数のメッシュ(多角形領域)に分割する。そして、各メッシュ内のある空白領域について、メッシュの頂点を構成する検出点Pの色成分Cを重み付き平均して得られる値を、当該空白領域の色成分Cとする。このとき、各検出点Pの色成分Cに乗じられる重みは、当該空白領域と各検出点Pとの間の距離に応じて決定されてよい。例えば図7では検出点P1、P2、及びP3に囲まれた空白領域Wについて、その赤色の輝度値Crwが、以下の計算式で計算される。
Crw=(w1・Crp1+w2・Crp2+w3・Crp3)/(w1+w2+w3)
ここでCrp1、Crp2、及びCrp3はそれぞれ検出点P1、P2、及びP3の赤色の輝度値である。また、w1、w2、w3はそれぞれの検出点Pと空白領域Wとの間の距離に応じて決まる重みである。この重みは、検出点Pと空白領域Wとの間の距離が近いほど大きな値になるよう決定される。その他の基本色の輝度値についても、同様にして算出される。また、距離rについても、同様にして算出されてよい。
なお、このような内挿による空白領域の色成分Cの算出は、GPU(Graphics Processing Unit)によってハードウェア的に実現することもできる。GPUはテクスチャーマッピングなどを実行する際に複数の頂点に囲まれたテクセルの色成分を内挿によって周囲の頂点の色成分から算出する機能を備えている。このような機能を利用することで、オブジェクト表示色決定部23は、各空白領域の色成分Cを高速に算出することができる。
補間処理の第2の例として、オブジェクト表示色決定部23は、複数の検出点Pに囲まれた全ての空白領域に対して、同じ色成分Cを設定してもよい。この場合に空白領域に設定される色成分Cは、空白領域を囲む複数の検出点Pの色成分Cの代表値(平均値等)であってよい。この例では、例えば図7の検出点P1、P2、及びP3を結んでできる三角形内の全ての空白領域に対して、同じ色成分Cが設定される。なお、距離rについても、同様に算出された同じ値が設定されてよい。
次に、仮想オブジェクトOによる周囲の物体へのライティング効果の計算の具体例について、説明する。
まずオブジェクト表示色決定部23は、仮想オブジェクトOによる影響を計算する対象となる注目検出点Pについて、その注目検出点Pから仮想オブジェクトO表面上の1又は複数の基準点までの距離を算出する。ここで、仮想オブジェクトOの表面に設定される基準点は、仮想オブジェクトOの表面にマッピングされるテクスチャーのテクセルであってもよいし、複数のテクセルから構成される領域であってもよい。また、仮想オブジェクトOを構成するポリゴンの頂点であってもよい。
続いてオブジェクト表示色決定部23は、仮想オブジェクトO表面の各基準点の色成分の情報を用いて、その基準点からの光による注目検出点Pの色の変化量(ライティング効果)を計算する。具体例として、仮想オブジェクトO表面の一つの基準点O1の影響による、ある注目検出点P1の色の変化量ΔCp1は、以下の計算式により計算されてよい。
ΔCp1=(A・Co1)/r
ここでCo1は基準点O1の色成分の値であり、rは基準点O1と注目検出点P1との間の距離である。また、Aは予め定められた定数である。なお、色成分が複数種類の数値(複数の基本色の輝度値など)によって構成される場合、そのそれぞれについて上述の計算式によって変化量を算出する。あるいは、変化量ΔCp1は、以下の計算式により計算されてもよい。
ΔCp1=A・Co1・exp(−r)
この計算式を使用した場合、距離rが大きくなると、仮想オブジェクトOの色の影響は指数関数的に小さくなる。どのような計算式を用いる場合であっても、距離rが大きければ大きいほど仮想オブジェクトOの色の影響が小さくなるようにすることが望ましい。
一つの注目検出点Pに対して複数の基準点が影響を与える場合、オブジェクト表示色決定部23は、各基準点について上述したような計算式により変化量を計算する。そして、各基準点について算出された変化量を合計して、総変化量を算出する。この総変化量が、注目検出点Pの色成分Cに対する仮想オブジェクトOの影響による色の変化量ΔCpとなる。
オブジェクト表示色決定部23は、仮想オブジェクトO周囲の複数の注目検出点Pのそれぞれについて、以上説明したような計算により色の変化量ΔCpを算出し、元の注目検出点Pの色成分Cに対して加算する。これにより、合成画像CI内における仮想オブジェクトO周囲の領域へのライティング効果を表現することができる。なお、仮想オブジェクトOによる周囲の物体へのライティング効果を算出するためには、各基準点の色成分として、前述した光源画像LMによるライティング効果を反映した後の色成分を使用することが望ましい。
以上説明した計算式では、仮想オブジェクトOまでの距離rを利用するため、実空間内の位置座標Xが特定できている検出点Pについてのみ、色の変化量ΔCpを計算することができる。合成画像CI内の検出点P以外の位置の色については、補間処理によってその変化量ΔCpを決定してもよい。この場合の補間処理は、光源画像LMの空白領域について行ったものと類似する処理であってよい。すなわち、補間処理の対象となる注目領域に対して、その注目領域の周囲の複数の検出点Pの色の変化量ΔCpを用いて、重み付け平均などにより当該注目領域の色の変化量ΔCpを算出する。あるいは、オブジェクト表示色決定部23は、注目領域に最も近い検出点Pの色の変化量ΔCpを、そのまま当該注目領域の色の変化量ΔCpの値として用いてもよい。
また、以上説明したものとは別の手法として、オブジェクト表示色決定部23は、距離画像DMに基づいて実空間内に存在する光源の位置を特定し、特定された光源位置を用いて仮想オブジェクトOによる周囲へのライティング効果を計算してもよい。この例では、距離画像DMを用いて実空間内における光源位置の位置座標が算出される。例えばオブジェクト表示色決定部23は、距離画像内DMで色成分Cの値が所定値より大きい(すなわち、輝度や明度が高い)検出点Pを、光源と判定する。なお、色成分Cの値が所定値より大きい検出点Pが所定の大きさの範囲内に複数個ある場合、それらの検出点Pの中心位置を光源と判定してもよい。いずれにせよ、距離画像DMに含まれる距離Dの情報を利用することによって、オブジェクト表示色決定部23は、実空間内における光源の3次元的な位置座標Lxを特定できる。
光源の位置座標Lxを特定すると、オブジェクト表示色決定部23は、光源からの光が仮想オブジェクトOの表面で反射することによって他の検出点Pにおいて生じる色の変化量ΔCpを算出する。このような光源からの光の反射によるライティング効果は、光源の色成分C、光源の位置座標Lx、仮想オブジェクトO表面の法線方向などの情報を用いて、公知の手法により計算できる。さらに検出点P以外の箇所で生じるライティング効果も、前述した例と同様の補間処理によって計算できる。
さらに、オブジェクト表示色決定部23は、光源の位置座標Lxと仮想オブジェクトOの位置座標を用いて、光源からの光によって生じる仮想オブジェクトOの影を表現してもよい。具体的に、仮想オブジェクトO周囲のある注目検出点P1の3次元的な位置座標をX1とすると、オブジェクト表示色決定部23は、この位置座標X1と光源の位置座標Lxとを結ぶ直線が仮想オブジェクトOを通るか否か判定する。そして、通ると判定された場合、注目検出点P1に仮想オブジェクトOの影が生じることになるので、注目検出点P1の色を暗くする補正を行う。なお、前述したライティング効果の計算例と同様に、距離Dが特定されていない領域については、周囲の検出点Pの判定結果を利用して補間処理を行う。これにより、仮想オブジェクトOの存在によって合成画像CI内に生じる影を表現することができる。
以上例示したような手法により、オブジェクト表示色決定部23は、景色画像VIに含まれる各単位領域に対する仮想オブジェクトOによるライティング効果(色の変化量)の情報を含んだ反射・陰影マップテクスチャーを生成する。合成画像生成部24は、このテクスチャーを景色画像VIに重ねることによって、実空間に存在する光源からの光を仮想オブジェクトOが反射したり遮ったりすることで生じるライティング効果を反映した合成画像CIを生成することができる。
ここで、画像処理装置1が実行する処理の流れの具体例について、図9のフロー図を用いて説明する。
まず画像取得部21が、ステレオカメラ15によって撮影された2枚の撮影画像を取得する(ステップS1)。ここでは、カメラ15aによって撮影された撮影画像を景色画像VIとして使用するものとする。続いて画像取得部21は、ステップS1で取得した2枚の撮影画像を用いて距離画像DMを生成する(ステップS2)。
次に、空間座標算出部22が、ステップS2で生成された距離画像DM内の各単位領域の情報を用いて、検出点Pの位置座標X及び色成分Cを決定する(ステップS3)。ここでは、距離画像DM内において距離Dが特定されている単位領域と同数の検出点Pについて、位置座標Xが算出される。
次に、オブジェクト表示色決定部23が、仮想オブジェクトOの実空間内における配置位置を決定する(ステップS4)。オブジェクト表示色決定部23は、例えばユーザーの指示に応じて仮想オブジェクトOの配置位置を決定してよい。あるいは、景色画像VIを解析した結果に基づいて仮想オブジェクトOの配置位置を決定してもよい。
さらにオブジェクト表示色決定部23は、ステップS3で算出された各検出点Pの位置座標Xを、ステップS4で決定された仮想オブジェクトOの配置位置を原点とする極座標系の座標値に変換する。これにより、光源画像LMが生成される(ステップS5)。その後、オブジェクト表示色決定部23は、ステップS5で算出された検出点Pの光源画像LM内における位置、距離r、及び色成分Cの情報を用いて、光源画像LM内の空白領域に対する補間処理を実行する(ステップS6)。
次に、オブジェクト表示色決定部23は、ステップS5及びS6によって各単位領域に対して距離r、及び色成分Cが決定された光源画像LMを用いて、仮想オブジェクトOの表示色を決定する(ステップS7)。さらにオブジェクト表示色決定部23は、ステップS7で決定された仮想オブジェクトOの表示色の情報を用いて、仮想オブジェクトO周囲の検出点Pについて、仮想オブジェクトOの影響によって生じると想定される色の変化を算出する(ステップS8)。
次に、合成画像生成部24が、ステップS1で得られた景色画像VIに対して仮想オブジェクトOを合成し、合成画像CIを生成する(ステップS9)。このとき、合成画像生成部24は仮想オブジェクトOの表示色としてステップS7で決定された色を使用する。また、ステップS8で決定された色の変化を、景色画像VI内の仮想オブジェクトO周囲の画素に反映させる。これにより、仮想オブジェクトOがあたかも現実に存在しているかのようなライティング効果を仮想オブジェクトOやその周囲の物体に反映させた合成画像CIを生成することができる。合成画像生成部24は、生成した合成画像CIを表示装置14の画面に表示させる(ステップS10)。
画像処理装置1は、以上説明した処理を、例えば表示装置14のフレームレートに応じた時間間隔で繰り返し実行する。これにより画像処理装置1は、人の影に隠れた際に仮想オブジェクトOの表示色が暗くなるなど、リアルタイムで周囲の状況を仮想オブジェクトOの表示色に反映させた動画像を表示することができる。
なお、本発明の実施の形態は以上説明したものに限られない。例えば以上の説明では、距離画像DMの生成に用いる撮影画像をそのまま景色画像VIとしても利用することとした。しかしながらこれに限らず、画像処理装置1は距離画像DMの生成に用いる撮影画像とは別に景色画像VIを取得してもよい。例えば画像処理装置1は、予め定められた撮影条件で撮影された画像を景色画像VIとして使用する。一方、景色画像VIを撮影する際の撮影条件とは異なる撮影条件で撮影した画像を用いて距離画像DMを生成する。この場合の撮影条件としては、シャッタースピードや露出、感度等が挙げられる。このように撮影条件を変化させることで、距離Dを特定しやすい条件で撮影を行うことができる。なお、この場合において、距離画像DMに含まれる各単位領域の色成分Cの情報は、景色画像VIを参照して決定されてもよい。また、距離画像DMの生成に用いる撮影画像を撮影する際に、シャッタースピードを速くすることで、明るい単位領域のみ距離Dが特定された距離画像DMを得ることができる。このような距離画像DMを利用すれば、仮想オブジェクトOに対するライティングの影響が少ないと想定される低輝度の検出点Pを無視して、大きな影響があると想定される高輝度の検出点Pだけを用いて仮想オブジェクトOの表示色を決定することができる。なお、ステレオカメラ15の撮影条件を変更する代わりに、距離画像DM内の色成分Cの値が所定値以上の単位領域の情報を用いてライティング効果の算出を行ってもよい。
また、以上の説明では一つのステレオカメラ15による撮影で得られる1枚の距離画像DMだけを用いて仮想オブジェクトOに対するライティング効果を決定することとしたが、これに限らず、互いに異なる位置に配置された複数のステレオカメラ15を用いて得られる複数の距離画像DMを用いて、仮想オブジェクトOの表示色を決定してもよい。この例では、画像処理装置1は各ステレオカメラ15の位置関係に関する情報を予め取得しているものとする。空間座標算出部22は、それぞれのステレオカメラ15の撮影で得られた距離画像DMを用いて、検出点Pの位置座標Xを算出する。そして、オブジェクト表示色決定部23は、複数の距離画像DMから得られた複数の検出点Pを一つの光源画像LM内に配置して、光源画像LMを生成する。このとき、実空間の所定距離範囲内にそれぞれのステレオカメラ15から得られた検出点Pが存在する場合、そのうち一方のデータだけを使用してもよいし、双方のデータを光源画像LMに反映させてもよい。このようにして得られる光源画像LMを用いて仮想オブジェクトOの表示色を決定することにより、一つの距離画像DMだけでは撮影できない死角の領域などの情報も仮想オブジェクトOの表示色に反映させることができる。例えば、低い位置と天井等の高い位置の双方にステレオカメラ15を設置し、そこから得られた撮影画像を用いて距離画像DMを生成することで、単一の距離画像DMだけでは特定できない検出点Pの情報を用いて仮想オブジェクトOの表示色を決定できる。
また、画像処理装置1は、同じステレオカメラ15で時間をおいて複数回の撮影を行うことで得られる複数の距離画像DMを利用して仮想オブジェクトOの表示色を決定してもよい。特に、ステレオカメラ15の撮影条件や撮影方向、撮影位置を変化させて複数回の撮影を行うことで、より多く検出点Pの情報を取得することができる。特に、表示装置14がヘッドマウントディスプレイであって、ステレオカメラ15がヘッドマウントディスプレイに搭載されている場合、ユーザーの顔の動きに従ってステレオカメラ15の撮影範囲が変化する。この変化の前後で撮影を行って得られる複数の距離画像DMを利用することで、広範囲の検出点Pの情報を用いて仮想オブジェクトOの表示色を決定することができる。
さらに、景色画像VIを撮影するカメラは、距離画像DMを撮影するステレオカメラ15と別のカメラであってもよい。この場合、画像処理装置1は、複数のステレオカメラ15を使用する場合と同様に、各カメラの位置関係の情報を予め取得しているものとする。距離画像DMから得られる各検出点Pの実空間内における位置と、景色画像VIの撮影範囲との間の位置関係が判明していれば、画像処理装置1は、この検出点Pの情報を用いて景色画像VIに重ねて配置される仮想オブジェクトOの表示色を決定することができる。
また、以上の説明では距離画像DMは、ステレオカメラ15によって得られる複数の撮影画像を用いて生成されるものとした。しかしながらこれに限らず、距離画像DMは、その内部の単位領域ごとに被写体までの距離Dの情報を含むものであれば、どのような方式で生成されたものであってもよい。具体的に画像処理装置1は、例えばパターン照射方式やTOF方式などで生成された距離画像DMを用いて仮想オブジェクトOの表示色を決定してもよい。
また、以上の説明では画像処理装置1は景色画像VIや距離画像DMの撮影が行われる場所に設置され、ステレオカメラ15と直接接続されることとしたが、本発明の実施の形態はこのようなものに限られない。例えば画像処理装置1は撮影場所から離れた場所に設置されたサーバ装置等であってもよい。この場合、画像処理装置1は、自身で距離画像DMを生成するのではなく、別のコンピュータで生成された距離画像DMをネットワーク経由で受信したりして取得してもよい。
1 画像処理装置、11 制御部、12 記憶部、13 インタフェース部、14 表示装置、15 ステレオカメラ、21 画像取得部、22 空間座標算出部、23 オブジェクト表示色決定部、24 合成画像生成部。

Claims (13)

  1. 実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得部と、
    実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部と、
    を含み、
    前記合成画像生成部は、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記合成画像生成部は、前記被写体部分からの光による前記仮想オブジェクトに対する影響を、当該被写体部分の実空間内における位置、及び色成分に基づいて算出して、前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記合成画像生成部は、前記仮想オブジェクトの配置位置を原点とした極座標系における前記被写体部分の位置座標を算出し、当該算出した位置座標に対応する単位領域に対して当該被写体部分の色成分が関連づけられた光源画像を生成し、当該光源画像を用いて前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記合成画像生成部は、前記光源画像内の前記被写体部分に対応しない単位領域に対して、当該単位領域を囲む、前記被写体部分に対応する複数の単位領域に関連づけられた色成分に応じて算出される色成分を関連づける補間処理を実行してから、前記光源画像を用いて前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記合成画像生成部は、前記補間処理において、前記被写体部分に対応しない単位領域に対して、前記被写体部分に対応する複数の単位領域に関連づけられた色成分の重み付き平均によって算出される色成分を関連づける
    ことを特徴とする画像処理装置。
  6. 請求項1に記載の画像処理装置において、
    前記距離画像取得部は、実空間内の互いに異なる位置を基準とする距離の情報を含んだ複数の距離画像を取得し、
    前記合成画像生成部は、前記複数の距離画像のそれぞれに写っている1又は複数の被写体部分の情報に基づいて、前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理装置。
  7. 請求項1に記載の画像処理装置において、
    前記合成画像生成部は、前記被写体部分の実空間内における位置、及び前記仮想オブジェクトの表示色に基づいて、前記仮想オブジェクトからの光による前記被写体部分の色の変化量を算出し、当該算出した変化量に応じて、当該被写体部分に対応する前記景色画像内の画素の色を変化させる
    ことを特徴とする画像処理装置。
  8. 請求項7に記載の画像処理装置において、
    前記合成画像生成部は、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定してから、当該決定した表示色に基づいて、前記被写体部分の色の変化量を算出する
    ことを特徴とする画像処理装置。
  9. 実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離の情報を含んだ距離画像を取得する距離画像取得部と、
    実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部と、
    を含み、
    前記合成画像生成部は、前記被写体部分の実空間内における位置、及び前記仮想オブジェクトの表示色に基づいて、前記仮想オブジェクトからの光による前記被写体部分の色の変化量を算出し、当該算出した変化量に応じて、当該被写体部分に対応する前記景色画像内の画素の色を変化させる
    ことを特徴とする画像処理装置。
  10. 請求項1から9のいずれか一項に記載の画像処理装置において、
    前記画像処理装置は、ユーザーが頭部に装着して使用する表示装置と接続され、
    前記距離画像取得部は、前記表示装置に搭載されたステレオカメラによって撮影された撮影画像に基づいて生成された距離画像を取得し、
    前記合成画像生成部が生成した合成画像は、前記表示装置に表示される
    ことを特徴とする画像処理装置。
  11. 被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得ステップと、
    実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成ステップと、
    を含み、
    前記合成画像生成ステップでは、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定する
    ことを特徴とする画像処理方法。
  12. 実空間内の被写体までの距離を示す情報を含んだ距離画像であって、当該距離画像内の1又は複数の領域のそれぞれについて、当該領域に写っている被写体部分までの距離、及び当該被写体部分の色成分の情報を含んだ距離画像を取得する距離画像取得部、及び、
    実空間の景色を表す景色画像に仮想オブジェクトを配置してなる合成画像を生成する合成画像生成部、
    としてコンピュータを機能させるためのプログラムであって、
    前記合成画像生成部は、前記距離画像に写っている前記被写体部分までの距離、及び色成分に基づいて、前記仮想オブジェクトの表示色を決定する
    プログラム。
  13. 請求項12に記載のプログラムを記憶した、コンピュータ読み取り可能な情報記憶媒体。
JP2018523688A 2016-06-16 2017-06-07 画像処理装置 Active JP6625745B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016119896 2016-06-16
JP2016119896 2016-06-16
PCT/JP2017/021115 WO2017217296A1 (ja) 2016-06-16 2017-06-07 画像処理装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019214340A Division JP7007348B2 (ja) 2016-06-16 2019-11-27 画像処理装置

Publications (2)

Publication Number Publication Date
JPWO2017217296A1 JPWO2017217296A1 (ja) 2018-11-08
JP6625745B2 true JP6625745B2 (ja) 2019-12-25

Family

ID=60664158

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018523688A Active JP6625745B2 (ja) 2016-06-16 2017-06-07 画像処理装置
JP2019214340A Active JP7007348B2 (ja) 2016-06-16 2019-11-27 画像処理装置

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2019214340A Active JP7007348B2 (ja) 2016-06-16 2019-11-27 画像処理装置

Country Status (4)

Country Link
US (1) US10950039B2 (ja)
EP (1) EP3474236A4 (ja)
JP (2) JP6625745B2 (ja)
WO (1) WO2017217296A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11125561B2 (en) 2016-09-30 2021-09-21 Sony Interactive Entertainment Inc. Steering assist
US10410320B2 (en) 2016-09-30 2019-09-10 Sony Interactive Entertainment Inc. Course profiling and sharing
US10850838B2 (en) 2016-09-30 2020-12-01 Sony Interactive Entertainment Inc. UAV battery form factor and insertion/ejection methodologies
US10679511B2 (en) 2016-09-30 2020-06-09 Sony Interactive Entertainment Inc. Collision detection and avoidance
JP7188902B2 (ja) * 2018-03-30 2022-12-13 東京ガスiネット株式会社 情報処理システム及びプログラム
JP2019185071A (ja) * 2018-03-30 2019-10-24 東京ガスiネット株式会社 情報処理システム及びプログラム
JP7114335B2 (ja) * 2018-05-23 2022-08-08 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、及び、プログラム
JP7113375B2 (ja) * 2018-07-11 2022-08-05 パナソニックIpマネジメント株式会社 表示装置、画像処理装置及び制御方法
JP6856583B2 (ja) 2018-07-25 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、拡張現実画像の記憶方法、およびプログラム
JP6856590B2 (ja) * 2018-08-31 2021-04-07 ファナック株式会社 センシングシステム、作業システム、拡張現実画像の表示方法、およびプログラム
EP3932302B1 (en) * 2019-06-27 2024-10-16 TERUMO Kabushiki Kaisha Cardiac function measurement system, extracorporeal circulation device, and cardiac function measurement program
EP4083961A4 (en) * 2019-12-23 2023-12-20 Kyocera Corporation INFORMATION PROCESSING DEVICE, SENSOR DEVICE, MOVABLE BODY AND INFORMATION PROCESSING METHOD

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006507585A (ja) * 2002-11-15 2006-03-02 ワーナー・ブロス・エンターテイメント・インコーポレーテッド デジタルモデリング用のリバースレンダリング法
US7538766B2 (en) * 2005-06-08 2009-05-26 Microsoft Corporation Pre-computed shadow fields
JP4834116B2 (ja) * 2009-01-22 2011-12-14 株式会社コナミデジタルエンタテインメント 拡張現実表示装置、拡張現実表示方法、ならびに、プログラム
US8405680B1 (en) * 2010-04-19 2013-03-26 YDreams S.A., A Public Limited Liability Company Various methods and apparatuses for achieving augmented reality
US8587583B2 (en) * 2011-01-31 2013-11-19 Microsoft Corporation Three-dimensional environment reconstruction
KR101845231B1 (ko) * 2011-06-14 2018-04-04 삼성전자주식회사 영상 처리 장치 및 방법
JP2013127774A (ja) 2011-11-16 2013-06-27 Canon Inc 画像処理装置、画像処理方法及びプログラム
US9578226B2 (en) * 2012-04-12 2017-02-21 Qualcomm Incorporated Photometric registration from arbitrary geometry for augmented reality
JP6230239B2 (ja) * 2013-02-14 2017-11-15 キヤノン株式会社 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体
JP2015099545A (ja) * 2013-11-20 2015-05-28 株式会社東芝 画像生成システム及び画像生成プログラム
JP5937128B2 (ja) 2014-03-17 2016-06-22 富士フイルム株式会社 拡張現実感提供システム、方法及びプログラム
WO2016059781A1 (en) * 2014-10-15 2016-04-21 Seiko Epson Corporation Head-mounted display device, method of controlling head-mounted display device, and computer program
US20170289515A1 (en) * 2016-04-01 2017-10-05 Intel Corporation High dynamic range depth generation for 3d imaging systems

Also Published As

Publication number Publication date
JP2020030864A (ja) 2020-02-27
US10950039B2 (en) 2021-03-16
JPWO2017217296A1 (ja) 2018-11-08
WO2017217296A1 (ja) 2017-12-21
US20190156563A1 (en) 2019-05-23
EP3474236A1 (en) 2019-04-24
EP3474236A4 (en) 2019-12-11
JP7007348B2 (ja) 2022-02-10

Similar Documents

Publication Publication Date Title
JP7007348B2 (ja) 画像処理装置
US11877086B2 (en) Method and system for generating at least one image of a real environment
US10127712B2 (en) Immersive content framing
JP7387434B2 (ja) 画像生成方法および画像生成装置
US10893259B2 (en) Apparatus and method for generating a tiled three-dimensional image representation of a scene
JPH11175762A (ja) 光環境計測装置とそれを利用した仮想画像への陰影付与装置及び方法
JP5762015B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP5361758B2 (ja) 画像生成方法、画像生成装置、及びプログラム
US20230056459A1 (en) Image processing device, method of generating 3d model, learning method, and program
JP6974978B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP7500512B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP6575999B2 (ja) 照明情報取得装置、照明復元装置、およびこれらのプログラム
US11430178B2 (en) Three-dimensional video processing
US11043019B2 (en) Method of displaying a wide-format augmented reality object
JP2024114712A (ja) 撮像装置、撮像方法、及び、プログラム
CN118196135A (zh) 图像处理方法、装置、存储介质、设备及程序产品
JP5310890B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP7366563B2 (ja) 画像生成装置、画像生成方法、及びプログラム
JP2014164497A (ja) 画像処理装置、画像処理方法及びプログラム
JP2019129469A (ja) 画像処理装置
JP2018174431A (ja) 画像処理装置、撮影装置、及び画像処理方法
JP2022126206A (ja) 画像処理装置、画像処理方法及びプログラム
JP2013218583A (ja) 画像処理装置、その方法およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180705

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191127

R150 Certificate of patent or registration of utility model

Ref document number: 6625745

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150