Nothing Special   »   [go: up one dir, main page]

JP3197801B2 - 二次元表示画像生成方法 - Google Patents

二次元表示画像生成方法

Info

Publication number
JP3197801B2
JP3197801B2 JP25677295A JP25677295A JP3197801B2 JP 3197801 B2 JP3197801 B2 JP 3197801B2 JP 25677295 A JP25677295 A JP 25677295A JP 25677295 A JP25677295 A JP 25677295A JP 3197801 B2 JP3197801 B2 JP 3197801B2
Authority
JP
Japan
Prior art keywords
video
dimensional display
display image
dimensional
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP25677295A
Other languages
English (en)
Other versions
JPH0981746A (ja
Inventor
幸則 松本
肇 寺崎
和英 杉本
勉 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Priority to JP25677295A priority Critical patent/JP3197801B2/ja
Priority to US08/622,047 priority patent/US6384859B1/en
Priority to KR1019960008266A priority patent/KR100414629B1/ko
Priority to DE69621509T priority patent/DE69621509T2/de
Priority to EP96105004A priority patent/EP0735512B1/en
Priority to EP01119254A priority patent/EP1150253A2/en
Priority to EP01119255A priority patent/EP1150254A3/en
Priority to CN96108487A priority patent/CN1132123C/zh
Publication of JPH0981746A publication Critical patent/JPH0981746A/ja
Priority to US09/916,869 priority patent/US20010045979A1/en
Application granted granted Critical
Publication of JP3197801B2 publication Critical patent/JP3197801B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】この発明は二次元表示用の画
像を生成する方法、特に、入力された単眼映像または多
眼映像に加工処理を施すことによって、新たな画像を生
成する方法に関する。この発明は主に、画像の視点変
更、画像の一部拡大または縮小、画像領域の切り出しな
どに使用可能である。
【0002】
【従来の技術】映像を撮影するカメラの数という観点か
らすれば、映像は単眼映像と多眼映像に大別される。単
眼映像は1つのカメラ、多眼映像は複数のカメラから被
写体を撮影した場合に得られる。後者はステレオ映像と
も呼ばれる。
【0003】一方、この映像に所定の処理を加えて画像
を出力する場合、その出力は、表示形式の観点から二次
元表示画像と三次元表示画像に大別される。三次元表示
画像とは、疑似立体表示のために左右両眼に与えられる
画像で、静止画像の場合、通常は二枚一組のフレームか
らなる。動画像の場合はこのフレームの組が次々に観視
者に与えられる。二次元表示画像とは三次元表示画像以
外の通常の画像をいう。すなわち、二次元表示静止画像
は一枚の写真のような画像、二次元表示動画像は通常の
テレビ画像のような画像をいう。以降、本明細書におい
て「映像」といえば、主に画像処理の対象となる入力
(ただし後述の視点変更映像を除く)、「画像」といえ
ば主に処理後の出力を指す。
【0004】以上の入出力のタイプによる場合分けのう
ち、本発明は出力として二次元表示画像を想定する。本
発明の想定する入出力の組合せは以下の2通りである。
【0005】 (1)入力が単眼映像、出力が二次元表示画像 (2)入力が多眼映像、出力が二次元表示画像 これらのうち、(1)では入力映像をそのまま出力する
ことが一般的である。(2)では、多眼映像のうちの一
方を選択してそのまま出力する場合が多い。多眼映像を
撮影するメリットは、主に三次元表示画像の生成におい
て発揮されるためである。本発明はこれら(1)(2)
の分野において全く新しい画像処理方法を提供するもの
であり、対応する従来技術はないといってよい。
【0006】
【発明が解決しようとする課題】本発明の目的は、入力
映像に対して以下の処理を施し、以下の出力画像を生成
することにある。この際、カメラ位置(すなわち観視者
の視点であり、以下単に「視点」という)と被写体との
距離の情報(以降単に「奥行き情報」という)を含む三
次元位置情報の導出と利用を通して一連の処理を行う点
に特徴がある。
【0007】1.視点変更 視点を仮想的に変更したとき、映像は変化するはずであ
る。本発明は、現実のカメラ位置を固定したまま、視点
変更後に得られるべき映像(以下「視点変更映像」とい
う)を自動生成する。
【0008】2.画像の一部拡大・縮小 画像処理において画像の一部拡大・縮小はしはしば行わ
れるが、本発明は奥行き情報を利用することにより、最
も自然かつ効果的な画像を自動生成する。
【0009】3.画像領域の切り出し 所望の画像領域を切り出すとき、前提として画像領域の
認識が必要となる。画像領域の認識には、クラスタリン
グ手法等いくつかの技術が提案されているが、大きな成
功に至っていない。本発明は奥行き情報という全く異な
る観点から、高い精度で領域の切り出しを行う。
【0010】
【課題を解決するための手段】本発明は、処理の対象と
なる元の映像から該映像の奥行き情報を抽出し、この情
報に従って二次元表示用の画像を生成する。ここで「元
の映像」とは、単眼で撮影されたものでもよいし、多眼
で撮影されたステレオ映像でもよい。また、カメラで撮
影された映像だけでなく、例えばアニメーション映像や
コンピュータ・グラフィックスでもよい。
【0011】このとき本発明は、複数の映像フレーム間
における映像各部位の二次元的な位置の変位を検出し、
この情報から前記奥行き情報を抽出する。「映像各部
位」とは、映像を構成する各領域や各画素をいう。「映
像フレーム」とは映像の処理単位で、通常の画像フレー
ムの他、画像フィールド、MPEGのピクチャ等を含
む。「複数の映像フレーム」は、単眼の場合は異なる時
刻に撮影された複数フレーム(以下「異時刻フレー
ム」)をいう。多眼の場合は、同時に撮影された複数フ
レーム(以下「同時刻フレーム」)でもよいし、多眼カ
メラを構成する1つのカメラによる異時刻フレームでも
よい。「二次元的な」とは、映像フレームが平面映像で
あることを意味する。多眼の場合でも、各カメラの映像
は平面映像である。「二次元的な位置の変位」とは、平
面上における位置の変位をいう。異時刻フレームなら時
間経過に伴う位置の変化(すなわち動き)、同時刻フレ
ームなら複数フレーム間の位置のずれを指す。
【0012】本発明のある態様では、前記複数の映像フ
レームは異時刻フレームであり、前記二次元的な位置の
変位量に基づいてこれらの異時刻フレームが選択され
る。変位量が大き過ぎる場合は、例えば時刻差を少なく
して複数フレームを選択する方法が考えられる。
【0013】本発明では、前記映像各部位の二次元的な
位置の変位量を統計的に処理し、その処理結果に基づい
て複数の映像フレームを選択してもよい。統計的な処理
として、映像各部位の動きベクトルの分散を導出し、こ
の値が所定値よりも大きくなるように複数の映像フレー
ムを選択してもよい。分散の導出は既知の計算によって
行われる。映像各部位の動きが小さすぎると計算誤差が
大きくなるため、分散がある程度大きいほうが好まし
い。
【0014】従って本発明のある態様では、分散が所定
値よりも大きくなるような複数の映像フレームを選択す
ることができない場合、二次元表示用画像の生成を中止
する。誤差の大きさに起因して不自然なが画像が生成さ
れる事態を回避するためである。
【0015】本発明は、こうして得られた映像各部位の
二次元的な位置の変位から、映像各部位が現実の三次元
空間において占める相対位置関係を導出する。その結果
に従って前記奥行きを決定する。入力が単眼映像の場
合、必ずしも絶対位置が求まらない。これは後述のスケ
ールファクターの問題である。そこで、少なくとも相対
位置を求める。
【0016】このとき、前記二次元的な位置の変位から
前記映像各部位の三次元的な動きを算出し、この動きか
ら三角測量の原理によって前記映像各部位の三次元空間
における位置座標を算出し、その結果に従って前記奥行
きを決定してもよい。単眼の場合はカメラの移動を仮定
して三角測量の原理を適用する。多眼の場合は例えば左
右映像に対してこの原理を適用する。
【0017】本発明では、複数の映像フレーム間におけ
る被写体の対応を把握する必要がある。そこで、基準と
なる映像フレーム(以下「基準フレーム」という)に代
表点を設定し、他の映像フレーム(以下「対象フレー
ム」という)における前記代表点の対応点を求め、これ
ら代表点と対応点の位置関係を求めて、前記映像各部位
の二次元的な位置の変位を認識してもよい。これは一種
の画像認識技術である。ここでいう「対応点」とは、代
表点に対応する点である。対応点には、「真の対応点」
と「計算上の対応点」の2つの概念が存在する。対応点
は本来、各代表点に対して一意的に存在するはずであ
り、その存在個所以外の点が対応点であるという状態は
考えられない。この理想的な対応点が真の対応点であ
る。
【0018】一方、画像処理計算から決まる対応点は、
真の対応点に一致するとは限らない。これが計算上の対
応点である。計算上の対応点は、真の対応点の存在個所
以外に存在することがありうるだけではなく、その位置
が適宜変更されることもある。後者は、例えば後述の対
応点精度の改善処理を行う場合に発生する。
【0019】なお本明細書では、特に必要でない限り、
「対応点」ということばを「真の対応点」と「計算上の
対応点」の2つの概念に対して区別することなく用い
る。
【0020】ここで、基準フレームと対象フレームが異
時刻フレームであるとき、代表点と対応点の位置関係か
ら、さらに別の対象フレームの対応点の位置を予想し、
対応点を探索すべき領域を限定してもよい。最も簡単な
例では、基準フレームと対象フレーム間で検出された被
写体の動きが同じ速度で維持されると仮定して、別の対
象フレームにおける被写体の存在個所を予想すればよ
い。
【0021】このとき、前記代表点のうち幾何的に特徴
のある映像領域に関連するものについては、それら代表
点の対応点の関連する映像領域についても前記幾何的な
特徴が維持されるよう、前記対応点の位置を調整しても
よい。「幾何的な特徴」を有する映像部分の例は、家の
屋根の角や地平線などである。幾何的な特徴は被写体の
幾何的特徴のみならず、映像中の色の変化点で構成され
ることもある。幾何的な特徴を維持すれば対応関係がよ
り正確に把握されるという経験則に基づく。
【0022】このとき、幾何的に特徴のある映像領域と
して直線を含む領域を採用してもよい。基準フレームで
直線をなした部分は対象フレームでも直線をなすと仮定
するのである。対応点の位置を微調整して直線上に乗せ
る計算負荷は比較的軽い。
【0023】対象フレームにおける特定点近傍の映像領
域と、基準フレームの代表点近傍の映像領域間で映像の
類似性を評価し、この評価結果が良好な場合に前記特定
点をもって前記代表点の対応点と決めてもよい。対応関
係の把握に映像の類似性を採用するのである。「類似
性」の判断基準は、色の近さ、形の近さなどである。
【0024】ここで「特定点」とは、評価に投入される
対応点の候補をいう。候補の決め方は問わない。例えば
等間隔に複数の特定点をとり、これらのうちで評価結果
が最良だった点を対応点とすればよい。
【0025】さらに、この類似性だけでなく、特定点間
の相対位置の妥当性を評価し、これら両評価の結果が良
好な場合に前記特定点をもって前記代表点の対応点と決
めてもよい。例えば、基準フレームで点Aよりも右にあ
った点Bが、類似性評価の結果、対象フレームにおいて
点Aよりも左に存在するとされた場合、その周囲の対応
関係にもこうした逆転現象があれば、点Bの位置は妥当
と考えることができる。別の例としては、基準フレーム
に取られたある領域の重心は対象フレームでもその領域
の重心付近にくると仮定し、位置の評価を行ってもよ
い。
【0026】ここでは、2つの評価を終えてから対応点
を決めてもよいし、いずれか一方が終わった段階で対応
点を仮りに決め、他方の評価によってその妥当性を判断
してもよい。
【0027】こうした2つの評価を経て対応点が決まっ
た場合、本発明のある態様では、各評価の結果を数値化
して統合し、対応点の位置を変化させながらその数値を
再計算し、繰り返し計算を通して対応点の位置精度を改
善してもよい。つまり、2種類の評価結果を重み付けし
て加算し、この加算結果を最適化する対応点を求める。
【0028】このときさらに、一旦全対応点の位置を固
定した上で、1つの対応点のみを移動させながら前記各
評価の結果が最良となる点を探索し、探索された最良点
の位置を前記1つの対応点の新たな位置とし、これらの
探索および位置の変更を順次全対応点について行っても
よい。
【0029】ある対応点Xを移動するとき、他の対応点
を固定した上で2つの評価を行い、その結果が最良とな
る点をもって対応点Xの新たな位置とする。これで対応
点Xの1回の位置改善が終わる。つづいて、次の対応点
について同様の探索と移動処理を行う。このときも他の
点は固定しておく。処理は全対応点について行い、必要
に応じて二巡以上繰り返す。以下、この改善手法を「固
定探索手法」と呼ぶことにする。
【0030】固定探索処理が終了したのち、オイラー方
程式を用いて対応点の位置精度を高めてもよい。オイラ
ー方程式は2つの評価の統合後の数値が極大値または極
小値をとる条件を表す。この数値には、全対応点の評価
結果が反映されている。オイラー方程式によれば、画像
の最小単位(例えば画素)よりも高い精度で対応点の位
置を改善することも可能である。
【0031】本発明では、前記類似性評価をブロックマ
ッチングによって行ってもよい。この方法によれば、色
の類似性と形状の類似性の両方が同時に評価される。
【0032】より具体的には、このブロックマッチング
は、比較すべき映像領域の間で色濃度のn乗誤差総和を
計算すればよい。nは1または2とする。n=1のとき
は色濃度の差の絶対値の総和を求める。
【0033】ここで色濃度に対し、所定の色偏向定数を
考慮してブロックマッチングを行ってもよい(以下「バ
イアスド・ブロックマッチング」と呼ぶ)。同時刻フレ
ームの場合、複数のカメラの特性によって色濃度に一定
の偏位が生じやすい。同じカメラによる異時刻フレーム
の場合にも、時刻によって天候が変わる(つまり映像の
明度等が変わる)ようなとき、同様の現象が起こる。こ
れを打ち消すように色偏向定数を与える。
【0034】ここで色偏向定数は、n乗誤差総和が最小
となるよう決められる。そのように決めることで色濃度
の偏向が最もよく解消されると考えられるためである。
【0035】具体的には、色偏向定数は映像領域間の各
画素の色濃度差の平均値とすればよい。このとき、最も
一般的な2乗誤差総和が最小になるためである。前記ブ
ロックマッチングは、映像領域間で各画素の色濃度差か
ら色偏向定数を減算した後に2乗誤差総和を算出すれば
よい。
【0036】本発明のある態様では、映像に含まれる点
を特徴点と非特徴点に分類し、特徴点である代表点につ
いて優先的に対応点を決める。特徴点である対応点を補
間して非特徴点である対応点を決めることもできる。基
準フレームと対象フレームの間でブロックマッチングを
行い、その結果、代表点との対応が良好な対応点を特徴
点と決めてもよい。ブロックマッチングはバイアスド・
ブロックマッチングでもよい。
【0037】本発明では、異時刻フレームにおいて位置
が安定的に変化している点を特徴点としてもよい。別の
言い方をすれば、動きベクトルが安定している点を特徴
点とする。このような点は的確に追跡されていると考え
られるためである。
【0038】同時刻フレーム間における位置の変位(す
なわち位置のずれ)が、その近傍時刻において撮影され
た同時刻フレーム間においてもほぼ一定であるか、また
は一定変化する点を特徴点としてもよい。このような点
も追跡の精度が高いためである。
【0039】本発明の別の態様では、奥行き情報に従っ
て視点変更映像を生成する。このために、想定される視
点の変更に伴う映像各部位の位置の変位を前記奥行き情
報から逆算し、前記位置の変位に従って映像を再構築す
る。これは、一種の画像加工技術である。例えば視点の
高さを変えてみる場合、カメラの移動距離と前記奥行き
情報から被写体(映像各部位)の変位(並進量と回転
量)が計算できる。この計算結果に従って所期の映像を
構築すればよい。
【0040】元の映像が2眼カメラによって撮影された
ものであるとき、これら2眼から十分に近い位置に仮想
カメラを想定し、この仮想カメラから撮影されるべき映
像を視点変更映像として生成し、この視点変更映像と前
記2眼カメラによって撮影された現実の映像とによって
多視点映像を生成してもよい。一般に多視点映像を得る
場合、3眼以上のカメラによって映像を撮影しなければ
ならない。そこでこの態様では、もともと2眼カメラに
よる映像が存在する場合、仮想カメラで撮影される映像
を視点変更映像として生成し、これら3以上の映像によ
って多視点映像を生成する。
【0041】別の態様として、映像の視点を、ある映像
フレームを撮影した視点から別の映像フレームを撮影し
た視点まで仮想的に移動させながら、移動経路上の任意
の個所を視点とする視点変更映像を生成するしてもよ
い。例えば、映像フレーム1を撮影した視点を視点1、
別の映像フレーム2を撮影した視点を視点2と定義する
と、本発明は映像の視点を視点1から視点2に仮想的に
移動させながら、移動中の任意の視点で撮影されるべき
映像を視点変更映像として生成する。映像フレーム1と
2が異時刻フレームを構成する場合、視点変更映像を多
めに生成すれば、映像フレーム1と2の間を滑らかに変
化する映像を得ることができる。これは、例えば滑らか
なスローモーション画像を得る場合などに応用すること
ができる。当然ながら、映像フレーム1、2は同時刻フ
レームであってもよい。
【0042】また別の態様によれば、奥行き情報を基準
として映像の一部領域の大きさを変更した上で画像が生
成される。映像の一部領域として奥行きが小さな領域を
選定し、該領域を拡大した上で画像を生成してもよい。
一般に視点から近い被写体をさらに近くに見せることに
より、強調表示が可能となる。そこで小さな奥行きを持
つ領域を選定し、これを拡大する。
【0043】逆の態様として、奥行きが大きな領域を選
定し、該領域を縮小した上で画像を生成してもよい。も
ともと視線から遠い被写体をさらに遠くに見せることに
より、こうした領域の重要度を落として表示するためで
ある。
【0044】なお、こうして異なる視点からの映像や、
拡大・縮小を行った後の映像については、映像領域間の
遮蔽関係を考慮してもよい。例えば、視点が移動するこ
とによって奥行きの大きな被写体が奥行きの小さな被写
体に遮蔽されたり、ある被写体の拡大によって背景が遮
蔽される場合がある。こうした場合は、遮蔽される部分
の画像を削除して画像を生成することにより、さらに自
然な画像を得ることが可能となる。
【0045】視点変更映像や一部領域の拡大縮小等の画
像処理に伴い、画像枠に望ましくない段差が現れること
がある。本発明ではこの段差を修正してもよい。例え
ば、画像処理の結果、画像端部が画像中央方向に移動す
るような変位を受ける場合、その部分が中央方向に凹ん
で見えるためである。この部分は補間等の方法によって
もとの映像同様に滑らかな端部を再生すればよい。
【0046】さらに別の態様では、奥行き情報に従い、
所望の映像領域を切り出して画像を生成する。切り出し
は例えば、映像各部位のうち所定範囲の奥行きを持つ部
位を選定することによって行われる。例えば、奥行きが
10メートル以内の映像部位のみを選定する場合、視点
から10メートル以内の被写体のみが切り出される。こ
れは一種の画像認識技術である。
【0047】このときさらに、切り出された映像領域を
別の映像に重ねることによって新たな画像を生成しても
よい。上記の例でいえば、10メートル以内に存在する
被写体を切り出し、これを別途用意した風景、同時に撮
影された別の風景、同時に生成したCG映像などに張り
付けて仮想的な画像を得ることができる。
【0048】
【発明の実施の形態】実施形態1. 本発明の好適な実施形態を適宜図面を参照
しながら説明する。実施形態1と2では、単眼で撮影さ
れた映像が入力されるものとする。多眼(ステレオ映
像)の場合は実施形態3で説明する。
【0049】図1は本実施形態によって二次元表示画像
を生成するための主な工程を示す図である。図に示すよ
うに本実施形態は以下の工程に従って、元となる入力映
像から二次元表示用の画像を生成する。ここで工程1〜
3が映像の解析による奥行き情報の導出に関するもので
あり、工程4が所期の画像の生成に関するものである。
まず各工程の概略を説明する。
【0050】[工程1]二次元動き情報の抽出 映像に含まれる被写体の動き情報を抽出する。動き情報
を二次元情報であり、表示画面を座標平面上にとり、被
写体のこの画面上の動きを二次元座標で記述する。
【0051】本工程では、被写体の動きの把握のために
映像フレーム間の対応関係を検出する。基準フレームで
ある時刻tの映像フレーム(以降「フレームt」とい
う)に予め複数の代表点を設定しておき、別の時刻t'
の対象フレーム(以降「フレームt' 」という)におけ
る前記各代表点の対応点を追跡する。フレームtとt'
は異時刻フレームを形成するが、これらは時間的に隣接
するフレームである必要はない。本工程の特徴は、被写
体の任意の方向の動きから二次元動き情報を抽出するこ
とができる点にある。
【0052】本明細書では以降「フレーム」といえば、
フィールドなど広く映像構成単位全般を指すものとし、
例えば525本の走査線によって構成されるテレビ受像
器の1フレームや、640×480画素によって構成さ
れるパーソナルコンピュータの一画面のみを指すもので
はない。また、代表点はフレームtのみならず、フレー
ムt、t' の両方に設定してもよい。
【0053】[工程2]三次元動き情報の算出 被写体の二次元的な動きが判明すれば、この被写体の三
次元空間における現実の動き情報(三次元動き情報)を
算出する。この際、代表点と対応点の組を多数とること
により、被写体が実際に起こす動きを並進および回転の
両運動成分によって記述する。
【0054】[工程3]奥行き情報の獲得 被写体の現実の動きの様子がわかれば、各時刻における
被写体の相対位置関係が判明する。この関係がわかれば
被写体またはその各部位(以降単に「映像各部位」とも
いう)の奥行き情報が求められる。
【0055】[工程4]画像の生成 奥行き情報を含む三次元情報に応じて所期の画像を自動
生成する。ここでは、視点変更映像、画像の一部拡大・
縮小によって生成される画像、ある画像領域を切り出し
て生成される画像を説明する。
【0056】以上が概略である。以降、各工程を詳述す
る。
【0057】[工程1]二次元動き情報の抽出 図2は映像フレーム間の対応関係を検出するためのフロ
ーチャートである。同図に示す各ステップを説明する。
【0058】(S10)フレームtに代表点を設定 図3に示すように、まず基準フレームtに代表点を設定
する。同図では、フレームtを8×8画素ごとにメッシ
ュによって分割し、各代表点を格子点に置いている。こ
こでは左からi番目、上からj番目の代表点をPt
(i, j)と記述し、Pt (i, j)に対する時刻t'
の対応点をPt'(i, j)と記述する。また、必要に応
じてPt (i, j)のx、y座標をそれぞれ、Pt
(i, j)x 、Pt (i, j)y と記述する。
【0059】なお本ステップにおいて、代表点は格子点
に限らず任意の箇所に配置してもよい。極端な場合は全
画素を代表点とすることもできる。
【0060】(S11)対応点候補領域の設定 例えば図3に示すPt (6, 4)という代表点を考えた
場合、Pt'(6, 4)の存在しうる領域を予め設定す
る。これは映像の動きがある限度以上に急激な場合を除
き、Pt'(6, 4)がPt (6, 4)の近傍にあるとい
う仮定に基づく。本実施形態では、例えばPt (6,
4)の近傍100×60画素の領域にPt'(6, 4)が
入るものとし、Pt'(6, 4)の検出の際の計算量を削
減する。
【0061】なお、本ステップについては以下の応用が
可能である。
【0062】1.映像が比較的激しく動いているときは
フレームt、t' が隣接するようにt' を決める。代表
点の位置変化は最小に抑制され、対応点が前記領域に入
らないおそれも最小となる。ただし当然ながら、予め候
補領域を画面全体とする方法も考えられる。その場合、
計算量が増加するが、映像の大きな動きよって対応点を
取り逃すおそれは減る。
【0063】2.本実施形態では単にPt'(6, 4)が
Pt (6, 4)の近傍にあると仮定したが、いったんP
t (6, 4)の複数フレームにおける移動軌跡が判明し
たときは、この軌跡の延長線上に候補領域を決めること
も可能である。映像の動きがある程度一定している場
合、この方法による対応点候補領域の絞り込みは非常に
有効である。
【0064】(S12)対応点候補領域における非類似
度の計算 つづいて、候補領域から対応点の位置を具体的に決めて
いく。ただし本ステップでは、前ステップとは逆に、映
像の動きが緩慢過ぎる場合に問題が生じる。動きが少な
いと動き情報の抽出が困難になり、抽出された情報が大
きな誤差を含む可能性があるためである。
【0065】そこでこのようなときには、予めフレーム
t、t' がある程度離れるようt'を決める。この際、
映像各部位の変化量を統計的に処理し、例えば変化量の
分散が所定値を超えるようなt' を決めればよい。な
お、仮に条件を満たすt' が見つからなければ、二次元
表示用画像の生成を中止する。このときは入力された映
像をそのまま出力してもよい。
【0066】本ステップでは、対応点の位置を決めるべ
く、フレームt、t' 間でブロックマッチングによる非
類似度の計算を行う。前記対応点候補領域内のある点を
中心とする近傍ブロックと代表点の近傍ブロックとの間
で濃度の2乗誤差の総和(非類似度)を求め、これが最
小になる点を計算上の対応点と決める。
【0067】図4はブロックマッチングの様子を示す図
で、本実施形態では9画素で1ブロックと定義し、中央
の画素を代表点とする。同図において、まずフレームt
上にPt (i, j)を含むブロック1を取り、フレーム
t’側では対応点の候補Pt'(i, j)を含むブロック
2を取る。ここで一般に、画素(x, y)の時刻tにお
ける画素値をIt (x, y)と記述すれば、非類似度
(E1とする)は、
【数1】 E1=ΣΣ{It(Pt(i,j)x+u,Pt(i,j)y+v)-It'(Pt'(i,j)x+u,Pt'(i,j)y+v)}2 (式1) によって求められる。ここで2つのΣはu、vに関す
る。これらはそれぞれ、 u=−1,0,1 v=−1,0,1 の値を取り、仮のPt'(i, j)に対して合計9画素に
関する2乗誤差総和が計算できる。そこでPt'(i,
j)を候補領域内で少しずつ動かしていき、E1が最小
になる点を対応点と決めればよい。
【0068】図5はPt'(i, j)ごとにE1の値を縦
方向に表した模式図であり、同図の場合、非類似度が急
峻なピークをとる点Qが対応点と決まる。以降、同様に
他の代表点についても対応点を決めていく。
【0069】なお、本ステップには以下の応用または変
形がある。
【0070】1.ここでは濃淡画像を前提に、濃度の2
乗誤差を計算したが、カラー画像の場合、RGB各濃度
の2乗誤差の総和、すなわちE1R +E1G +E1B
非類似度としてもよい。これは他の色空間による濃度、
例えばHVC濃度であってもよい。2乗誤差の代わりに
単なる誤差の絶対値(残差の総和)を採用してもよい。 2.本ステップでは1ブロックを9画素としたが、通常
はある程度多数の画素によってブロックを定義すること
が望ましい。例えば通常のパーソナルコンピュータまた
はワークステーションの高解像度画面を想定する場合、
実験の結果、16×16画素程度のブロックによって良
好な結果が得られている。
【0071】(S13)対応点の初期位置の決定 前ステップにより、一応は対応点を求めることができ
た。しかしこの段階では対応点の位置が最適とは限らな
い。被写体の境界やエッジについては対応点が比較的正
しく求まるものの、例えば変化の乏しい映像部位では、
対応点の位置は相当誤差を含んでいるとみるべきであ
る。図5でいえばE1が明確なピークをとらない状態と
いってよい。図6は前ステップの結果求められた対応点
と代表点の関係を示す図で、同図に示すごとく、家や
木、特にそれらの輪郭等の特徴的な点については対応点
が良好に求まるが、空や地面については誤差が大きい。
【0072】そこで本ステップと次ステップにより、対
応点の位置補正を行う。本ステップでは、まず対応点の
初期位置という概念を導入し、実際にその初期位置を決
める。次ステップで繰り返し計算による位置精度の改善
を図る。本ステップにおける対応点初期位置の決定には
以下の方針が考えられる。
【0073】1.前ステップで求められた全対応点を同
等に扱う 全対応点の位置をそのままそれらの初期位置として次ス
テップへ投入する。
【0074】2.対応点の扱いに差異を設ける 当初よりある程度正しい位置にあると思われる対応点
(以降「特徴点」という)の位置はそのまま初期位置と
して使い、そうでない対応点(以降「非特徴点」とい
う)の初期位置については、前記特徴点のそれをもとに
決めるというものである。ここで特徴点としては以下の
点を想定することができるが、これらの点は現実には一
致することも多い。
【0075】(1)前ステップのE1が明確なピークを
示した対応点 このような対応点の位置精度は一般に高いためである。
【0076】(2)直交エッジ成分が多く存在する箇所
にある対応点 建物の角などの部分では対応点の位置がかなり正しいと
思われるためである。 (3)フレームt、t' 、・・・において位置が安定的
に変化している対応点 ここで変化の安定性は、動きベクトルの一定性というこ
とができる。ここでは、フレームの進行に伴って移動方
向、移動距離が一定な対応点を選ぶ。具体的には、例え
ば動きベクトルのばらつきが所定値以下の対応点を選定
する。こうした対応点は的確に追跡されているはずであ
り、代表点と正しい対応関係にあると判断できるためで
ある。ただし、例えば映像を撮影するカメラが不規則に
動いた場合には、その影響を加味して判断する。
【0077】こうして特徴点が選定されれば、これらは
そのまま初期位置として使い、非特徴点の初期位置は特
徴点の位置を補間したり、または特徴点の近傍から順に
決めていくことができる。すなわち、前ステップによる
非特徴点の位置精度は低いため、精度の高い特徴点から
幾何的に非特徴点の初期位置を与えるのである。なお当
然ながら、(3)の特徴点を見つける場合にも前ステッ
プの方法を有効利用できる。
【0078】以上、特徴点の選定に基づいた対応点初期
位置の決定方法を述べたが、この他、動的計画法(ダイ
ナミック・プログラミング)を用いて対応点の初期値を
求めてもよい。
【0079】(S14)対応点の改善処理 対応点の位置の妥当性を評価するために式を導入し、繰
り返し計算によって位置精度を改善する。S12ステッ
プでは非類似度を評価する式1を導入したが、ここでは
さらに、対応点間の相対位置関係の妥当性を評価する式
を導入し、これら2つ評価結果を統合して位置の改善を
図る。
【0080】図7は相対位置を評価する原理を説明する
図である。同図において、各点はそれぞれ対応点を表し
ている。このうち、図中のPt'(i, j)を中心に考え
ると、これには以下の4つの対応点、
【数2】Pt'(i-1,j)、Pt'(i+1,j)、Pt'(i,j
-1)、Pt'(i,j+1)が隣接している。Pt'(i, j)
は通常、これら4つの点の重心付近に存在すると考える
のが妥当である。これは、映像各部位が動いても画素単
位の微視的な見方をすれば相対位置関係がほぼ保たれる
という経験則に基づいている。なお、この性質を数学的
にいえば、(i, j)の関数Pt'(i, j)の2次微分
がほぼ0であるということにほかならない。
【0081】従って上記4点の重心を(St'(i,j)x ,S
t'(i,j)y )と表記すれば、
【数3】 E2={Pt'(i,j)x-St'(i,j)x }2 +{Pt'(i,j)y-St'(i,j)y }2 (式2) が相対位置の妥当性評価式となる。この式だけを考えれ
ば、E2が最小値になるときに対応点の位置が最も望ま
しい状態となる。
【0082】本ステップでは、式1および式2の評価結
果を適当な結合定数kで加算し、 E=E1/N+k・E2 (式3) で表されるEを最終的な評価式とする(Nはブロックマ
ッチングの際に定義された1つのブロックに含まれる画
素数である)。すなわち、まず各対応点についてEを計
算し、続いて全対応点のEの総和ΣEを計算し、ΣEが
最小値となるよう、各対応点の位置をすこしずつ変化さ
せる。ΣEの値が収束するか、または繰り返し計算を所
定の上限回数に達するまで行い、改善処理を施す。より
具体的には、各対応点の位置を変化させるとき、以下の
いずれかの方法を実施すればよい。
【0083】(1)オイラー方程式を解く方法 ΣEが極値(ここでは極小値)をとる条件を示すオイラ
ー方程式を数値的に解くことによって対応点を得る。こ
の手法自体は既知である。これは、各代表点を含むブロ
ックでの画像傾き情報と、対応ブロック間の画素差分情
報から改善すべき方向を見い出し、これに基づいて対応
点の位置を初期位置から徐々に動かしていき、最終解を
求める。
【0084】(2)固定探索手法 まず、対応点候補領域において、改善対象の対応点のE
が最小になる点を探し、これを新たな対応点とする。こ
のとき、他の点の位置を不動とみなして探索を行う点に
特徴がある。この処理を順次全対応点に対して行う。
【0085】(3)混合手法 (2)の手法によれば、画素単位の精度で対応点の位置
が求まる。一方、(1)によれば、理論上画素単位以下
の精度で位置を求めることができる。そこで、まず
(2)の手法によって画素単位の精度で対応関係を求
め、しかる後にオイラー方程式を適用して精度を高める
ことも可能である。
【0086】なお実験によれば、同じ精度で比較した場
合、(2)の手法によって(1)よりも短時間で好まし
い解が得られている。
【0087】図8は図6の対応点候補に対して本ステッ
プの改善処理を行った結果を示す図である。実験によれ
ば、カラー画像の場合、kは5〜200程度で良好な結
果が得られることがわかった。図6と図8はともに模式
的な図であるが、実験の結果、実際にこれらの図に近い
改善が見られた。
【0088】以上が工程1の詳細である。なお本工程に
は、以下の応用または変形がある。 1.E2導出の際、上下左右の4点のみならず、斜め方
向の4点を加えた計8点の重心を考える。いかなる組合
せが最適であるかは映像の種類にも依存するため、適宜
実験によって決めていくことが望ましい。
【0089】2.式3による評価は、E1のみによる評
価結果が思わしくなかった対応点から優先的に行う。こ
れはE1の結果が悪い対応点は一般に位置の誤差が大き
いと考えられるためであり、こうした対応点の位置を早
期に、かつ大幅に改善することが望ましいためである。
【0090】3.位置改善の際、幾何情報も利用する。
フレームtにおいて幾何的に特徴のある領域、例えば直
線を形成していた複数の代表点については、それらの対
応点も直線を形成するように位置を補正する。これは映
像上直線に見える部分は現実の三次元空間でも直線であ
る可能性が高く、一方、三次元空間の直線はフレーム
t' でも直線となるべきだからである。本来奥行きは直
線に沿って一様に変化するものであり、直線に沿う変化
は視覚的に容易に把握されるため、この方法による改善
効果は大きい。かかる改善をしない場合、最終的に生成
される画像において直線に沿う奥行きにむらが生じ、不
自然な画像になることがある。
【0091】4.さらに別のフレームについても対応点
を求める。本工程ではフレームtに対するフレームt'
の対応点を求めたが、さらに第三のフレームt''におけ
る対応点も求め、映像各部位の平均化された動きを求め
ることができる。この方法は、フレームt' における対
応点位置を改善していくのではない。多くのフレームで
対応点をとることにより、対応点の位置とそのフレーム
が撮影された時間から映像各部位の動きを統計的に決め
ていくのである。
【0092】[工程2]三次元動き情報の算出 工程1により、映像各部位の画面上の二次元的な動きが
判明した。工程2ではこの情報から各部位の三次元的な
動きを算出する。映像は被写体の現実の動きを平面に投
影したものであり、本工程では代表点と対応点の位置関
係からもとの動きを導出する。
【0093】一般に被写体の三次元空間における動き
は、並進運動と回転運動の合成として記述することがで
きる。ここではまず、動きが並進運動のみで構成される
場合の計算方法を説明し、後に一般化された方法を概説
する。
【0094】1.動きが並進運動のみの場合 図9はある点Pの画面上の移動と三次元空間での現実の
移動の対応を示す図である。同図では画面上の二次元座
標を大文字X等で、現実の三次元座標を小文字x等で表
記するものとし、三次元座標のうちx、y軸を画面上
に、z軸を奥行き方向にとっている。また、視点から画
面までの距離を1とする。
【0095】この図に示す通り、P(X, Y)は画面上
をP' (X',Y' )へ移動するが、この間、この点は三
次元空間においてS(x, y, z)からS(x',y',
z' )へと移動する。ここで、
【数4】 (x',y',z' )=(x, y, z)+(a, b, c) とすれば、画面までの距離が1なので、 X =x/z, Y =y/z X' =x' /z' , Y' =y' /z' となる。これを解けば、 X' =(Xz+a)/(z+c) Y' =(Yz+b)/(z+c) となるため、zを消去し、次式が求められる。
【0096】
【数5】 (a−X' c)(Y' −Y)=(b−Y' c)(X' −X) (式4) 式4は画面上の動き情報で表現されているため、工程1
で得られた情報によって未知数a, b, cを決めること
ができる。しかしこの際、現実にはk倍の大きさの物体
がk倍離れたところをk倍の速さで移動するケースにお
いて、このkの値(スケールファクター)を決めること
はできず、a, b, cについてはそれらの比のみを求め
ることが可能となる。数学的にいえば、(X, Y)と
(X',Y')の対応を3組与えても、この連立方程式を
行列表示した際の係数行列のランク(階数)は高々2で
あり、a, b, cは相対値としてしか決まらない。そこ
で本工程では、仮にc=1と正規化してa, bを表すこ
とにする。比のみでも、次工程による処理が可能なため
である。
【0097】並進運動の別の解法として、式4から誤差
eを、
【数6】 e ={(a-X'c)(Y'-Y) −(b-Y'c)(X'-X) }2 ={(Y'-Y)a-(X'-X)b−(XY'-X'Y)c}2 (式5) と定義し、代表点と対応点の全対応関係についてeの総
和Σeをとり、この値を最小にするa, b, cを次の式
から求めてもよい。
【0098】d(Σe)/da=0 (式6) d(Σe)/db=0 (式7) d(Σe)/dc=0 (式8) より具体的には、式6〜8はそれぞれ次の形に展開され
る。
【0099】
【数7】 a Σ(Y'-Y)2 -bΣ(X'-X)(Y'-Y)-cΣ(Y'-Y)(XY'-X'Y)=0 (式9) -a Σ(X'-X)(Y'-Y)+bΣ(X'-X)2 +cΣ(X'-X)(XY'-X'Y)=0 (式10) -a Σ(Y'-Y)(XY'-X'Y)+b Σ(X'-X)(XY'-X'Y)+c Σ(XY'-X'Y) 2 =0 (式11) 以上が並進運動に関する計算方法の例である。
【0100】2.動きが回転運動を含む場合 回転運動はx, y, z方向の3つの変位と各軸を中心と
する3つの回転角、例えばα, β, γによって記述する
ことができる。回転角はオイラー角またはロールピッチ
法などによって表現することができる。
【0101】ここで上記合計6つの変数を決定すればよ
いが、ここでも上述のごとくスケールファクターが決ま
らないため、ある変数を1として各変数の比を求める。
理論的上、代表点と対応点を5組とれば運動を記述する
ことができる。
【0102】ここで注意すべきは、組のとりかたによっ
ては動きの様子が線形解法によって求まらないことがあ
る点である。こうした場合を考慮する際、組を8以上と
ればよいことが知られている。8組の変化から線形解法
によって回転運動を記述しうる根拠については、例えば
「動きからの単眼立体視による形状認識の線形解法につ
いて」(出口・秋場、計測自動制御学会論文集vol.26,
No.6,714/720 (1990))などに示されている。
【0103】[工程3]奥行き情報の獲得工程2によっ
て映像各部位の三次元的な動きの相対量がわかった。工
程3では、この相対量から各部位の奥行き情報を導出す
る。本工程では説明のために、被写体は静止しており、
それを撮影するカメラの側が動くものと仮定する。映像
処理の際には被写体とカメラの相対運動が問題となるた
め、この仮定によって良好な結果が得られる。
【0104】映像のある部位の動きを回転行列Rと並進
ベクトル(a, b, c)により、 (x',y',z' )=R(x, y, z)+(a, b, c) と表す場合、この逆変換、
【数8】 (x, y, z)=R-1{(x',y',z' )−(a, b, c)} (式12) をカメラの動きと考える。
【0105】図10はカメラの三次元移動とある点Pの
画面上の移動から点Pの三次元座標を導く原理を説明す
る図である。同図からわかるように、この原理は一般に
三角測量の原理として知られるもので、位置の異なる2
点から点Pの方向を見たとき、点Pの現実の位置(図中
の点S)はそれら2つの視線の交点に存在するというも
のである。
【0106】同図では、時刻t〜t' の間にカメラが矢
印で示すように式12に従って移動したとする。フレー
ムtでは点Sが点Pt に、t' では点Pt'にそれぞれ投
影されている。点Sは図中の2つの直線Lt、Lt' の
交点にある。
【0107】この条件下、カメラの方向とLt、Lt'
のなす角θt、θt' は既知であり、一方カメラの移動
方向と距離が判明しているため、点Sの三次元座標を求
めることが可能となる。この座標により、映像各部位の
奥行き情報が判明する。
【0108】ここで注意すべきは、前述のごとくc=1
という正規化のため、求められた座標も一定の割合で拡
大または圧縮されていることである。しかしこの場合で
も、奥行き情報は一様に拡大圧縮されているため、奥行
きの相互関係は正しい。
【0109】以上が本工程の概要であるが、本工程では
前工程までの誤差を考慮する必要がある。誤差により、
通常は前記Lt、Lt' が計算上交わらないためであ
る。こうした事情に配慮し、本工程では両直線の最接近
点の中点のz座標を点Sの奥行き値と近似する。これを
数式によって説明する。
【0110】上記Lt、Lt' の方向ベクトルをそれぞ
れ(u, v, w)、(u',v',w')とする。ここで実
数パラメータα、βにより両直線は、 Lt :(x, y, z)+α(u, v, w) Lt' :(x',y',z' )+β(u',v',w' ) (式13) と表すことができる。従って、
【数9】 e = {(x+βu)-(x'+ αu')}2 +{(y+ βv)-(y'+ αv')}2 +{(z+βw)-(z'+ αw')}2 とし、eを最小にするα、βをde/dα=0、de/
dβ=0より求める。すなわち、
【数10】 (u2 +v2 +w2 ) α-(uu'+vv'+ww')β+(x-x')u+(y-y')v+(z-z')w=0 (u' 2 +v' 2 +w' 2 ) β-(uu'+vv'+ww')α+(x-x')u'+(y-y')v'+(z-z')w'=0 を解いてα、βを求め、最終的に点Sの奥行き値を、
【数11】{(z+αw)+(z'+ βw')}/2 とすればよい。ここで仮に誤差が0だったとすれば、こ
の座標は両直線の交点のz座標に一致する。
【0111】また別の方法として、これら両直線を一旦
フレームtの画面に透視投影し、投影後の最近接点のz
座標を求めることもできる。ここでLtは代表点である
一点に投影され、一方Lt' は一般に直線に投影され
る。Lt' が式13で表記されるならば、投影後の各点
のx、y座標は、Lt' 上の各点のそれらをそのz座標
で割ることにより、 x = f(x'+ βu')/(z'+βw') (式14) y = f(y'+ βv')/(z'+βw') (式15) と書くことができる。ここでfは視点からフレームtの
画面までの距離で、実際にはf=1などとして扱えばよ
い。式14、15からβを消去すれば投影後の直線(以
下Liという)が以下のように求まる。
【0112】kx+my+f n=0 ただしここで、 k=v'z'-w'y' 、m=w'x'-u'z' 、n=u'y'-v'x' とおいている。
【0113】求めるべき最近接点は、代表点PtからL
iに下ろした垂線とLiの交点(以下Dとする)であ
り、その座標は、 x=(m 2 X-kn-kmY)/(k 2 +m2 ) (式16) y=(k 2 Y-mn-kmX)/(k 2 +m2 ) となる。ここで点Tに対応するもとのLt' 上の点をE
(x'',y'',z'' )とすれば、点Eは、式16を式14に
代入してβを求め、これをLt' の式に代入することよ
って求められる。βは、 β=(xz'-fx' )/(fu'-xw') であるため、これを式13へ代入し、点Eのz座標 z''
は、 z'' =z'+ w'(xz'-fx' )/(fu'-xw' ) と求まる。これを点Sの奥行き値とすればよい。
【0114】なお、画像処理の際の誤差によって上記の
奥行きが負の値となる場合(点Sがカメラの後方に存在
することになる場合)、この計算結果は信頼することが
できない。このときは正の奥行き値を持つ近傍の代表点
から補間するなどの処理を行う。
【0115】以上、いずれの方法をとるかは別として、
求められた映像各部位の奥行きは、例えば代表点ごとに
数値として与えればよい。図11はフレームtにおいて
各代表点に数値が与えられた状態を示す図で、例えばP
t (2, 3)、Pt (4, 3)それぞれの奥行きは10
0、200となり、後者の実際の位置は前者よりも2倍
離れたところにあることがわかる。
【0116】[工程4]画像の生成 工程3で求められた奥行き情報に応じて、所期の画像を
生成する。いままでの工程では少なくとも2つの映像フ
レームから必要情報を抽出したが、本工程では1つの映
像フレームをもとに所期の画像を得ることができる。
【0117】(1)視点変更映像 図12、13は元の映像と視点変更映像の対応関係を示
す図である。図12には元の映像が示され、この映像は
奥行きが小さい順に「木」、「家」、「人」の映像領域
を含んでいる。一方、図13には視点変更映像が示され
ている。ここでは、視点を仮想的に右上に移動した場合
を例にしている。
【0118】これらの図からわかるように、本発明によ
れば、実際にカメラの位置を移動しなくとも、異なる視
点からの映像を得ることができる。工程3により、映像
各部位について奥行き情報を含む三次元位置座標が把握
されているためである。ここでは視点が右上に移動する
と仮定したが、これは被写体が左下に移動すると考える
ことと等価である。この左下への移動は、工程3で説明
したように、回転と並進によって表すことができる。そ
こで、本実施形態の工程1〜3を逆向きに辿ることによ
り、この仮想的な三次元移動から画像上の二次元移動を
逆算することが可能となる。この結果、図13に示す画
像が得られる。工程1〜4の画像生成過程には人が恣意
をさし挟む余地はなく、得られる画像は極めて自然なも
のとなる。
【0119】本工程では、遮蔽関係を考慮して画像を生
成することが望ましい。例えば図13の場合、視点の移
動に伴って「木」の下端が「家」の屋根に隠される。そ
こで「木」の下端の部分を「家」の画像データで塗りつ
ぶすことにより、自然な画像を生成する。実際のソフト
ウエア処理では、奥行きの大きい映像部位から順に、視
点移動後の画像を生成していけばよい。遮蔽関係を計算
によって把握したいときは、新たな視点から映像各部位
を見込む視線ベクトルが一致するか否かを判定すればよ
い。視線ベクトルが一致する2つの部位A、Bがある場
合、部位Aのほうが部位Bよりも視点に近ければ、部位
Bが部位Aによって隠されることになる。この情報に従
って画像を生成してもよい。
【0120】なお、視点変更映像を生成する場合、当然
ながら、視点の仮想的な移動距離が短いほうが正確な画
像を得ることができる。この事実を利用して、視点変更
映像には次のような用途も考えられる。
【0121】1.2眼映像から多視点映像の生成 2眼カメラによってステレオ映像が得られているとき、
仮想的に第3のカメラを設けて多視点映像を生成する。
2眼カメラの間隔は一般に小さいため、例えばこれらと
ともに小さな三角形をなす点を視点とする視点変更映像
を生成する。この映像は比較的正確であり、もとの2眼
カメラによる映像と合わせることで良好な多視点映像を
形成することができる。
【0122】2.スローモーション映像の生成 例えば時間的に最も近い2枚の異時刻フレームをフレー
ムt、t' とする。これらのフレームを撮影した視点を
それぞれ視点t、t' とする。視点はフレームt、t'
の間に視点tから視点t' に実際に移動しているが、こ
の間の映像は存在しない。そこで視点t、t' 間に仮想
的な視点を設け、視点変更映像を生成する。視点変更映
像を多数設けて順次表示すればスローモーション映像が
得られる。この際、次の効果がある。
【0123】a.本来ならコマ送り的な映像となるべき
映像の動きが極めて滑らかになる b.時間的に近いフレーム間では一般に視点の移動が少
ないため、非常に良好な映像が得られる c.視点t、t' 間の視点の移動経路を変化させれば、
異なるイメージのスローモーション映像が得られる。
【0124】なおこの技術は、当然ながら同時刻フレー
ム間に適用することもできる。
【0125】(2)一部拡大・縮小画像 画像表示技術の1つに強調表示がある。強調表示の一例
として、近い被写体はより近く、遠い被写体はより遠く
に配置しなおす場合がある。画像にメリハリを付けるた
めである。
【0126】こうした要請に答えるべく、本発明では奥
行き情報に基づいて画像の一部拡大・縮小を行う。図1
4は図12の画像の一部を拡大して生成された画像を示
す。ここでは拡大処理の対象を奥行きの小さな領域、す
なわち「人」としている。この結果、観視者に最も近い
「人」がさらに手前に知覚され、効果的な強調表示が可
能となる。ここでも(1)同様、遮蔽関係を考慮するこ
とが望ましい。
【0127】ここで注意すべきは、最小の奥行きを持つ
領域を拡大する限り、原則として拡大率に制限がないこ
とである。その領域が理論上奥行きゼロの距離に知覚さ
れてもよいためである。一方、中間の奥行きを持つ領
域、例えば図14の「家」を拡大する場合、これは
「人」よりも手前に知覚されるべきではないため、自ず
と制限が生じる。この制限を守らない場合、非常に不自
然な画像が生成される。本発明にように、奥行き情報に
基づいて拡大を行う場合、例えば、「最小の奥行きを持
つ領域のみを拡大し、最大の奥行きを持つ領域のみを縮
小する」という規則を設けることが可能となり、現実に
マッチした自然な画像(自然法則に則った画像)を得る
ことができる。
【0128】ここでは自然な画像の生成について触れた
が、逆に、敢えて不自然な画像を作りたいという要望も
ある。例えばゲームの画像において、遠い個所にあるも
のを拡大して一種のちぐはぐ感を創出するような用途が
考えられる。いずれにせよ、本実施形態の特徴はこうし
た自然感、不自然感の選択を意識的に行うことのできる
点にある。従来の手法では、ある領域を拡大してみたら
偶然自然な画像が得られた、というような事態が発生し
がちだったが、本実施形態はこうした事態を解消する。
【0129】なお、本工程の結果自然な画像を得られた
として、この画像に対し、さらに上記(1)または後述
(3)の処理を施す場合、まず拡大・縮小した領域の奥
行きを変更することが望ましい。例えば、2倍の長さに
拡大した領域については、その奥行きを約1/2にす
る。逆に、1/2の大きさに縮小した領域は奥行きを約
2倍にする。これは領域の大きさと奥行きがほぼ反比例
する事実による。この配慮により、後段の処理において
も自然な画像を得ることができる。
【0130】また、(1)と(2)の画像処理に際し
て、画像枠に現れる段差を修正して最終画像を生成して
もよい。例えば、図12の元の映像から図13の視点変
更映像を生成する場合、一般に図13に含まれるすべて
の映像部位と図12のそれらが完全に一対一に対応する
ことはない。図13の右上端は、図12の場合に比べ
て、より「家」の右上端から遠いため、図13の右上端
付近の映像の元となる映像は図12に含まれていない。
従って、図12に含まれる映像情報から単純に図13の
映像を生成する場合、右上端付近が欠ける。この部分が
図13に示す理想的な画像枠から内側に凹む。同様の理
由から、図12に含まれる剰余の映像情報は図13の画
像枠から外に飛び出す。
【0131】そこでここでは、凹部に画素を充当し、一
方凸部から余剰画素を切除することにより、画像枠(画
像領域の外形で、ここでは矩形)をもとのまま維持する
ものとする。充当は、例えば近傍の画素と同じ色の画素
によって行う。(2)の一部拡大・縮小の場合も、それ
ぞれ凸凹が発生すると考えられるため、同様の処理を施
す。こうした処理により、不自然な画像枠の表示を回避
することができる。
【0132】(3)切り出しによる画像 所期の領域を切り出して画像を生成する。例えば図12
において、「人」「家」「木」の奥行きがそれぞれ3、
10、20メートルであるとする。ここで仮に、「人」
のみを切り出す場合、例えば「奥行き5メートル以内」
という条件を与えて各部位の奥行きを検索、判定してい
けばよい。「家」の場合は「奥行き5〜15メートル」
などとする。
【0133】図15は図12の画像のうち、「家」を切
り出して生成された画像を示している。所望の領域が切
り出された後は、それ以外の領域を空白にしたり、別の
映像に切り出した領域を貼り付けることができる。
【0134】このように、本発明は一種の画像認識・加
工技術をも与える。従来、画像領域の切り出しは人手作
業または色によるクラスタリング等の手法によって行わ
れたが、本発明は奥行き情報という新しい観点から、相
当精度の高い領域認識手法を提供する。
【0135】以上が実施形態1に係る二次元表示画像生
成方法の説明である。本発明によれば、正確な奥行き情
報の導出とその利用により、新しい画像処理技術が開示
される。一連の処理は、例えばソフトウエア的にすべて
自動化することができるため、本発明の用途は広範であ
る。
【0136】実施形態2.実施形態2では実施形態1の
実施に最適な装置を説明する。
【0137】図16は実施形態1を実施するためのハー
ドウエア構成例を示す図である。
【0138】同図において、処理対象となる映像は映像
入力回路20から入力され、ここでA/D変換を受け
る。変換後の映像はフレームメモリ制御回路22によっ
てフレームメモリ24に格納される。フレームメモリ2
4の後段には、複数の映像フレームを読み出して対応点
を検出する対応点検出回路26が置かれている。この回
路は実施形態1の工程1をハードウエア的に実施するも
ので、ブロックマッチングには、例えばMPEGのエン
コーダ回路を採用することができる。
【0139】対応点検出回路26において検出された対
応点の座標は、いったん対応点座標メモリ28に格納さ
れ、動き検出回路30によって適宜読み出される。動き
検出回路30は実施形態1の工程2、3を実施するもの
で、並進・回転運動から被写体の三次元相対位置を算出
する。
【0140】つづいて三次元位置情報は画像生成回路3
2へ入力される。この回路はフレームメモリ24から元
の映像を読み出し、所定の処理を加えて画像を生成す
る。画像生成回路32の前段には、外部から各種指示を
受け付ける指示入力部34が設けられている。
【0141】こうして生成された画像は、画像出力回路
36によるD/A変換を受け、図示しないディスプレイ
装置へ出力される。
【0142】以上の構成による本装置の動作を説明す
る。
【0143】まず、カメラによって撮影された映像また
はビデオ再生装置によって再生された映像等が映像入力
回路20から入力される。この映像はフレームメモリ2
4に格納される。フレームメモリ24から読み出された
複数の映像フレームに対し、対応点検出回路26、動き
検出回路30によって被写体の奥行き情報が獲得され
る。つづいて画像生成回路32がこの奥行き情報に従
い、視点変更映像等の画像を生成する。この際、前述の
指示入力部34からの入力により、視点変更、拡大・縮
小、切り出しを行う。こうした指示は、既知のユーザー
・インタフェイスによって実現可能である。
【0144】以上、本装置をワークステーションに組み
込んで映像の奥行き情報を求めた実験の結果を図面によ
って説明する。
【0145】図17〜22は本装置による画像生成の過
程を示すもので、いずれもディスプレイ上に表示された
中間調画像の写真であり、約640×480画素領域で
構成されている。
【0146】図17と図18はそれぞれフレームtとフ
レームt' の映像で、カメラの移動によって多少映像に
動きがある。図19はフレームtをメッシュ分割して代
表点を設けた状態を示し、図20はフレームt' におけ
る対応点の初期位置を示している。ここでは特徴点を優
先的に扱い、代表点を中心とする16×16画素の領域
でブロックマッチングを行った結果の最良点を初期位置
とした。
【0147】図21は実施形態1の式3、つまり対応点
の位置関係をも考慮して対応点位置を改善した結果を示
す図で、図20に比べて位置の大幅な改善が見られる。
【0148】図22は獲得された奥行き情報を濃淡で表
したもので、薄い画素ほど奥行きが小さい。同図からわ
かるように、奥行き情報がかなり正確に得られている。
【0149】以上、本装置によれば実施形態1を円滑に
実施することができる。この際、特にブロックマッチン
グのソフトウエアによる実行時間を考慮すれば、ここを
ハードウエアで行うことによる処理速度の改善効果は大
きい。
【0150】本装置を製品とする場合の態様としては、
例えばパーソナルコンピュータやワークステーションに
図16の構成を有するアド・オンカードを搭載する方
法、テレビ受信装置やビデオ再生装置に図16の構成を
予め内蔵する方法等が有効である。本装置をカメラと組
み合わせた場合、従来必要とされたレーザ、赤外線、超
音波等による奥行きの測定が不要となる。
【0151】実施形態3.実施形態1、2では、入力映
像が単眼カメラによって撮影されるものとした。ここで
は、多眼カメラによるステレオ映像を入力映像とする場
合の二次元表示画像生成方法を、実施形態1との相違点
を中心に説明する。
【0152】図23は実施形態3によって二次元表示画
像を生成するための主な工程を示す。同図と実施形態1
の図1との主な違いは以下の通りである。
【0153】1.工程1の「動き情報」が「変位情報」
に変更される 実施形態1では異時刻フレームを扱ったが、実施形態3
では基本的に同時刻フレームを扱う。同時刻の場合、被
写体に動きを定義することはできないため、代わりに同
時刻フレーム間の被写体の位置のずれ(変位)の情報を
抽出する。
【0154】2.工程2が不要となる 図1の工程2「三次元動き情報の算出」に対応するステ
ップがない。多眼の場合、はじめから図10の状態で撮
影がなされるため、三角測量の原理によって直接的に奥
行き情報が獲得できるためである。
【0155】なお、複数カメラの相対位置関係に狂いが
発生しうる多眼カメラシステムを用いる場合、この狂い
を補正するセルフキャリブレーションを行ったほうがよ
い。この場合、工程2はセルフキャリブレーション工程
となる。セルフキャリブレーションの手法については、
例えば、富田、高橋「ステレオカメラのセルフキャリブ
レーション」(情報処理Vol.31,No.5(1990)650 〜65
9 ページ)、特開昭63−293038号公報、特開昭
63−293039号公報などに示されている。
【0156】以下、実施形態3の工程1〜3を説明す
る。
【0157】[工程1]二次元変位情報の抽出 実施形態1の説明において、「動き」を「変位」に置き
換える他、フレームt、t' の組をフレーム1、2に置
き換えればよい。フレーム1、2はそれぞれカメラ1、
2から撮影された映像を指し、撮影時刻はtで固定とす
る。実施形態3では、最低これら2枚のフレームのみか
ら最終画像を得ることができる。すなわち多眼撮影の場
合は、入力は静止映像であってもよい。その他、実施形
態1の工程1との相違は以下の通りである。
【0158】(1)実施形態1のS11(対応点候補領
域の設定)では、映像の動きの激しさまたは各部位の移
動軌跡に基づき、異時刻フレームの選択または対応点候
補領域を絞り込んで対応点検出処理の計算量削減を行っ
た。実施形態3では絞り込みの方法を以下のように変更
し、同様に有効な計算量削減を実現する。
【0159】まず、通常どおり多眼カメラが水平に設置
されると仮定する。このとき、対応点のy座標(上下方
向の座標)はほぼ等くなる。この仮定と画像処理に伴う
誤差およびカメラの設置誤差を考慮し、対応点候補領域
を横長の帯状領域に限定する。さらに、フレームt'
(t' =t−1)において対応する代表点の位置の差が
xであれば、フレームtにおける対応点探索領域も、や
はり差がxとなる近傍に限定することができる。
【0160】(2)実施形態1のS12(対応点候補領
域における非類似度の計算)では、映像の動きが緩慢過
ぎる場合に統計処理を導入したが、実施形態3ではこの
作業も不要である。
【0161】(3)実施形態1のS12同様、実施形態
3でも対応点の位置を決めるべくブロックマッチングを
行うが、ここではバイアスド・ブロックマッチングを採
用したほうがよい場合がある。バイアスド・ブロックマ
ッチングは、多眼カメラを構成する各カメラが異なる特
性を持つ場合、有効に機能する。例えば、カメラ2がカ
メラ1よりも青味がかった映像を送出するとすれば、フ
レーム2の色濃度から青(B)の成分を一定量差し引い
た後(すなわち所定の色偏向定数αB を引いた後)、ブ
ロックマッチングを行うべきである。こうした処理を行
わない場合、最良マッチングを取り逃がすおそれがあ
る。ただし実際には、例えばRGBで色濃度を表す場
合、前記の青(B)のみならず、赤(R)と緑(G)に
ついてもそれぞれ色偏向定数αR 、αG を引くべきであ
る。
【0162】図4および式1を基礎として、バイアスド
・ブロックマッチングを式で説明する。ここでは、実施
形態1で用いたPt (i, j)をフレーム1、2に対応
して単にP1、P2と表記し、It (i, j)も同様に
I1、I2と表記する。このとき式1は、
【数12】 E1= ΣΣ{I1(P1x+u,P1y+v)-I2(P2x+u,P2y+v) }2 (式18) と簡単になる。この式が濃淡画像の場合の通常のブロッ
クマッチングを表す。
【0163】一方、バイアスド・ブロックマッチングで
は、式18を、
【数13】 E1= ΣΣ{I1(P1x+u,P1y+v)-I2(P2x+u,P2y+v)-α}2 (式19) とすればよい。カラー画像の場合、αはαR 、αG また
はαB であり、RGBそれぞれの画像において求めたE
1の和、すなわちE1R +E1G +E1B でマッチング
を行う。さらに見やすさを考えて、I1(P1x+u,P1y+v) を
単にI1、I2(P2x+u,P2y+v) を単にI2と表記すれば、
式19は、 E1= ΣΣ(I1-I2-α)2 (式20) となる。I1、I2はu、vの関数であるが、αは定数
である。
【0164】αの最適値を考える。カメラ1、2は同じ
被写体を撮影しているはずだから、フレーム1、2の映
像は、映像各部位の変位は別として、ほぼ同様の内容を
含む。すなわちカメラの特性が近づくほど、式20のE
1の値は小さくなる。この事実から逆に、αはE1を最
小にする値とすべきである。式20は、
【数14】 E1=ΣΣ{(I1-I2 )2 −2 α(I1-I2 )+α2 } =ΣΣ(I1-I2 )2 −2 αΣΣ(I1-I2 )+ΣΣα2 (式21) であり、領域の総画素数をNと仮定すれば、ΣΣ1=N
だから式21は、
【数15】 E1=ΣΣ(I1-I2 )2 −2 αΣΣ(I1-I2 )+Nα2 (式22) となる。従って、 dE1/dα=−2ΣΣ(I1-I2 )+2Nα であるから、 α={ΣΣ(I1-I2 )}/N (式23) のとき、E1は最小となる。このαは、ブロックマッチ
ングの対象となる2つの領域間の各画素の色濃度差の平
均値と言い換えられる。式23を式22に代入して計算
すれば、
【数16】 E1=ΣΣ(I1-I2 )2 −{ΣΣ(I1-I2 )}2 /N (式24) となるため、結局バイアスド・ブロックマッチングでは
式24を計算すればよい。あとは実施形態1同様の処理
を経て最良マッチングを探索すればよい。
【0165】ここでは当然ながら、HVC濃度などRG
B濃度以外の色空間による濃度を採用してもよい。2乗
誤差の代わりに一般の1乗誤差、すなわち色の残差に基
づいてブロックマッチングを行ってもよい。
【0166】(4)実施形態1のS13(対応点の初期
位置の決定)では特徴点として、異時刻フレームt、
t' 、・・・において位置が安定的に変化している点を
選んだが、ここでは選定基準を加重する。
【0167】図24は実施形態3で導入される特徴点の
選定基準を示す図である。同図において、F10〜F1
2の3枚がカメラ1によって撮影された異時刻フレー
ム、F20〜F22の3枚がカメラ2によって撮影され
た異時刻フレームである。それぞれ左右2枚の組が同時
刻フレームを示す。ここではある点Pに注目し、点Pの
位置の異時刻フレーム間の動きをベクトルAnで、点P
の同時刻フレーム間の変位をベクトルBn(n:自然
数)でそれぞれ表している。
【0168】以上の設定の下、実施形態3では、次の基
準を満足する点を特徴点として選定する。
【0169】(a)ベクトルBnがほぼ一定であるか、
ほぼ一定変化する あるいは、この他、 (b)ベクトルAnがほぼ一定であるか、ほぼ一定変化
する の基準も追加し、(a)、(b)をともに満足する点を
特徴点として選定してもよい。
【0170】(b)は実施形態1で導入した条件に相当
する。既述のごとく、多眼撮影では同時刻フレームのみ
から奥行き情報を求めることができる。しかしその前提
となる映像間の対応関係の正確な把握は、これとは別問
題であり、異時刻フレーム間の情報も積極的に利用すべ
きである。上記の2条件を同時に満たす点は、相当正確
に追跡されていると考えられるため、二次元変位情報の
抽出に対して重要な手掛かりを与える。ただし入力が静
止映像の場合は、既知の動的計画法(ダイナミック・プ
ログラミング)によって対応点を求めることもできる。
【0171】[工程2]奥行き情報の獲得 工程1で求められた映像各部位の変位から各部位の奥行
き情報を導出する。多眼の場合、ある時刻tで図10の
状態が実現されるので、以下、実施形態1の工程3の方
法によって奥行き情報を獲得すればよい。
【0172】ここで注意すべきは、撮影カメラの位置関
係が固定であるため、この関係およびカメラの倍率(焦
点距離)が既知であれば、実施形態1で決まらないとさ
れたスケールファクターcも含め、実施形態3では奥行
き情報が正しく求まる。
【0173】[工程3]画像の生成 実施形態1の工程4(画像の生成)と同等の処理を行え
ばよい。
【0174】以上が実施形態3の概要である。実施形態
3の場合、一般に非常に高い精度で奥行き情報を求める
ことができ、最終画像である視点変更映像等の精度も高
くなる。
【0175】
【発明の効果】本発明によれば元の映像の奥行き情報か
ら二次元表示用の画像を生成することができ、課題であ
った機能的・技術的制約が解消される。入力映像は単
眼、多眼のいずれでもよく、適用範囲が広い。単眼の場
合はシステム構成が簡素化でき、多眼の場合は奥行きの
計算精度がさらに高くなる。
【0176】本発明によれば、複数の映像フレーム間に
おける映像各部位の二次元的な位置の変位から奥行き情
報を抽出することができる。
【0177】二次元的な位置の変位量に基づいて複数の
映像フレームを選択する場合は、計算途上の誤差が減
る。
【0178】二次元的な位置の変位量を統計的に処理す
る場合は、選択の最適化、客観化が可能となる。
【0179】映像各部位の動きベクトルの分散が所定値
よりも大きくなるように複数の映像フレームを選択する
場合は、選択の客観化に加え、計算精度の保証が可能と
なる。 分散が大きくなるような選択ができない場合、
通常の映像表示等、他の表示で代替できる。
【0180】二次元的な位置の変化から映像各部位が現
実の三次元空間において占める相対位置関係を導出する
場合は、奥行きを正しく求めることができる。
【0181】映像各部位の三次元的な動きから三角測量
の原理によって映像各部位の三次元空間における位置座
標を算出する場合は、奥行きの決定を容易かつ正確に行
うことができる。
【0182】本発明では、代表点と対応点という概念を
導入したため、動き情報の把握が容易になる。
【0183】代表点と対応点の位置関係から他の異時刻
フレームの対応点の位置を予想する場合は、対応点探索
の計算量が削減される。
【0184】代表点のうち幾何的に特徴のある映像領域
に関連するものについては、対応点の関連する映像領域
についてもその特徴が維持されるため、対応点の位置精
度が高い。
【0185】幾何的に特徴のある映像領域として直線を
含む領域を採用する場合は、対応点の位置精度が改善さ
れる。
【0186】複数の映像フレーム間で映像の類似度が高
い点を対応点とする場合は、対応点を正しく求めること
ができる。
【0187】映像の類似性のみならず、対応点間の相対
位置の妥当性も評価する場合は、両評価の結果から対応
点の位置精度を改善することができる。
【0188】前記各評価の結果が統合され、繰り返し計
算がなされる場合は、対応点の位置精度を徐々に改善し
ていくことができる。
【0189】前記類似性の評価をブロックマッチングに
よって行う場合は、容易かつ妥当な評価が可能となる。
【0190】ブロックマッチングでは、色濃度のn乗誤
差が計算されるため、映像に応じて実験等により最適の
条件を設定することができる。
【0191】バイアスド・ブロックマッチングを行う場
合は、特に多眼撮影された入力映像に対して良好な二次
元表示画像の生成が可能となる。
【0192】色偏向定数をn乗誤差総和が最小となるよ
う決めらる場合は、評価結果の信頼性が高まる。
【0193】色偏向定数として映像領域間の各画素の色
濃度差の平均値を採用する場合は、2乗誤差総和が最小
となり、評価結果の信頼性が高まる。
【0194】特徴点の対応点を優先的に決める場合は、
対応点の位置精度が高まる。
【0195】特徴点である対応点を補間することで非特
徴点である対応点を決める場合は、非特徴点の対応点の
位置精度も必然的に高くなる。
【0196】複数の映像フレーム間でブロックマッチン
グを行って特徴点を決める場合は、特徴点選定の客観
化、選定結果の妥当性向上が可能となる。
【0197】異時刻フレームで位置の変化が安定して発
生する点を特徴点とした場合、かかる点は精度よく追跡
されているため、その位置精度が高い。
【0198】同時刻フレーム間における位置の変位が、
その近傍時刻に撮影された同時刻フレーム間においても
ほぼ一定となるか点を特徴点とする場合、多眼映像から
二次元表示画像を良好に生成することができる。
【0199】奥行き情報に従って視点変更映像を生成す
る場合は、カメラの実際の移動が不要である。生成され
る画像も自然である。2眼映像から多視点映像を生成し
たり、滑らかなスローモーション映像を作ることも可能
となる。
【0200】前記奥行き情報を基準とし、映像の一部拡
大・縮小を行う場合は、画像の自然さを失うことなく、
強調表示等が可能となる。奥行きの小さい領域を拡大し
たり、逆に大きな領域を縮小する場合は特に効果的であ
る。
【0201】これらの画像処理によって発生する画像端
部の段差を修正する場合は、もとの映像同様、自然な画
像枠を再生することができる。
【0202】奥行き情報に従って映像領域を切り出しを
行う場合は、従来と全く異なる観点から相当正確な切り
出しが可能となる。映像各部位のうち所定範囲の奥行き
を持つ部位を切り出す場合は、映像の貼り付け等、画像
加工処理が可能となる。
【図面の簡単な説明】
【図1】 実施形態1によって二次元表示画像を生成す
るための主な工程を示す図である。
【図2】 映像フレーム間の対応関係を検出するための
フローチャートである。
【図3】 基準フレームtに代表点を設定する様子を示
す図である。
【図4】 ブロックマッチングの様子を示す図である。
【図5】 仮の対応点Pt'(i, j)ごとにEの値を縦
方向に示した模式図である。
【図6】 S12ステップの結果求められた対応点と代
表点の関係を示す図である。
【図7】 対応点の相対位置を評価する原理を説明する
図である。
【図8】 図6の対応点候補に対して本ステップの改善
処理を行った結果を示す図である。
【図9】 ある点Pの画面上の移動と三次元空間での移
動の対応を示す図である。
【図10】 カメラの三次元移動とある点Pの画面上の
移動から点Pの三次元座標を導く原理を説明する図であ
る。
【図11】 フレームtにおいて各代表点に数値が与え
られた状態を示す図である。
【図12】 元の映像と視点変更映像の対応関係を示す
図である。
【図13】 元の映像と視点変更映像の対応関係を示す
図である。
【図14】 画像の一部を拡大して生成された画像を示
す図である。
【図15】 図12の画像のうち、「家」を切り出して
生成された画像を示す図である。
【図16】 実施形態1を実施するためのハードウエア
構成例を示す図である。
【図17】 フレームtの映像をディスプレイ上に表示
した中間調画像の写真である。
【図18】 フレームt' の映像をディスプレイ上に表
示した中間調画像の写真である。
【図19】 フレームtをメッシュ状に分割して代表点
を設けた状態をディスプレイ上に表示した中間調画像の
写真である。
【図20】 フレームt' における対応点の初期位置を
ディスプレイ上に表示した中間調画像の写真である。
【図21】 対応点位置を改善した結果をディスプレイ
上に表示した中間調画像の写真である。
【図22】 奥行き情報を濃淡でディスプレイ上に表示
した中間調画像の写真である。
【図23】 実施形態3によって二次元表示画像を生成
するための主な工程を示す図である。
【図24】 実施形態3で導入される特徴点の選定基準
を示す図である。
【符号の説明】
20 映像入力回路、22 フレームメモリ制御回路、
24 フレームメモリ、26 対応点検出回路、28
対応点座標メモリ、30 動き検出回路、32画像生成
回路、34 指示入力部、36 画像出力回路。
───────────────────────────────────────────────────── フロントページの続き (72)発明者 荒川 勉 大阪府守口市京阪本通2丁目5番5号 三洋電機株式会社内 (56)参考文献 特開 平7−162744(JP,A) 特開 平5−250459(JP,A) 特開 平6−203163(JP,A) 特開 平4−4476(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06T 1/00 G06T 3/00 - 3/60 G06T 7/00,7/20

Claims (35)

    (57)【特許請求の範囲】
  1. 【請求項1】 処理の対象となる元の映像から該映像の
    奥行き情報を抽出し、この情報に従って二次元表示用の
    画像を生成する二次元表示画像生成方法であって、 複数の映像フレーム間相互における二次元的な位置の変
    位を検出する二次元的位置変化検出ステップと、 前記複数の映像フレーム数以下の所定の複数フレームを
    選択する複数フレーム選択ステップと、 前記選択された所定の複数フレーム間相互における映像
    各部位の二次元的な位置の変位から前記映像各部位が現
    実の三次元空間において占める相対位置関係を導出し、
    その結果に従って前記奥行きを決定する奥行き決定ステ
    ップと、 を有し、 前記複数の映像フレームは異なる時刻に撮影されたもの
    であり、前記複数フレーム選択ステップでは、前記二次
    元的位置変化検出ステップで検出された映像フレーム間
    の位置変化量に基づいて、所定の複数フレーム間の二次
    元的な位置の変位量を更に求め、該変化量と所定値とを
    比較することによって前記所定の複数フレームから特定
    の複数の映像フレームを選択することを特徴とする二次
    元表示画像生成方法。
  2. 【請求項2】 処理の対象となる元の映像から該映像の
    奥行き情報を抽出し、この情報に従って二次元表示用の
    画像を生成する二次元表示画像生成方法であって、 複数の映像フレーム間相互における二次元的な位置の変
    位を検出する二次元的位置変化検出ステップと、 前記複数の映像フレーム数以下の所定の複数フレームを
    選択する複数フレーム選択ステップと、 前記選択された所定の複数フレーム間相互における映像
    各部位の二次元的な位置の変位から前記映像各部位が現
    実の三次元空間において占める相対位置関係を導出し、
    その結果に従って前記奥行きを決定する奥行き決定ステ
    ップと、 を有し、 前記複数の映像フレームは異なる時刻に撮影されたもの
    であり、前記複数フレーム選択ステップでは、前記二次
    元的位置変化検出ステップで検出された映像フレーム間
    の位置変化量に基づいて、所定の複数フレーム間の二次
    元的な位置の変位量を更に求め、該変化量の平均値が所
    定値より大きくなるよう前記所定の複数フレームから特
    定の複数の映像フレームを選択することを特徴とする二
    次元表示画像生成方法。
  3. 【請求項3】 処理の対象となる元の映像から該映像の
    奥行き情報を抽出し、この情報に従って二次元表示用の
    画像を生成する二次元表示画像生成方法であって、 複数の映像フレーム間相互における二次元的な位置の変
    位を検出する二次元的位置変化検出ステップと、 前記複数の映像フレーム数以下の所定の複数フレームを
    選択する複数フレーム選択ステップと、 前記選択された所定の複数フレーム間相互における映像
    各部位の二次元的な位置の変位から前記映像各部位が現
    実の三次元空間において占める相対位置関係を導出し、
    その結果に従って前記奥行きを決定する奥行き決定ステ
    ップと、 を有し、 前記複数の映像フレームは異なる時刻に撮影されたもの
    であり、前記複数フレーム選択ステップでは、前記二次
    元的位置変化検出ステップで検出された映像フレーム間
    の位置変化量に基づいて、所定の複数フレーム間の動き
    ベクトルの分散を求め、該分散値が所定値より大きくな
    るよう前記所定の複数の映像フレームから特定の複数の
    映像フレームを選択することを特徴とする二次元表示画
    像生成方法。
  4. 【請求項4】 請求項3に記載の二次元表示画像生成方
    法において、前記分散値が所定値より大きくなるような
    所定の複数の映像フレームを選択することができない場
    合には、二次元表示用画像の生成を中止することを特徴
    とする二次元表示画像生成方法。
  5. 【請求項5】 請求項1〜4のいずれかに記載の二次元
    表示画像生成方法において、前記二次元的な位置の変位
    から前記映像各部位の三次元的な動きを算出し、この動
    きから三角測量の原理によって前記映像各部位の三次元
    空間における位置座標を算出し、その結果に従って前記
    奥行きを決定することを特徴とする二次元表示画像生成
    方法。
  6. 【請求項6】 処理の対象となる元の映像から該映像の
    奥行き情報を抽出し、この情報に従って二次元表示用の
    画像を生成する二次元表示画像生成方法であって、 複数の映像フレーム間相互における二次元的な位置の変
    位を検出する二次元的位置変化検出ステップと、 前記複数の映像フレーム数以下の所定の複数フレームを
    選択する複数フレーム選択ステップと、 前記選択された所定の複数フレーム間相互における映像
    各部位の二次元的な位置の変位から前記映像各部位が現
    実の三次元空間において占める相対位置関係を導出し、
    その結果に従って前記奥行きを決定する奥行き決定ステ
    ップと、 を有し、 前記複数の映像フレームは異なる時刻に撮影されたもの
    であり、前記複数フレーム選択ステップでは、前記二次
    元的位置変化検出ステップで検出された映像フレーム間
    の位置変化量に基づいて、所定の複数フレーム間の二次
    元的な位置の変位量を更に求め、該変化量と所定値とを
    比較することによって前記所定の複数フレームから特定
    の複数の映像フレームを選択し、前記奥行き決定ステッ
    プでは、前記所定の複数フレームのうち、基準となる映
    像フレームに代表点を設定し、他の映像フレームにおけ
    る前記代表点の対応点を求め、これら代表点と対応点と
    の位置関係を求めることによって、前記映像各部位の二
    次元的な位置の変化を認識することを特徴とする二次元
    表示画像生成方法。
  7. 【請求項7】 請求項6に記載の二次元表示画像生成方
    法において、前記基準となる映像フレームと前記他の映
    像フレームが異なる時刻に撮影されたものであるとき、
    前記代表点と前記対応点との位置関係から、さらに他の
    映像フレームの対応点の位置を予想し、対応点を探索す
    べき領域を限定することを特徴とする二次元表示画像生
    成方法。
  8. 【請求項8】 請求項6、7のいずれかに記載の二次元
    表示画像生成方法において、前記代表点のうち、幾何的
    に特徴のある映像領域に関連するものについては、それ
    ら代表点の対応点の関連する映像領域についても前記幾
    何的な特徴が維持されるよう、前記対応点の位置を調整
    することを特徴とする二次元表示画像生成方法。
  9. 【請求項9】 請求項8に記載の二次元表示画像生成方
    法において、前記幾何的に特徴のある映像領域は、直線
    を含む領域であることを特徴とする二次元表示画像生成
    方法。
  10. 【請求項10】 請求項6に記載の二次元表示画像生成
    方法において、前記他の映像フレームにおける特定点近
    傍の映像領域と、前記基準となる映像フレームの代表点
    近傍の映像領域間で映像の類似性を評価し、この評価結
    果が良好な場合に前記特定点をもって前記代表点の対応
    点と決めることを特徴とする二次元表示画像生成方法。
  11. 【請求項11】 請求項6に記載の二次元表示画像生成
    方法において、前記他の映像フレームにおける特定点近
    傍の映像領域と、前記基準となる映像フレームの代表点
    近傍の映像領域間で映像の類似性を評価し、前記特定点
    間の相対位置の妥当性を評価し、これら両評価の結果が
    良好な場合に前記特定点をもって前記代表点の対応点と
    決めることを特徴とする二次元表示画像生成方法。
  12. 【請求項12】 請求項11に記載の二次元表示画像生
    成方法において、前記各評価の結果を数値化して統合
    し、前記対応点の位置を変化させながら前記数値を再計
    算し、繰り返し計算を通して前記対応点の位置精度を改
    善することを特徴とする二次元表示画像生成方法。
  13. 【請求項13】 請求項12に記載の二次元表示画像生
    成方法において、一旦全対応点の位置を固定した上で、
    1つの対応点のみを移動させながら前記各評価の結果が
    最良となる点を探索し、探索された最良点の位置を前記
    1つの対応点の新たな位置とし、これらの探索および位
    置の変更を順次全対応点について行うことを特徴とする
    二次元表示画像生成方法。
  14. 【請求項14】 請求項13に記載の二次元表示画像生
    成方法において、前記探索および位置の変更を全対応点
    について行った後、統合された各評価の数値が極値をと
    る条件を表すオイラー方程式を数値的に解くことによ
    り、前記対応点の位置精度を改善することを特徴とする
    二次元表示画像生成方法。
  15. 【請求項15】 請求項10〜14のいずれかに記載の
    二次元表示画像生成方法において、前記類似性の評価が
    ブロックマッチングによって行われることを特徴とする
    二次元表示画像生成方法。
  16. 【請求項16】 請求項15に記載の二次元表示画像生
    成方法において、前記ブロックマッチングでは、比較す
    べき映像領域の間で色濃度のn乗誤差総和(nは1また
    は2)が計算されることを特徴とする二次元表示画像生
    成方法。
  17. 【請求項17】 請求項16に記載の二次元表示画像生
    成方法において、前記色濃度に対して、所定の色偏向定
    数を考慮して前記ブロックマッチングを行うことを特徴
    とする二次元表示画像生成方法。
  18. 【請求項18】 請求項17に記載の二次元表示画像生
    成方法において、前記色偏向定数は、前記n乗誤差総和
    が最小となるよう決められることを特徴とする二次元表
    示画像生成方法。
  19. 【請求項19】 請求項18に記載の二次元表示画像生
    成方法において、前記色偏向定数は、前記映像領域間の
    各画素の色濃度差の平均値であり、前記ブロックマッチ
    ングは、前記映像領域間で各画素の色濃度差から前記色
    偏向定数を減算した後に2乗誤差総和を算出することを
    特徴とする二次元表示画像生成方法。
  20. 【請求項20】 請求項10〜14のいずれかに記載の
    二次元表示画像生成方法において、映像に含まれる点を
    特徴点と非特徴点に分類し、特徴点である代表点につい
    て優先的に対応点を決めることを特徴とする二次元表示
    画像生成方法。
  21. 【請求項21】 請求項20に記載の二次元表示画像生
    成方法において、前記特徴点である対応点を補間して前
    記非特徴点である対応点を決めることを特徴とする二次
    元表示画像生成方法。
  22. 【請求項22】 請求項20に記載の二次元表示画像生
    成方法において、前記基準となる映像フレームと前記他
    の映像フレームの間でブロックマッチングを行い、その
    結果、代表点との対応が良好である対応点を前記特徴点
    とすることを特徴とする二次元表示画像生成方法。
  23. 【請求項23】 請求項20に記載の二次元表示画像生
    成方法において、前記特徴点は、撮影時刻の異なる複数
    の映像フレームにおいて位置が安定的に変化している点
    であることを特徴とする二次元表示画像生成方法。
  24. 【請求項24】 請求項20に記載の二次元表示画像生
    成方法において、前記特徴点は、同時に撮影された映像
    フレーム間における位置の変位が、その近傍時刻におい
    て同時に撮影された映像フレーム間においてもほぼ一定
    であるか、または一定変化する点であることを特徴とす
    る二次元表示画像生成方法。
  25. 【請求項25】 請求項1〜24のいずれかに記載の二
    次元表示画像生成方法において、前記奥行き情報に従
    い、映像の視点を仮想的に変更したときに得られるべき
    視点変更映像を生成することを特徴とする二次元表示画
    像生成方法。
  26. 【請求項26】 請求項25に記載の二次元表示画像生
    成方法において、想定される視点の変更に伴う映像各部
    位の位置の変位を前記奥行き情報から逆算し、その位置
    の変位に従って映像を再構築することにより、前記視点
    変更映像を生成することを特徴とする二次元表示画像生
    成方法。
  27. 【請求項27】 請求項25、26のいずれかに記載の
    二次元表示画像生成方法において、元の映像が2眼カメ
    ラによって撮影されたものであるとき、これら2眼から
    十分に近い位置に仮想カメラを想定し、この仮想カメラ
    から撮影されるべき映像を視点変更映像として生成し、
    この視点変更映像と前記2眼カメラによって撮影された
    現実の映像とによって多視点映像を生成することを特徴
    とする二次元表示画像生成方法。
  28. 【請求項28】 請求項25〜27のいずれかに記載の
    二次元表示画像生成方法において、映像の視点を、ある
    映像フレームを撮影した視点から別の映像フレームを撮
    影した視点まで仮想的に移動させながら、移動経路上の
    任意の個所を視点とする視点変更映像を生成することを
    特徴とする二次元表示画像生成方法。
  29. 【請求項29】 処理の対象となる元の映像から該映像
    の奥行き情報を抽出し、この情報に従って二次元表示用
    の画像を生成する二次元表示画像生成方法であって、 複数の映像フレーム間相互における二次元的な位置の変
    位を検出する二次元的位置変化検出ステップと、 前記複数の映像フレーム数以下の所定の複数フレームを
    選択する複数フレーム選択ステップと、 前記選択された所定の複数フレーム間相互における映像
    各部位の二次元的な位置の変位から前記映像各部位が現
    実の三次元空間において占める相対位置関係を導出し、
    その結果に従って前記奥行きを決定する奥行き決定ステ
    ップと、 を有し、 前記複数の映像フレームは異なる時刻に撮影されたもの
    であり、前記複数フレーム選択ステップでは、前記二次
    元的位置変化検出ステップで検出された映像フレーム間
    の位置変化量に基づいて、所定の複数フレーム間の二次
    元的な位置の変位量を更に求め、該変化量と所定値とを
    比較することによって前記所定の複数フレームを選択す
    ることを特徴とする二次元表示画像生成方法。
  30. 【請求項30】 請求項29に記載の二次元表示画像生
    成方法において、前記元の映像の一部領域として奥行き
    が小さな領域を選定し、該領域を拡大した上で画像を生
    成することを特徴とする二次元表示画像生成方法。
  31. 【請求項31】 請求項29に記載の二次元表示画像生
    成方法において、前記元の映像の一部領域として奥行き
    が大きな領域を選定し、該領域を縮小した上で画像を生
    成することを特徴とする二次元表示画像生成方法。
  32. 【請求項32】 請求項25〜31のいずれかに記載の
    二次元表示画像生成方法において、画像の処理に伴って
    画像枠に現れる段差を修正することを特徴とする二次元
    表示画像生成方法。
  33. 【請求項33】 請求項1〜32のいずれかに記載の二
    次元表示画像生成方法において、前記奥行き情報に従
    い、所望の映像領域を切り出して画像を生成することを
    特徴とする二次元表示画像生成方法。
  34. 【請求項34】 請求項33に記載の二次元表示画像生
    成方法において、映像各部位のうち所定範囲の奥行きを
    持つ部位を選定することによって前記切り出しを行うこ
    とを特徴とする二次元表示画像生成方法。
  35. 【請求項35】 請求項33、34のいずれかに記載の
    二次元表示画像生成方法において、前記切り出しの後、
    切り出された映像領域を別の映像に重ねることによって
    新たな画像を生成することを特徴とする二次元表示画像
    生成方法。
JP25677295A 1995-03-29 1995-09-08 二次元表示画像生成方法 Expired - Fee Related JP3197801B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP25677295A JP3197801B2 (ja) 1995-09-08 1995-09-08 二次元表示画像生成方法
KR1019960008266A KR100414629B1 (ko) 1995-03-29 1996-03-26 3차원표시화상생성방법,깊이정보를이용한화상처리방법,깊이정보생성방법
US08/622,047 US6384859B1 (en) 1995-03-29 1996-03-26 Methods for creating an image for a three-dimensional display, for calculating depth information and for image processing using the depth information
EP96105004A EP0735512B1 (en) 1995-03-29 1996-03-28 Methods for selecting two frames of a two-dimensional image sequence to form the basis for calculating the relative depth of image objects
DE69621509T DE69621509T2 (de) 1995-03-29 1996-03-28 Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten
EP01119254A EP1150253A2 (en) 1995-03-29 1996-03-28 Methods for creating an image for a three-dimensional display, for calculating depth information, and for image processing using the depth information
EP01119255A EP1150254A3 (en) 1995-03-29 1996-03-28 Methods for creating an image for a three-dimensional display, for calculating depth information, and for image processing using the depth information
CN96108487A CN1132123C (zh) 1995-03-29 1996-03-29 计算深度信息的方法和使用深度信息进行图象处理的方法
US09/916,869 US20010045979A1 (en) 1995-03-29 2001-07-26 Methods for creating an image for a three-dimensional display, for calculating depth information, and for image processing using the depth information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP25677295A JP3197801B2 (ja) 1995-09-08 1995-09-08 二次元表示画像生成方法

Publications (2)

Publication Number Publication Date
JPH0981746A JPH0981746A (ja) 1997-03-28
JP3197801B2 true JP3197801B2 (ja) 2001-08-13

Family

ID=17297239

Family Applications (1)

Application Number Title Priority Date Filing Date
JP25677295A Expired - Fee Related JP3197801B2 (ja) 1995-03-29 1995-09-08 二次元表示画像生成方法

Country Status (1)

Country Link
JP (1) JP3197801B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157018A (zh) * 2011-03-02 2011-08-17 中国科学院空间科学与应用研究中心 一种开放单叶双曲面投影方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3077745B2 (ja) 1997-07-31 2000-08-14 日本電気株式会社 データ処理方法および装置、情報記憶媒体
KR100304662B1 (ko) * 1998-01-21 2001-09-29 윤종용 2차원 영상 시퀀스를 이용한 스테레오 영상 생성장치 및 방법
JP2002230575A (ja) 2000-11-30 2002-08-16 Monolith Co Ltd 映像効果方法および装置
JP4177689B2 (ja) * 2003-03-18 2008-11-05 日本放送協会 映像特徴情報生成装置
JP5034733B2 (ja) * 2007-07-13 2012-09-26 カシオ計算機株式会社 特徴点追跡装置及びプログラム
WO2010073513A1 (ja) 2008-12-26 2010-07-01 日本ビクター株式会社 画像符号化装置、画像符号化方法およびそのプログラム、ならびに画像復号装置、画像復号方法およびそのプログラム
JP5249088B2 (ja) * 2009-03-03 2013-07-31 Kddi株式会社 画像検索システム
DE102009041328A1 (de) * 2009-09-15 2011-03-24 Natural View Systems Gmbh Verfahren und Vorrichtung zum Erzeugen von Teilansichten und/oder einer Raumbildvorlage aus einer 2D-Ansicht für eine stereoskopische Wiedergabe
JP5516444B2 (ja) * 2011-01-31 2014-06-11 富士通株式会社 サムネイル抽出プログラム及びサムネイル抽出方法
TWI489859B (zh) * 2011-11-01 2015-06-21 Inst Information Industry 影像形變方法及其電腦程式產品

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102157018A (zh) * 2011-03-02 2011-08-17 中国科学院空间科学与应用研究中心 一种开放单叶双曲面投影方法

Also Published As

Publication number Publication date
JPH0981746A (ja) 1997-03-28

Similar Documents

Publication Publication Date Title
JPH08331607A (ja) 三次元表示画像生成方法
EP0735512B1 (en) Methods for selecting two frames of a two-dimensional image sequence to form the basis for calculating the relative depth of image objects
US8009897B2 (en) Method and apparatus for image matching
US9117295B2 (en) Refinement of depth maps by fusion of multiple estimates
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
JP3593466B2 (ja) 仮想視点画像生成方法およびその装置
KR101038402B1 (ko) 모노스코픽 저전력 이동 디바이스에 의한 스테레오 이미지 및 비디오의 실-시간 포착 및 생성
US20150379720A1 (en) Methods for converting two-dimensional images into three-dimensional images
KR101969082B1 (ko) 다수의 카메라를 이용한 최적의 구형 영상 획득 방법
WO1999026198A2 (en) System and method for merging objects into an image sequence without prior knowledge of the scene in the image sequence
US20140035917A1 (en) Techniques for automating stereo settings for stereoscopic computer animation
JP3197801B2 (ja) 二次元表示画像生成方法
CN111866523B (zh) 全景视频合成方法、装置、电子设备和计算机存储介质
US11138743B2 (en) Method and apparatus for a synchronous motion of a human body model
JP3561446B2 (ja) 画像生成方法及びその装置
Park et al. Efficient viewer-centric depth adjustment based on virtual fronto-parallel planar projection in stereo 3D images
CN110197529B (zh) 室内空间三维重建方法
CN111179281A (zh) 人体图像提取方法及人体动作视频提取方法
US20240013492A1 (en) Image processing apparatus, image processing method, and image processing system
JPH10208074A (ja) 画像生成方法
JPH1042273A (ja) 三次元位置認識利用システム
CN117061720B (zh) 基于单目图像及深度图像渲染的立体图像对生成方法
KR20020075965A (ko) 스틸 사진을 이용한 가상 네비게이션 구현 방법
KR20230082949A (ko) 동적 프로젝션을 수행하는 장치
Chowdhary et al. An efficient method of depth map generation and rendering to convert 2D video to 3D

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080608

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090608

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees