JP2005049999A - Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored - Google Patents
Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored Download PDFInfo
- Publication number
- JP2005049999A JP2005049999A JP2003204006A JP2003204006A JP2005049999A JP 2005049999 A JP2005049999 A JP 2005049999A JP 2003204006 A JP2003204006 A JP 2003204006A JP 2003204006 A JP2003204006 A JP 2003204006A JP 2005049999 A JP2005049999 A JP 2005049999A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- subject
- center position
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000010365 information processing Effects 0.000 title claims description 8
- 238000003384 imaging method Methods 0.000 claims abstract description 147
- 238000001514 detection method Methods 0.000 claims abstract description 53
- 238000006243 chemical reaction Methods 0.000 claims abstract description 47
- 230000036544 posture Effects 0.000 description 77
- 238000013519 translation Methods 0.000 description 71
- 230000000875 corresponding effect Effects 0.000 description 61
- 239000013598 vector Substances 0.000 description 41
- 238000004364 calculation method Methods 0.000 description 37
- 230000003287 optical effect Effects 0.000 description 37
- 238000010586 diagram Methods 0.000 description 35
- 238000012545 processing Methods 0.000 description 32
- 230000001133 acceleration Effects 0.000 description 26
- 238000000605 extraction Methods 0.000 description 22
- 238000012546 transfer Methods 0.000 description 21
- 239000011159 matrix material Substances 0.000 description 7
- 230000005484 gravity Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 3
- 230000015556 catabolic process Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000000725 suspension Substances 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、デジタルカメラやビデオカメラなどにより同一の被写体を様々な視点で撮影した撮影画像群を表示装置などへ3次元的に表示するための画像処理技術に関する。
【0002】
【従来の技術】
電子技術の飛躍的な進歩によりデジタルカメラのコストが安価になったことに伴って、デジタルカメラの普及が急速に進んだ。デジタルカメラが小型で持ち運びに便利なこと、様々な機器に容易に備え付けられることなどから、デジタルカメラで撮影した画像情報を利用するアプリケーションの開発がおこなわれている。このようなアプリケーション例の一つに電子商取引の広告が挙げられる。デジタルカメラで商品を撮影した画像をWeb(多くの利用者がネットワークを介して自分の情報処理装置の画面で見ることができるように提供されている電子化情報源)上に掲載するのである。この際、商品を一方向から撮影した画像だけでは、その方向だけでしか商品の外観を見ることができないので、様々な方向から撮影した複数枚の画像を掲載することが必要となる。
複数枚画像の表現方法としては、画像を単純に並べて表示する方法も可能であるが、複数枚の画像がただ単純に並んでいるだけでは、商品全体のイメージが掴みにくい。これを解決するために、複数枚の画像群から商品の3次元形状を算出し、ポリゴンを生成し、ポリゴン上に画像テクスチャを貼り付けたものを表示することにより商品を3次元画像で表現して商品イメージを掴みやすくさせる手法がある。しかし、デジタルカメラで撮影された画像群から3次元形状を精度良く計測することは困難であり、その結果、計測した3次元形状に画像テクスチャを貼り付けて3次元画像を生成すると画質が劣化するという問題があった。
このような問題の解決方法として、撮影した画像群を利用者の指示に応じて切り替えることにより商品を3次元的に表示するQuickTime(登録商標)VRなどの表現方法がある。このような表現方法は、画質を劣化させることなく商品のイメージを掴みやすくさせることができるということで期待されている。しかし、前記したQuickTime(登録商標)VRなどの表現方法では、利用者の指示に応じて画像群が切替わるように、商品を撮影した際のデジタルカメラと商品との撮影位置関係を画像群データに保存しなければならない。そのため、デジタルカメラと商品の撮影位置関係を計測する必要があり、一般的にQuickTime(登録商標)VRなどの画像群を撮影するときには、QuickTime(登録商標)VR画像撮影専用装置を使用する。
【0003】
なお、特開平9−81790号公報記載の従来技術では、加速度センサや角速度センサなどによりカメラの動きを検出し、異なる視点からの光軸が任意の点で交わるように光軸方向を補正して3次元画像を生成する。その際、センサ情報と予め設定した被写体・カメラ間距離から算出した動きベクトルの推定値と、画像処理により求めた動きベクトルとの比較により被写体の検出をおこなう。
また、特開平9−186957号公報に示された従来技術では、複数の撮像手段の位置ベクトル(X,Y,Z)と姿勢(θ,φ)を撮影した画像情報に付加して保存することにより、同一の被写体を様々な視点から撮影した画像群を用いて撮影した画像群を3次元的に表示するように記録する。
また、特開平9−245195号公報に示された従来技術では、異なる視点から撮影された画像群を光線空間に射影し、光線空間全域に光線空間データを作成することにより光線空間データから撮影した視点とは異なる任意視点の画像を生成する。
また、特開平11−306363号公報に示された従来技術では、撮影装置に姿勢検出センサを取り付け、撮像装置の位置を移動させた際に変化する姿勢情報をセンサ情報から算出し、並進移動情報は少なくとも2枚以上の画像内にある対応点の位置情報から算出することにより移動した撮像装置の位置情報を精度良く算出し被写体の3次元形状を計測する。
また、特開2001−177850公報に示された従来技術では、撮像手段に姿勢センサを取り付けて姿勢情報を検出し、画像信号の変化分から移動速度を求めて並進成分情報を算出する。これにより、姿勢情報と並進成分情報から被写体の3次元空間内の位置を検出し、被写体を3次元空間内の位置から画像平面に投影する。
【特許文献1】特開平9−81790号公報
【特許文献2】特開平9−186957号公報
【特許文献3】特開平9−245195号公報
【特許文献4】特開平11−306363号公報
【特許文献5】特開2001−177850公報
【特許文献6】特開平11−37736号公報
【0004】
【発明が解決しようとする課題】
前記したように、QuickTime(登録商標)VRなどの表現方法では、一般的にQuickTime(登録商標)VRなどの画像群を撮影する場合、QuickTime(登録商標)VR画像撮影専用装置を使用するなど特殊な撮影環境でなければQuickTime(登録商標)VRの画像群を生成できず、したがって、専用装置を持っていない一般の人々がQuickTime(登録商標)VR形式の画像を生成することは困難であり、そのため、QuickTime(登録商標)VR形式の表示は商品イメージを掴みやすくする表現方法でありながらも、一部のWebサイトでしか用いられていないという問題があった。
また、特開平9−81790号公報記載の従来技術では、被写体とカメラの距離が予め設定されているので、特定の撮影条件下でしか3次元画像を生成できないし、光軸の向きを変えるための駆動機構が必要であるので、装置の構造が複雑になる。
また、特開平9−186957号公報記載の従来技術では、位置ベクトル(X,Y,Z)と姿勢(θ,φ)が既知である、固定された複数の撮像手段を主に対象にしているので、単眼の撮像手段である場合には、位置ベクトル(X,Y,Z)と姿勢(θ,φ)を算出することができず、撮影した画像に位置・姿勢情報を付加して保存することができない。また、撮影画像面の中心位置からずれて被写体が投影された場合に関して考慮していないので、撮影時に画像面の中心に被写体が投影されるように撮影しなければ、複数の画像間で被写体の投影されている位置が変化していまい、利用者の指示により画像を切り替えたときに画像面上で被写体が上下左右に平行移動してしまい、3次元的に表示することができない。
【0005】
また、特開平9−245195号公報に示された従来技術では、姿勢情報と並進成分情報が既知である場合を対象にしているので、単眼の撮像手段を使用するときなど姿勢情報や並進成分情報が不明である場合には、光線空間データを生成することができない。したがって、複数枚の画像から、撮影した視点とは異なる任意視点の画像を生成することもできなくなる。
また、特開平11−306363号公報に示された従来技術では、被写体の3次元的形状を作成するには、画像内の対応点を数多く検出しなければならないので、誤対応点が含まれる可能性が高くなり、3次元形状の計測精度が低下し、画像劣化を生ずる可能性がある。
また、特開2001−177850公報に示された従来技術では、ビデオカメラなどで連続的に被写体を撮影する場合を想定して撮影画像信号の変化分から並進成分情報を算出しているので、デジタルカメラなど非連続的に被写体を撮影した場合には、撮影画像信号の変化分が大きくなり、並進成分情報の精度を正確に算出することができない。
本発明の目的は、このような従来技術の問題を解決することにあり、具体的には、専用装置を持っていない一般の人々でもデジタルカメラなど単眼の撮像装置を使用して、同一の被写体を簡単に様々な視点から撮影し、例えばQuickTime(登録商標)VR形式の画像群を保存することにより、高画質の3次元画像を特定の撮影条件下だけでなく生成できる画像入力技術を提供することにある。
【0006】
【課題を解決するための手段】
前記の課題を解決するために、請求項1記載の発明では、撮像手段を用いて画像を入力する画像入力装置において、少なくとも2箇所以上の視点から同一の被写体を撮影して複数枚の画像情報を入力する撮像手段と、前記被写体を撮影した際の前記撮像手段の姿勢を示す姿勢情報を検出する姿勢検出手段と、前記撮像手段により入力された前記画像情報を前記姿勢情報に基づいて回転変換する画像変換手段と、その画像変換手段により変換された画像情報に前記姿勢検出手段により検出された姿勢情報を付加して記録する画像記録手段とを備えた。
また、請求項2記載の発明では、請求項1記載の発明において、前記撮像手段の撮像面に投影される被写体の中心位置が撮像面の中心位置から外れた場合、撮影された画像情報の中心位置を並進移動させることにより、画像情報の中心位置と被写体の中心位置とを一致させる構成にした。
また、請求項3記載の発明では、請求項1記載の発明において、前記撮像手段により入力された複数の画像情報を変倍する画像変倍手段を備えた。
また、請求項4記載の発明では、請求項1記載の発明において、前記撮像手段が前記被写体を撮像した際の視点位置とは異なる視点から前記被写体を撮影したときに入力される画像情報を生成する任意視点画像生成手段を備えた。
【0007】
また、請求項5記載の発明では、撮影した画像を入力する画像入力方法において、少なくとも2箇所以上の視点から同一の被写体を撮影して複数枚の画像情報と前記被写体を撮影した際の撮像素子の姿勢を示す姿勢情報とを取得し、取得した前記画像情報を前記姿勢情報に基づいて回転変換し、回転変換された画像情報に前記姿勢情報を付加して記録する構成にした。
また、請求項6記載の発明では、請求項5記載の発明において、撮影された被写体の中心位置が入力された画像情報の中心位置から外れた場合、その画像情報の中心位置を並進移動させることにより画像情報の中心位置と被写体の中心位置とを一致させる構成にした。
また、請求項7記載の発明では、請求項5記載の発明において、入力された複数の画像情報を変倍する構成にした。
また、請求項8記載の発明では、請求項5記載の発明において、前記被写体を撮像した際の視点位置とは異なる視点から前記被写体を撮影したときに入力される画像情報を生成する構成にした。
また、請求項9記載の発明では、情報処理装置上で実行されるプログラムにおいて、請求項5乃至請求項8のいずれか1項に記載の画像入力方法によった画像入力を実行させるようにプログラミングされている構成にした。
また、請求項10記載の発明では、プログラムを記憶した記憶媒体において、請求項9記載のプログラムを記憶した。
【0008】
【発明の実施の形態】
以下、図面により本発明の実施の形態を詳細に説明する。
図1は、本発明の第1の実施形態を示す、画像入力装置の構成ブロック図である。図示したように、この実施例の画像入力装置は、撮像装置1および画像処理装置2を備え、撮像装置1は、撮像部11、姿勢検出部12、および情報転送部13を備え、画像処理装置2は、画像変換部21および画像記録部22を備える。なお、撮像装置1と画像処理装置2とを一つの装置として同一筐体内に組み込んでもよい。一つの装置とした場合、情報転送部13は削減可能である。
前記において、撮像部11は被写体を撮影して画像情報を入力する。一例を挙げれば、デジタルカメラやビデオカメラなどである。また、姿勢検出部12は撮像装置1の姿勢情報を検出する。この姿勢検出部12としては、例えば3軸加速度センサと3軸磁気センサを用いる。または、3軸磁気センサの代わりに角速度センサを用いる構成や、磁気センサと角速度センサを併用する構成なども可能である。
情報転送部13は、撮像部11により撮影された画像情報と姿勢検出部12により検出された姿勢情報を画像処理装置2へ転送する。転送方式としては、有線方式(例えばUSB、SCSI、IEEE1394など)や無線方式(例えば無線LAN、BlueToothなど)、記憶媒体(例えば半導体メモリ、スマートメディア、メモリスティック、フラッシュメモリなど)の移動などを用いる。
画像変換部21は、姿勢検出部12により検出された姿勢情報を用いて情報転送部13により転送される画像情報の画像変換をおこなう。また、画像記録部22は、例えば半導体メモリ、ハードディスク記憶装置(HDD)、磁気テープ、またはDVD−RWで構成され、画像変換部21により変換された画像情報、および情報転送部13により転送された姿勢情報を所定のデータ形式で記録する。
【0009】
図2に、撮像装置1の詳細な構成を示す。このような構成で、被写体の像は、固定レンズ31、ズームレンズ32、絞り機構33、およびフォーカスレンズ35を通し、シャッタ34により露光時間を制御され、撮像素子36上に形成される。そして、撮像素子36からの画像信号はCDS(Correlated Double Sampling:相関二重サンプリング)回路37においてサンプリングされた後、A/D変換器38によりデジタル信号化される。このときのタイミングはTG(Timing Generator)39により生成される。
画像信号はその後、IPP(Image Pre−Processor)40によりアパーチャ補正などの画像処理および圧縮処理などを施され、一時的に画像バッファメモリ41に保存される。一時的に保存された画像情報は、さらに、MPU(主制御部)42内にある記憶領域に保存される。
このMPU42は各ユニットの動作を制御するとともに、入力指示スイッチ43からの画像撮影開始指示を受け付け、さらに、姿勢検出部12を構成している3軸加速度センサ45および3軸磁気センサ46からのセンサ出力信号を第2のA/D変換器47を介して検出する。検出されたセンサ出力信号は撮影された画像情報に添付され、MPU42内にある記憶領域に保存される。MPU42の記憶領域に保存されたデータは、情報転送部13を介して画像処理装置2に渡される。なお、情報転送部13としては、PC(パーソナルコンピュータ)用の汎用インターフェース、例えば、RS−232C、USB(Universal Serial Bus)、IEEE1394、ネットワークアダプタ、IrDA(Infrared Data Association)、無線LAN、BlueToothなどを用いる。
【0010】
図3は画像処理装置2のハードウェア構成を示す構成ブロック図である。図示したように、この画像処理装置2は、画像変換部21などを構成するとともに、各部の制御を実行するCPU(Central Processing Unit)51およびSDRAM(Synchronous Dynamic Random Access Memory)52、HDD(Hard Disk Drive:ハードディスク記憶装置)53、マウスなどポインティングデバイスやキーボードやボタンなどからデータや信号を入力させる入力インターフェース部(以下、入力I/Fと略す)54、CRT(Cathode Ray Tube)など表示装置55、その表示装置55の表示制御をおこなう表示インターフェース部(以下、表示I/Fと略す)56、CD−RW(Compact Disk Rewritable)ドライブなど記録装置57、撮像装置1やプリンタなど外部機器およびインターネットなど通信回線と有線または無線接続する外部インターフェース部(以下、外部I/Fと略す)58などを備え、バスによりそれらが接続された構成である。なお、SDRAM52は、CPU51の作業記憶領域として用いられるとともに、本実施形態によった画像変換処理など画像処理を実行するための処理プログラムや制御プログラムなどの記憶領域として用いられる。処理プログラムは、例えば記録装置57を介してSDRAM52に格納されるか、HDD53に一旦保存された後に必要なときにSDRAM52に格納される。または外部I/F58に接続された通信回線を介してSDRAM52に格納される。また、処理の対象となる画像情報は、記録装置57または外部I/F58を介して撮像装置1から入力される。
【0011】
次に、撮像装置1の姿勢検出部12による姿勢検出の一例として、姿勢検出部12を3軸加速度センサ45と3軸磁気センサ46で構成した例について説明する。なお、姿勢検出部12は、ワールド座標系(XYZ座標)の向きと撮影したときの撮像装置1に固有な装置座標系(xyz座標)の向きとを比較することにより撮像装置1の姿勢情報を検出する。
まず、装置座標系とワールド座標系を以下のように定義する。
(a)装置座標系:xyz座標系(図4参照)
x軸:画像面右向きを正
y軸:画像面下向きを正
z軸:光軸方向;対象に向かう向きを正
原点o:撮像装置1の光学中心
f:カメラの焦点距離
p:撮像装置1の光学中心から対応点までのベクトル成分
(b)ワールド座標系:XYZ座標系(図5参照)
Y軸:重力加速度の向きを正
Z軸:磁気の向きを正
X軸:XYZの順に右手直交系をなす向き
簡単化のため、撮像装置1の移動により生じる運動加速度は無視でき、重力加速度と磁場は直交し、かつ磁場は地磁気以外に存在しないと仮定する。この場合、厳密には地磁気の伏角が存在し、地磁気と重力加速度とは直交しないが、伏角が既知ならば地磁気の向きと重力加速度が直交する場合と同様に計算できる。また、3軸で地磁気を検出すれば伏角が未知でも姿勢情報を計算可能である。つまり、X軸は東向き、Z軸は北向きを正にとる。
ワールド座標系に対する装置座標系の向きを、ワールド座標系を基準とした(1)式の回転行列ベクトルRで記述する。
但し、(1)式において、α、β、γはそれぞれワールド座標系を基準としたX軸、Y軸、Z軸回りの回転角であり、このとき撮像装置1を、以下の順に回転させたことに相当する。つまり、XYZ座標系とxyz座標系が一致している状態から、次の(1)、(2)、(3)による回転の結果、回転行列ベクトルRが成立する。
(1)撮像装置1を、Z軸回りにγだけ回転する。
(2)撮像装置1を、X軸回りにαだけ回転する。
(3)撮像装置1を、Y軸回りにβだけ回転する。
今、重力加速度ベクトルと地磁気ベクトルがワールド座標系においてそれぞれ(2)式で表され、3軸加速度センサ45および3軸磁気センサ46により検出された装置座標系を基準とした加速度ベクトルおよび地磁気ベクトルをそれぞれ(3)式で表されるとする。
そのとき、ベクトルgとベクトルa、およびベクトルMとベクトルmの関係は、回転行列ベクトルRを用いて以下の(4)式および(5)式で記述される。以下記号R、g(なおgはスカラの場合もある)、M(なおMはスカラの場合もある)、a、mはベクトルを表す。
Ra=g (4)
Rm=M (5)
(4)式からX軸回りの回転角αとZ軸回りの回転角γが(6)式および(7)式のように計算される。
また、Z軸回りの回転角γが既知である場合、(5)式より、地磁気ベクトルmからX軸回りの回転角αが(8)式のように、Y軸回りの回転角βが(9)式のように計算される。
但し、加速度ベクトルaを用いて求めたX軸回りの回転角αを用いるならば、(8)式の計算は不要である。以上の計算により、α、β、γおよび回転行列Rを、3軸加速度センサ45と3軸磁気センサ46から検出することができ、装置座標系をワールド座標系に変換することができる。
複数枚の画像を撮影した際の姿勢情報の変化量を検出することも可能である。基準画像を撮影したときの姿勢情報を回転行列RA、相対画像を撮影したときの姿勢情報を回転行列RBとすると、基準画像を撮影した際の撮像装置の姿勢から相対画像を撮影した際の撮像装置の姿勢までの変化量の回転行列RABは、
RAB=RB/RAとなる。
【0012】
次に、画像変換部21がおこなう画像変換について説明する。
QuickTime(登録商標)VRなどによった複数の画像を3次元的に表示するための画像群を作成するときには、一般的に画像情報へ前記した姿勢情報としてθ、φの角度情報を付加して記録する。ここで、θおよびφは被写体位置を座標中心としたときに、撮像装置1が移動した際の移動前後の角度である(図6参照)。θおよびφの角度情報を付加した画像情報を図7に示したように複数枚保存し、利用者の指示に応じて画像群を切り替えて表示することにより3次元的に表示するのである。
図8に示したような撮影専用装置3を被写体Hと撮像装置1に取り付けて撮影すれば、撮影専用装置3の移動情報からθ、φの角度情報を検出することができる。また、撮影専用装置3を用いると、撮像装置1はθ、φ方向にだけ回転し、ψ方向には回転しないので、画像ごとに被写体Hがψ方向に回転して投影されることがない(図9参照.但し、各図にはθの変化の反映を省略している)。それに対して、撮影専用装置3を用いず、撮像装置1を固定しない状態で撮影すると、撮像装置1はθ、φ、ψ方向全部が回転する(図10参照。但し、各図にはθおよびφの変化の反映を省略している)。つまり、画像群にθ、φの角度情報を付加して表示しても、ψ角度の回転があるので、画像ごとに被写体が回転して投影されてしまうのである。
したがって、画像変換部21では、回転して投影された画像(図10参照)を−ψ方向へ回転させることにより、回転していない画像(図9参照)へ変換する。なお、回転変換を実行することにより、画像上に画像情報のない空白部分が生成される(図11参照)。このような空白部分に、画像背景部分の色を適用して描画してもよい。また、図12に示したように、隣接する画像情報と空白となる部分の画像情報とが重なっているときには、隣接する画像情報を空白部分に投影して描画してもよい。
【0013】
次に、画像記録部22がおこなう画像記録について説明する。
画像記録部22は、複数の画像を3次元的に表示するために、画像変換部21により変換された画像情報に姿勢検出部12により検出された姿勢情報(θ、φの角度情報)を付加して所定のデータ形式で記録・保存する(図13参照)。このように画像群を記録することにより、利用者の指示に応じて画像群を切り替えて表示することが可能となり、画像群を3次元的に表示することが可能になる。図14に、撮影専用装置3(図8参照)を用いない場合について動作フローを示す。以下、この動作フローについて説明する。
まず、撮像装置1において2箇所以上の視点から撮影された画像情報と撮像装置1の姿勢情報を取得し、メモリに記憶する(ステップS1)。そして、その姿勢情報から撮像装置1の回転角度θ、φ、ψを算出する(ステップS2)。このステップS2の内訳は次の(S2−1)(S2−2)(S2−3)である。
(S2−1)3軸加速度センサ45の出力信号から得られる電圧値の大きさを読み取り、3軸方向の加速度ベクトルの大きさを比較し、重力方向に対する撮像装置1の傾きを検出する。
(S2−2)3軸磁気センサ46の出力信号から得られる電圧値の大きさを読み取り、3軸方向の磁気ベクトルの大きさを比較し、地磁気方向に対する撮像装置1の傾きを検出する。
(S2−3)加速度センサ45により検出された重力方向に対する傾きと、磁気センサ46により検出された地磁気方向に対する傾きを合成することにより撮像装置1の回転角度θ、φ、ψを検出する。
【0014】
次に、画像処理装置2の画像変換部21が、画像情報を−ψ方向に回転させて画像変換し、画像変換により生じた空白領域を隣接する画像情報で補間する(ステップS3)。そして、画像変換部21は、画像変換した画像情報に回転角度θ、φ情報を付加し、画像記録部22に記憶する(ステップS4)。QuickTime(登録商標)VR形式の画像を生成するためには、姿勢情報(θ、φ)を用いて複数枚撮影した画像群を図9のように整列させる必要があるので、画像変換した画像情報に回転角度θ、φ情報を付加して記憶するのである。QuickTime(登録商標)VRでは、姿勢情報によって整列された画像の位置情報を用いることにより、利用者のマウス操作に合わせた2次元画像を表示し、3次元的画像に見せるわけである。
こうして、この実施形態によれば、一般の人々でも、デジタルカメラなど単眼の撮像装置1を使用して、撮像装置1の姿勢を気にすることなく、被写体を様々な視点から複数枚簡単に撮影して、3次元的に表示する画像群データを自動的に生成し、例えばQuickTime(登録商標)VR形式で姿勢情報とともに保存することができる。
【0015】
次に、本発明の第2の実施形態について説明する。
図15は、本発明の第2の実施形態を示す、画像入力装置の構成ブロック図である。また、図16はその説明図である。図示したように、この実施例の画像入力装置は、撮像装置1と画像処理装置2aを備え、撮像装置1は、撮像部11、姿勢検出部12、および情報転送部13を備えている。また、画像処理装置2aは、画像変換部21、画像記録部22を備えると共に、対応検出部23、並進成分算出部24、3次元位置算出部25、および被写体中心位置算出部26を備えている。なお、撮像装置1と画像処理装置2aを一体の装置として構成してもよい。一体の装置とすることにより情報転送部13を削減することも可能である。また、撮像部11、姿勢検出部12、および情報転送部13は、第1の実施形態と同じ構成である。
画像変換部21は、姿勢検出部12により検出された姿勢情報と並進成分算出部24により算出された並進成分情報を用い、情報転送部13により転送された画像情報の画像変換をおこなう。画像記録部22は第1の実施形態と同じ構成である。
また、対応検出部23は情報転送部13により転送された画像情報から画像間の対応点の装置座標系の位置情報を検出し、並進成分算出部24は情報転送部13により転送された姿勢情報と対応検出部23により検出された対応点の位置情報から並進成分情報を算出する。また、3次元位置算出部25は対応点の装置座標系の位置情報と姿勢情報と並進成分情報から対応点のワールド座標系の3次元位置を算出し、被写体中心位置算出部26は、対応点の3次元位置情報より、被写体の中心位置を算出する。
【0016】
次に、対応検出部23における画像間の対応点検出の一例として、2箇所の視点から撮影された基準画像と相対画像間の対応点検出を図17により説明する。
まず、基準画像内にある画像情報から特徴量の抽出をおこなって特徴点を検出する。なお、画像情報から特徴量を抽出して特徴点を検出する方法は従来から多くの研究がされており、例えば徐剛、辻三郎著「3次元ビジョン」(共立出版)の3章「特徴抽出」などに記述されている。
次に、基準画像から抽出した特徴量を元にして検出した基準画像の特徴点に対応する対応点を相対画像から検出する。図17に、対応点検出の一例として、相互相関によるブロックマッチングにより対応点を検出する手法を示す。つまり、基準画像におけるi番目の特徴点(xi0,yi0)と、相対画像における点(xi0+dx,yi0+dy)の対応付けを(2N+1)(2P+1)の相関窓(図17参照)におけるブロックマッチングでおこなう場合の相互相関値Siは(10)式で計算されるのである。
なお、N、Pは相関窓の大きさを表す任意に定めた定数である。また、(10)式における各記号の意味は以下の通りである。における各記号の意味は以下の通りである。
K:定数
この実施形態では、各特徴点に対して、このような相互相関値Siを最大にする対応点を順次検出することにより基準画像と相対画像との間の対応点を検出るである。
【0017】
次に、並進成分算出部24における並進成分算出の一例を説明する(特開平11−306363号公報に詳細な例がある)。
並進成分の算出では、姿勢検出部12から得た姿勢情報と対応検出部23から得た対応点を用いて簡単な計算により並進成分情報を求める。その一例として、図18に示した視点Aで撮影された画像Aと視点Bで撮影された画像Bの並進成分情報tを算出する方法を以下に説明する。
図18に示した画像内にある点(xA,i,yA,i)と(xB,i,yB,i)は、それぞれ画像Aと画像Bに被写体の特徴点object iを投影した点を示す。iは被写体の対応点を識別するための番号を表す。また、画像Aから画像Bまでの姿勢情報の変化を姿勢情報Rで表す。また、pA,iは画像A内にある対応点と視点Aでの光学中心を結ぶベクトルを、pB,iは画像B内にある対応点と視点Bでの光学中心を結ぶベクトルを表す。pA,iとpB,iは、それぞれ(x,y,z)座標系と(x’,y’,z’)座標系とで異なるので、pB,iに姿勢情報Rを乗ずる(RpB,i)ことにより、(x,y,z)座標系でのpB,iの向きを記述する。ここで、pA,iとRpB,iとtのベクトルは、被写体の特徴点Objectjと視点Aでの光学中心と視点Bでの光学中心を結んだ面上に存在する(図18参照)。よって、pA,iとRpB,iとtが作るスカラ3重積(立体の体積を表す)は0となるので(11)式が成り立つ。
求める並進成分情報tはベクトルの向きを表すので変数は2つとなる。したがって、被写体の特徴点Objectiに対応する対応点を2組以上検出し、対応点の位置情報を(11)式に代入し、連立方程式を解くことによって並進成分情報tを算出することができる。対応点が2組以上検出される場合には、相互相関値Siが高いものだけを使用して算出してもよいし、画像ノイズによる誤差を考慮して(11)式のスカラ3重積を最小化する並進成分情報tを求めてもよいし、多数の並進成分情報を求めて並進成分情報群を投票空間に投影して最適な並進成分情報tを求めてもよい(岡谷貴之、出口光一郎著「3次元向きセンサを取り付けたカメラを用いた投票によるカメラの並進運動の推定」ヒューマンインタフェース・コンピュータビジョンとイメージメディア2001.9.13)。
【0018】
次に、3次元位置算出部25による対応点の3次元位置算出例を説明する。
対応点の3次元位置を算出するには、画像上の対応点の位置情報と姿勢情報と並進成分情報とを用いて3角測量の原理により算出する。並進成分算出部24が前記した並進成分算出方法により並進成分情報tを算出した場合、算出できるのは並進移動方向だけであり、並進移動した距離は算出できない。それに対して、3角測量の原理では、画像A、Bを用いて求めた3次元位置と画像B、Cを用いて求めた3次元位置とのスケールが一致しなくなるという問題を生じるが、図19に示したように3枚の画像A、B、Cに同じ対応点が取得されている場合においては、画像A、Bを用いて求めた3次元的な位置と画像B、Cを用いて求めた3次元的な位置とのスケール比を算出することができる。これは画像B、C、Dを用いたときにも同様なことが成り立つので、全ての画像間で算出した3次元位置のスケール比を算出することが可能となる。撮像装置1が実際に並進移動した距離を算出することはできないが、全ての画像間でスケール比が算出できるので、画像A、B間の並進成分情報tの距離を1と仮定した、対応点の3次元位置を算出することが可能となるのである。
次に、被写体中心位置算出部26における被写体中心位置算出例を説明する。
この実施例における被写体の中心位置算出では、3次元位置算出部25により算出された対応点の3次元位置の平均値を算出してそれを被写体の中心位置とする。なお、検出した対応点の数に画像間で偏りがある場合には、各々の画像間で検出した対応点に重み付けをして平均値を算出してもよい。
【0019】
次に、画像変換部21における画像変換の一例を説明する。
図8に示したような撮影専用装置を被写体と撮像装置1に取り付けて撮影を実行する際には、撮影画像の中心位置に被写体が投影されるように撮影することは容易であるが(図20参照)、撮影専用装置を使用しないで撮影する場合には、撮像装置1が固定されていないので、被写体は撮影画像の中心位置からずれて投影されてしまう(図21参照)。このように、被写体が中心位置からすれて投影されてしまうと、利用者の指示に応じて画像群を切り替えたときに被写体が画像上で上下左右に移動し、利用者の意図した画像とは異なる画像が表示され、3次元的な表示ができなくなる。そのため、この実施形態では、画像変換部21が被写体の投影位置を撮影画像の中心位置に移動させる画像変換を実行する。
一般的な撮像装置1は、図4に示したように中心射影で被写体を撮像面に投影するが、このとき、図22に示したように正射影モデルで被写体が撮像面に投影されると近似した場合の画像変換の一例を以下に示す。
まず、姿勢検出部12により検出された姿勢情報Rと並進成分算出部24により算出された並進成分情報tから撮像装置1の各々の撮影位置を求め、撮像装置1の撮像面(図23に示した例えばX−Y平面)とその撮像面の法線(図23に示したz方向の直線)を算出する。撮像面の法線方程式を(12)式に、撮像面の平面方程式を(13)式に示す。
ここで、撮像面の法線は点(X1,Y1,Z1)、(X2,Y2,Z2)を通る直線であり、撮像面は(X2,Y2,Z2)を通る平面とする。
前記において、画像Aの撮影位置をワールド座標系の基準位置とすると、画像Aの法線と撮像面の方程式は、(X1,Y1,Z1)=(0,0,1),(X2,Y2,Z2)=(0,0,0)を(12)、(13)式へ代入することによって算出される。また、画像Bの法線と撮像面の方程式は姿勢情報Rと並進成分情報tより、点(X1,Y1,Z1)、(X2,Y2,Z2)の位置を変換した点(X’1,Y’1,Z’1)、(X’2,Y’2,Z’2)(変換式を(14)(15)式に示す)を(12)、(13)式に代入することによって算出される。同様にして各々の撮影位置における撮像面の法線と平面方程式を算出することが可能である。
【0020】
次に、被写体中心位置算出部26により算出された被写体中心位置を通り、法線ベクトルL1と平行な直線L2を算出する(図24参照)。被写体中心位置を(X3,Y3,Z3)とすると、画像Aにおける直線方程式は(16)式のようになる。同様にして各々の撮影位置で被写体中心位置を通り法線ベクトルL1と平行な直線L2を算出することが可能である(図24参照)。
続いて、算出した直線L2と撮像面との交点p4(X4,Y4,Z4)を算出する(図24参照)。交点p4は(13)、(16)式の連立方程式を解くことによって算出可能である。さらに、撮影画像の中心位置(XC,YC,ZC)を交点p4の位置(X4,Y4,Z4)と一致させるように画像情報を並進移動させるに当たって、画像情報を並進移動させる並進ベクトル(Tx,Ty)を算出するため、撮影画像の中心位置(XC,YC,ZC)と交点p4の位置(X4,Y4,Z4)を(17)、(18)式より装置座標系(xC,yC,zC)、(x4,y4,z4)に変換する(図24に矢印で示す)。ここで、撮影画像の中心位置と交点p4の位置は、同じ撮像面内にあるので、装置座標系におけるZ座標値は同じ値となる。
よって、(19)式のTzは、常にTz=0となり、並進ベクトル(Tx,Ty)は(20)式のようになる。この並進ベクトル方向に撮影画像を並進移動させることにより、被写体の投影位置を撮影画像の中心位置に移動させるのである。
前記において、画像変換部21では、第1の実施形態のように投影された画像をψ方向へ回転させる画像変換をしてもよい。また、回転移動および並進移動によって画像上に画像情報がなく、空白になる部分が生成されるが、その空白部分には画像背景部分の色を適用して描画してもよいし、隣接する画像情報と空白となる部分の画像情報が重なっているときには、隣接する画像情報を空白部分に投影して描画してもよい。
【0021】
図25および図26に、この実施形態の画像入力動作の動作フローを示す。以下、図25および図26に従って、この動作フローを説明する。
まず、撮像装置1において2箇所以上の視点から撮影された画像情報と撮像装置1の姿勢情報を取得しメモリに記憶する(ステップS11)。そして、姿勢情報から撮像装置1の回転角度θ、φ、ψを算出する(ステップS12)。つまり、まず、撮像装置1において、3軸加速度センサ45の出力信号から得られる電圧値の大きさを読み取り、3軸方向の加速度ベクトルの大きさを比較し、重力方向に対する画像入力装置の傾きを検出するとともに、3軸磁気センサ46の出力信号から得られる電圧値の大きさを読み取り、3軸方向の磁気ベクトルの大きさを比較し、地磁気方向に対する画像入力装置の傾きを検出する。そして、3軸加速度センサ45から検出される重力方向に対する傾きと、磁気センサ46から検出される地磁気方向に対する傾きを合成することにより撮像装置1の回転角度θ、φ、ψが検出する。
【0022】
続いて、対応検出部23が基準画像から特徴点を検出し、相対画像から各特徴点に対応する対応点の位置情報を検出する(ステップS13)。具体的にはまず、基準画像を構成する各画素を中心位置にして、特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出する。さらに、基準画像を領域分割し、分割した領域内で特徴量抽出ブロックの輝度値分布の差が顕著であるブロックを検出し、検出したブロックの中心位置にある画像位置情報と輝度値分布情報をメモリに記憶する(輝度値分布情報の代わりにRGB値分布情報を用いてもよい)。
続いて、相対画像において、基準画像の場合と同様に特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出し、記憶されている基準画像の輝度値分布情報と相対画像の特徴量抽出ブロックの輝度値分布情報とのマッチングをおこない、各特徴点に対して最も近い特徴量抽出ブロックの中心位置にある画像位置情報を対応点の位置情報としてメモリに記憶する。但し、特徴点の特徴量抽出ブロックの輝度値分布情報に近い特徴量抽出ブロックが存在しない場合には、記憶した相対画像の特徴点の画像位置情報と輝度値分布情報をメモリから消去する。
次に、対応点の位置情報と姿勢情報から並進成分算出部24が並進成分情報を算出する(ステップS14)。具体的にはまず、(11)式に姿勢情報と対応点の位置情報を代入して連立方程式を立てる(一般に3次元空間の中で、剛体の移動を表すベクトルの変数は3個であるが、デジタルカメラを想定した透視投影による撮影なので、画像座標系にある画像情報からワールド座標系にある被写体のスケールは一意に決定されない。よって、並進成分情報は、ベクトルの向きを表し、変数の数は2個となる)。対応点が多数に検出される場合には、並進成分情報の変数の数よりも多く連立方程式が成り立つ。したがって、最小2乗法により多数の連立方程式で誤差が最も小さい解を算出し、並進成分情報としてメモリに記憶する。
【0023】
次に、姿勢情報、並進成分情報、および対応点の位置情報(装置座標系)から3次元位置算出部25が対応点の3次元位置情報(ワールド座標系)を算出する(ステップS15)。具体的にはまず、姿勢情報および並進成分情報から基準画像と相対画像との撮影位置関係を求め、3角測量により基準画像と相対画像上にある対応点の位置情報(装置座標系)を求め、その位置関係から対応点の3次元位置情報(ワールド座標系)を算出することにより全画像上の対応点の3次元位置情報を算出する。そして、全ての画像間で算出した3次元位置のスケール比を算出し、初めの画像間で算出した並進成分情報tの距離を1と仮定して、全ての画像間のスケール比を一致させ、対応点の3次元位置(ワールド座標系)を算出する。
続いて、被写体中心位置算出部26が対応点の3次元位置情報(ワールド座標系)から被写体中心位置を算出する(ステップS16)。対応点の3次元位置の平均値を算出し、平均値を被写体中心位置とするのである。さらに、画像変換部21が、画像情報を並進移動(Tx,Ty)させる画像変換をおこなう(ステップS17)。具体的にはまず、姿勢情報と並進成分情報から撮像装置1内にある撮像面と撮像面の法線の方程式を算出し、前記被写体中心位置を通り、法線と平行な直線を算出する。そして、撮像面とその直線との交点を算出し、撮影画像の中心位置をその交点の位置と一致させるように画像情報を並進移動させる。
このあとは、画像変換した画像情報に回転角度θ、φ情報を付加し、その画像情報などを画像記録部22に保存する(ステップS18)。
こうして、この実施形態によれば、図8に示したような特別な画像撮影専用装置などを使用しなくとも、被写体を撮像装置1により様々な視点から複数枚撮影するだけで3次元的に表示するための画像群データを自動的に生成することが可能になる。
【0024】
次に、本発明の第3の実施形態について説明する。
第2の実施形態では、被写体中心位置を算出するためにワールド座標上における対応点の3次元位置を算出し、対応点の平均値を被写体中心位置と仮定していたが、第3の実施形態では、各々の画像を撮影した際の撮像装置1の光軸方向を考慮することにより被写体中心位置を算出する。
図27に、第3の実施形態の画像入力装置の構成ブロック図を示す。図示したように、この画像入力装置は、撮像装置1と画像処理装置2bから構成され、撮像装置1は、撮像部11、姿勢検出部12、および情報転送部13を備える。また、画像処理装置2bは、画像変換部21、画像記録部22、対応検出部23、並進成分算出部24、および光軸高密度位置検出部27などを備える。なお、撮像装置1と画像処理装置2bを一つの装置として構成してもよい。一つの装置とすることで、情報転送部13を削減することも可能である。また、撮像部11、姿勢検出部12、情報転送部13、画像変換部21、画像記録部22、対応検出部23、および並進成分算出部24は第1の実施形態と同様な構成である。
一方、光軸高密度位置検出部27は、各々の撮影位置における光軸(z方向)をワールド座標上へ描画したとき、光軸が交わる位置または光軸の密度が最も高い位置を検出する。以下、光軸高密度位置検出部27が光軸密度の高い位置を検出する動作を説明する。
前記したように、第2の実施形態では、対応点の3次元位置の平均値を被写体中心位置としていたが、第3の実施形態では、撮影者は被写体の中心位置を画像中心に投影されるように撮影しているという仮定のもと、投影された各画像の被写体中心位置を平均すると統計的に被写体中心位置はその平均画像中心位置に一致すると考え、光軸密度の最も高い位置を被写体中心位置とする。
そこで、この実施形態では、姿勢検出部12により検出された姿勢情報Rと並進成分算出部24により算出された並進成分情報tから各々の撮像装置1の撮影位置を求め、(13)式の(X2,Y2,Z2)に撮影画像の中心位置(XC,YC,ZC)を代入することにより光軸の直線方程式を算出する。図28は、各々の撮影位置における光軸の直線方程式を算出し、ワールド座標上に投影したものである。このようなワールド座標系の空間を図29に示したように領域分割し、領域ごとに光軸の通る本数を算出する。そして、各領域の中で最も光軸の通る本数が多かった領域の中心位置を光軸密度の最も高い位置として検出し、検出した位置を被写体中心位置として画像変換部21が画像変換をおこなう。
【0025】
図30に、この実施形態の動作フローを示す。以下、図30に従ってこの実施形態の動作を説明する。
まず、撮像装置1において、2箇所以上の視点から撮影された画像情報と撮像装置1の姿勢情報を取得し、メモリに記憶する(ステップS21)。そして、その姿勢情報から撮像装置1の回転角度θ、φ、ψを算出する(ステップS22)。具体的にはまず、3軸加速度センサ45の出力信号から得られる電圧値の大きさを読み取り、3軸方向の加速度ベクトルの大きさを比較し、重力方向に対する画像入力装置の傾きを検出する。さらに、3軸磁気センサ46の出力信号から得られる電圧値の大きさを読み取り、3軸方向の磁気ベクトルの大きさを比較し、地磁気方向に対する画像入力装置の傾きを検出する。続いて、3軸加速度センサ45により検出される重力方向に対する傾きと、磁気センサ46により検出される地磁気方向に対する傾きを合成することにより撮像装置1の回転角度θ、φ、ψを検出する。
次に、対応検出部23が基準画像から特徴点を検出し、各特徴点に対応する対応点の位置情報を相対画像から検出する(ステップS23)。具体的にはまず、基準画像を構成する各画素を中心位置にして、特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出する。そして、基準画像を領域分割し、分割した領域内で特徴量抽出ブロックの輝度値分布の差が顕著であるブロックを検出し、検出したブロックの中心位置にある画像位置情報と輝度値分布情報をメモリに記憶する(輝度値分布情報の代わりにRGB値分布情報を用いてもよい)。
続いて、相対画像において、同様に特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出し、記憶しておいた基準画像の輝度値分布情報と相対画像の特徴量抽出ブロックの輝度値分布情報とのマッチングをおこない、各特徴点に対して、最も近い特徴量抽出ブロックの中心位置にある画像位置情報を対応点の位置情報としてメモリに記憶する。但し、特徴点の特徴量抽出ブロックの輝度値分布情報に近い特徴量抽出ブロックが存在しない場合には、記憶しておいた特徴点の画像位置情報と輝度値分布情報をメモリから消去する。
【0026】
次に、並進成分算出部24が対応点の位置情報と姿勢情報から並進成分情報を算出する(ステップS24)。具体的にはまず、(11)式に姿勢情報と対応点の位置情報を代入し連立方程式を立てる(一般に3次元空間の中で、剛体の移動を表すベクトルの変数は3個であるが、デジタルカメラを想定した透視投影による撮影なので、ワールド座標系にある被写体のスケールは画像座標系にある画像情報から一意に決定されない。よって、並進成分情報は、ベクトルの向きを表し、変数の数は2個となる)。なお、対応点が多数に検出される場合には、並進成分情報の変数の数よりも多く連立方程式が成り立つ。したがって、最小2乗法を用い、多数の連立方程式により誤差が最も小さい解を算出し、並進成分情報としてメモリに記憶する。
次に、光軸高密度位置検出部27が姿勢情報および並進成分情報から光軸の直線方程式を算出し、光軸密度の高い位置を検出する(ステップS25)。具体的にはまず、姿勢情報および並進成分情報から各々の画像を撮影したときの光軸方向を算出し、ワールド座標空間を領域分割し、分割した領域ごとに光軸が通る本数を算出する。そして、光軸が最も多く通る領域の中心位置を被写体中心位置と仮定して検出する。
次に、画像変換部21が画像情報を並進移動(Tx,Ty)させる画像変換をおこなう(ステップS26)。具体的にはまず、姿勢情報と並進成分情報から撮像装置1内にある撮像面と撮像面の法線の方程式を算出し、算出した被写体中心位置を通り、法線と平行な直線を算出する。そして、算出した直線と撮像面との交点を算出し、撮影画像の中心位置と算出した交点の位置とを一致させるように画像情報を並進移動させる。
このあとは、画像変換した画像情報に回転角度θ、φ情報を付加し、画像記録部22にその画像情報などを保存する(ステップS27)。
こうして、この実施形態によれば、図8に示したような特別な画像撮影専用装置などを使用しなくとも、撮像装置1により被写体を様々な視点から複数枚撮影するだけで3次元的に表示するための画像群データを自動的に生成することが可能になる。
【0027】
次に、本発明の第4の実施形態について説明する。
この実施形態の画像入力装置は、第2または第3の実施形態の画像処理装置に画像変倍手段を追加した構成となる(例えば画像変換部21内に追加する)。このような構成で、画像変倍手段が各々の撮影画像に投影された被写体の大きさが等しくなるように撮影画像の倍率を変化させるのである。被写体を撮影する際に撮像面から被写体までの距離が異なると、撮像面に投影される被写体の大きさも異なり図31に示したように投影されるので、画像変倍手段が撮像面から被写体までの距離に応じて撮影した画像を変倍することにより撮像面に投影される被写体の大きさを一定にするのである。以下、その動作を説明する。
まず、画像Aを撮影した撮像面の位置(X2,Y2,Z2)から被写体中心位置(X3,Y3,Z3)までの距離Lを(21)式により算出する。さらに、画像Bを撮影した撮像面の位置(X’2,Y’2,Z’2)から被写体中心位置(X3,Y3,Z3)までの距離L’を(22)式により算出する。そして、画像Aを基準画像とし、画像Aの距離Lと画像Bの距離L’との比を算出して画像Bの変倍率HB=L’/Lを算出する。さらに、画像Bの撮影画像をHB倍することにより画像Aと画像Bの撮像面に投影される被写体の大きさを一定にする。このような処理を各々の撮影画像に対して実行し、全ての画像面に投影される被写体の大きさを一定にするのである。以下、図32に示した動作フローを参考にしてこの実施形態の動作フローを説明する。
まず、撮像装置1において2箇所以上の視点から撮影された画像情報と撮像装置1の姿勢情報を取得し、メモリに記憶する(ステップS31)。
続いて、姿勢情報から撮像装置1の回転角度θ、φ、ψを算出する(ステップS32)。具体的にはまず、3軸加速度センサ45の出力信号から得られる電圧値の大きさを読み取り、3軸方向の加速度ベクトルの大きさを比較し、重力方向に対する画像入力装置の傾きを検出する。さらに、3軸磁気センサ46の出力信号から得られる電圧値の大きさを読み取り、3軸方向の磁気ベクトルの大きさを比較し、地磁気方向に対する画像入力装置の傾きを検出する。そして、3軸加速度センサ45から検出される重力方向に対する傾きと、3軸磁気センサ46から検出される地磁気方向に対する傾きを合成することにより撮像装置1の回転角度θ、φ、ψを検出する。
【0028】
次に、対応検出部23が基準画像から特徴点を検出し、各特徴点に対応する対応点の位置情報を相対画像から検出する(ステップS33)。具体的にはまず、基準画像を構成する各画素を中心位置にして特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出する。続いて、基準画像を領域分割し、分割した領域内で特徴量抽出ブロックの輝度値分布の差が顕著であるブロックを検出し、検出したブロックの中心位置にある画像位置情報と輝度値分布情報をメモリに記憶する。さらに、相対画像において、同様に特徴量抽出ブロックを作成し、ブロック内の輝度値分布を検出する。そして、記憶しておいた基準画像の輝度値分布情報と相対画像の特徴量抽出ブロックの輝度値分布情報とのマッチングをおこない、各特徴点に対して、最も近い特徴量抽出ブロックの中心位置にある画像位置情報を対応点の位置情報としてメモリに記憶する。但し、基準画像の特徴点の特徴量抽出ブロックの輝度値分布情報に近い特徴量抽出ブロックが存在しない場合には、記憶しておいた特徴点の画像位置情報と輝度値分布情報をメモリから消去する。
次に、並進成分算出部24が、対応点の位置情報と姿勢情報とを(11)式に代入することにより連立方程式を解き、並進成分情報を算出する(ステップS34)。但し、対応点が多数に検出される場合には、並進成分情報の変数の数よりも多く連立方程式が成り立つので、最小2乗法により多数の連立方程式から誤差の最も小さい解を算出し、並進成分情報としてメモリに記憶する。
次に、光軸高密度位置検出部27が姿勢情報および並進成分情報から光軸の直線方程式を算出し、光軸密度が高い位置を検出する(ステップS35)。つまり、姿勢情報および並進成分情報から各々の画像を撮影したときの光軸方向を算出し、ワールド座標空間を領域分割し、分割した領域ごとに光軸が通る本数を算出し、光軸が最も多く通る領域の中心位置を被写体中心位置と仮定して検出する。次に、画像変換部21内の画像変倍手段が、各々の画像を撮影した際の撮像面から被写体中心位置までの距離を算出し、各々の画像間における距離の比を算出する(ステップS36)。具体的にはまず、各々の画像において、撮像面から被写体中心位置までの距離を算出し、算出した距離の比を算出して、画像変倍率Hを求める。さらに、得られた距離の比から画像の変倍率を算出し、画像変倍手段が画像情報を変倍して画像変換する(ステップS37)。そして、画像変換した画像情報に回転角度θ、φ情報を付加して保存する(ステップS38)。
【0029】
次に、本発明の第5の実施形態について説明する。
図33は、この実施形態の画像入力装置を示す、構成ブロック図である。図示したように、この実施形態の画像入力装置は撮像装置1と画像処理装置2cから構成されている。また、撮像装置1は、撮像部11、姿勢検出部12、および情報転送部13から構成され、画像処理装置2cは、画像記録部22、対応検出部23、並進成分算出部24、任意視点画像生成部29などから構成されている。撮像装置1と画像処理装置2cを一つの装置として構成してもよい。また、撮像部11、姿勢検出部12、情報転送部13、画像記録部22、対応検出部23、および並進成分算出部24は第1の実施形態と同様の構成である。
このような構成で、この実施例の画像入力装置では、任意視点画像生成部29が、任意視点画像を生成するために、撮影された画像群、姿勢情報、および並進成分情報から光線空間画像を生成する。姿勢情報と並進成分情報から撮影画像内の各画素値を3次元空間内の光線データに変換し、変換した光線データを光線空間f(X,Y,Z,θ,φ)に投影し、光線空間上の光線データがない領域に対しては線形補間処理などを実行して光線データを補間合成して、光線空間画像を生成するのである。なお、光線空間画像を生成する手法については、公知の技術であり、柳澤健之、苗村健、金子正秀、原島博「光線空間を用いた3次元物体の操作」(テレビジョン学会誌vol50,No9,pp1345〜1351,1996)、苗村健、金子正秀、原島博「光線情報の正投影表現に基づく3次元空間の記述」(テレビジョン学会誌vol51,No12,pp2082〜2090,1997)、苗村健、原島博「3次元画像の符号化技術(後編)」(画像ラボ、pp57〜62,1997.4)などに記述されている。
【0030】
図34にこの実施例の動作フローを示す。以下、図34に従ってこの動作フローを説明する。
まず、撮像装置1において、2箇所以上の視点から撮影された画像情報と撮像装置1の姿勢情報を取得し、メモリに記憶する(ステップS41)。さらに、前記した第4の実施形態と同様にして姿勢情報から撮像装置1の回転角度θ、φ、ψを算出する(ステップS42)。
次に、第4の実施形態と同様にして、対応検出部23が基準画像から特徴点を検出し、各特徴点に対応する対応点の位置情報を相対画像から検出する(ステップS43)。さらに、第4の実施形態と同様にして、並進成分算出部24が対応点の位置情報と姿勢情報から並進成分情報を算出する(ステップS44)。
次に、任意視点画像生成部29が姿勢情報および並進成分情報から光線空間画像を生成する(ステップS45)。具体的にはまず、姿勢情報および並進成分情報から撮影画像内の各画素値を3次元空間内の光線データに変換し、その光線データを光線空間上f(X,Y,Z,θ,φ)に投影する。なお、光線空間上の光線データがない領域に対しては、線形補間処理により光線データを補間合成し、光線空間画像を生成する。
このあとは、生成された光線空間画像を画像記録部22に記録する(ステップS46)。
【0031】
以上、図1などに示した実施の形態について説明したが、撮像装置は、PC(Personal Computer)や携帯情報端末装置などを用いて実現させることもできる。近年、各種処理プログラムを読み取ることにより種々の機能を実現可能なデジタルカメラも登場するようになった。また、向きを回動可能なカメラを具備したノート型PCや、カメラを搭載したPDA(Personal Digital Assistant)および携帯電話が普及するようになったが、これらの機器に前記した第1乃至第5の実施形態で説明した画像入力方法を実現する処理プログラムを実行させることによりその機能を実現させることができるのである。
例えば、カメラを具備したノート型PCにおいて、このようなプログラムを実行させる場合について言えば、AF(Auto Focus)などカメラ固有の処理はカメラ内部で実行させ、撮影モードの選択、撮影の開始・終了の制御、焦点検出動作の一時停止、画像および焦点検出領域の表示などは、プログラムを取り込んだ後、ノート型PCの任意のユーザー・インターフェイスを介してそのプログラムを実行させる。以下は、ユーザー・インターフェイスにおける割り付けの一例である。
撮影モードの選択:カーソルキー
撮影の開始・終了の制御:リターンキー
焦点検出動作の一時停止:スペースキー
画像および焦点検出領域の表示:LCD(PCが備えている液晶表示装置)に表示
前記において、各実施例で説明した画像入力方法を実現する処理プログラムが書き込まれている記憶媒体からそのプログラムを読み取らせることにより、本発明によった画像入力を実現する実施形態を第6の実施形態として図35に示す。図35(a)に示したように、そのプログラムが書き込まれているCD−ROM61をカメラ付きノート型PC62に装着し、適宜そのプログラムを実行させる。また、図35(b)に示したように、そのようなプログラムを書き込んだスマートメディア63を、それを読み取り可能なデジタルスチルカメラ64に装着し、適宜そのプログラムを実行させることによっても実現させることができる。なお、前記プログラムを書き込んでおく記憶媒体は前記した例に制限されず、例えばCD−RWやDVD−ROMなど別の媒体であってもよい。
【0032】
【発明の効果】
以上説明したように、本発明によれば、請求項1および請求項5記載の発明では、少なくとも2箇所以上の視点から同一の被写体を撮影して複数枚の画像情報とその被写体を撮影した際の撮像素子の姿勢を示す姿勢情報とを取得し、取得した画像情報を姿勢情報に基づいて回転変換し、回転変換させた画像情報に姿勢情報を付加して記録することができるので、専用装置を持っていない一般の人々でもデジタルカメラなど単眼の撮像装置を使用して、同一の被写体を簡単に様々な視点から撮影し、例えばQuickTime(登録商標)VR形式の画像群を保存することができ、したがって、高画質の3次元的画像を特定の撮影条件下だけでなく生成できる。
【0033】
また、請求項2記載の発明では請求項1記載の発明において、請求項6記載の発明では請求項5記載の発明において、撮影された被写体の中心位置が入力された画像情報の中心位置から外れた場合、その画像情報の中心位置を並進移動させることにより画像情報の中心位置と被写体の中心位置とを一致させることができるので、撮影時に画像情報の中心位置と被写体の中心位置とを一致させる苦労がなくなる。
また、請求項3記載の発明では請求項1記載の発明において、請求項7記載の発明では請求項5記載の発明において、入力された複数の画像情報を変倍することができるので、被写体・撮影位置間の距離のばらつきにより画像面に投影される被写体の大きさが変化しても、画像群データ内の被写体の大きさを同一にすることができる。
また、請求項4記載の発明では請求項1記載の発明において、請求項8記載の発明では請求項5記載の発明において、被写体を撮像した際の視点位置とは異なる視点から被写体を撮影したときに入力される画像情報を生成することができるので、撮影した画像枚数が少ない画像群データでも被写体を3次元的に表示することができる。
また、請求項9記載の発明では、請求項5乃至請求項8のいずれか1項に記載の画像入力方法によった画像入力を実行させるようにプログラミングされているプログラムを情報処理装置上で実行させることができるので、情報処理装置を用いて請求項5乃至請求項8のいずれか1項に記載の発明の効果を得ることができる。
また、請求項10記載の発明では、請求項9記載のプログラムを着脱可能な記憶媒体に記憶することができるので、その記憶媒体をこれまで請求項5乃至請求項8のいずれか1項に記載の発明によった画像入力をおこなえなかったパーソナルコンピュータなど情報処理装置に装着することにより、そのような情報処理装置においても請求項5乃至請求項8のいずれか1項に記載の発明の効果を得ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施形態を示す、画像入力装置の構成ブロック図。
【図2】本発明の第1の実施形態を示す、画像入力装置要部の構成ブロック図。
【図3】本発明の第1の実施形態を示す、画像入力装置要部のハードウェア構成図。
【図4】本発明の第1の実施形態を示す、画像入力装置要部の説明図。
【図5】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図6】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図7】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図8】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図9】本発明の第1の実施形態の画像入力装置に係る説明図。
【図10】本発明の第1の実施形態の画像入力装置に係る他の説明図。
【図11】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図12】本発明の第1の実施形態を示す、画像入力装置要部の他の説明図。
【図13】本発明の第1の実施形態を示す、画像入力装置要部のデータ構成図。
【図14】本発明の第1の実施形態を示す、画像入力方法の動作フロー図。
【図15】本発明の第2の実施形態を示す、画像入力装置の構成ブロック図。
【図16】本発明の第2の実施形態を示す、画像入力装置の説明図。
【図17】本発明の第2の実施形態を示す、画像入力装置要部の説明図。
【図18】本発明の第2の実施形態を示す、画像入力装置要部の他の説明図。
【図19】本発明の第2の実施形態を示す、画像入力装置要部の他の説明図。
【図20】本発明の第2の実施形態の画像入力装置に係る説明図。
【図21】本発明の第2の実施形態の画像入力装置に係る他の説明図。
【図22】本発明の第2の実施形態を示す、画像入力装置要部の他の説明図。
【図23】本発明の第2の実施形態を示す、画像入力装置要部の他の説明図。
【図24】本発明の第2の実施形態を示す、画像入力装置要部の他の説明図。
【図25】本発明の第2の実施形態を示す、画像入力方法の動作フロー図。
【図26】本発明の第2の実施形態を示す、画像入力方法の他の動作フロー図。
【図27】本発明の第3の実施形態を示す、画像入力装置の構成ブロック図。
【図28】本発明の第3の実施形態を示す、画像入力装置要部の説明図。
【図29】本発明の第3の実施形態を示す、画像入力装置要部の他の説明図。
【図30】本発明の第3の実施形態を示す、画像入力方法の動作フロー図。
【図31】本発明の第4の実施形態の画像入力装置に係る説明図。
【図32】本発明の第4の実施形態を示す、画像入力方法の動作フロー図。
【図33】本発明の第5の実施形態を示す、画像入力装置の構成ブロック図。
【図34】本発明の第5の実施形態を示す、画像入力方法の動作フロー図。
【図35】本発明の第6の実施形態を示す、画像入力装置のハードウェア構成図。
【符号の説明】
1 撮像装置、2 画像処理装置、11 撮像部、12 姿勢検出部、13 情報転送部、21 画像変換部、22 画像記録部、23 対応検出部、24 並進成分算出部、25 3次元位置算出部、26 被写体中心位置算出部、27 光軸高密度位置検出部、29 任意視点画像生成部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing technique for three-dimensionally displaying, on a display device or the like, a group of captured images obtained by capturing the same subject from various viewpoints using a digital camera or a video camera.
[0002]
[Prior art]
With the dramatic advancement of electronic technology and the low cost of digital cameras, digital cameras have rapidly spread. Because digital cameras are small and convenient to carry and can be easily installed in various devices, applications that use image information taken with digital cameras are being developed. One example of such an application is an electronic commerce advertisement. An image obtained by photographing a product with a digital camera is posted on the Web (an electronic information source provided so that many users can view it on the screen of their information processing apparatus via a network). At this time, since the appearance of the product can be seen only in an image obtained by photographing the product from one direction, it is necessary to publish a plurality of images taken from various directions.
As a method of expressing a plurality of images, a method of displaying images in a simple arrangement is possible, but it is difficult to grasp an image of the entire product simply by arranging a plurality of images. In order to solve this problem, the product is expressed as a three-dimensional image by calculating the three-dimensional shape of the product from a plurality of image groups, generating a polygon, and displaying the image texture pasted on the polygon. There is a technique that makes it easy to grasp the product image. However, it is difficult to accurately measure a three-dimensional shape from a group of images taken with a digital camera. As a result, image quality deteriorates when a three-dimensional image is generated by pasting an image texture onto the measured three-dimensional shape. There was a problem.
As a method for solving such a problem, there is an expression method such as QuickTime (registered trademark) VR that displays a product three-dimensionally by switching photographed images according to a user's instruction. Such an expression method is expected because it can easily grasp the image of a product without degrading the image quality. However, in the above-described expression method such as QuickTime (registered trademark) VR, the image group data indicates the photographing position relationship between the digital camera and the product when the product is photographed so that the image group is switched according to a user instruction. Must be saved to. Therefore, it is necessary to measure the shooting position relationship between the digital camera and the product. Generally, when shooting a group of images such as QuickTime (registered trademark) VR, a device dedicated to shooting QuickTime (registered trademark) VR images is used.
[0003]
In the prior art described in JP-A-9-81790, the movement of the camera is detected by an acceleration sensor or an angular velocity sensor, and the optical axis direction is corrected so that the optical axes from different viewpoints intersect at an arbitrary point. A three-dimensional image is generated. At that time, the subject is detected by comparing the estimated value of the motion vector calculated from the sensor information and the preset distance between the subject and the camera and the motion vector obtained by the image processing.
In the prior art disclosed in Japanese Patent Application Laid-Open No. 9-186957, the position vector (X, Y, Z) and posture (θ, φ) of a plurality of imaging means are added to the captured image information and stored. Thus, an image group obtained by using an image group obtained by photographing the same subject from various viewpoints is recorded so as to be displayed three-dimensionally.
In the prior art disclosed in Japanese Patent Laid-Open No. 9-245195, a group of images taken from different viewpoints is projected onto the light space, and the light space data is created over the entire light space, and the image is taken from the light space data. An image with an arbitrary viewpoint different from the viewpoint is generated.
In the prior art disclosed in Japanese Patent Laid-Open No. 11-306363, a posture detection sensor is attached to the photographing apparatus, posture information that changes when the position of the imaging device is moved is calculated from the sensor information, and translational movement information is obtained. Calculates the position information of the moved imaging apparatus with high accuracy by calculating from the position information of corresponding points in at least two images, and measures the three-dimensional shape of the subject.
In the prior art disclosed in Japanese Patent Application Laid-Open No. 2001-177850, posture information is detected by attaching a posture sensor to an imaging unit, and translation component information is calculated by obtaining a moving speed from a change in an image signal. Thus, the position of the subject in the three-dimensional space is detected from the posture information and the translation component information, and the subject is projected from the position in the three-dimensional space onto the image plane.
[Patent Document 1] JP-A-9-81790
[Patent Document 2] JP-A-9-186957
[Patent Document 3] JP-A-9-245195
[Patent Document 4] Japanese Patent Laid-Open No. 11-306363
[Patent Document 5] Japanese Patent Laid-Open No. 2001-177850
[Patent Document 6] Japanese Patent Laid-Open No. 11-37736
[0004]
[Problems to be solved by the invention]
As described above, in an expression method such as QuickTime (registered trademark) VR, in general, when photographing an image group such as QuickTime (registered trademark) VR, a special device such as a QuickTime (registered trademark) VR image capturing dedicated device is used. Therefore, it is difficult for ordinary people who do not have a dedicated device to generate QuickTime (registered trademark) VR images. For this reason, the display in the QuickTime (registered trademark) VR format is an expression method that makes it easy to grasp the product image, but there is a problem that it is used only on some Web sites.
In the prior art described in Japanese Patent Laid-Open No. 9-81790, since the distance between the subject and the camera is set in advance, a three-dimensional image can be generated only under specific shooting conditions, and the direction of the optical axis is changed. Therefore, the structure of the apparatus becomes complicated.
The prior art described in Japanese Patent Laid-Open No. 9-186957 mainly targets a plurality of fixed imaging means whose position vectors (X, Y, Z) and postures (θ, φ) are known. Therefore, in the case of a monocular imaging means, the position vector (X, Y, Z) and orientation (θ, φ) cannot be calculated, and the captured image is added with position / orientation information and stored. I can't. In addition, since the case where the subject is projected out of the center position of the captured image plane is not considered, if the subject is not projected so that the subject is projected at the center of the image plane at the time of shooting, The projected position does not change, and when the image is switched according to the user's instruction, the subject moves up and down and left and right on the image plane, and cannot be displayed three-dimensionally.
[0005]
In addition, since the conventional technique disclosed in Japanese Patent Laid-Open No. 9-245195 is intended for the case where posture information and translation component information are known, posture information and translation component information such as when using a monocular imaging means. If is unknown, ray space data cannot be generated. Therefore, it is impossible to generate an image with an arbitrary viewpoint different from the captured viewpoint from a plurality of images.
In addition, in the conventional technique disclosed in Japanese Patent Laid-Open No. 11-306363, in order to create a three-dimensional shape of a subject, a large number of corresponding points in an image must be detected. And the measurement accuracy of the three-dimensional shape is lowered, and image degradation may occur.
In the prior art disclosed in Japanese Patent Laid-Open No. 2001-177850, the translation component information is calculated from the change in the captured image signal on the assumption that the subject is continuously captured by a video camera or the like. When the subject is photographed discontinuously, the amount of change in the photographed image signal becomes large, and the accuracy of the translation component information cannot be accurately calculated.
An object of the present invention is to solve such a problem of the prior art. Specifically, even a general person who does not have a dedicated device uses a monocular imaging device such as a digital camera, and the same subject. Is provided from various viewpoints and, for example, by storing a QuickTime (registered trademark) VR format image group, a high-quality three-dimensional image can be generated not only under specific shooting conditions, There is.
[0006]
[Means for Solving the Problems]
In order to solve the above-mentioned problem, in the invention according to
According to a second aspect of the present invention, in the first aspect of the present invention, when the center position of the subject projected on the imaging surface of the imaging means deviates from the center position of the imaging surface, the center of the captured image information The center position of the image information is matched with the center position of the subject by translating the position.
According to a third aspect of the present invention, in the first aspect of the present invention, an image scaling unit for scaling a plurality of pieces of image information input by the imaging unit is provided.
According to a fourth aspect of the present invention, in the first aspect of the present invention, image information that is input when the imaging unit captures the subject from a viewpoint different from the viewpoint position when the subject is captured is generated. Arbitrary viewpoint image generation means is provided.
[0007]
According to a fifth aspect of the present invention, in an image input method for inputting a photographed image, an image pickup device when photographing the same subject from at least two or more viewpoints and photographing a plurality of pieces of image information and the subject. The posture information indicating the posture of the image is acquired, the acquired image information is rotationally converted based on the posture information, and the posture information is added to the rotation-converted image information and recorded.
In the invention described in
In the invention described in
In the invention according to
According to a ninth aspect of the present invention, in a program executed on the information processing apparatus, programming is performed so as to execute an image input by the image input method according to any one of the fifth to eighth aspects. It has been configured.
In the invention according to claim 10, the program according to claim 9 is stored in the storage medium storing the program.
[0008]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing the configuration of an image input apparatus according to the first embodiment of the present invention. As shown in the figure, the image input device of this embodiment includes an
In the above, the
The
The
[0009]
FIG. 2 shows a detailed configuration of the
Thereafter, the image signal is subjected to image processing such as aperture correction and compression processing by an IPP (Image Pre-Processor) 40 and temporarily stored in the image buffer memory 41. The temporarily stored image information is further stored in a storage area in the MPU (main control unit) 42.
The
[0010]
FIG. 3 is a block diagram showing the hardware configuration of the
[0011]
Next, as an example of posture detection by the
First, the device coordinate system and the world coordinate system are defined as follows.
(A) Device coordinate system: xyz coordinate system (see FIG. 4)
x-axis: Positive image plane right
y-axis: Image face down is positive
z-axis: optical axis direction; direction toward the object is positive
Origin o: Optical center of the
f: Camera focal length
p: vector component from the optical center of the
(B) World coordinate system: XYZ coordinate system (see FIG. 5)
Y axis: Gravitational acceleration direction is positive
Z-axis: Magnetic direction is positive
X axis: XYZ in the order of right-handed orthogonal system
For the sake of simplicity, it is assumed that the motion acceleration caused by the movement of the
The orientation of the apparatus coordinate system with respect to the world coordinate system is described by a rotation matrix vector R of the expression (1) with the world coordinate system as a reference.
However, in the equation (1), α, β, and γ are rotation angles around the X, Y, and Z axes with respect to the world coordinate system, respectively. At this time, the
(1) The
(2) The
(3) The
Now, the gravitational acceleration vector and the geomagnetic vector are expressed by the equation (2) in the world coordinate system, respectively, and the acceleration vector and the geomagnetic vector based on the apparatus coordinate system detected by the triaxial acceleration sensor 45 and the triaxial magnetic sensor 46 are expressed as follows. It is assumed that each is expressed by equation (3).
At this time, the relationship between the vector g and the vector a and the vector M and the vector m is described by the following equations (4) and (5) using the rotation matrix vector R. Hereinafter, symbols R and g (g may be a scalar), M (M may be a scalar), a, and m represent vectors.
Ra = g (4)
Rm = M (5)
From equation (4), the rotation angle α around the X axis and the rotation angle γ around the Z axis are calculated as in equations (6) and (7).
When the rotation angle γ around the Z axis is known, the rotation angle β around the Y axis is expressed by the following equation (5) from the geomagnetic vector m, as shown in the equation (8). 9) Calculated as follows:
However, if the rotation angle α around the X axis obtained using the acceleration vector a is used, the calculation of the equation (8) is unnecessary. With the above calculation, α, β, γ and the rotation matrix R can be detected from the triaxial acceleration sensor 45 and the triaxial magnetic sensor 46, and the apparatus coordinate system can be converted into the world coordinate system.
It is also possible to detect the amount of change in posture information when a plurality of images are taken. The posture information when the reference image is photographed is the rotation matrix R A , The rotation matrix R B Then, the rotation matrix R of the amount of change from the orientation of the imaging device when the reference image is captured to the orientation of the imaging device when the relative image is captured AB Is
R AB = R B / R A It becomes.
[0012]
Next, image conversion performed by the
When creating an image group for three-dimensionally displaying a plurality of images using QuickTime (registered trademark) VR or the like, generally, angle information of θ and φ is added to the image information as the above-described posture information. Record. Here, θ and φ are angles before and after the movement of the
If the photographing-dedicated
Therefore, the
[0013]
Next, image recording performed by the
The
First, image information taken from two or more viewpoints in the
(S2-1) The magnitude of the voltage value obtained from the output signal of the triaxial acceleration sensor 45 is read, the magnitude of the acceleration vector in the triaxial direction is compared, and the inclination of the
(S2-2) The magnitude of the voltage value obtained from the output signal of the triaxial magnetic sensor 46 is read, the magnitudes of the magnetic vectors in the triaxial direction are compared, and the inclination of the
(S2-3) The rotation angles θ, φ, and ψ of the
[0014]
Next, the
Thus, according to this embodiment, even a general person can easily shoot a plurality of subjects from various viewpoints using the
[0015]
Next, a second embodiment of the present invention will be described.
FIG. 15 is a block diagram showing the configuration of the image input apparatus according to the second embodiment of the present invention. FIG. 16 is an explanatory diagram thereof. As shown in the figure, the image input device of this embodiment includes an
The
Further, the
[0016]
Next, detection of corresponding points between a reference image and a relative image taken from two viewpoints will be described with reference to FIG.
First, feature points are extracted from image information in the reference image to detect feature points. Many methods have been studied for extracting feature values from image information to detect feature points. For example,
Next, corresponding points corresponding to the feature points of the reference image detected based on the feature amount extracted from the reference image are detected from the relative image. FIG. 17 shows a method for detecting corresponding points by block matching based on cross-correlation as an example of corresponding point detection. That is, when the i-th feature point (xi0, yi0) in the reference image and the point (xi0 + dx, yi0 + dy) in the relative image are associated by block matching in the correlation window (see FIG. 17) of (2N + 1) (2P + 1). The cross-correlation value Si is calculated by the equation (10).
N and P are arbitrarily determined constants representing the size of the correlation window. Moreover, the meaning of each symbol in Formula (10) is as follows. The meaning of each symbol in is as follows.
K: Constant
In this embodiment, the corresponding points between the reference image and the relative image are detected by sequentially detecting the corresponding points that maximize the cross-correlation value Si for each feature point.
[0017]
Next, an example of translation component calculation in the translation
In calculating the translation component, the translation component information is obtained by simple calculation using the posture information obtained from the
The points (xA, i, yA, i) and (xB, i, yB, i) in the image shown in FIG. 18 indicate points obtained by projecting the feature point object i of the subject on the images A and B, respectively. . i represents a number for identifying the corresponding point of the subject. In addition, a change in posture information from image A to image B is represented by posture information R. Also, pA, i represents a vector connecting the corresponding point in the image A and the optical center at the viewpoint A, and pB, i represents a vector connecting the corresponding point in the image B and the optical center at the viewpoint B. Since pA, i and pB, i are different in the (x, y, z) coordinate system and the (x ′, y ′, z ′) coordinate system, respectively, pB, i is multiplied by posture information R (RpB, i). ) To describe the direction of pB, i in the (x, y, z) coordinate system. Here, vectors of pA, i and RpB, i and t exist on a plane connecting the feature point Objectj of the subject, the optical center at the viewpoint A, and the optical center at the viewpoint B (see FIG. 18). Therefore, the scalar triple product (representing the volume of a solid) created by pA, i and RpB, i and t is 0, so that equation (11) holds.
Since the translation component information t to be obtained represents the direction of the vector, there are two variables. Therefore, it is possible to calculate the translation component information t by detecting two or more sets of corresponding points corresponding to the feature point Object of the subject, substituting the position information of the corresponding points into the equation (11), and solving the simultaneous equations. When two or more sets of corresponding points are detected, calculation may be performed using only those having a high cross-correlation value Si, or the scalar triple product of equation (11) may be calculated in consideration of errors due to image noise. The translation component information t to be minimized may be obtained, or a number of translation component information may be obtained and the translation component information group may be projected onto the voting space to obtain the optimum translation component information t (Takayuki Okaya, Koichiro Deguchi Author "Estimating translational motion of a camera by voting using a camera with a three-dimensional orientation sensor" Human Interface Computer Vision and Image Media 2001.9.13).
[0018]
Next, an example of calculating the three-dimensional position of the corresponding point by the three-dimensional
In order to calculate the three-dimensional position of the corresponding point, calculation is performed based on the principle of triangulation using position information, posture information, and translation component information of the corresponding point on the image. When the translation
Next, an example of subject center position calculation in the subject center
In the calculation of the center position of the subject in this embodiment, the average value of the three-dimensional positions of the corresponding points calculated by the three-dimensional
[0019]
Next, an example of image conversion in the
When the photographing-dedicated device as shown in FIG. 8 is attached to the subject and the
The
First, each imaging position of the
Here, the normal of the imaging surface is a straight line passing through the points (X1, Y1, Z1) and (X2, Y2, Z2), and the imaging surface is a plane passing through (X2, Y2, Z2).
In the above, assuming that the shooting position of the image A is a reference position in the world coordinate system, the equations of the normal line and the imaging plane of the image A are (X1, Y1, Z1) = (0, 0, 1), (X2, Y2). , Z2) = (0, 0, 0) is substituted into the equations (12) and (13). Further, the normal of the image B and the equation of the imaging plane are obtained by converting the position of the points (X1, Y1, Z1), (X2, Y2, Z2) from the posture information R and the translation component information t (X′1, By substituting Y'1, Z'1), (X'2, Y'2, Z'2) (conversion formulas shown in formulas (14) and (15)) into formulas (12) and (13) Calculated. Similarly, it is possible to calculate the normal of the imaging surface and the plane equation at each imaging position.
[0020]
Next, a straight line L2 that passes through the subject center position calculated by the subject center
Subsequently, an intersection point p4 (X4, Y4, Z4) between the calculated straight line L2 and the imaging surface is calculated (see FIG. 24). The intersection point p4 can be calculated by solving simultaneous equations (13) and (16). Further, when the image information is translated so that the center position (XC, YC, ZC) of the captured image coincides with the position (X4, Y4, Z4) of the intersection point p4, the translation vector (Tx, In order to calculate (Ty), the center position (XC, YC, ZC) of the photographed image and the position (X4, Y4, Z4) of the intersection point p4 are expressed by the device coordinate system (xC, yC, zC) from the equations (17) and (18). ), (X4, y4, z4) (indicated by arrows in FIG. 24). Here, since the center position of the captured image and the position of the intersection point p4 are within the same imaging plane, the Z coordinate value in the apparatus coordinate system is the same value.
Therefore, Tz in the equation (19) is always Tz = 0, and the translation vector (Tx, Ty) is as in the equation (20). By moving the photographed image in translation in the translation vector direction, the projection position of the subject is moved to the center position of the photographed image.
In the above description, the
[0021]
25 and 26 show the operation flow of the image input operation of this embodiment. The operation flow will be described below with reference to FIGS. 25 and 26.
First, image information taken from two or more viewpoints in the
[0022]
Subsequently, the
Subsequently, in the relative image, a feature amount extraction block is created as in the case of the reference image, the luminance value distribution in the block is detected, and the stored luminance value distribution information of the reference image and the feature amount extraction of the relative image are performed. Matching with the luminance value distribution information of the block is performed, and the image position information at the center position of the feature quantity extraction block closest to each feature point is stored in the memory as the position information of the corresponding point. However, if there is no feature quantity extraction block close to the luminance value distribution information of the feature value extraction block of the feature point, the stored image position information and luminance value distribution information of the feature point of the relative image are deleted from the memory.
Next, the translation
[0023]
Next, the three-dimensional
Subsequently, the subject center
Thereafter, rotation angle θ and φ information is added to the image information that has been subjected to image conversion, and the image information and the like are stored in the image recording unit 22 (step S18).
In this way, according to this embodiment, a subject can be displayed three-dimensionally only by photographing a plurality of objects from various viewpoints by the
[0024]
Next, a third embodiment of the present invention will be described.
In the second embodiment, the three-dimensional position of the corresponding point on the world coordinates is calculated in order to calculate the subject center position, and the average value of the corresponding points is assumed to be the subject center position. Then, the subject center position is calculated by taking into account the optical axis direction of the
FIG. 27 is a block diagram showing the configuration of the image input apparatus according to the third embodiment. As shown in the figure, this image input device is composed of an
On the other hand, the optical axis high-density position detection unit 27 detects the position where the optical axes intersect or the position where the optical axis density is the highest when the optical axes (z direction) at each photographing position are drawn on the world coordinates. Hereinafter, an operation in which the optical axis high-density position detection unit 27 detects a position having a high optical axis density will be described.
As described above, in the second embodiment, the average value of the three-dimensional positions of the corresponding points is set as the subject center position. However, in the third embodiment, the photographer projects the center position of the subject on the image center. Assuming that the subject center position of each projected image is averaged, the subject center position statistically agrees with the average image center position, and the position with the highest optical axis density is assumed. The center position.
Therefore, in this embodiment, the shooting position of each
[0025]
FIG. 30 shows an operation flow of this embodiment. The operation of this embodiment will be described below with reference to FIG.
First, in the
Next, the
Subsequently, in the relative image, a feature quantity extraction block is similarly created, the brightness value distribution in the block is detected, and the stored brightness value distribution information of the reference image and the brightness value of the feature quantity extraction block of the relative image are stored. Matching with the distribution information is performed, and for each feature point, the image position information at the center position of the closest feature amount extraction block is stored in the memory as the position information of the corresponding point. However, if there is no feature quantity extraction block close to the brightness value distribution information of the feature value extraction block of the feature point, the stored image position information and brightness value distribution information of the feature point are deleted from the memory.
[0026]
Next, the translation
Next, the optical axis high-density position detection unit 27 calculates a linear equation of the optical axis from the posture information and the translation component information, and detects a position with a high optical axis density (step S25). Specifically, first, the optical axis direction when each image is photographed is calculated from the posture information and the translation component information, the world coordinate space is divided into regions, and the number through which the optical axis passes is calculated for each divided region. Then, detection is performed assuming that the center position of the region through which the optical axis passes most is the subject center position.
Next, the
Thereafter, rotation angle θ and φ information is added to the image information that has been subjected to image conversion, and the image information and the like are stored in the image recording unit 22 (step S27).
Thus, according to this embodiment, even if a special image capturing dedicated device as shown in FIG. 8 or the like is not used, the
[0027]
Next, a fourth embodiment of the present invention will be described.
The image input apparatus according to this embodiment has a configuration in which an image scaling unit is added to the image processing apparatus according to the second or third embodiment (for example, added in the image conversion unit 21). With such a configuration, the image scaling means changes the magnification of the captured image so that the size of the subject projected on each captured image becomes equal. If the distance from the imaging surface to the subject is different when shooting the subject, the size of the subject projected on the imaging surface is also different and the projection is performed as shown in FIG. The size of the subject projected on the imaging surface is made constant by scaling the image taken according to the distance. Hereinafter, the operation will be described.
First, a distance L from the position (X2, Y2, Z2) on the imaging surface where the image A is taken to the subject center position (X3, Y3, Z3) is calculated by the equation (21). Further, the distance L ′ from the position (X′2, Y′2, Z′2) on the imaging surface where the image B is taken to the subject center position (X3, Y3, Z3) is calculated by the equation (22). Then, using the image A as a reference image, the ratio between the distance L of the image A and the distance L ′ of the image B is calculated, and the magnification H of the image B is calculated. B = L '/ L is calculated. Furthermore, the captured image of image B is changed to H B By multiplying, the size of the subject projected on the imaging surfaces of the images A and B is made constant. Such processing is executed for each captured image, and the size of the subject projected on all image planes is made constant. The operation flow of this embodiment will be described below with reference to the operation flow shown in FIG.
First, image information photographed from two or more viewpoints in the
Subsequently, the rotation angles θ, φ, and ψ of the
[0028]
Next, the
Next, the translation
Next, the optical axis high-density position detection unit 27 calculates a linear equation of the optical axis from the posture information and the translation component information, and detects a position where the optical axis density is high (step S35). That is, the optical axis direction when each image is captured is calculated from the posture information and the translation component information, the world coordinate space is divided into regions, the number of optical axes that pass through each divided region is calculated, and the optical axis is the most. The detection is performed assuming that the center position of a frequently passing region is the subject center position. Next, the image scaling unit in the
[0029]
Next, a fifth embodiment of the present invention will be described.
FIG. 33 is a block diagram showing the configuration of the image input apparatus according to this embodiment. As shown in the figure, the image input device of this embodiment is composed of an
With this configuration, in the image input apparatus of this embodiment, the arbitrary viewpoint image generation unit 29 generates a light space image from the captured image group, posture information, and translation component information in order to generate an arbitrary viewpoint image. Generate. From the posture information and the translation component information, each pixel value in the photographed image is converted into ray data in a three-dimensional space, and the converted ray data is projected onto the ray space f (X, Y, Z, θ, φ). For areas where there is no light data in space, linear light interpolation processing or the like is executed to interpolate and synthesize light data to generate a light space image. The method for generating the light space image is a known technique, Takeyuki Yanagisawa, Ken Naemura, Masahide Kaneko, and Hiroshi Harashima “Manipulation of a three-dimensional object using light space” (Television Society Journal vol50, No9). , Pp 1345-1351, 1996), Takeshi Naemura, Masahide Kaneko, Hiroshi Harashima "Description of a three-dimensional space based on orthographic expression of ray information" (Television
[0030]
FIG. 34 shows an operation flow of this embodiment. The operation flow will be described below with reference to FIG.
First, in the
Next, as in the fourth embodiment, the
Next, the arbitrary viewpoint image generation unit 29 generates a light space image from the posture information and the translation component information (step S45). Specifically, first, each pixel value in the photographed image is converted from the posture information and the translation component information into ray data in a three-dimensional space, and the ray data is converted to f (X, Y, Z, θ, φ in the ray space. ). It should be noted that for a region having no ray data in the ray space, ray data is interpolated and synthesized by linear interpolation processing to generate a ray space image.
Thereafter, the generated light space image is recorded in the image recording unit 22 (step S46).
[0031]
Although the embodiment shown in FIG. 1 and the like has been described above, the imaging device can also be realized by using a PC (Personal Computer), a portable information terminal device, or the like. In recent years, digital cameras that can realize various functions by reading various processing programs have appeared. In addition, notebook PCs equipped with cameras capable of rotating the direction, PDAs (Personal Digital Assistants) and mobile phones equipped with cameras have come into widespread use. The function can be realized by executing the processing program for realizing the image input method described in the embodiment.
For example, in a case where such a program is executed on a notebook PC equipped with a camera, camera-specific processing such as AF (Auto Focus) is executed inside the camera to select a shooting mode and start / end shooting. The control, the suspension of the focus detection operation, the display of the image and the focus detection area, etc. are executed after the program is taken in via an arbitrary user interface of the notebook PC. The following is an example of assignment in the user interface.
Shooting mode selection: Cursor keys
Shooting start / end control: Return key
Pause focus detection: Space key
Display of image and focus detection area: Displayed on LCD (liquid crystal display device of PC)
In the sixth embodiment, an embodiment for realizing image input according to the present invention by causing the program to be read from a storage medium in which a processing program for realizing the image input method described in each embodiment is written. A form is shown in FIG. As shown in FIG. 35A, the CD-ROM 61 in which the program is written is mounted on a
[0032]
【The invention's effect】
As described above, according to the present invention, when the same subject is photographed from at least two viewpoints and a plurality of pieces of image information and the subject are photographed. Can acquire attitude information indicating the attitude of the image sensor, rotate and convert the acquired image information based on the attitude information, add the attitude information to the rotated and converted image information, and record it. Even ordinary people who do not have a camera can easily shoot the same subject from various viewpoints using a monocular imaging device such as a digital camera and store, for example, QuickTime (registered trademark) VR image groups. Therefore, a high-quality three-dimensional image can be generated not only under specific shooting conditions.
[0033]
Further, in the invention of
Further, in the invention of the third aspect, in the invention of the first aspect of the invention, in the invention of the seventh aspect of the invention of the fifth aspect, the input image information can be scaled. Even if the size of the subject projected on the image plane changes due to the variation in the distance between the shooting positions, the size of the subject in the image group data can be made the same.
Further, in the invention of
In the invention according to claim 9, a program programmed to execute image input by the image input method according to any one of
In the invention according to claim 10, since the program according to claim 9 can be stored in a removable storage medium, the storage medium has been described in any one of
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of an image input apparatus according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of the main part of the image input apparatus according to the first embodiment of the present invention.
FIG. 3 is a hardware configuration diagram of the main part of the image input apparatus, showing the first embodiment of the present invention.
FIG. 4 is an explanatory diagram of a main part of the image input device according to the first embodiment of the present invention.
FIG. 5 is another explanatory diagram showing the main part of the image input apparatus according to the first embodiment of the present invention.
FIG. 6 is another explanatory diagram of the main part of the image input apparatus showing the first embodiment of the present invention.
FIG. 7 is another explanatory diagram of the main part of the image input apparatus showing the first embodiment of the present invention.
FIG. 8 is another explanatory diagram of the main part of the image input apparatus showing the first embodiment of the present invention.
FIG. 9 is an explanatory diagram according to the image input apparatus of the first embodiment of the present invention.
FIG. 10 is another explanatory diagram according to the image input apparatus of the first embodiment of the present invention.
FIG. 11 is another explanatory diagram of the main part of the image input apparatus showing the first embodiment of the present invention.
FIG. 12 is another explanatory diagram of the main part of the image input apparatus showing the first embodiment of the present invention.
FIG. 13 is a data configuration diagram of the main part of the image input apparatus, showing the first embodiment of the present invention.
FIG. 14 is an operation flowchart of the image input method according to the first embodiment of the present invention.
FIG. 15 is a block diagram showing the configuration of an image input apparatus according to the second embodiment of the present invention.
FIG. 16 is an explanatory diagram of an image input device according to a second embodiment of the present invention.
FIG. 17 is an explanatory diagram of a main part of an image input device, showing a second embodiment of the present invention.
FIG. 18 is another explanatory diagram of the main part of the image input apparatus showing the second embodiment of the present invention.
FIG. 19 is another explanatory diagram of the main part of the image input device showing the second embodiment of the present invention.
FIG. 20 is an explanatory diagram relating to an image input apparatus according to a second embodiment of the present invention.
FIG. 21 is another explanatory diagram according to the image input apparatus of the second embodiment of the present invention.
FIG. 22 is another explanatory diagram of the main part of the image input device, showing the second embodiment of the present invention.
FIG. 23 is another explanatory diagram of the main part of the image input apparatus showing the second embodiment of the present invention.
FIG. 24 is another explanatory diagram showing the main part of the image input device according to the second embodiment of the present invention.
FIG. 25 is an operation flowchart of the image input method according to the second embodiment of the present invention.
FIG. 26 is a flowchart showing another operation of the image input method according to the second embodiment of the present invention.
FIG. 27 is a block diagram showing the configuration of an image input apparatus according to a third embodiment of the present invention.
FIG. 28 is an explanatory diagram of a main part of an image input device according to a third embodiment of the present invention.
FIG. 29 is another explanatory diagram showing the main part of the image input apparatus according to the third embodiment of the present invention.
FIG. 30 is an operation flowchart of the image input method according to the third embodiment of the present invention.
FIG. 31 is an explanatory diagram relating to an image input apparatus according to a fourth embodiment of the present invention.
FIG. 32 is an operation flowchart of an image input method according to the fourth embodiment of the present invention.
FIG. 33 is a block diagram showing the configuration of an image input apparatus according to a fifth embodiment of the present invention.
FIG. 34 is an operation flowchart of an image input method according to the fifth embodiment of the present invention.
FIG. 35 is a hardware configuration diagram of an image input apparatus according to a sixth embodiment of the present invention.
[Explanation of symbols]
DESCRIPTION OF
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003204006A JP2005049999A (en) | 2003-07-30 | 2003-07-30 | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003204006A JP2005049999A (en) | 2003-07-30 | 2003-07-30 | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005049999A true JP2005049999A (en) | 2005-02-24 |
Family
ID=34263170
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003204006A Pending JP2005049999A (en) | 2003-07-30 | 2003-07-30 | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005049999A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008109481A (en) * | 2006-10-26 | 2008-05-08 | Mitsubishi Electric Corp | Image generating apparatus |
JP2008232776A (en) * | 2007-03-20 | 2008-10-02 | Fujifilm Corp | Three-dimensional shape measuring device and method, and program |
JP2010033503A (en) * | 2008-07-31 | 2010-02-12 | Kddi Corp | Image generation device, method and program |
JP2010183150A (en) * | 2009-02-03 | 2010-08-19 | Hoya Corp | Camera capable of fixed-point shooting |
JP4763847B1 (en) * | 2010-08-30 | 2011-08-31 | 楽天株式会社 | Image conversion apparatus, image processing apparatus, and image processing system |
JP4783859B1 (en) * | 2010-08-30 | 2011-09-28 | 楽天株式会社 | Image conversion apparatus, image processing system, image conversion method, program, and information recording medium |
US8155432B2 (en) | 2006-12-01 | 2012-04-10 | Fujifilm Corporation | Photographing apparatus |
JP2012244250A (en) * | 2011-05-16 | 2012-12-10 | Nikon Corp | Electronic apparatus |
WO2012169103A1 (en) * | 2011-06-10 | 2012-12-13 | パナソニック株式会社 | Stereoscopic image generating device and stereoscopic image generating method |
CN103047969A (en) * | 2012-12-07 | 2013-04-17 | 北京百度网讯科技有限公司 | Method for generating three-dimensional image through mobile terminal and mobile terminal |
WO2013105205A1 (en) * | 2012-01-10 | 2013-07-18 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
JP2014514539A (en) * | 2011-03-23 | 2014-06-19 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method for aligning at least a portion of a first image and at least a portion of a second image using a collinear transform warp function |
US9053522B2 (en) | 2010-05-26 | 2015-06-09 | Nec Corporation | Image processing device, image processing method, and image processing program |
US9153004B2 (en) | 2010-08-30 | 2015-10-06 | Rakuten, Inc. | Product image interpolating device, method and non-transitory information recording medium |
WO2018142493A1 (en) * | 2017-01-31 | 2018-08-09 | 富士通株式会社 | Image processing device, image processing method, image processing program, image capturing method, and mobile object |
CN109831620A (en) * | 2018-12-29 | 2019-05-31 | 上海与德通讯技术有限公司 | A kind of image acquisition method, device, electronic equipment and storage medium |
US20220217286A1 (en) * | 2021-01-03 | 2022-07-07 | Asensus Surgical Us, Inc. | Correction of horizon tilt in an endoscopic image |
-
2003
- 2003-07-30 JP JP2003204006A patent/JP2005049999A/en active Pending
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008109481A (en) * | 2006-10-26 | 2008-05-08 | Mitsubishi Electric Corp | Image generating apparatus |
US8155432B2 (en) | 2006-12-01 | 2012-04-10 | Fujifilm Corporation | Photographing apparatus |
JP2008232776A (en) * | 2007-03-20 | 2008-10-02 | Fujifilm Corp | Three-dimensional shape measuring device and method, and program |
JP2010033503A (en) * | 2008-07-31 | 2010-02-12 | Kddi Corp | Image generation device, method and program |
JP2010183150A (en) * | 2009-02-03 | 2010-08-19 | Hoya Corp | Camera capable of fixed-point shooting |
US9053522B2 (en) | 2010-05-26 | 2015-06-09 | Nec Corporation | Image processing device, image processing method, and image processing program |
US9153004B2 (en) | 2010-08-30 | 2015-10-06 | Rakuten, Inc. | Product image interpolating device, method and non-transitory information recording medium |
EP2592820A4 (en) * | 2010-08-30 | 2017-05-10 | Rakuten, Inc. | Product imaging device, product imaging method, image conversion device, image processing device, image processing system, program, and information recording medium |
EP2608555B1 (en) * | 2010-08-30 | 2018-09-26 | Rakuten, Inc. | Product imaging device, product imaging method, image coversion device, image processing device, image processing system, program, and information recording medium |
WO2012029193A1 (en) * | 2010-08-30 | 2012-03-08 | 楽天株式会社 | Product imaging device, product imaging method, image conversion device, image processing device, image processing system, program, and information recording medium |
JP4783859B1 (en) * | 2010-08-30 | 2011-09-28 | 楽天株式会社 | Image conversion apparatus, image processing system, image conversion method, program, and information recording medium |
JP4763847B1 (en) * | 2010-08-30 | 2011-08-31 | 楽天株式会社 | Image conversion apparatus, image processing apparatus, and image processing system |
US9373170B2 (en) | 2010-08-30 | 2016-06-21 | Rakuten, Inc. | Product image interpolating device, method, and non-transitory information recording medium |
JP2014514539A (en) * | 2011-03-23 | 2014-06-19 | メタイオ ゲゼルシャフト ミット ベシュレンクテル ハフツング | Method for aligning at least a portion of a first image and at least a portion of a second image using a collinear transform warp function |
JP2012244250A (en) * | 2011-05-16 | 2012-12-10 | Nikon Corp | Electronic apparatus |
WO2012169103A1 (en) * | 2011-06-10 | 2012-12-13 | パナソニック株式会社 | Stereoscopic image generating device and stereoscopic image generating method |
JP5501474B2 (en) * | 2011-06-10 | 2014-05-21 | パナソニック株式会社 | Stereoscopic image generating apparatus and stereoscopic image generating method |
US9338425B2 (en) | 2011-06-10 | 2016-05-10 | Panasonic Intellectual Property Management Co., Ltd. | Device and method for generating stereoscopic image |
WO2013105205A1 (en) * | 2012-01-10 | 2013-07-18 | 日本電気株式会社 | Image processing apparatus, image processing method, and image processing program |
CN103047969A (en) * | 2012-12-07 | 2013-04-17 | 北京百度网讯科技有限公司 | Method for generating three-dimensional image through mobile terminal and mobile terminal |
WO2018142493A1 (en) * | 2017-01-31 | 2018-08-09 | 富士通株式会社 | Image processing device, image processing method, image processing program, image capturing method, and mobile object |
CN109831620A (en) * | 2018-12-29 | 2019-05-31 | 上海与德通讯技术有限公司 | A kind of image acquisition method, device, electronic equipment and storage medium |
US20220217286A1 (en) * | 2021-01-03 | 2022-07-07 | Asensus Surgical Us, Inc. | Correction of horizon tilt in an endoscopic image |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005049999A (en) | Image input system, image input method, program described to execute method on information processing device, and storage medium with program stored | |
Szeliski et al. | Direct methods for visual scene reconstruction | |
CN103176347B (en) | Panorama sketch image pickup method and filming apparatus and electronic equipment | |
JP4010753B2 (en) | Shape measuring system, imaging device, shape measuring method, and recording medium | |
JP5116416B2 (en) | Panorama video generation apparatus and method | |
US8456524B2 (en) | Egomotion speed estimation on a mobile device using a single imager | |
CN110070598B (en) | Mobile terminal for 3D scanning reconstruction and 3D scanning reconstruction method thereof | |
JP4010754B2 (en) | Image processing apparatus, image processing method, and computer-readable recording medium | |
JP2010136302A5 (en) | IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND PROGRAM | |
JP2010088085A (en) | Imaging apparatus, imaging method, and program | |
JP2004213355A (en) | Information processing method | |
TW201044858A (en) | Imaging apparatus, imaging control method, and recording medium | |
JP2009278456A (en) | Video display device | |
JP2003015218A (en) | Projection display device | |
JP3957888B2 (en) | Imaging apparatus and captured image composition method | |
JP2022130180A (en) | Image processing method, program, image processing device, and image processing system | |
JP3109580B2 (en) | IMAGE INPUT DEVICE AND COMPUTER-READABLE RECORDING MEDIUM RECORDING IMAGE PROCESSING PROGRAM FOR IMAGE INPUT DEVICE | |
JP2005038021A (en) | Image processing apparatus, image input device, image processing method and program for executing the method by computer | |
JP2000134537A (en) | Image input device and its method | |
JP4169464B2 (en) | Image processing method, image processing apparatus, and computer-readable recording medium | |
WO2021149509A1 (en) | Imaging device, imaging method, and program | |
JP2011055084A (en) | Imaging apparatus and electronic device | |
TWI672950B (en) | Image device capable of compensating image variation | |
JP4112925B2 (en) | Image input apparatus, image input method, and program executed by computer | |
JP2004274254A (en) | Image input apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060511 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060511 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20060601 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090501 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090512 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090708 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090804 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091005 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20091208 |