Nothing Special   »   [go: up one dir, main page]

JP5293463B2 - 画像処理装置、画像処理方法およびプログラム - Google Patents

画像処理装置、画像処理方法およびプログラム Download PDF

Info

Publication number
JP5293463B2
JP5293463B2 JP2009162341A JP2009162341A JP5293463B2 JP 5293463 B2 JP5293463 B2 JP 5293463B2 JP 2009162341 A JP2009162341 A JP 2009162341A JP 2009162341 A JP2009162341 A JP 2009162341A JP 5293463 B2 JP5293463 B2 JP 5293463B2
Authority
JP
Japan
Prior art keywords
image
stereoscopic
file
subject
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009162341A
Other languages
English (en)
Other versions
JP2011019084A (ja
JP2011019084A5 (ja
Inventor
俊二 岡田
幸雄 磯部
森本  直樹
篤 前
英司 田所
英生 小幡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2009162341A priority Critical patent/JP5293463B2/ja
Priority to US12/802,680 priority patent/US8599243B2/en
Priority to CN2010102219693A priority patent/CN101951525B/zh
Publication of JP2011019084A publication Critical patent/JP2011019084A/ja
Publication of JP2011019084A5 publication Critical patent/JP2011019084A5/ja
Application granted granted Critical
Publication of JP5293463B2 publication Critical patent/JP5293463B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/597Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding specially adapted for multi-view video sequence encoding
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/19Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier
    • G11B27/28Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording
    • G11B27/32Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier
    • G11B27/322Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information detectable on the record carrier by using information signals recorded by the same method as the main recording on separate auxiliary tracks of the same or an auxiliary record carrier used signal is digitally coded
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/161Encoding, multiplexing or demultiplexing different image signal components
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/172Processing image signals image signals comprising non-image signal components, e.g. headers or format information
    • H04N13/178Metadata, e.g. disparity information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/189Recording image signals; Reproducing recorded image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B2220/00Record carriers by type
    • G11B2220/20Disc-shaped record carriers
    • G11B2220/25Disc-shaped record carriers characterised in that the disc is based on a specific recording technology
    • G11B2220/2537Optical discs
    • G11B2220/2541Blu-ray discs; Blue laser DVR discs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/913Television signal processing therefor for scrambling ; for copy protection
    • H04N2005/91307Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal
    • H04N2005/91321Television signal processing therefor for scrambling ; for copy protection by adding a copy protection signal to the video signal the copy protection signal being a copy protection control signal, e.g. a record inhibit signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2213/00Details of stereoscopic systems
    • H04N2213/005Aspects relating to the "3D+depth" image format
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/78Television signal recording using magnetic recording
    • H04N5/781Television signal recording using magnetic recording on disks or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/84Television signal recording using optical recording
    • H04N5/85Television signal recording using optical recording on discs or drums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/7921Processing of colour television signals in connection with recording for more than one processing mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • H04N9/8047Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction using transform coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8227Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being at least another television signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Library & Information Science (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Television Signal Processing For Recording (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Description

本発明は、画像処理装置に関し、特に、動画を立体視させるための画像処理を行う画像処理装置、および、画像処理方法ならびに当該方法をコンピュータに実行させるプログラムに関する。
従来、左右眼の視差を利用して立体的な視覚を得ることができる立体視画像を表示するための立体視画像表示方法が多数提案されている。例えば、左眼画像および右眼画像により構成される立体視画像を表示させ、偏光メガネを用いて立体視させる立体視画像表示方法が提案されている。また、近年では、偏光メガネを用いずに画像を立体視させる立体視画像表示方法が提案されている。この立体視画像表示方法として、例えば、パララックスバリア方式、レンチキュラー・レンズ方式、超多眼式等の多眼式の立体視画像表示方法が提案されている。
また、立体視画像を表示するための動画を画像データとして記録するデジタルスチルカメラやデジタルビデオカメラ(カメラ一体型レコーダ)等の撮像装置が提案されている。例えば、立体視画像を表示するための左眼画像および右眼画像をビデオストリームとして記録する光ディスク記録装置が提案されている(例えば、特許文献1参照。)。
特開2008−67393号公報(図1)
上述の従来技術によれば、記録された動画を再生する場合に、この動画を構成する画像を立体視画像として順次表示させることができる。
しかしながら、上述の従来技術により、立体視画像を表示するための動画を画像データとして記録する場合には、例えば、同一時刻に略同一の被写体が記録された画像が左眼画像および右眼画像として順次記録される。このように記録される場合には、平面画像(二次元画像)を表示するための動画が画像データとして記録される場合と比較すると、立体視画像に関する画像データの記憶容量が多くなる。
ここで、近年では、ユーザが容易に携帯することができるように、撮像装置の小型化が進んでおり、撮像装置に搭載される記録媒体についても小型化が進んでいる。例えば、このような撮像装置をユーザが旅行に携帯し、その旅行先の各場所において立体視画像に関する画像データを記録することが想定される。しかしながら、このような撮像装置に搭載される小型の記録媒体は、各データを記憶することが可能な記憶容量が少ない場合も多い。このため、立体視画像に関する画像データを記録する場合には、記録可能な時間が制限されることが想定される。そこで、立体視画像を表示するための動画を記録する場合には、その記憶容量を削減することが重要である。
本発明はこのような状況に鑑みてなされたものであり、立体視画像を表示するための動画を適切に生成することを目的とする。
本発明は、上記課題を解決するためになされたものであり、その第1の側面は、被写体を撮像して撮像画像を生成する撮像部と、上記撮像画像に関する奥行情報を生成する奥行情報生成部と、上記撮像画像に含まれる被写体のうち特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を上記奥行情報に基づいて上記撮像画像から抽出して当該抽出された画像に基づいて上記撮像画像に含まれる被写体を立体視するための立体視画像を表示するための差分画像を生成する画像処理部と、上記撮像画像に対応するデータと上記差分画像に対応するデータとを関連付けてデータストリームを生成して当該データストリームを動画ファイルとして記録させる記録制御部とを具備する画像処理装置および画像処理方法ならびに当該方法をコンピュータに実行させるプログラムである。これにより、撮像画像に含まれる被写体のうち特定の被写体とこの被写体の周辺領域とを含む対象領域の画像を奥行情報に基づいて撮像画像から抽出し、この抽出された画像に基づいて差分画像を生成し、撮像画像に対応するデータと差分画像に対応するデータとを関連付けてデータストリームを生成し、このデータストリームを動画ファイルとして記録させるという作用をもたらす。
また、この第1の側面において、上記画像処理部は、上記奥行情報に基づいて上記撮像画像の撮像位置から所定範囲内に存在する被写体を上記特定の被写体として決定し、上記特定の被写体に係る上記奥行情報に基づいて当該特定の被写体の上記撮像画像の水平方向における上記周辺領域を決定して上記対象領域の画像を上記撮像画像から抽出するようにしてもよい。これにより、奥行情報に基づいて特定の被写体を決定し、この被写体に係る奥行情報に基づいて、その被写体の撮像画像の水平方向における周辺領域を決定し、対象領域の画像を撮像画像から抽出するという作用をもたらす。
また、この第1の側面において、上記撮像部は、上記立体視画像を表示するための第1の撮像画像および第2の撮像画像を上記撮像画像として生成し、上記奥行情報生成部は、上記第2の撮像画像に関する上記奥行情報を生成し、上記画像処理部は、上記第2の撮像画像に含まれる被写体のうち上記特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を上記第2の撮像画像に関する上記奥行情報に基づいて上記第2の撮像画像から抽出して当該抽出された画像に基づいて上記差分画像を生成し、上記記録制御部は、上記第1の撮像画像に対応するデータと上記差分画像に対応するデータとを関連付けて上記データストリームを生成するようにしてもよい。これにより、第1の撮像画像および第2の撮像画像を生成し、第2の撮像画像に関する奥行情報を生成し、この奥行情報に基づいて対象領域の画像を第2の撮像画像から抽出し、この抽出された画像に基づいて差分画像を生成し、第1の撮像画像に対応するデータと差分画像に対応するデータとを関連付けてデータストリームを生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、上記差分画像に対応するデータを含む旨を示す立体視画像識別情報を含めた上記データストリームを生成するようにしてもよい。これにより、立体視画像識別情報を含めたデータストリームを生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、AVCHD規格におけるモディファイドデジタルビデオパックに上記立体視画像識別情報を含めた上記データストリームをAVCHD規格に従って生成するようにしてもよい。これにより、AVCHD規格におけるモディファイドデジタルビデオパックに立体視画像識別情報を含めたデータストリームをAVCHD規格に従って生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、上記動画ファイルが上記差分画像に対応するデータを含む旨を示す立体視画像識別情報を、上記動画ファイルを管理する動画管理ファイルに含めて当該動画管理ファイルを記録させるようにしてもよい。これにより、立体視画像識別情報を動画管理ファイルに含めてその動画管理ファイルを記録させるという作用をもたらす。
また、この第1の側面において、上記記録制御部は、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに上記立体視画像識別情報を含めた上記動画管理ファイルを記録させるようにしてもよい。これにより、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに立体視画像識別情報を含めた動画管理ファイルを記録させるという作用をもたらす。
また、この第1の側面において、上記記録制御部は、上記撮像画像に対応するデータと上記差分画像に対応するデータと上記奥行情報に対応するデータとを関連付けて上記データストリームを生成するようにしてもよい。これにより、撮像画像に対応するデータと、差分画像に対応するデータと、奥行情報に対応するデータとを関連付けてデータストリームを生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、上記奥行情報に対応するデータを含む旨を示す奥行情報存否情報を含めた上記データストリームを生成するようにしてもよい。これにより、奥行情報存否情報を含めたデータストリームを生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、AVCHD規格におけるモディファイドデジタルビデオパックに上記奥行情報存否情報を含めた上記データストリームをAVCHD規格に従って生成するようにしてもよい。これにより、AVCHD規格におけるモディファイドデジタルビデオパックに奥行情報存否情報を含めたデータストリームをAVCHD規格に従って生成するという作用をもたらす。
また、この第1の側面において、上記記録制御部は、上記動画ファイルが上記奥行情報に対応するデータを含む旨を示す奥行情報存否情報を、上記動画ファイルを管理する動画管理ファイルに含めて当該動画管理ファイルを記録させるようにしてもよい。これにより、奥行情報存否情報を動画管理ファイルに含めてその動画管理ファイルを記録させるという作用をもたらす。
また、この第1の側面において、上記記録制御部は、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに上記奥行情報存否情報を含めた上記動画管理ファイルを記録させるようにしてもよい。これにより、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに奥行情報存否情報を含めた動画管理ファイルを記録させるという作用をもたらす。
また、この第1の側面において、上記記録制御部は、AVCHD規格におけるムービープレイリストファイルにおける拡張データ領域に上記奥行情報のプレイアイテムの登録領域を定義して当該登録領域に上記奥行情報のプレイアイテムを記録させるようにしてもよい。これにより、AVCHD規格におけるムービープレイリストファイルにおける拡張データ領域に奥行情報のプレイアイテムの登録領域を定義し、この登録領域に奥行情報のプレイアイテムを記録させるという作用をもたらす。
また、この第1の側面において、上記動画ファイルに含まれる上記撮像画像および上記差分画像に基づいて上記立体視画像を構成する第1の画像を復元する画像復元部と、上記復元された第1の画像と上記撮像画像とに基づいて上記立体視画像を生成する立体視画像生成部とをさらに具備するようにしてもよい。これにより、動画ファイルに含まれる撮像画像および差分画像に基づいて、立体視画像を構成する第1の画像を復元し、この第1の画像と撮像画像とに基づいて立体視画像を生成するという作用をもたらす。
また、この第1の側面において、上記撮像部は、上記立体視画像を表示するための第1の撮像画像および第2の撮像画像を上記撮像画像として生成し、上記記録制御部は、上記動画ファイルを表す代表画像を立体視画像として表示させるための上記第1の撮像画像に対応する第1のサムネイル画像と上記第2の撮像画像に対応する第2のサムネイル画像とを関連付けて上記動画ファイルを管理する動画管理ファイルに記録させるようにしてもよい。これにより、動画ファイルを表す代表画像を立体視画像として表示させるための第1のサムネイル画像と第2のサムネイル画像とを関連付けて動画管理ファイルに記録させるという作用をもたらす。
また、この第1の側面において、上記動画管理ファイルに記録されている上記第1のサムネイル画像および上記第2のサムネイル画像に基づいて上記動画ファイルを表す代表画像を立体視画像として一覧表示させる表示制御部をさらに具備するようにしてもよい。これにより、動画管理ファイルに記録されている第1のサムネイル画像および第2のサムネイル画像に基づいて、動画ファイルを表す代表画像を立体視画像として一覧表示させるという作用をもたらす。
本発明によれば、立体視画像を表示するための動画を適切に生成することができるという優れた効果を奏し得る。
本発明の第1の実施の形態における撮像装置100の機能構成例を示すブロック図である。 本発明の第1の実施の形態における撮像部110の内部構成例および撮像部110により生成される撮像画像の例を示す図である。 本発明の第1の実施の形態における撮像部110の配置関係と、被写体距離を特定するための特性曲線との一例を示す図である。 本発明の第1の実施の形態における奥行情報生成部120が奥行マップを生成する際に用いられる被写体距離と奥行値との関係を示す図である。 本発明の第1の実施の形態における奥行情報生成部120が奥行マップを生成する際に用いられる被写体距離と奥行値との関係を示す図である。 本発明の第1の実施の形態における撮像部110により生成された撮像画像(左眼)311および撮像画像(右眼)312に含まれる被写体の位置関係を模式的に示す図である。 本発明の第1の実施の形態における画像処理部130により生成される立体視差分画像に関する被写体の奥行値と、この被写体を含む記録対象領域を特定するための画素値との関係を示す図である。 本発明の第1の実施の形態における画像処理部130が撮像画像(右眼)312から立体視差分画像を生成する場合における立体視差分画像生成方法を模式的に示す図である。 本発明の第1の実施の形態における画像処理部130が撮像画像(右眼)312から立体視差分画像を生成する場合における遷移を模式的に示す図である。 本発明の第1の実施の形態における記録制御部160がAVストリームを生成する場合におけるデータ処理を模式的に示す図である。 本発明の第1の実施の形態における記憶部200に記憶される動画ファイルと、この動画ファイルを管理する動画管理ファイルとを模式的に示す図である。 AVCHDのファイルの種別と、その役割との対応関係を概略的に示す図である。 AVCHD規格におけるファイル構成の一例を示す図である。 AVCHD規格におけるデータ構造を示す図である。 AVCHD規格におけるモディファイドデジタルビデオパック全般のデータ構造を示す図である。 AVCHD規格における奥行マップに対応するデータストリームを含むストリームファイルの構成を示す図である。 AVCHD規格におけるインデックスファイルのデータ構造を示す図である。 AVCHD規格におけるプレイリストファイルのデータ構造を示す図である。 AVCHD規格におけるクリップインフォメーションファイルのデータ構造を示す図である。 本発明の第1の実施の形態における記録制御部160により立体視画像に関する各データが各管理ファイルに記録される場合を模式的に示す図である。 本発明の第1の実施の形態における撮像装置100による動画記録処理の処理手順を示すフローチャートである。 本発明の第1の実施の形態における再生装置800の機能構成例を示すブロック図である。 本発明の第1の実施の形態における画像復元部806が立体視主画像および立体視差分画像を用いて復元画像を生成する復元画像生成方法の流れを模式的に示す図である。 本発明の第1の実施の形態における再生装置800による動画再生処理の処理手順を示すフローチャートである。 本発明の第2の実施の形態における撮像装置830の機能構成例を示すブロック図である。 本発明の第2の実施の形態における画像処理部831により生成される立体視画像に関する被写体の奥行値と、この被写体を移動すべき領域を特定するための画素値との関係を示す図である。 本発明の第2の実施の形態における画像処理部831が撮像画像311から右眼視用画像を生成する場合における立体視画像生成方法を模式的に示す図である。 本発明の第3の実施の形態における撮像装置860の機能構成例を示すブロック図である。 本発明の第3の実施の形態における記録制御部861によるサムネイル画像の記録処理を模式的に示す図である。 本発明の第3の実施の形態における表示制御部862によるサムネイル画像の表示処理を模式的に示す図である。
以下、本発明を実施するための形態(以下、実施の形態と称する)について説明する。説明は以下の順序により行う。
1.第1の実施の形態(立体視画像の記録制御:立体視差分画像を生成してこの立体視差分画像を含めた動画ファイルを記録する例)
2.第2の実施の形態(立体視画像の表示制御:簡易的な立体視画像を生成して表示する例)
3.第3の実施の形態(サムネイル画像の記録制御および表示制御:サムネイル画像を立体視画像として表示させるための記録例およびそのサムネイル画像の表示例)
<1.第1の実施の形態>
[撮像装置の構成例]
図1は、本発明の第1の実施の形態における撮像装置100の機能構成例を示すブロック図である。撮像装置100は、撮像部110と、奥行情報生成部120と、画像処理部130と、画像エンコーダ140と、奥行情報エンコーダ150と、記録制御部160と、操作受付部170と、記憶部200とを備える。
撮像部110は、立体視撮像対応の撮像部であり、操作受付部170からの操作入力に応じて、被写体を撮像して2つの撮像画像(画像データ)を生成し、生成された2つの撮像画像を奥行情報生成部120および画像処理部130に出力する。この2つの撮像画像は、立体視画像を表示するための左眼視用画像(左眼画像)および右眼視用画像(右眼画像)である。また、撮像部110は、各レンズの位置および合焦位置を奥行情報生成部120に出力する。なお、撮像部110の内部構成については、図2を参照して詳細に説明する。
奥行情報生成部120は、撮像部110から出力された2つの撮像画像に関する奥行マップ(いわゆる、デプスマップ(Depth Map))を生成するものであり、生成された各奥行マップを画像処理部130および奥行情報エンコーダ150に出力する。また、奥行情報生成部120は、撮像画像に関する奥行マップを生成した際にはその旨を示す奥行マップ生成情報を記録制御部160に出力する。ここで、奥行マップは、撮像位置(例えば、撮像装置100の位置)から、撮像画像に含まれる被写体までの距離(被写体距離)を表すデータである。この奥行マップの生成方法として、例えば、TOF(Time of flight)方式やボケ量解析(Depth from Defocus)等の方法を用いることができる。例えば、TOF方式は、光源から出射された光が対象物で反射し、センサに到達するまでの光の遅れ時間と光の速度とに基づいて被写体までの距離を算出する方法である。なお、本発明の第1の実施の形態における奥行マップの生成方法については、図3等を参照して詳細に説明する。
画像処理部130は、操作受付部170からの操作入力に応じて、撮像部110から出力された2つの撮像画像のうちの1つの撮像画像について、奥行情報生成部120から出力された奥行マップに基づいて立体視差分画像を生成するものである。そして、画像処理部130は、生成された立体視差分画像と、撮像部110から出力された2つの撮像画像のうちの他の撮像画像(立体視主画像)とを画像エンコーダ140に出力する。また、画像処理部130は、立体視主画像および立体視差分画像を生成した際にはその旨を示す立体視画像生成情報を記録制御部160に出力する。ここで、立体視差分画像は、立体視画像を表示するための画像であり、立体視主画像を用いることにより、元の画像を生成することができる。なお、立体視差分画像の生成については、図6乃至図9を参照して詳細に説明する。
画像エンコーダ140は、画像処理部130から出力された立体視主画像および立体視差分画像(デジタルビデオデータ)をエンコードするものであり、エンコードされた立体視主画像および立体視差分画像を記録制御部160に出力する。例えば、画像エンコーダ140は、画像処理部130から出力されたデジタルビデオデータを、所定の圧縮符号化方式により圧縮符号化し、この圧縮符号化されたデジタルビデオデータをAVストリームとして記録制御部160に供給する。動画記録フォーマットとして、本発明の実施の形態では、AVCHD規格の動画記録フォーマットを採用する場合には、動画の圧縮符号化方式として、高効率符号化が可能なH.264/MPEG−4 AVC方式を用いる場合を説明する。この方式を用いる場合には、例えば、DCT(Discrete Cosine Transform)と画面内予測とによりフレーム内圧縮が行われる。そして、動きベクトルを用いたフレーム間圧縮が行われ、さらにエントリピー符号化が行われることにより圧縮効率が高められる。ここで、立体視主画像および立体視差分画像として、同期処理(いわゆる、ゲンロック(GEN_LOCK))が行われた画像がエンコードされる。また、エンコード時には、画像処理部130から出力された立体視主画像および立体視差分画像に同一のPTS(Presentation Time Stamp)が付与される。なお、PTSは、動画再生時の同期に用いられるタイムスタンプである。
奥行情報エンコーダ150は、奥行情報生成部120から出力された奥行マップをエンコードするものであり、エンコードされた奥行マップを記録制御部160に出力する。例えば、奥行情報エンコーダ150は、奥行情報生成部120から出力されたデジタルデータを、所定の圧縮符号化方式により圧縮符号化し、この圧縮符号化されたデジタルデータをAVストリームとして記録制御部160に供給する。
記録制御部160は、画像エンコーダ140から出力されたAVストリームと、奥行情報エンコーダ150から出力されたAVストリームとを所定の方式で多重化して1本のAVストリームとし、動画ファイル化して記憶部200に記録させるものである。例えば、記録制御部160は、AVストリームを多重化し、この多重化されたAVストリームをストリームバッファに順次蓄積する。例えば、動画記録フォーマットとしてAVCHD規格の動画記録フォーマットを採用する場合には、MPEG−2 TS(トランスポートストリーム)に従って多重化が行われる。そして、記録制御部160は、ストリームバッファに蓄積されたデータ量を監視し、ストリームバッファに所定量以上のデータが蓄積されると、ストリームバッファから記憶部200の記録単位分のデータを読み出して記憶部200に書き込む。すなわち、記録制御部160は、ストリームバッファに蓄積されたAVストリームを動画ファイル化し、記憶部200に記録させる。また、記録制御部160は、画像処理部130から出力された立体視画像生成情報と、奥行情報生成部120から出力された奥行マップ生成情報とに基づいて、立体視画像識別情報および奥行マップ存否情報をAVストリームに含める。同様に、記録制御部160は、立体視画像識別情報および奥行マップ存否情報を動画管理ファイルに含めて記憶部200に記録させる。なお、これらの記録方法については、図10乃至図20を参照して詳細に説明する。
操作受付部170は、ユーザからの操作入力を受け付ける操作受付部であり、受け付けられた操作入力に応じた操作内容を撮像部110および画像処理部130に出力する。例えば、立体視画像を表示するための動画を記録する立体視画像撮像モードを設定する設定操作が受け付けられた場合には、その旨が撮像部110および画像処理部130に出力される。また、立体視画像撮像モードが設定されている状態で、録画ボタンを押下する押下操作が受け付けられた場合には、その旨が撮像部110および画像処理部130に出力される。
記憶部200は、記録制御部160による記録制御に基づいて動画ファイル等の情報を記憶する記憶部である。例えば、記憶部200は、画像エンコーダ140から出力されたデジタルビデオデータと、奥行情報エンコーダ150から出力されたデジタルデータとが多重化して生成されたAVストリーム(データストリーム)を動画ファイルとして記憶する。また、記憶部200は、動画ファイルを管理する動画管理ファイルを記憶する。なお、記憶部200は、撮像装置100に内蔵するようにしてもよく、撮像装置100から着脱可能とするようにしてもよい。また、記憶部200として、半導体メモリ、光記録媒体、磁気ディスク、HDD(Hard Disk Drive)等の種々のものを用いることができる。なお、光記録媒体は、例えば、記録可能なDVD(Digital Versatile Disc)、記録可能なCD(Compact Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))等を用いることができる。
[撮像部の構成例および撮像画像の生成例]
図2は、本発明の第1の実施の形態における撮像部110の内部構成例および撮像部110により生成される撮像画像の例を示す図である。図2(a)には、撮像装置100および被写体の関係をその側面から見た場合を概略的に示す。図2(b)には、図2(a)に示す状態を上面から見た場合における撮像装置100および被写体の関係と、撮像部110の内部構成例とを概略的に示す。図2(c)には、図2(a)および(b)に示す配置により生成された撮像画像の例を示す。この例では、人301と、地面に立設されている棒302乃至304と、山305とを被写体として、2つの撮像画像を同時に生成する場合を例にして示す。
図2(a)に示す例では、撮像装置100のレンズ部111のズーム位置がワイド端に設定されているものとする。この場合に、人301、棒302および303は、撮像装置100からの距離(被写体距離)が、映像の左右視差による立体視感覚が知覚されやすい0.5m〜5.0mの範囲(特定被写体抽出対象区間306)内に存在するものとする。一方、棒304および山305は被写体距離が5.0mを超える範囲に存在するものとする。
図2(b)に示すように、撮像部110は、レンズ部111と、右撮像素子112と、左撮像素子113と、右撮像信号処理部114と、左撮像信号処理部115と、カメラ制御部116とを備える。ここで、撮像部110は、立体視画像を表示するための右眼視用画像および左眼視用画像を生成するため、レンズ部111の各レンズ、撮像素子、撮像信号処理部のそれぞれが左右1組となるように構成されている。図2(b)では、撮像部110において、右眼視用画像を生成するためのレンズ部111におけるレンズには、その楕円内に右の文字を付して示す。また、右眼視用画像を生成するための撮像素子、撮像信号処理部のそれぞれを、右撮像素子112、右撮像信号処理部114として示す。一方、左眼視用画像を生成するためのレンズ部111におけるレンズには、その楕円内に左の文字を付して示す。また、左眼視用画像を生成するための撮像素子、撮像信号処理部のそれぞれを、左撮像素子113、左撮像信号処理部115として示す。なお、これらのレンズ部111の左右のレンズ、右撮像素子112および左撮像素子113、右撮像信号処理部114および左撮像信号処理部115の各構成は、配置位置が異なる以外は共通するものである。このため、以下では、これらの左右の構成のうち何れかについては一部の説明を省略して説明する。
レンズ部111は、被写体からの光を集光する複数のレンズ(ズームレンズおよびフォーカスレンズを含む)や、これらのレンズを通過した光の量(すなわち、露出)を被写体照度に応じて調整する絞り(図示せず)を備える光学系である。そして、集光された被写体からの光を右撮像素子112および左撮像素子113に出力する。すなわち、右側のレンズからは、集光された被写体からの光が右撮像素子112に出力され、左側のレンズからは、集光された被写体からの光が左撮像素子113に出力される。
右撮像素子112および左撮像素子113は、レンズ部111を介して入射された被写体像を同期駆動により結像して画像信号を生成する撮像素子である。すなわち、右撮像素子112は、右側のレンズを介して入射された被写体からの光を受光して光電変換を行うことにより、光の受光量に応じたアナログの画像信号を生成する右眼視用撮像素子である。また、左撮像素子113は、左側のレンズを介して入射された被写体からの光を受光して光電変換を行うことにより、光の受光量に応じたアナログの画像信号を生成する左眼視用撮像素子である。このように右撮像素子112により生成されたアナログの画像信号が右撮像信号処理部114に供給され、左撮像素子113により生成されたアナログの画像信号が左撮像信号処理部115に供給される。撮像素子として、例えば、CCD(Charge Coupled Device)型やCMOS(Complementary Metal Oxide Semiconductor)型の固体撮像素子を用いることができる。
右撮像信号処理部114は、右撮像素子112から出力された画像信号に対して各種の信号処理を施す右眼視用撮像信号処理部である。また、左撮像信号処理部115は、左撮像素子113から出力された画像信号に対して各種の信号処理を施す左眼視用撮像信号処理部である。そして、信号処理が施された左右の画像信号(画像データ)が、カメラ制御部116および画像処理部130に出力される。これらの右撮像信号処理部114および左撮像信号処理部115により生成される撮像画像については、図2(c)を参照して詳細に説明する。
カメラ制御部116は、撮像部110の各部に供給する制御信号を生成し、生成された制御信号を各部に供給してズーム制御、シャッター制御および露出制御等の制御を行うものである。例えば、カメラ制御部116は、レンズ部111におけるフォーカスレンズを移動させる制御信号を生成することにより、所定の被写体に対する合焦位置を検出するAF(Auto Focus:オートフォーカス)制御を行う。具体的には、カメラ制御部116は、右撮像信号処理部114および左撮像信号処理部115から出力された画像信号に対応する撮像画像について、所定の位置をAFエリア(距測エリア)として追従処理を行う。そして、カメラ制御部116は、その追従処理とともにフォーカスレンズを移動させてオートフォーカス制御を行う。このオートフォーカス制御では、レンズ部111における左右のフォーカスレンズを同期して移動させる。また、カメラ制御部116は、レンズ部111におけるズームレンズおよびフォーカスレンズの位置を奥行情報生成部120に出力する。
図2(c)に示す撮像画像(左眼)311は、図2(a)および(b)に示す状態で左撮像信号処理部115から出力された画像信号に対応する撮像画像(左眼視用画像)である。また、図2(c)に示す撮像画像(右眼)312は、その状態で右撮像信号処理部114から出力された画像信号に対応する撮像画像(右眼視用画像)である。本発明の第1の実施の形態では、撮像画像(右眼)312に関する立体視差分画像を生成し、この立体視差分画像と撮像画像(左眼)311とを立体視画像を表示するための動画ファイルとして記録する。なお、立体視差分画像の生成については、図6乃至図9を参照して詳細に説明する。
[奥行マップの生成例]
次に、撮像部110により生成される撮像画像について奥行マップを生成する奥行マップ生成方法について図面を参照して詳細に説明する。最初に、奥行マップを生成する際に用いられる撮像装置100と被写体との距離(被写体距離)の算出方法について説明する。
図3は、本発明の第1の実施の形態における撮像部110の配置関係と、被写体距離を特定するための特性曲線との一例を示す図である。レンズ部111は、ズームレンズ部180と、絞り183と、固定レンズ184と、光学手ブレ補正レンズ185と、フォーカスレンズ186とを備える。また、ズームレンズ部180は、ズームレンズ181および光路折り曲げプリズム182を備える。なお、右撮像素子112の撮像面には光学フィルタ187が設けられている。図3では、説明を容易にするため、レンズ部111に備えられる複数のレンズを簡略化して、レンズ181、184乃至186のみを例示する。
ズームレンズ181は、カメラ制御部116からの制御信号に基づいて駆動されるアクチュエータにより光軸方向に移動してズーム機能を実現するためのレンズである。
光路折り曲げプリズム182は、ズームレンズ181を介して入射された被写体からの光を90°折り曲げるための直角プリズムである。
絞り183は、カメラ制御部116からの制御信号に基づいて開閉することによりズームレンズ181および光路折り曲げプリズム182を通過した光の量(すなわち、露出)を調整するものである。
光学手ブレ補正レンズ185は、カメラ制御部116からの制御信号に基づいて、光の進行方向と直行する方向に移動することにより手ブレを補正するレンズである。
フォーカスレンズ186は、カメラ制御部116からの制御信号に基づいて駆動されるアクチュエータにより光軸方向に移動して、フォーカス(焦点:ピント)を調整するレンズである。すなわち、フォーカスレンズ186によりオートフォーカス機能が実現される。
図3(b)には、被写体距離と、ズームレンズ181の位置と、フォーカスレンズ186の位置との関係を表す特性曲線の一例を示す。図3(b)に示すグラフにおいて、縦軸はフォーカスレンズ186の位置を示し、横軸はズームレンズ181の位置を示す。具体的は、縦軸において上側をニア側(至近側)とし、下側をファー側(無限遠側)とする。また、横軸において左側をワイド端側とし、右側をテレ端側とする。なお、これらの特性曲線は、撮像装置に用いられる各レンズに応じて異なる。本発明の第1の実施の形態では、奥行情報生成部120が、これらの特性曲線を保持しているものとする。
図3(b)に示す曲線L1乃至L4は、ズームレンズ181の位置とフォーカスレンズ186の位置とに基づいて、合焦された被写体と撮像装置100との被写体距離を特定するための曲線である。なお、図3(b)に示す例では、被写体距離が0.8m〜無限大(∞)の範囲内となる4本の特性曲線L1乃至L4を代表して示し、他の被写体距離に対応する特性曲線を省略して示す。図3(b)に示すように、ズームレンズ181の位置とフォーカスレンズ186の位置とが求められている場合には、この状態で合焦されている被写体に関する被写体距離を求めることができる。
図4は、本発明の第1の実施の形態における奥行情報生成部120が奥行マップを生成する際に用いられる被写体距離と奥行値との関係を示す図である。図4(a)では、被写体距離および奥行値の関係を表形式で示し、図4(b)では、被写体距離および奥行値の関係をグラフで示す。ここで、奥行値は、図4(a)および(b)に示すように、被写体距離に応じて決定される0乃至255の値である。また、奥行マップは、撮像画像を構成する画素毎に決定された奥行値と、これに対応する画素位置とが関連付けられている情報(深度情報)である。この奥行マップを用いることにより、撮像画像に含まれる各被写体の被写体距離を推定することができる。
ここで、被写界深度について説明する。被写界深度は、被写体に対して、実質的にフォーカスが合っていると考えられる被写体距離の範囲を示すものである。一般に、この範囲が広い場合には「被写界深度が深い」と称し、この範囲が狭い場合には「被写界深度が浅い」と称する。また、被写界深度は、絞りの開閉に応じて、変化することが広く知られている。例えば、絞りを開くと、この開きの度合いに応じて、被写界深度は浅くなる。一方、絞りを絞ると、この絞りの度合いに応じて、被写界深度が深くなる。
例えば、図3(a)に示す絞り183の開口の直径を比較的小さくした場合には、撮像装置100の光軸方向に対して多少前後している被写体に対しても、比較的広い範囲(光軸方向における範囲)の被写体にフォーカスが合うことになる。一方、絞り183の開口の直径を比較的大きくした場合には、撮像範囲に含まれる被写体が撮像装置100の光軸方向に対して多少前後していても、これらの被写体にフォーカスが合わないことがある。すなわち、被写界深度が浅い場合には、撮像装置100の光軸方向に対して多少前後している被写体に対しては、比較的狭い範囲の被写体にのみフォーカスが合うことになる。
そこで、本発明の第1の実施の形態では、上述した被写体深度の性質を用いて、奥行値を算出する場合を例にして説明する。
最初に、撮像動作の開始時において、ズームレンズ181がワイド端側に配置された状態で奥行値を算出する例について説明する。例えば、ズームレンズ181がワイド端側に配置された状態で、絞り183を解放して被写界深度を最も浅くする。このように、ズームレンズ181がワイド端側に配置された状態で、被写界深度を最も浅くすることにより、フォーカスが合うと考えられる被写体距離の範囲を狭くする。このように被写界深度を最も浅くした状態で、フォーカスレンズ186をファー側(無限遠側(>5m))に設定する。そして、被写界深度を最も浅くするとともに、フォーカスレンズ186をファー側に設定した状態で、対象となる撮像画像において合焦する領域を検出する。この合焦の有無については、高周波成分および低周波成分の特徴等を用いて判定することができる。例えば、撮像画像からコントラスト信号を検出し、このコントラスト信号の信号レベルの大小を利用して、合焦の有無を判定することができる。例えば、コントラスト信号の信号レベルが高い場合にはピントが合っている(合焦度合が高い)と判定し、コントラスト信号の信号レベルが低い場合にはピントがずれている(合焦度合が低い)と判定する。
このように、被写界深度を最も浅くするとともに、フォーカスレンズ186をファー側に設定した状態で合焦する領域に含まれる被写体は、撮像装置100から比較的離れた位置に存在するものと推定される。例えば、この領域に含まれる被写体の被写体距離は、図3(b)に示すグラフ(特性曲線L4)を用いることにより特定される。このように被写体距離が特定された領域に含まれる各画素には奥行情報生成部120が奥行値「0」を割り当てる。
続いて、被写界深度を最も浅くした状態で、フォーカスレンズ186をニア側(近距離側(0.5m))に設定する。そして、被写界深度を最も浅くするとともに、フォーカスレンズ186をニア側に設定した状態で、対象となる撮像画像において合焦する領域を検出する。このように、被写界深度を最も浅くするとともに、フォーカスレンズ186をニア側に設定した状態で合焦する領域に含まれる被写体は、撮像装置100から比較的近い位置に存在するものと推定される。例えば、この領域に含まれる被写体の被写体距離は、図3(b)に示すグラフの特性曲線を用いることにより最近距離(0.5m)と特定される。このように被写体距離が最近距離(0.5m)と特定された領域に含まれる各画素位置には、奥行情報生成部120が奥行値「255」を割り当てる。
続いて、被写界深度を最も浅くした状態で、フォーカスレンズ186をニア側からファー側まで順次移動させながら、対象となる撮像画像において合焦する領域をフォーカスレンズ186の位置毎に検出する。そして、このように検出された領域の被写体距離が図3(b)に示すグラフにより特定され、図4に示す関係に従って、奥行情報生成部120が奥行値(0〜255)を割り当てる。続いて、奥行情報生成部120が、撮像画像を構成する各画素について求められた奥行値に基づいて奥行マップを生成し、生成された奥行マップを画像処理部130および奥行情報エンコーダ150に出力する。
このように撮像動作の開始時において、奥行マップが初期設定される。そして、この初期設定がされた以降は、奥行情報生成部120が、撮像部110により生成された撮像画像に含まれる被写体について輪郭認識処理を継続して行い、認識された輪郭内の領域に奥行値を順次割り当てる。この輪郭認識処理は、例えば、撮像画像に含まれる各被写体について動きベクトルを検出し、この検出された動きベクトルに基づいて行われる。これにより、撮像動画を構成する各フレームについて奥行マップを生成することができる。
以上では、撮像動作の開始時において、ズームレンズ181をワイド端側に配置した状態で奥行値を算出する例について説明した。ここで、例えば、撮像動作の開始時において、ユーザ操作によりズーム操作が行われていることが想定される。例えば、講演している人を遠い位置から撮影する場合には、撮像動作の開始時において、ユーザ操作によりズーム操作が行われていることが多い。このように記録された撮像動画について、例えば、講演している人を立体視して視聴する場合も想定される。しかしながら、このように撮像画像が記録される場合には、ズームレンズ181がテレ端側に配置された状態となっているため、上述の奥行マップ生成方法により奥行マップを生成することができない。そこで、以下では、撮像動作の開始時において、ズームレンズ181がワイド端以外の位置に配置された状態で奥行値を算出する例について説明する。
図5は、本発明の第1の実施の形態における奥行情報生成部120が奥行マップを生成する際に用いられる被写体距離と奥行値との関係を示す図である。図5(a)では、図3(b)に示すグラフの横軸において、ズームレンズ181がZL1に位置する場合における被写体距離および奥行値の関係をグラフで示す。図5(b)では、図3(b)に示すグラフの横軸において、ズームレンズ181がZL2に位置する場合における被写体距離および奥行値の関係をグラフで示す。図5(c)では、図3(b)に示すグラフの横軸において、ズームレンズ181がZL3に位置する場合における被写体距離および奥行値の関係をグラフで示す。なお、図3(b)に示すグラフにおいて、ZL1乃至ZL3に対応する線上における太線の矢印は、ズームレンズ181の各配置位置におけるフォーカスレンズの合焦範囲を模式的に示す。また、図5では、3つのパターンK2乃至K4のみを示すが、4以上のパターンを保持することにより、各態様に応じて奥行値を求めることができる。
このように、ズームレンズ181がワイド端以外の位置に配置された状態でも、奥行値を割り当てることにより、撮像動作の開始時において、ズームレンズ181がワイド端以外の位置に配置された状態で奥行マップを生成することができる。
以上で示したように、各撮像画像について奥行マップを生成することができる。本発明の第1の実施の形態では、このように生成された奥行マップを用いて、左眼視用画像および右眼視用画像の重複領域を特定して右眼視用画像から立体視差分画像を生成し、この立体視差分画像と左眼視用画像とを記録する。
[立体視差分画像の生成例]
図6は、本発明の第1の実施の形態における撮像部110により生成された撮像画像(左眼)311および撮像画像(右眼)312に含まれる被写体の位置関係を模式的に示す図である。なお、図6(a)に示す撮像画像(左眼)311および撮像画像(右眼)312は、図2(c)に示すものと同一である。
図6(b)には、図6(a)に示す撮像画像(左眼)311に撮像画像(右眼)312を重ね合わせた状態を示す。なお、図6(b)に示す例では、撮像画像(左眼)311および撮像画像(右眼)312に含まれる被写体のうち、2つの撮像画像内における位置が比較的大きく異なる被写体の輪郭を太線で示す。また、この太線のうち、画像(右眼)312に含まれる被写体(人301、棒302および303)の輪郭を太い実線で示し、撮像画像(左眼)311に含まれる被写体(人301、棒302および303)の輪郭を太い点線で示す。
ここで、同時刻に生成される2つの撮像画像に含まれる被写体領域のうち、例えば、0.5m〜5.0mの範囲内に含まれる被写体部分は、撮像装置100から近い位置に存在するため、左右方向の位置が異なっていることが多い。一方、例えば、5.0m〜∞mの範囲内に含まれる被写体部分は、撮像装置100から遠い位置に存在するため、左右方向の位置が略同一となることが多い。例えば、図6(b)に示すように、撮像画像(左眼)311および撮像画像(右眼)312に含まれる被写体のうち、0.5m〜5.0mの範囲内に存在する被写体(人301、棒302および303)の撮像画像における位置が互いに異なっている。すなわち、撮像画像(左眼)311では、人301、棒302および303の撮像画像における位置が比較的右側となるのに対し、撮像画像(右眼)312では、人301、棒302および303の撮像画像における位置が比較的左側となる。一方、撮像画像(左眼)311および撮像画像(右眼)312に含まれる被写体のうち、5.0m〜∞mの範囲内に存在する被写体(棒304、山305)の撮像画像における位置は略同一である。すなわち、撮像画像(左眼)311および撮像画像(右眼)312のうちの一方については、他の撮像画像と、図6(b)に示す太線(実線および点線)で囲まれた領域(近距離被写体領域)とにより略同一の撮像画像を復元することができると想定される。そこで、本発明の第1の実施の形態では、同時刻に生成される2つの撮像画像のうち、1つの撮像画像(例えば、撮像画像(左眼)311)については、立体視主画像として記録する。また、他の撮像画像(例えば、撮像画像(右眼)312)については、各撮像画像に含まれる被写体領域のうち5.0m〜∞mの範囲内に含まれる被写体部分の共通領域を特定し、この共通領域以外の領域部分(近距離被写体領域)を立体視差分画像として記録する。この立体視差分画像を記録する場合には、背景領域(近距離被写体領域以外の領域)を同一色として記録する。そして、再生時には、立体視主画像に含まれる背景領域(近距離被写体領域以外の領域)を用いて立体視差分画像を復元して用いる。
図7は、本発明の第1の実施の形態における画像処理部130により生成される立体視差分画像に関する被写体の奥行値と、この被写体を含む記録対象領域を特定するための画素値との関係を示す図である。図7に示すグラフにおいて、縦軸は撮像画像に含まれる被写体について算出された奥行値を示し、横軸は記録対象領域を特定するための長さを画素数で示す。
上述したように、本発明の第1の実施の形態では、立体視差分画像については近距離被写体領域の画像のみを記録する。この近距離被写体領域については、立体視差分画像に含まれる被写体のうち、撮像装置100から比較的近い位置に存在する被写体の領域と、これらの被写体に対応する奥行値とを用いて算出することができる。
図6(b)に示すように、例えば、撮像画像(右眼)312に含まれる近距離被写体のうち、撮像装置100から最も近い位置に存在する被写体(人301)に関する近距離被写体領域は、水平方向に比較的長くなる。これに対して、撮像画像(右眼)312に含まれる近距離被写体のうち、撮像装置100から最も遠い位置に存在する被写体(棒303)に関する近距離被写体領域は、水平方向に比較的短い。このように、記録対象領域の水平方向の長さは、撮像装置100からの距離に応じて決定することができる。すなわち、記録対象領域の水平方向の長さを奥行値に基づいて算出することができる。そこで、以下では、記録対象領域の算出方法について図面を参照して詳細に説明する。
図8は、本発明の第1の実施の形態における画像処理部130が撮像画像(右眼)312から立体視差分画像を生成する場合における立体視差分画像生成方法を模式的に示す図である。なお、図8(a)に示す撮像画像(右眼)312は、図2(c)に示すものと同一である。
図8(b)には、撮像画像(右眼)312に含まれる被写体のうち、撮像装置100から比較的近い位置に存在する被写体(人301、棒302および303)に対応する領域331乃至333のみを矩形330内に斜線で示す。この領域331乃至333は、撮像画像(右眼)312について生成された奥行マップに基づいて特定される。
画像処理部130が、撮像画像から立体視差分画像を生成する場合には、撮像画像について生成された奥行マップに基づいて、撮像画像に含まれる被写体領域のうち、0.5m〜5.0mの範囲内に含まれる被写体領域を特定する。例えば、画像処理部130が、撮像画像(右眼)312に含まれる被写体のうち、0.5m〜5.0mの範囲内に含まれる被写体(人301、棒302および303)の領域を特定する。具体的には、図8(b)に示すように、画像処理部130が、撮像画像(右眼)312について算出された奥行マップを用いて、人301、棒302および303に対応する領域331乃至333を特定する。
このように撮像装置100から比較的近い位置に存在する被写体の領域は、立体視差分画像として記録する。ここで、例えば、このように被写体の領域のみを記録して再生時に立体視差分画像を復元する場合を想定する。この場合には、図6(b)に示すように、撮像画像(左眼)311に含まれる被写体のうち、近距離被写体の周辺領域を復元することができないことが想定される。そこで、本発明の第1の実施の形態では、撮像画像(右眼)312に含まれる人301、棒302および303の領域と、撮像画像(左眼)311に含まれる人301、棒302および303の領域とを含む領域を記録対象領域とする。そして、この記録対象領域の画像を立体視差分画像として記録する。
図8(c)には、図7に示すグラフに従って、人301、棒302および303の領域を移動させた場合を模式的に示す。なお、図8(c)では、移動前の領域331乃至333についてはその内部に斜線を付して示し、移動後の領域341乃至343については太線で示す。また、各領域の移動量を矢印で示す。図8(c)に示すように、撮像装置100から最も近い位置に存在する被写体(人301)の移動量は比較的長くなる。これに対して、撮像装置100から最も遠い位置に存在する被写体(棒303)の移動量は比較的短くなる。
以下では、具体的な記録対象領域の計算方法を示す。画像処理部130は、以下の式1に従って、対象となる撮像画像における各ラインの記録対象領域に対応する区間を算出する。ここで、近距離被写体(例えば、人301)の撮像画像(右眼)312における水平方向の1ラインにおける区間を区間O(=[O1,O2])とする。なお、水平方向の1ラインにおいて撮像画像(右眼)312における左端を原点とする。また、区間Oは、奥行値が0を超えている値が連続する閉区間であるものとする。この場合に、対象となる撮像画像の水平方向の1ラインにおける記録対象領域の区間R1は、以下の式1を用いて算出される。ここで、近距離被写体の区間Oにおける奥行値をD1とする。なお、区間Oにおける奥行値D1が均一でない場合には、区間Oにおいて最も多い奥行値を用いて区間R1の算出が行われる。また、区間Oにおける各奥行値の平均値を算出し、この平均値を用いて区間R1の算出を行うようにしてもよい。
R1=[O1,O2+k・D1] …式1
ここで、kは、対象被写体の水平方向の移動量を特定するための定数であり、図7に示すグラフに従って特定される左右視差の輻輳オフセット係数k(0≦k<1)とする。
これらを撮像画像(右眼)312の各ラインにおける近距離被写体について算出し、算出された区間R1が各ラインにおける記録対象領域の区間となる。また、同一ラインにおいて複数の近距離被写体が存在する場合には、これらの各近距離被写体について記録対象領域の区間を算出する。
図8(d)には、式1を用いて算出された記録対象領域の区間に基づいて撮像画像(右眼)312から抽出される記録対象領域351乃至353を示す。図8(d)では、記録対象領域351乃至353の輪郭を実線で示し、その内部を斜線で示す。また、図8(d)では、記録対象領域351乃至353の位置および大きさのみを示す。
図8(e)には、撮像画像(右眼)312において、記録対象領域361乃至363に含まれる被写体を矩形360内に実線で示すとともに、記録対象領域361乃至363の輪郭を矩形360内に太線で示す。また、撮像画像(右眼)312において、記録対象領域361乃至363以外の領域に含まれる被写体を矩形360内に点線で示す。なお、撮像画像(右眼)312における記録対象領域361乃至363の位置および大きさは、図8(d)に示す記録対象領域351乃至353と同一である。
図8(f)には、撮像画像(右眼)312から抽出された立体視差分画像370を示す。立体視差分画像370は、記録対象領域371乃至373に含まれる被写体に対応する画像である。また、立体視差分画像370における背景領域(記録対象領域371乃至373以外の領域)を均一色とする。なお、図8(f)では、記録対象領域371乃至373の輪郭を点線で示す。また、立体視差分画像370における記録対象領域371乃至373の位置および大きさは、図8(e)に示す記録対象領域361乃至363と同一である。
図9は、本発明の第1の実施の形態における画像処理部130が撮像画像(右眼)312から立体視差分画像を生成する場合における遷移を模式的に示す図である。なお、図9(a)に示す撮像画像(左眼)311および撮像画像(右眼)312は、図2(c)に示すものと同一である。また、図9(b)に示す記録対象領域351乃至353は、図8(d)に示すものと同一であり、図9(c)に示す立体視差分画像370は、図8(f)に示すものと同一である。
最初に、図9(a)に示すように、撮像部110が、撮像画像(左眼)311および撮像画像(右眼)312を生成する。続いて、奥行情報生成部120が、撮像画像(左眼)311および撮像画像(右眼)312のそれぞれについて奥行マップを生成する。続いて、図9(b)に示すように、画像処理部130が、撮像画像(右眼)312について生成された奥行マップに基づいて、撮像画像(右眼)312について記録対象領域351乃至353を算出する。続いて、図9(c)に示すように、画像処理部130が、立体視主画像380および立体視差分画像370を生成する。なお、図9(c)に示す立体視主画像380は、図9(a)に示す撮像画像(左眼)311と同一である。また、立体視差分画像370において、記録対象領域371乃至373以外の領域を均一色(例えば、ブルーバック)とする。すなわち、立体視差分画像370は、記録対象領域371乃至373に含まれる画像と、記録対象領域371乃至373以外の均一色の画像とにより構成される。
このように、撮像画像(右眼)312については、撮像画像(右眼)312に含まれる被写体のうち一部の被写体の画像のみを抽出し、この抽出された画像を立体視差分画像として記録する。このため、立体視画像を表示するための動画を記録する場合に、同時刻に生成された2つの撮像画像を記録する場合と比較して、記録対象となるデータ量を大幅に削減することができる。また、このように記録された動画ファイルを用いて立体視画像を表示する場合には、立体視差分画像から元の画像を復元することができる。このように、立体視差分画像から元の画像を復元する場合には、元の画像に含まれていた近距離被写体およびその周辺領域の画像と、立体視主画像の背景画像とを用いて復元することができる。このため、元の画像に含まれていた近距離被写体のみの画像と、立体視主画像の背景画像とを用いて復元する場合と比較して綺麗な立体視画像を表示させることができる。なお、このように復元される画像は、元の画像と略同一であるが、背景の一部が異なることも想定される。しかしながら、立体視画像は、目の左右視差による錯覚を利用してユーザに立体的な画像を見せるものであるため、背景の一部が異なっている場合でも、時間軸、空間軸による補間、平均化処理を加え補うことにより、ユーザに与える影響は少ないと想定される。
なお、この例では、撮像画像(右眼)に含まれる被写体のうち、被写体距離に基づいて、近距離被写体の領域およびその周辺領域を抽出する例を示した。しかしながら、例えば、撮像画像(右眼)に含まれる被写体のうち、特定の対象物(例えば、人物の顔)を検出し、この検出された対象物の領域およびその周辺領域を抽出して立体視差分画像として記録するようにしてもよい。
[立体視主画像、立体視差分画像および奥行マップの記録例]
次に、画像処理部130により生成された立体視主画像および立体視差分画像と、奥行情報生成部120により生成された奥行マップとを記録する記録方法について図面を参照して詳細に説明する。
図10は、本発明の第1の実施の形態における記録制御部160がAVストリームを生成する場合におけるデータ処理を模式的に示す図である。この例では、立体視主画像に対応するビデオストリームと、その奥行マップに対応するデータストリームと、立体視差分画像に対応するビデオストリームと、その奥行マップに対応するデータストリームとを多重化してAVストリームを生成する例について説明する。
図10(a)には、画像処理部130により生成された立体視主画像380および立体視差分画像370と、奥行情報生成部120により生成された奥行マップ401および402とを模式的に示す。なお、図10(a)に示す立体視主画像380および立体視差分画像370は、図9(c)に示す立体視主画像380および立体視差分画像370と同一である。また、奥行マップ401は、立体視主画像380について生成された奥行マップであり、奥行マップ402は、立体視差分画像370について生成された奥行マップであるものとする。なお、図10(a)では、奥行マップ401および402については、対応する画像に含まれる被写体を矩形内に点線で示し、具体的な奥行値の図示を省略する。
図10(b)には、画像処理部130により生成された立体視主画像380および立体視差分画像370と、奥行情報生成部120により生成された奥行マップ401および402とがストリームバッファに保持される状態を模式的に示す。
例えば、画像エンコーダ140が、立体視主画像380を圧縮符号化してデジタルビデオデータ(ビデオストリーム)を生成するとともに、立体視差分画像370を圧縮符号化してデジタルビデオデータ(ビデオストリーム)を生成する。なお、立体視主画像および立体視差分画像として、ゲンロックされた画像が用いられる。また、奥行情報エンコーダ150が、奥行マップ401を圧縮符号化してデジタルデータ(データストリーム)を生成するとともに、奥行マップ402を圧縮符号化してデジタルデータ(データストリーム)を生成する。
続いて、記録制御部160が、生成された各ストリームデータをファイルシステム管理情報とIFO(InFOrmation)ファイルデータとともに、GOP(Group Of Picture)単位で格納されたビデオオブジェクト単位を生成する。ここで言及するIFOファイルとは、本発明の実施の形態のAVCHDのアプリケーションフォーマットに準拠して映像音声ストリームコンテンツのアクセス記録再生編集を管理するストリーム管理データベースの管理情報ファイルの略称である。そして、記録制御部160は、ビデオオブジェクト単位が1個乃至複数個集合された記録データユニット410をストリームバッファに蓄積する。そして、記録制御部160が、所定分の記録データユニット410が蓄積されると、蓄積された記録データユニット410をまとめて、記憶部200に記録する制御を繰り返し行う。なお、ビデオオブジェクト単位(VOBU(Video Object Unit))は、1つまたは2つのGOPからなる集合であり、ディスクのSD(Standard Definition)映像フォーマットでのメディアへの基本アクセス単位である。ディスクのHD(High Definition)映像フォーマットにおいては、これに代わり、エントリポイント単位(EP(Entry Point))で1つ乃至数個のGOPからなる集合である。本発明の実施の形態のHD映像フォーマットの立体視画像記録再生では、例えば、立体視画像ストリームの同時刻1GOP単位セットを1エントリポイント単位として扱うものとする。
ここで、記録データユニット410を構成する立体視画像属性情報411には、画像処理部130から出力された立体視画像生成情報と、奥行情報生成部120から出力された奥行マップ生成情報とが記録される。これらの各情報に基づいて、立体視画像識別情報および奥行マップ存否情報が、AVストリームおよび動画管理ファイルに記録される。また、記録位置情報412には、記憶部200から取得されたメディアの追記論理アドレスが、メディア上の記録位置情報として記録される。このメディアの論理アドレス位置は、図19に示す「CPI()構造」724における「EP_map()」725に記録される。また、立体視主画像に対応するビデオストリームと、これに同期して生成された立体視差分画像に対応するビデオストリームとについては、同一のPTSが用いられる。なお、立体視主画像に対応するGOPには、立体視主画像の撮像時に同時に収音された撮影時音声やナレーション、BGM等を含む音声ストリームが適宜記録される。
[立体視画像および奥行マップに関する動画管理ファイルへの記録例]
図11は、本発明の第1の実施の形態における記憶部200に記憶される動画ファイルと、この動画ファイルを管理する動画管理ファイルとを模式的に示す図である。図11(a)には、1つの動画ファイルを構成する記録データユニット421乃至424を時系列で模式的に示す。ここで、図11(a)に示す動画ファイルは、動画記録開始(撮影開始)から動画記録終了(撮影終了)までの画像データ(映像データ)を1チャプタ420とするビデオデータファイルである。この動画ファイルを構成する記録データユニット421乃至424は、図10(b)に示す記録データユニット410に対応するものであり、動画記録開始から動画記録終了の指示操作があるまでの間、記憶部200に順次記録される。また、この動画ファイルには、画像データおよび音声データが含まれる。
図11(b)には、記憶部200に記憶されている動画管理ファイル430を示す。動画管理ファイル430は、記憶部200に記憶されている動画ファイルを管理するファイルであり、動画ファイルの編集対応の拡張管理ファイルである。動画管理ファイル430には、例えば、動画記録開始操作から動画記録終了操作までの間に記録された動画ファイルを1チャップタ毎に管理するための再生リスト登録情報431が記録される。この再生リスト登録情報431は、平面画像を表示するための動画ファイルと互換性のある再生リスト登録情報であり、再生開始点および再生終了点(IN/OUT点)、編集属性等が記録される。
動画管理ファイル430には、拡張アプリケーションフォーマットとして、立体視画像識別情報432および奥行マップ存否情報433が格納される。立体視画像識別情報432は、立体視主画像および立体視差分画像が関連付けて記録されている動画ファイルであるか否かを示す情報である。また、奥行マップ存否情報433は、各画像に奥行マップが関連付けて記録されている動画ファイルであるか否かを示す情報である。例えば、立体視主画像および立体視差分画像が関連付けて記録されている動画ファイルである場合には、立体視画像識別情報432に「1」が記録される。一方、立体視主画像および立体視差分画像が関連付けて記録されていない動画ファイル(例えば、他の記録装置からダビングされた動画ファイル)である場合には、立体視画像識別情報432に「0」が記録される。このように、動画管理ファイル430に立体視画像識別情報432を記録することにより、記憶部200に記憶されている動画ファイルを再生する場合に、立体視画像を表示可能であるか否かを認識して適切に再生させることができる。また、例えば、各画像に奥行マップが関連付けて記録されている動画ファイルである場合には、奥行マップ存否情報433に「1」が記録される。一方、各画像に奥行マップが関連付けて記録されていない動画ファイルである場合には、奥行マップ存否情報433に「0」が記録される。このように、動画管理ファイル430に奥行マップ存否情報433を記録することにより、記憶部200に記憶されている動画ファイルを再生する場合に、奥行マップを用いた再生を適切に行うことができる。
[AVCHD規格のデータ構造例]
次に、動画記録フォーマットの一例であるAVCHD規格について図面を参照して詳細に説明する。
図12は、AVCHDのファイルの種別と、その役割との対応関係を概略的に示す図である。AVCHD規格では、階層構造によりAVデータ(映像音声データ)を扱っており、インデックステーブルと、ムービーオブジェクトと、プレイリストと、クリップインフォメーションファイルと、クリップAVストリームファイルとに大別される。
クリップAVストリームファイル(Clip AV Stream File)は、ビデオデータ(映像データ)やオーディオデータ(音声データ)がMPEG−2 TS(トランスポートストリーム)形式により多重化されたビットストリームである。また、このクリップAVストリームには、OBストリーム(Overlay Bitmap stream)やMBストリーム(Menu Bitmap stream)を多重化することができる。ここで、OBストリームは、字幕を表示するグラフィクスストリームであり、MBストリームは、メニュー表示等に用いられるデータ(ボタン画像データ等)をストリームにしたものである。
クリップインフォメーションファイル(Clip Information File)は、クリップAVストリームファイルに関する情報をクリップ情報として保持するファイルである。このクリップインフォメーションファイルには、クリップAVストリームファイルにおける時間の位置と空間の位置(アドレス)との間のマッピング(変換)テーブル等が含まれている。これにより、クリップAVストリームファイルにおけるアクセスポイントが時間により指定された際、このマッピングテーブルを参照することにより、クリップAVストリームファイル上の適正なアドレスにアクセスすることができる。
これらクリップAVストリームファイルおよび対応するクリップ情報が記録されたクリップインフォメーションファイルをまとめてクリップと呼称する。また、クリップを構成するクリップAVストリームファイルおよびクリップインフォメーションファイルは1対1に対応する。
プレイリスト(PlayList)は、再生するクリップと、そのクリップの開始点および終了点の対に関する情報等から構成される。この再生開始点および再生終了点等の情報は、プレイアイテム(PlayItem)と呼称される。1つのプレイリストには、1つ以上のプレイアイテムが含まれる。クリップの再生は、このプレイリストを経由して行われる。すなわち、プレイリストが再生されることにより、そのプレイリストに含まれるプレイアイテムが順次再生されることになる。これにより、プレイアイテム中の再生開始点および再生終了点に従って、クリップ中の対応する区間が再生されていく。
各プレイアイテムには、プレイリストマークを付与することができる。このプレイリストマークにより、プレイアイテムは複数のチャプタに分割される。また、これとは逆に、1つのチャプタの中に複数のプレイアイテムが存在する場合もある。
プレイリストは、実プレイリスト(Real PlayList)と仮想プレイリスト(Virtual PlayList)とに大別される。実プレイリストは、クリップを単位として1つ以上のクリップを、基本的に記録順に保持するプレイリストである。この実プレイリスト内では時間的な飛び(ギャップ)はなく、また、他の実プレイリストとの間で重複(オーバラップ)も生じない。一方、仮想プレイリストは、何れかの実プレイリストに対応するクリップの一部または全部を1つ以上、任意に保持するプレイリストである。
ムービーオブジェクト(MovieObject)は、ナビゲーションコマンドプログラム等を含むオブジェクトである。ここで、ナビゲーションコマンドプログラムは、プレイリストの再生や再生終了後の処理を制御するためのコマンド群である。
インデックス(index)テーブルは、記録媒体に記録されたコンテンツのタイトルを定義する、最上位レベルのテーブルである。このインデックステーブルには1つ以上のムービータイトルが含まれ、各ムービータイトルからムービーオブジェクトを指し示すようになっている。再生機器では、このインデックステーブルに格納されているタイトル情報に基づいてコンテンツの再生が制御される。
図13は、AVCHD規格におけるファイル構成の一例を示す図である。記録媒体のルートディレクトリ「ドライブ」500の下には、ファイル「MODELCFG.IND」510と、ディレクトリ「AVCHD」520と、ディレクトリ「AVF_INFO」540と、ディレクトリ「DCIM」550とが配置される。また、ディレクトリ「AVCHD」520の下には、ディレクトリ「BDMV」530が配置される。
ファイル「MODELCFG.IND」510は、ベンダーユニーク(Vendor Unique)定義のファイル(メーカーにより決められた情報ファイル)である。また、ディレクトリ「BDMV」530は、動画映像記録アプリケーションフォーマットで規定されたフォルダおよびファイルが属するディレクトリである。
ディレクトリ「BDMV」530の直下には、ファイル「INDEX.BDM」531およびファイル「MOVIEOBJ.BDM」532が配置される。また、ディレクトリ「BDMV」530の下には、ディレクトリ「PLAYLIST」533、ディレクトリ「CLIPINF」535およびディレクトリ「STREAM」537が配置される。
ファイル「INDEX.BDM」531は、ディレクトリ「BDMV」530の内容を格納するインデックスファイルであり、動画ファイル(チャプタ)を登録管理するファイルである。また、ファイル「MOVIEOBJ.BDM」532は、アプリケーション記録フォーマットで決められたファイルであり、ムービーオブジェクトの情報を格納する。
ディレクトリ「PLAYLIST」533は、プレイリストのデータベースが配置されるディレクトリである。このディレクトリ「PLAYLIST」533は、例えば、プレイリストに関するファイル(例えば、ファイル「00000.MPL」534)を含む。ディレクトリ「PLAYLIST」533におけるファイルのファイル名は、5桁の数字と拡張子からなる。5桁の数字のうち、「00000」から「00999」の1000個は実プレイリスト用であり、「01000」から「01999」の1000個は仮想プレイリスト用である。また、各ファイルの拡張子としては「.MPL」が用いられる。また、ディレクトリ「PLAYLIST」533におけるファイルは、動画ファイル(チャプタ)へのコンテンツ毎のアクセスを登録する単位であり、開始点(IN点)および終了点(OUT点)が論理時刻指定で管理される。
ディレクトリ「CLIPINF」535は、クリップのデータベースが置かれるディレクトリである。ディレクトリ「CLIPINF」535は、例えば、クリップAVストリームファイルのそれぞれに対するクリップインフォメーションファイル(例えば、ファイル「00000.CPI」536)を含む。ディレクトリ「CLIPINF」535におけるファイルのファイル名は、5桁の数字と拡張子からなる。各ファイルの拡張子としては「.CPI」が用いられる。また、ディレクトリ「CLIPINF」535におけるファイルは、動画ファイル(チャプタ)に対応するAVストリームへのアクセスを管理するファイルである。
ディレクトリ「STREAM」537は、実体としてのAVストリームファイルが置かれるディレクトリである。ディレクトリ「STREAM」537は、例えば、クリップインフォメーションファイルのそれぞれに対応するクリップAVストリームファイル(例えば、ファイル「00000.MTS」538および539)を含む。また、ディレクトリ「STREAM」537におけるファイルは、MPEG−2のトランスポートストリームからなり、ファイル名は、5桁の数字と拡張子からなる。ここで、ファイル名5桁の数字の部分は、対応するクリップインフォメーションファイルと同一にすることにより、クリップインフォメーションファイルとこのクリップAVストリームファイルとの対応関係を示す。また、各ファイルの拡張子としては「.MTS」が用いられる。また、ディレクトリ「STREAM」537におけるファイルは、1つのチャプタについて1ファイルとされる。また、例えば、1つのチャプタの各記録データユニット内で、立体視主画像およびその奥行マップと、立体視差分画像およびその奥行マップとがEP(Entry Point)に交互に順次記録される。また、例えば、エレメンタリストリーム(ES)のストリーム(ESストリーム)のモディファイドデジタルビデオパック(MDP:Modified Digital Video Pack)に立体視画像識別情報および奥行マップ存否情報が記録される。なお、EPは、1または複数のGOPにより構成され、AVCHD規格における記録フォーマットでのメディアへの基本アクセス単位となる。
ディレクトリ「AVF_INFO」540は、ユーザの操作を助ける分類グループ登録情報や好み情報を管理するアプリケーションフォーマットのファイルが属するディレクトリである。また、ディレクトリ「AVF_INFO」540の下には、例えば、ファイル「AVIN0001.BNP」541と、ファイル「AVIN0001.INP」542と、ファイル「AVIN0001.INT」543とが配置される。
ファイル「AVIN0001.BNP」541は、AVストリームファイルのUI(User Interface)管理情報ファイルであり、ファイル「AVIN****.INP」のバックアップファイルである。
ファイル「AVIN0001.INP」542は、AVストリームファイルのUI管理情報ファイルであり、記録された各ファイルの属性登録ファイルである。
ファイル「AVIN0001.INT」543は、AVストリームファイルのUI管理情報ファイルであり、記録された各ファイルを立体視画像として表示するサムネイル画像を登録するファイルである。なお、このサムネイル画像については、図29および図30を参照して詳細に説明する。
ディレクトリ「DCIM」550は、静止画記録アプリケーションフォーマットで規定されたフォルダや、静止画ファイルが属するディレクトリである。また、ディレクトリ「DCIM」550の直下には、DCF(Design rule for Camera File system)ディレクトリ(例えば、ディレクトリ「101MSDCF」551)が配置される。また、DCFディレクトリの下には、画像ファイル(例えば、ファイル「00000.DCF」552)が配置される。
図14は、AVCHD規格におけるデータ構造を示す図である。図14に示す例において、クリップ情報(#0)581はストリーム(#0)591に関する情報を保持し、クリップ情報(#1)582はストリーム(#1)592に関する情報を保持する。また、クリップ情報(#2)583はストリーム(#2)593に関する情報を保持し、クリップ情報(#3)584はストリーム(#3)594に関する情報を保持する。また、この例において、プレイアイテム(#1)571乃至(#3)573は実プレイリストに属する。
インデックステーブルは、記録媒体に記録されたコンテンツのタイトルを定義する、最上位レベルのテーブルである。このインデックステーブルには1つ以上のムービータイトルが含まれ、各ムービータイトルからプレイアイテムを指し示すようになっている。この例において、ムービータイトル(#1)561はプレイアイテム(#1)571を指し示し、ムービータイトル(#2)562はプレイアイテム(#2)572を指し示している。また、ムービータイトル(#3)563はプレイアイテム(#3)573を指し示している。再生機器では、このインデックステーブルに格納されているタイトル情報に基づいてコンテンツの再生が制御される。
[AVCHD規格による記録例]
次に、画像処理部130により生成された立体視画像を識別するための立体視画像識別情報をAVCHD規格により記録する記録例について図面を参照して詳細に説明する。最初に、AVCHD規格におけるAVストリームに立体視画像識別情報および奥行マップ存否情報を記録する場合について説明する。
[AVストリームへの記録例]
図15は、AVCHD規格におけるMDP(Modified DV Pack)全般のデータ構造を示す図である。図15(a)には、エレメンタリストリーム(ES)を模式的に示す。なお、図15(a)では、ESを構成する各要素のうち、MDPを表す矩形のみに「MDP」の文字を付し、他の要素については文字を省略する。図15(a)に示すように、1〜数GOP単位で構成されるEPの中にMDPがユーザデータとして記憶される。ここで、本発明の第1の実施の形態では、1GOP(例えば、0.5秒)をEP間隔として、ESストリームが動画ファイルとして記録される。
図15(b)には、MDPに記録される立体視画像識別情報および奥行マップ存否情報を模式的に示す。立体視画像識別情報は、立体視画像に対応するストリーム(すなわち、立体視主画像および立体視差分画像を含むストリーム)であるか否かを識別するための識別フラグである。例えば、この識別フラグとしてMDPにおいて定義された1ビットについて、立体視画像に対応するストリームである場合には「True」とし、立体視画像に対応するストリームでない場合には「False」とする。また、奥行マップ存否情報は、ストリームに対応する立体視主画像および立体視差分画像の奥行マップが記録されているか否かを識別するための識別フラグである。例えば、この識別フラグとしてMDPにおいて定義された1ビットについて、奥行マップが記録されているストリームである場合には「True」とし、奥行マップが記録されていないストリームでない場合には「False」とする。なお、奥行マップ存否情報として、対応するストリームが、立体視主画像および立体視差分画像を含むストリームである場合には、立体視主画像および立体視差分画像の奥行マップに関する識別フラグが記録される。一方、対応するストリームが立体視差分画像を含まないストリームである場合には、対応する画像の奥行マップに関する識別フラグが記録される。
図15(c)には、MDP全般のデータ構造の一部のシンタックスのみを示す。「MDP基本構造」601におけるブロック「ModifiedDVPackMeta()」は、MDPの付帯情報を格納するためのブロックである。「ModifiedDVPackMeta()構造」602における各one_modified_dv_packパック(5バイト)は、所定のパックID番号までは撮影時刻、撮影映像情報、GPS位置情報等のデータが格納される。すなわち、「各々のone_modified_dv_pack#k 構造」603の「mdp_data」には、所定のパックID番号までは撮影時刻、撮影映像情報、GPS位置情報等のデータが格納される。例えば、MakerOption#1は、バージョン記述、公開仕様記述、記録画質モード記述に使われる。また、MakerOption#2は、makerPrivateDataに使われる。
ここで、本発明の第1の実施の形態では、MakerOptionの後続追加を用いて、図15(b)に示す立体視画像識別情報および奥行マップ存否情報をMDPに記録する例を示す。すなわち、「MakerOption#k構造」604の「mdp_data」には、図15(b)に示す立体視画像識別情報および奥行マップ存否情報が格納される。
なお、フォーマット仕様で定義して、「ModifiedDVPackMeta」のpaddingIDに用いられている領域を使い、図15(b)に示す立体視画像識別情報および奥行マップ存否情報をEP毎に記録するようにしてもよい。
このように、MDPに立体視画像識別情報および奥行マップ存否情報を記録することにより、制御システムがそれらの各情報を読み出し、立体視画像に対応するストリームであるか否かと、奥行マップが存在するか否かを認識することができる。そして、その認識結果に基づいて、各ストリームを読み出し、読み出されたストリームをデコードして表示させることができる。
図16は、AVCHD規格における奥行マップに対応するデータストリームを含むストリームファイルの構成を示す図である。この例では、立体視主画像に対応するデータストリームのEP内における構成例を示す。なお、ストリームファイルは、伝送時には複数のトランスポートパケットから構成されるトランスポートストリーム(TSストリーム)として扱われる。そして、記録時には、PES(Packetized Elementary Stream)パケットを単位とするストリームに変換される。
PAT(Program Association Table)611は、ストリームが含むプログラム数と、各プログラムのPMT(Program Map Table)のPIDとを記述するプログラム情報(セクション)である。ここで、PID(Packet Indentifier:パケット識別子)は、TS(Transport Stream)パケットが伝送するデータの種類を示す識別情報であり、そのヘッダ内に格納される。なお、AVCHD規格では、PATのPIDは、「0x0000」(0xは、以下の数字が十六進数であることを意味する。以下同様)である。
PMT612は、対応するプログラムに含まれる映像音声ストリームのPIDと、PCR(Program Clock Reference)のPIDとを記述するセクションである。なお、AVCHD規格では、PMTのPIDは「0x0001」である。
PCR613は、PCRのPIDが格納されているTSパケットに記述されるT−STD(Transpor-System Target Decoder)への入力時刻であり、ストリーム中に0.1sec以下の間隔で格納される。なお、AVCHD規格では、PCRのPIDは、「0x1001」である。
なお、PTS(Presentation Time Stamp)は、表示時刻タイムスタンプであり、PES(Packetized Elementary Stream)のヘッダに記述される。DTS(Decoding Time Stamp)は、デコード時刻タイムスタンプであり、PESのヘッダに記述される。
また、I_top614は、Iピクチャーのトップフィールドに対応するPESであり、I_bottom615は、Iピクチャーのボトムフィールドに対応するPESである。また、MDP616は、MDPに対応するPESであり、OB617は、OBストリームに対応するPESである。また、B_top619は、Bピクチャーのトップフィールドに対応するPESであり、B_bottom620は、Bピクチャーのボトムフィールドに対応するPESである。ここで、奥行マップ618は、奥行マップに対応するPESとする。
なお、AVCHD規格では、ビデオストリームのPIDは、「0x10**」である。例えば、PCRのPIDは、「0x1001」である。また、AVCHD規格では、オーディオストリームのPIDは、「0x11**」である。また、AVCHD規格では、OB(OverlayBitmap)のPIDは、「0x12**」である。また、AVCHD規格では、メニューデータ(MenuData)のPIDは、「0x14**」である。
そこで、奥行マップに対応するデータストリームのPIDとして、例えば、ビデオストリームのPID「0x10**」において未定義なPIDを新規定義して用いことができる。また、例えば、「0x1***」の未定義PIDを新規定義して用いることができる。これにより、奥行マップに対応するデータストリームをPIDセレクタ等により適切に分離させることができ、再生時には奥行マップを用いることができる。
[インデックスファイルへの記録例]
次に、AVCHD規格におけるファイル管理情報に立体視画像識別情報および奥行マップ存否情報を記録する場合について図面を参照して詳細に説明する。最初に、AVCHD規格におけるインデックスファイルに立体視画像識別情報および奥行マップ存否情報を記録する場合について説明する。なお、以下で示す立体視画像識別情報および奥行マップ存否情報は、例えば、図15(b)に示すものと同一とすることができる。
図17は、AVCHD規格におけるインデックスファイルのデータ構造を示す図である。「INDEX.BDM構造」701におけるブロック「Extension Data()」は、所定の拡張データを格納するためのブロック(拡張データブロック)である。「Extension Data()構造」702におけるブロック「Data Block()」は、拡張データの本体が格納されるブロックである。
「Index Extension Data()構造」703における領域「reserved_for_future_use」704は、バイトアライメントや将来的なフィールドの追加等のための予約領域である。なお、以下で示す各領域「reserved_for_future_use」についても同様に予約領域であるものとする。例えば、領域「reserved_for_future_use」704に、立体視画像識別情報および奥行マップ存否情報を記録することができる。これらの立体視画像識別情報および奥行マップ存否情報を記録するため、例えば、領域「reserved_for_future_use」704の2ビットを割り当てる。
また、「Index Extension Data()構造」703におけるブロック「TableOfPlayLists()」は、プレイリストの属性情報が格納されるブロックである。例えば、「TableOfPlayLists()構造」705における領域「reserved_for_future_use」706に、プレイリストファイルの属性情報として、立体視画像識別情報および奥行マップ存否情報を記録することができる。これらの立体視画像識別情報および奥行マップ存否情報を記録するため、例えば、領域「reserved_for_future_use」706の2ビットを割り当てる。
また、「Index Extension Data()構造」703におけるブロック「MakersPrivateData()」は、AVストリーム(コンテンツ)を管理するためのブロックである。また、「MakersPrivateData()の各data_block構造」708における領域「clip_info_file Info」709は、AVストリームの内部へアクセスするためのクリップインフォメーションファイルのエントリ情報である。例えば、領域「clip_info_file Info」709における未使用の予約領域に、立体視画像識別情報および奥行マップ存否情報を記録することができる。例えば、これらの立体視画像識別情報および奥行マップ存否情報を記録するため、領域「clip_info_file Info」709における未使用の予約領域の2ビットを割り当てることができる。このように各フラグを記録する場合において、立体視画像に関するAVストリームが記録された場合には、対応する各フラグが登録され、そのAVストリームが編集された場合には、対応する各フラグが更新される。
このように、本発明の第1の実施の形態では、「reserved_for_future_use」の定義のある領域等において、2ビットのフラグを新規定義し、立体視画像識別情報および奥行マップ存否情報を格納する。
[プレイリストファイルへの記録例]
次に、AVCHD規格におけるプレイリストファイルに立体視画像識別情報および奥行マップ存否情報を記録する場合について説明する。
図18は、AVCHD規格におけるプレイリストファイルのデータ構造を示す図である。
「MoviePlayListfileの構造」711におけるブロック「PlayList()」は、プレイリストが記述されるブロックである。また、ブロック「ExtensionData()」は、所定の拡張データを格納するためのブロックである。
「PlayList()構造」712におけるブロック「PlayItem()#1」および「PlayItem()#2」は、プレイアイテムの属性情報が格納されるブロックである。例えば、「各PlayItem#k構造」713における領域「reserved_for_future_use」714に、立体視画像識別情報および奥行マップ存否情報を記録することができる。これらの立体視画像識別情報および奥行マップ存否情報を記録するため、例えば、領域「reserved_for_future_use」714の2ビットを割り当てる。
ここで、主として再生されるプレイアイテムに対応するメインパスに対して、サブプレイアイテムに対応してサブパスを持つことができる。「PlayList()構造」712におけるブロック「SubPath()#1」および「SubPath()#2」は、サブプレイアイテムに対応するサブパスの属性情報が格納されるブロックである。例えば、サブパスに対応させる場合には、対応する位置に立体視画像識別情報および奥行マップ存否情報を記録することができる。例えば、「各SubPlayItem#k構造」716における領域「reserved_for_future_use」717の2ビットを割り当てることができる。
また、「MoviePlayListfileの構造」711におけるブロック「ExtensionData()」は、プレイリストファイルにおける拡張データを格納することができる領域である。ここで、ビデオデータ(VideoData)、音声データ(AudioData)、OB(OverlayBitmapData)、メニューデータ(MenuData)について、オーサリング(authoring)によりダビングする場合を想定する。これらの各データがオーサリングによりダビングされた後には、AVCHD規格における登録位置が定義されている。しかしながら、奥行マップデータのプレイアイテムへの登録は、AVCHD規格では登録位置が未だ定義されていない。そこで、本発明の第1の実施の形態では、ブロック「ExtensionData()」に、奥行マップデータのプレイアイテムの登録領域を新規定義し、奥行マップデータのプレイアイテムの登録を行う。例えば、「ExtentionData()のDepthMapDataのPlayItem構造」718における「DepthMapDataPlayItem()#1、#2」719に、奥行マップデータのプレイアイテムを登録する。
[クリップインフォメーションファイルへの記録例]
次に、AVCHD規格におけるクリップインフォメーションファイルに立体視画像識別情報および奥行マップ存否情報を記録する場合について説明する。
図19は、AVCHD規格におけるクリップインフォメーションファイルのデータ構造を示す図である。
「Clip information file構造」721におけるブロック「ClipInfo()」は、このクリップインフォメーションファイルが管理するクリップAVストリームに関する情報を記述するものである。例えば、「ClipInfo()構造」722における領域「reserved_for_future_use」723に、プレイアイテムの属性情報として、立体視画像識別情報および奥行マップ存否情報を記録することができる。これらの立体視画像識別情報および奥行マップ存否情報を記録するため、例えば、領域「reserved_for_future_use」723の2ビットを割り当てる。
なお、「Clip information file構造」721におけるブロック「CPI()」は、ストリームファイル全体の時間の位置と空間の位置との間のマッピングテーブルに関する情報が格納される。例えば、AVストリームが記録された場合に、各AVストリームの全EPの属性情報が、そのAVストリームに対応する各フィールドに登録される。また、例えば、AVストリームが編集された場合に、各AVストリームの全EPの属性情報が、そのAVストリームに対応する各フィールドにおいて更新される。この登録または編集された情報が、再生時におけるアクセスで使用される。
「CPI()構造」724における「EP_map()」725は、EP(Entry Point)のメディアの論理アドレス位置と、コンテンツストリームの時刻タイムスタンプとの対応テーブルである。例えば、「EP_map()」725におけるEPの最大上限個数は、約18万個となる。この場合に、例えば、EP1個を0.5秒(1GOP)として記録する場合には、1チャプタ当たりの時間長さの最大限は90000秒(25時間)程度となる。
なお、立体視画像識別情報および奥行マップ存否情報を、MDP、インデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのそれぞれに記録するようにしてもよく、何れかに記録するようにしてもよい。このように、本発明の第1の実施の形態によれば、立体視画像識別情報および奥行マップ存否情報を複数の階層に記録して利用することができる。
[AVCHDの各動画管理ファイルへの記録例]
図20は、本発明の第1の実施の形態における記録制御部160により立体視画像に関する各データが各動画管理ファイルに記録される場合を模式的に示す図である。この例では、動画管理ファイル750において、図18に示す奥行マップデータのプレイアイテムへの登録と、図19に示すEP_mapへの登録とを模式的に示す。なお、Indexファイル751と、MovieObjectファイル752と、MoviePlayListファイル753と、ClipInfoファイル754とは、上述したものと同様であるため、ここでの説明を省略する。また、この例では、プログラム#1(770)を立体視主画像に対応するストリームとし、プログラム#2(780)を立体視差分画像に対応するストリームとする。また、PAT761には、プログラム#1(770)およびプログラム#2(780)の一覧が記述される。また、PMT762には、プログラム#1(770)の各情報が格納され、PMT763には、プログラム#2(780)の各情報が格納される。
プログラム#1(770)およびプログラム#2(780)には、ビデオデータ(VideoData)および音声データ(AudioData)が含まれる。また、OB(OverlayBitmapData)、メニューデータ(MenuData)および奥行マップデータ(Depth Map Data)が含まれる。
図18に示すように、「MoviePlayListfileの構造」711におけるブロック「ExtensionData()」に、奥行マップデータのプレイアイテムの登録領域を新規定義し、奥行マップデータのプレイアイテムの登録を行う。すなわち、PAT761、PMT762およびPMT763の各情報に基づいて、MoviePlayListファイル753における奥行マップデータのプレイアイテムの登録が行われる。
また、図19に示すように、「Clip information file構造」721におけるブロック「CPI()」には、各ストリームの全EPの属性情報が、そのストリームに対応する各フィールドに登録される。すなわち、PAT761、PMT762、PMT763、プログラム#1(770)およびプログラム#2(780)に含まれる各データに基づいて、ClipInfoファイル754における各フィールドの登録が行われる。
なお、上述したように、動画管理ファイル750における各ファイルには、立体視画像識別情報および奥行マップ存否情報が記録されるが、ここでの図示および説明は省略する。
[撮像装置の動作例]
図21は、本発明の第1の実施の形態における撮像装置100による動画記録処理の処理手順を示すフローチャートである。この例では、立体視主画像および立体視差分画像が関連付けられた動画ファイルと、この動画ファイルを管理する動画管理ファイルとを記録する動画記録処理について説明する。
最初に、立体視主画像および立体視差分画像が関連付けられた動画を記録する立体視画像撮像モードが設定されているか否かが判断される(ステップS901)。立体視画像撮像モードが設定されていない場合には(ステップS901)、動画記録処理の動作を終了する。一方、立体視画像撮像モードが設定されている場合には(ステップS901)、動画記録の開始操作が行われたか否かが判断される(ステップS902)。例えば、立体視画像撮像モードが設定されている状態で、録画ボタンを押下する押下操作が受け付けられたか否かが判断される。動画記録の開始操作が行われていない場合には(ステップS902)、その開始操作が受け付けられるまで、監視を継続する。
動画記録の開始操作が行われた場合には(ステップS902)、撮像部110が2つの撮像画像(撮像画像(左眼)および撮像画像(右眼))を生成する(ステップS903)。なお、ステップS903は、特許請求の範囲に記載の撮像手順の一例である。続いて、奥行情報生成部120が、その2つの撮像画像について奥行マップを生成する(ステップS904)。なお、ステップS904は、特許請求の範囲に記載の奥行情報生成手順の一例である。続いて、画像処理部130が、生成された2つの撮像画像のうちの1つの撮像画像(例えば、撮像画像(右眼))について、この撮像画像に生成された奥行マップを用いて立体視差分画像を生成する(ステップS905)。なお、ステップS905は、特許請求の範囲に記載の画像処理手順の一例である。
続いて、画像エンコーダ140が、生成された立体視差分画像および立体視主画像(例えば、撮像画像(左眼))をエンコードする(ステップS906)。続いて、奥行情報エンコーダ150が、生成された2つの奥行マップ(例えば、撮像画像(左眼)および撮像画像(右眼)に関する奥行マップ)をエンコードする(ステップS907)。
続いて、記録制御部160が、奥行情報生成部120から出力された奥行マップ生成情報と、画像処理部130から出力された立体視画像生成情報とに基づいて、立体視画像識別情報および奥行マップ存否情報をMDPに記録する(ステップS908)。
続いて、記録制御部160が、各ストリームを多重化してTSストリームを生成し、生成されたTSストリームをストリームバッファに蓄積する(ステップS909)。例えば、立体視主画像および立体視差分画像がエンコードされたビデオストリームと、立体視画像識別情報および奥行マップ存否情報が格納されたMDPと、2つの奥行マップがエンコードされたデータストリームとが多重化されてTSストリームが生成される。
続いて、ストリームバッファに所定量以上のデータが蓄積されたか否かが判断される(ステップS910)。ストリームバッファに所定量以上のデータが蓄積された場合には(ステップS910)、記録制御部160が、ストリームバッファに蓄積されたTSストリームを動画ファイル化して記憶部200に記録する(ステップS911)。一方、ストリームバッファに所定量以上のデータが蓄積されていない場合には(ステップS910)、ステップS903に戻る。なお、ステップS909乃至S911は、特許請求の範囲に記載の記録制御手順の一例である。
続いて、動画記録の終了操作が行われたか否かが判断される(ステップS912)。例えば、立体視画像撮像モードにおいて動画記録が行われている状態で、録画ボタンを押下する押下操作(録画ボタンの再押下操作)が受け付けられたか否かが判断される。動画記録の終了操作が行われていない場合には(ステップS912)、ステップS903に戻る。一方、動画記録の終了操作が行われた場合には(ステップS912)、動画管理ファイル記録処理が行われる(ステップS913)。例えば、記録制御部160が、立体視画像識別情報および奥行マップ存否情報をインデックスファイル、ムービープレイリストファイルおよびクリップインフォメーションファイルに記録する。そして、記録制御部160が、立体視画像識別情報および奥行マップ存否情報が記録された各ファイルを記憶部200に記録させる。動画管理ファイル記録処理が終了すると、動画記録処理の動作を終了する。

[立体視画像の表示例]
次に、立体視主画像および立体視差分画像が関連付けて記録されている動画ファイルを再生する例について図面を参照して詳細に説明する。
[再生装置の構成例]
図22は、本発明の第1の実施の形態における再生装置800の機能構成例を示すブロック図である。再生装置800は、記憶部801と、操作受付部802と、再生処理部803と、画像デコーダ804と、奥行情報デコーダ805と、画像復元部806と、立体視画像生成部807と、表示部808とを備える。再生装置800は、例えば、デジタルビデオカメラ等の撮像装置により記録された動画ファイルを再生することが可能なパーソナルコンピュータ等の再生装置によって実現することができる。
記憶部801は、動画ファイルや動画管理ファイル等の情報を記憶する記憶部であり、記憶されている各情報を再生処理部803に供給する。なお、記憶部801は、図1に示す記憶部200に対応する。
操作受付部802は、ユーザからの操作入力を受け付ける操作受付部であり、受け付けられた操作入力に応じた操作内容を再生処理部803に出力する。例えば、立体視画像を表示するための動画を再生する立体視画像再生モードを設定する設定操作が受け付けられた場合には、その旨が再生処理部803に出力される。また、立体視画像再生モードが設定されている状態で、再生開始ボタンを押下する押下操作が受け付けられた場合には、その旨が再生処理部803に出力される。
再生処理部803は、記憶部801に記憶されている動画ファイルを再生する場合に、再生に関する処理を行うものである。例えば、再生処理部803は、立体視画像再生モードが設定されている状態で、再生開始ボタンを押下する押下操作が受け付けられた場合には、その押下操作に係る動画ファイルと、これに関する動画管理ファイルとを記憶部801から取得する。そして、再生処理部803は、取得された動画管理ファイルに含まれる立体視画像識別情報および奥行マップ存否情報に基づいて、取得された動画ファイルが立体視画像を表示することが可能であるか否かを判断する。取得された動画ファイルが立体視画像を表示することが可能である場合には、再生処理部803は、復元画像を生成する指示を画像復元部806に出力する。また、再生処理部803は、取得された動画ファイルに対応するAVストリームをストリームバッファに蓄積し、立体視主画像および立体視差分画像に対応するビデオストリームを画像デコーダ804に順次供給する。また、再生処理部803は、奥行マップに対応するデータストリームを奥行情報デコーダ805に順次供給する。
画像デコーダ804は、再生処理部803から出力された立体視主画像および立体視差分画像(ビデオストリーム)をデコードするものであり、デコードされた立体視主画像および立体視差分画像を画像復元部806に出力する。
奥行情報デコーダ805は、再生処理部803から出力された奥行マップ(データストリーム)をデコードするものであり、デコードされた奥行マップを画像復元部806および立体視画像生成部807に出力する。
画像復元部806は、再生処理部803からの指示に基づいて、画像デコーダ804から出力された立体視主画像および立体視差分画像を用いて、立体視差分画像の差分画像処理前の状態の復元画像を生成するものである。そして、画像復元部806は、生成された復元画像を右眼視用画像とし、立体視主画像を左眼視用画像として、立体視画像生成部807に出力する。なお、奥行情報デコーダ805から出力された奥行マップを用いて復元画像を生成するようにしてもよい。また、復元画像の生成については、図23を参照して詳細に説明する。
立体視画像生成部807は、画像復元部806から出力された左眼視用画像および右眼視用画像と、奥行情報デコーダ805から出力された各画像に関する奥行マップとに基づいて立体視画像を生成するものである。例えば、パララックスバリア方式により立体視画像を表示することが可能な液晶ディスプレイを用いて立体視画像を表示する場合には、左眼視用画像および右眼視用画像の各画素を交互に配列した立体視画像を生成する。この液晶ディスプレイには、例えば、スリット状の開口部を有するパララックスバリアが配置される。また、多眼視画像(例えば、8眼視画像)を用いた裸眼立体視表示が可能な裸眼立体視ディスプレイを用いて立体視画像を表示する場合には、左眼視用画像および右眼視用画像と、各画像に関する奥行マップとに基づいて、左右8眼視差の立体視画像を生成する。そして、立体視画像生成部807は、生成された立体視画像を表示部808に出力して表示させる。
表示部808は、立体視画像生成部807により生成された立体視画像を順次表示するものである。表示部808として、上述した立体視画像の表示が可能な液晶ディスプレイ等を用いることができる。
[復元画像の生成例]
図23は、本発明の第1の実施の形態における画像復元部806が立体視主画像および立体視差分画像を用いて立体視差分画像からの復元画像を生成する復元画像生成方法の流れを模式的に示す図である。図23(a)には、記憶部801に記憶されている動画ファイルに関連付けて記録されている立体視主画像380および立体視差分画像370を示す。なお、図23(a)に示す立体視主画像380および立体視差分画像370は、図9(c)に示すものと同一である。
図23(b)には、立体視主画像380および立体視差分画像370を用いて生成された復元画像810を示す。例えば、動画ファイルに関連付けて記録されている立体視主画像380および立体視差分画像370が画像デコーダ804によりデコードされる。そして、画像復元部806が、デコードされた立体視主画像380および立体視差分画像370を用いて復元画像810を生成する。具体的には、画像復元部806が、立体視差分画像370における記録対象領域371乃至373に含まれる画像を抽出し、この抽出された画像を立体視主画像380に上書き合成することにより復元画像810を生成する。すなわち、復元画像810は、立体視差分画像370における背景領域(記録対象領域371乃至373以外の領域)として立体視主画像380の背景領域を用いて生成される画像である。なお、図23(b)では、復元画像810における記録対象領域371乃至373の輪郭を太線で示す。続いて、図23(c)に示すように、立体視主画像380を左眼視用画像821とし、生成された復元画像810を右眼視用画像822として、立体視画像生成部807が、立体視画像を生成し、この生成された立体視画像が動画として表示部808に表示される。
このように、復元画像を生成する場合には、立体視差分画像に含まれていた近距離被写体およびその周辺領域の画像と、立体視主画像の背景画像とを用いて復元することができる。このため、立体視画像の近距離被写体近傍の背景表示であっても違和感の少ない綺麗な立体視画像を表示させることができる。
[再生装置の動作例]
図24は、本発明の第1の実施の形態における再生装置800による動画再生処理の処理手順を示すフローチャートである。この例では、立体視主画像および立体視差分画像が関連付けられた動画ファイルについて立体視画像として再生を行う動画再生処理について説明する。
最初に、立体視画像を表示するための動画を再生する立体視画像再生モードが設定されているか否かが判断される(ステップS921)。立体視画像再生モードが設定されていない場合には(ステップS921)、動画再生処理の動作を終了する。一方、立体視画像再生モードが設定されている場合には(ステップS921)、動画再生の開始操作が行われたか否かが判断される(ステップS922)。例えば、立体視画像再生モードが設定されている状態で、再生開始ボタンを押下する押下操作が受け付けられたか否かが判断される。動画再生の開始操作が行われていない場合には(ステップS922)、その開始操作が受け付けられるまで、監視を継続する。
動画再生の開始操作が行われた場合には(ステップS922)、再生処理部803が、その開始操作に係る動画ファイルに関する動画管理ファイルを取得する(ステップS923)。そして、立体視画像の再生が可能な動画ファイルであるかが判断される(ステップS924)。例えば、立体視画像識別情報および奥行マップ存否情報として「1」が記録されているか否かが判断される。立体視画像の再生が可能な動画ファイルでない場合には(ステップS924)、動画再生処理の動作を終了する。一方、立体視画像の再生が可能な動画ファイルである場合には(ステップS924)、再生処理部803が、開始操作に係る動画ファイルにおける記録データユニットを取得してストリームバッファに蓄積する(ステップS925)。
続いて、画像デコーダ804が、ストリームバッファに蓄積されている記録データユニットに含まれる立体視差分画像および立体視主画像に対応するデータをデコードする(ステップS926)。続いて、奥行情報デコーダ805が、ストリームバッファに蓄積されている記録データユニットに含まれる奥行マップに対応するデータをデコードする(ステップS927)。
続いて、画像復元部806が、デコードされた立体視主画像および立体視差分画像を用いて復元画像を生成する(ステップS928)。続いて、立体視画像生成部807が、例えば、立体視主画像を左眼視用画像とし、生成された復元画像を右眼視用画像として、立体視画像を生成し(ステップS929)、この生成された立体視画像を動画として表示部808に表示させる(ステップS930)。
続いて、動画再生の終了操作が行われたか否かが判断される(ステップS931)。例えば、立体視画像再生モードにおいて動画再生が行われている状態で、再生停止ボタンを押下する押下操作が受け付けられたか否かが判断される。動画再生の終了操作が行われていない場合には(ステップS931)、ストリームバッファに蓄積された記録データユニットの全てについて読出処理が終了したか否かが判断される(ステップS932)。ストリームバッファに蓄積された記録データユニットの全てについて読出処理が終了した場合には(ステップS932)、ステップS925に戻る。一方、ストリームバッファに蓄積された記録データユニットの全てについて読出処理が終了していない場合には(ステップS932)、ステップS926に戻る。また、動画再生の終了操作が行われた場合には(ステップS931)、動画再生処理の動作を終了する。
このように、立体視主画像および立体視差分画像を用いて復元画像を生成して立体視画像を表示する場合には、AVCHDフォーマット方式を用いることができる。このAVCHDフォーマット方式では、撮影後にHD映像方式ストリームコンテンツをBlu−Rayへのコンテンツダビング・オーサリングすることを前提に、そのダビング・オーサリングする際にストリームコンテンツへのアクセス制御管理が比較的容易となる。また、例えば、HD映像方式として知られるMP4での撮影等において、1つの平面画像と奥行マップとを用いて立体視画像を表示するようにしてもよい。また、これらの表示方法をユーザ操作により切替可能としてもよい。例えば、奥行マップを用いた立体視画像の表示方法として、表示装置向けのMPEG−C part3の奥行に関する式(DepthMap定義変換式)を用いることができる。
<2.第2の実施の形態>
以上では、立体視画像を表示するための動画を記録して、この記録された動画を再生する例について説明した。本発明の第2の実施の形態では、立体視画像を表示するための動画の記録中にモニタリング画像を表示する場合において、モニタリング画像として立体視画像を表示する例を示す。ここで、モニタリング画像は、例えば、動画記録待機状態で、撮像動作により生成された撮像画像がリアルタイムで表示される画像である。
[撮像装置の構成例]
図25は、本発明の第2の実施の形態における撮像装置830の機能構成例を示すブロック図である。ここで、撮像装置830は、図1に示す撮像装置100の変形例であるため、撮像装置100と共通する部分については、同一の符号を付してこれらの説明を省略し、撮像装置100と異なる部分を中心に説明する。撮像装置830は、画像処理部831と、表示制御部832と、表示部833とを備える。
撮像部110は、図1と同様に立体視撮像対応の撮像部であり、被写体を撮像して2つの撮像画像(画像データ)を生成し、生成された2つの撮像画像を奥行情報生成部120および画像処理部831に出力する。また、例えば、モニタリング画像のみを表示する撮像動作状態である場合には、撮像部110は、左眼視用画像および右眼視用画像の何れか1つを生成し、生成された1つの撮像画像を奥行情報生成部120および画像処理部831に出力する。すなわち、モニタリング画像のみを表示する撮像動作状態である場合には、単眼により撮像動作が行われる。また、奥行情報生成部120は、1つの撮像画像のみが生成された場合には、その1つの撮像画像について奥行マップを生成する。
画像処理部831は、モニタリング画像のみを表示する撮像動作状態である場合には、撮像部110から出力された撮像画像について、奥行情報生成部120から出力された奥行マップに基づいて、立体視画像を表示するための2つの画像を生成するものである。そして、画像処理部831は、生成された2つの画像を表示制御部832に出力する。なお、他の画像処理については、図1に示す例と同様であるため、ここでの説明を省略する。また、立体視画像を表示するための2つの画像の生成方法については、図26および図27を参照して詳細に説明する。
表示制御部832は、画像処理部831から出力された2つの画像に基づいて立体視画像をリアルタイムで表示部833に表示させるものである。
表示部833は、表示制御部832の制御に基づいて、撮像部110により生成された撮像画像を立体視画像としてリアルタイムで表示するものである。なお、表示部833として、例えば、上述したパララックスバリア方式により立体視画像を表示することが可能な液晶パネル等の立体視表示装置を用いることができる。例えば、撮像装置830が比較的小型である場合には、その大きさに応じて、比較的小型な液晶パネル等の立体視表示装置を用いることができる。
[立体視画像の生成例]
図26は、本発明の第2の実施の形態における画像処理部831により生成される立体視画像に関する被写体の奥行値と、この被写体を移動すべき領域を特定するための画素値との関係を示す図である。図26に示すグラフにおいて、縦軸は撮像画像に含まれる被写体について算出された奥行値を示し、横軸はその被写体を移動すべき領域を特定するための長さを画素数で示す。なお、図26に示すグラフは、図7に示すグラフに対応するものであり、横軸において画素値の量が反対向きとなる以外は、図7に示すグラフ同一である。
図27は、本発明の第2の実施の形態における画像処理部831が撮像画像311から右眼視用画像を生成する場合における立体視画像生成方法を模式的に示す図である。なお、図27(a)に示す撮像画像311は、図2(c)に示す撮像画像(左眼)311と同一であるため、同一の符号を付して説明する。
図27(b)には、図26に示すグラフに従って、人301、棒302および303の領域を移動させた場合を模式的に示す。なお、図27(b)では、移動後の領域841乃至843についてはその内部に斜線を付して示し、移動前後の被写体を含む領域844乃至846についてはその輪郭を太い点線で示す。また、各領域の移動量を矢印で示す。
以下では、具体的な近距離被写体の移動に関する計算方法および近距離被写体の移動により生じる隙間領域の計算方法を示す。最初に、近距離被写体の移動に関する計算方法を示す。画像処理部831は、以下の式2に従って、対象となる撮像画像における各ラインの近距離被写体の移動後の領域に対応する区間を算出する。ここで、近距離被写体(例えば、人301)の撮像画像311における水平方向の1ラインにおける区間を区間O10(=[O11,O12])とする。なお、水平方向の1ラインにおいて撮像画像311における左端を原点とする。また、区間O10は、奥行値が0を超えている値が連続する閉区間であるものとする。この場合に、対象となる撮像画像の水平方向の1ラインにおける近距離被写体の移動後の領域に対応する区間R10は、以下の式2を用いて算出される。ここで、近距離被写体の区間O10における奥行値をD10とする。なお、区間O10における奥行値D10が均一でない場合には、最も多い奥行値を用いて区間R10の算出が行われる。また、区間O10における各奥行値の平均値を算出し、この平均値を用いて区間R10の算出を行うようにしてもよい。
R10=[O11−k10・D10,O12−k10・D10] …式2
ここで、k10は、対象被写体の水平方向の移動量を特定するための定数であり、図26に示すグラフに従って特定される左右視差の輻輳オフセット係数k10(0≦k10<1)とする。
次に、近距離被写体の移動により隙間が生じる背景領域の計算方法を示す。画像処理部831は、以下の式3に従って、対象となる撮像画像における各ラインの近距離被写体の移動により生じる隙間領域に対応する区間を算出する。例えば、対象となる撮像画像の水平方向の1ラインにおける近距離被写体の移動により生じる隙間領域に対応する区間R20は、以下の式3を用いて算出される。なお、区間O10、奥行値D10および輻輳オフセット係数k10については、上述したものと同様である。
R20=[O12−k10・D10,O12] …式3
図27(b)に示す例では、式2を用いて求められた近距離被写体の移動後の領域は、領域841乃至843となる。また、式3を用いて求められる背景領域は、領域844乃至846における白色の領域(すなわち、領域841乃至843以外の領域)となる。図27(b)に示すように、画像処理部831は、撮像画像311から近距離被写体を抽出し、この抽出された近距離被写体の画像を式2に従って移動させる。このように、撮像画像311において、近距離被写体を抽出して移動させることにより、移動後の近距離被写体の右側の領域は、画像情報がない領域(隙間領域)となる。そこで、例えば、近距離被写体の移動により生じる隙間領域については、画像処理部831が補間処理を行う。例えば、隙間領域について、時間軸における所定範囲内のフレームに含まれるその近傍(隙間領域の近傍)の画像を用いて時間補間を行うことができる。なお、隙間領域について、時間軸における所定範囲内のフレームに含まれるその近傍に適切な画像が存在しない場合には、補間対象となる撮像画像の画面内における空間補間を行うことができる。
図27(c)には、左眼視用画像311と、撮像画像311から生成された右眼視用画像850とを示す。なお、左眼視用画像311については、撮像画像311と同一であるため、同一の符号を付して示す。右眼視用画像850は、式2に従って近距離被写体が移動され、式3に従って算出された隙間領域について補間処理が施された画像である。右眼視用画像850において、領域851乃至853は、図27(b)に示す領域841乃至843に対応し、領域854乃至856は、図27(b)に示す領域844乃至846に対応する。なお、図27(c)では、領域854乃至856の輪郭を点線で示す。
このように、1つの撮像画像311から左眼視用画像311および右眼視用画像850を生成し、この生成された左眼視用画像311および右眼視用画像850を用いて立体視画像を表示させることができる。このため、例えば、動画の記録中、または、動画記録待機状態において、モニタリング画像を表示する場合に、単眼により生成された撮像画像のみを用いて立体視画像をモニタリング画像として表示させることができる。なお、このように表示される立体視画像を構成する右眼視用画像は、背景画像の一部が補間処理により生成されたものであり、その背景画像が実際の被写体と異なることも想定される。しかしながら、モニタリング画像は、撮像装置830に備えられている表示パネルにリアルタイムで表示される画像であり、例えば、ユーザが動画記録の確認のために見る画像である。このため、比較的簡易的な立体視画像として表示しても、ユーザに与える影響は少ないと想定され実施される。
このように、立体視画像を構成する右眼視用画像を生成することにより、例えば、単眼式の撮像部を備える撮像装置を用いても立体視画像を容易に表示させることができる。また、画像処理により立体視画像を生成することができるため、例えば、単眼式の撮像部を備える小型のデジタルスチルカメラや携帯電話機等の電子機器においても、立体視画像を生成することができる。また、これらの電子機器において生成された立体視画像を構成する左眼視用画像および右眼視用画像については、本発明の第1の実施の形態で示したように、動画として順次記録しておき、再生モードにおいて立体視画像として再生させるようにしてもよい。例えば、立体視画像を構成する右眼視用画像については、近距離被写体領域および隙間領域のみを順次記録しておき、再生モードにおいて復元画像を生成し、この復元画像および左眼視用画像を用いてその立体視画像を再生させることができる。また、これらの記録された動画を他の表示装置において立体視画像として表示させるようにしてもよい。
<3.第3の実施の形態>
以上では、立体視画像を表示するための動画の記録処理および再生処理する例について説明した。ここで、例えば、立体視画像を表示するための動画ファイルが複数記憶されている場合に、これらの動画ファイルの一覧を表示して所望の動画ファイルを選択することが想定される。この場合に、例えば、立体視画像を表示するための動画ファイルと、平面画像を表示するための動画ファイルとが混在して記憶されている場合も想定される。このように、異なる種類の動画ファイルが混在して記憶されている場合において、動画ファイルの種類に応じて異なる表示態様として一覧表示をすることができれば、一覧表示されている動画ファイルをユーザが把握し易い。そこで、本発明の第3の実施の形態では、動画ファイルの一覧を表示する場合に、立体視画像を表示するための動画ファイルについては、立体視画像のサムネイル画像を表示する例を示す。
[撮像装置の構成例]
図28は、本発明の第3の実施の形態における撮像装置860の機能構成例を示すブロック図である。ここで、撮像装置860は、図1に示す撮像装置100の変形例であるため、撮像装置100と共通する部分については、同一の符号を付してこれらの説明を省略し、撮像装置100と異なる部分を中心に説明する。撮像装置860は、記録制御部861と、表示制御部862と、表示部863とを備える。
画像処理部130は、撮像部110から出力された2つの撮像画像(左眼視用画像および右眼視用画像)のうち、代表フレームに対応する2つの撮像画像については、記録制御部861に出力する。代表フレームは、例えば、先頭フレームとすることができる。
記録制御部861は、画像処理部130から出力された代表フレームに対応する2つの撮像画像(左眼視用画像および右眼視用画像)について、立体視画像を表示するためのサムネイル画像として動画管理ファイルに含めて記憶部200に記録させる。なお、これらの記録方法については、図29を参照して詳細に説明する。
表示制御部862は、操作受付部170からの操作入力に応じて、記憶部200に記憶されている動画ファイルを選択するためのコンテンツ選択画面を表示部863に表示させるものである。このコンテンツ選択画面には、記憶部200に記憶されている動画管理ファイルに含まれるサムネイル画像が一覧表示される。また、立体視画像を表示するための動画ファイルに対応するサムネイル画像については、立体視画像として表示される。なお、コンテンツ選択画面の表示例を図30に示す。
表示部863は、表示制御部862の制御に基づいて、コンテンツ選択画面を表示するものである。なお、表示部863として、例えば、上述したパララックスバリア方式により立体視画像を表示することが可能な液晶パネル等の立体視表示装置を用いることができる。例えば、撮像装置860が比較的小型である場合には、その大きさに応じて、比較的小型な液晶パネル等の立体視表示装置を用いることができる。
[サムネイル画像の記録例]
図29は、本発明の第3の実施の形態における記録制御部861によるサムネイル画像の記録処理を模式的に示す図である。図29(a)には、1つの動画ファイルを構成する記録データユニット421乃至424を時系列で模式的に示す。なお、図29(a)に示す記録データユニット421乃至424は、図11(a)に示すものと同一であるため、同一の符号を付して示す。
図29(b)には、記憶部200に記憶されている動画管理ファイルに記録されるサムネイル画像を示す。このサムネイル画像は、立体視画像として表示するための左眼視用画像871および右眼視用画像872により構成される。左眼視用画像871および右眼視用画像872は、例えば、動画ファイルを構成する各フレームのうち、代表フレームの再生表示時刻(PTS)に対応する左眼視用画像および右眼視用画像とする。例えば、図29(b)に示すサムネイル画像は、図2(c)に示す2つの画像(撮像画像(左眼)311および撮像画像(右眼)312)に対応するものである。例えば、図29(b)に示すサムネイル画像は、動画ファイルを構成する各フレームのうち、先頭フレームに対応する左眼視用画像および右眼視用画像とすることができる。
図29(c)には、動画管理ファイルにサムネイル画像が記録された場合を模式的に示す。例えば、図13に示すファイル「AVIN0001.INT」543にサムネイル画像881および882が記録される。このサムネイル画像881および882は、図29(b)に示す左眼視用画像871および右眼視用画像872に対応する。
[サムネイル画像の表示例]
図30は、本発明の第3の実施の形態における表示制御部862によるサムネイル画像の表示処理を模式的に示す図である。図30(a)には、動画管理ファイルにサムネイル画像が記録された場合を模式的に示す。なお、図30(a)に示す動画管理ファイルおよびサムネイル画像は、図29(c)に示すものと同一であるため、同一の符号を付して示す。
図30(b)には、記憶部200に記憶されている動画ファイルを選択する場合に表示されるコンテンツ選択画面890を示す。このコンテンツ選択画面890は、各動画ファイルを表すサムネイル画像を一覧表示する画面であり、この画面に含まれるサムネイル画像を選択する選択操作を行うことにより、選択されたサムネイル画像に対応する動画ファイルを再生させることができる。図30(b)では、立体視画像を表示するための動画ファイルと、平面画像を表示するための動画ファイルとが記憶部200に記憶されている場合に、これらの各動画ファイルを表すサムネイル画像を同一画面に表示させる例を示す。ここで、図30(b)に示すコンテンツ選択画面890において、立体視画像を表示するための動画ファイルを表すサムネイル画像を立体視画像として表示し、平面画像を表示するための動画ファイルを表すサムネイル画像を平面画像として表示する。なお、図30(b)では、立体視画像として表示されるサムネイル画像(立体視画像#1乃至#8)を表す矩形を太線の枠で示し、平面画像として表示されるサムネイル画像(平面画像#11乃至#14)を表す矩形を細線の枠で示す。
図30(c)には、コンテンツ選択画面890に表示されるサムネイル画像の表示例を示す。サムネイル画像(立体視画像)891は、立体視画像を表示するための動画ファイルを表すサムネイル画像であり、図30(a)に示すように、1組のサムネイル画像により立体視画像として表示される。なお、図30(c)では、サムネイル画像(立体視画像)891を簡略化して示す。ここで、例えば、コンテンツ選択画面890に表示されるサムネイル画像に対応する動画ファイルが立体視画像を表示するための動画ファイルである場合には、コンテンツ選択画面890に表示されるサムネイル画像に、その旨を示す標識を重ねて表示させる。例えば、図30(c)に示すように、立体視アイコン892をサムネイル画像891に重ねて表示させる。
また、サムネイル画像(平面画像)893は、平面画像を表示させるための動画ファイルを表すサムネイル画像であり、平面画像として表示される。なお、図30(c)では、サムネイル画像(平面画像)893として、サムネイル画像(立体視画像)891と構図が同一の画像を簡略化して示す。
このように、立体視画像を表示することが可能な動画ファイルをコンテンツ選択画面に表示する場合に、そのサムネイル画像を立体視画像として表示するとともに、そのサムネイル画像に立体視アイコンを重ねて表示させることができる。これにより、ユーザが所望する動画ファイルを選択する場合に、立体視画像を再生可能な動画ファイルを容易に把握することができる。また、動画ファイルの代表フレームに対応するサムネイル画像を立体視画像として表示することにより、その動画を再生する場合における立体感を予め容易に把握することができる。
このように、本発明の実施の形態によれば、立体視主画像および立体視差分画像が関連付けられているデータストリームを動画ファイルとして記録するため、立体視画像を表示するための動画ファイルの記憶容量を削減することができる。また、再生時には、立体視主画像および立体視差分画像に基づいて立体視画像を生成し、これらを動画として再生することができる。また、立体視主画像および立体視差分画像とともに、奥行マップをデータストリームに含めて動画ファイルを記録し、再生時に奥行マップを用いて立体視画像を生成することができる。また、立体視画像識別情報および奥行マップ存否情報を、データストリームまたは動画管理ファイルに含めて記録することにより、再生時には、これらの各情報を用いて立体視画像を表示することができる。
なお、撮像機能付き携帯電話機、撮像機能付きパーソナルコンピュータ等の画像処理装置に本発明の実施の形態を適用することができる。また、例えば、撮像装置および画像処理装置が装置間インターフェースで接続されている画像処理システムにおいて、撮像装置により生成された動画を画像処理装置が記録装置に記録させる場合に本発明の実施の形態を適用することができる。
なお、本発明の実施の形態は本発明を具現化するための一例を示したものであり、本発明の実施の形態において明示したように、本発明の実施の形態における事項と、特許請求の範囲における発明特定事項とはそれぞれ対応関係を有する。同様に、特許請求の範囲における発明特定事項と、これと同一名称を付した本発明の実施の形態における事項とはそれぞれ対応関係を有する。ただし、本発明は実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において実施の形態に種々の変形を施すことにより具現化することができる。
また、本発明の実施の形態において説明した処理手順は、これら一連の手順を有する方法として捉えてもよく、また、これら一連の手順をコンピュータに実行させるためのプログラム乃至そのプログラムを記憶する記録媒体として捉えてもよい。この記録媒体として、例えば、ファイル記録でランダムアクセスに対応している記録媒体を用いることができる。例えば、CD(Compact Disc)、MD(MiniDisc)、DVD(Digital Versatile Disk)、メモリカード、各種メディア方式のブルーレイディスク、SSD(Solid State Drive)等を用いることができる。
100、830、860 撮像装置
110 撮像部
111 レンズ部
112 右撮像素子
113 左撮像素子
114 右撮像信号処理部
115 左撮像信号処理部
116 カメラ制御部
120 奥行情報生成部
130、831 画像処理部
140 画像エンコーダ
150 奥行情報エンコーダ
160 記録制御部
170、802 操作受付部
200、801 記憶部
800 再生装置
803 再生処理部
804 画像デコーダ
805 奥行情報デコーダ
806 画像復元部
807 立体視画像生成部
808、833、863 表示部
832、862 表示制御部
861 記録制御部

Claims (18)

  1. 像画像に含まれる被写体のうち特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を、前記撮像画像に関する奥行情報に基づいて抽出して当該抽出された画像に基づいて立体視画像を表示するための差分画像を生成する画像処理部と、
    前記撮像画像に対応するデータと前記差分画像に対応するデータとを関連付けてデータストリームを生成するデータストリーム生成部と
    を具備する画像処理装置。
  2. 前記画像処理部は、前記奥行情報に基づいて前記撮像画像の撮像位置から所定範囲内に存在する被写体を前記特定の被写体として決定し、前記特定の被写体に係る前記奥行情報に基づいて当該特定の被写体の前記撮像画像の水平方向における前記周辺領域を決定して前記対象領域の画像を前記撮像画像から抽出する請求項1記載の画像処理装置。
  3. 記画像処理部は、前記立体視画像を表示するための第2の撮像画像に含まれる被写体のうち前記特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を前記第2の撮像画像に関する第2奥行情報に基づいて抽出して当該抽出された画像に基づいて前記差分画像を生成し、
    前記データストリーム生成部は、前記立体視画像を表示するための第1の撮像画像に対応するデータと前記差分画像に対応するデータとを関連付けて前記データストリームを生成する
    請求項1記載の画像処理装置。
  4. 前記データストリーム生成部は、前記差分画像に対応するデータを含む旨を示す立体視画像識別情報を含めた前記データストリームを生成する請求項1記載の画像処理装置。
  5. 前記データストリーム生成部は、AVCHD規格におけるモディファイドデジタルビデオパックに前記立体視画像識別情報を含めた前記データストリームをAVCHD規格に従って生成する請求項4記載の画像処理装置。
  6. 前記データストリーム生成部は、前記差分画像に対応するデータを含む旨を示す立体視画像識別情報を動画管理ファイルに含めるように処理する請求項1記載の画像処理装置。
  7. 前記データストリーム生成部は、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに前記立体視画像識別情報を含めるように処理する請求項6記載の画像処理装置。
  8. 前記データストリーム生成部は、前記撮像画像に対応するデータと前記差分画像に対応するデータと前記奥行情報に対応するデータとを関連付けて前記データストリームを生成する請求項1記載の画像処理装置。
  9. 前記データストリーム生成部は、前記奥行情報に対応するデータを含む旨を示す奥行情報存否情報を含めた前記データストリームを生成する請求項8記載の画像処理装置。
  10. 前記データストリーム生成部は、AVCHD規格におけるモディファイドデジタルビデオパックに前記奥行情報存否情報を含めた前記データストリームをAVCHD規格に従って生成する請求項9記載の画像処理装置。
  11. 前記データストリーム生成部は、前記奥行情報に対応するデータを含む旨を示す奥行情報存否情報を、動画管理ファイルに含めるように処理する請求項8記載の画像処理装置。
  12. 前記データストリーム生成部は、AVCHD規格におけるインデックスファイル、クリップインフォメーションファイルおよびムービープレイリストファイルのうちの少なくとも1つに前記奥行情報存否情報を含めるように処理する請求項11記載の画像処理装置。
  13. 前記データストリーム生成部は、AVCHD規格におけるムービープレイリストファイルにおける拡張データ領域に前記奥行情報のプレイアイテムの登録領域を定義して当該登録領域に前記奥行情報のプレイアイテムを含めるように処理する請求項8記載の画像処理装置。
  14. 記立体視画像を構成する第1の画像を復元する画像復元部と、
    前記復元された第1の画像と前記撮像画像とに基づいて前記立体視画像を生成する立体視画像生成部と
    をさらに具備する請求項1記載の画像処理装置。
  15. 前記データストリーム生成部は、前記生成されたデータストリームを表す代表画像を立体視画像として表示させるための第1の撮像画像に対応する第1のサムネイル画像と第2の撮像画像に対応する第2のサムネイル画像とを関連付ける請求項1記載の画像処理装置。
  16. 記第1のサムネイル画像および前記第2のサムネイル画像に基づいて前記生成されたデータストリームを表す代表画像を立体視画像として一覧表示させる表示制御部をさらに具備する請求項15記載の画像処理装置。
  17. 像画像に含まれる被写体のうち特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を、前記撮像画像に関する奥行情報に基づいて抽出して当該抽出された画像に基づいて立体視画像を表示するための差分画像を生成する画像処理手順と、
    前記撮像画像に対応するデータと前記差分画像に対応するデータとを関連付けてデータストリームを生成するデータストリーム生成手順と
    を具備する画像処理方法。
  18. 像画像に含まれる被写体のうち特定の被写体と当該被写体の周辺領域とを含む対象領域の画像を、前記撮像画像に関する奥行情報に基づいて抽出して当該抽出された画像に基づいて立体視画像を表示するための差分画像を生成する画像処理手順と、
    前記撮像画像に対応するデータと前記差分画像に対応するデータとを関連付けてデータストリームを生成するデータストリーム生成手順と
    をコンピュータに実行させるプログラム。
JP2009162341A 2009-07-09 2009-07-09 画像処理装置、画像処理方法およびプログラム Expired - Fee Related JP5293463B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009162341A JP5293463B2 (ja) 2009-07-09 2009-07-09 画像処理装置、画像処理方法およびプログラム
US12/802,680 US8599243B2 (en) 2009-07-09 2010-06-11 Image processing device, image processing method, and program
CN2010102219693A CN101951525B (zh) 2009-07-09 2010-07-02 图像处理设备、图像处理方法和程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009162341A JP5293463B2 (ja) 2009-07-09 2009-07-09 画像処理装置、画像処理方法およびプログラム

Publications (3)

Publication Number Publication Date
JP2011019084A JP2011019084A (ja) 2011-01-27
JP2011019084A5 JP2011019084A5 (ja) 2012-07-26
JP5293463B2 true JP5293463B2 (ja) 2013-09-18

Family

ID=43427152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009162341A Expired - Fee Related JP5293463B2 (ja) 2009-07-09 2009-07-09 画像処理装置、画像処理方法およびプログラム

Country Status (3)

Country Link
US (1) US8599243B2 (ja)
JP (1) JP5293463B2 (ja)
CN (1) CN101951525B (ja)

Families Citing this family (58)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2010093351A1 (en) * 2009-02-13 2010-08-19 Thomson Licensing Depth map coding to reduce rendered distortion
WO2010151279A1 (en) 2009-06-25 2010-12-29 Thomson Licensing Depth map coding
US9485495B2 (en) 2010-08-09 2016-11-01 Qualcomm Incorporated Autofocus for stereo images
WO2012037713A1 (en) * 2010-09-20 2012-03-29 Mediatek Singapore Pte. Ltd. Method for performing display management regarding three-dimensional video stream, and associated video display system
US9305398B2 (en) * 2010-10-08 2016-04-05 City University Of Hong Kong Methods for creating and displaying two and three dimensional images on a digital canvas
WO2012081127A1 (ja) * 2010-12-17 2012-06-21 富士通株式会社 立体視動画像生成装置、立体視動画像生成方法、立体視動画像生成プログラム
JP5050094B2 (ja) * 2010-12-21 2012-10-17 株式会社東芝 映像処理装置及び映像処理方法
JP2012151663A (ja) * 2011-01-19 2012-08-09 Toshiba Corp 立体音響生成装置及び立体音響生成方法
MX352224B (es) 2011-03-18 2017-11-15 Sony Corp Aparato de procesamiento de imagenes y metodo de procesamiento de imagenes.
JP2012205148A (ja) 2011-03-25 2012-10-22 Kyocera Corp 電子機器
JP5743142B2 (ja) * 2011-03-29 2015-07-01 ソニー株式会社 画像理装置および方法、並びにプログラム
CN103444192B (zh) 2011-03-31 2014-11-26 富士胶片株式会社 立体成像装置和立体成像方法
US10015471B2 (en) * 2011-08-12 2018-07-03 Semiconductor Components Industries, Llc Asymmetric angular response pixels for single sensor stereo
US20130050414A1 (en) * 2011-08-24 2013-02-28 Ati Technologies Ulc Method and system for navigating and selecting objects within a three-dimensional video image
JP2013046324A (ja) * 2011-08-26 2013-03-04 Hitachi Consumer Electronics Co Ltd 記録装置/方法/媒体、再生装置/方法
US20130057655A1 (en) * 2011-09-02 2013-03-07 Wen-Yueh Su Image processing system and automatic focusing method
US20140225991A1 (en) * 2011-09-02 2014-08-14 Htc Corporation Image capturing apparatus and method for obatining depth information of field thereof
US9438889B2 (en) 2011-09-21 2016-09-06 Qualcomm Incorporated System and method for improving methods of manufacturing stereoscopic image sensors
US9521395B2 (en) 2011-10-04 2016-12-13 Canon Kabushiki Kaisha Imaging apparatus and method for controlling same
JP2013118468A (ja) * 2011-12-02 2013-06-13 Sony Corp 画像処理装置および画像処理方法
US8619148B1 (en) * 2012-01-04 2013-12-31 Audience, Inc. Image correction after combining images from multiple cameras
US9554115B2 (en) * 2012-02-27 2017-01-24 Semiconductor Components Industries, Llc Imaging pixels with depth sensing capabilities
CN102708570B (zh) * 2012-05-17 2015-06-17 北京数码视讯科技股份有限公司 获取深度图的方法及装置
JP5889719B2 (ja) * 2012-05-31 2016-03-22 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
KR101888956B1 (ko) * 2012-05-31 2018-08-17 엘지이노텍 주식회사 카메라 모듈 및 그의 오토 포커싱 방법
TWI471630B (zh) * 2012-06-01 2015-02-01 Hon Hai Prec Ind Co Ltd 主動式距離對焦系統及方法
TWI558165B (zh) * 2012-09-25 2016-11-11 宏碁股份有限公司 電腦系統及立體影像產生方法
US9654762B2 (en) * 2012-10-01 2017-05-16 Samsung Electronics Co., Ltd. Apparatus and method for stereoscopic video with motion sensors
US9398264B2 (en) 2012-10-19 2016-07-19 Qualcomm Incorporated Multi-camera system using folded optics
KR101370785B1 (ko) * 2012-11-06 2014-03-06 한국과학기술원 입체 영상의 깊이 맵 생성 방법 및 장치
KR101448749B1 (ko) * 2012-12-10 2014-10-08 현대자동차 주식회사 물체 영상 검출 시스템 및 방법
CN104133339B (zh) * 2013-05-02 2017-09-01 聚晶半导体股份有限公司 自动对焦方法及自动对焦装置
TWI460523B (zh) * 2013-05-02 2014-11-11 Altek Semiconductor Corp 自動對焦方法及自動對焦裝置
JP6410483B2 (ja) * 2013-08-09 2018-10-24 キヤノン株式会社 画像処理装置
US10178373B2 (en) 2013-08-16 2019-01-08 Qualcomm Incorporated Stereo yaw correction using autofocus feedback
US9591295B2 (en) * 2013-09-24 2017-03-07 Amazon Technologies, Inc. Approaches for simulating three-dimensional views
JP6405531B2 (ja) * 2013-11-19 2018-10-17 パナソニックIpマネジメント株式会社 撮像装置
DE102013226101A1 (de) * 2013-12-16 2015-07-02 Robert Bosch Gmbh Überwachungskameravorrichtung mit Tiefeninformationsbestimmung
TWI511081B (zh) * 2014-01-28 2015-12-01 Altek Semiconductor Corp 影像擷取裝置及其影像形變校正方法
TWI494680B (zh) * 2014-01-28 2015-08-01 Altek Semiconductor Corp 影像擷取裝置及其影像形變校正方法
CN103795934B (zh) * 2014-03-03 2018-06-01 联想(北京)有限公司 一种图像处理方法及电子设备
US9374516B2 (en) * 2014-04-04 2016-06-21 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US9383550B2 (en) 2014-04-04 2016-07-05 Qualcomm Incorporated Auto-focus in low-profile folded optics multi-camera system
US10013764B2 (en) 2014-06-19 2018-07-03 Qualcomm Incorporated Local adaptive histogram equalization
US9541740B2 (en) 2014-06-20 2017-01-10 Qualcomm Incorporated Folded optic array camera using refractive prisms
US9549107B2 (en) 2014-06-20 2017-01-17 Qualcomm Incorporated Autofocus for folded optic array cameras
US9294672B2 (en) 2014-06-20 2016-03-22 Qualcomm Incorporated Multi-camera system using folded optics free from parallax and tilt artifacts
US9386222B2 (en) 2014-06-20 2016-07-05 Qualcomm Incorporated Multi-camera system using folded optics free from parallax artifacts
US9819863B2 (en) 2014-06-20 2017-11-14 Qualcomm Incorporated Wide field of view array camera for hemispheric and spherical imaging
US9369727B2 (en) * 2014-07-10 2016-06-14 Intel Corporation Storage of depth information in a digital image file
US9832381B2 (en) 2014-10-31 2017-11-28 Qualcomm Incorporated Optical image stabilization for thin cameras
US9906715B2 (en) 2015-07-08 2018-02-27 Htc Corporation Electronic device and method for increasing a frame rate of a plurality of pictures photographed by an electronic device
GB2558277A (en) * 2016-12-23 2018-07-11 Sony Interactive Entertainment Inc Image data encoding and decoding
US11573573B2 (en) 2017-06-06 2023-02-07 Plusai, Inc. Method and system for distributed learning and adaptation in autonomous driving vehicles
US11042155B2 (en) 2017-06-06 2021-06-22 Plusai Limited Method and system for closed loop perception in autonomous driving vehicles
US11392133B2 (en) 2017-06-06 2022-07-19 Plusai, Inc. Method and system for object centric stereo in autonomous driving vehicles
KR102546990B1 (ko) * 2018-03-16 2023-06-23 엘지전자 주식회사 신호 처리 장치 및 이를 구비하는 영상표시장치
TWI819925B (zh) * 2022-12-19 2023-10-21 緯創資通股份有限公司 物件偵測裝置和方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2259587B1 (en) * 1996-02-28 2013-12-11 Panasonic Corporation High-resolution optical disk for recording stereoscopic video, optical disk reproducing device and optical disk recording device
JPH1040420A (ja) * 1996-07-24 1998-02-13 Sanyo Electric Co Ltd 奥行き感制御方法
JPH11164328A (ja) * 1997-11-27 1999-06-18 Toshiba Corp 立体映像表示装置
FI109633B (fi) * 2001-01-24 2002-09-13 Gamecluster Ltd Oy Menetelmä videokuvan pakkauksen nopeuttamiseksi ja/tai sen laadun parantamiseksi
JP4072674B2 (ja) * 2002-09-06 2008-04-09 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4414379B2 (ja) * 2005-07-28 2010-02-10 日本電信電話株式会社 映像符号化方法、映像復号方法、映像符号化プログラム、映像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
US8179423B2 (en) * 2005-08-22 2012-05-15 Ricoh Company, Ltd. Image display system, an image display method, a coding method, and a printed matter for stereoscopic viewing
US20080002878A1 (en) * 2006-06-28 2008-01-03 Somasundaram Meiyappan Method For Fast Stereo Matching Of Images
JP2009049726A (ja) * 2007-08-21 2009-03-05 Sony Corp 情報変換装置、情報変換方法およびプログラム
JP2009135686A (ja) * 2007-11-29 2009-06-18 Mitsubishi Electric Corp 立体映像記録方法、立体映像記録媒体、立体映像再生方法、立体映像記録装置、立体映像再生装置
JP5407498B2 (ja) * 2009-04-08 2014-02-05 ソニー株式会社 情報処理装置、情報記録媒体、および情報処理方法、並びにプログラム

Also Published As

Publication number Publication date
JP2011019084A (ja) 2011-01-27
CN101951525B (zh) 2013-12-11
CN101951525A (zh) 2011-01-19
US8599243B2 (en) 2013-12-03
US20110007135A1 (en) 2011-01-13

Similar Documents

Publication Publication Date Title
JP5293463B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5369952B2 (ja) 情報処理装置および情報処理方法
DK2230844T3 (en) REGISTRATION MEDIUM, WHICH 3D VIDEO IS REGISTERED, REGISTRATION MEDIUM FOR REGISTERING 3D VIDEO AND REPLACEMENT DEVICE AND METHOD OF REPRESENTING 3D VIDEO
JP5531467B2 (ja) 撮像装置、および画像処理方法、並びにプログラム
WO2011036888A1 (ja) 記録媒体、再生装置、及び集積回路
CN107836114B (zh) 数据记录设备及其控制方法、摄像设备和计算机可读存储介质
TW201123847A (en) Recording medium, playback device, and integrated circuit
JP2005094168A (ja) ファイル構造及びそれを用いる画像記録装置並びに画像再生装置
EP2157581B1 (en) Information recording apparatus, imaging apparatus, information recording method and program
JP5085462B2 (ja) 情報記録装置、撮像装置、情報記録方法およびプログラム
US20130127992A1 (en) Method of converting video images to three-dimensional video stream
WO2012161077A1 (ja) 記録装置、記録方法、再生装置、再生方法、プログラム、および記録再生装置
JP4707766B1 (ja) 三次元ビデオストリームへの映像変換方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130514

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130527

LAPS Cancellation because of no payment of annual fees