Nothing Special   »   [go: up one dir, main page]

JP6672081B2 - 撮像装置 - Google Patents

撮像装置 Download PDF

Info

Publication number
JP6672081B2
JP6672081B2 JP2016110350A JP2016110350A JP6672081B2 JP 6672081 B2 JP6672081 B2 JP 6672081B2 JP 2016110350 A JP2016110350 A JP 2016110350A JP 2016110350 A JP2016110350 A JP 2016110350A JP 6672081 B2 JP6672081 B2 JP 6672081B2
Authority
JP
Japan
Prior art keywords
image
image signals
image data
different exposures
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016110350A
Other languages
English (en)
Other versions
JP2017216638A (ja
Inventor
浩靖 形川
浩靖 形川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016110350A priority Critical patent/JP6672081B2/ja
Priority to US15/599,150 priority patent/US10334176B2/en
Publication of JP2017216638A publication Critical patent/JP2017216638A/ja
Application granted granted Critical
Publication of JP6672081B2 publication Critical patent/JP6672081B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • H04N23/672Focus control based on electronic image sensor signals based on the phase difference signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/42Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by switching between different modes of operation using different resolutions or aspect ratios, e.g. switching between interlaced and non-interlaced mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/70SSIS architectures; Circuits associated therewith
    • H04N25/703SSIS architectures incorporating pixels for producing signals other than image signals
    • H04N25/704Pixels specially adapted for focusing, e.g. phase difference pixel sets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/64Circuits for processing colour signals
    • H04N9/68Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits
    • H04N9/69Circuits for processing colour signals for controlling the amplitude of colour signals, e.g. automatic chroma control circuits for modifying the colour signals by gamma correction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/82Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction
    • H04N23/83Camera processing pipelines; Components thereof for controlling camera response irrespective of the scene brightness, e.g. gamma correction specially adapted for colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/533Control of the integration time by using differing integration times for different sensor regions
    • H04N25/535Control of the integration time by using differing integration times for different sensor regions by dynamic region selection

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Automatic Focus Adjustment (AREA)

Description

本発明は、撮像装置に関し、特にダイナミックレンジを拡大させる機能と自動焦点検出機能とを備えた撮像装置に関するものである。
デジタルカメラにおいて、高コントラストのシーンを撮像すると、低輝度部分の階調性悪化(黒つぶれ)や高輝度部分の階調性悪化(白飛び)が発生する場合が有った。
これに対し、特許文献1には、同一被写体を異なる露光量で2枚撮像し、当該2枚の画像データを合成することにより、ダイナミックレンジの広い画像データを生成する技術が開示されている。
また、1つのマイクロレンズに対して複数の光電変換部を持った撮像素子により位相差を求め、焦点検出を行う技術が知られている。
例えば、特許文献2では位相差を求めて焦点検出を行うと同時に従来の信号処理技術により画像データを作成する技術が開示されている。
特開2000−50151号公報 特開2008−134389号公報
しかしながら、撮像装置の高画質化・高フレームレート化に伴い、装置内に搭載される集積回路が処理する画像データの量が増大している。
その為、さらにダイナミックレンジ用に取得する露出量の異なる画像データに加えて、焦点検出用の画像データの読み出しに対応するためには、集積回路内のデータ転送容量の帯域を確保する為に、高価かつ大量の回路資源が必要となっていた。
そこで、本発明の目的は、限られた回路資源を用いてダイナミックレンジ拡大、焦点検出の両方を実現することを可能にした撮像装置を提供することである。
上記目的を達成するために、本発明は、被写体像を結像するための光学系を有し、前記被写体像を画像信号として所定のフレームレートで取得する撮像装置であって、露出の異なる複数の画像信号及び位相差検出を行うための焦点検出信号を出力可能な撮像手段と、前記撮像手段から出力される前記露出が異なる複数の画像信号を合成して出力する合成手段とを備え、前記撮像手段は前記所定のフレームレートで前記露出の異なる複数の画像信号を出力する際に、所定のタイミングで前記露出の異なる複数の画像信号の一部に代替して焦点検出信号を出力し、前記合成手段は前記露出が異なる複数の画像信号を合成する際に、前記所定のタイミングで代替された一部の画像信号の代わりに、前記所定のタイミングよりも前に取得された画像信号を用いることを特徴とする。
以上説明したように、本発明によれば、限られた回路資源を用いてダイナミックレンジ拡大、焦点検出の両方を実現することを可能にした撮像装置を提供することが可能となる。
本発明の第1の実施形態に係る撮像装置の全体ブロック図である。 本発明の第1の実施形態に係る撮像装置の合成処理の流れを示すフローチャートである。 本発明の第1の実施形態に係る画像合成部の構成を示す図である。 本発明の第1の実施形態に係るガンマ補正部について説明するための図である。 本発明の第1の実施形態に係る画像データの合成比率の決定方法を説明する為の図である。 撮像素子の構成を示すブロック図である。 撮像レンズの射出瞳から出た光束が単位画素に入射する概念図である。 本発明の第1の実施形態に係る焦点状態検出処理を示すフローチャートである。 本発明の第1の実施形態に係る信号を読み出すタイミングを示す図である。 本発明の第1の実施形態に係るフレームレートとフォーカスレンズ駆動周期に従ったそれぞれのレンズ位置(焦点面)を示した図である。 本発明の第2の実施形態に係る撮像装置の全体ブロック図である。 本発明の第2の実施形態に係るフレーム間移動量と累積移動量を示した図である。
以下に、本発明の好ましい実施形態を、添付の図面に基づいて詳細に説明する。なお、以下に説明する実施形態は単なる例示であり、本発明は実施形態に記載された構成に限定されない。
(第1の実施形態)
図1は本実施形態における撮像装置の全体ブロック図である。
101はズームレンズ、絞り、フォーカスレンズのうち少なくとも1つ以上から構成される被写体像を結像するための光学系である。102は後述するAF制御部111から出力されるフォーカス情報や、後述するシステム制御部112の光学系駆動情報に応じて光学系101を駆動及び制御する光学駆動部である。なお、光学系101には撮像する画像に対して撮像装置の振動の影響を低減するための防振機構等を設けるようにしてもよい。また、光学系101は撮像装置から着脱可能な交換レンズでもよい。この場合、交換レンズの焦点距離や絞り値等に関する情報は交換レンズ内に設けられたメモリ等に記憶させておき、撮像装置との通信によって取得するようにしてもよい。
103は光学系101を通過した被写体像を光電変換により電気信号に変換する撮像素子である。一例としてCMOSイメージセンサや光電変換膜を用いたエリアセンサである。本実施形態における撮像素子103は、ゲイン、露光時間等の露出の異ならせた複数枚の画像データに加え焦点検出用の瞳分割像の信号も出力可能である。
104はシステム制御部112からの撮像素子駆動指示情報に応じて、撮像素子103を制御する撮像素子駆動部である。撮像素子駆動部104から出力される制御信号によって撮像素子103は露出の異なる2枚の画像データを出力するか、または1枚の画像データと焦点検出用の瞳分割像データを出力するか等の駆動モードを切り替える。ここで、画像データと瞳分割像データに関しては図6及び図7を用いて後に詳細に説明する。また、撮像素子駆動指示情報には、撮像素子103の駆動モードを切換えるための信号、撮像素子103における露出を決定するための設定パラメータ、垂直又は水平同期信号等が含まれる。
105は加算信号分離部で、撮像素子103から画像データと焦点検出用の瞳分割像データが出力された場合に、画像データと瞳分割像データとを用いて位相差を検出するためのもう一方の瞳分割像データをシステム制御部112の制御に基づいて生成する。そして、加算信号分離部105は撮像素子103から出力される瞳分割像データ(第1の像データ)と、加算信号分離部105において生成された瞳分割像データ(第2の像データ)の2つの瞳分割像データを位相差測距部110に出力する。一方で、画像データ(第3の像データ)を後述するカメラ信号処理部106に出力する。なお、本実施形態において瞳分割像データは位相差検出を行うための焦点検出信号に相当する。
さらに、駆動モードとして撮像素子103から露出の異なる2枚の画像データが出力するモードに撮像素子103が設定された場合には、105の加算信号分離部は、瞳分割像データを生成せずに、カメラ信号処理部106に2枚の画像信号を出力する。言い換えれば、加算信号分離部105は瞳分割像データが撮像素子103から入力されるか否かで、出力する像データを切換える動作を行う。また、本実施形態の撮像素子103においては、露出の異なる2枚の画像データ及び瞳分割像データの両方を出力する駆動モードも設定可能である。
106はカメラ信号処理部で、加算信号分離部105から得られた画像データに対し、例えば、色変換、ホワイトバランス等の所定の画像処理を行い、画像合成部107に処理後の画像データを出力する。
107は画像合成部で、露出の異なる2枚の画像を合成し、合成した1枚の画像データを生成する。合成された画像データは、圧縮部108にて圧縮符号化され、記憶部109によって記録媒体に記録される。ここで記録媒体は、撮像装置に対して着脱可能であってもよいし、撮像装置に内蔵されていてもよい。また、所定の通信部を返して撮像装置外に設けてもよい。なお、記憶媒体には画像データの他に、撮像装置内で使用するパラメータ等の設定ファイルを記憶するようにし、記憶部109経由で読み出せるようにしてもよい。
110は位相差検出部で、加算信号分離部105から得られた2つの瞳分割像データから位相差に基づく測距を行うための位相差評価値を算出する。111はAF制御部で、位相差検出部110で算出した位相差評価値を基に、光学系101のフォーカス位置を制御するためのフォーカス情報を算出する。フォーカス情報には、フォーカスを合わせる被写体までの距離、ボケ量、位相差、フォーカス位置等を含む。
112は撮像装置全体を制御し、各種パラメータ等の設定を行うシステム制御部であり、CPUやFPGAを含む。また、不図示の記憶部であるデータを電気的に消去可能なメモリ等を含み、システム制御部112はこれに記憶されたプログラムを実行する。なお、メモリは、システム制御部112が実行するプログラム格納領域、プログラム実行中のワーク領域、データの格納領域等として使用される。加えて、メモリはシステム制御部112が撮像装置の制御に用いる設定情報である各種パラメータの初期値等も保持する。また、不図示の通信部を含み、各種制御コマンドをPC等の外部装置から受信する場合、また各種制御コマンドに対するレスポンスや、生成した画像データを外部装置へ送信する場合に使用される。さらに、撮像シーンや駆動モード、被写体検出などから得られる撮像情報に基づいて、光学駆動部102へズームや絞りなどの光学系の駆動情報を出力する。加えて、撮像素子駆動部104へ露出の異なる2枚の画像データを読み出すか、又は1枚の画像データと瞳分割像データを読み出すか等の駆動モードの切り換え指示や露光時間などの撮像素子103の駆動情報を出力する。
また、本実施形態に係る撮像装置には、画像データを表示するための表示部や、タッチパネルやスイッチ等を組み合わせた操作部を更に備えるようにしてもよい。表示部に表示するための画像データはシステム制御部112に含まれるメモリや記録媒体に保存されたものを表示する。そして、操作部にユーザーにより入力された駆動モード等を含む設定情報はシステム制御部112のメモリに一端保存され、適宜読み出される。
次に、図2及び図3を参照しながら、第1の実施形態に係る撮像装置の画像合成処理について説明する。図2は、第1の実施形態に係るシステム制御部112が制御する合成処理の流れを示すフローチャートであり、図3は、第1の実施形態に係る画像合成部107の内部構成を示す図である。
ステップS201において、システム制御部112は、撮像素子駆動部104に設定するための駆動モード情報をメモリから読み取る。具体的には、露出の異なる2枚の画像データを読み出す駆動モードであるか、1枚の画像データと瞳分割像データを読み出す駆動モードであるかを読み取る。そして、露出の異なる2枚の画像データを読み出す駆動モードである場合には処理をステップS202に進め、1枚の画像データと瞳分割像データを読み出す駆動モードである場合には処理をステップS211に進める。
ステップS202において、システム制御部112は、撮像素子駆動部104に対してアンダー露光及び適正露光のそれぞれで画像データを取得するための駆動モードを設定する。そして、システム制御部112はカメラ信号処理部106を制御し、撮像したアンダー露光の画像(以下、アンダー画像と称す場合がある)と適正露光の画像(以下、適正画像と称す場合がある)のそれぞれに対して画像処理を施す。そして、各画像データを画像合成部107に入力するようにカメラ信号処理部106を制御する。そして、処理をステップS203に進める。
ステップS203において、システム制御部112は、画像合成部107を制御して、各画像データに対してガンマ補正処理を行う。ここで、画像合成部107の内部構成に関して図3を用いて詳細に説明する。カメラ信号処理部106より入力された画像データは、ガンマ補正部301に入力される。ガンマ補正部301は、図3に示すように第1のガンマ補正部302と第2のガンマ補正部303とを備えており、アンダー画像データ及び適正画像データそれぞれに対して異なる特性のガンマ補正処理を施すことが可能である。本実施形態においては、第1のガンマ補正部302はアンダー画像データに対するガンマ補正処理を行い、第2のガンマ補正部303は適正画像データに対するガンマ補正処理を行う。第1のガンマ補正部302と第2のガンマ補正部303とは、それぞれが異なる特性のガンマ補正処理を実行する。
ここで、図4を参照しながら、本実施形態におけるガンマ補正処理について説明する。図4の401は、第1のガンマ補正部302におけるガンマ補正処理の特性(以下、第1のガンマカーブと称する場合がある)であり、402は、第2のガンマ補正部303におけるガンマ補正処理の特性(以下、第2のガンマカーブと称する場合がある)である。
横軸の入力値に対して縦軸の出力値が対応しており、このカーブを用いることで画像データの各画素の値に対してガンマ補正処理を行う。ここで、第1のガンマカーブは、ガンマ補正後におけるアンダー画像データのAE目標値が、第2のガンマカーブを用いたガンマ補正後における適正画像データのAE目標値と一致するように設定されている。
ここで、ガンマ補正前のアンダー画像データのAE目標値を下げることでダイナミックレンジを拡大することが出来る。しかし、単純にAE目標値を下げると、露出アンダーとなり、アンダー画像データが暗くなってしまう。そこで、本発明の第1の実施形態では、ダイナミックレンジの拡大量に応じて、アンダー画像データを明るくするようにガンマ補正を行うように第1のガンマカーブを決定する。これにより、アンダー画像データの明るさ(露出)を適正にしながら、ダイナミックレンジを拡大させることが可能となる。
なお、本発明の第1の実施形態では、ガンマ補正前のAE目標値を下げたことによるアンダー画像データの輝度低下をガンマ補正により補正する構成について示したが、ルックアップテーブル等の別処理を用いて同様の輝度補正を行っても良い。
また、ホワイトバランス補正のためのホワイトバランス係数のゲインと飽和信号量を決定するクリッピング量とを制御してもよい。つまり、露光量の低減やゲインの低減等によりゲインダウンされた画像データをA/D変換した後、後段の信号処理回路でゲインアップし、クリッピング量をゲインアップ分だけ拡大させる(飽和信号量を大きくする)ことによっても同じ効果が得られる。
ここで、図2のフローチャートの説明に戻る。ステップS204において、システム制御部112は、画像合成部107に含まれる色輝度変換回路304を制御する。より具体的には、色輝度変換回路304にてガンマ補正後のアンダー画像データをYUV1に変換するとともに、ガンマ補正後の適正画像データをYUV2に変換する。そして、処理を
ステップS205に進める。
ステップS205において、システム制御部112は、画像合成部107に含まれる色輝度変換回路304にて変換したYUV1を画像合成部107に含まれるメモリ305に記録する。そして、処理をステップS206に進める。このようにメモリ305にYUV1を記録しておく事で、異なるタイミングで撮像素子103から読み出された適正画像データと合成することが可能となる。言い換えれば、アンダー画像は被写体像中の高輝度領域(例えば屋外であれば空や、室内であれば窓の領域)の情報を主に含むため、毎フレーム必要ではない場合がある。このような場合に、データ切り替え部306を制御してメモリ305に記録しておいたアンダー画像データ(YUV1)を、読み込むようにする事で、アンダー画像の読み出しを間引くことが可能となる。なお、本実施形態においては、アンダー画像を読み出さなかったフレームにおいては、アンダー画像の代わりに焦点検出用の瞳分割像データを読み出す制御を行う。また、本実施形態においてはアンダー画像データを変換したYUV1を記憶するためのメモリ305のみを設けたが、適正画像データを変換したYUV2を記憶するメモリを別途設けるようにしてもよい。このようにすることで、アンダー画像データに代えて適正画像データも間引くことが可能となる。
ステップS206おいて、システム制御部112は、画像合成部107に含まれる輝度合成比率算出部307において、YUV2の各画像領域の輝度に基づいて合成比率1を算出するように制御する。そして、処理をステップS207に進める。ここでは例えば、画像データを複数の領域に分割し、分割した領域に含まれるn×m(nとmは整数)ピクセルの画像領域の平均輝度に基づいて領域毎に合成比率1が算出される。本実施形態の合成比率1は図5(a)に示すように、平均輝度が高い画像領域ほど白飛びの可能性があるため、当該画像領域についてYUV1の合成比率を高めるように合成比率1が算出される。
ステップS207において、システム制御部112は、画像合成部107に含まれる移動体合成比率算出部308において、YUV1及びYUV2に基づいて移動体領域を抽出して合成比率2を算出する。より詳細には、移動体合成比率算出部308は、YUV1及びYUV2におけるp×q(pとqは整数)ピクセルの画像領域の輝度差分及び色差分を算出する。そして、図5(b)に示すように、各画像領域の輝度差分及び色差分が大きい場合には、その画像領域に移動体が存在する領域として抽出する。移動体合成比率算出部308は、抽出した画像領域についてYUV2の合成比率を高めるように合成比率2を算出する。そして、処理をステップS208に進める。
ステップS208において、システム制御部112は、画像合成部107に含まれる合成比率算出部309において、撮像装置の状態情報を入力し、当該状態情報に基づいて合成比率3を算出する。なお、撮像装置の状態情報とは、光学ズーム時のズームスピード、ジャイロ情報等から出力されるパンニング量、及び、手ぶれ量等の動画撮像時の撮像装置の状態を示す情報である。これらの状態情報のうち、少なくとも1つを取得し、合成比率を決定する。なお、これらの出力を検出する振れ検出部、ズームレンズ位置を取得し、ズームスピードを算出する算出部はシステム制御部112が担っている。そして、処理をステップS209に進める。ここで、光学ズーム時のズームスピート、パンニング量及び手ぶれ量等が大きい場合、YUV1及びYUV2の合成処理が難しくなるため、所望の合成画像データが得られない。そのため、合成比率算出部309は、図5(c)に示すように、光学ズーム時のズームスピード、パンニング量及び手ぶれ量等が増加するに従って、YUV2の合成比率を高めるように合成比率3を算出する。
ステップS209において、システム制御部112は、画像合成部107に含まれる合成比率算出部309は、合成比率1、合成比率2及び合成比率3に基づいて、最終合成比率αを算出する。算出方法としては、合成比率算出部309は、合成比率1、合成比率2及び合成比率3のうちの最大値を最終合成比率αとして決定する。または、各合成比率の積を最終合成比率αとしてもよい。そして、処理をステップS210に進める。
ステップS210において、システム制御部112は、画像合成部107に含まれる加重加算部310において、次式に示すように、YUV1とYUV2とを最終合成比率αで加重加算することで合成処理を行う。その結果として、合成出力画像データを生成する。
YUV1×α+YUV2×(1−α)=合成出力画像データ
生成された合成出力画像データは、圧縮部108に対して出力される。そして処理を終了する。なお、ステップS206乃至ステップS208において、合成比率を求める際の算出閾値(Th1とTh2)は固定ではなく、撮影モード等に応じて可変するようにしてもよい。また、ステップS201にて瞳分割像を読み出すか否かの判定結果に応じて合成比率又は算出閾値を異ならせてもよい。より具体的には、瞳分割像を読み出さない場合は、メモリ305に記憶したアンダー画像データを用いるが、適正画像データとの時間差があるため、適正画像データ側の比率を大きくすることが好ましい。
一方で、ステップS201にて1枚の画像データと瞳分割像データを読み出す駆動モードである場合の処理について説明する。ステップS211において、システム制御部112は、撮像素子駆動部104に対して適正露光と瞳分割像のそれぞれで画像データを取得するための駆動モードを設定する。そして、システム制御部112はカメラ信号処理部106を制御し、撮像した適正画像に対して画像処理を施す。そして、画像データを画像合成部107に入力するようにカメラ信号処理部106を制御する。そして、処理をステップS212に進める。
ステップS212及びステップS213は、適正画像データのみに処理を行うという点が異なるが、処理内容自体はステップS203とステップS204と同様である。そのため、処理内容の詳細説明は省略する。
ステップS214において、システム制御部112は、画像合成部107に含まれるメモリ305に記録されたYUV1を読み出すように制御する。そして、処理をステップS206に進める。
なお、図2に示したフローチャートのステップS201において、瞳分割像データを読み出す駆動モードか否かを判定したが、これ以外の駆動モードを行う場合においても、本フローチャートの処理は適用可能である。例えば、露出の異なる2枚の画像データ及び瞳分割像データの両方を出力する駆動モードの設定であった場合には、ステップS202に処理を進めるようにしてもよい。
第1の実施形態においては、動画撮像時の撮像装置の状態情報を加味して画像データの合成比率を決定している。そのため、動画撮像時に光学ズーム及びパンニング等のカメラワークを施した場合や手ぶれが生じた場合でも、最適なダイナミックレンジ拡大処理が可能となる。
次に第1の実施形態の位相差検出部110、AF制御部111について図6、図7、図8を用いて説明する。
本発明の第1の実施形態の撮像素子103について図6を用いて説明する。図6は撮像素子103を光学系101側から見た図である。本実施形態では、マイクロレンズアレイを形成する個々のマイクロレンズ601を1つの単位画素602する。また、1つのマイクロレンズ601に対して複数の光電変換部が対応するように配置されている。なお、本実施形態では単位画素602には複数の光電変換部が対応するように配置されている。なお、本実施形態では単位画素602には光電変換部が水平方向(X軸方向)に2個あり、それぞれ602A、602Bとする。
図7は、光学系101から射出された光が1つのマイクロレンズ601を通過して撮像素子103で受光される様子を光軸Zに対して垂直方向(Y軸方向)から観察した図である。701、702は光電変換部602A及び光電変換部602Bのそれぞれに対応する光学系101の射出瞳を表す。各射出瞳を通過した光は、光軸Zを中心として単位画素602に入射する。図7に示すように瞳領域701を通過する光束はマイクロレンズ601を通して光電変換部602Aで受光される。そして、瞳領域702を通過する光束はマイクロレンズ601を通して光電変換部602Bで受光される。したがって、601Aと601Bはそれぞれ光学系101の射出瞳の異なる領域の(瞳分割された)光を受光している。
このように瞳分割された光電変換部601Aの信号をX軸方向に並ぶ複数の単位画素602から取得し、これらの出力信号群で構成した被写体像をA像とする。同様に瞳分割された光電変換部601Bの信号をX軸方向に並ぶ複数の単位画素602から取得し、これらの出力信号群で構成した被写体像をB像とする。本実施形態において、これらA像とB像は瞳分割像に相当する。
A像とB像はX軸方向にシフトした像であるため、相関演算を実施し、シフト量に相当する像のずれ量(瞳分割位相差)を検出する。さらに像のずれ量に対して焦点位置と光学系から決まる変換係数を乗じることで、画面内の任意の被写体位置に対応した焦点位置を算出することができる。ここで算出された焦点位置情報を基にフォーカスレンズを制御することで撮像面位相差AFが可能となる。
なお、本実施形態の撮像素子103はA像信号とB像信号とを加算したA+B像を読み出し可能であり、このA+B像の信号は画像データに相当する。そのため、瞳分割像データを得るためにA像とB像をそれぞれ読み出す必要は無く、瞳分割像データとしてA像及びB像のいずれか一方を読み出し、A+B像から減算することでもう一方を算出することができる。なお、この演算は、図1において説明したとおり加算信号分離部105において実行される。
次に図8を用いて、本実施形態における焦点検出処理について説明する。なお、本フローチャートの処理はシステム制御部112が行う。
まず、ステップS801にて、システム制御部112は、光学系101が持つ、AFに使用する撮像パラメータを取得する。そして、処理をステップS802に進める。ここで、撮像パラメータとは、光学系101内の絞り情報や、焦点距離等を含む。また、撮像素子103から出力される信号にかかっているゲインや露光時間等の露出条件に関する情報を含むようにしてもよい。
ステップS802において、システム制御部112は、ユーザーによる操作部の操作結果等に応じて撮像範囲に含まれる焦点検出範囲内から、焦点状態検出を行う測距領域位置の設定/配置を行う。なお、設定/配置の方法は、被写体検出が可能な構成であれば例えば顔を検出した位置を測距領域位置として設定してもよい。そして、処理をステップS803に進める。
ステップS803において、システム制御部112は、ステップS801で取得した撮像パラメータ及びステップS802で設定/配置した測距領域位置に基づいて撮像面位相差AFに用いる瞳分割信号を生成する範囲を決定する。そしれ、処理をステップS804に進める。ここで、瞳分割信号を生成する範囲を設定するとは、図6に示した撮像素子において、A像信号を生成する走査ラインをどの範囲にするかを選択することに相当する。瞳分割信号を生成しない走査ラインでは、A+B像の信号として1つの信号のみを生成する。瞳分割信号を生成する範囲を必要な範囲のみに限定することで、余分な演算処理を省くことができ、さらに読み出し負荷や熱の発生の軽減をすることができる。
ステップS804において、システム制御部112は、位相差検出部110は、S803で設定した像データ生成範囲に含まれる画素からAF用の瞳分割像データを取得する。そして、処理をステップS805にすすめる。より詳細には、システム制御部112は、加算信号分離部105に対して、撮像素子103により出力される画像データと瞳分割像データであるA像信号を入力する。入力された信号に基づいてB像信号を分離し、入力されたA像信号と分離したB像信号を位相差検出部110に出力するように制御する。
ステップS805において、システム制御部112は、位相差検出部110を制御し、取得した像信号間の相関量を算出する。相関量の算出は、S803で設定した像データ生成範囲内の各走査ラインにおいて、測距領域内に対してそれぞれ行う。そして、処理をステップS806にすすめる。
なお、ステップS804からステップS809までの処理も同様に測距領域内の各走査ラインに対してそれぞれ行う。
ステップS806において、システム制御部112は、位相差検出部110を制御し、ステップS805より算出した相関量から相関変化量を算出する。
ステップS807において、システム制御部112は、位相差検出部110を制御し、相関変化量から像ずれ量を算出する。
ステップS808において、システム制御部112は、位相差検出部110を制御し、像ずれ量がどれだけ信頼できるのかを表す信頼性を算出する。
ステップS809において、システム制御部112は、AF制御部111を制御し、ステップS807で算出した像ずれ量に対して、換算係数を掛けることでデフォーカス量に変換する。
その後、システム制御部112を介して光学系駆動部102がデフォーカス量を受け取りデフォーカス量に基づいてフォーカスレンズを制御し、焦点状態検出処理を終了する。
以上、画像合成部107、位相差検出部110、AF制御部111について詳細に述べてきた。画像合成と位相差検出の2つを同時に行う場合、前述したが露出量の異なる2枚の画像データに加えて位相差検出用の焦点検出用画素を読み出すとデータ転送容量が莫大になってしまい、高画質化・高フレームレート化が実現出来なくなってしまう。
本実施形態の撮像装置において、高画質化・高フレームレート化に対してデータ転送容量の増大を適切に抑える動作に関して図9を用いて説明する。
図9(a)はFullHd動画解像度で秒間30コマ(30fps)を読み出す場合を想定した時の撮像素子103からの読み出し信号を時系列的に図示したものである。本実施形態の撮像装置においては、露出量の異なる2枚の画像データに加えて位相差検出用の焦点検出用の信号(瞳分割像データ)を読み出してもデータ転送容量が逼迫しない為、全て送る事が出来るものとする。言い換えれば、時系列的に隣接するフレームにおいて画像データと瞳分割像データの両方を出力可能である。
一方で、図9(b)はFullHd動画解像度で秒間60コマ(60fps)を読み出す場合を想定した時の撮像素子103からの読み出し信号を図示したものである。FullHd30fpsと比較して2倍のフレームレートのため、伝送するデータ容量も単純には倍になる。そのため、露出量の異なる2枚の画像データに加えて位相差検出用の焦点検出用画素を読み出すとデータ転送容量が莫大になってしまう。したがって、1フレームに2枚分のデータ(露出量の異なる2枚の画像データあるいは1毎の画像データと瞳分割像データ)を読み出すようにしている。瞳分割像(A像)は2フレームに1回読みだすようにしているがこれはフォーカスレンズの駆動周期に基づいて設定している。
ここで、図10を用いてフレームの取得周期毎にレンズ位置(焦点面)を調整する場合とフォーカスレンズの駆動周期に合わせてレンズ位置(焦点面)を調整する場合について説明する。
図10(a)はFullHd60fpsを想定した時のフレーム取得周期とフォーカスレンズ駆動周期に従ってレンズ位置(焦点面)調整した場合を示した図である。
1001はフレームレートに従った場合の焦点面の位置である。1002はフォーカスレンズ駆動周期に従った場合の焦点面の位置である。
フレーム取得周期に従った焦点面の位置でフォーカスレンズ駆動を行ってしまうと高速(16.67msec単位で)にレンズ位置の駆動が行われることで、フォーカス位置が頻繁に切り替わるため動画の品位が低下する。一方で、フォーカスレンズ駆動周期でレンズ位置の駆動制御を行うと滑らかに焦点面が移動することが可能となる。なお、本実施形態においてフォーカスレンズ駆動周期は光学系を制御するための制御周期に相当する。
図10(b)はFullHd120fpsを想定した時のフレーム取得周期とフォーカスレンズ駆動周期に従ってレンズ位置(焦点面)を調整した場合を示した図である。
1001、1002に関しては図10(a)と同様である。この時も同様に、フレーム取得周期に従った焦点面の位置でフォーカスレンズ駆動を行ってしまうと高速(8.34msec単位で)にレンズ位置の駆動が行われることで、フォーカス位置が頻繁に切り替わるため動画の品位が低下する。
上記述べたように本実施形態では理想的なフォーカスレンズ駆動制御が30fpsであると定義したが30fpsに限定されず、変更が可能である。
図9(b)ではフォーカスレンズ駆動制御は30fps単位で行うため2フレームに1回、焦点検出用画素があれば焦点検出も可能である。また、ダイナミックレンジ拡大の実現も時系列的に隣接する1フレーム前のアンダー画像データを使用すれば60fpsなので被写体ブレ等の影響も少なく実現出来る。
図9(c)はFullHd動画解像度で秒間120コマ(120fps)を読み出す場合を想定した時の撮像素子103からの読み出し信号を図示したものである。FullHd60fpsと比較して2倍のフレームレートのため、図9(b)と同様の考えでフォーカスレンズ駆動制御は30fps単位で行うため4フレームに1回の読み出しを行う。また、ダイナミックレンジ拡大の実現も1フレーム前のアンダー画像データを使用すれば120fpsなので被写体ブレ等の影響も少なく実現出来る。
以上説明したように、本発明の第1の実施形態の撮像装置は、フレームレートや画像サイズ、フォーカスレンズ駆動周期、あるいは被写体の移動量を加味する。そして、アンダー画像を間引き、その間引いたタイミングで焦点検出用画素を読み出す事で限られたデータバス、動作周波数においてダイナミックレンジ拡大、焦点検出の両方を実現することを可能にした撮像装置を提供することが出来る。
なお、本実施形態においては、FullHdの動画解像度で画像信号を読み出す際に、フレームレートが60fps以上においてアンダー画像データを間引く動作を例示したが、これに限られるものではない。例えば、120fpsに代わるタイミングでもよいし、動画解像度をFullHdから例えば4Kフォーマット以上の動画解像度に切り替える際にアンダー画像データを間引くようにしてもよい。このようにデータレートが増加方向に変化する場合に、画像データの一部を間引くことによって、ダイナミックレンジの拡大と焦点検出の両方を実現することを可能となる。
なお、本実施形態においては、フレームレートが増加した場合においても、アンダー画像データを間引く(瞳分割像データを読み出す)間隔は一定周期としたが、光学系101の焦点距離や被写体像の変化に応じて可変するようにしもてよい。
(第2の実施形態)
図11は第2の実施形態における撮像装置の全体ブロック図である。
図11は第1の実施形態の図1の構成に対して、被写体の被写体御移動量検出部1101が追加されたものであり、第1の実施形態と同様の構成要素については、それらの詳細説明は省略する。
1101は被写体の移動量検出部で、被写体のフレーム間の移動量とフレーム間の移動量を順次加算した累積移動量を算出する。そして、算出されたフレーム間の移動量と累積移動量から瞳分割像データの読み出しの指示をシステム制御部112に出力する。システム制御部112は移動量検出部1101の出力に応じて瞳分割像データを読み出すように制御する。
次に、図12を用いて被写体の移動量に基づいて瞳分割像を読み出すタイミングについて説明する。図12は、被写体の移動量と時間の関係を示した図である。図において横軸は、時間の経過を表す。縦軸は、被写体の移動量を表す。1201はフレーム間の移動量を示したもので、1202はフレーム間移動量をフレーム数分加算した累積移動量である。フレーム間の移動量は前後するフレーム画像の対応ブロックにおいて周知のブロックマッチング処理を実行し、そのずれ量を統計的に処理して算出する。フレーム間移動量は、例えば連続して正の移動量が算出される。これを順次加算すれば、累積移動量が算出される。
ここで、フレーム間移動量に対する閾値をTh_t、累積移動量に対する閾値をTh_aとする。それぞれ閾値を超えた場合、移動量がある一定以上に達したとみなし、次のフレームにおいて瞳分割像データを読み出す。言い換えれば、被写体が所定量動いたために、合焦範囲から外れた可能性が高いため、再度AFを行うために瞳分割像データを読み出すよう制御する。
また、累積移動量はフレーム間移動量が閾値Th_tを超えたか、あるいは累積移動量が閾値Th_aを超えた場合においてリセット処理を施す。
上記のように、フレーム間の移動量あるいは累積移動量が閾値を超えた場合に次のフレームにおいて瞳分割像を読み出すことで焦点検出とダイナミックレンジ拡大の両方を実現する。
なお、第1の実施形態及び第2の実施形態において、瞳分割像データを読み出すか否かはシステム制御部112が制御したが、これに限られるものではない。例えば、撮像素子103内に制御部を積層構造で設け(積層型)、フォーカスレンズ駆動周期又は被写体移動量に基づいて当該制御部が判断するようにしてもよい。このような撮像素子103が積層構造をとる場合には、制御部の他に画像データを一次的に保存するためのメモリや位相差検出部等を撮像素子103内に設けるようにしてもよい。
なお、図9の各図で示したようにアンダー画像データと適正画像データを所定のフレームレートで取得する際に、アンダー画像データを瞳分割像データで代替する動作を示したが、代替するのはフレーム単位でなくてもよい。例えば、アンダー画像データにおける所定の領域を瞳分割像データで置き換えてもよいし、行単位又は画素単位で置き換えてもよい。
(その他の実施例)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
なお、本発明の範囲は、本実施形態で例示した構成に限らず、発明の意図に沿った内容であれば他の構成であってもよい。
以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されず、その要旨の範囲内で種々の変形及び変更が可能である。
101 光学系
102 光学系制御部
103 撮像素子
104 撮像素子駆動部
105 加算信号分離部
106 カメラ信号処理部
107 画像合成部
108 圧縮部
109 記録部
110 位相差検出部
111 AF制御部
112 システム制御部

Claims (15)

  1. 被写体像を結像するための光学系を有し、前記被写体像を画像信号として所定のフレームレートで取得する撮像装置であって、
    露出の異なる複数の画像信号及び位相差検出を行うための焦点検出信号を出力可能な撮像手段と、
    前記撮像手段から出力される前記露出が異なる複数の画像信号を合成して出力する合成手段とを備え、
    前記撮像手段は前記所定のフレームレートで前記露出の異なる複数の画像信号を出力する際に、所定のタイミングで前記露出の異なる複数の画像信号の一部に代替して焦点検出信号を出力し、
    前記合成手段は前記露出が異なる複数の画像信号を合成する際に、前記所定のタイミングで代替された一部の画像信号の代わりに、前記所定のタイミングよりも前に取得された画像信号を用いることを特徴とする撮像装置。
  2. 前記露出の異なる複数の画像信号の少なくとも一部を記憶する記憶部を更に備え、
    前記合成手段は前記記憶部に記憶された前記所定のタイミングよりも前に取得された画像信号を用いて複数の画像信号を合成することを特徴とする請求項1に記載の撮像装置。
  3. 前記所定のタイミングよりも前に取得された画像信号は、前記所定のタイミングで出力される異なる複数の画像信号を含むフレームと時系列的に隣接するフレームに含まれる画像信号であることを特徴とする請求項1または2に記載の撮像装置。
  4. 前記所定のタイミングは少なくともフレームレート、解像度、前記光学系を制御するための制御周期のいずれか一つに基づいて決定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  5. 前記撮像手段が前記所定のフレームレートよりも低いフレームレートで前記露出の異なる複数の画像信号を出力する場合は、前記露出の異なる複数の画像信号の一部を代替することなく、前記露出の異なる複数の画像信号に加えて前記位相差検出を行うための焦点検出信号を出力することを特徴とする請求項4に記載の撮像装置。
  6. 前記所定のフレームレートは60fps以上であることを特徴とする請求項4に記載の撮像装置。
  7. 前記所定のタイミングは前記露出の異なる複数の画像信号を出力する前記所定のフレームレートよりも低く、且つ一定周期であることと特徴とする請求項4に記載の撮像装置。
  8. 前記所定のタイミングは前記被写体像の移動量に基づいて決定することを特徴とする請求項1乃至3のいずれか1項に記載の撮像装置。
  9. 前記露出の異なる複数の画像信号には、少なくとも適正露光で取得された画像信号とアンダー露光で取得された画像信号とを含むことを特徴とする請求項1乃至8のいずれか1項に記載の撮像装置。
  10. 前記焦点検出信号で代替される前記露出の異なる複数の画像信号の一部は前記アンダー露光で取得された画像信号を含むことを特徴とする請求項9に記載の撮像装置。
  11. 前記合成手段は前記露出が異なる複数の画像信号を合成してダイナミックレンジが拡大された画像信号を出力することを特徴とする請求項1乃至10のいずれか1項に記載の撮像装置。
  12. 前記撮像手段に用いられる撮像素子は、一つのマイクロレンズに対応して少なくとも2つ以上の光電変換部を備えたことを特徴とする請求項1乃至11のいずれか1項に記載の撮像装置。
  13. 前記合成手段は前記露出が異なる複数の画像信号を合成するための合成比率を算出する合成比率算出手段を含み、
    前記合成比率算出手段は、画像信号の一部が代替されたか否かに基づいて、前記合成比率を算出することを特徴とする請求項1乃至12のいずれか1項に記載の撮像装置。
  14. 前記撮像手段は積層型の撮像素子を含むことを特徴とする請求項1乃至13のいずれか1項に記載の撮像装置。
  15. 被写体像を結像するための光学系を有し、前記被写体像を画像信号として所定のフレームレートで取得する撮像装置の制御方法であって、
    露出の異なる複数の画像信号及び位相差検出を行うための焦点検出信号を出力する出力ステップを有し、
    前記出力ステップにおいて、前記所定のフレームレートで前記露出の異なる複数の画像信号を出力する際に、所定のタイミングで前記露出の異なる複数の画像信号の一部に代替して焦点検出信号を出力することを特徴とする撮像装置の制御方法。
JP2016110350A 2016-06-01 2016-06-01 撮像装置 Active JP6672081B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2016110350A JP6672081B2 (ja) 2016-06-01 2016-06-01 撮像装置
US15/599,150 US10334176B2 (en) 2016-06-01 2017-05-18 Imaging apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016110350A JP6672081B2 (ja) 2016-06-01 2016-06-01 撮像装置

Publications (2)

Publication Number Publication Date
JP2017216638A JP2017216638A (ja) 2017-12-07
JP6672081B2 true JP6672081B2 (ja) 2020-03-25

Family

ID=60483586

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016110350A Active JP6672081B2 (ja) 2016-06-01 2016-06-01 撮像装置

Country Status (2)

Country Link
US (1) US10334176B2 (ja)
JP (1) JP6672081B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10769095B2 (en) * 2016-07-20 2020-09-08 Canon Kabushiki Kaisha Image processing apparatus
JP7226325B2 (ja) * 2017-10-13 2023-02-21 ソニーグループ株式会社 焦点検出装置および方法、並びにプログラム
US11133339B2 (en) 2018-04-16 2021-09-28 Canon Kabushiki Kaisha Image sensor, image capturing apparatus and image processing apparatus
JP7332302B2 (ja) * 2018-04-16 2023-08-23 キヤノン株式会社 撮像装置及びその制御方法
JP7236282B2 (ja) * 2019-02-08 2023-03-09 キヤノン株式会社 画像処理装置及び方法、及び撮像装置
KR102574649B1 (ko) 2018-11-29 2023-09-06 삼성전자주식회사 이미지 처리 방법 및 이를 지원하는 전자 장치
JP7292123B2 (ja) * 2019-06-20 2023-06-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、記憶媒体

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000050151A (ja) 1998-07-28 2000-02-18 Olympus Optical Co Ltd 撮像装置
JP4321579B2 (ja) 2006-11-28 2009-08-26 ソニー株式会社 撮像装置
JP2013058661A (ja) * 2011-09-09 2013-03-28 Sony Corp 固体撮像素子および電子機器
JP6271952B2 (ja) * 2013-01-23 2018-01-31 キヤノン株式会社 撮像装置
JP2015087401A (ja) * 2013-10-28 2015-05-07 キヤノン株式会社 撮像装置
JP6555863B2 (ja) * 2013-12-25 2019-08-07 キヤノン株式会社 撮像装置及び撮像装置の制御方法
JP2015169722A (ja) * 2014-03-05 2015-09-28 ソニー株式会社 撮像装置
KR102277178B1 (ko) * 2015-03-09 2021-07-14 삼성전자 주식회사 카메라 모듈을 포함하는 전자 장치 및 전자 장치의 이미지 처리 방법
US9749556B2 (en) * 2015-03-24 2017-08-29 Semiconductor Components Industries, Llc Imaging systems having image sensor pixel arrays with phase detection capabilities
KR102390836B1 (ko) * 2015-10-05 2022-04-26 삼성전자주식회사 이미지 데이터를 생성하는 전자 장치 및 방법
JP6688165B2 (ja) * 2016-06-10 2020-04-28 キヤノン株式会社 撮像装置及び撮像システム

Also Published As

Publication number Publication date
US10334176B2 (en) 2019-06-25
US20170353648A1 (en) 2017-12-07
JP2017216638A (ja) 2017-12-07

Similar Documents

Publication Publication Date Title
JP6672081B2 (ja) 撮像装置
JP6911202B2 (ja) 撮像制御方法および撮像装置
US7301563B1 (en) Image pickup apparatus
JP6204660B2 (ja) 撮像装置及びその制御方法
JP5898466B2 (ja) 撮像装置、その制御方法、及びプログラム
JP6124538B2 (ja) 撮像装置、撮像装置の制御方法、およびプログラム
JP6082274B2 (ja) 撮像装置、及びその制御方法
JP4497001B2 (ja) 画像処理装置、電子カメラ、および画像処理プログラム
JP2013106113A (ja) 撮像装置
JP6752685B2 (ja) 撮像装置、撮像方法およびプログラム
JP2015231118A (ja) 画像合成装置、画像合成システム及び画像合成方法
JP2020017807A (ja) 画像処理装置および画像処理方法、ならびに撮像装置
US9661211B2 (en) Image capture apparatus and method for controlling the same
JP6242129B2 (ja) 撮像装置、その制御方法、及び制御プログラム
JP2018050149A (ja) 画像処理装置
JP5947625B2 (ja) 撮像装置、及びその制御方法
JP6226536B2 (ja) 撮像装置及びその制御方法
JP6075829B2 (ja) 撮像装置、カメラシステム、撮像装置の制御方法、プログラム、記憶媒体
JP6990988B2 (ja) 撮像装置及び撮像素子の制御方法
JP5929362B2 (ja) 撮像装置および撮像方法
JP2019075640A (ja) 画像処理装置及び画像処理方法
JP2006293196A (ja) 焦点検出装置
JP6254842B2 (ja) 撮像装置及びその制御方法
JP2010193180A (ja) 画像処理装置及び画像処理プログラム
JP2014123069A (ja) 撮像装置及びその制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190531

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200304

R151 Written notification of patent or utility model registration

Ref document number: 6672081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151