JP6456466B2 - Image sensor and image sensor control method - Google Patents
Image sensor and image sensor control method Download PDFInfo
- Publication number
- JP6456466B2 JP6456466B2 JP2017231499A JP2017231499A JP6456466B2 JP 6456466 B2 JP6456466 B2 JP 6456466B2 JP 2017231499 A JP2017231499 A JP 2017231499A JP 2017231499 A JP2017231499 A JP 2017231499A JP 6456466 B2 JP6456466 B2 JP 6456466B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- signal
- signal processing
- processing unit
- image sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Transforming Light Signals Into Electric Signals (AREA)
Description
本発明は、イメージセンサー及びイメージセンサーの制御方法に関する。 The present invention relates to an image sensor and a method for controlling the image sensor.
撮像装置での撮像において、画像信号の中から、特定の条件を満たす部分領域や特定の被写体を検出し、その検出結果に基づいて画像信号に対する画像処理を制御する技術が知られている。特許文献1では、画像信号の中から、人物の顔とその向いている方向を検出する方法に関して、顔検出用の顔検出テンプレートを用いて顔の向きを粗く分類した後に、主成分分析を用いた固有ベクトルの算出に基づいて詳細に顔の向きを計算する技術が開示されている。また、特許文献2では、二色性反射モデルに基づいて画像信号の中から鏡面反射成分を抽出し、撮影環境における光源の色温度推定を行う方法に関して、画素値の差分を用いて鏡面反射成分を抽出する技術が開示されている。 A technique for detecting a partial region or a specific subject satisfying a specific condition from an image signal and controlling image processing on the image signal based on the detection result is known. In Patent Document 1, regarding a method of detecting a human face and its direction from an image signal, a principal component analysis is used after roughly classifying the face direction using a face detection template for face detection. A technique for calculating the face orientation in detail based on the calculated eigenvector is disclosed. Further, in Patent Document 2, a method of extracting a specular reflection component from an image signal based on a dichroic reflection model and estimating a color temperature of a light source in a shooting environment, using a difference in pixel values, the specular reflection component. A technique for extracting the above is disclosed.
上述の特許文献1の技術によれば、計算量が少なく精度の低い検出と、計算量が多く精度が高い検出方法を組み合わせることにより、高い精度で画像中の顔に関する情報を取得する事ができる。しかしながら、顔の検出結果に基づいて、画像信号の色や輝度の補正処理など画像処理を行う場合、従来の技術では、顔の検出処理が完了するまで画像処理の開始を待つ必要があり、処理のタイムラグが生じる。特に、上述の特許文献1のような2段階での検出方法を用いる場合、処理時間が長くなるという課題がある。 According to the technique of the above-mentioned patent document 1, information relating to a face in an image can be acquired with high accuracy by combining detection with a small amount of calculation and low accuracy and a detection method with a large amount of calculation and high accuracy. . However, when image processing such as image signal color and brightness correction processing is performed based on the face detection result, in the conventional technology, it is necessary to wait for the start of image processing until the face detection processing is completed. Time lag occurs. In particular, when a two-stage detection method such as that described in Patent Document 1 is used, there is a problem that the processing time becomes long.
上述の特許文献2の場合も同様であり、画像信号に対するホワイトバランス補正を行うためには、画像信号の中から鏡面反射成分を抽出する処理が完了するのを待つ必要があり、処理のタイムラグが生じる場合がある。更に、顔の検出処理の場合と同様、鏡面反射成分の抽出を粗く高速な処理と高精度で処理量の大きい処理とを組み合わせて行う場合では、処理のタイムラグが大きくなる場合がある。 The same applies to the case of the above-mentioned Patent Document 2. In order to perform white balance correction on the image signal, it is necessary to wait for the process of extracting the specular reflection component from the image signal to be completed, and the processing time lag is reduced. May occur. Furthermore, as in the case of face detection processing, when extracting specular reflection components in combination with rough and high-speed processing and processing with high accuracy and a large amount of processing, the processing time lag may increase.
本発明の目的は、第1の信号処理部の処理結果を基に信号処理する際に、第1の信号処理部の処理結果の待ち時間を短縮することができるイメージセンサー及びイメージセンサーの制御方法を提供することである。 An object of the present invention is to provide an image sensor and an image sensor control method capable of reducing the waiting time of the processing result of the first signal processing unit when performing signal processing based on the processing result of the first signal processing unit. Is to provide.
本発明のイメージセンサーは、イメージセンサー層と信号処理層が積層されたイメージセンサーであって、前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、前記信号処理層に含まれ、前記画像信号を基に画像領域の位置を特定する第1の信号処理部と、前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、前記第1の信号処理部のための設定データを入力する第1の入力端子とを有する。 The image sensor of the present invention is an image sensor in which an image sensor layer and a signal processing layer are stacked, and is included in the image sensor layer, and includes a plurality of pixels that convert an optical image into an image signal, and the signal processing layer. A first signal processing unit that identifies a position of an image region based on the image signal; a first output terminal that outputs the image signal to a second signal processing unit included in an external device; A second output terminal for outputting, to the second signal processing unit, output region information relating to the position of the image region specified by the first signal processing unit for processing in the second signal processing unit ; to have a first input terminal for inputting a setting data for said first signal processing unit.
第2の信号処理部の処理と、第1の信号処理部の処理とを並行させることができるので、全体の処理時間を短縮することができる。 Since the processing of the second signal processing unit and the processing of the first signal processing unit can be performed in parallel, the overall processing time can be shortened.
(第1の実施形態)
以下、図1〜図5を参照して、本発明の第1の実施形態に係る撮像装置について説明する。第1の実施形態として、画像信号の中から鏡面反射成分を抽出した結果に基づいて光源推定を行い、ホワイトバランス補正を実行する撮像装置を例に取って説明する。
(First embodiment)
The imaging apparatus according to the first embodiment of the present invention will be described below with reference to FIGS. As the first embodiment, an imaging apparatus that performs white balance correction by performing light source estimation based on a result of extracting a specular reflection component from an image signal will be described as an example.
図1は、本発明の第1の実施形態に係る撮像装置の構成例を示すブロック図である。撮像装置100は、撮像光学系101、積層センサー110、画像処理ロジック部120、表示部132、操作部133及び外部メモリ134を有する。110は、光学像を画像信号に変換するイメージセンサー111と後述する画像処理部とを同一パッケージ内に構成した積層センサーである。120は、積層センサー110から出力される画像信号に対する画像処理を行う画像処理ロジック部である。131は画像データを記録する記録媒体、132はユーザに画像を呈示する表示部、133はユーザからの操作を受け付ける操作部、134は外部メモリである。S101は撮像画像信号、S102は鏡面反射候補領域情報、S103はカメラ信号処理設定データ、S104は記録画像信号、S105は表示画像信号、S106はユーザ指示入力信号、S107は外部メモリR/W情報である。
FIG. 1 is a block diagram illustrating a configuration example of an imaging apparatus according to the first embodiment of the present invention. The
積層センサー110は、下記の構成要素を有する。111は光学像を画像信号に変換するイメージセンサー、112は撮像画像出力部である。113は、画像信号の中から鏡面反射成分が含まれている可能性のある領域を抽出する鏡面反射候補領域抽出部(第1の画像処理部)である。114は鏡面反射候補領域情報出力部、115は制御信号入力部である。S111はセンサー読み出し信号a、S112はセンサー読み出し信号b、S113は鏡面反射候補領域情報、S114はセンサー駆動設定信号、S115は鏡面反射抽出設定信号である。
The laminated
画像処理ロジック部120は、下記の構成要素を有する。121は撮像画像入力部、122は現像処理部(第2の画像処理部)、123は鏡面反射候補領域情報入力部、124は鏡面反射抽出部、125は制御信号出力部、126はシステム制御部である。S121は現像処理入力画像信号、S122は鏡面反射候補領域情報、S123はカメラ信号処理設定情報、S124はホワイトバランスゲイン情報である。
The image
図2は、積層センサー110の構成例を示すブロック図である。202a及び202bは、それぞれ、撮像画像出力部112及び鏡面反射候補領域抽出部113へ出力する画像信号を選択するための行走査回路(制御部)a及び行走査回路(制御部)bである。203a及び203bは、アナログ信号をデジタル信号に変換するカラムADC(アナログデジタル変換器)である。204は各列の走査を行う列操作回路である。
FIG. 2 is a block diagram illustrating a configuration example of the
イメージセンサー111は、2次元行列状に配置されている複数の画素211を有する。212aは転送信号線aであり、213aはリセット信号線aである。214aは行選択信号線aであり、行走査回路202aによる制御に従って、画素211からの画像信号の読み出しを行う。読み出した画像信号は、後述するように列信号線215aへ出力される。212bは転送信号線bであり、213bはリセット信号線bである。214bは行選択信号線bであり、行走査回路202bによる制御に従って、画素211からの画像信号の読み出しを行う。読み出した画像信号は、後述するように列信号線215bへ出力される。
The
215aは列信号線aであり、カラムADC203aを介して撮像画像出力部112へセンサー読み出し信号S111を出力する。215bは列信号線bであり、カラムADC203bを介して、鏡面反射候補領域抽出部113へセンサー読み出し信号S112を出力する。図示の通り、転送信号線212a、リセット信号線213a、行選択信号線214a、列信号線215aは、全ての画素211へ接続されている。一方、転送信号線212b、リセット信号線213b、行選択信号線214b、列信号線215bは、一部の画素211のみに接続されている。即ち、撮像画像出力部112へ出力されるセンサー読み出し信号S111に対して、鏡面反射候補領域抽出部113へ出力されるセンサー読み出し信号S112は間引かれた状態である。例えば、センサー読み出し信号S111は、水平4096画素、垂直2160画素である。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれたものである。
A column signal line a 215a outputs a sensor read signal S111 to the captured
行走査回路202a,202bとイメージセンサー111とカラムADC203a,203bと鏡面反射候補領域抽出部113と列操作回路204と鏡面反射候補領域情報出力部114と撮像画像出力部112は、同一の半導体チップ内に形成される。イメージセンサー111と鏡面反射候補領域抽出部113は、相互に、積層して配置されている。即ち、イメージセンサー111が光入射側に、鏡面反射候補領域抽出部113がその裏側に配置され、相互に電気的に接続されている。これにより、イメージセンサー111が鏡面反射候補領域抽出部113に画像信号を出力する速度は、イメージセンサー111が現像処理部122に画像信号を出力速度より高速にすることができる。
The
図3は、画素211の構成例を示す回路図である。301はフォトダイオードである。302は転送トランジスタである。303はFD(フローティングディフュージョン)である。304はリセットトランジスタである。305は増幅トランジスタである。306a及び306bは選択トランジスタである。フォトダイオード301は、アノードが接地され、カソードが転送トランジスタ302のソースに接続され、光を電荷に変換する光電変換部である。転送トランジスタのゲートには転送信号線212a及び212bが接続されている。従って、転送信号線212a又は212bによって、転送トランジスタ302がオンにされると、フォトダイオード301に蓄積された電荷は、FD303に転送され、FD303に蓄積される。増幅トランジスタ305は、ドレインが電源電圧Vddが印加され、ゲートがFD303に接続されている。増幅トランジスタ305は、FD303に蓄積された電荷を増幅して電圧信号に変換する。
FIG. 3 is a circuit diagram illustrating a configuration example of the
選択トランジスタ306aは、増幅トランジスタ305のソースと列信号線215aの間に配置されており、そのゲートは行選択信号線214aに接続されている。従って、行選択信号線214aによって転送トランジスタ306aがオンにされると、FD303の電圧に対応する電圧信号が列信号線215aに出力される。
The
一方、選択トランジスタ306bは、増幅トランジスタ305のソースと列信号線215bの間に配置されており、そのゲートは行選択信号線214bに接続されている。従って、行選択信号線214bによって転送トランジスタ306bがオンにされると、FD303の電圧に対応する電圧信号が列信号線215bに出力される。
On the other hand, the
リセットトランジスタ304は、ゲートがリセット信号線214a及び214bに接続され、ドレインが電源電圧Vddのノードに接続され、ソースがFD303に接続されている。従って、リセット信号線214a又は214bによりリセットトランジスタ304がオンにされると、FD303の電圧が電源電圧Vddにリセットされる。行走査回路202aによる走査制御によってセンサー読み出し信号S111が読み出され、行走査回路202bによる走査制御によってセンサー読み出し信号S112が読み出される。
The
次に、図4を参照して、撮像装置100での画像信号の読み出しと、読み出した画像信号に対する画像処理の流れを説明する。図4は、1/30秒の駆動周期で動画像信号を読み出し、画像処理を実施する場合の撮像装置100の動作タイミングを説明する図である。
Next, with reference to FIG. 4, the reading of an image signal in the
イメージセンサー111にて読み出されたセンサー読み出し信号a(S111)は、撮像画像出力部112により、積層センサー110の外部に撮像画像信号S101として出力される。撮像画像信号S101は、撮像画像入力部121により取り込まれ、現像処理入力画像信号S121として現像処理部122へ供給される。
The sensor read signal a (S111) read by the
図4に示すように、センサー読み出し信号a(S111)の最初のフレーム画像信号(フレーム1)の読み出しは、時刻t10において開始され、時刻t20において終了する。その後、時刻t20からt30において、次のフレーム画像信号(フレーム2)が読み出され、以降、周期的に読み出される。 As shown in FIG. 4, reading of the first frame image signal (frame 1) of the sensor reading signal a (S111) starts at time t10 and ends at time t20. Thereafter, from time t20 to t30, the next frame image signal (frame 2) is read, and thereafter periodically read.
現像処理部122は、第2の画像処理部であり、現像処理入力画像信号S121に対して、ガンマ補正や色補正など各種の補正処理(第2の画像処理)を実行する。また、現像処理部122は、後述の方法により算出したホワイトバランスゲインに従って、ホワイトバランス補正(第2の画像処理)を行う。現像処理部122での画像処理は、外部メモリR/W情報S107を経由して外部メモリ134を用いてなされ、図4の時刻t30〜t31の期間で行われる。
The
即ち、時刻t10〜t20の期間に読み出された動画像の1フレーム目に対応する画像信号は、2フレーム分遅れた時刻t31に現像処理部122より出力され、記録媒体131での画像データの記録や表示部132での画像の表示に用いられる。
That is, the image signal corresponding to the first frame of the moving image read during the period from time t10 to time t20 is output from the
一方、センサー読み出し信号b(S112)は、時刻t10〜t11において、鏡面反射候補領域抽出部113へ出力される。図示した通り、センサー読み出し信号b(S112)の読み出しは、センサー読み出し信号a(S111)の読み出しより短時間で完了する。これは、センサー読み出し信号b(S112)は画素数が間引かれており、また、イメージセンサー111と鏡面反射候補領域抽出部113が積層構造によって接続されているためである。
On the other hand, the sensor readout signal b (S112) is output to the specular reflection candidate
次に、鏡面反射候補領域抽出部113は、第1の画像処理部であり、センサー読み出し信号b(S112)から、被写体表面での鏡面反射が生じている可能性のある鏡面反射候補領域を抽出する第1の画像処理を行う。具体的な方法について、図5(a)〜(c)を参照して説明する。図5(a)及び(b)は、画像信号を適当な大きさのブロックに分割した状態を表す図である。図5(a)及び(b)では、8×8=64個のブロックに分割している。また、被写体表面の網掛けされている領域が、鏡面反射が生じている領域を表しているものとする。鏡面反射候補領域抽出部113は、分割したブロックのうち、鏡面反射が生じている領域を含む可能性のあるブロックを抽出し、その位置情報を鏡面反射候補領域情報S113として出力する。鏡面反射が生じている領域は、周囲の拡散反射のみが生じている領域に比べて、画像信号の輝度が高くなると考えられる。このため、鏡面反射候補領域抽出部113は、各ブロックに対してブロック内の平均輝度を算出し、その平均輝度が周囲のブロックより高い値を持つブロックを探索して抽出する。この条件によって鏡面反射が生じている可能性が高いと判断されるブロックは、複数存在する可能性もあり、その場合は鏡面反射候補領域情報S113として出力される情報も複数となる。図5(b)では、抽出されたブロックを斜線で表している。上記の鏡面反射候補領域の抽出処理は、時刻t11〜t12の期間で実行される。
Next, the specular reflection candidate
鏡面反射候補領域情報S113は、鏡面反射候補領域情報出力部114によって、画像処理ブロック部120の鏡面反射候補領域情報入力部123へ出力される。
The specular reflection candidate area information S113 is output by the specular reflection candidate area
次に、鏡面反射抽出部124の処理について説明する。鏡面反射抽出部124は、撮像画像入力部121を介して入力された現像処理入力画像信号S121から、鏡面反射に対応した反射成分のみを抽出することにより、光源色の推定を行う。ただし、現像処理入力画像信号S121の中で、鏡面反射候補領域情報S122に対応した領域のみを用いる事により、処理時間を短縮する。
Next, processing of the specular
図5(b)及び(c)を参照して、その処理内容を説明する。鏡面反射抽出部124は、鏡面反射候補領域抽出部113と同様、画像信号を複数のブロックに分割する。ここでの分割数や分割位置は鏡面反射候補領域抽出部113と同じ設定にする事とし、本実施形態では、8×8個のブロックに分割するものとする。鏡面反射抽出部124は、鏡面反射候補領域情報S122に含まれるブロックの中の画素に対して、輝度ヒストグラムを生成し、鏡面反射成分の抽出を行う。図5(c)に、鏡面反射抽出部124が生成する輝度ヒストグラムの例を示す。図5(c)の縦軸は各画素の輝度信号Y、図5(c)の横軸は各輝度信号Yの区間に含まれる画素数を表す頻度である。上述のように、鏡面反射が生じている領域は、生じていない領域に比べて高い輝度を持つと考えられるので、図5(c)の輝度ヒストグラムにおいて、輝度信号Yの高い区間に含まれる画素は鏡面反射成分を多く含んでいると考えられる。従って、輝度ヒストグラムにおいて、高い輝度信号に対応する区間に含まれる画素と、それより低い輝度信号に対応する区間に含まれる画素との間で、画素値の差分を算出することで鏡面反射信号を抽出する事ができる。ここで抽出した鏡面反射成分は、撮影環境における光源の色を表しているため、鏡面反射抽出部124は、抽出した鏡面反射成分を基に、撮影環境に適したホワイトバランスゲインを算出する事ができる。鏡面反射抽出部124は、算出したホワイトバランスゲインを、現像処理部122へ出力する。上述の処理は、図4のシーケンスにおいて、時刻t20〜t21の期間で実行される。時刻t21〜t22において、現像処理部122に対するホワイトバランスゲイン情報S124の更新が、システム制御部126により実行される。上述したように、図4の時刻t30〜t31において、現像処理部122は、ホワイトバランス補正を含めた画像処理が可能となる。
The processing content will be described with reference to FIGS. Similar to the specular reflection candidate
以上、本実施形態の撮像装置100は、イメージセンサー111と画像処理部を一体型とした積層センサー110を備える。積層センサー110の内部の鏡面反射候補領域抽出部(画像処理部)113において鏡面反射が生じている可能性の高い領域を抽出し、その後、積層センサー110の外部の鏡面反射抽出部(画像処理部)124において、更に高精度に鏡面反射成分を抽出する。
As described above, the
本実施形態によれば、図4のセンサー読み出し信号bの読み出し開始から完了と、続く、ブロック毎の輝度信号に基づく鏡面反射が生じている可能性の高い領域の抽出処理までが、センサー読み出し信号aの読み出し開始から完了までの間に完了している。本実施形態によらない場合、まず、センサー読み出し信号bに相当する間引き画像の生成を、センサー読み出し信号aを基に行わなければならず、さらに、その後にブロック毎の輝度値を用いた抽出処理を行わなければならないため、大幅に処理時間がかかる。これに対し、本実施形態によれば、上記の時間を短縮する事が可能である。 According to the present embodiment, the sensor readout signal is from the start to the completion of the readout of the sensor readout signal b in FIG. 4 and the subsequent extraction processing of the region where the specular reflection based on the luminance signal for each block is highly likely to occur. It is completed between the start of reading of a and the completion thereof. When not according to the present embodiment, first, a thinned image corresponding to the sensor readout signal b must be generated based on the sensor readout signal a, and then an extraction process using the luminance value for each block. This requires a lot of processing time. On the other hand, according to the present embodiment, the above time can be shortened.
なお、本実施形態では、ブロック単位の輝度情報を用いて、鏡面反射成分を含む可能性の高い領域を検出し、画素単位の輝度ヒストグラムを用いて鏡面反射成分の抽出を行ったが、鏡面反射の検出、抽出処理の方法はこれに限定するものではない。例えば、読み出した画像信号の中から、その輝度値が周囲の領域の輝度値よりも高い部分領域を、鏡面反射成分を含む可能性の高い領域として検出しても良い。また、画素単位で画素値の差分を算出し、算出した差分値の中から予め記憶した代表的な光源色に対応した差分値のみを抽出することによって、鏡面反射成分の抽出を行っても良い。つまり、画像信号に基づいて、鏡面反射を含む可能性の高い領域を検出する処理と、鏡面反射成分を抽出する処理で有れば、どのような方法を用いても構わない。 In this embodiment, an area having a high possibility of including a specular reflection component is detected using the luminance information of the block unit, and the specular reflection component is extracted using the luminance histogram of the pixel unit. The detection and extraction processing method is not limited to this. For example, a partial area whose luminance value is higher than the luminance value of the surrounding area may be detected from the read image signal as an area having a high possibility of including a specular reflection component. Alternatively, the specular reflection component may be extracted by calculating a pixel value difference in units of pixels and extracting only a difference value corresponding to a representative light source color stored in advance from the calculated difference value. . That is, any method may be used as long as it is processing for detecting a region having a high possibility of including specular reflection and processing for extracting a specular reflection component based on an image signal.
また、本実施形態では、鏡面反射成分を含む可能性の高い領域の位置情報を積層センサー110から出力する場合を説明したが、積層センサー110からの出力内容はこれに限定するものではない。例えば、鏡面反射成分を含む可能性の高い領域が存在するか否かを表す情報を出力しても良い。この場合、鏡面反射成分を含む可能性の高い領域が存在する場合は、現像処理部122は、鏡面反射の検出に基づいたホワイトバランス処理を行う。領域が存在しない場合は、現像処理部122は、画像信号の無彩色領域の検出に基づいたホワイトバランス処理を行う。これにより、鏡面反射の検出に基づくホワイトバランス処理では適切なホワイトバランス補正が行えない場合に、無駄な処理を行う事が無くなり、全体の処理時間を短縮する事が可能となる。
Further, in the present embodiment, a case has been described in which position information of an area that is likely to include a specular reflection component is output from the
また、積層センサー110からの出力結果として、鏡面反射成分を含む可能性の高い領域の画像信号を出力するようにしても良い。この場合、鏡面反射抽出部124は、出力された部分領域の画像信号に対して輝度ヒストグラムを生成し、鏡面反射成分の抽出を行えば良い。これにより、現像処理部122への高解像度な画像信号の読み出しの完了を待つことなく、鏡面反射抽出部124は、ホワイトバランスゲインの算出を行う事が可能となり、全体の処理時間を短縮する事が可能となる。
Further, as an output result from the
つまり、積層センサー110からの出力内容は、鏡面反射成分を含む可能性の高い領域を検出した結果を表す情報であれば、どのような形式であっても構わない。また、本実施形態では、イメージセンサー111と鏡面反射候補領域抽出部(画像処理部)113とが積層構造によって接続された積層センサー110を用いる場合を説明したが、センサーの構成を積層センサー110に限定するものではない。即ち、画素211と、行走査回路202a,202bと、鏡面反射候補領域抽出部113とが一体型のパッケージとして構成されたセンサーで有れば、どのような構成のセンサーを用いても構わない。
That is, the output content from the
また、本実施形態では、積層センサー110と画像処理ロジック部120とを備えた撮像装置100の場合を説明したが、撮像装置に限定されるものではない。例えば、積層センサー110、鏡面反射候補領域抽出部113及び記録部を備えた撮像装置と、記録された信号の読み出し部と画像処理ロジック部120とを備えた画像処理装置から成る画像処理システムを用いても構わない。この場合、撮像装置の記録部は、イメージセンサー111から出力される画像信号と、鏡面反射成分が含まれる可能性の高い画像領域に関する情報を記録するようにすれば良い。このようにする事で、画像処理ロジック部120は、画像処理を撮像装置の外部で行う場合においても、全体の処理時間を短縮する事が可能となる。
In the present embodiment, the case of the
(第2の実施形態)
次に、本発明の第2の実施形態として、画像信号の中から顔を検出し、検出結果に基づいて画像処理を制御する撮像装置を例に取って説明する。図6は、本発明の第2の実施形態に係る撮像装置の構成例を示すブロック図である。図1に示した第1の実施形態の場合と同様の構成については、同じ符号を付け、説明は省略する。以下、本実施形態が第1の実施形態と異なる点を説明する。
(Second Embodiment)
Next, as a second embodiment of the present invention, an imaging apparatus that detects a face from an image signal and controls image processing based on the detection result will be described as an example. FIG. 6 is a block diagram illustrating a configuration example of an imaging apparatus according to the second embodiment of the present invention. The same components as those in the first embodiment shown in FIG. Hereinafter, the points of the present embodiment different from the first embodiment will be described.
S601は顔候補座標情報である。S602は顔候補画像情報である。610は顔候補検出部、611は顔候補正規化部、612は顔候補画像メモリ、613は顔候補画像出力部、614は顔候補座標メモリ、615は顔候補座標出力部、616は顔テンプレート画像メモリである。S610は個別顔候補画像情報、S611は正規化顔候補画像情報、S612は顔候補画像情報、S613は顔テンプレート画像情報、S614は顔テンプレート設定情報、S615は個別顔候補座標情報、S616は顔候補座標情報である。 S601 is face candidate coordinate information. S602 is face candidate image information. 610 is a face candidate detection unit, 611 is a face candidate normalization unit, 612 is a face candidate image memory, 613 is a face candidate image output unit, 614 is a face candidate coordinate memory, 615 is a face candidate coordinate output unit, and 616 is a face template image. It is memory. S610 is individual face candidate image information, S611 is normalized face candidate image information, S612 is face candidate image information, S613 is face template image information, S614 is face template setting information, S615 is individual face candidate coordinate information, and S616 is a face candidate. Coordinate information.
画像処理ロジック部120は、下記の構成要素を有する。621は顔候補画像入力部、622は顔判定部、623は顔候補座標入力部、624は固有ベクトルメモリである。S621は顔候補画像情報、S622は顔候補座標情報、S623は固有ベクトル情報、S624は顔判定結果情報である。
The image
イメージセンサー111については、第1の実施形態において説明した構成であるため、詳細説明は割愛する。なお、第1の実施形態の場合と同様、センサー読み出し信号a(S111)は、イメージセンサー111の全画素の画像信号である。センサー読み出し信号b(S112)は、イメージセンサー111の全画素に対して、間引かれた画像信号である。例えば、センサー読み出し信号a(S111)は、水平4096画素、垂直2160画素である。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれたものである。
Since the
次に、図7及び図8を用いて、本発明の第2の実施形態に係る撮像装置の動作タイミングを説明する。なお、図7は1/30秒周期での動画撮影動作時、図8は1/60秒周期での動画撮影動作時の動作タイミングを示す図である。 Next, the operation timing of the imaging apparatus according to the second embodiment of the present invention will be described with reference to FIGS. Note that FIG. 7 is a diagram showing the operation timing at the time of moving image shooting operation at a 1/30 second cycle, and FIG.
センサー読み出し信号a(S111)は、撮像画像出力回路112により、積層センサー110の外部に、撮像画像信号S101として出力される。撮像画像信号S101は、撮像画像入力回路121により画像処理ロジック部120に取り込まれ、現像処理入力画像信号S121として、現像処理部122に供給される。センサー読み出し信号a(S111)は、図7に示すように、時刻t70において読み出しが開始され、時刻t80において読み出しが終了し、その後、時刻t90及びt100で、周期的に動画像が出力される。
The sensor readout signal a (S111) is output as a captured image signal S101 by the captured
現像処理部122は、顔判定結果情報S624に基づき、被写体の顔領域に対する肌色補正処理や、被写体の顔領域に特化したノイズ抑圧処理等の、顔領域画像処理を含めた画像処理を実行する。画像処理の実行は、外部メモリR/W情報S107を経由して外部メモリ134を用いてなされる。現像処理部122の出力として表示画像信号S105と記録画像信号S104が出力されるのは、図7の時刻t90〜t91である。即ち、時刻t70〜t80において読み出されたセンサー読み出し信号a(S111)の1フレーム目の画像に対する現像処理部122の出力は、2フレーム分遅れて時刻t90〜t91となる。表示画像信号S105に対しては、被写体の顔領域を示すポインタ情報が重畳され、表示部132に表示される。また、記録画像信号S104は、記録媒体131に記録される。
Based on the face determination result information S624, the
一方、センサー読み出し信号b(S112)は、顔候補検出部610に入力される。センサー読み出し信号b(S112)は、水平400画素、垂直216画素に間引かれるため、図7の時刻t70〜t71において読み出しが完了する。
On the other hand, the sensor readout signal b (S112) is input to the face
顔テンプレート画像メモリ616には、顔のテンプレート画像が予め複数の顔サイズで記録されている。被写体としての顔は、その大きさが撮影時の状況により種々変わるので、顔のテンプレート画像も複数サイズで記録しておくのが望ましい。例えば、水平及び垂直画素が各々160画素、80画素、40画素、20画素の4種類を記録しており、顔テンプレート設定情報S614により、いずれかの顔サイズの顔のテンプレート画像を、顔テンプレート画像情報S613として読み出すかを指定可能である。
In the face
顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613を用いて、センサー読み出し信号b(S112)の全画角に対して、指定された顔サイズの顔のテンプレート画像情報S613と相関の高い部分領域を探索する。即ち、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と同一サイズの部分領域画像を、センサー読み出し信号b(S112)から、部分領域をずらしながら抽出する。そして、顔候補検出部610は、部分領域と指定された顔サイズの顔のテンプレート画像情報S613との相関係数又は差分の比較により、部分領域に、顔が存在する可能性が高いか否か、粗く相関評価する。前述したように、被写体としての顔は、その大きさが撮影時の状況により種々変わるので、予め記録しておいた複数サイズの顔のテンプレート画像全てに対して、探索処理を行う事が望ましい。
The face
そのため、図7に示すように、時刻t71〜t72において、顔候補検出部610は、水平及び垂直画素が各々160画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t72〜t73において、顔候補検出部610は、水平及び垂直画素が各々80画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t73〜t74において、顔候補検出部610は、水平及び垂直画素が各々40画素の顔テンプレート画像情報S613に対する探索処理を行う。時刻t74〜t75において、顔候補検出部610は、水平及び垂直画素が各々20画素の顔テンプレート画像情報S613に対する探索処理を行う。
Therefore, as shown in FIG. 7, at times t71 to t72, the face
上記の探索処理により、顔が存在する可能性が高いと判断されたならば、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と比較した部分領域の情報から、顔の位置とサイズ情報からなる個別顔候補座標情報S615を生成する。そて、顔候補検出部610は、個別顔候補座標情報S615を顔候補座標メモリ614に格納する。顔が存在する可能性が高いと判断される部分領域は、複数存在する可能性があるため、個別顔候補座標情報S615も複数になりえる。
If it is determined by the above search processing that there is a high possibility that a face exists, the face
さらに、顔候補検出部610は、指定された顔サイズの顔のテンプレート画像情報S613と比較した部分領域画像を切り出し、個別顔候補画像情報S610を生成し、顔候補正規化部611に出力する。個別顔候補画像情報S610は、指定された顔サイズの顔のテンプレート画像情報S613に連動して、複数の画像サイズとなるため、顔候補正規化部611は、共通の画像サイズに統一する正規化処理を行う。例えば、顔候補正規化部611は、水平及び垂直画素が各々20画素のサイズになるように縮小処理を行う。こうして、正規化顔候補画像情報S611が生成され、顔候補画像メモリ612に、水平及び垂直画素が各々20画素のサイズに統一された顔候補画像として格納される。
Further, the face
顔候補正規化部611の正規化処理は、図7の時刻t71〜t72、t72〜t73、t73〜t74、 t74〜t75に含まれる。図7に示す通り、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までが、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了する。
The normalization processing of the face
次に、顔候補座標メモリ614及び顔候補画像メモリ612は、記録された顔候補座標情報S616及び正規化顔候補画像情報S612を出力する。顔候補座標情報S616及び正規化顔候補画像情報S612は、図7の時刻t80において、顔候補座標出力部615及び顔候補画像出力部613から、積層センサー110の外部に、顔候補座標情報S602及び顔候補画像情報S601として出力される。顔候補座標情報S602及び顔候補画像情報S601は、それぞれ、顔候補座標入力部623及び顔候補画像入力部621により、画像処理ロジック部120に入力される。
Next, the face candidate coordinate
顔候補座標入力部623は、顔候補座標情報S602を顔候補座標情報S622として顔判定部622に出力する。また、顔候補画像入力部621は、顔候補画像情報S601を顔候補画像情報S621として顔判定部622に出力する。顔候補画像情報S621は、前述したように、顔のテンプレート画像情報S613と同一サイズの部分領域画像の相関係数又は差分により、顔である可能性が高いものと、粗く評価されただけであるため、正解率はさほど高いものではない。
The face candidate coordinate
固有ベクトルメモリ624は、さらに正解率を上げるために、予め顔の画像の特徴量を精度よく表すデータとして、主成分分析により抽出しておいた顔の固有ベクトル情報S623を記録しておく。顔判定部622は、顔候補画像情報S621に対して、顔の固有ベクトル情報S623と照合することにより、最終的に顔であるか否かの顔判定を行う。顔の固有ベクトル情報S623は、固有ベクトルメモリ624に予め記録されており、固有ベクトル情報S623として読み出され、顔判定部622に入力される。上述のようにして、顔判定部622は、主成分分析による顔判定処理を行い、最終的に顔であるか否かの顔判定を行い、顔判定の結果として顔判定結果情報S624を現像処理部122へ出力する。
In order to further increase the accuracy rate, the
図7の時刻t80〜t81において、顔判定部622は、顔候補画像情報S621に対する最終的な顔判定処理を実施する。図7の時刻t81〜t82において、現像処理部122での顔判定結果情報S624に基づいて制御される各種補正処理に関する設定パラメータの更新が実行される。以上により、現像処理部122での設定パラメータの更新により、図7の時刻t90〜時刻t91において、現像処理部122は、被写体の顔領域に対する肌色補正処理や、被写体の顔領域に特化したノイズ抑圧処理等の、顔領域画像処理を含めた画像処理を行う。
At times t80 to t81 in FIG. 7, the
本実施形態では、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までが、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了している。 In the present embodiment, the process from the start of reading of the sensor read signal a (S112) to the completion of the template matching process using the template images of faces of four types of face sizes is completed from the start of reading of the sensor read signal a (S111). Has been completed.
本実施形態によらない場合、まず、センサー読み出し信号b(S112)に相当する間引き画像の生成を、センサー読み出し信号a(S111)を基に行わなければならない。さらに、その後に、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理を行わなければならないため、大幅に処理時間がかかる。従って、本実施形態によれば、上記の時間が大幅に短縮されるものとなっている。 When not according to the present embodiment, first, a thinned image corresponding to the sensor readout signal b (S112) must be generated based on the sensor readout signal a (S111). Furthermore, since it is necessary to perform template matching processing using template images of faces of four types of face sizes after that, it takes a lot of processing time. Therefore, according to the present embodiment, the above time is greatly shortened.
次に、ユーザにより、本実施形態の撮像装置100に対する制御パラメータが変更された場合について、説明する。ここで、ユーザが、操作部133を介して、動画撮影時のフレームレートを1/30秒周期(図7)から、1/60秒周期(図8)の倍速のフレームレートに設定する指示を入力したものとする。
Next, a case where the control parameter for the
システム制御部126は、カメラ信号処理設定情報S123に対して、1/60秒周期設定を与え、制御信号出力部125を通じて、画像処理ロジック部120の外部にカメラ信号処理設定情報S103として出力する。積層センサー110の制御信号入力部115は、カメラ信号処理設定情報S103を入力し、顔候補検出部610に対する顔テンプレート設定信号S617と、イメージセンサー111に対するセンサー駆動設定信号S114を出力する。センサー駆動設定信号S114は、イメージセンサー111において生成されるセンサー読み出し信号b(S112)の間引き設定を変更する設定信号である。また、顔テンプレート設定信号S617は、前述した、4種類の顔サイズの顔のテンプレート画像のうち、いずれの顔サイズを下限としてテンプレートマッチング処理を行うかを変更する設定信号である。
The
本実施形態では、フレームレートの設定が1/60秒周期と倍速化された場合であっても、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、4種類の顔サイズの顔のテンプレート画像によるテンプレートマッチング処理までの期間を短くする。その期間は、センサー読み出し信号a(S111)の読み出し開始から完了までの間に完了させるために以下の変更を行う。 In this embodiment, even when the frame rate is set to a 1/60 second cycle, the reading of the sensor readout signal b (S112) is completed from the start of reading, and the faces of four types of face sizes that follow. The period until the template matching process using the template image is shortened. During this period, the following changes are made to complete the period from the start to the end of reading of the sensor read signal a (S111).
即ち、まず、センサー駆動設定信号S114により、センサー読み出し信号b(S112)の間引き設定を、水平400画素、垂直216画素であった所を、水平320画素、垂直180画素と、さらに間引いた設定とする。これにより、センサー読み出し信号b(S112)の読み出し開始から終了までの時間である図8の時刻t120から時刻t121までの時間が、さらに短縮化される。 That is, first, by the sensor drive setting signal S114, the thinning setting of the sensor readout signal b (S112) is set such that the horizontal 400 pixels and the vertical 216 pixels are further thinned to the horizontal 320 pixels and the vertical 180 pixels. To do. As a result, the time from the start to the end of reading of the sensor read signal b (S112) from time t120 to time t121 in FIG. 8 is further shortened.
さらに、顔テンプレート設定信号S617の設定により、テンプレートマッチング処理に使用する顔テンプレートの画像サイズを、水平及び垂直画素が各々160画素の顔テンプレート画像と、水平及び垂直画素が各々80画素の顔テンプレート画像のみと制限する。図8の時刻t121〜t122において、顔候補検出部610は、水平及び垂直画素が各々160画素の顔テンプレート画像に対する探索処理を行う。時刻t122〜t123において、顔候補検出部610は、水平及び垂直が各々80画素の顔テンプレート画像に対する探索処理を行い、テンプレートマッチング処理を終了する。
Further, by setting the face template setting signal S617, the image size of the face template used for the template matching processing is a face template image with 160 pixels for horizontal and vertical pixels and a face template image with 80 pixels for horizontal and vertical pixels. Limit with only. At times t121 to t122 in FIG. 8, the face
これにより、顔候補検出部610のテンプレートマッチング処理時間を1/2に短縮化する。さらに、センサー読み出し信号b(S112)の読み出し開始から終了までの時間の図8の時刻t120〜t121が短縮されている。センサー読み出し信号a(S111)の読み出し開始から完了が1/60秒に倍速化されている。その場合でも、センサー読み出し信号b(S112)の読み出し開始から完了と、続く、テンプレートマッチング処理を、センサー読み出し信号a(S111)の読み出し開始から完了までに完了させる事ができる。
Thereby, the template matching processing time of the face
以上説明したように、本実施形態によれば、イメージセンサー111の全画素の領域に対して、所定の条件の顔テンプレートと相関の高い部分領域の探索処理を、イメージセンサー111の全画素の読み出し期間中に、並行して完了させる事ができる。さらに、それに続いて、画像処理ロジック部120における詳細な判別処理である顔判定処理をすぐに行う事ができるため、被写体中の顔検出処理をより効率的に実行する事ができる。
As described above, according to the present embodiment, a search process for a partial region having a high correlation with a face template under a predetermined condition is performed on all pixel regions of the
また、本実施形態によれば、イメージセンサー111の全画素の読み出し時間が変化しても、顔テンプレートと相関の高い部分領域の探索処理をイメージセンサー111の全画素の読み出し時間内に完了するための制御を、容易に実施することが可能である。
Further, according to the present embodiment, even when the readout time of all the pixels of the
第1及び第2の実施形態では、行走査回路(制御部)202aは、転送信号線(第1の制御線)212aによりフォトダイオード301の電荷に基づく信号を列信号線(第1の信号線)215aに出力させる。行走査回路(制御部)202bは、また、転送信号線(第2の制御線)212bによりフォトダイオード301の電荷に基づく信号を列信号線(第2の信号線)215bに出力させる。鏡面反射候補領域抽出部113並びに顔候補検出部610(及び顔候補正規化部611)は、第1の画像処理部であり、列信号線215bに出力された信号に対して第1の画像処理を行う。現像処理部122は、第2の画像処理部であり、鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)の第1の画像処理の結果を基に、列信号線215aに出力された信号に対して第2の画像処理を行う。
In the first and second embodiments, the row scanning circuit (control unit) 202a sends a signal based on the charge of the
行走査回路202aは、転送信号線212aにより複数の画素211のすべての画素211のフォトダイオード301の電荷に基づく信号を現像処理部122に出力させる。行走査回路202bは、転送信号線212bにより複数の画素211のうちの一部の画素211のフォトダイオード301の電荷に基づく信号を鏡面反射候補領域抽出部113又は顔候補検出部610に出力させる。鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)は、一部の画素211のフォトダイオード301の電荷に基づく信号に対して第1の画像処理を行う。現像処理部122は、すべての画素211のフォトダイオード301の電荷に基づく信号に対して第2の画像処理を行う。行走査回路202bが転送信号線212bにより列信号線215bに出力される画素211の数は、行走査回路202aが転送信号線212aにより列信号線215aに出力される画素211の数より少ない。
The row scanning circuit 202a causes the
鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)は、現像処理部122が列信号線215aに出力される画素211のすべての信号を入力するまでに、第1の画像処理を完了させる。
The specular reflection candidate
鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)等の第1の画像処理部は、所定の画像領域を検出する。具体的には、第1の画像処理部は、被写体表面における鏡面反射成分を含む画像領域、被写体人物の顔を含む画像領域、又は特定の被写体を含む画像領域を検出する。第1の画像処理部は、所定の画像領域の有無、所定の画像領域個数、及び所定の画像領域の位置情報を出力、又は所定の画像領域の画像信号を出力する。現像処理部122は、第1の画像処理部により検出された画像領域に対して第2の画像処理を行う。
A first image processing unit such as the specular reflection candidate
また、画像処理システムは、撮像装置と、画像処理装置とを有する。撮像装置は、イメージセンサー111と、行走査回路202a,202bと、第1の画像処理部と、記録部とを有する。第1の画像処理部は、鏡面反射候補領域抽出部113又は顔候補検出部610(及び顔候補正規化部611)である。画像処理装置は、現像処理部122を有する。記録部は、列信号線215aの信号及び第1の画像処理部の第1の画像処理の結果を記録する。現像処理部122は、記録部に記録された第1の画像処理部の第1の画像処理の結果を基に、記録部に記録された列信号線215aの信号に対して第2の画像処理を行う。
The image processing system includes an imaging device and an image processing device. The imaging apparatus includes an
第1及び第2の実施形態によれば、現像処理部122は、第1の画像処理部の第1の画像処理の結果に基づいて列信号線215aの信号に対して第2の画像処理を行う。特に、鏡面反射候補領域抽出部113又は顔候補検出部610の粗く高速な検出処理と、鏡面反射抽出部124又は顔判定部622の高精度で処理量の大きい検出処理との2段階で検出処理を行う。現像処理部122は、検出処理の完了を待つ事によって生ずるタイムラグを短縮し、全体の処理時間を短縮する事ができる。
According to the first and second embodiments, the
なお、上記実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 The above-described embodiments are merely examples of implementation in carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100 撮像装置、110 積層センサー、111 イメージセンサー、113 鏡面反射候補領域抽出部、120 画像処理ロジック部、122 現像処理部
DESCRIPTION OF
Claims (28)
前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、
前記信号処理層に含まれ、前記画像信号を基に画像領域の位置を特定する第1の信号処理部と、
前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、
前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、
前記第1の信号処理部のための設定データを入力する第1の入力端子と
を有することを特徴とするイメージセンサー。 An image sensor in which an image sensor layer and a signal processing layer are stacked,
A plurality of pixels included in the image sensor layer for converting a light image into an image signal;
A first signal processing unit that is included in the signal processing layer and identifies a position of an image region based on the image signal;
A first output terminal for outputting the image signal to a second signal processing unit included in an external device;
A second output terminal for outputting, to the second signal processing unit, output region information relating to the position of the image region specified by the first signal processing unit for processing in the second signal processing unit ; ,
Image sensor characterized by have a first input terminal for inputting a setting data for said first signal processing unit.
前記画像信号を前記第1の信号処理部に出力するために前記複数の画素に接続される第2の信号線とをさらに有することを特徴とする請求項1又は2に記載のイメージセンサー。 A first signal line connected to the plurality of pixels to output the image signal to the first output terminal;
The image sensor according to claim 1, further comprising a second signal line connected to the plurality of pixels in order to output the image signal to the first signal processing unit.
前記第2の制御部は、前記第1の制御部とは異なることを特徴とする請求項1〜8のいずれか1項に記載のイメージセンサー。 A first control unit and a second control unit for selecting image signals output from the plurality of pixels;
The image sensor according to claim 1, wherein the second control unit is different from the first control unit.
前記第1の信号処理部は、前記画像領域の位置を特定するために、前記第1のメモリから複数のパラメータを順次取得することを特徴とする請求項1〜11のいずれか1項に記載のイメージセンサー。 A first memory in which a plurality of setting data is recorded in advance;
12. The first signal processing unit according to claim 1, wherein the first signal processing unit sequentially acquires a plurality of parameters from the first memory in order to specify a position of the image region. Image sensor.
前記イメージセンサー層に含まれ、光像を画像信号に変換する複数の画素と、
前記信号処理層に含まれ、前記画像信号の輝度の高さを基に画像領域を検出する第1の信号処理部と、
前記画像信号を外部装置に含まれる第2の信号処理部に出力する第1の出力端子と、
前記第2の信号処理部内の処理のために、前記第1の信号処理部が検出した前記画像領域に係る出力領域情報を前記第2の信号処理部に出力する第2の出力端子と、
前記画像領域を検出するための設定データを入力する第1の入力端子と
を有することを特徴とするイメージセンサー。 An image sensor in which an image sensor layer and a signal processing layer are stacked,
A plurality of pixels included in the image sensor layer for converting a light image into an image signal;
A first signal processing unit that is included in the signal processing layer and detects an image area based on a luminance level of the image signal;
A first output terminal for outputting the image signal to a second signal processing unit included in an external device;
A second output terminal that outputs, to the second signal processing unit, output region information relating to the image region detected by the first signal processing unit for processing in the second signal processing unit ;
Image sensor characterized by have a first input terminal for inputting a setting data for detecting the image region.
前記第2の制御部は、前記第1の制御部とは異なることを特徴とする請求項15〜20のいずれか1項に記載のイメージセンサー。 A first control unit and a second control unit for selecting image signals output from the plurality of pixels;
Said second control unit, an image sensor according to any one of claims 15 to 20, wherein different from said first control unit.
前記画像信号を前記第1の信号処理部に出力するために前記複数の画素に接続される第2の信号線と、
前記画像信号を前記第1の信号線又は前記第2の信号線に出力するか否かを選択する選択スイッチとをさらに有することを特徴とする請求項15〜21のいずれか1項に記載のイメージセンサー。 A first signal line connected to the plurality of pixels to output the image signal to the first output terminal;
A second signal line connected to the plurality of pixels for outputting the image signal to the first signal processing unit;
The selection switch according to any one of claims 15 to 21, further comprising a selection switch for selecting whether to output the image signal to the first signal line or the second signal line. Image sensor.
前記第1の信号処理部は、前記画像領域を検出するために、前記第1のメモリから複数のパラメータを順次取得することを特徴とする請求項15〜23のいずれか1項に記載のイメージセンサー。 A first memory in which a plurality of setting data is recorded in advance;
The first signal processing unit, pre-outs in order to detect the image area, according to any one of claims 15 to 23, characterized in that sequentially acquires a plurality of parameters from the first memory Image sensor.
前記イメージセンサー層に含まれる複数の画素により、光像を画像信号に変換するステップと、
前記信号処理層に含まれる第1の信号処理部により、前記画像信号を基に画像領域の位置を特定するステップと、
第1の出力端子により、前記画像信号を外部装置に含まれる第2の信号処理部に出力するステップと、
第2の出力端子により、前記第2の信号処理部内の処理のために、前記第1の信号処理部が特定した前記画像領域の位置に係る出力領域情報を前記第2の信号処理部に出力するステップと、
第1の入力端子により、前記第1の信号処理部のための設定データを入力するステップと
を有することを特徴とするイメージセンサーの制御方法。 An image sensor control method in which an image sensor layer and a signal processing layer are stacked,
Converting a light image into an image signal by a plurality of pixels included in the image sensor layer ;
Identifying a position of an image region based on the image signal by a first signal processing unit included in the signal processing layer ;
Outputting the image signal to a second signal processing unit included in the external device by a first output terminal;
Output region information related to the position of the image region specified by the first signal processing unit is output to the second signal processing unit by the second output terminal for processing in the second signal processing unit. And steps to
The first input terminal, the image sensor control method, characterized by chromatic and a step of inputting setting data for said first signal processing unit.
前記イメージセンサー層に含まれる複数の画素により、光像を画像信号に変換するステップと、
前記信号処理層に含まれる第1の信号処理部により、前記画像信号の輝度の高さを基に画像領域を検出するステップと、
第1の出力端子により、前記画像信号を外部装置に含まれる第2の信号処理部に出力するステップと、
第2の出力端子により、前記第2の信号処理部内の処理のために、前記第1の信号処理部が検出した前記画像領域に係る出力領域情報を前記第2の信号処理部に出力するステップと、
第1の入力端子により、前記画像領域を検出するための設定データを入力するステップと
を有することを特徴とするイメージセンサーの制御方法。 An image sensor control method in which an image sensor layer and a signal processing layer are stacked,
Converting a light image into an image signal by a plurality of pixels included in the image sensor layer ;
A step of detecting an image region based on a luminance level of the image signal by a first signal processing unit included in the signal processing layer ;
Outputting the image signal to a second signal processing unit included in the external device by a first output terminal;
A step of outputting output region information related to the image region detected by the first signal processing unit to the second signal processing unit for processing in the second signal processing unit by a second output terminal; When,
The first input terminal, a control method of the image sensor, characterized by chromatic and a step of inputting setting data for detecting the image region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017231499A JP6456466B2 (en) | 2017-12-01 | 2017-12-01 | Image sensor and image sensor control method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017231499A JP6456466B2 (en) | 2017-12-01 | 2017-12-01 | Image sensor and image sensor control method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014075746A Division JP6261430B2 (en) | 2014-04-01 | 2014-04-01 | Imaging apparatus and image processing system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018042284A JP2018042284A (en) | 2018-03-15 |
JP6456466B2 true JP6456466B2 (en) | 2019-01-23 |
Family
ID=61624124
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017231499A Active JP6456466B2 (en) | 2017-12-01 | 2017-12-01 | Image sensor and image sensor control method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6456466B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002024986A (en) * | 2000-07-06 | 2002-01-25 | Nippon Signal Co Ltd:The | Pedestrian detector |
JP3932379B2 (en) * | 2001-10-02 | 2007-06-20 | 株式会社日立製作所 | Image processing apparatus and image sensor |
JP4193768B2 (en) * | 2004-07-16 | 2008-12-10 | ソニー株式会社 | Data processing method, physical quantity distribution detection semiconductor device and electronic apparatus |
JP4908067B2 (en) * | 2006-06-01 | 2012-04-04 | オリンパス株式会社 | Solid-state imaging device and imaging device system using the same |
JP5693094B2 (en) * | 2010-08-26 | 2015-04-01 | キヤノン株式会社 | Image processing apparatus, image processing method, and computer program |
JP5810493B2 (en) * | 2010-09-03 | 2015-11-11 | ソニー株式会社 | Semiconductor integrated circuit, electronic equipment, solid-state imaging device, imaging device |
-
2017
- 2017-12-01 JP JP2017231499A patent/JP6456466B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018042284A (en) | 2018-03-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6261430B2 (en) | Imaging apparatus and image processing system | |
US10089548B2 (en) | Image recognition device and image recognition method | |
US10277830B2 (en) | Solid-state imaging apparatus and light-shielding pixel arrangements thereof | |
US10070078B2 (en) | Solid-state image sensor with pixels having in-pixel memories, motion information acquisition apparatus, and imaging apparatus | |
US9485440B2 (en) | Signal processing unit and signal processing method | |
JP5979961B2 (en) | FOCUS DETECTION DEVICE, FOCUS DETECTION METHOD, AND IMAGING DEVICE | |
JP2010045770A (en) | Image processor and image processing method | |
US11616927B2 (en) | Imaging element, imaging apparatus, operation method of imaging element, and program | |
JP5398612B2 (en) | Moving object detection apparatus and method | |
JP2015023511A (en) | Imaging apparatus, image processing method and image processing program | |
JP2017188760A (en) | Image processing apparatus, image processing method, computer program, and electronic apparatus | |
CN104919352B (en) | Camera device and method for correcting image and image processing apparatus and image processing method | |
US11381762B2 (en) | Integrated circuit chip and image capturing apparatus | |
JP6456466B2 (en) | Image sensor and image sensor control method | |
JP5302511B2 (en) | Two-wavelength infrared image processing device | |
US11495005B2 (en) | Image sensor and control method thereof, and image capturing apparatus and control method thereof | |
JP2009027289A (en) | Digital camera and operation control method thereof | |
CN112514370B (en) | Image processing device, image capturing device, image processing method, and recording medium | |
JP2012191595A (en) | Imaging apparatus | |
JP2007249526A (en) | Imaging device, and face area extraction method | |
JP5950675B2 (en) | Imaging device | |
WO2015115067A1 (en) | Solid-state image sensor, motion information acquisition apparatus, and imaging apparatus | |
JP6723709B2 (en) | Imaging device, image processing device, and control method thereof | |
WO2017038052A1 (en) | Imaging device and solid-state imaging device | |
JP2007249525A (en) | Imaging device, and face area extraction method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180907 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180918 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181101 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20181120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181218 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6456466 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |