Nothing Special   »   [go: up one dir, main page]

JP5950675B2 - Imaging device - Google Patents

Imaging device Download PDF

Info

Publication number
JP5950675B2
JP5950675B2 JP2012101762A JP2012101762A JP5950675B2 JP 5950675 B2 JP5950675 B2 JP 5950675B2 JP 2012101762 A JP2012101762 A JP 2012101762A JP 2012101762 A JP2012101762 A JP 2012101762A JP 5950675 B2 JP5950675 B2 JP 5950675B2
Authority
JP
Japan
Prior art keywords
subject
video data
paths
division
image pickup
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2012101762A
Other languages
Japanese (ja)
Other versions
JP2013229824A (en
Inventor
石田 俊樹
俊樹 石田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2012101762A priority Critical patent/JP5950675B2/en
Publication of JP2013229824A publication Critical patent/JP2013229824A/en
Application granted granted Critical
Publication of JP5950675B2 publication Critical patent/JP5950675B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像信号を複数経路で読み出しされる撮像素子を有する撮像装置に関するものである。   The present invention relates to an imaging apparatus having an imaging element that reads an image signal through a plurality of paths.

近年デジタルカメラ、デジタルビデオカメラの高解像度化に伴い、被写体の検出も精度が向上し、撮影、記録、表示へフィードバックすることが求められている。   In recent years, with the increase in resolution of digital cameras and digital video cameras, the accuracy of object detection has also improved, and there is a demand for feedback to shooting, recording, and display.

特許文献1では、複数台のカメラから高解像度映像を入力し、特徴量比較をして人物認識を行なっている。   In Patent Document 1, high-resolution video is input from a plurality of cameras, and feature recognition is performed by comparing features.

特開2004−192378号公報JP 2004-192378 A

リアルタイムで撮影する場合に映像データの処理及び表示が遅延することは操作の際のストレスに直結する。被写体を検出し、認識、追尾を行う場合にその処理遅延は極力低減しなければならない。しかし、近年の高解像度化に伴い、映像データの処理時間が増加している。それを防ぐために撮像素子の読み出し経路を複数とし、処理も経路ごとに分割化することが考えられるが、このような構成とすると分割した領域の境界をまたぐ被写体の検出ができない場合が発生する。   The delay in the processing and display of video data when shooting in real time is directly related to stress during operation. When a subject is detected, recognized, and tracked, the processing delay must be reduced as much as possible. However, with the recent increase in resolution, video data processing time is increasing. In order to prevent this, it is conceivable to use a plurality of readout paths of the image sensor and to divide the processing for each path. However, with such a configuration, there may be a case where a subject that crosses the boundary of the divided areas cannot be detected.

例えば、映像から得られるエッジ情報に基づいて、目や口などの顔を構成する器官と思われる形状の部分領域を抽出し、これらが所定の位置関係であることを満たしたときに、それらの部分領域を含む領域を顔として判断する方法がある。このような方法を用いて顔を検出する場合、目を含む領域の映像と口を含む領域の映像が別の経路で読み出されてしまうと、顔を検出することができない。   For example, based on the edge information obtained from the video, when extracting partial areas of shapes that seem to be organs constituting the face such as eyes and mouth, and satisfying that these are in a predetermined positional relationship, There is a method of determining an area including a partial area as a face. When a face is detected using such a method, the face cannot be detected if the image of the area including the eyes and the image of the area including the mouth are read out through different paths.

後段のメモリで、複数の経路で読み出した映像データを全画角に貼り合わせた後に被写体検出を行う方法もあるが、こちらは処理が後段になるので、遅延が発生し、操作性の劣化につながる。   There is a method to detect the object after pasting the video data read through multiple paths in the latter stage of the memory, but this process is later, so a delay occurs and the operability deteriorates. Connected.

(発明の目的)
本発明の目的は、高解像度であっても高速かつ、高精度の被写体検出を実現することができる撮像装置を提供することである。
(Object of invention)
An object of the present invention is to provide an imaging apparatus capable of realizing subject detection with high speed and high accuracy even with high resolution.

上記目的を達成するために、本発明の撮像装置は、画素毎に光電変換により生成した画像信号を複数経路で読み出しされる撮像素子と、前記撮像素子の複数経路での読み出しの駆動を行う撮像素子駆動手段と、前記複数経路それぞれの映像データから被写体の検出を行う複数の被写体検出手段と、前記被写体検出手段が出力する検出結果を統合する結果統合手段と、前記複数経路で読み出される映像データの領域の分割を行う分割制御手段とを有し、前記分割制御手段が、前記結果統合手段の出力に基づいて、分割される前記領域の境界を被写体がまたがないように、分割を制御し、前記撮像素子駆動手段が、分割の結果に応じて複数経路それぞれの駆動を行うことを特徴とするものである。   In order to achieve the above object, an image pickup apparatus according to the present invention is an image pickup device that reads out an image signal generated by photoelectric conversion for each pixel through a plurality of paths, and an image pickup that drives readout of the image sensor through a plurality of paths. Element driving means, a plurality of subject detecting means for detecting a subject from video data of each of the plurality of paths, a result integrating means for integrating detection results output from the subject detecting means, and video data read by the plurality of paths Division control means for dividing the area, and the division control means controls the division based on the output of the result integration means so that the subject does not straddle the boundary of the divided areas. The image sensor driving means drives each of a plurality of paths according to the result of the division.

本発明によれば、高解像度であっても高速かつ、高精度の被写体検出を実現することができる。   According to the present invention, high-speed and high-precision subject detection can be realized even with high resolution.

本発明の実施例1である撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which is Example 1 of this invention. 実施例1の画像分割の説明図である。It is explanatory drawing of the image division | segmentation of Example 1. FIG. 実施例1、2に共通の動作を示すフローチャートである。6 is a flowchart showing an operation common to Embodiments 1 and 2. 本発明の実施例2である撮像装置の構成を示す図である。It is a figure which shows the structure of the imaging device which is Example 2 of this invention. 実施例2の画像分割の説明図である。FIG. 10 is an explanatory diagram of image division according to the second embodiment.

本発明を実施するための形態は、以下の実施例1および2に記載される通りである。   The mode for carrying out the invention is as described in Examples 1 and 2 below.

図1は本発明の実施例1である撮像装置の全体構成を示す図である。入射光がレンズ101により結像された画像は、センサ104へ入射される。センサ104では、画素毎に光電変換を行い、光電変換により生成した画像信号は、高速化のために4チャンネルに分割し、それぞれ同時に複数経路で読み出される。なお、センサ104は単数もしくは複数の撮像素子を表す。チャンネルごとにアナログフロントエンド回路105〜108(以下AFEと略記する)があり、AD変換を行い、デジタルの映像データを生成する。AFE105〜108は、ノイズ除去、信号の増幅、デジタル信号化を行う回路である。   FIG. 1 is a diagram illustrating an overall configuration of an image pickup apparatus that is Embodiment 1 of the present invention. An image in which incident light is imaged by the lens 101 is incident on the sensor 104. In the sensor 104, photoelectric conversion is performed for each pixel, and an image signal generated by the photoelectric conversion is divided into four channels for speeding up, and is simultaneously read out through a plurality of paths. The sensor 104 represents one or a plurality of image sensors. For each channel, there are analog front end circuits 105 to 108 (hereinafter abbreviated as AFE), which perform AD conversion and generate digital video data. The AFEs 105 to 108 are circuits that perform noise removal, signal amplification, and digital signal conversion.

各チャンネルに顔検出手段109〜112があり、各経路の画角内の顔を検出する。顔検出に使用された映像データはメモリ113へ保存され、1枚の映像データとして信号処理手段114にて信号処理が行われ、記録、表示が行われる。信号処理手段114はさらに、検出された顔が誰であるのかを、予め登録された認識データを用いて特定することができる。顔検出結果は結果統合手段115で統合され、1枚の映像データ内の顔位置が算出され、信号処理手段115での記録、表示画像の処理、及びレンズ駆動手段102によるレンズ駆動(フォーカス制御)の処理の重み付けに使用される。また、分割制御手段116では顔検出位置に基づき、次のフィールド処理(もしくはフレーム処理)で顔が存在することが予測される領域が、読み出し経路間でまたがないように領域の分割を補正する。つまり、領域の境界を被写体がまたがないように分割する。その情報に基づき次のフィールド(もしくはフレーム)でセンサ駆動手段103はセンサ読み出し駆動を行う。センサ駆動手段103は撮像素子駆動手段を構成する。   Each channel has face detection means 109 to 112 for detecting a face within the angle of view of each path. The video data used for the face detection is stored in the memory 113, signal processing is performed by the signal processing unit 114 as a single video data, and recording and display are performed. Further, the signal processing unit 114 can specify who the detected face is by using recognition data registered in advance. The face detection results are integrated by the result integration unit 115, the face position in one piece of video data is calculated, the recording by the signal processing unit 115, the processing of the display image, and the lens driving (focus control) by the lens driving unit 102. Used for processing weights. Further, the division control unit 116 corrects the division of the region based on the face detection position so that the region where the face is predicted to be present in the next field processing (or frame processing) does not cross between the readout paths. . That is, the region boundaries are divided so that the subject does not straddle. Based on this information, the sensor driving means 103 performs sensor readout driving in the next field (or frame). The sensor driving means 103 constitutes an image sensor driving means.

検出モード選択手段117は、結果統合手段118からの結果による顔の有無や、撮影モードに応じて、顔検出手段A109へ入力される映像データを、チャンネルAの映像データであるAFE_A105の出力か、全画角の映像データをリサイズしたリサイズ手段115の出力かを選択的に顔検出手段Aに入力させることができる。AFE_A105の出力は、高解像度で読み出された第1の映像データを構成し、リサイズ手段115の出力は、リサイズした低解像度の第2の映像データを構成する。   The detection mode selection unit 117 outputs the video data input to the face detection unit A 109 according to the presence / absence of the face from the result from the result integration unit 118 and the shooting mode, from the output of the AFE_A 105 which is the video data of the channel A, It is possible to selectively input to the face detection means A whether the output from the resizing means 115 which has resized the video data of all angles of view. The output of the AFE_A 105 constitutes the first video data read at high resolution, and the output of the resizing means 115 constitutes the resized low resolution second video data.

図2(a)の201は画像の分割を図示したものである。センサ104の撮像面全体を複数の矩形の領域R0〜R5に分割する。顔の存在することが予測される領域であるR2,R3をそれぞれ1つの経路で読み出すように分割する。それ以外の領域は複数の矩形の領域R0,R1,R4,R5に分割される。矩形の領域R0,R1,R4,R5は、読み出し経路A〜Dで転送する映像データ量が均等になるように割り振られる。202に図示されるようにチャンネルAでは領域R2からの映像データを、チャンネルBでは領域R3からの映像データを、チャンネルCでは領域R0,R1からの映像データを、チャンネルDでは領域R4,R5からの映像データを、それぞれ分配する。そして、1フィールド期間(もしくは1フレーム期間)かけて読み出す。結果として203に図示するように領域R2,R3に存在する顔が正常に検出される。   201 in FIG. 2A illustrates image division. The entire imaging surface of the sensor 104 is divided into a plurality of rectangular regions R0 to R5. R2 and R3, which are areas where the face is predicted to exist, are divided so as to be read out by one path. Other areas are divided into a plurality of rectangular areas R0, R1, R4, and R5. The rectangular areas R0, R1, R4, and R5 are allocated so that the amount of video data transferred through the read paths A to D is equal. As shown in FIG. 202, the video data from the region R2 in the channel A, the video data from the region R3 in the channel B, the video data from the regions R0 and R1 in the channel C, and the regions R4 and R5 in the channel D. Are distributed respectively. Then, reading is performed over one field period (or one frame period). As a result, as shown in 203, faces existing in the regions R2 and R3 are normally detected.

図3は実施例1の動作を示すフローチャートである。電源ON(S301)後、撮影か否か判別し(S302、撮影開始前は(電源投入後の初期動作時)まず初期探索を行う(S303)。初期探索ではセンサ104から得られた画像を縮小した低解像度の映像の全体からの顔の検出を行う(S304)。つまり、全画角中の被写体の位置を解析する。顔を検出した否かを判別し(S305)、検出された場合、一つの顔が別の領域の映像に分割されてないよう、かつ、それぞれの経路で読み出される映像のデータ量が均等に近づくように次のフィールドの分割設定を行う(S306)。この動作をフィールドの周期で繰り返す(S308)。   FIG. 3 is a flowchart showing the operation of the first embodiment. After the power is turned on (S301), it is determined whether or not the image is taken (S302, before shooting starts (during the initial operation after turning on the power)), an initial search is first performed (S303). The face is detected from the entire low-resolution video (S304), that is, the position of the subject in the entire angle of view is analyzed, whether or not a face is detected is determined (S305), and if detected, The division setting of the next field is performed so that one face is not divided into videos of different areas and the data amount of the video read out in each path is approximately equal (S306). (S308).

撮影開始後にまず撮影前の初期探索で分割設定がされているかを判別する(S307)。分割設定がされていなければ、電源投入後の撮影前動作同様、センサ104から得られた画像を縮小した低解像度の映像の全体から顔の検出を行う(S313〜S315)。顔が検出されれば、一つの顔が別の領域の映像に分割されてないよう、かつ、それぞれの経路で読み出される映像のデータ量が均等に近づくように次フィールドの分割設定を行い(S316)、低解像度での認識処理を行う(S317)。信号処理手段114は、検出された顔における目や口などの顔を構成する器官の形状と、それら器官の相互の位置関係を、予め個人別に登録しておいた認識データと比較する。比較した結果、類似度が高ければ、検出された顔が、その認識データが示す個人と同一人物であると判定する。   First, after the start of photographing, it is determined whether or not division setting is made in the initial search before photographing (S307). If the division setting is not set, the face is detected from the entire low-resolution video obtained by reducing the image obtained from the sensor 104 as in the pre-shooting operation after the power is turned on (S313 to S315). If a face is detected, the next field division setting is performed so that one face is not divided into videos of different areas and the data amount of the video read through each path is evenly approached (S316). ), Recognition processing at a low resolution is performed (S317). The signal processing means 114 compares the shape of the organs constituting the face such as the eyes and mouth in the detected face and the mutual positional relationship between the organs with recognition data registered in advance for each individual. As a result of the comparison, if the degree of similarity is high, it is determined that the detected face is the same person as the individual indicated by the recognition data.

ステップ307で分割設定がされていると判別すると、顔検出処理は、センサ104から得られた画像を縮小せずに複数に分割した高解像度のそれぞれの分割映像に対して行われる(S308)。顔が検出されたか否かを判別し(S309)、顔が検出されていれば、次のフィールドの分割設定を変更せずに維持する(S310)。反対に、顔が検出がされない(顔が画角からなくなった)場合、分割設定を解除する(S311)。そして、分割された高解像度の映像に対して認識処理を行う(S312)。高解像度の映像に対して認識処理を行うことで、低解像度の映像では認識に失敗した個人も認識することができる場合もある。これをフィールド単位で繰り返す(S318)。   If it is determined in step 307 that the division setting has been made, the face detection process is performed on each of the high-resolution divided videos obtained by dividing the image obtained from the sensor 104 into a plurality of pieces without reducing the image (S308). It is determined whether or not a face has been detected (S309). If a face has been detected, the division setting of the next field is maintained without being changed (S310). On the other hand, when the face is not detected (the face has disappeared from the angle of view), the division setting is canceled (S311). Then, recognition processing is performed on the divided high-resolution video (S312). By performing recognition processing on a high-resolution video, there may be cases where an individual who has failed to recognize a low-resolution video can be recognized. This is repeated for each field (S318).

撮影中にステップ309で顔の未検出状態になると、次フィールドでは分割設定が解除になっているので、ステップ314で低解像度の解析処理(顔検出処理)が行われる。   If the face is not detected in step 309 during shooting, the division setting is canceled in the next field, so low resolution analysis processing (face detection processing) is performed in step 314.

同様に、撮影中に顔の大きさが複数経路の一つに分配される映像データ量を越える場合には顔の未検出状態となるので、次フィールドではステップ314で低解像度の解析処理(顔検出処理)が行われる。   Similarly, if the size of the face exceeds the amount of video data distributed to one of the multiple paths during shooting, the face is not detected. Therefore, in the next field, low resolution analysis processing (face Detection process).

図2(b)の204〜206は初期探索モードについて図示したものである。電源投入後に顔初期位置がわからない場合や、分割した各領域から顔が検出できなくなって分割設定がいったん解除された場合、検出モード選択手段117の働きにより初期探索モードに入る。204に図示されるように全領域を1つの検出対象として、205に図示されるようにチャンネルAのみで1フィールド期間にて低解像度の検出処理を行い、206に図示されるように顔が検出される。   Reference numerals 204 to 206 in FIG. 2B illustrate the initial search mode. When the face initial position is not known after the power is turned on, or when the face cannot be detected from each divided area and the division setting is once canceled, the detection mode selection unit 117 enters the initial search mode. As shown in 204, the entire area is set as one detection target, and as shown in 205, the low-resolution detection process is performed only in channel A in one field period, and the face is detected as shown in 206. Is done.

図4は本発明の実施例2である撮像装置の全体構成を示す図である。実施例1と同様の部分は同一符号にて示す。   FIG. 4 is a diagram illustrating an overall configuration of an image pickup apparatus that is Embodiment 2 of the present invention. Portions similar to those in the first embodiment are denoted by the same reference numerals.

実施例1と異なるところは、各チャンネルに被写体検出手段409〜412があり、あらかじめ被写体情報保持手段418に保持している被写体情報との比較に基づき、各経路の画角内の被写体を検出する。被写体検出結果は結果統合手段118で統合され、1枚の映像データ内の被写体位置を算出する。被写体検出手段409〜412は、被写体情報保持手段418に保持されている被写体情報が示す被写体を検出するための回路である。被写体情報保持手段418は、外部より送信されたデータに基づいて、被写体情報を更新したり差し替えたりすることが可能である。すなわち、被写体情報保持手段418に、犬を検出するための被写体情報や、車を検出するための被写体情報、あるいは、子供を検出するための被写体情報を保持させることで、被写体検出手段409〜412に任意の被写体を検出させることが可能となる。   The difference from the first embodiment is that each channel has subject detection means 409 to 412, and detects a subject within the angle of view of each path based on comparison with subject information previously held in subject information holding means 418. . The subject detection results are integrated by the result integration unit 118, and the subject position in one piece of video data is calculated. The subject detection units 409 to 412 are circuits for detecting the subject indicated by the subject information held in the subject information holding unit 418. The subject information holding unit 418 can update or replace the subject information based on data transmitted from the outside. That is, the subject information holding means 418 holds subject information for detecting a dog, subject information for detecting a car, or subject information for detecting a child, thereby subject detection means 409 to 412. It is possible to detect an arbitrary subject.

図5(a)の501は画像の分割を図示したものである。被写体の存在することが予測される領域であるR2,R3をそれぞれ1つの経路で読み出すように分割する。それ以外の領域は複数の矩形の領域R0,R1,R4,R5に分割する。分割した矩形の領域R0,R1,R4,R5は読み出し経路A〜Dで均等になるように割り振られる。502に図示されるようにチャンネルAでは領域R2を、チャンネルBでは領域R3を、チャンネルCでは領域R0,R1を、チャンネルDでは領域R4,R5を1フィールド期間かけて読み出す。結果として503に図示されるように領域R2,R3に存在する被写体が正常に検出される。   Reference numeral 501 in FIG. 5A illustrates image division. R2 and R3, which are areas where the subject is predicted to exist, are divided so as to be read out by one path. The other areas are divided into a plurality of rectangular areas R0, R1, R4, R5. The divided rectangular areas R0, R1, R4, and R5 are allocated to be uniform in the read paths A to D. As shown in 502, the channel A reads the region R2, the channel B reads the region R3, the channel C reads the regions R0 and R1, and the channel D reads the regions R4 and R5 over one field period. As a result, as shown in 503, subjects existing in the regions R2 and R3 are normally detected.

実施例2の動作は、図3に示される実施例1の動作とまったく同様である。   The operation of the second embodiment is exactly the same as that of the first embodiment shown in FIG.

撮影中にステップ309で被写体未検出状態になると、次フィールドでは分割設定が解除になっているので、ステップ314で低解像度の解析処理(顔検出処理)が行われる。   If the subject is not detected in step 309 during shooting, the division setting is canceled in the next field, so low resolution analysis processing (face detection processing) is performed in step 314.

同様に、撮影中に被写体の大きさが複数経路の一つに分配される映像データ量を越える場合には被写体未検出状態となるので、次フィールドではステップ314で低解像度の解析処理(被写体検出処理)が行われる。   Similarly, if the size of the subject exceeds the amount of video data distributed to one of the plurality of paths during shooting, the subject is not detected, so low resolution analysis processing (subject detection is performed in step 314 in the next field. Process).

図5(b)の504〜506は、実施例2の初期探索モードについて図示したものである。電源投入後に被写体初期位置がわからない場合や、分割した各領域から被写体が検出できなくなって(被写体未検出状態)、分割設定がいったん解除された場合、検出モード選択手段117の働きにより初期探索モードに入る。504に図示されるように全領域を1つの検出対象として、505に図示されるようにチャンネルAのみで1フィールド期間にて低解像度の検出処理を行い、506に図示されるように被写体が検出される。   Reference numerals 504 to 506 in FIG. 5B illustrate the initial search mode according to the second embodiment. When the subject initial position is not known after the power is turned on, or when the subject cannot be detected from each divided area (subject undetected state), and the division setting is once canceled, the detection mode selection means 117 activates the initial search mode. enter. As shown in 504, the entire area is set as one detection target, and low-resolution detection processing is performed in one field period using only channel A as shown in 505, and a subject is detected as shown in 506. Is done.

102 レンズ駆動手段
103 センサ駆動手段
104 センサ(撮像素子)
109〜112 顔検出手段
115 リサイズ手段
116 分割制御手段
117 検出モード選択手段
118 結果統合手段
102 Lens driving means 103 Sensor driving means 104 Sensor (imaging device)
109 to 112 Face detection means 115 Resize means 116 Division control means 117 Detection mode selection means 118 Result integration means

Claims (9)

画素毎に光電変換により生成した画像信号を複数経路で読み出しされる撮像素子と、
前記撮像素子の複数経路での読み出しの駆動を行う撮像素子駆動手段と、
前記複数経路それぞれの映像データから被写体の検出を行う複数の被写体検出手段と、
前記被写体検出手段が出力する検出結果を統合する結果統合手段と、
前記複数経路で読み出される映像データの領域の分割を行う分割制御手段とを有し、
前記分割制御手段は、前記結果統合手段の出力に基づいて、分割される前記領域の境界を被写体がまたがないように、分割を制御し、
前記撮像素子駆動手段は、分割の結果に応じて複数経路それぞれの駆動を行うことを特徴とする撮像装置。
An image sensor that reads out an image signal generated by photoelectric conversion for each pixel through a plurality of paths;
Image sensor driving means for driving readout in a plurality of paths of the image sensor;
A plurality of subject detecting means for detecting a subject from video data of each of the plurality of paths;
A result integrating means for integrating the detection results output by the subject detecting means;
Division control means for dividing an area of video data read by the plurality of paths,
The division control means controls the division based on the output of the result integration means so that the subject does not straddle the boundary of the area to be divided,
The image pickup device, wherein the image pickup device driving means drives each of a plurality of paths according to a result of division.
前記分割制御手段は、前記撮像素子の撮像面全体を複数の矩形の領域に分割し、前記複数経路で転送する映像データ量が均等になるように前記分割された領域の映像データを前記複数経路に分配することを特徴とする請求項1に記載の撮像装置。   The division control unit divides the entire imaging surface of the image sensor into a plurality of rectangular areas, and the video data of the divided areas is divided into the plurality of paths so that the amount of video data transferred through the plurality of paths is equalized. The image pickup apparatus according to claim 1, wherein the image pickup apparatus is distributed to the image pickup apparatus. 前記分割制御手段は、前記結果統合手段が出力する全画角中の被写体の位置を解析し、前記領域の境界をまたぐ被写体が存在しないように前記領域の分割を制御することを特徴とする請求項1または2のいずれか1項に記載の撮像装置。   The division control unit analyzes the position of the subject in all angles of view output by the result integration unit, and controls the division of the region so that no subject crosses the boundary of the region. Item 3. The imaging device according to any one of Items 1 and 2. 前記分割制御手段は、フィールド、もしくはフレームの周期で被写体の位置を解析することを特徴とする請求項1ないし3のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the division control unit analyzes the position of the subject in a field or frame period. 前記被写体検出手段は、前記複数経路で前記撮像素子から読み出される第1の映像データか、全画角の映像データをリサイズして前記第1の映像データよりも低解像度とした第2の映像データかのいずれかを選択的に入力されることを特徴とする請求項1ないし4のいずれか1項に記載の撮像装置。   The subject detection unit resizes the first video data read from the image sensor through the plurality of paths or the video data of the full angle of view to reduce the resolution to be lower than the first video data. The image pickup apparatus according to claim 1, wherein any one of the above is selectively input. 前記被写体検出手段は、電源投入後の初期動作時には前記第2の映像データを入力され、撮影開始後にかつ初期動作時に被写体の初期位置が検出されている場合に前記第1の映像データを入力されることを特徴とする請求項5に記載の撮像装置。   The subject detection means receives the second video data during the initial operation after power-on, and receives the first video data when the initial position of the subject is detected after the start of shooting and during the initial operation. The imaging apparatus according to claim 5, wherein: 前記被写体検出手段は、撮影中に被写体未検出状態になった場合には前記第2の映像データを入力されることを特徴とする請求項5に記載の撮像装置。   The imaging apparatus according to claim 5, wherein the subject detection unit receives the second video data when the subject is not detected during photographing. 前記被写体検出手段は、撮影中に被写体の大きさが前記複数経路の一つに分配される映像データ量を越える場合には、前記第2の映像データを入力されることを特徴とする請求項5に記載の撮像装置。   The subject detection means receives the second video data when the size of the subject exceeds the amount of video data distributed to one of the plurality of paths during shooting. 5. The imaging device according to 5. 前記被写体は顔であることを特徴とする請求項1ないし8のいずれか1項に記載の撮像装置。   The imaging apparatus according to claim 1, wherein the subject is a face.
JP2012101762A 2012-04-26 2012-04-26 Imaging device Expired - Fee Related JP5950675B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012101762A JP5950675B2 (en) 2012-04-26 2012-04-26 Imaging device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012101762A JP5950675B2 (en) 2012-04-26 2012-04-26 Imaging device

Publications (2)

Publication Number Publication Date
JP2013229824A JP2013229824A (en) 2013-11-07
JP5950675B2 true JP5950675B2 (en) 2016-07-13

Family

ID=49677037

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012101762A Expired - Fee Related JP5950675B2 (en) 2012-04-26 2012-04-26 Imaging device

Country Status (1)

Country Link
JP (1) JP5950675B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7360303B2 (en) * 2019-11-08 2023-10-12 株式会社デンソーテン Image processing device and image processing method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4434797B2 (en) * 2004-03-19 2010-03-17 オリンパス株式会社 Imaging device and imaging apparatus
JP2009145622A (en) * 2007-12-14 2009-07-02 Sanyo Electric Co Ltd Electronic camera
JP5089499B2 (en) * 2008-06-24 2012-12-05 キヤノン株式会社 Shooting device, video still image recording method
JP5628566B2 (en) * 2010-06-23 2014-11-19 オリンパスイメージング株式会社 Imaging apparatus and imaging method
JP5593990B2 (en) * 2010-09-08 2014-09-24 リコーイメージング株式会社 Imaging system and pixel signal readout method

Also Published As

Publication number Publication date
JP2013229824A (en) 2013-11-07

Similar Documents

Publication Publication Date Title
JP6289184B2 (en) Image recognition apparatus and image recognition method
US10070078B2 (en) Solid-state image sensor with pixels having in-pixel memories, motion information acquisition apparatus, and imaging apparatus
EP2786556B1 (en) Controlling image capture and/or controlling image processing
CN103024265B (en) The image capture method of camera head and camera head
US20120147150A1 (en) Electronic equipment
US10237491B2 (en) Electronic apparatus, method of controlling the same, for capturing, storing, and reproducing multifocal images
JP6652039B2 (en) Imaging device, imaging method, and program
JP6261430B2 (en) Imaging apparatus and image processing system
JP2008118387A (en) Imaging device
US20140369611A1 (en) Image processing apparatus and control method thereof
KR20160044945A (en) Image photographing appratus
US8571404B2 (en) Digital photographing apparatus, method of controlling the same, and a computer-readable medium storing program to execute the method
JP5950675B2 (en) Imaging device
JP2008244649A (en) Motion detection imaging device
US20130051633A1 (en) Image processing apparatus
US9723213B2 (en) Image processing apparatus, control method, and recording medium
JP2021019288A (en) Imaging apparatus and method for controlling the same
CN112514370B (en) Image processing device, image capturing device, image processing method, and recording medium
JP4793459B2 (en) Symbol reader and program
US10306159B2 (en) Continuous output of frames with constant frame rate
KR101660838B1 (en) Imaging apparatus and controlling method of the same
US20230289944A1 (en) Detection device, imaging apparatus, detection method, and program
JP6456466B2 (en) Image sensor and image sensor control method
JP2012124798A (en) Imaging device
WO2015115067A1 (en) Solid-state image sensor, motion information acquisition apparatus, and imaging apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160307

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160607

R151 Written notification of patent or utility model registration

Ref document number: 5950675

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees