Nothing Special   »   [go: up one dir, main page]

KR20230082544A - Wide dynamic range image sensor and metod performed by the same - Google Patents

Wide dynamic range image sensor and metod performed by the same Download PDF

Info

Publication number
KR20230082544A
KR20230082544A KR1020220079992A KR20220079992A KR20230082544A KR 20230082544 A KR20230082544 A KR 20230082544A KR 1020220079992 A KR1020220079992 A KR 1020220079992A KR 20220079992 A KR20220079992 A KR 20220079992A KR 20230082544 A KR20230082544 A KR 20230082544A
Authority
KR
South Korea
Prior art keywords
exposure time
pixel
value
pixel group
image sensor
Prior art date
Application number
KR1020220079992A
Other languages
Korean (ko)
Inventor
김경민
길민선
이미라
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US17/991,074 priority Critical patent/US20230171516A1/en
Priority to CN202211469193.6A priority patent/CN116208865A/en
Priority to JP2022191894A priority patent/JP2023081866A/en
Publication of KR20230082544A publication Critical patent/KR20230082544A/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)

Abstract

An image sensor may include: a pixel array including a plurality of pixels; a driver configured to drive the pixel array; a readout circuit configured to generate a digital signal from a pixel signal received from the pixel array; a controller configured to control the driver to allow a first pixel group and a second pixel group among the plurality of pixels to have a first exposure time and a second exposure time, respectively; and a signal processor configured to generate image data by calculating a first value of the digital signal corresponding to the first pixel group and a second value of the digital signal corresponding to the second pixel group.

Description

넓은 동적 범위 이미지 센서 및 그것에 의해서 수행되는 방법{WIDE DYNAMIC RANGE IMAGE SENSOR AND METOD PERFORMED BY THE SAME}WIDE DYNAMIC RANGE IMAGE SENSOR AND METOD PERFORMED BY THE SAME}

본 개시의 기술적 사상은 이미지 센서에 관한 것으로서 자세하게는 넓은 동적 범위 이미지 센서 및 그것에 의해서 수행되는 방법에 관한 것이다.The technical idea of the present disclosure relates to an image sensor, and more particularly to a wide dynamic range image sensor and a method performed by the same.

이미지 센서(image sensor)는 피사체의 2차원적 또는 3차원적 이미지를 캡처하는 장치를 지칭할 수 있다. 이미지 센서는 피사체로부터 반사되는 빛의 세기에 따라 반응하는 광전 변환 소자를 이용하여 피사체의 이미지를 생성할 수 있다. 이미지 센서는, 고품질 이미지를 위하여 넓은 동적 범위(dynamic range) 및 양호한 노이즈 특성을 가질 것이 요구될 수 있다.An image sensor may refer to a device that captures a 2D or 3D image of a subject. The image sensor may generate an image of the subject using a photoelectric conversion element that reacts according to the intensity of light reflected from the subject. An image sensor may be required to have a wide dynamic range and good noise characteristics for high-quality images.

본 개시의 기술적 사상은, 넓은 동적 범위 및 양호한 노이즈 특성을 모두 가지는 이미지 센서 및 그것에 의해서 수행되는 방법을 제공한다.The technical spirit of the present disclosure provides an image sensor having both a wide dynamic range and good noise characteristics and a method performed by the same.

본 개시의 기술적 사상의 일측면에 따른 이미지 센서는, 복수의 픽셀들을 포함하는 픽셀 어레이, 픽셀 어레이를 구동하도록 구성된 드라이버, 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하도록 구성된 독출 회로, 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹이 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 드라이버를 제어하도록 구성된 컨트롤러, 및 제1 픽셀 그룹에 대응하는 디지털 신호의 제1 값 및 제2 픽셀 그룹에 대응하는 디지털 신호의 제2 값을 연산함으로써 이미지 데이터를 생성하도록 구성된 신호 프로세서를 포함할 수 있고, 제1 픽셀 그룹은, 조도에 독립적일 수 있다.An image sensor according to one aspect of the technical idea of the present disclosure includes a pixel array including a plurality of pixels, a driver configured to drive the pixel array, a readout circuit configured to generate a digital signal from a pixel signal received from the pixel array, and a plurality of A controller configured to control a driver so that a first pixel group and a second pixel group among the pixels have a first exposure time and a second exposure time, respectively, and a first value and a first value of a digital signal corresponding to the first pixel group; and a signal processor configured to generate image data by calculating a second value of a digital signal corresponding to two pixel groups, and the first pixel group may be independent of illuminance.

본 개시의 기술적 사상의 일측면에 따른 이미지 센서는, 복수의 픽셀들을 포함하는 픽셀 어레이, 픽셀 어레이를 구동하도록 구성된 드라이버, 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하도록 구성된 독출 회로, 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹이 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 드라이버를 제어하도록 구성된 컨트롤러, 및 디지털 신호의 값에 기초하여 조도를 식별하고, 조도에 기초하여 제2 픽셀 그룹 및 제2 노출 시간을 식별하고, 제2 노출 시간에 기초하여 컨트롤러를 설정하도록 구성된 신호 프로세서를 포함할 수 있고, 제1 노출 시간은, 조도에 독립적일 수 있다.An image sensor according to one aspect of the technical idea of the present disclosure includes a pixel array including a plurality of pixels, a driver configured to drive the pixel array, a readout circuit configured to generate a digital signal from a pixel signal received from the pixel array, and a plurality of A controller configured to control a driver so that a first pixel group and a second pixel group among the pixels have a first exposure time and a second exposure time, respectively, and identify illuminance based on the value of the digital signal, and based on the illuminance and a signal processor configured to identify the second pixel group and the second exposure time, and set the controller based on the second exposure time, wherein the first exposure time may be independent of illuminance.

본 개시의 기술적 사상의 일측면에 따라 이미지 센서에 의해서 수행되는 방법은, 복수의 픽셀들을 포함하는 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하는 단계, 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹을 구동하는 단계, 및 제1 픽셀 그룹에 대응하는 디지털 신호의 제1 값 및 제2 픽셀 그룹에 대응하는 디지털 신호의 제2 값의 가중합에 기초하여 이미지 데이터를 생성하는 단계를 포함할 수 있고, 제1 픽셀 그룹은, 조도에 독립적일 수 있다.According to one aspect of the technical idea of the present disclosure, a method performed by an image sensor includes generating a digital signal from a pixel signal received from a pixel array including a plurality of pixels, a first exposure time and a second exposure time. driving a first pixel group and a second pixel group among a plurality of pixels to have a first value of a digital signal corresponding to the first pixel group and a second value of a digital signal corresponding to the second pixel group; The method may include generating image data based on a weighted sum of values, and the first pixel group may be independent of illuminance.

본 개시의 예시적 실시예에 따른 이미지 센서 및 그것에 의해서 수행되는 방법에 의하면, 넓은 동적 범위 및 양호한 노이즈 특성이 모두 달성될 수 있고, 이에 따라 이미지 센서는 다양한 어플리케이션들에서 효과적으로 사용될 수 있다.According to an image sensor according to an exemplary embodiment of the present disclosure and a method performed by the same, both a wide dynamic range and good noise characteristics can be achieved, and thus the image sensor can be effectively used in various applications.

또한, 본 개시의 예시적 실시예에 따른 이미지 센서 및 그것에 의해서 수행되는 방법에 의하면, 이미지 센서에 의해서 생성되는 이미지의 품질이 향상될 수 있고, 이에 따라 이미지 센서를 포함하는 어플리케이션의 성능이 향상될 수 있다.In addition, according to the image sensor and the method performed by the image sensor according to exemplary embodiments of the present disclosure, the quality of an image generated by the image sensor can be improved, and thus the performance of applications including the image sensor can be improved. can

본 개시의 예시적 실시예들에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 아니하며, 언급되지 아니한 다른 효과들은 이하의 기재로부터 본 개시의 예시적 실시예들이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 도출되고 이해될 수 있다. 즉, 본 개시의 예시적 실시예들을 실시함에 따른 의도하지 아니한 효과들 역시 본 개시의 예시적 실시예들로부터 당해 기술분야의 통상의 지식을 가진 자에 의해 도출될 수 있다.Effects obtainable in the exemplary embodiments of the present disclosure are not limited to the effects mentioned above, and other effects not mentioned are common knowledge in the art to which exemplary embodiments of the present disclosure belong from the following description. can be clearly derived and understood by those who have That is, unintended effects according to the implementation of the exemplary embodiments of the present disclosure may also be derived by those skilled in the art from the exemplary embodiments of the present disclosure.

도 1은 본 개시의 예시적 실시예에 따른 이미지 센서를 나타내는 블록도이다.
도 2a 및 도 2b는 본 개시의 예시적 실시예들에 따른 픽셀의 예시들을 나타내는 회로도들이다.
도 3은 본 개시의 예시적 실시예에 따른 이미지 센서의 SNR-HDR 그래프를 나타낸다.
도 4는 본 개시의 예시적 실시예에 따라 이미지 센서에 의해서 수행되는 방법을 나타내는 순서도이다.
도 5a 내지 도 5e는 본 개시의 예시적 실시예들에 따른 픽셀 어레이의 예시들을 나타낸다.
도 6a 및 도 6b는 본 개시의 예시적 실시예들에 따른 이미지 센서의 동작의 예시들을 나타내는 도면이다.
도 7a 및 도 7b는 본 개시의 예시적 실시예들에 따른 이미지 센서의 SNR-HDR 그래프들을 나타낸다.
도 8a 및 도 8b는 본 개시의 예시적 실시예들에 따른 이미지 센서의 SNR-HDR 그래프들을 나타낸다.
도 9는 본 개시의 예시적 실시예에 따라 이미지 센서에 의해서 수행되는 방법을 나타내는 순서도이다.
도 10a 및 도 10b는 본 개시의 예시적 실시예들에 따라 이미지 센서에 의해서 수행되는 방법의 예시들을 나타내는 순서도들이다.
도 11a 및 도 11b는 본 개시의 예시적 실시예들에 따른 이미지 센서의 SNR-HDR 그래프들을 나타낸다.
도 12는 본 개시의 예시적 실시예에 따라 이미지 센서에 의해서 수행되는 방법을 나타내는 순서도이다.
도 13a는 본 개시의 예시적 실시예에 따른 이미지 센서의 분리 사시도이고, 도 13b는 본 개시의 예시적 실시예에 따른 이미지 센서의 평면도이고, 도 13c는 본 개시의 예시적 실시예에 따른 이미지 센서의 분리 사시도이다.
도 14는 본 개시의 예시적 실시예에 따른 멀티 카메라 모듈을 포함하는 전자 장치를 나타내는 블록도이다.
도 15는 본 개시의 예시적 실시예에 따른 도 14의 카메라 모듈을 나타내는 블록도이다.
1 is a block diagram illustrating an image sensor according to an exemplary embodiment of the present disclosure.
2A and 2B are circuit diagrams illustrating examples of pixels according to exemplary embodiments of the present disclosure.
3 shows an SNR-HDR graph of an image sensor according to an exemplary embodiment of the present disclosure.
4 is a flowchart illustrating a method performed by an image sensor according to an exemplary embodiment of the present disclosure.
5A-5E show examples of pixel arrays according to exemplary embodiments of the present disclosure.
6A and 6B are diagrams illustrating examples of operations of an image sensor according to exemplary embodiments of the present disclosure.
7A and 7B show SNR-HDR graphs of an image sensor according to exemplary embodiments of the present disclosure.
8A and 8B show SNR-HDR graphs of an image sensor according to exemplary embodiments of the present disclosure.
9 is a flowchart illustrating a method performed by an image sensor according to an exemplary embodiment of the present disclosure.
10A and 10B are flow charts illustrating examples of a method performed by an image sensor according to exemplary embodiments of the present disclosure.
11A and 11B show SNR-HDR graphs of an image sensor according to exemplary embodiments of the present disclosure.
12 is a flowchart illustrating a method performed by an image sensor according to an exemplary embodiment of the present disclosure.
13A is an exploded perspective view of an image sensor according to an exemplary embodiment of the present disclosure, FIG. 13B is a plan view of the image sensor according to an exemplary embodiment of the present disclosure, and FIG. 13C is an image according to an exemplary embodiment of the present disclosure. This is an exploded perspective view of the sensor.
14 is a block diagram illustrating an electronic device including a multi-camera module according to an exemplary embodiment of the present disclosure.
15 is a block diagram illustrating the camera module of FIG. 14 according to an exemplary embodiment of the present disclosure.

도 1은 본 개시의 예시적 실시예에 따른 이미지 센서(10)를 나타내는 블록도이다. 도 1에 도시된 바와 같이, 이미지 센서(10)는, 픽셀 어레이(11), 드라이버(12), 독출 회로(13), 컨트롤러(14) 및 신호 프로세서(15)를 포함할 수 있다.1 is a block diagram illustrating an image sensor 10 according to an exemplary embodiment of the present disclosure. As shown in FIG. 1 , the image sensor 10 may include a pixel array 11 , a driver 12 , a readout circuit 13 , a controller 14 and a signal processor 15 .

이미지 센서(100)는 이미지 또는 광 감지 기능을 가지는 시스템에 포함될 수 있다. 예를 들면, 이미지 센서(100)는 카메라, 스마트폰, 웨어러블 기기, IoT(internet of things), 태블릿 PC, 드론, ADAS(advanced drivers assistance system) 등과 같은 전자 기기에 포함될 수 있다. 또한, 이미지 센서(10)는 차량, 가구, 제조 설비, 도어, 각종 계측 기기 등에 포함되는 부품에 포함될 수도 있다.The image sensor 100 may be included in a system having an image or light sensing function. For example, the image sensor 100 may be included in electronic devices such as cameras, smart phones, wearable devices, internet of things (IoT), tablet PCs, drones, and advanced drivers assistance systems (ADAS). In addition, the image sensor 10 may be included in parts included in vehicles, furniture, manufacturing facilities, doors, various measuring devices, and the like.

픽셀 어레이(11)는 복수의 픽셀들을 포함할 수 있고, 복수의 픽셀 들은 복수의 구동 라인들(DLs) 및 복수의 감지 라인들(SLs)에 연결될 수 있다. 일부 실시예들에서, 이미지 센서(10)는 APS(active pixel sensor)일 수 있고, 픽셀 어레이(11)의 복수의 픽셀들 각각은 적어도 하나의 광전 변환 소자 및 적어도 하나의 트랜지스터를 포함할 수 있다. 광전 변환 소자는 빛을 감지할 수 있고, 빛에 대응하는 전기적 신호를 생성할 수 있다. 광전 변환 소자는, 비제한적인 예시로서, 무기 포토(photo) 다이오드, 유기 포토 다이오드, 페로브스카이트(perovskite) 포토 다이오드, 포토 트랜지스터, 포토 게이트 또는 핀드 포토 다이오드(pinned photodiode) 등과 같이, 유기 물질 또는 무기 물질로 구성되는 광 감지 소자를 포함할 수 있다. 일부 실시예들에서, 도 2a 및 도 2b를 참조하여 후술되는 바와 같이, 픽셀은 2이상의 변환 이득들을 제공할 수 있다. 일부 실시예들에서, 도 2b를 참조하여 후술되는 바와 같이, 픽셀은 2개 이상의 광전 변환 소자들을 포함할 수 있다.The pixel array 11 may include a plurality of pixels, and the plurality of pixels may be connected to a plurality of driving lines DLs and a plurality of sensing lines SLs. In some embodiments, the image sensor 10 may be an active pixel sensor (APS), and each of a plurality of pixels of the pixel array 11 may include at least one photoelectric conversion element and at least one transistor. . The photoelectric conversion element may sense light and generate an electrical signal corresponding to the light. The photoelectric conversion element may be an organic material, such as, but not limited to, an inorganic photo diode, an organic photo diode, a perovskite photo diode, a photo transistor, a photo gate, or a pinned photo diode. Alternatively, a photo-sensing element made of an inorganic material may be included. In some embodiments, as described below with reference to FIGS. 2A and 2B , a pixel may provide two or more conversion gains. In some embodiments, as described below with reference to FIG. 2B , a pixel may include two or more photoelectric conversion elements.

복수의 픽셀들 각각 상에서 또는 상호 인접한 2이상의 픽셀들 상에서 마이크로 렌즈가 배치될 수 있다. 픽셀은 마이크로 렌즈를 통해서 수신되는 빛으로부터 특징 스펙트럼 영역의 빛을 감지할 수 있다. 예를 들면, 픽셀 어레이(11)는, 적색 스펙트럼 영역의 빛을 전기 신호로 변환하는 레드 픽셀, 녹색 스펙트럼 영역의 빛을 전기 신호로 변환하는 그린 픽셀 및 청색 스펙트럼 영역의 빛을 전기 신호로 변환하는 블루 픽셀을 포함할 수 있다. 복수의 픽셀들 상에서 컬러 필터 어레이가 배치될 수 있고, 픽셀 상에 배치된 컬러 필터에 따라 픽셀이 감지할 수 있는 색상이 결정될 수 있다. 레드 픽셀, 그린 픽셀 및 블루 픽셀 각각에서 생성된 픽셀 신호들을 조합함으로써 이미지에서 하나의 픽셀이 형성될 수 있고, 본 명세서에서 레드 픽셀, 그린 픽셀 및 블루 픽셀 각각은 서브-픽셀로 지칭될 수 있다.A microlens may be disposed on each of a plurality of pixels or on two or more pixels adjacent to each other. The pixel may detect light in a specific spectral region from light received through the microlens. For example, the pixel array 11 includes a red pixel that converts light in the red spectrum region into an electrical signal, a green pixel that converts light in the green spectrum region into an electrical signal, and a pixel array that converts light in the blue spectrum region into an electrical signal. It may contain blue pixels. A color filter array may be disposed on the plurality of pixels, and a color that the pixel can detect may be determined according to the color filter disposed on the pixel. One pixel may be formed in an image by combining pixel signals generated from each of the red, green, and blue pixels, and each of the red, green, and blue pixels may be referred to as a sub-pixel in this specification.

일부 실시예들에서, 픽셀은 멀티-레이어 구조를 가질 수 있다. 멀티-레이어 구조의 픽셀은 적층된 광전 변환 소자들을 포함할 수 있고, 적층된 광전 변화 소자들은 상이한 스펙트럼 영역들을 전기 신호로 각각 변환할 수 있다. 이에 따라, 하나의 픽셀로부터 상이한 색상들에 각각 대응하는 전기 신호들이 출력될 수 있다. 또한, 일부 실시예들에서, 픽셀은 인가되는 전기 신호에 따라 특정 스펙트럼 영역의 빛을 전기적 신호로 변환하는 광전 변환 소자를 포함할 수도 있다.In some embodiments, a pixel may have a multi-layer structure. A pixel having a multi-layer structure may include stacked photoelectric conversion elements, and the stacked photoelectric conversion elements may respectively convert different spectral regions into electrical signals. Accordingly, electrical signals respectively corresponding to different colors may be output from one pixel. Also, in some embodiments, a pixel may include a photoelectric conversion element that converts light in a specific spectral region into an electrical signal according to an applied electrical signal.

드라이버(12)는 컨트롤러(14)로부터 제공되는 제1 제어 신호(CTR1)에 기초하여 픽셀 어레이(11)를 구동할 수 있다. 예를 들면, 드라이버(12)는 제1 제어 신호(CTR1)에 기초하여 구동 신호를 생성할 수 있고, 복수의 구동 라인들(DLs)을 통해서 구동 신호를 출력할 수 있다. 일부 실시예들에서, 드라이버(12)는 픽셀 어레이(11)의 행 단위로 복수의 픽셀들을 구동할 수 있고, 로우(row) 드라이버로 지칭될 수 있다. 예를 들면, 드라이버(12)는, 제1 제어 신호(CTR1)에 기초하여 행을 선택할 수 있고, 선택된 행으로부터 복수의 감지 라인들(SLs)을 통해서 픽셀 신호들을 출력하도록 행에 포함된 픽셀들을 구동할 수 있다.The driver 12 may drive the pixel array 11 based on the first control signal CTR1 provided from the controller 14 . For example, the driver 12 may generate a driving signal based on the first control signal CTR1 and output the driving signal through a plurality of driving lines DLs. In some embodiments, driver 12 may drive a plurality of pixels row by row of pixel array 11 and may be referred to as a row driver. For example, the driver 12 may select a row based on the first control signal CTR1, and outputs pixel signals from the selected row through a plurality of sense lines SLs. can drive

독출 회로(13)는 복수의 감지 라인들(SLs)을 통해서 픽셀 어레이(11)로부터 픽셀 신호들을 수신할 수 있다. 독출 회로(13)는 컨트롤러(14)로부터 제공되는 제2 제어 신호(CTR2)에 기초하여 픽셀 신호를 디지털 신호(DSIG)로 변환할 수 있다. 일부 실시예들에서, 독출 회로(13)는 일정한 기울기로 증가하거나 감소하는 램프 신호를 생성하는 램프 생성기를 포함할 수 있고, 램프 신호에 기초하여 픽셀 신호를 디지털 신호(DSIG)로 변환하는 아날로그-디지털 컨버터(analog-to-digital converter; ADC)를 포함할 수 있다. 예를 들면, 독출 회로(13)는, 복수의 감지 라인들(SLs)에 각각 대응하고 램프 신호를 공통으로 수신하는, 복수의 아날로그-디지털 컨버터들을 포함할 수 있다. 또한, 일부 실시예들에서, 독출 회로(13)는 상관 이중 샘플링(correlation double sampling)에 기초하여 디지털 신호(DSIG)를 생성할 수 있다.The readout circuit 13 may receive pixel signals from the pixel array 11 through the plurality of sense lines SLs. The readout circuit 13 may convert the pixel signal into a digital signal DSIG based on the second control signal CTR2 provided from the controller 14 . In some embodiments, the readout circuit 13 may include a ramp generator that generates a ramp signal that increases or decreases with a constant slope, and converts the pixel signal into a digital signal DSIG based on the ramp signal. It may include an analog-to-digital converter (ADC). For example, the read circuit 13 may include a plurality of analog-to-digital converters, each corresponding to a plurality of sense lines SLs and commonly receiving a ramp signal. Also, in some embodiments, the readout circuit 13 may generate the digital signal DSIG based on correlation double sampling.

컨트롤러(14)는 제1 제어 신호(CTR1)를 통해서 드라이버(12)를 제어할 수 있고, 제2 제어 신호(CTR2)를 통해서 독출 회로(13)를 제어할 수 있다. 컨트롤러(14)는 신호 프로세서(15)의 설정에 기초하여 제1 제어 신호(CTR1) 및 제2 제어 신호(CTR2)를 생성할 수 있다. 예를 들면, 도 1에 도시된 바와 같이, 컨트롤러(14)는 신호 프로세서(15)로부터 설정 신호(SET)를 수신할 수 있고, 설정 신호(SET)에 대응하는 설정에 기초하여 제1 제어 신호(CTR1) 및 제2 제어 신호(CTR2)를 생성할 수 있다. 일부 실시예들에서, 컨트롤러(14)는 설정 신호(SET)에 기초하여 픽셀 어레이(11)의 복수의 픽셀들 중 적어도 일부를 포함하는 픽셀 그룹 및 노출 시간(exposure integration time; EIT)을 식별할 수 있다. 컨트롤러(14)는 식별된 픽셀 그룹 및 노출 시간에 기초하여 제1 제어 신호(CTR1)를 생성할 수 있고, 드라이버(12)는 제1 제어 신호(CTR1)에 기초하여, 식별된 픽셀 그룹이 식별된 노출 시간을 가지도록, 복수의 구동 라인들(DLs)을 통해서 구동 신호를 출력할 수 있다. 드라이버(12) 및 독출 회로(13)의 동작들은 제1 제어 신호(CTR1) 및 제2 제어 신호(CTR2)의 타이밍에 따라 전환될 수 있고, 이에 따라 컨트롤러(14)는 타이밍 컨트롤러로 지칭될 수 있다.The controller 14 can control the driver 12 through the first control signal CTR1 and the read circuit 13 through the second control signal CTR2. The controller 14 may generate the first control signal CTR1 and the second control signal CTR2 based on the setting of the signal processor 15 . For example, as shown in FIG. 1 , the controller 14 may receive a set signal SET from the signal processor 15, and a first control signal based on a setting corresponding to the set signal SET. (CTR1) and the second control signal (CTR2) may be generated. In some embodiments, the controller 14 may identify a pixel group including at least some of the plurality of pixels of the pixel array 11 and an exposure integration time (EIT) based on the setting signal SET. can The controller 14 may generate a first control signal CTR1 based on the identified pixel group and the exposure time, and the driver 12 may identify the identified pixel group based on the first control signal CTR1. A driving signal may be output through a plurality of driving lines DLs to have a predetermined exposure time. Operations of the driver 12 and the readout circuit 13 may be switched according to the timings of the first control signal CTR1 and the second control signal CTR2, and thus the controller 14 may be referred to as a timing controller. there is.

신호 프로세서(15)는 독출 회로(13)로부터 디지털 신호(DSIG)를 수신할 수 있고, 피사체의 이미지를 나타내는 이미지 데이터(IMG)를 생성할 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 다양한 보상 동작들을 수행할 수 있다. 예를 들면, 신호 프로세서(15)는, 노이즈 저감, 이득 조정, 파형 정형화, 보간, 화이트밸런스 조정, 감마 처리, 에지 강조, 비닝(binning) 등을 수행할 수 있다.The signal processor 15 may receive the digital signal DSIG from the readout circuit 13 and generate image data IMG representing an image of a subject. In some embodiments, signal processor 15 may perform various compensation operations. For example, the signal processor 15 may perform noise reduction, gain adjustment, waveform shaping, interpolation, white balance adjustment, gamma processing, edge enhancement, binning, and the like.

일부 실시예들에서, 신호 프로세서(15)는 디지털 신호(DSIG)에 기초하여 이미지의 조도를 식별할 수 있다. 신호 프로세서(15)는, 식별된 조도에 기초하여 픽셀 어레이(11)를 2이상의 영역으로 분할할 수 있다. 예를 들면, 신호 프로세서(15)는, 식별된 조도를 미리 정의된 적어도 하나의 기준치와 비교할 수 있고, 기준치 미만의 조도를 가지는 적어도 하나의 저조도 영역 및 기준치 이상의 조도를 가지는 적어도 하나의 고조도 영역으로 픽셀 어레이(11)를 분할할 수 있다. 이하에서, 픽셀 어레이(11)가 적어도 하나의 저조도 영역 및 적어도 하나의 고조도 영역을 포함하는 예시들이 설명될 것이나, 본 개시의 예시적 실시예들이 이에 제한되지 아니하는 점에 유의된다. 예를 들면, 픽셀 어레이(11)는 3개 이상의 조도 범위들에 각각 대응하는 영역들을 포함할 수 있다. In some embodiments, signal processor 15 may identify illuminance of an image based on digital signal DSIG. The signal processor 15 may divide the pixel array 11 into two or more regions based on the identified illuminance. For example, the signal processor 15 may compare the identified illuminance with at least one predefined reference value, and may include at least one low-illuminance area having an illuminance less than the reference value and at least one high-illuminance area having an illuminance greater than or equal to the reference value. The pixel array 11 can be divided into In the following, examples in which the pixel array 11 includes at least one low-intensity area and at least one high-intensity area will be described, but it is noted that exemplary embodiments of the present disclosure are not limited thereto. For example, the pixel array 11 may include regions respectively corresponding to three or more illuminance ranges.

일부 실시예들에서, 신호 프로세서(15)는 디지털 신호(DSIG)에 기초하여 이미지의 조도를 식별할 수 있다. 신호 프로세서(15)는, 식별된 조도에 기초하여 픽셀 어레이(11)의 복수의 픽셀들 중 적어도 하나의 픽셀을 포함하는 픽셀 그룹을 식별할 수 있다. 도 5a 내지 도 5e 등을 참조하여 후술되는 바와 같이, 신호 프로세서(15)는, 저조도 영역에 포함되는 픽셀 그룹이 상대적으로 긴 노출 시간을 가지고 고조도 영역에 포함되는 픽셀 그룹이 상대적으로 짧은 노출 시간을 가지도록, 컨트롤러(14)를 설정할 수 있다. 설정 신호(SET)는 픽셀 그룹 및 노출 시간에 대한 정보를 포함할 수 있고, 컨트롤러(14)는 설정 신호(SET)에 포함된 정보에 기초하여 픽셀 그룹이 구동되도록 제1 제어 신호(CTR1)를 통해서 드라이버(12)를 제어할 수 있다. In some embodiments, signal processor 15 may identify illuminance of an image based on digital signal DSIG. The signal processor 15 may identify a pixel group including at least one pixel among a plurality of pixels of the pixel array 11 based on the identified illuminance. As will be described later with reference to FIGS. 5A to 5E , the signal processor 15 determines that a pixel group included in a low luminance area has a relatively long exposure time and a pixel group included in a high luminance area has a relatively short exposure time. The controller 14 can be set to have The setting signal SET may include information about the pixel group and the exposure time, and the controller 14 may generate the first control signal CTR1 to drive the pixel group based on the information included in the setting signal SET. Through this, the driver 12 can be controlled.

일부 실시예들에서, 신호 프로세서(15)는 픽셀 그룹이 조도에 독립적인 위치 및 노출 시간을 가지도록, 컨트롤러(14)를 설정할 수 있다. 본 명세서에서, 조도에 독립적인 위치 및 노출 시간을 가지는 픽셀 그룹은 레퍼런스 픽셀 그룹 또는 레퍼런스 그룹으로 지칭될 수 있고, 레퍼런스 픽셀 그룹에 포함된 픽셀은 레퍼런스 픽셀로 지칭될 수 있다. 또한, 조도에 의존하는 위치 및 노출 시간을 가지는 픽셀 그룹은 어댑티브 픽셀 그룹 또는 어댑티브 그룹으로 지칭될 수 있고, 어댑티브 픽셀 그룹에 포함된 픽셀은 어댑티브 픽셀로 지칭될 수 있다.In some embodiments, signal processor 15 may set controller 14 such that a group of pixels has a position and exposure time independent of illuminance. In this specification, a pixel group having a location and exposure time independent of illuminance may be referred to as a reference pixel group or a reference group, and a pixel included in the reference pixel group may be referred to as a reference pixel. Also, a pixel group having a location and an exposure time dependent on illuminance may be referred to as an adaptive pixel group or an adaptive group, and pixels included in the adaptive pixel group may be referred to as adaptive pixels.

신호 프로세서(15)는 상이한 노출 시간들을 가지는 픽셀 그룹들에 각각 대응하는 디지털 신호(DSIG)의 값들을 연산함으로써 이미지 데이터(IMG)를 생성할 수 있다. 이에 따라, 이미지 데이터(IMG)는 양호한 품질을 가질 수 있고, 이미지 센서(10)의 성능이 개선될 수 있다. 또한, 양호한 품질의 이미지 데이터(IMG)에 기인하여 이미지 센서(10)를 포함하는 어플리케이션의 성능이 향상될 수 있다. 예를 들면, 이미지 센서(10)는 높은 저조도 SNR(signal-to-noise ratio), 확장된 HDR(high dynamic range) 및 고온에서 개선된 SNR 딥(dip)을 가질 수 있고, 이에 따라 열악한 사용 환경을 지원하는 것이 요구되는 자동차(automotive) 어플리케이션에 효과적으로 사용될 수 있다.The signal processor 15 may generate the image data IMG by calculating values of the digital signal DSIG corresponding to pixel groups having different exposure times. Accordingly, the image data IMG may have good quality, and the performance of the image sensor 10 may be improved. In addition, the performance of applications including the image sensor 10 may be improved due to the good quality of the image data IMG. For example, the image sensor 10 may have a high low-light signal-to-noise ratio (SNR), an extended high dynamic range (HDR), and an improved SNR dip at high temperatures, and thus in harsh use environments. It can be effectively used for automotive applications that require support.

신호 프로세서(15)는 전술된 동작을 수행하는 임의의 구조를 가질 수 있다. 예를 들면, 신호 프로세서(15)는, 프로세싱 코어(processing core)와 같이 프로그램가능한(programmable) 컴포넌트, FPGA(field programmable gate array)와 같이 재구성가능한(reconfigurable) 컴포넌트 및 IP(intellectual property) 코어와 같이 고정된 기능을 제공하는 컴포넌트 중 적어도 하나를 포함할 수 있다.Signal processor 15 may have any structure that performs the operations described above. For example, the signal processor 15 may include a programmable component such as a processing core, a reconfigurable component such as a field programmable gate array (FPGA), and an intellectual property (IP) core. It may include at least one of components providing fixed functions.

도 2a 및 도 2b는 본 개시의 예시적 실시예들에 따른 픽셀의 예시들을 나타내는 회로도들이다. 일부 실시예들에서, 도 2a 및 도 2b의 픽셀들(20a, 20b) 각각은 도 1의 픽셀 어레이(11)에 포함될 수 있다. 도 1의 픽셀 어레이(11)에 포함되는 픽셀이 도 2a 및 도 2b의 픽셀들(20a, 20b)에 제한되지 아니하는 점이 유의된다. 이하에서, 도 2a 및 도 2b에 대한 설명 중 상호 중복되는 내용은 생략될 것이다.2A and 2B are circuit diagrams illustrating examples of pixels according to exemplary embodiments of the present disclosure. In some embodiments, each of the pixels 20a and 20b of FIGS. 2A and 2B may be included in the pixel array 11 of FIG. 1 . It is noted that the pixels included in the pixel array 11 of FIG. 1 are not limited to the pixels 20a and 20b of FIGS. 2A and 2B. Hereinafter, overlapping descriptions of FIGS. 2A and 2B will be omitted.

도 2a를 참조하면, 픽셀(20a)은 포토 다이오드(PD), 제1 캐패시터(C1), 제2 캐패시터(C2) 및 복수의 트랜지스터들을 포함할 수 있다. 복수의 트랜지스터들은, 전송 트랜지스터(TG), 리셋 트랜지스터(RG), 이득 제어 트랜지스터(CG), 구동 트랜지스터(DX) 및 선택 트랜지스터(SX)를 포함할 수 있다. 일부 실시예들에서, 제1 캐패시터(C1)는 플로팅 디퓨전 노드(FD)의 기생(parasitic) 캐패시터에 대응할 수 있다. 일부 실시예들에서, 제2 캐패시터(C2)는 고정되거나 가변되는 캐패시턴스를 가지도록 구조화된 수동 소자일 수 있다. 일부 실시예들에서, 제2 캐패시터(C2)는 리셋 트랜지스터(RG)의 소스 및 이득 제어 트랜지스터(CG)의 드레인에 연결된 노드의 기생 캐패시터에 대응할 수도 있다.Referring to FIG. 2A , a pixel 20a may include a photodiode PD, a first capacitor C1, a second capacitor C2, and a plurality of transistors. The plurality of transistors may include a transfer transistor TG, a reset transistor RG, a gain control transistor CG, a driving transistor DX, and a selection transistor SX. In some embodiments, the first capacitor C1 may correspond to a parasitic capacitor of the floating diffusion node FD. In some embodiments, the second capacitor C2 may be a passive element structured to have a fixed or variable capacitance. In some embodiments, the second capacitor C2 may correspond to a parasitic capacitor of a node connected to the source of the reset transistor RG and the drain of the gain control transistor CG.

포토 다이오드(PD)는 광전 변환 소자로서 외부에서 입사되는 빛을 전기 신호로 변환할 수 있다. 포토 다이오드(PD)는 빛의 세기(intensity)에 따라 전하를 축적할 수 있다. 픽셀(20a)은 도 1의 드라이버(12)로부터 제공되는 구동 신호들, 즉 리셋 신호(RS), 이득 신호(GS), 전송 신호(TS) 및 선택 신호(SEL)를 각각 수신할 수 있다.The photodiode (PD) is a photoelectric conversion element and can convert light incident from the outside into an electrical signal. The photodiode PD may accumulate charges according to the intensity of light. The pixel 20a may receive driving signals provided from the driver 12 of FIG. 1 , that is, a reset signal RS, a gain signal GS, a transmission signal TS, and a selection signal SEL, respectively.

리셋 트랜지스터(RG)는 활성화된 리셋 신호(RS)에 응답하여 턴-온될 수 있고, 이득 제어 트랜지스터(CG)는 활성화된 이득 신호(GS)에 응답하여 턴-온될 수 있다. 이에 따라, 플로팅 디퓨전 노드(FD)에 리셋 전압(VRD)이 인가될 수 있고, 플로팅 디퓨전 노드(FD)가 리셋될 수 있다. 전송 트랜지스터(TG)는 활성화된 전송 신호(TS)에 응답하여 턴-온될 수 있고, 이에 따라 포토 다이오드(PD) 역시 리셋될 수 있다.The reset transistor RG may be turned on in response to an activated reset signal RS, and the gain control transistor CG may be turned on in response to an activated gain signal GS. Accordingly, the reset voltage VRD may be applied to the floating diffusion node FD, and the floating diffusion node FD may be reset. The transfer transistor TG may be turned on in response to the activated transfer signal TS, and thus the photodiode PD may also be reset.

전송 트랜지스터(TG)는 비활성화된 전송 신호(TS)에 응답하여 턴-오프될 수 있고, 전송 트랜지스터(TG)가 턴-오프되는 동안, 즉 노출 시간 동안 포토 다이오드(PD)는 입사되는 빛에 따라 전하를 축적할 수 있다. 전송 트랜지스터(TG)가 활성화된 전송 신호(TS)에 응답하여 턴-온되는 경우, 포토 다이오드(PD)에서 축적된 전하가 플로팅 디퓨전 노드(FD)에 전달될 수 있다. 이득 신호(GS)가 비활성화된 경우 전하는 제1 캐패시터(C1)에 축적될 수 있는 한편, 이득 신호(GS)가 활성화된 경우 전하는 제1 캐패시터(C1) 및 제2 캐패시터(C2)에 축적될 수 있다. The transfer transistor TG may be turned off in response to the inactive transfer signal TS, and while the transfer transistor TG is turned off, that is, during the exposure time, the photodiode PD responds to the incident light. charge can accumulate. When the transfer transistor TG is turned on in response to the activated transfer signal TS, charges accumulated in the photodiode PD may be transferred to the floating diffusion node FD. Charges may be accumulated in the first capacitor C1 when the gain signal GS is inactivated, while charges may be accumulated in the first capacitor C1 and the second capacitor C2 when the gain signal GS is activated. there is.

플로팅 디퓨전 노드(FD)의 전압은 포토 다이오드(PD)에 축적된 전하에 의존할 수 있고, 포토 다이오드(PD)에 축적된 전하 및 변환 이득(conversion gain)의 곱으로 표현될 수 있다. 전술된 바와 같이, 동일한 전하량에 대응하는 플로팅 디퓨전 노드(FD)의 전압은, 이득 신호(GS)의 활성화 여부에 따라 상이할 수 있고, 변환 이득이 이득 신호(GS)에 따라 변동할 수 있다. 즉, 이득 신호(GS)가 비활성화된 경우 픽셀(20a)은 높은 변환 이득(high conversion gain; HCG)을 가질 수 있는 한편, 이득 신호(GS)가 활성화된 경우 픽셀(20a)은 상대적으로 낮은 변환 이득(low conversion gain; LCG)을 가질 수 있다. 이와 같이, 2개의 상이한 변환 이득들을 제공하는 픽셀(20a)은 이중 변환 이득(dual conversion gain; DCG) 픽셀로 지칭될 수 있다. 본 명세서에서, 이득 신호(GS)가 비활성화된 상태는 HCG 모드로 지칭될 수 있고, 이득 신호(GS)가 활성화된 상태는 LCG 모드로 지칭될 수 있다. 도 3을 참조하여 후술되는 바와 같이, DCG 픽셀은 이미지 센서(10)의 동적 범위를 확장할 수 있다.The voltage of the floating diffusion node FD may depend on the charge accumulated in the photodiode PD and may be expressed as a product of the charge accumulated in the photodiode PD and a conversion gain. As described above, the voltage of the floating diffusion node FD corresponding to the same amount of charge may be different depending on whether the gain signal GS is activated or not, and the conversion gain may vary according to the gain signal GS. That is, the pixel 20a may have a high conversion gain (HCG) when the gain signal GS is inactive, while the pixel 20a may have a relatively low conversion gain when the gain signal GS is activated. It may have low conversion gain (LCG). As such, a pixel 20a that provides two different conversion gains may be referred to as a dual conversion gain (DCG) pixel. In this specification, a state in which the gain signal GS is inactivated may be referred to as an HCG mode, and a state in which the gain signal GS is activated may be referred to as an LCG mode. As described later with reference to FIG. 3 , the DCG pixels may extend the dynamic range of the image sensor 10 .

구동 트랜지스터(DX)는 픽셀 전압(VPIX) 및 감지 라인(SL)에 연결된 전류원(CS)에 의해서 소스 팔로워로서 기능할 수 있고, 플로팅 디퓨전 노드(FD)의 전압을 선택 트랜지스터(SX)에 전달할 수 있다. 일부 실시예들에서, 전류원(CS)은 감지 라인(SL)에 연결된 픽셀들에 의해서 공유될 수 있고, 도 1의 독출 회로(13)에 포함될 수 있다. 선택 트랜지스터(SX)는 활성화된 선택 신호(SEL)에 응답하여 구동 트랜지스터(DX)의 출력 전압을 감지 라인(SL)에 제공할 수 있다. 감지 라인(SL)의 전압은 픽셀 신호로서 도 1의 독출 회로(13)에 제공될 수 있고, 독출 회로(13)는 감지 라인(SL)의 전압에 대응하는 디지털 신호(DSIG)를 생성할 수 있다.The driving transistor DX may function as a source follower by means of the current source CS connected to the pixel voltage VPIX and the sense line SL, and transfer the voltage of the floating diffusion node FD to the selection transistor SX. there is. In some embodiments, the current source CS may be shared by pixels connected to the sense line SL and may be included in the readout circuit 13 of FIG. 1 . The selection transistor SX may provide the output voltage of the driving transistor DX to the sensing line SL in response to the activated selection signal SEL. The voltage of the sensing line SL may be provided as a pixel signal to the readout circuit 13 of FIG. 1 , and the readout circuit 13 may generate a digital signal DSIG corresponding to the voltage of the sensing line SL. there is.

도 2b를 참조하면, 픽셀(20b)은 라지 포토 다이오드(LPD), 스몰 포토 다이오드(SPD), 캐패시터(SC) 및 복수의 트랜지스터들을 포함할 수 있다. 복수의 트랜지스터들은, 제1 전송 트랜지스터(TG1), 제2 전송 트랜지스터(TG2), 스위치 트랜지스터(SG), 리셋 트랜지스터(RG), 이득 제어 트랜지스터(CG), 구동 트랜지스터(DX) 및 선택 트랜지스터(SX)를 포함할 수 있다. 제1 내지 제3 플로팅 디퓨전 노드(FD1 내지 FD3) 각각은 기생 캐패시턴스를 가질 수 있다. 일부 실시예들에서, 픽셀(20b)은 제1 내지 제3 플로팅 디퓨전 노드(FD1 내지 FD3)에 각각 연결된 수동 소자들로서 캐패시터들을 더 포함할 수도 있다.Referring to FIG. 2B , a pixel 20b may include a large photodiode (LPD), a small photodiode (SPD), a capacitor (SC), and a plurality of transistors. The plurality of transistors include a first transfer transistor TG1, a second transfer transistor TG2, a switch transistor SG, a reset transistor RG, a gain control transistor CG, a driving transistor DX, and a selection transistor SX. ) may be included. Each of the first to third floating diffusion nodes FD1 to FD3 may have a parasitic capacitance. In some embodiments, the pixel 20b may further include capacitors as passive elements respectively connected to the first to third floating diffusion nodes FD1 to FD3.

라지 포토 다이오드(LPD) 및 스몰 포토 다이오드(SPD)는 입사되는 빛에 따라 전하를 축적할 수 있다. 라지 포토 다이오드(LPD)는 스몰 포토 다이오드(SPD)보다 큰 크기를 가질 수 있고, 라지 포토 다이오드(LPD)는 저조도 피사체에 적합할 수 있는 한편, 스몰 포토 다이오드(SPD)는 고조도 피사체에 적합할 수 있다. 픽셀(20b)과 같이, 상이한 크기의 포토 다이오드들을 포함하는 픽셀 구조는 스플릿 포토 다이오드(split PD)로 지칭될 수 있고, 특히 스몰 포토 다이오드(SPD)가 라지 포토 다이오드(LPD)의 일 코너에 배치되는 구조는 코너 픽셀(corner pixel)로 지칭될 수 있다.Large photodiodes (LPDs) and small photodiodes (SPDs) can accumulate charges according to incident light. The large photodiode (LPD) may have a larger size than the small photodiode (SPD), and the large photodiode (LPD) may be suitable for low light subjects, while the small photodiode (SPD) may be suitable for high light subjects. can A pixel structure including photodiodes of different sizes, such as the pixel 20b, may be referred to as a split photodiode (split PD), in particular, a small photodiode (SPD) is disposed at one corner of a large photodiode (LPD). A structure that becomes may be referred to as a corner pixel.

픽셀(20b)은 도 1의 드라이버(12)로부터 제공되는 구동 신호들, 즉 리셋 신호(RS), 이득 신호(GS), 제1 전송 신호(TS1), 제2 전송 신호(TS2), 스위치 신호(SS) 및 선택 신호(SEL)를 각각 수신할 수 있다. 픽셀(20b)은 라지 포토 다이오드(LPD)의 HCG 모드 및 LCG 모드를 지원할 수 있고, 스몰 포토 다이오드(SPD)의 HCG 모드 및 LCG 모드를 지원할 수 있다. 이에 따라, 픽셀(20b)은 도 2a의 픽셀(20a)보다 넓은 동적 범위를 제공할 수 있다.The pixel 20b receives driving signals provided from the driver 12 of FIG. 1 , that is, a reset signal RS, a gain signal GS, a first transmission signal TS1, a second transmission signal TS2, and a switch signal. (SS) and the selection signal (SEL) may be received respectively. The pixel 20b may support the HCG mode and the LCG mode of the large photodiode (LPD) and the HCG mode and LCG mode of the small photodiode (SPD). Accordingly, the pixel 20b may provide a wider dynamic range than the pixel 20a of FIG. 2A.

리셋 트랜지스터(RG)는 활성화된 리셋 신호(RS)에 응답하여 턴-온될 수 있고, 이에 따라 제2 플로팅 디퓨전 노드(FD2)가 리셋될 수 있다. 이득 제어 트랜지스터(CG)는 활성화된 이득 신호(GS)에 응답하여 턴-온될 수 있고, 이에 따라 제1 플로팅 디퓨전 노드(FD1)가 리셋될 수 있다. 또한, 스위치 트랜지스터(SG)는 활성화된 스위치 신호(SS)에 응답하여 턴-온될 수 있고, 이에 따라 제3 플로팅 디퓨전 노드(FD3)가 리셋될 수 있다. The reset transistor RG may be turned on in response to the activated reset signal RS, and thus the second floating diffusion node FD2 may be reset. The gain control transistor CG may be turned on in response to the activated gain signal GS, and accordingly, the first floating diffusion node FD1 may be reset. Also, the switch transistor SG may be turned on in response to the activated switch signal SS, and thus the third floating diffusion node FD3 may be reset.

라지 포토 다이오드(LPD)의 HCG 모드에서, 이득 신호(GS)는 비활성화될 수 있고, 이에 따라 이득 제어 트랜지스터(CG)가 턴-오프될 수 있다. 활성화된 제1 전송 신호(TS1)에 응답하여 제1 전송 트랜지스터(TG1)가 턴-온되는 경우, 라지 포토 다이오드(LPD)에 축적된 전하는 제1 플로팅 디퓨전 노드(FD1)에 전달될 수 있다. 라지 포토 다이오드(LPD)의 LCG 모드에서, 이득 신호(GS)는 활성화될 수 있고, 이에 따라 이득 제어 트랜지스터(CG)가 턴-온될 수 있다. 활성화된 제1 전송 신호(TS1)에 응답하여 제1 전송 트랜지스터(TG1)가 턴-온되는 경우, 라지 포토 다이오드(LPD)에 축적된 전하는 제1 플로팅 디퓨전 노드(FD1) 및 제2 플로팅 디퓨전 노드(FD2)에 전달될 수 있다.In the HCG mode of the large photodiode LPD, the gain signal GS may be inactivated, and thus the gain control transistor CG may be turned off. When the first transfer transistor TG1 is turned on in response to the activated first transfer signal TS1, charges accumulated in the large photodiode LPD may be transferred to the first floating diffusion node FD1. In the LCG mode of the large photodiode LPD, the gain signal GS can be activated, and thus the gain control transistor CG can be turned on. When the first transfer transistor TG1 is turned on in response to the activated first transfer signal TS1, charges accumulated in the large photodiode LPD are transferred to the first floating diffusion node FD1 and the second floating diffusion node. (FD2).

스몰 포토 다이오드(SPD)의 HCG 모드에서, 스위치 신호(SW)는 비활성화될 수 있고, 이에 따라 스위치 트랜지스터(SG)가 턴-오프될 수 있다. 활성화된 제2 전송 신호(TS2)에 응답하여 제2 전송 트랜지스터(TG)가 턴-온되는 경우, 스몰 포토 다이오드(SPD)에 축적된 전하는 캐패시터(SC)가 연결된 제3 플로팅 디퓨전 노드(FD3)에 전달될 수 있다. 도 2b에 도시된 바와 같이, 캐패시터(SC)는 전압(VMIN)이 인가되는 노드 및 제3 플로팅 디퓨전 노드(FD3) 사이에 연결될 수 있다. 스몰 포토 다이오드(SPD)의 LCG 모드에서, 스위치 신호(SW)는 활성화될 수 있고, 이에 따라 스위치 트랜지스터(SG)가 턴-온될 수 있다. 활성화된 제2 전송 신호(TS2)에 응답하여 제2 전송 트랜지스터(TG)가 턴-온되는 경우, 스몰 포토 다이오드(SPD)에 축적된 전하는 제3 플로팅 디퓨전 노드(FD3) 및 제2 플로팅 디퓨전 노드(FD2)에 전달될 수 있다.In the HCG mode of the small photodiode SPD, the switch signal SW may be inactivated, and thus the switch transistor SG may be turned off. When the second transfer transistor TG is turned on in response to the activated second transfer signal TS2, the charge accumulated in the small photodiode SPD is transferred to the third floating diffusion node FD3 to which the capacitor SC is connected. can be forwarded to As shown in FIG. 2B , the capacitor SC may be connected between a node to which the voltage VMIN is applied and the third floating diffusion node FD3. In the LCG mode of the small photodiode SPD, the switch signal SW can be activated, and thus the switch transistor SG can be turned on. When the second transfer transistor TG is turned on in response to the activated second transfer signal TS2, charges accumulated in the small photodiode SPD are transferred to the third floating diffusion node FD3 and the second floating diffusion node. (FD2).

도 3은 본 개시의 예시적 실시예에 따른 이미지 센서(10)의 SNR-HDR 그래프를 나타낸다. 도 3의 그래프에서 가로축은 이미지 센서(10)에 입사되는 빛의 세기, 즉 밝기를 나타내고, 세로축은 신호대-잡음비(SNR)를 나타낸다. 이하에서, 도 3은 도 1을 참조하여 설명될 것이다.3 shows an SNR-HDR graph of the image sensor 10 according to an exemplary embodiment of the present disclosure. In the graph of FIG. 3, the horizontal axis represents the intensity of light incident on the image sensor 10, that is, brightness, and the vertical axis represents the signal-to-noise ratio (SNR). In the following, FIG. 3 will be described with reference to FIG. 1 .

일부 실시예들에서, 도 3의 그래프에서 곡선(30)은, 도 2b의 픽셀(20b)과 같이, 상이한 크기의 포토 다이오드들을 포함하고 이중 변환 이득(DCG)을 지원하는 픽셀들을 포함하는 이미지 센서(10)의 특성을 나타낸다. 이에 따라, 이미지 센서(10)는 넓은 동적 범위, 즉 HDR(high dynamic range)를 제공할 수 있다. 예를 들면, 도 3에 도시된 바와 같이, HDR은 곡선(30)이 영(zero)보다 높은 SNR을 가지는 구간으로 정의될 수 있고, 조도에 따라 LH 구간, LL 구간, SH 구간 및 SL 구간을 포함할 수 있다. LH 구간에서 픽셀은 HCG 모드에서 LPD에 축적된 전하에 대응하는 픽셀 신호를 출력할 수 있고, LL 구간에서 픽셀은 LCG 모드에서 LPD에 축적된 전하에 대응하는 픽셀 신호를 출력할 수 있다. 또한, SH 구간에서 픽셀은 HCG 모드에서 SPD에 축적된 전하에 대응하는 픽셀 신호를 출력할 수 있고, SL 구간에서 픽셀은 LCG 모드에서 SPD에 축적된 전하에 대응하는 픽셀 신호를 출력할 수 있다. 신호 프로세서(15)는 이미지에서 상이한 구간들에 대응하는 영역들을 결합(combining)할 수 있다.In some embodiments, curve 30 in the graph of FIG. 3 is an image sensor that includes pixels that include photodiodes of different sizes and support double conversion gain (DCG), such as pixel 20b of FIG. 2B . The characteristics of (10) are shown. Accordingly, the image sensor 10 may provide a wide dynamic range, that is, high dynamic range (HDR). For example, as shown in FIG. 3, HDR may be defined as a section in which the curve 30 has an SNR higher than zero, and the LH section, the LL section, the SH section, and the SL section according to the illuminance can include In the LH period, the pixel may output a pixel signal corresponding to the charge accumulated in the LPD in the HCG mode, and in the LL period, the pixel may output a pixel signal corresponding to the charge accumulated in the LPD in the LCG mode. Also, in the SH section, the pixel may output a pixel signal corresponding to the charge accumulated in the SPD in the HCG mode, and in the SL section, the pixel may output a pixel signal corresponding to the charge accumulated in the SPD in the LCG mode. The signal processor 15 may combine regions corresponding to different intervals in the image.

이미지 센서(10)는 다양한 성능들을 동시에 충족시킬 것이 요구될 수 있다. 예를 들면, 이미지 센서(10)는, 도 3에 도시된 바와 같이, 양호한 저조도 SNR(31), 이미지 결합 지점에서 양호한 SNR(32, 33, 34) 및 확장된 HDR을 제공할 것이 요구될 수 있다. 이하에서, 도면들을 참조하여 후술되는 바와 같이, 복수의 픽셀들에 포함되는 픽셀 그룹들은 상이한 노출 시간들을 각각 가질 수 있고, 상이한 픽셀 그룹들에 대응하는 디지털 신호의 값들이 연산됨으로써 이미지 데이터가 생성될 수 있다. 이에 따라, 이미지 센서(10)의 전술된 성능들, 즉 저조도 SNR, 이미지 결합 지점에서 SNR 및 HDR이 모두 개선될 수 있다.The image sensor 10 may be required to simultaneously satisfy a variety of capabilities. For example, image sensor 10 may be required to provide good low-light SNR 31, good SNR at image combining points 32, 33, 34 and extended HDR, as shown in FIG. there is. As will be described later with reference to the drawings, pixel groups included in a plurality of pixels may have different exposure times, and image data may be generated by calculating digital signal values corresponding to the different pixel groups. can Accordingly, the above-described performances of the image sensor 10, namely low-illuminance SNR, SNR at the image combining point, and HDR may all be improved.

도 4는 본 개시의 예시적 실시예에 따라 이미지 센서(10)에 의해서 수행되는 방법을 나타내는 순서도이다. 본 명세서에서, 도 4의 방법은 이미지 감지를 위한 방법으로 지칭될 수 있다. 도 4에 도시된 바와 같이, 이미지 센서(10)에 의해서 수행되는 방법은 복수의 단계들(S20, S40, S60, S80)을 포함할 수 있다. 이하에서, 도 4는 도 1을 참조하여 설명될 것이다.4 is a flowchart illustrating a method performed by image sensor 10 according to an exemplary embodiment of the present disclosure. In this specification, the method of FIG. 4 may be referred to as a method for image sensing. As shown in FIG. 4 , the method performed by the image sensor 10 may include a plurality of steps S20, S40, S60, and S80. In the following, FIG. 4 will be described with reference to FIG. 1 .

도 4를 참조하면, 단계 S20에서 제1 픽셀 그룹 및 제2 픽셀 그룹이 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 드라이버(12)를 제어할 수 있다. 예를 들면, 컨트롤러(14)는 신호 프로세서(15)에 의해서 제공되는 설정 신호(SET)에 기초하여 제1 픽셀 그룹 및/또는 제2 픽셀 그룹을 식별할 수 있고, 제1 노출 시간 및/또는 제2 노출 시간을 식별할 수 있다. 컨트롤러(14)는, 제1 픽셀 그룹이 제1 노출 시간을 가지도록 제1 제어 신호(CTR1)를 통해서 드라이버(12)를 제어할 수 있고, 드라이버(12)는 제1 노출 시간을 가지도록 구동 신호들을 통해서 제1 픽셀 그룹을 구동할 수 있다. 또한, 컨트롤러(14)는, 제2 픽셀 그룹이 제2 노출 시간을 가지도록 제1 제어 신호(CTR1)를 통해서 드라이버(12)를 제어할 수 있고, 드라이버(12)는 제2 노출 시간을 가지도록 구동 신호들을 통해서 제2 픽셀 그룹을 구동할 수 있다.Referring to FIG. 4 , in step S20 , the driver 12 may be controlled so that the first and second pixel groups have a first exposure time and a second exposure time, respectively. For example, the controller 14 may identify the first pixel group and/or the second pixel group based on the setting signal SET provided by the signal processor 15, and may determine the first exposure time and/or A second exposure time can be identified. The controller 14 may control the driver 12 through the first control signal CTR1 so that the first pixel group has a first exposure time, and the driver 12 is driven to have a first exposure time. The first pixel group may be driven through the signals. Also, the controller 14 may control the driver 12 through the first control signal CTR1 so that the second pixel group has the second exposure time, and the driver 12 has the second exposure time. The second pixel group may be driven through the driving signals.

일부 실시예들에서, 설정 신호(SET)는 픽셀 어레이(11)에서 제1 픽셀 그룹 및/또는 제2 픽셀 그룹에 대응하는 어드레스들을 포함할 수 있고, 제1 노출 시간 및/또는 제2 노출 시간에 대응하는 값들을 포함할 수 있다. 일부 실시예들에서, 제1 픽셀 그룹은 레퍼런스 그룹일 수 있고, 제1 픽셀 그룹 및 제1 노출 시간은 고정될 수 있다. 이에 따라 설정 신호(SET)에서 제1 픽셀 그룹 및 제1 노출 시간에 대한 정보는 생략될 수 있고, 컨트롤러(14)는 설정 신호(SET)와 무관하게, 제1 픽셀 그룹이 제1 노출 시간을 가지도록, 제1 제어 신호(CTR1)를 통해 드라이버(12)를 제어할 수 있다.In some embodiments, the setting signal SET may include addresses corresponding to the first pixel group and/or the second pixel group in the pixel array 11, the first exposure time and/or the second exposure time. It may include values corresponding to . In some embodiments, the first pixel group may be a reference group, and the first pixel group and first exposure time may be fixed. Accordingly, information on the first pixel group and the first exposure time may be omitted from the setting signal SET, and the controller 14 determines that the first pixel group sets the first exposure time regardless of the setting signal SET. It is possible to control the driver 12 through the first control signal CTR1 so as to have.

단계 S40에서, 픽셀 신호가 생성될 수 있다. 예를 들면, 픽셀 어레이(11)는 드라이버(12)가 복수의 구동 라인들(DLs)을 통해서 제공하는 구동 신호들에 기초하여 빛을 감지할 수 있고, 복수의 감지 라인들(SLs)을 통해서 픽셀 신호를 출력할 수 있다. 제1 픽셀 그룹은 제1 노출 시간 동안 입사된 빛의 세기에 대응하는 픽셀 신호를 생성할 수 있고, 제2 픽셀 그룹은 제2 노출 시간 동안 입사된 빛의 세기에 대응하는 픽셀 신호를 생성할 수 있다.In step S40, a pixel signal may be generated. For example, the pixel array 11 may sense light based on driving signals provided by the driver 12 through a plurality of driving lines DLs, and may sense light through a plurality of sensing lines SLs. A pixel signal can be output. The first pixel group may generate a pixel signal corresponding to the intensity of incident light during the first exposure time, and the second pixel group may generate a pixel signal corresponding to the intensity of incident light during the second exposure time. there is.

단계 S60에서, 디지털 신호(DSIG)가 생성될 수 있다. 예를 들면, 독출 회로(13)는 단계 복수의 감지 라인들(SLs)을 통해서 픽셀 어레이(11)로부터 수신되는 픽셀 신호로부터 디지털 신호(DSIG)가 생성될 수 있다. 일부 실시예들에서, 독출 회로(13)는 상관 이중 샘플링(CDS)에 기초하여 픽셀 신호로부터 디지털 신호(DSIG)를 생성할 수 있다.In step S60, a digital signal DSIG may be generated. For example, the read circuit 13 may generate the digital signal DSIG from a pixel signal received from the pixel array 11 through a plurality of sense lines SLs. In some embodiments, the readout circuit 13 may generate the digital signal DSIG from the pixel signal based on correlated double sampling (CDS).

단계 S80에서, 디지털 신호(DSIG)의 제1 값 및 제2 값을 연산함으로써 이미지 데이터(IMG)가 생성될 수 있다. 디지털 신호(DSIG)의 제1 값은 제1 픽셀 그룹에 의해서 생성된 픽셀 신호에 대응할 수 있고, 디지털 신호(DSIG)의 제2 값은 제2 픽셀 그룹에 의해서 생성된 픽셀 신호에 대응할 수 있다. 신호 프로세서(15)는 제1 값 및 제2 값을 연산할 수 있고, 연산 결과에 기초하여 이미지 데이터(IMG)를 생성할 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 제1 값 및 제2 값의 가중합(weighted sum)을 계산할 수 있고, 가중합에 기초하여 이미지 데이터(IMG)를 생성할 수 있다. 단계 S80의 예시가 도 12을 참조하여 설명될 것이다.In step S80 , the image data IMG may be generated by calculating the first and second values of the digital signal DSIG. A first value of the digital signal DSIG may correspond to a pixel signal generated by a first pixel group, and a second value of the digital signal DSIG may correspond to a pixel signal generated by a second pixel group. The signal processor 15 may calculate the first value and the second value, and generate image data IMG based on the calculation result. In some embodiments, the signal processor 15 may calculate a weighted sum of the first value and the second value and generate the image data IMG based on the weighted sum. An example of step S80 will be described with reference to FIG. 12 .

도 5a 내지 도 5e는 본 개시의 예시적 실시예들에 따른 픽셀 어레이(11)의 예시들을 나타낸다. 구체적으로, 도 5a 내지 도 5e는 상이하게 그룹핑된 픽셀들을 포함하는 픽셀 어레이들(11a 내지 11d)을 나타낸다. 도면들을 참조하여 전술된 바와 같이, 도 1의 픽셀 어레이(11)에 포함된 복수의 픽셀들은 2이상의 픽셀 그룹들로 그룹핑될 수 있고, 픽셀 그룹들 각각은 자신의 노출 시간을 가질 수 있다. 픽셀 어레이(11)에 포함되는 픽셀들은 도 5a 내지 도 5e에 도시된 바에 제한되지 아니하는 점의 유의된다. 이하에서, 도 5a 내지 도 5e에 대한 설명 중 중복되는 내용은 생략될 것이며, 도 5a 내지 도 5e는 도 1을 참조하여 설명될 것이다.5A-5E show examples of a pixel array 11 according to exemplary embodiments of the present disclosure. Specifically, FIGS. 5A to 5E show pixel arrays 11a to 11d including differently grouped pixels. As described above with reference to the drawings, a plurality of pixels included in the pixel array 11 of FIG. 1 may be grouped into two or more pixel groups, and each of the pixel groups may have its own exposure time. It should be noted that the pixels included in the pixel array 11 are not limited to those shown in FIGS. 5A to 5E. Hereinafter, overlapping descriptions of FIGS. 5A to 5E will be omitted, and FIGS. 5A to 5E will be described with reference to FIG. 1 .

도 1을 참조하여 전술된 바와 같이, 픽셀 어레이(11)는 조도에 따라 2이상의 영역들로 분할될 수 있다. 예를 들면, 도 5a 내지 도 5d의 픽셀 어레이들(11a 내지 11d) 각각은 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 제1 영역(R1)은 상대적으로 높은 조도에 대응하는 고조도 영역일 수 있고, 제2 영역(R2)은 상대적으로 낮은 조도에 대응하는 저조도 영역일 수 있다. 저조도 영역은 상대적으로 긴 노출 시간을 가지는 픽셀을 포함할 수 있고, 고조도 영역은 상대적으로 짧은 노출 시간을 가지는 픽셀을 포함할 수 있다. 도 5a 내지 도 5d에 도시된 바와 상이하게, 픽셀 어레이(11)는 3개 이상의 영역들로 분할될 수 있다. 일부 실시예들에서, 픽셀 어레이(11)에서 분할된 영역은, 저조도 영역 및 고조도 영역을 포함하는 3개 이상의 영역들 중 하나로 분류될 수 있다.As described above with reference to FIG. 1 , the pixel array 11 may be divided into two or more regions according to illuminance. For example, each of the pixel arrays 11a to 11d of FIGS. 5A to 5D may be divided into a first region R1 and a second region R2. The first region R1 may be a high illuminance region corresponding to a relatively high illuminance, and the second region R2 may be a low illuminance region corresponding to a relatively low illuminance. The low luminance area may include pixels having a relatively long exposure time, and the high luminance area may include pixels having a relatively short exposure time. Unlike those shown in FIGS. 5A to 5D , the pixel array 11 may be divided into three or more regions. In some embodiments, an area divided from the pixel array 11 may be classified into one of three or more areas including a low-intensity area and a high-intensity area.

일부 실시예들에서, 픽셀 어레이는, 고정된 위치의 픽셀들을 포함하고 고정된 노출 시간을 가지는 레퍼런스 픽셀 그룹(또는 레퍼런스 그룹)을 포함할 수 있다. 예를 들면, 도 5a 내지 도 5d의 픽셀 어레이들(11a 내지 1d)에서, 제1 픽셀 그룹(G1)은 레퍼런스 픽셀 그룹일 수 있고, 픽셀 어레이들(11a 내지 11d) 각각에서 고정된 위치 및 고정된 노출 시간을 가질 수 있다. 특히, 도 5a 및 도 5b의 제1 픽셀 그룹(G1)과 같이, 레퍼런스 픽셀 그룹이 픽셀 어레이의 일부 행들을 포함하는 경우, 레퍼런스 픽셀 그룹은 레퍼런스 로우(row)로 지칭될 수 있다. 도 5a 내지 도 5d는 레퍼런스 픽셀 그룹의 예시로서 제1 픽셀 그룹(G1)을 각각 도시하나, 레퍼런스 픽셀 그룹이 도 5a 내지 도 5d의 제1 픽셀 그룹(G1)에 제한되지 아니하는 점이 유의된다.In some embodiments, a pixel array may include a reference pixel group (or reference group) that includes pixels at a fixed location and has a fixed exposure time. For example, in the pixel arrays 11a to 1d of FIGS. 5A to 5D , the first pixel group G1 may be a reference pixel group, and has a fixed position and a fixed position in each of the pixel arrays 11a to 11d. exposure time can be obtained. In particular, as in the first pixel group G1 of FIGS. 5A and 5B , when the reference pixel group includes some rows of a pixel array, the reference pixel group may be referred to as a reference row. 5A to 5D each show a first pixel group G1 as an example of a reference pixel group, but it should be noted that the reference pixel group is not limited to the first pixel group G1 of FIGS. 5A to 5D.

일부 실시예들에서, 픽셀 그룹에 포함되는 픽셀들 각각은 복수의 서브-픽셀들을 포함할 수 있다. 예를 들면, 도 5a, 도 5c 및 도 5d에 도시된 바와 같이, 제1 픽셀 그룹(G1)에 포함되는 제1 픽셀(PX1)은 2개의 레드 픽셀들(R), 그린 픽셀(G) 및 블루 픽셀(B)을 포함할 수 있다. 또한, 제2 픽셀 그룹(G2)의 제2 픽셀(PX2) 및 제3 픽셀 그룹(G3)의 제3 픽셀(PX3) 역시 2개의 레드 픽셀들(R), 그린 픽셀(G) 및 블루 픽셀(B)을 포함할 수 있다. 도 5a에 도시된 바와 같이, 이미지에서 하나의 픽셀에 대응하는 2개의 레드 픽셀들(R), 그린 픽셀(G) 및 블루 픽셀(B)은 베이어(Bayer) 패턴으로 지칭될 수 있다.In some embodiments, each of the pixels included in a pixel group may include a plurality of sub-pixels. For example, as shown in FIGS. 5A, 5C, and 5D , the first pixel PX1 included in the first pixel group G1 includes two red pixels R, a green pixel G, and A blue pixel (B) may be included. Also, the second pixel PX2 of the second pixel group G2 and the third pixel PX3 of the third pixel group G3 also include two red pixels R, a green pixel G, and a blue pixel ( B) can be included. As shown in FIG. 5A , two red pixels R, a green pixel G, and a blue pixel B corresponding to one pixel in an image may be referred to as a Bayer pattern.

도 5a를 참조하면, 픽셀 어레이(11a)는 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 예를 들면, 신호 프로세서(15)는 디지털 신호(DSIG)에 기초하여 픽셀 어레이(11a)를, 고조도 대응하는 제1 영역(R1) 및 저조도 대응하는 제2 영역(R2)으로 분할할 수 있다. 신호 프로세서(15)는, 제1 영역(R1)이 짧은 노출 시간을 가지는 픽셀을 포함하고 제2 영역(R2)이 긴 노출 시간을 가지는 픽셀을 포함하도록, 설정 신호(SET)를 생성할 수 있다. 예를 들면, 도 5a에 도시된 바와 같이, 신호 프로세서(15)는, 제1 영역(R1)에서 제2 픽셀 그룹(G2)이 짧은 노출 시간을 가지고 제2 영역(R2)에서 제3 픽셀 그룹(G3)이 긴 노출 시간을 가지도록, 설정 신호(SET)를 생성할 수 있다.Referring to FIG. 5A , the pixel array 11a may be divided into a first region R1 and a second region R2. For example, the signal processor 15 may divide the pixel array 11a into a first region R1 corresponding to high luminance and a second region R2 corresponding to low luminance based on the digital signal DSIG. . The signal processor 15 may generate the setting signal SET so that the first region R1 includes pixels having a short exposure time and the second region R2 includes pixels having a long exposure time. . For example, as shown in FIG. 5A , the signal processor 15 has a short exposure time for the second pixel group G2 in the first region R1 and a third pixel group in the second region R2. The setting signal SET can be generated so that (G3) has a long exposure time.

제1 픽셀 그룹(G1)은 조도에 독립적으로 픽셀 어레이(11a)에서 규칙적으로 분포된 픽셀들을 포함할 수 있다. 예를 들면, 도 5a에 도시된 바와 같이, 제1 픽셀 그룹(G1)은 픽셀 어레이(11a)의 홀수(odd) 행들을 포함할 수 있다. 제1 픽셀 그룹(G1)은 조도에 독립적인, 즉 제1 영역(R1) 및 제2 영역(R2)에 독립적인 노출 시간을 가질 수 있다. 일부 실시예들에서, 제1 픽셀 그룹(G1)은 LED(light emitting diode) 플리커에 기인하여 11ms의 노출 시간을 가질 수 있고, 제1 영역(R1)의 제2 픽셀 그룹(G2)은 11ms보다 짧거나 같은 노출 시간(예컨대, 5.5ms, 9ms 등)을 가질 수 있으며, 제2 영역(R2)의 제3 픽셀 그룹(G3)은 11ms보다 길거나 같은 노출 시간(예컨대, 22ms)을 가질 수 있다.The first pixel group G1 may include pixels regularly distributed in the pixel array 11a independently of illuminance. For example, as shown in FIG. 5A , the first pixel group G1 may include odd rows of the pixel array 11a. The first pixel group G1 may have an exposure time independent of illuminance, that is, independent of the first region R1 and the second region R2. In some embodiments, the first pixel group G1 may have an exposure time of 11 ms due to light emitting diode (LED) flicker, and the second pixel group G2 of the first region R1 may have an exposure time of less than 11 ms. It may have a shorter or equal exposure time (eg, 5.5 ms, 9 ms, etc.), and the third pixel group G3 of the second region R2 may have an exposure time longer than or equal to 11 ms (eg, 22 ms).

도 5b를 참조하면, 픽셀 어레이(11b)는 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 신호 프로세서(15)는, 도 5b에 도시된 바와 같이, 고조도에 대응하는 제1 영역(R1)에서 제2 픽셀 그룹(G2)이 짧은 노출 시간을 가지고 저조도에 대응하는 제2 영역(R2)에서 제3 픽셀 그룹(G3)이 긴 노출 시간을 가지도록, 설정 신호(SET)를 생성할 수 있다. 제1 픽셀 그룹(G1)은 조도에 독립적으로 픽셀 어레이(11b)에서 규칙적으로 분포된 픽셀들을 포함할 수 있다. 예를 들면, 도 5b에 도시된 바와 같이, 제1 픽셀 그룹(G1)은 픽셀 어레이(11b)에서 3의 배수에 대응하는 인덱스들을 가지는 행들을 포함할 수 있다.Referring to FIG. 5B , the pixel array 11b may be divided into a first region R1 and a second region R2. As shown in FIG. 5B , in the signal processor 15, the second pixel group G2 has a short exposure time in the first region R1 corresponding to high luminance and the second region R2 corresponding to low luminance. In , the setting signal SET may be generated so that the third pixel group G3 has a long exposure time. The first pixel group G1 may include pixels regularly distributed in the pixel array 11b independently of illuminance. For example, as shown in FIG. 5B , the first pixel group G1 may include rows having indices corresponding to multiples of 3 in the pixel array 11b.

도 5c를 참조하면, 픽셀 어레이(11c)는 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 신호 프로세서(15)는, 도 5c에 도시된 바와 같이, 고조도에 대응하는 제1 영역(R1)에서 제2 픽셀 그룹(G2)이 짧은 노출 시간을 가지고 저조도에 대응하는 제2 영역(R2)에서 제3 픽셀 그룹(G3)이 긴 노출 시간을 가지도록, 설정 신호(SET)를 생성할 수 있다. 제1 픽셀 그룹(G1)은 조도에 독립적으로 픽셀 어레이(11b)에서 규칙적으로 분포된 픽셀들을 포함할 수 있다. 예를 들면, 도 5c에 도시된 바와 같이, 제1 픽셀 그룹(G1)은 등간격의 격자에 대응하는 위치들에 배치된 픽셀들을 포함할 수 있다.도 5d를 참조하면, 픽셀 어레이(11d)는 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 신호 프로세서(15)는, 도 5d에 도시된 바와 같이, 고조도에 대응하는 제1 영역(R1)에서 제2 픽셀 그룹(G2)이 짧은 노출 시간을 가지고 저조도에 대응하는 제2 영역(R2)에서 제3 픽셀 그룹(G3)이 긴 노출 시간을 가지도록, 설정 신호(SET)를 생성할 수 있다. 제1 픽셀 그룹(G1)은 조도에 독립적으로 픽셀 어레이(11b)에서 규칙적으로 분포된 픽셀들을 포함할 수 있다. 예를 들면, 도 5d에 도시된 바와 같이, 제1 픽셀 그룹(G1)은 등간격의 격자에 대응하는 위치들에 배치된 픽셀들을 포함할 수 있고, 도 5c의 제1 픽셀 그룹(G1)과 상이한 패턴에 대응할 수 있다.Referring to FIG. 5C , the pixel array 11c may be divided into a first region R1 and a second region R2. As shown in FIG. 5C , the signal processor 15 has a short exposure time for the second pixel group G2 in the first region R1 corresponding to high luminance and the second region R2 corresponding to low luminance. In , the setting signal SET may be generated so that the third pixel group G3 has a long exposure time. The first pixel group G1 may include pixels regularly distributed in the pixel array 11b independently of illuminance. For example, as shown in FIG. 5C , the first pixel group G1 may include pixels disposed at positions corresponding to a grid of equal intervals. Referring to FIG. 5D , the pixel array 11d may be divided into a first region R1 and a second region R2. As shown in FIG. 5D , the signal processor 15 has a short exposure time for the second pixel group G2 in the first region R1 corresponding to high luminance and the second region R2 corresponding to low luminance. In , the setting signal SET may be generated so that the third pixel group G3 has a long exposure time. The first pixel group G1 may include pixels regularly distributed in the pixel array 11b independently of illuminance. For example, as shown in FIG. 5D , the first pixel group G1 may include pixels disposed at positions corresponding to a lattice at regular intervals, similar to the first pixel group G1 of FIG. 5C. It can correspond to different patterns.

도 5e를 참조하면, 픽셀 어레이(11e)는 제1 영역(R1) 및 제2 영역(R2)으로 분할될 수 있다. 행 단위로 제1 영역(R1) 및 제2 영역(R2)으로 분할되는 도 5a 내지 도 5d의 픽셀 어레이들(11a 내지 11d)과 상이하게, 도 5e의 픽셀 어레이(11e)는 조도에 따라 임의의 형상들에 대응하는 영역들로 분할될 수 있다. 예를 들면, 도 5e에 도시된 바와 같이, 픽셀 어레이(11e)는 중앙에 배치되고 저조도에 대응하는 제2 영역(R2) 및 제2 영역(R2)을 둘러싸고 고조도에 대응하는 제1 영역(R1)으로 분할될 수 있다. 신호 프로세서(15)는, 제1 영역(R1)이 짧은 노출 시간을 가지는 픽셀을 포함하고 제2 영역(R2)이 긴 노출 시간을 가지는 픽셀을 포함하도록, 설정 신호(SET)를 생성할 수 있다. 예를 들면, 도 5e에 도시된 바와 같이, 신호 프로세서(15)는, 제1 영역(R1)에서 제2 픽셀 그룹(G2)이 짧은 노출 시간을 가지고 제2 영역(R2)에서 제3 픽셀 그룹(G3)이 긴 노출 시간을 가지도록, 설정 신호(SET)를 생성할 수 있다. 도 5c에 도시된 바와 같이, 레퍼런스 픽셀 그룹에 대응하는 제1 픽셀 그룹(G1)은 등간격의 격자에 대응하는 위치들에 배치된 픽셀들을 포함할 수 있다.Referring to FIG. 5E , the pixel array 11e may be divided into a first region R1 and a second region R2. Unlike the pixel arrays 11a to 11d of FIGS. 5A to 5D that are divided into the first region R1 and the second region R2 in row units, the pixel array 11e of FIG. 5E is arbitrary according to the illuminance. It can be divided into regions corresponding to the shapes of . For example, as shown in FIG. 5E, the pixel array 11e is disposed in the center and has a second region R2 corresponding to low luminance and a first region surrounding the second region R2 and corresponding to high luminance ( R1) can be divided into The signal processor 15 may generate the setting signal SET so that the first region R1 includes pixels having a short exposure time and the second region R2 includes pixels having a long exposure time. . For example, as shown in FIG. 5E , the signal processor 15 has a short exposure time for the second pixel group G2 in the first region R1 and a third pixel group in the second region R2. The setting signal SET can be generated so that (G3) has a long exposure time. As shown in FIG. 5C , the first pixel group G1 corresponding to the reference pixel group may include pixels arranged at positions corresponding to the grid at regular intervals.

도 6a 및 도 6b는 본 개시의 예시적 실시예들에 따른 이미지 센서(10)의 동작의 예시들을 나타내는 도면이다. 구체적으로, 도 6a 및 도 6b는 도 1의 신호 프로세서(15)에 의해서 수행되는 연산의 예시들을 나타낸다. 도면들을 참조하여 전술된 바와 같이, 신호 프로세서(15)는 픽셀 그룹들에 대응하는 디지털 신호(DSIG)의 값들을 연산할 수 있고, 연산 결과에 기초하여 이미지 데이터(IMG)를 생성할 수 있다. 이하에서, 도 6a 및 도 6b는 도 1을 참조하여 설명될 것이다.6A and 6B are diagrams illustrating examples of operations of the image sensor 10 according to exemplary embodiments of the present disclosure. Specifically, FIGS. 6A and 6B show examples of operations performed by the signal processor 15 of FIG. 1 . As described above with reference to the drawings, the signal processor 15 may calculate values of the digital signal DSIG corresponding to the pixel groups and generate image data IMG based on the calculation result. In the following, FIGS. 6A and 6B will be described with reference to FIG. 1 .

도 6a의 좌측을 참조하면, 픽셀 어레이(11)는 고조도에 대응하는 제1 영역(R1) 및 저조도에 대응하는 제2 영역(R2)을 포함할 수 있다. 제1 영역(R1)은 레퍼런스 픽셀로서 제1 픽셀(PX1) 및 어댑티브 픽셀로서 제2 픽셀(PX2)을 포함할 수 있다. 제2 영역(R2)은 레퍼런스 픽셀로서 제3 픽셀(PX3) 및 어댑티브 픽셀로서 제4 픽셀(PX4)을 포함할 수 있다. 도 5a 내지 도 5d를 참조하여 전술된 바와 같이, 제1 픽셀(PX1) 및 제3 픽셀(PX3)은 레퍼런스 픽셀 그룹에 포함될 수 있고, 고정된 노출 시간(예컨대, 11ms)을 가질 수 있다. 또한, 제1 영역(R1)의 제2 픽셀(PX2)은 레퍼런스 픽셀보다 짧거나 같은 노출 시간을 가질 수 있고, 제2 영역(R2)의 제4 픽셀(PX4)은 레퍼런스 픽셀보다 길거나 같은 노출 시간을 가질 수 있다.Referring to the left side of FIG. 6A , the pixel array 11 may include a first region R1 corresponding to high luminance and a second region R2 corresponding to low luminance. The first region R1 may include a first pixel PX1 as a reference pixel and a second pixel PX2 as an adaptive pixel. The second region R2 may include a third pixel PX3 as a reference pixel and a fourth pixel PX4 as an adaptive pixel. As described above with reference to FIGS. 5A to 5D , the first pixel PX1 and the third pixel PX3 may be included in the reference pixel group and may have a fixed exposure time (eg, 11 ms). Also, the second pixel PX2 of the first region R1 may have an exposure time shorter than or equal to that of the reference pixel, and the fourth pixel PX4 of the second region R2 may have an exposure time longer than or equal to the reference pixel. can have

일부 실시예들에서, 신호 프로세서(15)는 디지털 신호(DSIG)의 값들의 가중합을 계산할 수 있다. 예를 들면, 도 6a에 도시된 바와 같이, 픽셀 어레이(11)의 제1 픽셀(PX1)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W11이 곱과, 제2 픽셀(PX2)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W21의 곱이 합산될 수 있고, 이미지 데이터(IMG)의 제1 픽셀(PX1')의 값은 계산된 가중합에 대응할 수 있다. 픽셀 어레이(11)의 제1 픽셀(PX1)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W12이 곱과, 제2 픽셀(PX2)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W22의 곱이 합산될 수 있고, 이미지 데이터(IMG)의 제2 픽셀(PX2')의 값은 계산된 가중합에 대응할 수 있다. 픽셀 어레이(11)의 제3 픽셀(PX3)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W31이 곱과, 제4 픽셀(PX4)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W41의 곱이 합산될 수 있고, 이미지 데이터(IMG)의 제3 픽셀(PX3')의 값은 계산된 가중합에 대응할 수 있다. 픽셀 어레이(11)의 제3 픽셀(PX3)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W32이 곱과, 제4 픽셀(PX4)에 대응하는 디지털 신호(DSIG)의 값 및 가중치 W42의 곱이 합산될 수 있고, 이미지 데이터(IMG)의 제4 픽셀(PX4')의 값은 계산된 가중합에 대응할 수 있다. 일부 실시예들에서, 도 6a에 도시된 바와 상이하게, 픽셀 어레이(11)에서 3개 이상의 인접한 픽셀들에 대응하는 값들의 가중합이 이미지 데이터(IMG)의 계산될 수도 있다.In some embodiments, signal processor 15 may calculate a weighted sum of values of digital signal DSIG. For example, as shown in FIG. 6A , the value of the digital signal DSIG corresponding to the first pixel PX1 of the pixel array 11 and the weight W11 are multiplied by a value corresponding to the second pixel PX2. The product of the value of the digital signal DSIG and the weight W21 may be added, and the value of the first pixel PX1 ′ of the image data IMG may correspond to the calculated weighted sum. The product of the value of the digital signal DSIG corresponding to the first pixel PX1 of the pixel array 11 and the weight W12 and the product of the value of the digital signal DSIG corresponding to the second pixel PX2 and the weight W22 are The value of the second pixel PX2 ′ of the image data IMG may correspond to the calculated weighted sum. The product of the value of the digital signal DSIG corresponding to the third pixel PX3 of the pixel array 11 and the weight W31 is the product of the value of the digital signal DSIG corresponding to the fourth pixel PX4 and the weight W41. The value of the third pixel PX3 ′ of the image data IMG may correspond to the calculated weighted sum. The product of the value of the digital signal DSIG corresponding to the third pixel PX3 of the pixel array 11 and the weight W32 and the product of the value of the digital signal DSIG corresponding to the fourth pixel PX4 and the weight W42 are The value of the fourth pixel PX4 ′ of the image data IMG may correspond to the calculated weighted sum. In some embodiments, differently from that shown in FIG. 6A , a weighted sum of values corresponding to three or more adjacent pixels in the pixel array 11 may be calculated for the image data IMG.

일부 실시예들에서, 가중치들은 노출 시간에 기초하여 정의될 수 있다. 예를 들면, 제1 픽셀(PX1)의 노출 시간은 제2 픽셀(PX2)의 노출 시간보다 길거나 같을 수 있고, 이에 따라 제1 픽셀(PX1)의 가중치(예컨대, W11)는 제2 픽셀(PX2)의 가중치(예컨대, W21)보다 작을 수 있다. 또한, 제3 픽셀(PX3)의 노출 시간은 제4 픽셀(PX4)의 노출 시간보다 짧거나 같을 수 있고, 이에 따라, 제3 픽셀(PX3)의 가중치(예컨대, W31)는 제4 픽셀의 가중치(예컨대, W41)보다 클 수 있다.In some embodiments, weights may be defined based on exposure time. For example, the exposure time of the first pixel PX1 may be longer than or equal to the exposure time of the second pixel PX2 , and accordingly, the weight (eg, W11) of the first pixel PX1 is the second pixel PX2. ) may be smaller than the weight (eg, W21). Also, the exposure time of the third pixel PX3 may be shorter than or equal to the exposure time of the fourth pixel PX4 , and accordingly, the weight (eg, W31) of the third pixel PX3 is the weight of the fourth pixel. (eg W41).

일부 실시예들에서, 가중치들은 이미지 데이터(IMG)의 해상도(resolution) 또는 선예도(sharpness)에 기초하여 정의될 수 있다. 예를 들면, 제1 픽셀(PX1)의 가중치 W11 및 가중치 W12가 상이할 수 있고, 그리고/또는 제2 픽셀(PX2)의 가중치 W21 및 가중치 W22가 상이할 수 있다. 이에 따라, 이미지 데이터(IMG)의 제1 픽셀(PX1') 및 제2 픽셀(PX2')은 상이한 값들을 각각 가질 수 있다. 또한, 제3 픽셀(PX3)의 가중치 W31 및 가중치 W32가 상이할 수 있고, 그리고/또는 제4 픽셀(PX4)의 가중치 W31 및 가중치 W42가 상이할 수 있다. 이에 따라, 이미지 데이터(IMG)의 제3 픽셀(PX3') 및 제4 픽셀(PX4')은 상이한 값들을 각각 가질 수 있다.In some embodiments, weights may be defined based on resolution or sharpness of the image data IMG. For example, the weights W11 and W12 of the first pixel PX1 may be different, and/or the weights W21 and W22 of the second pixel PX2 may be different. Accordingly, the first pixel PX1' and the second pixel PX2' of the image data IMG may have different values, respectively. Also, the weights W31 and W32 of the third pixel PX3 may be different, and/or the weights W31 and W42 of the fourth pixel PX4 may be different. Accordingly, the third pixel PX3 ′ and the fourth pixel PX4 ′ of the image data IMG may have different values.

전술된 바와 같이, 신호 프로세서(15)는 상이한 노출 시간들을 각각 가지는 픽셀들에 대하여 비닝(binning)을 수행할 수 있고, 이에 따라 도 7a 내지 도 8b를 참조하여 후술되는 바와 같이, 이미지 센서(10) 개선된 성능을 가질 수 있다.As described above, the signal processor 15 may perform binning on pixels each having different exposure times, and accordingly, as described below with reference to FIGS. 7A to 8B , the image sensor 10 ) may have improved performance.

도 6b를 참조하면, 비닝에 의해서 이미지 데이터(IMG)의 해상도가 변동할 수 있다. 예를 들면, 도 6b에 도시된 바와 같이, 픽셀 어레이(11)에서 상호 인접한 제1 내지 제4 픽셀(PX1 내지 PX4)로부터 상이한 해상도의 제1 내지 제3 이미지 데이터(IMG1 내지 IMG3)가 생성될 수 있다. 도 6a의 이미지 데이터(IMG)와 같이, 제1 이미지 데이터(IMG1)는 픽셀 어레이(11)에 대응하는 해상도를 가질 수 있다. 일부 실시예들에서, 제1 이미지 데이터(IMG1)의 제1 픽셀(PX1') 및 제3 픽셀(PX3')의 값들은 픽셀 어레이(11)의 제1 픽셀(PX1) 및 제3 픽셀(PX3)에 대한 비닝에 의해서 생성될 수 있고, 제1 이미지 데이터(IMG1)의 제1 픽셀(PX1') 및 제3 픽셀(PX3')의 값들은 픽셀 어레이(11)의 제2 픽셀(PX21) 및 제4 픽셀(PX4)에 대한 비닝에 의해서 생성될 수 있다. 일부 실시예들에서, 제1 이미지 데이터(IMG1)의 제1 내지 제4 픽셀(PX1' 내지 PX4')의 값들은 픽셀 어레이(11)의 제1 내지 제4 픽셀(PX1 내지 PX4)에 대한 비닝에 의해서 생성될 수 있다.Referring to FIG. 6B , the resolution of image data IMG may vary by binning. For example, as shown in FIG. 6B , first to third image data IMG1 to IMG3 having different resolutions are generated from first to fourth pixels PX1 to PX4 adjacent to each other in the pixel array 11. can Like the image data IMG of FIG. 6A , the first image data IMG1 may have a resolution corresponding to the pixel array 11 . In some embodiments, the values of the first pixel PX1' and the third pixel PX3' of the first image data IMG1 are the values of the first pixel PX1 and the third pixel PX3 of the pixel array 11. ), and the values of the first pixel PX1' and the third pixel PX3' of the first image data IMG1 are the values of the second pixels PX21 and PX21 of the pixel array 11. It may be generated by binning the fourth pixel PX4 . In some embodiments, the values of the first to fourth pixels PX1' to PX4' of the first image data IMG1 are binned with respect to the first to fourth pixels PX1 to PX4 of the pixel array 11. can be created by

제2 이미지 데이터(IMG2)의 제1 픽셀(PX1')의 값은 픽셀 어레이(11)의 제1 픽셀(PX1) 및 제3 픽셀(PX3)에 대한 비닝에 의해서 생성될 수 있고, 제2 이미지 데이터(IMG2)의 제2 픽셀(PX2')의 값은 픽셀 어레이(11)의 제2 픽셀(PX2) 및 제4 픽셀(PX4)에 대한 비닝에 의해서 생성될 수 있다. 이에 따라, 제2 이미지 데이터(IMG2)는 제1 이미지 데이터(IMG1)보다 낮은 해상도의 이미지에 대응할 수 있다. 또한, 제3 이미지 데이터(IMG3)의 제1 픽셀(PX1')의 값은 픽셀 어레이(11)의 제1 내지 제4 픽셀(PX1 내지 PX4)의 비닝에 의해서 생성될 수 있다. 이에 따라, 제3 이미지 데이터(IMG3)는 제1 이미지 데이터(IMG1) 및 제2 이미지 데이터(IMG2)보다 낮은 해상도의 이미지에 대응할 수 있다.The value of the first pixel PX1' of the second image data IMG2 may be generated by binning the first pixel PX1 and the third pixel PX3 of the pixel array 11, and The value of the second pixel PX2 ′ of the data IMG2 may be generated by binning the second pixel PX2 and the fourth pixel PX4 of the pixel array 11 . Accordingly, the second image data IMG2 may correspond to an image having a lower resolution than the first image data IMG1. Also, the value of the first pixel PX1 ′ of the third image data IMG3 may be generated by binning the first to fourth pixels PX1 to PX4 of the pixel array 11 . Accordingly, the third image data IMG3 may correspond to an image having a lower resolution than the first image data IMG1 and the second image data IMG2.

도 7a 및 도 7b는 본 개시의 예시적 실시예들에 따른 이미지 센서(10)의 SNR-HDR 그래프들을 나타낸다. 구체적으로, 도 7a의 그래프는 저조도 영역에서 이미지 센서(10)의 SNR-HDR 그래프를 나타내고, 도 7b의 그래프는 고조도 영역에서 이미지 센서(10)의 SNR-HDR 그래프를 나타낸다. 이하에서, 도 7a 및 도 7b는 도 6a를 참조하여 설명될 것이다.7A and 7B show SNR-HDR graphs of the image sensor 10 according to exemplary embodiments of the present disclosure. Specifically, the graph of FIG. 7A represents the SNR-HDR graph of the image sensor 10 in a low-illuminance area, and the graph of FIG. 7B represents the SNR-HDR graph of the image sensor 10 in a high-illuminance area. Hereinafter, FIGS. 7A and 7B will be described with reference to FIG. 6A.

도 7a를 참조하면, 제1 곡선(71a)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우에 대응할 수 있고, 제2 곡선(72a)은 도면들을 참조하여 전술된 바와 같이, 저조도 영역에서 픽셀 그룹들에 상이한 노출 시간들을 적용한 경우에 대응할 수 있다. 도 7a의 A와 같이, 제2 곡선(72a)은 저조도에서 제1 곡선(71a)보다 높은 SNR을 가질 수 있고, 이미지 센서(10)는 개선된 저조도 SNR을 제공할 수 있다. 예를 들면, 저조도에 대응하는 도 6a의 제2 영역(R2)에서 제3 픽셀(PX3)의 노출 시간이 11ms이고, 제4 픽셀(PX4)의 노출 시간이 22ms인 경우, 2배 연장된 노출 시간에 기인하여 제4 픽셀(PX4)의 경우 약 6dB의 SNR이 증가할 수 있고, 가중치들 W31, W32, W41 및 W42가 모두 동일한 경우, 비닝에 의해서 아래 [수학식 1]과 같이 약 5dB의 SNR이 증가할 수 있다.Referring to FIG. 7A, a first curve 71a may correspond to a case where the same exposure time is applied to all pixels of the pixel array 11, and a second curve 72a, as described above with reference to the drawings, This may correspond to a case in which different exposure times are applied to pixel groups in a low-illuminance area. As shown in A of FIG. 7A , the second curve 72a may have a higher SNR than the first curve 71a in low light, and the image sensor 10 may provide improved low light SNR. For example, when the exposure time of the third pixel PX3 is 11 ms and the exposure time of the fourth pixel PX4 is 22 ms in the second region R2 of FIG. 6A corresponding to low illumination, the exposure time is doubled. Due to time, the SNR of about 6 dB may increase in the case of the fourth pixel PX4, and when the weights W31, W32, W41, and W42 are all the same, by binning, as shown in [Equation 1] below, about 5 dB of SNR may increase.

Figure pat00001
Figure pat00001

Figure pat00002
Figure pat00002

Figure pat00003
Figure pat00003

Figure pat00004
Figure pat00004

Figure pat00005
Figure pat00005

Figure pat00006
Figure pat00006

[수학식 1]에서, 상이한 노출 시간들에 기인하여 정규화(normalization)가 수행될 수 있고, 일부 실시예들에서 정규화는 가중치들에 반영될 수도 있다. In [Equation 1], normalization may be performed due to different exposure times, and normalization may be reflected in weights in some embodiments.

도 7b를 참조하면, 도 7b에서 제1 곡선(71b)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우를 나타내고, 제2 곡선(72b)은 도면들을 참조하여 전술된 바와 같이, 고조도 영역에서 픽셀 그룹들에 상이한 노출 시간들을 적용한 경우에 대응할 수 있다. 도 7b의 B와 같이, 제2 곡선(72b)은 제1 곡선(71b)보다 고조도 영역에서 확장된 HDR을 가질 수 있고, 이미지 센서(10)는 개선된 HDR을 제공할 수 있다. 예를 들면, 고조도에 대응하는 도 6a의 제1 영역(R1)에서 제1 픽셀(PX1)의 노출 시간이 11ms이고, 제2 픽셀(PX2)의 노출 시간이 5.5ms인 경우, 제2 픽셀(PX2)에서 수용가능한 최도 조도가 증가할 수 있고, 아래 [수학식 2]와 같이 HDR은 6dB 확장될 수 있다.Referring to FIG. 7B , a first curve 71b in FIG. 7B represents a case in which the same exposure time is applied to all pixels of the pixel array 11, and a second curve 72b is as described above with reference to the drawings. , may correspond to a case in which different exposure times are applied to pixel groups in the high luminance area. As shown in B of FIG. 7B , the second curve 72b may have extended HDR in the high luminance region than the first curve 71b, and the image sensor 10 may provide improved HDR. For example, when the exposure time of the first pixel PX1 is 11 ms and the exposure time of the second pixel PX2 is 5.5 ms in the first region R1 of FIG. 6A corresponding to high luminance, the second pixel At (PX2), the maximum acceptable illuminance can be increased, and HDR can be extended by 6dB as shown in [Equation 2] below.

Figure pat00007
Figure pat00007

도 8a 및 도 8b는 본 개시의 예시적 실시예들에 따른 이미지 센서(10)의 SNR-HDR 그래프들을 나타낸다. 구체적으로, 도 8a의 그래프는 저조도 영역에서 고온 상태의 이미지 센서(10)의 SNR-HDR 그래프를 나타내고, 도 8b의 그래프는 고조도 영역에서 고온 상태의 이미지 센서(10)의 SNR-HDR 그래프를 나타낸다. 이하에서, 도 8a 및 도 8b는 도 1을 참조하여 설명될 것이다.8A and 8B show SNR-HDR graphs of the image sensor 10 according to exemplary embodiments of the present disclosure. Specifically, the graph of FIG. 8A shows the SNR-HDR graph of the image sensor 10 in a high-temperature state in a low-illuminance area, and the graph of FIG. 8B shows the SNR-HDR graph of the image sensor 10 in a high-temperature state in a high-illuminance area. indicate In the following, FIGS. 8A and 8B will be described with reference to FIG. 1 .

이미지 센서(10)는, 도 3을 참조하여 전술된 바와 같이, 이미지 결합 지점에서 양호한 SNR을 가질 것이 요구될 수 있고, 특히 이미지 결합 지점의 SNR은 이미지 센서(10)가 고온인 경우 열화될 수 있다. 도면들을 참조하여 전술된 바와 같이, 상이한 노출 시간들을 각각 가지는 픽셀들이 비닝될 수 있고, 픽셀들에서 노이즈 차이가 큰 경우, 노이즈가 높은 픽셀을 기준으로 약 5dB의 SNR이 증가할 수 있다. 또한, 상이한 노출 시간들을 각각 가지는 픽셀들이 비닝될 수 있고, 픽셀들에서 노이즈가 유사한 경우, 약 3dB의 SNR이 증가할 수 있다. 이에 따라, DSNU(dark signal non-uniformity)와 같이, 상이한 구간들 사이에서 발생하는 SNR 딥(dip)은, 상이한 노출 시간들을 각각 가지는 픽셀들의 비닝에 의해서 크게 개선될 수 있다. 즉, SNR이 취약한 구간에 추가적인 구간을 배치하는 효과가 발생할 수 있고, 결과적으로 전체 SNR이 개선되는 효과가 발생할 수 있다.The image sensor 10 may be required to have a good SNR at the image joint point, as described above with reference to FIG. 3 , and in particular the SNR at the image joint point may degrade when the image sensor 10 is at a high temperature. there is. As described above with reference to the drawings, pixels each having different exposure times may be binned, and when a difference in noise between pixels is large, an SNR of about 5 dB may be increased based on a pixel with high noise. Also, pixels each having different exposure times can be binned, and if the noise in the pixels is similar, the SNR of about 3dB can be increased. Accordingly, SNR dips occurring between different sections, such as dark signal non-uniformity (DSNU), can be greatly improved by binning pixels each having different exposure times. That is, an effect of disposing an additional section in a section having a weak SNR may occur, and as a result, an effect of improving the overall SNR may occur.

도 8a를 참조하면, 도 8a에서 제1 곡선(81a)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우에 대응할 수 있고, 제2 곡선(82a)은 도면들을 참조하여 전술된 바와 같이, 저조도 영역에서 픽셀 그룹들에 상이한 노출 시간들을 적용한 경우에 대응할 수 있다. 도 8a의 A, B 및 C와 같이, 제2 곡선(82a)은 이미지 결합 지점들에서 제1 곡선(81a)보다 높은 SNR을 가질 수 있고, 이미지 센서(10)는 이미지 결합 지점들에서 개선된 SNR들을 제공할 수 있다.Referring to FIG. 8A, a first curve 81a in FIG. 8A may correspond to a case where the same exposure time is applied to all pixels of the pixel array 11, and a second curve 82a may correspond to the case described above with reference to the drawings. As such, it may correspond to a case in which different exposure times are applied to pixel groups in a low-light area. As shown in A, B, and C of FIG. 8A, the second curve 82a may have a higher SNR than the first curve 81a at the image combining points, and the image sensor 10 may have an improved SNR at the image combining points. SNRs can be provided.

도 8b를 참조하면, 도 8b에서 제1 곡선(81b)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우에 대응할 수 있고, 제2 곡선(82b)은 도면들을 참조하여 전술된 바와 같이, 고조도 영역에서 픽셀 그룹들에 상이한 노출 시간들을 적용한 경우에 대응할 수 있다. 도 8b의 D, E 및 F와 같이, 제2 곡선(82b)은 이미지 결합 지점들에서 제1 곡선(81b)보다 높은 SNR을 가질 수 있고, 이미지 센서(10)는 이미지 결합 지점들에서 개선된 SNR들을 제공할 수 있다.Referring to FIG. 8B, a first curve 81b in FIG. 8B may correspond to a case where the same exposure time is applied to all pixels of the pixel array 11, and a second curve 82b may correspond to the case described above with reference to the drawings. As such, it may correspond to a case in which different exposure times are applied to pixel groups in a high luminance area. As shown in D, E and F of FIG. 8B, the second curve 82b may have a higher SNR than the first curve 81b at the image combining points, and the image sensor 10 may have an improved SNR at the image combining points. SNRs can be provided.

도 9는 본 개시의 예시적 실시예에 따라 이미지 센서(10)에 의해서 수행되는 방법을 나타내는 순서도이다. 도 9에 도시된 바와 같이, 이미지 센서(10)에 의해서 수행되는 방법은 복수의 단계들(S12, S14, S16)을 포함할 수 있다. 일부 실시예들에서, 도 9의 방법은 도 4의 단계 S20가 수행되기 전에 도 1의 신호 프로세서(15)에 의해서 수행될 수 있다. 이하에서, 도 9는 도 1을 참조하여 설명될 것이다.9 is a flowchart illustrating a method performed by image sensor 10 according to an exemplary embodiment of the present disclosure. As shown in FIG. 9 , the method performed by the image sensor 10 may include a plurality of steps S12, S14, and S16. In some embodiments, the method of FIG. 9 may be performed by signal processor 15 of FIG. 1 before step S20 of FIG. 4 is performed. In the following, FIG. 9 will be described with reference to FIG. 1 .

도 9를 참조하면, 단계 S12에서 조도가 식별될 수 있다. 예를 들면, 신호 프로세서(15)는 디지털 신호(DSIG)에 기초하여 피사체의 조도를 식별할 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 픽셀 어레이(11)에 포함된 복수의 픽셀들 전체에 대응하는 디지털 신호(DSIG)의 값들에 기초하여 조도를 식별할 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 픽셀 어레이(11)에 포함된 복수의 픽셀들 중 일부(예컨대, 등간격 격자에 대응하는 픽셀들)에 대응하는 디지털 신호(DSIG)의 값들에 기초하여 조도를 식별할 수 있다.Referring to FIG. 9 , illuminance may be identified in step S12. For example, the signal processor 15 may identify the illuminance of a subject based on the digital signal DSIG. In some embodiments, the signal processor 15 may identify illuminance based on values of the digital signal DSIG corresponding to all of the plurality of pixels included in the pixel array 11 . In some embodiments, the signal processor 15 is based on values of the digital signal DSIG corresponding to some of the plurality of pixels included in the pixel array 11 (eg, pixels corresponding to an equally spaced grid). Thus, the intensity can be identified.

단계 S14에서, 픽셀 그룹 및 노출 시간이 식별될 수 있다. 예를 들면, 신호 프로세서(15)는 단계 S12에서 식별된 조도를 적어도 하나의 문턱값과 비교할 수 있다. 신호 프로세서(15)는, 적어도 하나의 문턱값에 의해서 정의되는 2이상의 조도 범위들 중 동일한 조도 범위에 포함되는 픽셀들을 하나의 영역으로 정의할 수 있다. 신호 프로세서(15)는 픽셀 어레이(11)를 2이상의 영역들로 분할할 수 있고, 분할된 영역들 각각에서 픽셀 그룹을 식별할 수 있다. 일부 실시예들에서, 도 5a 내지 도 5d를 참조하여 전술된 바와 같이, 픽셀 어레이(11)는 레퍼런스 픽셀 그룹을 포함할 수 있고, 신호 프로세서(15)는, 분할된 영역에서 레퍼런스 픽셀 그룹을 제외한 픽셀들을 포함하는 픽셀 그룹을 식별할 수 있다. 일부 실시예들에서, 신호 프로세서(15)는, 조도 범위 및 노출 시간의 복수의 쌍들을 저장하는 룩업 테이블을 참조할 수 있고, 픽셀 그룹에 대응하는 노출 시간을 식별할 수 있다.At step S14, pixel groups and exposure times can be identified. For example, the signal processor 15 may compare the illuminance identified in step S12 with at least one threshold value. The signal processor 15 may define pixels included in the same illuminance range among two or more illuminance ranges defined by at least one threshold value as one area. The signal processor 15 may divide the pixel array 11 into two or more regions and identify a pixel group in each of the divided regions. In some embodiments, as described above with reference to FIGS. 5A to 5D , the pixel array 11 may include a reference pixel group, and the signal processor 15 may exclude the reference pixel group from the divided area. A pixel group containing pixels may be identified. In some embodiments, signal processor 15 may refer to a lookup table that stores a plurality of pairs of illuminance range and exposure time, and may identify an exposure time corresponding to a pixel group.

단계 S16에서, 컨트롤러(14)가 설정될 수 있다. 예를 들면, 신호 프로세서(15)는 단계 S14에서 식별된 픽셀 그룹 및 노출 시간에 기초하여 컨트롤러(14)를 설정할 수 있다. 신호 프로세서(15)는 식별된 픽셀 그룹 및 노출 시간에 대한 정보를 포함하는 설정 신호(SET)를 생성할 수 있고, 컨트롤러(14)는 설정 신호(SET)에 포함된 정보에 따라 드라이버(12)를 제어할 수 있다. 이에 따라, 드라이버(12)는, 단계 S14에서 식별된 픽셀 그룹이 단계 S14에서 식별된 노출 시간을 가지도록 구동할 수 있다. 단계 S16의 예시들이 도 10a 및 도 10b를 참조하여 후술될 것이다.In step S16, the controller 14 can be set. For example, the signal processor 15 may set the controller 14 based on the pixel group and exposure time identified in step S14. The signal processor 15 may generate a set signal SET including information on the identified pixel group and exposure time, and the controller 14 may generate the driver 12 according to the information included in the set signal SET. can control. Accordingly, the driver 12 may drive the pixel group identified in step S14 to have the exposure time identified in step S14. Examples of step S16 will be described later with reference to FIGS. 10A and 10B.

도 10a 및 도 10b는 본 개시의 예시적 실시예들에 따라 이미지 센서(10)에 의해서 수행되는 방법의 예시들을 나타내는 순서도들이다. 구체적으로, 도 10a 및 도 10b의 순서도들은 도 9의 단계 S16의 예시들을 나타낸다. 도 9를 참조하여 전술된 바와 같이, 도 10a의 단계 S16a 및 도 10b의 단계 S16b에서 도 1의 신호 프로세서(15)는 컨트롤러(13)를 설정할 수 있다. 일부 실시예들에서, 도 9의 단계 S16은 도 10a의 단계 S16a 및 도 10b의 단계 S16b를 모두 포함할 수도 있다. 도 10a 및 도 10b에서 제2 픽셀 그룹 및 제3 픽셀 그룹은 도 5a 내지 도 5d의 제2 픽셀 그룹(G2) 및 제3 픽셀 그룹(G3)이고, 제1 픽셀 그룹(G1)은 고정된 제1 노출 시간(예컨대, 11ms)을 가지는 것으로 가정된다. 이하에서, 도 10a 및 도 10b는 도 5a 내지 도 5d를 참조하여 설명될 것이다.10A and 10B are flow charts illustrating examples of a method performed by image sensor 10 according to exemplary embodiments of the present disclosure. Specifically, the flowcharts of FIGS. 10A and 10B show examples of step S16 of FIG. 9 . As described above with reference to FIG. 9 , the signal processor 15 of FIG. 1 may set the controller 13 in step S16a of FIG. 10a and step S16b of FIG. 10b. In some embodiments, step S16 of FIG. 9 may include both step S16a of FIG. 10a and step S16b of FIG. 10b. The second pixel group and the third pixel group in FIGS. 10A and 10B are the second pixel group G2 and the third pixel group G3 of FIGS. 5A to 5D , and the first pixel group G1 is a fixed pixel group. It is assumed to have 1 exposure time (eg, 11 ms). Hereinafter, FIGS. 10A and 10B will be described with reference to FIGS. 5A to 5D.

도 10a를 참조하면, 단계 S16a는 단계 S16_2 및 단계 S16_4를 포함할 수 있다. 단계 S16_2에서, 제2 픽셀 그룹(G2)의 스몰 포토 다이오드(SPD)가 제2 노출 시간을 가지도록 컨트롤러(14)가 설정될 수 있다. 제2 픽셀 그룹(G2)은 고조도에 대응하는 제1 영역(R1)에 포함될 수 있고, 이에 따라 제2 노출 시간(예컨대, 5.5ms)은 제1 픽셀 그룹(G1)의 제1 노출 시간(예컨대, 11ms)보다 짧거나 같을 수 있다. 도 2b를 참조하여 전술된 바와 같이, 픽셀은 스몰 포토 다이오드(SPD) 및 라지 포토 다이오드(LPD)를 포함할 수 있고, 신호 프로세서(15)는 제2 픽셀 그룹(G2)에 포함된 픽셀의 스몰 포토 다이오드(SPD)가 제1 노출 시간보다 짧거나 같은 제2 노출 시간을 가지도록 컨트롤러(14)를 설정할 수 있다. 이에 따라, 이미지 센서(10)는 확장된 HDR을 제공할 수 있다.Referring to FIG. 10A , step S16a may include step S16_2 and step S16_4. In step S16_2 , the controller 14 may set the small photodiode SPD of the second pixel group G2 to have a second exposure time. The second pixel group G2 may be included in the first region R1 corresponding to the high luminance, and thus the second exposure time (eg, 5.5 ms) is the first exposure time of the first pixel group G1 ( For example, it may be shorter than or equal to 11ms). As described above with reference to FIG. 2B , the pixel may include a small photodiode (SPD) and a large photodiode (LPD), and the signal processor 15 may include a small photodiode of the pixels included in the second pixel group G2. The controller 14 may be set so that the photodiode SPD has a second exposure time shorter than or equal to the first exposure time. Accordingly, the image sensor 10 may provide extended HDR.

단계 S16_4에서, 제2 픽셀 그룹(G2)의 라지 포토 다이오드(LPD)가 제4 노출 시간을 가지도록 컨트롤러(14)가 설정될 수 있다. 제2 픽셀 그룹(G2)은 고조도에 대응하는 제1 영역(R1)에 포함될 수 있고, 이에 따라 단계 S16_2에서 제2 픽셀 그룹(G2)의 스몰 포토 다이오드(SPD)는 제1 노출 시간보다 짧거나 같은 제2 노출 시간으로 설정될 수 있는 한편, 단계 S16_4에서 제2 픽셀 그룹(G2)의 라지 포토 다이오드(LPD)는 제2 노출 시간보다 길거나 같은 제4 노출 시간(예컨대, 9ms 또는 11ms)을 가질 수 있다. 이에 따라, 도 11a를 참조하여 후술되는 바와 같이, 고조도 영역에서 어두운 피사체가 촬상되는 경우 발생할 수 있는 SNR 열화가 방지될 수 있다.In step S16_4, the controller 14 may set the large photodiode LPD of the second pixel group G2 to have a fourth exposure time. The second pixel group G2 may be included in the first region R1 corresponding to the high luminance, and accordingly, in step S16_2, the small photo diode SPD of the second pixel group G2 has a shorter exposure time than the first exposure time. Meanwhile, in step S16_4, the large photodiode LPD of the second pixel group G2 has a fourth exposure time equal to or longer than the second exposure time (eg, 9 ms or 11 ms). can have Accordingly, as will be described later with reference to FIG. 11A , SNR deterioration that may occur when a dark subject is captured in a high-illuminance area can be prevented.

도 10b를 참조하면, 단계 S16b는 단계 S16_6 및 단계 S16_8을 포함할 수 있다. 단계 S16_6에서, 제3 픽셀 그룹(G3)의 라지 포토 다이오드(LPD)가 제3 노출 시간을 가지도록 컨트롤러(14)가 설정될 수 있다. 제3 픽셀 그룹(G3)은 저조도에 대응하는 제2 영역(R2)에 포함될 수 있고, 이에 따라 제3 노출 시간(예컨대, 22ms)은 제1 픽셀 그룹(G1)의 제1 노출 시간(예컨대, 11ms)보다 길거나 같을 수 있다. 도 2b를 참조하여 전술된 바와 같이, 픽셀은 스몰 포토 다이오드(SPD) 및 라지 포토 다이오드(LPD)를 포함할 수 있고, 신호 프로세서(15)는 제3 픽셀 그룹(G3)에 포함된 픽셀의 라지 포토 다이오드(LPD)가 제1 노출 시간보다 길거나 같은 제3 노출 시간을 가지도록 컨트롤러(14)를 설정할 수 있다. 이에 따라, 이미지 센서(10)는 저조도에서 높은 SNR을 제공할 수 있다.Referring to FIG. 10B , step S16b may include step S16_6 and step S16_8. In step S16_6 , the controller 14 may set the large photodiode LPD of the third pixel group G3 to have a third exposure time. The third pixel group G3 may be included in the second region R2 corresponding to low luminance, and thus the third exposure time (eg, 22 ms) is the first exposure time (eg, 22 ms) of the first pixel group G1. 11 ms) or longer. As described above with reference to FIG. 2B , the pixel may include a small photodiode (SPD) and a large photodiode (LPD), and the signal processor 15 determines the large size of the pixel included in the third pixel group G3. The controller 14 may be set so that the photodiode LPD has a third exposure time longer than or equal to the first exposure time. Accordingly, the image sensor 10 may provide a high SNR in low light.

단계 S16_8에서, 제3 픽셀 그룹(G3)의 스몰 포토 다이오드(SPD)가 제5 노출 시간을 가지도록 컨트롤러(14)가 설정될 수 있다. 제3 픽셀 그룹(G3)은 저조도에 대응하는 제2 영역(R2)에 포함될 수 있고, 이에 따라 단계 S16_6에서 제3 픽셀 그룹(G3)의 라지 포토 다이오드(LPD)는 제1 노출 시간보다 길거나 같은 제3 노출 시간으로 설정될 수 있는 한편, 단계 S16_8에서 제3 픽셀 그룹(G3)의 스몰 포토 다이오드(SPD)는 제3 노출 시간보다 짧거나 같은 제4 노출 시간(예컨대, 5.5ms, 9ms 또는 11ms)을 가질 수 있다. 이에 따라, 도 11b를 참조하여 후술되는 바와 같이, 저조도 영역에서도 확장된 HDR이 제공될 수 있다.In step S16_8, the controller 14 may set the small photodiode SPD of the third pixel group G3 to have a fifth exposure time. The third pixel group G3 may be included in the second region R2 corresponding to the low luminance, and thus, in step S16_6, the large photodiode LPD of the third pixel group G3 is longer than or equal to the first exposure time. While it may be set to the third exposure time, the small photodiodes (SPDs) of the third pixel group G3 in step S16_8 have a fourth exposure time shorter than or equal to the third exposure time (eg, 5.5 ms, 9 ms, or 11 ms). ) can have. Accordingly, as described below with reference to FIG. 11B , extended HDR may be provided even in a low-illuminance area.

도 11a 및 도 11b는 본 개시의 예시적 실시예들에 따른 이미지 센서(10)의 SNR-HDR 그래프들을 나타낸다. 구체적으로, 도 11a는 도 10a의 단계 S16a를 수행하는 이미지 센서(10)의 SNR-HDR 그래프를 나타내고, 도 11b는 도 10b의 단계 S16b를 수행하는 이미지 센서(10)의 SNR-HDR 그래프를 나타낸다. 이하에서, 도 11a 및 도 11b는 도 5a 내지 도 5d를 참조하여 설명될 것이다.11A and 11B show SNR-HDR graphs of the image sensor 10 according to exemplary embodiments of the present disclosure. Specifically, FIG. 11A shows an SNR-HDR graph of the image sensor 10 performing step S16a of FIG. 10A, and FIG. 11B shows an SNR-HDR graph of the image sensor 10 performing step S16b of FIG. 10B. . Hereinafter, FIGS. 11A and 11B will be described with reference to FIGS. 5A to 5D.

도 10a를 참조하면, 제1 곡선(111a)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우에 대응할 수 있고, 제2 곡선(112a)은 도 11a를 참조하여 전술된 바와 같이, 고조도에 대응하는 제1 영역(R1)에서 제2 픽셀 그룹(G2)의 스몰 포토 다이오드(SPD)가 제1 노출 시간보다 짧거나 같은 제2 노출 시간을 가지고, 제2 픽셀 그룹(G2)의 라지 포토 다이오드(LPD)가 제2 노출 시간보다 길거나 같은 제4 노출 시간을 가질 수 있다. 이에 따라, 도 11a의 A와 같이, 제2 곡선(112a)은 저조도에서 제1 곡선(111a)보다 높은 SNR을 가질 수 있고, 이미지 데이터(IMG)는 고조도 영역에서도 어두운 피사체를 잘 나타낼 수 있다.Referring to FIG. 10A, a first curve 111a may correspond to a case in which the same exposure time is applied to all pixels of the pixel array 11, and a second curve 112a may correspond to a case as described above with reference to FIG. 11A. , the small photodiode SPD of the second pixel group G2 in the first region R1 corresponding to the high luminance has a second exposure time shorter than or equal to the first exposure time, and the second pixel group G2 The large photodiode LPD of may have a fourth exposure time longer than or equal to the second exposure time. Accordingly, as shown in A of FIG. 11A, the second curve 112a may have a higher SNR than the first curve 111a at low illumination, and the image data IMG may represent a dark subject well even in a high illumination region. .

도 10b를 참조하면, 제1 곡선(111b)은 픽셀 어레이(11)의 모든 픽셀들에 동일한 노출 시간을 적용한 경우에 대응할 수 있고, 제2 곡선(112b)은 도 11b를 참조하여 전술된 바와 같이, 저조도에 대응하는 제2 영역(R2)에서 제3 픽셀 그룹(G3)의 라지 포토 다이오드(LOD)가 제1 노출 시간보다 길거나 같은 제3 노출 시간을 가지고, 제3 픽셀 그룹(G3)의 스몰 포토 다이오드(SPD)가 제3 노출 시간보다 짧거나 같은 제5 노출 시간을 가질 수 있다. 이에 따라, 도 11b의 B와 같이, 제2 곡선(112b)은 제1 곡선(111b)보다 고조도 영역에서 확장된 HDR을 가질 수 있고, 이미지 데이터(IMG)는 저조도 영역에서도 밝은 피사체를 잘 나타낼 수 있다.Referring to FIG. 10B, the first curve 111b may correspond to a case where the same exposure time is applied to all pixels of the pixel array 11, and the second curve 112b may correspond to the case as described above with reference to FIG. 11B. , the large photodiode LOD of the third pixel group G3 has a third exposure time longer than or equal to the first exposure time in the second region R2 corresponding to low illumination, and the small photodiode LOD of the third pixel group G3 The photodiode SPD may have a fifth exposure time shorter than or equal to the third exposure time. Accordingly, as shown in B of FIG. 11B, the second curve 112b may have extended HDR in the high-illumination area than the first curve 111b, and the image data IMG may well represent a bright subject even in the low-illumination area. can

도 12는 본 개시의 예시적 실시예에 따라 이미지 센서(10)에 의해서 수행되는 방법을 나타내는 순서도이다. 구체적으로, 도 12의 순서도는 도 4의 단계 S80의 예시를 나타낸다. 도 4를 참조하여 전술된 바와 같이, 도 12의 단계 S80'에서 디지털 신호(DSIG)의 제1 값 및 제2 값을 연산함으로써 이미지 데이터(IMG)가 생성될 수 있다. 도 12에 도시된 바와 같이, 단계 S80'은 복수의 단계들(S82, S84, S86, S88)을 포함할 수 있다. 일부 실시예들에서, 단계 S80'은 도 1의 신호 프로세서(15)에 의해서 수행될 수 있고, 이하에서 도 12는 도 1을 참조하여 설명될 것이다.12 is a flowchart illustrating a method performed by image sensor 10 according to an exemplary embodiment of the present disclosure. Specifically, the flowchart of FIG. 12 shows an example of step S80 of FIG. 4 . As described above with reference to FIG. 4 , the image data IMG may be generated by calculating the first value and the second value of the digital signal DSIG in step S80 ′ of FIG. 12 . As shown in FIG. 12 , step S80' may include a plurality of steps S82, S84, S86, and S88. In some embodiments, step S80' may be performed by the signal processor 15 of FIG. 1, and FIG. 12 will be described with reference to FIG. 1 below.

도 12를 참조하면, 단계 S82에서 레퍼런스 픽셀의 제1 값 및 어댑티브 픽셀의 제2 값이 정규화될 수 있다. 도면들을 참조하여 전술된 바와 같이, 레퍼런스 픽셀 및 어댑티브 픽셀은 상이한 노출 시간들을 각각 가질 수 있다. 이에 따라, 동작 잡음(motion artifact) 및/또는 LED 플리커가 발생하는 환경에서 레퍼런스 픽셀 및 어댑티브 픽셀은 차이가 큰 픽셀 신호들을 각각 생성할 수 있다. 이에 따라, 신호 프로세서(15)는, 후술되는 바와 같이 레퍼런스 픽셀의 제1 값 및 어댑티브 픽셀의 제2 값을 비교하기 위하여, 노출 시간 차이를 보상함으로써 제1 값 및 제2 값을 정규화할 수 있다. 예를 들면, 어댑티브 픽셀의 노출 시간이 레퍼런스 픽셀의 노출 시간의 1/2인 경우, 제2 값은 2배로 정규화될 수 있다.Referring to FIG. 12 , in step S82, the first value of the reference pixel and the second value of the adaptive pixel may be normalized. As described above with reference to the figures, the reference pixel and the adaptive pixel may each have different exposure times. Accordingly, in an environment where motion artifact and/or LED flicker occur, the reference pixel and the adaptive pixel may each generate pixel signals having a large difference. Accordingly, the signal processor 15 may normalize the first value and the second value by compensating for the exposure time difference in order to compare the first value of the reference pixel and the second value of the adaptive pixel, as will be described later. . For example, when the exposure time of the adaptive pixel is 1/2 of the exposure time of the reference pixel, the second value may be normalized by a factor of two.

단계 S84에서, 정규화된 제1 값 및 정규화된 제2 값의 차이가 문턱값(THR)과 비교될 수 있다. 예를 들면, 신호 프로세서(15)는, 단계 S82에서 정규화된 제1 값 및 정규화된 제2 값 사이 차이를 계산할 수 있고, 차이가 문턱값(THR)이상인지 여부를 판정할 수 있다. 제1 값 및 제2 값의 차이가 큰 경우, 신호 프로세서(15)는 동작 잡음 및/또는 LED 플리커가 발생한 것으로 간주할 수 있고, 레퍼런스 픽셀에 대한 의존도를 높이고 어댑티브 픽셀에 대한 의존도를 낮출 수 있다. 도 12에 도시된 바와 같이, 제1 값 및 제2 값의 차이가 문턱값(THR) 이상인 경우, 단계 S86이 후속하여 수행될 수 있다. 다른 한편으로, 제1 값 및 제2 값의 차이가 문턱값(THR) 미만인 경우, 단계 S86의 수행이 생략될 수 있고 단계 S88이 후속하여 수행될 수 있다.In step S84, the difference between the normalized first value and the normalized second value may be compared with the threshold value THR. For example, the signal processor 15 may calculate the difference between the normalized first value and the normalized second value in step S82 and determine whether the difference is greater than or equal to the threshold value THR. When the difference between the first value and the second value is large, the signal processor 15 may consider operation noise and/or LED flicker to occur, and increase the dependence on the reference pixel and decrease the dependence on the adaptive pixel. . As shown in FIG. 12 , when the difference between the first value and the second value is equal to or greater than the threshold value THR, step S86 may be subsequently performed. On the other hand, when the difference between the first value and the second value is less than the threshold value THR, the execution of step S86 may be omitted and step S88 may be subsequently performed.

동작 잡음 및/또는 LED 플리커가 발생한 경우, 단계 S86에서 제2 값의 가중치가 감소할 수 있다. 예를 들면, 신호 프로세서(15)는 레퍼런스 픽셀에 대한 의존도를 높이고 어댑티브 픽셀에 대한 의존도를 낮추기 위하여, 제2 값의 가중치를 감소시킬 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 제2 값의 가중치를 영(zero)으로 설정할 수 있고, 이에 따라 제2 값이 무시될 수 있다. 일부 실시예들에서, 신호 프로세서(15)는 제2 값의 가중치를 감소시키는 동시에, 제1 값의 가중치를 증가시킬 수 있다.When operation noise and/or LED flicker occurs, the weight of the second value may be decreased in step S86. For example, the signal processor 15 may decrease the weight of the second value in order to increase the dependence on the reference pixel and decrease the dependence on the adaptive pixel. In some embodiments, signal processor 15 may set the weight of the second value to zero, so that the second value may be ignored. In some embodiments, signal processor 15 may increase the weight of the first value while decreasing the weight of the second value.

단계 88에서, 제1 값 및 제2 값의 가중합이 계산될 수 있다. 예를 들면, 동작 잡음 및/또는 LED 플리커가 발생하지 아니한 경우, 즉 단계 S84에 후속하여 단계 S88이 수행되는 경우, 신호 프로세서(15)는 미리 정의된 가중치들에 기초하여 제1 값 및 제2 값의 가중합을 계산할 수 있다. 다른 한편으로, 동작 잡음 및/또는 LED 플리커가 발생한 경우, 즉 단계 S86에 후속하여 단계 S88이 수행되는 경우, 신호 프로세서(15)는 단계 S86에서 조정된 가중치들에 기초하여 제1 값 및 제2 값의 가중합을 계산할 수 있다. 결과적으로, 픽셀들의 상이한 노출 시간들에 기인하는 동작 잡음이 해소될 수 있고, LFM(LED flicker mitigation)이 효과적으로 달성될 수 있다.At step 88, a weighted sum of the first value and the second value may be calculated. For example, when operation noise and/or LED flicker do not occur, that is, when step S88 is performed following step S84, the signal processor 15 determines the first value and the second value based on predefined weights. A weighted sum of values can be calculated. On the other hand, when operation noise and/or LED flicker occurs, that is, when step S88 is performed following step S86, the signal processor 15 determines the first value and the second value based on the weights adjusted in step S86. A weighted sum of values can be calculated. As a result, operation noise due to different exposure times of pixels can be eliminated, and LED flicker mitigation (LFM) can be effectively achieved.

도 13a는 본 개시의 예시적 실시예에 따른 이미지 센서(100a)의 분리 사시도이고, 도 13b는 본 개시의 예시적 실시예에 따른 이미지 센서(100a)의 평면도이고, 도 13c는 본 개시의 예시적 실시예에 따른 이미지 센서(100a)의 분리 사시도이다.13A is an exploded perspective view of an image sensor 100a according to an exemplary embodiment of the present disclosure, FIG. 13B is a plan view of the image sensor 100a according to an exemplary embodiment of the present disclosure, and FIG. 13C is an example of the present disclosure. It is an exploded perspective view of the image sensor 100a according to the embodiment.

도 13a 및 도 13b를 참조하면, 이미지 센서(100a)는 제1 칩(CH1) 및 제2 칩(CH2)이 적층된 구조를 가질 수 있다. 제1 칩(CH1)에는 픽셀 어레이(도 1의 11)에 포함되는 복수의 픽셀(PX)들 각각의 픽셀 코어(예컨대, 적어도 하나의 광전 변환 소자 및 기타 소자들)가 형성되고, 제2 칩(CH2)에는 로직 회로, 예컨대 도 1의 드라이버(12), 독출 회로(13), 컨트롤러(14) 및 신호 프로세서(15)가 형성될 수 있다. Referring to FIGS. 13A and 13B , the image sensor 100a may have a structure in which a first chip CH1 and a second chip CH2 are stacked. A pixel core (eg, at least one photoelectric conversion element and other elements) of each of the plurality of pixels PX included in the pixel array ( 11 in FIG. 1 ) is formed in the first chip CH1 , and the second chip A logic circuit, for example, a driver 12, a readout circuit 13, a controller 14, and a signal processor 15 of FIG. 1 may be formed in CH2.

도 13b에 도시된 바와 같이, 제1 칩(CH1) 및 제2 칩(CH1)은 중심부에 배치되는 액티브 영역(AA) 및 로직 영역(LA)을 각각 포함할 수 있고, 또한, 칩의 외곽에 배치되는 주변 영역(PERR, PEI)을 포함할 수 있다. 제1 칩(CH1)의 액티브 영역(AA)에는 광전 변환 소자 및 기타 소자들이 2차원 어레이 구조로 배치될 수 있다. 제2 칩(CH2)의 로직 영역(LA)에는 로직 회로가 배치될 수 있다. As shown in FIG. 13B , the first chip CH1 and the second chip CH1 may include an active area AA and a logic area LA, respectively, which are disposed in the center, and may be disposed on the periphery of the chip. It may include the disposed peripheral areas PERR and PEI. A photoelectric conversion element and other elements may be disposed in a two-dimensional array structure in the active area AA of the first chip CH1. A logic circuit may be disposed in the logic area LA of the second chip CH2 .

제1 칩(CH1) 및 제2 칩(CH2)의 주변 영역(PERR, PEI)에는 제3 방향(Z 방향)으로 연장된 관통 비아들(through vias)이 배치될 수 있다. 제1 칩(CH1) 및 제2 칩(CH1)은 관통 비아들을 통해 서로 전기적으로 결합될 수 있다. 제1 칩(CH1)의 주변 영역(PERR)에는 제1 방향(X 방향) 또는 제2 방향(Y 방향)으로 연장된 배선들, 수직 컨택들이 더 형성될 수 있다. 제2 칩(CH2)의 배선층에도 제1 방향(X 방향)과 제2 방향(Y 방향)으로 연장하는 다수의 배선 라인들이 배치될 수 있고, 이러한 배선 라인들은 로직 회로로 연결될 수 있다. 한편, 제1 칩(CH1)과 제2 칩(CH2)은 관통 비아를 통해 전기적으로 결합되는 구조에 대하여 설명하였으나, 이에 한정되는 것은 아니며, 예컨대, 제1 칩(CH1)과 제2 칩(CH2)은 Cu-Cu 본딩, 관통 비아와 Cu 패드의 결합, 관통 비아와 외부 접속 단자의 결합, 또는 일체형의 관통 비아를 통한 결합 등 다양한 결합 구조로 구현될 수 있다.Through vias extending in the third direction (Z direction) may be disposed in the peripheral areas PERR and PEI of the first chip CH1 and the second chip CH2 . The first chip CH1 and the second chip CH1 may be electrically coupled to each other through through vias. Wires and vertical contacts extending in a first direction (X direction) or a second direction (Y direction) may be further formed in the peripheral area PERR of the first chip CH1 . A plurality of wiring lines extending in the first direction (X direction) and the second direction (Y direction) may also be disposed in the wiring layer of the second chip CH2 , and these wiring lines may be connected to a logic circuit. Meanwhile, although the structure in which the first chip CH1 and the second chip CH2 are electrically coupled through the through via has been described, the present invention is not limited thereto. For example, the first chip CH1 and the second chip CH2 ) may be implemented in various coupling structures such as Cu-Cu bonding, coupling of through-vias and Cu pads, coupling of through-vias and external connection terminals, or coupling through integral through-vias.

도 13c를 참조하면, 픽셀 어레이(110a)에 포함되는 복수의 단위 픽셀들은 상부의 칩에 임베디드될 수 있다. 예를 들어, 상기 상부의 칩은 도 13a의 제1 칩(CH1)에 대응할 수 있다. 도 1의 드라이버(12)는 하부의 칩에 임베디드될 수 있다. 예를 들어, 하부의 칩은 도 13a의 제2 칩(CH2)에 상응할 수 있다. 다양한 실시예들에 따라, 적어도 하나의 제어 신호는 관통 비아들을 통해 전달될 수 있다. 예를 들어, 제1 스위치(DSW1)를 턴-온하는 제어 신호는 관통 비아를 통해 하부의 제2 칩(CH2)으로부터 상부의 제1 칩(CH1)에게 전기적으로 전달될 수 있다.Referring to FIG. 13C , a plurality of unit pixels included in the pixel array 110a may be embedded in an upper chip. For example, the upper chip may correspond to the first chip CH1 of FIG. 13A. The driver 12 of FIG. 1 may be embedded in the underlying chip. For example, the lower chip may correspond to the second chip CH2 of FIG. 13A. According to various embodiments, at least one control signal may be passed through through vias. For example, a control signal for turning on the first switch DSW1 may be electrically transferred from the lower second chip CH2 to the upper first chip CH1 through the through-via.

도 14는 본 개시의 예시적 실시예에 따른 멀티 카메라 모듈을 포함하는 전자 장치를 나타내는 블록도이고, 도 15는 본 개시의 예시적 실시예에 따른 도 14의 카메라 모듈을 나타내는 블록도이다.14 is a block diagram illustrating an electronic device including a multi-camera module according to an exemplary embodiment of the present disclosure, and FIG. 15 is a block diagram illustrating the camera module of FIG. 14 according to an exemplary embodiment of the present disclosure.

도 14를 참조하면, 전자 장치(1000)는 카메라 모듈 그룹(1100), 애플리케이션 프로세서(1200), PMIC(1300) 및 외부 메모리(1400)를 포함할 수 있다.Referring to FIG. 14 , the electronic device 1000 may include a camera module group 1100, an application processor 1200, a PMIC 1300, and an external memory 1400.

카메라 모듈 그룹(1100)은 복수의 카메라 모듈들(1100a, 1100b, 1100c)을 포함할 수 있다. 비록 도면에는 3개의 카메라 모듈들(1100a, 1100b, 1100c)이 배치된 실시예가 도시되어 있으나, 실시예들이 이에 제한되는 것은 아니다. 일부 실시예에서, 카메라 모듈 그룹(1100)은 2개의 카메라 모듈만을 포함하도록 변형되어 실시될 수 있다. 또한, 몇몇 실시예에서, 카메라 모듈 그룹(1100)은 k개(k는 4 이상의 정수)의 카메라 모듈을 포함하도록 변형되어 실시될 수도 있다. 이하, 도 15를 참조하여, 카메라 모듈(1100b)의 상세 구성에 대해 보다 구체적으로 설명할 것이나, 이하의 설명은 실시예에 따라 다른 카메라 모듈들(1100a, 1100b)에 대해서도 동일하게 적용될 수 있다.The camera module group 1100 may include a plurality of camera modules 1100a, 1100b, and 1100c. Although the drawing shows an embodiment in which three camera modules 1100a, 1100b, and 1100c are disposed, the embodiments are not limited thereto. In some embodiments, the camera module group 1100 may be modified to include only two camera modules. Also, in some embodiments, the camera module group 1100 may be modified to include k (k is an integer of 4 or more) camera modules. Hereinafter, a detailed configuration of the camera module 1100b will be described in more detail with reference to FIG. 15 , but the following description may be equally applied to other camera modules 1100a and 1100b according to embodiments.

도 15를 참조하면, 카메라 모듈(1100b)은 프리즘(1105), 광학 경로 폴딩 요소(Optical Path Folding Element, 이하, ½OPFE½)(1110), 액츄에이터(1130), 이미지 센싱 장치(1140) 및 저장부(1150)를 포함할 수 있다. 프리즘(1105)은 광 반사 물질의 반사면(1107)을 포함하여 외부로부터 입사되는 광(L)의 경로를 변형시킬 수 있다. 일부 실시예에서, 프리즘(1105)은 제1 방향(X)으로 입사되는 광(L)의 경로를 제1 방향(X)에 수직인 제2 방향(Y)으로 변경시킬 수 있다. 또한, 프리즘(1105)은 광 반사 물질의 반사면(1107)을 중심축(1106)을 중심으로 A방향으로 회전시키거나, 중심축(1106)을 B방향으로 회전시켜 제1 방향(X)으로 입사되는 광(L)의 경로를 수직인 제2 방향(Y)으로 변경시킬 수 있다. 이때, OPFE(1110)도 제1 방향(X)및 제2 방향(Y)과 수직인 제3 방향(Z)로 이동할 수 있다. 일부 실시예에서, 도시된 것과 같이, 프리즘(1105)의 A방향 최대 회전 각도는 플러스(+) A방향으로는 15도(degree) 이하이고, 마이너스(-) A방향으로는 15도보다 클 수 있으나, 실시예들이 이에 제한되는 것은 아니다. 일부 실시예에서, 프리즘(1105)은 플러스(+) 또는 마이너스(-) B방향으로 20도 내외, 또는 10도에서 20도, 또는 15도에서 20도 사이로 움직일 수 있고, 여기서, 움직이는 각도는 플러스(+) 또는 마이너스(-) B방향으로 동일한 각도로 움직이거나, 1도 내외의 범위로 거의 유사한 각도까지 움직일 수 있다. 일부 실시예에서, 프리즘(1105)은 광 반사 물질의 반사면(1106)을 중심축(1106)의 연장 방향과 평행한 제3 방향(예를 들어, Z방향)으로 이동할 수 있다.Referring to FIG. 15, the camera module 1100b includes a prism 1105, an optical path folding element (hereinafter referred to as ½OPFE½) 1110, an actuator 1130, an image sensing device 1140, and a storage unit ( 1150) may be included. The prism 1105 may include a reflective surface 1107 of a light reflective material to change a path of light L incident from the outside. In some embodiments, the prism 1105 may change the path of light L incident in the first direction X to a second direction Y perpendicular to the first direction X. In addition, the prism 1105 rotates the reflective surface 1107 of the light reflecting material in the direction A around the central axis 1106 or rotates the central axis 1106 in the direction B to move in the first direction X. A path of the incident light L may be changed in a second direction Y, which is perpendicular to the second direction Y. At this time, the OPFE 1110 may also move in a third direction (Z) perpendicular to the first direction (X) and the second direction (Y). In some embodiments, as shown, the maximum angle of rotation of the prism 1105 in the A direction may be less than 15 degrees in the positive A direction and greater than 15 degrees in the negative A direction. However, the embodiments are not limited thereto. In some embodiments, prism 1105 can move around 20 degrees, or between 10 and 20 degrees, or between 15 and 20 degrees in the positive or negative B direction, where the angle of movement is positive. It can move at the same angle in the (+) or minus (-) B direction, or it can move to an almost similar angle within the range of 1 degree. In some embodiments, the prism 1105 can move the reflective surface 1106 of the light reflecting material in a third direction (eg, Z direction) parallel to the extension direction of the central axis 1106 .

OPFE(1110)는 예를 들어 m(여기서, m은 0보다 큰 정수)개의 그룹으로 이루어진 광학 렌즈를 포함할 수 있다. m개의 렌즈는 제2 방향(Y)으로 이동하여 카메라 모듈(1100b)의 광학 줌 배율(optical zoom ratio)을 변경할 수 있다. 예를 들어, 카메라 모듈(1100b)의 기본 광학 줌 배율을 Z라고할 때, OPFE(1110)에 포함된 m개의 광학 렌즈를 이동시킬 경우, 카메라 모듈(1100b)의 광학 줌 배율은 3Z 또는 5Z 또는 5Z 이상의 광학 줌 배율로 변경될 수 있다.The OPFE 1110 may include, for example, optical lenses consisting of m (where m is an integer greater than 0) groups. The m lenses may move in the second direction (Y) to change the optical zoom ratio of the camera module 1100b. For example, when the basic optical zoom magnification of the camera module 1100b is Z, when m optical lenses included in the OPFE 1110 are moved, the optical zoom magnification of the camera module 1100b is 3Z or 5Z or It can be changed to an optical zoom magnification of 5Z or higher.

액츄에이터(1130)는 OPFE(1110) 또는 광학 렌즈(이하, 광학 렌즈로 지칭)를 특정 위치로 이동시킬 수 있다. 예를 들어 액츄에이터(1130)는 정확한 센싱을 위해 이미지 센서(1142)가 광학 렌즈의 초점 거리(focal length)에 위치하도록 광학 렌즈의 위치를 조정할 수 있다.The actuator 1130 may move the OPFE 1110 or an optical lens (hereinafter referred to as an optical lens) to a specific position. For example, the actuator 1130 may adjust the position of the optical lens so that the image sensor 1142 is positioned at the focal length of the optical lens for accurate sensing.

이미지 센싱 장치(1140)는 이미지 센서(1142), 제어 로직(1144) 및 메모리(1146)를 포함할 수 있다. 이미지 센서(1142)는 광학 렌즈를 통해 제공되는 광(L)을 이용하여 센싱 대상의 이미지를 센싱할 수 있다. 이미지 센서(1142)는 HCG 이미지 데이터 및 LCG 이미지 데이터를 병합하여, 높은 동작 범위를 갖는 이미지 데이터를 생성할 수 있다. The image sensing device 1140 may include an image sensor 1142 , a control logic 1144 and a memory 1146 . The image sensor 1142 may sense an image of a sensing target using light L provided through an optical lens. The image sensor 1142 may merge HCG image data and LCG image data to generate image data having a high dynamic range.

제어 로직(1144)은 카메라 모듈(1100b)의 전반적인 동작을 제어할 수 있다. 예를 들어, 제어 로직(1144)은 제어 신호 라인(CSLb)을 통해 제공된 제어 신호에 따라 카메라 모듈(1100b)의 동작을 제어할 수 있다. The control logic 1144 may control the overall operation of the camera module 1100b. For example, the control logic 1144 may control the operation of the camera module 1100b according to a control signal provided through the control signal line CSLb.

메모리(1146)는 캘리브레이션 데이터(1147)와 같은 카메라 모듈(1100b)의 동작에 필요한 정보를 저장할 수 있다. 캘리브레이션 데이터(1147)는 카메라 모듈(1100b)이 외부로부터 제공된 광(L)을 이용하여 이미지 데이터를 생성하는데 필요한 정보를 포함할 수 있다. 캘리브레이션 데이터(1147)는 예를 들어, 앞서 설명한 회전도(degree of rotation)에 관한 정보, 초점 거리(focal length)에 관한 정보, 광학 축(optical axis)에 관한 정보 등을 포함할 수 있다. 카메라 모듈(1100b)이 광학 렌즈의 위치에 따라 초점 거리가 변하는 멀티 스테이트(multi state) 카메라 형태로 구현될 경우, 캘리브레이션 데이터(1147)는 광학 렌즈의 각 위치별(또는 스테이트별) 초점 거리 값과 오토 포커싱(auto focusing)과 관련된 정보를 포함할 수 있다.The memory 1146 may store information required for operation of the camera module 1100b, such as calibration data 1147. The calibration data 1147 may include information necessary for the camera module 1100b to generate image data using light L provided from the outside. The calibration data 1147 may include, for example, information about a degree of rotation, information about a focal length, information about an optical axis, and the like, as described above. When the camera module 1100b is implemented in the form of a multi-state camera in which the focal length changes according to the position of the optical lens, the calibration data 1147 is a focal length value for each position (or state) of the optical lens and It may include information related to auto focusing.

저장부(1150)는 이미지 센서(1142)를 통해 센싱된 이미지 데이터를 저장할 수 있다. 저장부(1150)는 이미지 센싱 장치(1140)의 외부에 배치될 수 있으며, 이미지 센싱 장치(1140)를 구성하는 센서 칩과 스택된(stacked) 형태로 구현될 수 있다. 몇몇 실시예에서, 저장부(1150)는 EEPROM(Electrically Erasable Programmable Read-Only Memory)으로 구현될 수 있으나 실시예들이 이에 제한되는 것은 아니다.The storage unit 1150 may store image data sensed through the image sensor 1142 . The storage unit 1150 may be disposed outside the image sensing device 1140 and may be implemented in a stacked form with a sensor chip constituting the image sensing device 1140 . In some embodiments, the storage unit 1150 may be implemented as an electrically erasable programmable read-only memory (EEPROM), but the embodiments are not limited thereto.

도 14 및 도 15를 함께 참조하면, 일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 액추에이터(1130)를 포함할 수 있다. 이에 따라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 그 내부에 포함된 액추에이터(1130)의 동작에 따른 서로 동일하거나 서로 다른 캘리브레이션 데이터(1147)를 포함할 수 있다. Referring to FIGS. 14 and 15 together, in some embodiments, each of the plurality of camera modules 1100a, 1100b, and 1100c may include an actuator 1130. Accordingly, each of the plurality of camera modules 1100a, 1100b, and 1100c may include the same or different calibration data 1147 according to the operation of the actuator 1130 included therein.

일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100b)은 앞서 설명한 프리즘(1105)과 OPFE(1110)를 포함하는 폴디드 렌즈(folded lens) 형태의 카메라 모듈이고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100b)은 프리즘(1105)과 OPFE(1110)가 포함되지 않은 버티칼(vertical) 형태의 카메라 모듈일 수 있으나, 실시예들이 이에 제한되는 것은 아니다.In some embodiments, one of the plurality of camera modules 1100a, 1100b, 1100c (eg, 1100b) is a folded lens including the prism 1105 and the OPFE 1110 described above. camera module, and the remaining camera modules (eg, 1100a, 1100b) may be vertical camera modules that do not include the prism 1105 and the OPFE 1110, but embodiments are limited thereto. it is not going to be

일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 하나의 카메라 모듈(예를 들어, 1100c)은, 예컨대 IR(Infrared Ray)을 이용하여 깊이(depth) 정보를 추출하는 버티컬 형태의 깊이 카메라(depth camera)일 수 있다. 이 경우, 애플리케이션 프로세서(1200)는 이러한 깊이 카메라로부터 제공받은 이미지 데이터와 다른 카메라 모듈(예를 들어, 1100a 또는 1100b)로부터 제공받은 이미지 데이터를 병합(merge)하여 3차원 깊이 이미지(3D depth image)를 생성할 수 있다.In some embodiments, one camera module (eg, 1100c) among the plurality of camera modules 1100a, 1100b, and 1100c is of a vertical type that extracts depth information using IR (Infrared Ray), for example. It may be a depth camera. In this case, the application processor 1200 merges image data provided from the depth camera and image data provided from other camera modules (eg, 1100a or 1100b) to obtain a 3D depth image. can create

일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)은 서로 다른 관측 시야(Field of View, 시야각)를 가질 수 있다. 이 경우, 예를 들어, 복수의 카메라 모듈(1100a, 1100b, 1100c) 중 적어도 두 개의 카메라 모듈(예를 들어, 1100a, 1100b)의 광학 렌즈가 서로 다를 수 있으나, 이에 제한되는 것은 아니다. In some embodiments, at least two camera modules (eg, 1100a, 1100b) among the plurality of camera modules 1100a, 1100b, and 1100c may have different fields of view (viewing angles). In this case, for example, optical lenses of at least two camera modules (eg, 1100a, 1100b) among the plurality of camera modules 1100a, 1100b, and 1100c may be different from each other, but the present invention is not limited thereto.

또한, 일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 시야각은 서로 다를 수 있다. 이 경우, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 포함된 광학 렌즈 역시 서로 다를 수 있으나, 이에 제한되는 것은 아니다.Also, in some embodiments, each of the plurality of camera modules 1100a, 1100b, and 1100c may have different viewing angles. In this case, optical lenses included in each of the plurality of camera modules 1100a, 1100b, and 1100c may also be different from each other, but are not limited thereto.

일부 실시예에서, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각은 서로 물리적으로 분리되어 배치될 수 있다. 즉, 하나의 이미지 센서(1142)의 센싱 영역을 복수의 카메라 모듈(1100a, 1100b, 1100c)이 분할하여 사용하는 것이 아니라, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각의 내부에 독립적인 이미지 센서(1142)가 배치될 수 있다.In some embodiments, each of the plurality of camera modules 1100a, 1100b, and 1100c may be disposed physically separated from each other. That is, the sensing area of one image sensor 1142 is not divided and used by a plurality of camera modules 1100a, 1100b, and 1100c, but an independent image inside each of the plurality of camera modules 1100a, 1100b, and 1100c. A sensor 1142 may be disposed.

다시 도 14를 참조하면, 애플리케이션 프로세서(1200)는 이미지 처리 장치(1210), 메모리 컨트롤러(1220), 내부 메모리(1230)를 포함할 수 있다. 애플리케이션 프로세서(1200)는 복수의 카메라 모듈(1100a, 1100b, 1100c)과 분리되어 구현될 수 있다. 예를 들어, 애플리케이션 프로세서(1200)와 복수의 카메라 모듈(1100a, 1100b, 1100c)은 별도의 반도체 칩으로 서로 분리되어 구현될 수 있다.Referring back to FIG. 14 , the application processor 1200 may include an image processing device 1210 , a memory controller 1220 , and an internal memory 1230 . The application processor 1200 may be implemented separately from the plurality of camera modules 1100a, 1100b, and 1100c. For example, the application processor 1200 and the plurality of camera modules 1100a, 1100b, and 1100c may be separately implemented as separate semiconductor chips.

이미지 처리 장치(1210)는 복수의 서브 이미지 프로세서들(1212a, 1212b, 1212c), 이미지 생성기(1214) 및 카메라 모듈 컨트롤러(1216)를 포함할 수 있다. 이미지 처리 장치(1210)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 개수에 대응하는 개수의 복수의 서브 이미지 프로세서들(1212a, 1212b, 1212c)를 포함할 수 있다.The image processing device 1210 may include a plurality of sub image processors 1212a, 1212b, and 1212c, an image generator 1214, and a camera module controller 1216. The image processing device 1210 may include a plurality of sub image processors 1212a, 1212b, and 1212c corresponding to the number of the plurality of camera modules 1100a, 1100b, and 1100c.

각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터는 서로 분리된 이미지 신호 라인(ISLa, ISLb, ISLc)를 통해 대응되는 서브 이미지 프로세서들(1212a, 1212b, 1212c)에 제공될 수 있다. 예를 들어, 카메라 모듈(1100a)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLa)을 통해 서브 이미지 프로세서(1212a)에 제공되고, 카메라 모듈(1100b)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLb)을 통해 서브 이미지 프로세서(1212b)에 제공되고, 카메라 모듈(1100c)로부터 생성된 이미지 데이터는 이미지 신호 라인(ISLc)을 통해 서브 이미지 프로세서(1212c)에 제공될 수 있다. 이러한 이미지 데이터 전송은 예를 들어, MIPI(Mobile Industry Processor Interface)에 기반한 카메라 직렬 인터페이스(CSI; Camera Serial Interface)를 이용하여 수행될 수 있으나, 실시예들이 이에 제한되는 것은 아니다. Image data generated from each of the camera modules 1100a, 1100b, and 1100c may be provided to the corresponding sub image processors 1212a, 1212b, and 1212c through separate image signal lines ISLa, ISLb, and ISLc. . For example, image data generated from the camera module 1100a is provided to the sub image processor 1212a through the image signal line ISLa, and image data generated from the camera module 1100b is provided to the image signal line ISLb. Image data generated from the camera module 1100c may be provided to the sub image processor 1212c through the image signal line ISLc. Such image data transmission may be performed using, for example, a Camera Serial Interface (CSI) based on MIPI (Mobile Industry Processor Interface), but embodiments are not limited thereto.

한편, 일부 실시예에서, 하나의 서브 이미지 프로세서가 복수의의 카메라 모듈에 대응되도록 배치될 수도 있다. 예를 들어, 서브 이미지 프로세서(1212a)와 서브 이미지 프로세서(1212c)가 도시된 것처럼 서로 분리되어 구현되는 것이 아니라 하나의 서브 이미지 프로세서로 통합되어 구현되고, 카메라 모듈(1100a)과 카메라 모듈(1100c)로부터 제공된 이미지 데이터는 선택 소자(예를 들어, 멀티플렉서) 등을 통해 선택된 후, 통합된 서브 이미지 프로세서에 제공될 수 있다.Meanwhile, in some embodiments, one sub image processor may be arranged to correspond to a plurality of camera modules. For example, the sub image processor 1212a and the sub image processor 1212c are not separately implemented as shown, but integrated into one sub image processor, and the camera module 1100a and the camera module 1100c Image data provided from may be selected through a selection element (eg, multiplexer) and the like, and then provided to the integrated sub image processor.

각각의 서브 이미지 프로세서들(1212a, 1212b, 1212c)에 제공된 이미지 데이터는 이미지 생성기(1214)에 제공될 수 있다. 이미지 생성기(1214)는 이미지 생성 정보(Generating Information) 또는 모드 신호(Mode Signal)에 따라 각각의 서브 이미지 프로세서들(1212a, 1212b, 1212c)로부터 제공된 이미지 데이터를 이용하여 출력 이미지를 생성할 수 있다.Image data provided to each of the sub image processors 1212a, 1212b, and 1212c may be provided to the image generator 1214. The image generator 1214 may generate an output image using image data provided from each of the sub image processors 1212a, 1212b, and 1212c according to image generating information or a mode signal.

구체적으로, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 적어도 일부를 병합(merge)하여 출력 이미지를 생성할 수 있다. 또한, 이미지 생성기(1214)는 이미지 생성 정보 또는 모드 신호에 따라, 서로 다른 시야각을 갖는 카메라 모듈들(1100a, 1100b, 1100c)로부터 생성된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다.Specifically, the image generator 1214 merges at least some of the image data generated from the camera modules 1100a, 1100b, and 1100c having different viewing angles according to image generation information or a mode signal to obtain an output image. can create In addition, the image generator 1214 may generate an output image by selecting any one of image data generated from the camera modules 1100a, 1100b, and 1100c having different viewing angles according to image generation information or a mode signal. .

일부 실시예에서, 이미지 생성 정보는 줌 신호(zoom signal or zoom factor)를 포함할 수 있다. 또한, 일부 실시예에서, 모드 신호는 예를 들어, 유저(user)로부터 선택된 모드에 기초한 신호일 수 있다.In some embodiments, the image creation information may include a zoom signal or zoom factor. Also, in some embodiments, the mode signal may be a signal based on a mode selected by a user, for example.

이미지 생성 정보가 줌 신호(줌 팩터)이고, 각각의 카메라 모듈(1100a, 1100b, 1100c)이 서로 다른 관측 시야(시야각)를 갖는 경우, 이미지 생성기(1214)는 줌 신호의 종류에 따라 서로 다른 동작을 수행할 수 있다. 예를 들어, 줌 신호가 제1 신호일 경우, 카메라 모듈(1100a)로부터 출력된 이미지 데이터와 카메라 모듈(1100c)로부터 출력된 이미지 데이터를 병합한 후, 병합된 이미지 신호와 병합에 사용하지 않은 카메라 모듈(1100b)로부터 출력된 이미지 데이터를 이용하여, 출력 이미지를 생성할 수 있다. 만약, 줌 신호가 제1 신호와 다른 제2 신호일 경우, 이미지 생성기(1214)는 이러한 이미지 데이터 병합을 수행하지 않고, 각각의 카메라 모듈(1100a, 1100b, 1100c)로부터 출력된 이미지 데이터 중 어느 하나를 선택하여 출력 이미지를 생성할 수 있다. 하지만 실시예들이 이에 제한되는 것은 아니며, 필요에 따라 이미지 데이터를 처리하는 방법은 얼마든지 변형되어 실시될 수 있다.When the image generating information is a zoom signal (zoom factor) and each of the camera modules 1100a, 1100b, and 1100c have different fields of view (viewing angles), the image generator 1214 operates differently according to the type of zoom signal. can be performed. For example, when the zoom signal is the first signal, after merging the image data output from the camera module 1100a and the image data output from the camera module 1100c, the merged image signal and the camera module not used for merging An output image may be generated using the image data output from step 1100b. If the zoom signal is a second signal different from the first signal, the image generator 1214 does not merge the image data and uses any one of the image data output from each of the camera modules 1100a, 1100b, and 1100c. You can choose to generate an output image. However, the embodiments are not limited thereto, and a method of processing image data may be modified and implemented as needed.

일부 실시예에서, 이미지 생성기(1214)는 복수의 서브 이미지 프로세서들(1212a, 1212b, 1212c) 중 적어도 하나로부터 노출 시간이 상이한 복수의 이미지 데이터를 수신하고, 복수의 이미지 데이터에 대하여 HDR(high dynamic range) 처리를 수행함으로서, 다이나믹 레인지가 증가된 병합된 이미지 데이터를 생성할 수 있다.In some embodiments, the image generator 1214 receives a plurality of image data having different exposure times from at least one of the plurality of sub image processors 1212a, 1212b, and 1212c, and HDR (high dynamic range) for the plurality of image data. range) processing, it is possible to generate merged image data with an increased dynamic range.

카메라 모듈 컨트롤러(1216)는 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제어 신호를 제공할 수 있다. 카메라 모듈 컨트롤러(1216)로부터 생성된 제어 신호는 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.The camera module controller 1216 may provide a control signal to each of the camera modules 1100a, 1100b, and 1100c. Control signals generated from the camera module controller 1216 may be provided to corresponding camera modules 1100a, 1100b, and 1100c through separate control signal lines CSLa, CSLb, and CSLc.

복수의 카메라 모듈(1100a, 1100b, 1100c) 중 어느 하나는 줌 신호를 포함하는 이미지 생성 정보 또는 모드 신호에 따라 마스터(master) 카메라(예를 들어, 1100b)로 지정되고, 나머지 카메라 모듈들(예를 들어, 1100a, 1100c)은 슬레이브(slave) 카메라로 지정될 수 있다. 이러한 정보는 제어 신호에 포함되어, 서로 분리된 제어 신호 라인(CSLa, CSLb, CSLc)를 통해 대응되는 카메라 모듈(1100a, 1100b, 1100c)에 제공될 수 있다.One of the plurality of camera modules 1100a, 1100b, and 1100c is designated as a master camera (eg, 1100b) according to image generation information including a zoom signal or a mode signal, and the remaining camera modules (eg, 1100b) For example, 1100a and 1100c) may be designated as slave cameras. Such information may be included in the control signal and provided to the corresponding camera modules 1100a, 1100b, and 1100c through separate control signal lines CSLa, CSLb, and CSLc.

줌 팩터 또는 동작 모드 신호에 따라 마스터 및 슬레이브로서 동작하는 카메라 모듈이 변경될 수 있다. 예를 들어, 카메라 모듈(1100a)의 시야각이 카메라 모듈(1100b)의 시야각보다 넓고, 줌 팩터가 낮은 줌 배율을 나타낼 경우, 카메라 모듈(1100b)이 마스터로서 동작하고, 카메라 모듈(1100a)이 슬레이브로서 동작할 수 있다. 반대로, 줌 팩터가 높은 줌 배율을 나타낼 경우, 카메라 모듈(1100a)이 마스터로서 동작하고, 카메라 모듈(1100b)이 슬레이브로서 동작할 수 있다.Camera modules operating as a master and a slave may be changed according to a zoom factor or an operation mode signal. For example, when the viewing angle of the camera module 1100a is wider than that of the camera module 1100b and the zoom factor indicates a low zoom magnification, the camera module 1100b operates as a master and the camera module 1100a operates as a slave. can act as Conversely, when the zoom factor indicates a high zoom magnification, the camera module 1100a may operate as a master and the camera module 1100b may operate as a slave.

일부 실시예에서, 카메라 모듈 컨트롤러(1216)로부터 각각의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 싱크 인에이블 신호(sync enable) 신호를 포함할 수 있다. 예를 들어, 카메라 모듈(1100b)이 마스터 카메라이고, 카메라 모듈들(1100a, 1100c)이 슬레이브 카메라인 경우, 카메라 모듈 컨트롤러(1216)는 카메라 모듈(1100b)에 싱크 인에이블 신호를 전송할 수 있다. 이러한 싱크 인에이블 신호를 제공받은 카메라 모듈(1100b)은 제공받은 싱크 인에이블 신호를 기초로 싱크 신호(sync signal)를 생성하고, 생성된 싱크 신호를 싱크 신호 라인(SSL)을 통해 카메라 모듈들(1100a, 1100c)에 제공할 수 있다. 카메라 모듈(1100b)과 카메라 모듈들(1100a, 1100c)은 이러한 싱크 신호에 동기화되어 이미지 데이터를 애플리케이션 프로세서(1200)에 전송할 수 있다.In some embodiments, a control signal provided from the camera module controller 1216 to each of the camera modules 1100a, 1100b, and 1100c may include a sync enable signal. For example, when the camera module 1100b is a master camera and the camera modules 1100a and 1100c are slave cameras, the camera module controller 1216 may transmit a sync enable signal to the camera module 1100b. The camera module 1100b receiving such a sync enable signal generates a sync signal based on the provided sync enable signal, and transmits the generated sync signal to the camera modules (through the sync signal line SSL). 1100a, 1100c). The camera module 1100b and the camera modules 1100a and 1100c may transmit image data to the application processor 1200 in synchronization with the sync signal.

일부 실시예에서, 카메라 모듈 컨트롤러(1216)로부터 복수의 카메라 모듈(1100a, 1100b, 1100c)에 제공되는 제어 신호는 모드 신호에 따른 모드 정보를 포함할 수 있다. 이러한 모드 정보에 기초하여 복수의 카메라 모듈(1100a, 1100b, 1100c)은 센싱 속도와 관련하여 제1 동작 모드 및 제2 동작 모드로 동작할 수 있다. In some embodiments, a control signal provided from the camera module controller 1216 to the plurality of camera modules 1100a, 1100b, and 1100c may include mode information according to the mode signal. Based on this mode information, the plurality of camera modules 1100a, 1100b, and 1100c may operate in a first operation mode and a second operation mode in relation to sensing speed.

복수의 카메라 모듈(1100a, 1100b, 1100c)은 제1 동작 모드에서, 제1 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트의 이미지 신호를 생성)하여 이를 제1 속도보다 높은 제2 속도로 인코딩(예를 들어, 제1 프레임 레이트보다 높은 제2 프레임 레이트의 이미지 신호를 인코딩)하고, 인코딩된 이미지 신호를 애플리케이션 프로세서(1200)에 전송할 수 있다. 이때, 제2 속도는 제1 속도의 30배 이하일 수 있다. The plurality of camera modules 1100a, 1100b, and 1100c generate an image signal at a first rate (eg, generate an image signal having a first frame rate) in a first operation mode, and generate an image signal at a second frame rate higher than the first rate. encoding (eg, encoding an image signal having a second frame rate higher than the first frame rate) and transmitting the encoded image signal to the application processor 1200 . In this case, the second speed may be 30 times or less than the first speed.

애플리케이션 프로세서(1200)는 수신된 이미지 신호, 다시 말해서 인코딩된 이미지 신호를 내부에 구비되는 메모리(1230) 또는 애플리케이션 프로세서(1200) 외부의 스토리지(1400)에 저장하고, 이후, 메모리(1230) 또는 스토리지(1400)로부터 인코딩된 이미지 신호를 리드아웃하여 디코딩하고, 디코딩된 이미지 신호에 기초하여 생성되는 이미지 데이터를 디스플레이할 수 있다. 예컨대 이미지 처리 장치(1210)의 복수의 서브 프로세서들(1212a, 1212b, 1212c) 중 대응하는 서브 프로세서가 디코딩을 수행할 수 있으며, 또한 디코딩된 이미지 신호에 대하여 이미지 처리를 수행할 수 있다.The application processor 1200 stores the received image signal, that is, the encoded image signal, in the internal memory 1230 or the external storage 1400 of the application processor 1200, and then the memory 1230 or storage 1200. The encoded image signal from 1400 may be read out and decoded, and image data generated based on the decoded image signal may be displayed. For example, a corresponding sub-processor among the plurality of sub-processors 1212a, 1212b, and 1212c of the image processing device 1210 may perform decoding and may also perform image processing on the decoded image signal.

복수의 카메라 모듈(1100a, 1100b, 1100c)은 제2 동작 모드에서, 제1 속도보다 낮은 제3 속도로 이미지 신호를 생성(예를 들어, 제1 프레임 레이트보다 낮은 제3 프레임 레이트의 이미지 신호를 생성)하고, 이미지 신호를 애플리케이션 프로세서(1200)에 전송할 수 있다. 애플리케이션 프로세서(1200)에 제공되는 이미지 신호는 인코딩되지 않은 신호일 수 있다. 애플리케이션 프로세서(1200)는 수신되는 이미지 신호에 대하여 이미지 처리를 수행하거나 또는 이미지 신호를 메모리(1230) 또는 스토리지(1400)에 저장할 수 있다. The plurality of camera modules 1100a, 1100b, and 1100c generate image signals at a third rate lower than the first rate in the second operation mode (eg, image signals having a third frame rate lower than the first frame rate). generation), and transmit the image signal to the application processor 1200. An image signal provided to the application processor 1200 may be an unencoded signal. The application processor 1200 may perform image processing on a received image signal or store the image signal in the memory 1230 or the storage 1400 .

PMIC(1300)는 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 전력, 예컨대 전원 전압을 공급할 수 있다. 예를 들어, PMIC(1300)는 애플리케이션 프로세서(1200)의 제어 하에, 파워 신호 라인(PSLa)을 통해 카메라 모듈(1100a)에 제1 전력을 공급하고, 파워 신호 라인(PSLb)을 통해 카메라 모듈(1100b)에 제2 전력을 공급하고, 파워 신호 라인(PSLc)을 통해 카메라 모듈(1100c)에 제3 전력을 공급할 수 있다.The PMIC 1300 may supply power, eg, a power supply voltage, to each of the plurality of camera modules 1100a, 1100b, and 1100c. For example, the PMIC 1300 supplies first power to the camera module 1100a through the power signal line PSLa under the control of the application processor 1200, and supplies the first power to the camera module 1100a through the power signal line PSLb ( 1100b) and third power may be supplied to the camera module 1100c through the power signal line PSLc.

PMIC(1300)는 애플리케이션 프로세서(1200)로부터의 전력 제어 신호(PCON)에 응답하여, 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 대응하는 전력을 생성하고, 또한 전력의 레벨을 조정할 수 있다. 전력 제어 신호(PCON)는 복수의 카메라 모듈(1100a, 1100b, 1100c)의 동작 모드 별 전력 조정 신호를 포함할 수 있다. 예를 들어, 동작 모드는 저전력 모드(low power mode)를 포함할 수 있으며, 이때, 전력 제어 신호(PCON)는 저전력 모드로 동작하는 카메라 모듈 및 설정되는 전력 레벨에 대한 정보를 포함할 수 있다. 복수의 카메라 모듈(1100a, 1100b, 1100c) 각각에 제공되는 전력들의 레벨은 서로 동일하거나 또는 서로 상이할 수 있다. 또한, 전력의 레벨은 동적으로 변경될 수 있다.The PMIC 1300 may generate power corresponding to each of the plurality of camera modules 1100a, 1100b, and 1100c in response to a power control signal (PCON) from the application processor 1200, and may also adjust the level of the power. . The power control signal PCON may include a power control signal for each operation mode of the plurality of camera modules 1100a, 1100b, and 1100c. For example, the operation mode may include a low power mode, and in this case, the power control signal PCON may include information about a camera module operating in the low power mode and a set power level. Levels of the powers provided to each of the plurality of camera modules 1100a, 1100b, and 1100c may be the same or different from each other. Also, the level of power can be dynamically changed.

이상에서와 같이 도면과 명세서에서 예시적인 실시예들이 개시되었다. 본 명세서에서 특정한 용어를 사용하여 실시예들을 설명되었으나, 이는 단지 본 개시의 기술적 사상을 설명하기 위한 목적에서 사용된 것이지 의미 한정이나 특허청구범위에 기재된 본 개시의 범위를 제한하기 위하여 사용된 것은 아니다. 그러므로 본 기술분야의 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 것이다.As above, exemplary embodiments have been disclosed in the drawings and specifications. Although the embodiments have been described using specific terms in this specification, they are only used for the purpose of explaining the technical idea of the present disclosure, and are not used to limit the scope of the present disclosure described in the claims. . Therefore, those skilled in the art will understand that various modifications and equivalent other embodiments are possible therefrom.

Claims (20)

복수의 픽셀들을 포함하는 픽셀 어레이;
상기 픽셀 어레이를 구동하도록 구성된 드라이버;
상기 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하도록 구성된 독출 회로;
상기 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹이 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 상기 드라이버를 제어하도록 구성된 컨트롤러; 및
상기 제1 픽셀 그룹에 대응하는 상기 디지털 신호의 제1 값 및 상기 제2 픽셀 그룹에 대응하는 상기 디지털 신호의 제2 값을 연산함으로써 이미지 데이터를 생성하도록 구성된 신호 프로세서를 포함하고,
상기 제1 픽셀 그룹은, 상기 조도에 독립적인 것을 특징으로 하는 이미지 센서.
a pixel array including a plurality of pixels;
a driver configured to drive the pixel array;
readout circuitry configured to generate a digital signal from a pixel signal received from the pixel array;
a controller configured to control the driver so that a first pixel group and a second pixel group among the plurality of pixels have a first exposure time and a second exposure time, respectively; and
a signal processor configured to generate image data by calculating a first value of the digital signal corresponding to the first pixel group and a second value of the digital signal corresponding to the second pixel group;
The image sensor, characterized in that the first pixel group is independent of the illuminance.
청구항 1에 있어서,
상기 신호 프로세서는, 상기 디지털 신호의 값에 기초하여 조도를 식별하고, 상기 조도에 기초하여 상기 제2 픽셀 그룹 및 상기 제2 노출 시간을 식별하고, 상기 제2 픽셀 그룹 및 상기 제2 노출 시간에 기초하여 상기 컨트롤러를 설정하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 1,
The signal processor identifies the illuminance based on the value of the digital signal, identifies the second pixel group and the second exposure time based on the illuminance, and determines the second pixel group and the second exposure time. An image sensor, characterized in that configured to set the controller based on.
청구항 2에 있어서,
상기 제1 픽셀 그룹은, 상기 픽셀 어레이의 복수의 제1 행들을 포함하고,
상기 제2 픽셀 그룹은, 상기 복수의 행들 사이 적어도 하나의 제2 행을 포함하는 것을 특징으로 하는 이미지 센서.
The method of claim 2,
The first pixel group includes a plurality of first rows of the pixel array;
The image sensor of claim 1 , wherein the second pixel group includes at least one second row among the plurality of rows.
청구항 2에 있어서,
상기 신호 프로세서는, 상기 제1 값 및 상기 제2 값을 정규화하고, 정규화된 상기 제1 값 및 정규화된 상기 제2 값 사이 차이가 기준치 이상인 경우, 상기 제2 값의 가중치를 감소시키도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 2,
The signal processor is configured to normalize the first value and the second value, and to reduce a weight of the second value when a difference between the normalized first value and the normalized second value is greater than or equal to a reference value. Characteristic image sensor.
청구항 1에 있어서,
상기 복수의 픽셀들 각각은, 제1 광전 소자 및 상기 제1 광전 소자보다 큰 제2 광전 소자를 포함하고,
상기 컨트롤러는, 상기 제2 픽셀 그룹의 제1 광전 소자들이 상기 제2 노출 시간을 가지고 상기 제2 픽셀 그룹의 제2 광전 소자들이 상기 제2 노출 시간보다 길거나 같은 제3 노출 시간을 가지도록, 상기 드라이버를 제어하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 1,
Each of the plurality of pixels includes a first optoelectronic element and a second optoelectronic element larger than the first optoelectronic element;
The controller causes the first photoelectric devices of the second pixel group to have the second exposure time and the second photoelectric devices of the second pixel group to have a third exposure time equal to or longer than the second exposure time. Image sensor, characterized in that configured to control the driver.
청구항 5에 있어서,
상기 제2 노출 시간은, 상기 제1 노출 시간 이하이고,
상기 제3 노출 시간은, 상기 제2 노출 시간 이상인 것을 특징으로 하는 이미지 센서.
The method of claim 5,
The second exposure time is less than or equal to the first exposure time,
The image sensor, characterized in that the third exposure time is equal to or longer than the second exposure time.
청구항 5에 있어서,
상기 제2 노출 시간은, 상기 제1 노출 시간 이상이고,
상기 제3 노출 시간은, 상기 제2 노출 시간 이하인 것을 특징으로 하는 이미지 센서.
The method of claim 5,
The second exposure time is greater than or equal to the first exposure time,
The image sensor, characterized in that the third exposure time is equal to or less than the second exposure time.
청구항 5에 있어서,
상기 컨트롤러는, 상기 제1 픽셀 그룹의 제1 광전 소자들 및 제2 광전 소자들이 상기 제1 노출 시간을 가지도록, 상기 드라이버를 제어하도록 구성되고,
상기 제1 노출 시간은, 상기 제2 노출 시간보다 길고 상기 제3 노출 시간보다 짧은 것을 특징으로 하는 이미지 센서.
The method of claim 5,
the controller is configured to control the driver such that first photoelectric elements and second photoelectric elements of the first pixel group have the first exposure time;
The image sensor, characterized in that the first exposure time is longer than the second exposure time and shorter than the third exposure time.
청구항 1에 있어서,
상기 신호 프로세서는, 상기 복수의 픽셀들 각각이 제1 변환 이득 또는 제2 변환 이득을 가지도록, 상기 디지털 신호의 값에 기초하여 상기 컨트롤러를 설정하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 1,
wherein the signal processor is configured to set the controller based on a value of the digital signal such that each of the plurality of pixels has a first conversion gain or a second conversion gain.
청구항 1에 있어서,
상기 신호 프로세서는, 상기 제1 노출 시간 및 상기 제2 노출 시간에 기초하여 상기 제1 값 및 상기 제2 값 중 적어도 하나를 정규화 하고, 정규화된 상기 제1 값 및 상기 제2 값의 가중합을 계산하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 1,
The signal processor normalizes at least one of the first value and the second value based on the first exposure time and the second exposure time, and calculates a weighted sum of the normalized first value and the second value An image sensor configured to compute.
복수의 픽셀들을 포함하는 픽셀 어레이;
상기 픽셀 어레이를 구동하도록 구성된 드라이버;
상기 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하도록 구성된 독출 회로;
상기 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹이 제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 상기 드라이버를 제어하도록 구성된 컨트롤러; 및
상기 디지털 신호의 값에 기초하여 조도를 식별하고, 상기 조도에 기초하여 상기 제2 픽셀 그룹 및 상기 제2 노출 시간을 식별하고, 상기 제2 노출 시간에 기초하여 상기 컨트롤러를 설정하도록 구성된 신호 프로세서를 포함하고,
상기 제1 픽셀 그룹은, 상기 조도에 독립적인 것을 특징으로 하는 이미지 센서.
a pixel array including a plurality of pixels;
a driver configured to drive the pixel array;
readout circuitry configured to generate a digital signal from a pixel signal received from the pixel array;
a controller configured to control the driver so that a first pixel group and a second pixel group among the plurality of pixels have a first exposure time and a second exposure time, respectively; and
a signal processor configured to identify an illuminance based on a value of the digital signal, identify the second pixel group and the second exposure time based on the illuminance, and set the controller based on the second exposure time; include,
The image sensor, characterized in that the first pixel group is independent of the illuminance.
청구항 11에 있어서,
상기 제1 픽셀 그룹은, 상기 픽셀 어레이에서 등간격으로 상호 이격된 복수의 제1 행들을 포함하고,
상기 제2 픽셀 그룹은, 상기 복수의 제2 행들 사이 복수의 제2 행들 중 적어도 하나를 포함하는 것을 특징으로 하는 이미지 센서.
The method of claim 11,
The first pixel group includes a plurality of first rows spaced apart from each other at equal intervals in the pixel array;
The second pixel group includes at least one of a plurality of second rows between the plurality of second rows.
청구항 11에 있어서,
상기 신호 프로세서는, 상기 제1 노출 시간 및 상기 제2 노출 시간에 기초하여 상기 제1 픽셀 그룹에 대응하는 상기 디지털 신호의 제1 값 및 상기 제2 픽셀 그룹에 대응하는 상기 디지털 신호의 제2 값을 정규화하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 11,
The signal processor determines a first value of the digital signal corresponding to the first pixel group and a second value of the digital signal corresponding to the second pixel group based on the first exposure time and the second exposure time. Image sensor, characterized in that configured to normalize.
청구항 13에 있어서,
상기 신호 프로세서는, 정규화된 상기 제1 값 및 상기 제2 값의 가중합에 기초하여 이미지 데이터를 생성하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 13,
wherein the signal processor is configured to generate image data based on a weighted sum of the normalized first value and the second value.
청구항 13에 있어서,
상기 신호 프로세서는, 상기 제1 값 및 상기 제2 값을 정규화하고, 정규화된 상기 제1 값 및 정규화된 상기 제2 값 사이 차이가 기준치 이상인 경우, 상기 제2 값의 가중치를 감소시키도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 13,
The signal processor is configured to normalize the first value and the second value, and to reduce a weight of the second value when a difference between the normalized first value and the normalized second value is greater than or equal to a reference value. Characteristic image sensor.
청구항 11에 있어서,
상기 복수의 픽셀들 각각은, 제1 광전 소자 및 상기 제1 광전 소자보다 큰 제2 광전 소자를 포함하고,
상기 신호 프로세서는, 상기 제2 픽셀 그룹의 제1 광전 소자들이 상기 제2 노출 시간을 가지고 상기 제2 픽셀 그룹의 제2 광전 소자들이 제3 노출 시간을 가지도록, 상기 컨트롤러를 설정하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 11,
Each of the plurality of pixels includes a first optoelectronic element and a second optoelectronic element larger than the first optoelectronic element;
wherein the signal processor is configured to set the controller such that the first photoelectric devices of the second group of pixels have the second exposure time and the second photovoltaic devices of the second group of pixels have a third exposure time. image sensor to be.
청구항 16에 있어서,
상기 제2 노출 시간은, 상기 제1 노출 시간 이하이고,
상기 제3 노출 시간은, 상기 제2 노출 시간 이상인 것을 특징으로 하는 이미지 센서.
The method of claim 16
The second exposure time is less than or equal to the first exposure time,
The image sensor, characterized in that the third exposure time is equal to or longer than the second exposure time.
청구항 16에 있어서,
상기 제2 노출 시간은, 상기 제1 노출 시간 이상이고,
상기 제3 노출 시간은, 상기 제2 노출 시간 이하인 것을 특징으로 하는 이미지 센서.
The method of claim 16
The second exposure time is greater than or equal to the first exposure time,
The image sensor, characterized in that the third exposure time is equal to or less than the second exposure time.
청구항 11에 있어서,
상기 신호 프로세서는, 상기 복수의 픽셀들 각각이 제1 변환 이득 또는 제2 변환 이득을 가지도록, 상기 디지털 신호의 값에 기초하여 상기 컨트롤러를 설정하도록 구성된 것을 특징으로 하는 이미지 센서.
The method of claim 11,
wherein the signal processor is configured to set the controller based on a value of the digital signal such that each of the plurality of pixels has a first conversion gain or a second conversion gain.
이미지 센서에 의해서 수행되는 방법으로서,
복수의 픽셀들을 포함하는 픽셀 어레이로부터 수신된 픽셀 신호로부터 디지털 신호를 생성하는 단계;
제1 노출 시간 및 제2 노출 시간을 각각 가지도록, 상기 복수의 픽셀들 중 제1 픽셀 그룹 및 제2 픽셀 그룹을 구동하는 단계; 및
상기 제1 픽셀 그룹에 대응하는 상기 디지털 신호의 제1 값 및 상기 제2 픽셀 그룹에 대응하는 상기 디지털 신호의 제2 값의 가중합에 기초하여 이미지 데이터를 생성하는 단계를 포함하고,
상기 제1 픽셀 그룹은, 상기 조도에 독립적인 것을 특징으로 하는 방법.
As a method performed by an image sensor,
generating a digital signal from a pixel signal received from a pixel array including a plurality of pixels;
driving a first pixel group and a second pixel group among the plurality of pixels to have a first exposure time and a second exposure time, respectively; and
generating image data based on a weighted sum of a first value of the digital signal corresponding to the first pixel group and a second value of the digital signal corresponding to the second pixel group;
The method of claim 1 , wherein the first group of pixels is independent of the illuminance.
KR1020220079992A 2021-12-01 2022-06-29 Wide dynamic range image sensor and metod performed by the same KR20230082544A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US17/991,074 US20230171516A1 (en) 2021-12-01 2022-11-21 Wide dynamic range image sensor and method performed by the same
CN202211469193.6A CN116208865A (en) 2021-12-01 2022-11-22 Image sensor and method performed thereby
JP2022191894A JP2023081866A (en) 2021-12-01 2022-11-30 Image sensor with wide dynamic range, and method implemented with the same

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020210170238 2021-12-01
KR20210170238 2021-12-01

Publications (1)

Publication Number Publication Date
KR20230082544A true KR20230082544A (en) 2023-06-08

Family

ID=86765856

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020220079992A KR20230082544A (en) 2021-12-01 2022-06-29 Wide dynamic range image sensor and metod performed by the same

Country Status (1)

Country Link
KR (1) KR20230082544A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117838419A (en) * 2024-01-10 2024-04-09 围美辣妈(北京)健康咨询有限公司 Intelligent physiotherapy pad

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117838419A (en) * 2024-01-10 2024-04-09 围美辣妈(北京)健康咨询有限公司 Intelligent physiotherapy pad
CN117838419B (en) * 2024-01-10 2024-05-31 围美辣妈(北京)健康咨询有限公司 Intelligent physiotherapy pad

Similar Documents

Publication Publication Date Title
US11721713B2 (en) Image sensors
US11665444B2 (en) Image sensor, pixel, and method of operating the pixel
KR20200113484A (en) Image sensor and operation method thereof
US11848338B2 (en) Image sensor
US11588988B2 (en) Image sensor and binning method thereof
KR20210156458A (en) Image sensing device and electronic device comprising the same
US20220116557A1 (en) Pixel array and image sensor including the same
US11425323B2 (en) Image sensor and operating method thereof
CN116208864A (en) Image sensor having low noise and high resolution and method of operating the same
KR20230082544A (en) Wide dynamic range image sensor and metod performed by the same
CN115580785A (en) Pixel and image sensor including the same
KR20230006674A (en) Image sensor, image device having the same, and operating method thereof
KR20240050051A (en) Image sensor, method of operating the image sensor, and image processing device
US20220293653A1 (en) Image sensors and camera modules including the same
JP2023081866A (en) Image sensor with wide dynamic range, and method implemented with the same
KR20230078460A (en) Image sensor and autofocusing method of the same
KR20220047140A (en) Pixel array and image sensor comprising thereof
US20220399384A1 (en) Pixel array and image sensor including the same
US20240214703A1 (en) Image sensor
US11997403B2 (en) Image sensor, a pixel and an operating method of the image sensor
US11825226B2 (en) Image sensor and pixel array of image sensor
US11863893B2 (en) Image sensor including auto-focus pixels that receive the same transmission control signal
US20230011827A1 (en) Image sensor using transfer gate signal having three voltage levels, and method of operating the same
KR20230082543A (en) Image sensor providing low noise and high resolution and method performed by the same
KR20230069801A (en) Image sensor and operation method of the image sensor