KR20240145854A - Electronic apparatus comprising image sensor and operating method thereof - Google Patents
Electronic apparatus comprising image sensor and operating method thereof Download PDFInfo
- Publication number
- KR20240145854A KR20240145854A KR1020230066436A KR20230066436A KR20240145854A KR 20240145854 A KR20240145854 A KR 20240145854A KR 1020230066436 A KR1020230066436 A KR 1020230066436A KR 20230066436 A KR20230066436 A KR 20230066436A KR 20240145854 A KR20240145854 A KR 20240145854A
- Authority
- KR
- South Korea
- Prior art keywords
- image
- camera
- electronic device
- magnification
- image sensor
- Prior art date
Links
- 238000011017 operating method Methods 0.000 title description 5
- 230000008859 change Effects 0.000 claims description 54
- 238000000034 method Methods 0.000 claims description 47
- 239000003381 stabilizer Substances 0.000 claims description 30
- 238000004891 communication Methods 0.000 description 55
- 238000010586 diagram Methods 0.000 description 16
- 230000008569 process Effects 0.000 description 15
- 238000012545 processing Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 12
- 238000005516 engineering process Methods 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000004044 response Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 230000000712 assembly Effects 0.000 description 3
- 238000000429 assembly Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000002093 peripheral effect Effects 0.000 description 3
- 230000006641 stabilisation Effects 0.000 description 3
- 238000011105 stabilization Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 229910044991 metal oxide Inorganic materials 0.000 description 2
- 150000004706 metal oxides Chemical class 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000000306 recurrent effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000014509 gene expression Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000003155 kinesthetic effect Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000005236 sound signal Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 229910052724 xenon Inorganic materials 0.000 description 1
- FHNFHKCVQCLJFQ-UHFFFAOYSA-N xenon atom Chemical compound [Xe] FHNFHKCVQCLJFQ-UHFFFAOYSA-N 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/951—Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/45—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/54—Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/62—Control of parameters via user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/667—Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/68—Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
- H04N23/682—Vibration or motion blur correction
- H04N23/683—Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
Abstract
다양한 실시예들에 따른 전자 장치(electronic device)는 이미지 센서를 포함하는 적어도 하나의 카메라, 인스트럭션들을 저장하는 메모리 및 적어도 하나의 프로세서를 포함하고, 상기 프로세서는, 이미지 센서의 동작 모드가 변경되거나, 영상을 촬영하기 위해 사용되는 카메라가 다른 카메라로 전환되는 경우, 변경된 동작 모드 또는 변경된 카메라가 출력하는 이미지 프레임에 포함될 출력 영역에 대한 출력 영역 정보를 이미지 센서 또는 적어도 하나의 카메라로 전송하도록 구성될 수 있다.An electronic device according to various embodiments includes at least one camera including an image sensor, a memory storing instructions, and at least one processor, wherein the processor may be configured to transmit, to the image sensor or at least one camera, information on an output area to be included in an image frame output by the changed operation mode or the changed camera when an operation mode of the image sensor is changed or a camera used to capture an image is switched to another camera.
Description
본 개시는 이미지 센서를 포함하는 전자 장치 및 그 전자 장치의 동작 방법에 관한 것이다.The present disclosure relates to an electronic device including an image sensor and a method of operating the electronic device.
전자 장치는 디지털 카메라를 이용하여 디지털 이미지를 획득할 수 있다. 디지털 카메라는 빛을 감지하여 전기적인 신호로 출력하는 이미지 센서를 이용하여 디지털 이미지를 획득하기 위한 데이터를 획득할 수 있다. 예를 들어, CCD(charge coupled device) 이미지 센서나 CMOS(complementary metal-oxide semiconductor) 이미지 센서(CIS) 등을 이용하여 장면을 촬영한 이미지를 획득하기 위한 데이터를 획득할 수 있다.Electronic devices can acquire digital images using digital cameras. Digital cameras can acquire data for acquiring digital images using image sensors that detect light and output it as electrical signals. For example, data for acquiring images of scenes can be acquired using charge coupled device (CCD) image sensors or complementary metal-oxide semiconductor (CMOS) image sensors (CIS).
기술의 발달에 의해 이미지 센서에 높은 밀도로 빛을 검출하는 화소들이 배치될 수 있다. 이에 따라 이미지 센서가 고해상도의 영상 촬영을 지원할 수 있다. 이미지 센서는 다양한 모드로 동작할 수 있다. 예를 들어, 이미지 센서는 비닝(binning) 연산을 수행하여 복수 개의 픽셀 정보들을 합쳐서 이미지 데이터를 출력할 수 있다. 비닝 연산은 아날로그적으로 회로 구성을 통해 수행될 수도 있고, 디지털 연산을 통해서 수행될 수도 있다.With the advancement of technology, pixels that detect light at a high density can be arranged on an image sensor. Accordingly, the image sensor can support high-resolution image capture. The image sensor can operate in various modes. For example, the image sensor can perform a binning operation to combine multiple pixel information and output image data. The binning operation can be performed analogically through a circuit configuration or through digital operation.
또한, 이미지 센서를 포함하는 카메라는 카메라가 지원할 수 있는 화각(field of view, FOV)에 기초하여 영상을 촬영할 수 있다. 화각은 카메라에 포함된 렌즈를 통해서 카메라가 촬영할 수 있는 범위를 의미할 수 있다. 예를 들어, 렌즈는 화각이 큰 순서대로 초광각(ultra-wide angle) 렌즈, 광각(wide angle) 렌즈, 표준 렌즈, 또는 망원(telephoto) 렌즈로 언급될 수 있다. 각 렌즈를 구비한 카메라는 초광각 카메라, 광각 카메라, 표준 카메라 또는 망원 카메라로 언급될 수 있다.Additionally, a camera including an image sensor can capture images based on a field of view (FOV) that the camera can support. The field of view may refer to a range that the camera can capture through a lens included in the camera. For example, the lens may be referred to as an ultra-wide angle lens, a wide angle lens, a standard lens, or a telephoto lens in that order of increasing angle of view. A camera equipped with each lens may be referred to as an ultra-wide angle camera, a wide angle camera, a standard camera, or a telephoto camera.
전자 장치는 다양한 화각에 기초하여 영상들을 촬영하기 위해 복수 개의 카메라들을 포함할 수 있다. 복수의 카메라들은 서로 다른 화각으로 촬영된 영상에 대한 데이터를 포함하는 이미지 프레임을 출력할 수 있다. 전자 장치는 서로 다른 화각에 기초하여 촬영된 이미지 프레임을 이용하여 다양한 조건에 따른 이미지를 제공할 수 있다.The electronic device may include a plurality of cameras to capture images based on different angles of view. The plurality of cameras may output image frames containing data for images captured at different angles of view. The electronic device may provide images according to various conditions by using the image frames captured at different angles of view.
상술한 정보는 본 개시에 대한 이해를 돕기 위한 목적으로 하는 배경 기술(related art)로 제공될 수 있다. 상술한 내용 중 어느 것도 본 개시와 관련하여 종래 기술(prior art)로서 적용될 수 있는지에 관해서는 어떠한 주장이나 결정이 제기되지 않는다.The above information may be provided as related art for the purpose of assisting in understanding the present disclosure. No claim or determination is made as to whether any of the above is applicable as prior art in connection with the present disclosure.
일 실시예에 따른 전자 장치는, 이미지 데이터를 출력하는 이미지 센서를 포함하는 카메라, 인스트럭션들을 저장하는 메모리 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에, 기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 이미지 센서로 전송하도록 구성될 수 있다. 상기 이미지 센서는, 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 적어도 하나의 프로세서로 출력하도록 구성될 수 있다.An electronic device according to one embodiment may include a camera including an image sensor outputting image data, a memory storing instructions, and at least one processor. The at least one processor may be configured to, when executing the instructions, obtain a first image frame through the image sensor based on a first magnification within a reference range. The at least one processor may be configured to transmit a signal including output area information indicating a range of data to be output by the image sensor to the image sensor. The image sensor may be configured to output a second image frame including an image corresponding to the second magnification to the at least one processor based on the output area information, based on a magnification related to capturing the image being changed to a second magnification exceeding the reference range.
일 실시예에 따라 이미지 센서를 포함하는 카메라를 포함하는 전자 장치의 동작 방법은, 상기 전자 장치의 적어도 하나의 프로세서가 기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하는 동작을 포함할 수 있다. 상기 방법은 상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 적어도 하나의 프로세서가 상기 이미지 센서로 전송하는 동작을 포함할 수 있다. 상기 방법은 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 이미지 센서가 상기 적어도 하나의 프로세서로 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 출력하는 동작을 포함할 수 있다.According to one embodiment, a method of operating an electronic device including a camera including an image sensor may include an operation in which at least one processor of the electronic device acquires a first image frame through the image sensor based on a first magnification within a reference range. The method may include an operation in which the at least one processor transmits a signal including output area information indicating a range of data to be output by the image sensor to the image sensor. The method may include an operation in which the image sensor outputs a second image frame including an image corresponding to the second magnification based on the output area information to the at least one processor based on a change in a magnification related to capturing the image to a second magnification exceeding the reference range.
일 실시예에 따른 전자 장치는, 제1 화각을 지원하는 제1 카메라, 상기 제1 화각과 상이한 제2 화각을 지원하는 제2 카메라, 인스트럭션들을 저장하는 메모리 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에, 영상의 촬영과 관련된 기준 범위 내의 제1 배율에 기초하여 상기 제1 카메라를 통해서 제1 이미지 프레임을 획득하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 벗어나는 제2 배율로 변경되는 것에 기초하여, 상기 제2 카메라에 포함된 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 제2 카메라로 전송하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 출력 영역 정보를 포함하는 신호에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 제2 카메라로부터 획득하도록 구성될 수 있다.An electronic device according to one embodiment may include a first camera supporting a first angle of view, a second camera supporting a second angle of view different from the first angle of view, a memory storing instructions, and at least one processor. The at least one processor may be configured to, when executing the instructions, obtain a first image frame through the first camera based on a first magnification within a reference range related to capturing an image. The at least one processor may be configured to transmit a signal including output area information indicating a range of data to be output by an image sensor included in the second camera to the second camera based on a change in the magnification related to capturing the image to a second magnification out of the reference range. The at least one processor may be configured to obtain a second image frame including an image corresponding to the second magnification from the second camera based on the signal including the output area information.
일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는, 실행 시에 전자 장치가 상술한 방법 또는 전자 장치의 동작을 수행하도록 하는 인스트럭션들을 저장한 것일 수 있다.A computer-readable recording medium according to one embodiment may store instructions that, when executed, cause an electronic device to perform the method or operation of the electronic device described above.
도 1은 다양한 실시예들에 따른, 네트워크 환경 내의 전자 장치의 블록도이다.
도 2는, 다양한 실시예들에 따른, 카메라 모듈을 예시하는 블록도이다.
도 3은, 일 실시예에 따른 전자 장치에 포함된 이미지 센서의 복수 개의 동작 모드에 기반한 동작의 예시를 설명하기 위한 도면이다.
도 4는, 일 실시예에 따른 복수 개의 카메라들을 포함하는 전자 장치의 예시를 설명하기 위한 도면이다.
도 5는, 일 실시예에 따른 전자 장치가 이미지 프레임을 획득하는 프로세스를 도시한 흐름도이다.
도 6은, 일 실시예에 따른 전자 장치가 단일 카메라에 기초하여 영상의 촬영과 관련된 배율을 변경하는 프로세스를 도시한 흐름도이다.
도 7은, 일 실시예에 따른 전자 장치가 제1 카메라 및 제2 카메라에 기초하여 영상의 촬영과 관련된 배율을 변경하는 프로세스를 도시한 흐름도이다.
도 8은, 일 실시예에 따른 전자 장치가 변경되는 배율에 따라 이미지 프레임을 촬영 영역 정보에 기초하여 출력하는 동작을 개념적으로 설명하기 위한 도면이다.
도 9는, 일 실시예에 따른 전자 장치가 변경되는 배율에 기초하여 카메라를 변경하는 동작을 설명하기 위한 도면이다.
도 10은, 일 실시예에 따른 전자 장치가 배율을 변경하는 동작에서 표시하는 화면의 예시를 도시한 도면이다.
도 11은, 일 실시예에 따른 전자 장치가 사용자 입력에 기초하여 미리보기 영상을 확대하는 동작의 예시를 도시한 도면이다.
도 12는, 일 실시예에 따른 전자 장치의 이미지 센서의 동작 모드가 변경되는 동작에서 프로세서와 이미지 센서가 출력하는 정보를 도시한 도면이다.
도 13은, 일 실시예에 따른 전자 장치가 배율 사용조건에 기초하여 출력 영역 정보를 전송하는 예시를 도시한 도면이다.
도 14는, 일 실시예에 따른 전자 장치가 영상을 촬영하기 위한 카메라를 전환하는 동작에서 프로세서와 이미지 센서가 출력하는 정보를 도시한 도면이다.
도 15는, 일 실시예에 따른 전자 장치가 촬영되는 영상에 대한 배율, 크기 또는 위치 중 적어도 하나를 전환하는 예시를 도시한 도면이다.FIG. 1 is a block diagram of an electronic device within a network environment according to various embodiments.
FIG. 2 is a block diagram illustrating a camera module according to various embodiments.
FIG. 3 is a drawing for explaining an example of operation based on multiple operation modes of an image sensor included in an electronic device according to one embodiment.
FIG. 4 is a drawing illustrating an example of an electronic device including a plurality of cameras according to one embodiment.
FIG. 5 is a flowchart illustrating a process by which an electronic device acquires an image frame according to one embodiment.
FIG. 6 is a flowchart illustrating a process by which an electronic device changes a magnification related to capturing an image based on a single camera according to one embodiment.
FIG. 7 is a flowchart illustrating a process by which an electronic device according to one embodiment changes a magnification related to capturing an image based on a first camera and a second camera.
FIG. 8 is a diagram conceptually explaining an operation of an electronic device according to one embodiment of the present invention to output an image frame based on shooting area information according to a changing magnification.
FIG. 9 is a drawing for explaining an operation of an electronic device according to one embodiment of the present invention to change a camera based on a changing magnification.
FIG. 10 is a drawing illustrating an example of a screen displayed by an electronic device in an operation of changing a magnification according to one embodiment.
FIG. 11 is a diagram illustrating an example of an operation of an electronic device according to one embodiment of the present invention to enlarge a preview image based on a user input.
FIG. 12 is a diagram illustrating information output by a processor and an image sensor in an operation in which the operation mode of an image sensor of an electronic device is changed according to one embodiment.
FIG. 13 is a diagram illustrating an example in which an electronic device according to one embodiment transmits output area information based on a magnification usage condition.
FIG. 14 is a diagram illustrating information output by a processor and an image sensor in an operation of an electronic device switching a camera for capturing an image according to one embodiment.
FIG. 15 is a diagram illustrating an example of an electronic device according to one embodiment of the present invention switching at least one of a magnification, a size, or a position of an image being captured.
도 1은, 다양한 실시예들에 따른, 네트워크 환경(100) 내의 전자 장치(101)의 블록도이다. 도 1을 참조하면, 네트워크 환경(100)에서 전자 장치(101)는 제 1 네트워크(198)(예: 근거리 무선 통신 네트워크)를 통하여 전자 장치(102)와 통신하거나, 또는 제 2 네트워크(199)(예: 원거리 무선 통신 네트워크)를 통하여 전자 장치(104) 또는 서버(108) 중 적어도 하나와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 서버(108)를 통하여 전자 장치(104)와 통신할 수 있다. 일실시예에 따르면, 전자 장치(101)는 프로세서(120), 메모리(130), 입력 모듈(150), 음향 출력 모듈(155), 디스플레이 모듈(160), 오디오 모듈(170), 센서 모듈(176), 인터페이스(177), 연결 단자(178), 햅틱 모듈(179), 카메라 모듈(180), 전력 관리 모듈(188), 배터리(189), 통신 모듈(190), 가입자 식별 모듈(196), 또는 안테나 모듈(197)을 포함할 수 있다. 어떤 실시예에서는, 전자 장치(101)에는, 이 구성요소들 중 적어도 하나(예: 연결 단자(178))가 생략되거나, 하나 이상의 다른 구성요소가 추가될 수 있다. 어떤 실시예에서는, 이 구성요소들 중 일부들(예: 센서 모듈(176), 카메라 모듈(180), 또는 안테나 모듈(197))은 하나의 구성요소(예: 디스플레이 모듈(160))로 통합될 수 있다.FIG. 1 is a block diagram of an electronic device (101) in a network environment (100) according to various embodiments. Referring to FIG. 1, in the network environment (100), the electronic device (101) may communicate with the electronic device (102) via a first network (198) (e.g., a short-range wireless communication network), or may communicate with at least one of the electronic device (104) or the server (108) via a second network (199) (e.g., a long-range wireless communication network). According to one embodiment, the electronic device (101) may communicate with the electronic device (104) via the server (108). According to one embodiment, the electronic device (101) may include a processor (120), a memory (130), an input module (150), an audio output module (155), a display module (160), an audio module (170), a sensor module (176), an interface (177), a connection terminal (178), a haptic module (179), a camera module (180), a power management module (188), a battery (189), a communication module (190), a subscriber identification module (196), or an antenna module (197). In some embodiments, the electronic device (101) may omit at least one of these components (e.g., the connection terminal (178)), or may have one or more other components added. In some embodiments, some of these components (e.g., the sensor module (176), the camera module (180), or the antenna module (197)) may be integrated into one component (e.g., the display module (160)).
프로세서(120)는, 예를 들면, 소프트웨어(예: 프로그램(140))를 실행하여 프로세서(120)에 연결된 전자 장치(101)의 적어도 하나의 다른 구성요소(예: 하드웨어 또는 소프트웨어 구성요소)를 제어할 수 있고, 다양한 데이터 처리 또는 연산을 수행할 수 있다. 일실시예에 따르면, 데이터 처리 또는 연산의 적어도 일부로서, 프로세서(120)는 다른 구성요소(예: 센서 모듈(176) 또는 통신 모듈(190))로부터 수신된 명령 또는 데이터를 휘발성 메모리(132)에 저장하고, 휘발성 메모리(132)에 저장된 명령 또는 데이터를 처리하고, 결과 데이터를 비휘발성 메모리(134)에 저장할 수 있다. 일실시예에 따르면, 프로세서(120)는 메인 프로세서(121)(예: 중앙 처리 장치 또는 어플리케이션 프로세서) 또는 이와는 독립적으로 또는 함께 운영 가능한 보조 프로세서(123)(예: 그래픽 처리 장치, 신경망 처리 장치(NPU: neural processing unit), 이미지 시그널 프로세서, 센서 허브 프로세서, 또는 커뮤니케이션 프로세서)를 포함할 수 있다. 예를 들어, 전자 장치(101)가 메인 프로세서(121) 및 보조 프로세서(123)를 포함하는 경우, 보조 프로세서(123)는 메인 프로세서(121)보다 저전력을 사용하거나, 지정된 기능에 특화되도록 설정될 수 있다. 보조 프로세서(123)는 메인 프로세서(121)와 별개로, 또는 그 일부로서 구현될 수 있다.The processor (120) may control at least one other component (e.g., a hardware or software component) of an electronic device (101) connected to the processor (120) by executing, for example, software (e.g., a program (140)), and may perform various data processing or calculations. According to one embodiment, as at least a part of the data processing or calculations, the processor (120) may store a command or data received from another component (e.g., a sensor module (176) or a communication module (190)) in a volatile memory (132), process the command or data stored in the volatile memory (132), and store result data in a nonvolatile memory (134). According to one embodiment, the processor (120) may include a main processor (121) (e.g., a central processing unit or an application processor) or an auxiliary processor (123) (e.g., a graphics processing unit, a neural processing unit (NPU), an image signal processor, a sensor hub processor, or a communication processor) that can operate independently or together with the main processor (121). For example, when the electronic device (101) includes the main processor (121) and the auxiliary processor (123), the auxiliary processor (123) may be configured to use less power than the main processor (121) or to be specialized for a given function. The auxiliary processor (123) may be implemented separately from the main processor (121) or as a part thereof.
보조 프로세서(123)는, 예를 들면, 메인 프로세서(121)가 인액티브(예: 슬립) 상태에 있는 동안 메인 프로세서(121)를 대신하여, 또는 메인 프로세서(121)가 액티브(예: 어플리케이션 실행) 상태에 있는 동안 메인 프로세서(121)와 함께, 전자 장치(101)의 구성요소들 중 적어도 하나의 구성요소(예: 디스플레이 모듈(160), 센서 모듈(176), 또는 통신 모듈(190))와 관련된 기능 또는 상태들의 적어도 일부를 제어할 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 이미지 시그널 프로세서 또는 커뮤니케이션 프로세서)는 기능적으로 관련 있는 다른 구성요소(예: 카메라 모듈(180) 또는 통신 모듈(190))의 일부로서 구현될 수 있다. 일실시예에 따르면, 보조 프로세서(123)(예: 신경망 처리 장치)는 인공지능 모델의 처리에 특화된 하드웨어 구조를 포함할 수 있다. 인공지능 모델은 기계 학습을 통해 생성될 수 있다. 이러한 학습은, 예를 들어, 인공지능 모델이 수행되는 전자 장치(101) 자체에서 수행될 수 있고, 별도의 서버(예: 서버(108))를 통해 수행될 수도 있다. 학습 알고리즘은, 예를 들어, 지도형 학습(supervised learning), 비지도형 학습(unsupervised learning), 준지도형 학습(semi-supervised learning) 또는 강화 학습(reinforcement learning)을 포함할 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은, 복수의 인공 신경망 레이어들을 포함할 수 있다. 인공 신경망은 심층 신경망(DNN: deep neural network), CNN(convolutional neural network), RNN(recurrent neural network), RBM(restricted boltzmann machine), DBN(deep belief network), BRDNN(bidirectional recurrent deep neural network), 심층 Q-네트워크(deep Q-networks) 또는 상기 중 둘 이상의 조합 중 하나일 수 있으나, 전술한 예에 한정되지 않는다. 인공지능 모델은 하드웨어 구조 이외에, 추가적으로 또는 대체적으로, 소프트웨어 구조를 포함할 수 있다.The auxiliary processor (123) may control at least a portion of functions or states associated with at least one of the components of the electronic device (101) (e.g., the display module (160), the sensor module (176), or the communication module (190)), for example, on behalf of the main processor (121) while the main processor (121) is in an inactive (e.g., sleep) state, or together with the main processor (121) while the main processor (121) is in an active (e.g., application execution) state. In one embodiment, the auxiliary processor (123) (e.g., an image signal processor or a communication processor) may be implemented as a part of another functionally related component (e.g., a camera module (180) or a communication module (190)). In one embodiment, the auxiliary processor (123) (e.g., a neural network processing device) may include a hardware structure specialized for processing artificial intelligence models. The artificial intelligence models may be generated through machine learning. Such learning may be performed, for example, in the electronic device (101) itself on which the artificial intelligence model is executed, or may be performed through a separate server (e.g., server (108)). The learning algorithm may include, for example, supervised learning, unsupervised learning, semi-supervised learning, or reinforcement learning, but is not limited to the examples described above. The artificial intelligence model may include a plurality of artificial neural network layers. The artificial neural network may be one of a deep neural network (DNN), a convolutional neural network (CNN), a recurrent neural network (RNN), a restricted Boltzmann machine (RBM), a deep belief network (DBN), a bidirectional recurrent deep neural network (BRDNN), deep Q-networks, or a combination of two or more of the above, but is not limited to the examples described above. In addition to the hardware structure, the artificial intelligence model may additionally or alternatively include a software structure.
메모리(130)는, 전자 장치(101)의 적어도 하나의 구성요소(예: 프로세서(120) 또는 센서 모듈(176))에 의해 사용되는 다양한 데이터를 저장할 수 있다. 데이터는, 예를 들어, 소프트웨어(예: 프로그램(140)) 및, 이와 관련된 명령에 대한 입력 데이터 또는 출력 데이터를 포함할 수 있다. 메모리(130)는, 휘발성 메모리(132) 또는 비휘발성 메모리(134)를 포함할 수 있다. The memory (130) can store various data used by at least one component (e.g., processor (120) or sensor module (176)) of the electronic device (101). The data can include, for example, software (e.g., program (140)) and input data or output data for commands related thereto. The memory (130) can include volatile memory (132) or nonvolatile memory (134).
프로그램(140)은 메모리(130)에 소프트웨어로서 저장될 수 있으며, 예를 들면, 운영 체제(142), 미들 웨어(144) 또는 어플리케이션(146)을 포함할 수 있다. The program (140) may be stored as software in memory (130) and may include, for example, an operating system (142), middleware (144), or an application (146).
입력 모듈(150)은, 전자 장치(101)의 구성요소(예: 프로세서(120))에 사용될 명령 또는 데이터를 전자 장치(101)의 외부(예: 사용자)로부터 수신할 수 있다. 입력 모듈(150)은, 예를 들면, 마이크, 마우스, 키보드, 키(예: 버튼), 또는 디지털 펜(예: 스타일러스 펜)을 포함할 수 있다. The input module (150) can receive commands or data to be used in a component of the electronic device (101) (e.g., a processor (120)) from an external source (e.g., a user) of the electronic device (101). The input module (150) can include, for example, a microphone, a mouse, a keyboard, a key (e.g., a button), or a digital pen (e.g., a stylus pen).
음향 출력 모듈(155)은 음향 신호를 전자 장치(101)의 외부로 출력할 수 있다. 음향 출력 모듈(155)은, 예를 들면, 스피커 또는 리시버를 포함할 수 있다. 스피커는 멀티미디어 재생 또는 녹음 재생과 같이 일반적인 용도로 사용될 수 있다. 리시버는 착신 전화를 수신하기 위해 사용될 수 있다. 일실시예에 따르면, 리시버는 스피커와 별개로, 또는 그 일부로서 구현될 수 있다.The audio output module (155) can output an audio signal to the outside of the electronic device (101). The audio output module (155) can include, for example, a speaker or a receiver. The speaker can be used for general purposes such as multimedia playback or recording playback. The receiver can be used to receive an incoming call. According to one embodiment, the receiver can be implemented separately from the speaker or as a part thereof.
디스플레이 모듈(160)은 전자 장치(101)의 외부(예: 사용자)로 정보를 시각적으로 제공할 수 있다. 디스플레이 모듈(160)은, 예를 들면, 디스플레이, 홀로그램 장치, 또는 프로젝터 및 해당 장치를 제어하기 위한 제어 회로를 포함할 수 있다. 일실시예에 따르면, 디스플레이 모듈(160)은 터치를 감지하도록 설정된 터치 센서, 또는 상기 터치에 의해 발생되는 힘의 세기를 측정하도록 설정된 압력 센서를 포함할 수 있다. The display module (160) can visually provide information to an external party (e.g., a user) of the electronic device (101). The display module (160) can include, for example, a display, a holographic device, or a projector and a control circuit for controlling the device. According to one embodiment, the display module (160) can include a touch sensor configured to detect a touch, or a pressure sensor configured to measure the intensity of a force generated by the touch.
오디오 모듈(170)은 소리를 전기 신호로 변환시키거나, 반대로 전기 신호를 소리로 변환시킬 수 있다. 일실시예에 따르면, 오디오 모듈(170)은, 입력 모듈(150)을 통해 소리를 획득하거나, 음향 출력 모듈(155), 또는 전자 장치(101)와 직접 또는 무선으로 연결된 외부 전자 장치(예: 전자 장치(102))(예: 스피커 또는 헤드폰)를 통해 소리를 출력할 수 있다.The audio module (170) can convert sound into an electrical signal, or vice versa, convert an electrical signal into sound. According to one embodiment, the audio module (170) can obtain sound through an input module (150), or output sound through an audio output module (155), or an external electronic device (e.g., an electronic device (102)) (e.g., a speaker or a headphone) directly or wirelessly connected to the electronic device (101).
센서 모듈(176)은 전자 장치(101)의 작동 상태(예: 전력 또는 온도), 또는 외부의 환경 상태(예: 사용자 상태)를 감지하고, 감지된 상태에 대응하는 전기 신호 또는 데이터 값을 생성할 수 있다. 일실시예에 따르면, 센서 모듈(176)은, 예를 들면, 제스처 센서, 자이로 센서, 기압 센서, 마그네틱 센서, 가속도 센서, 그립 센서, 근접 센서, 컬러 센서, IR(infrared) 센서, 생체 센서, 온도 센서, 습도 센서, 또는 조도 센서를 포함할 수 있다. The sensor module (176) can detect an operating state (e.g., power or temperature) of the electronic device (101) or an external environmental state (e.g., user state) and generate an electrical signal or data value corresponding to the detected state. According to one embodiment, the sensor module (176) can include, for example, a gesture sensor, a gyro sensor, a barometric pressure sensor, a magnetic sensor, an acceleration sensor, a grip sensor, a proximity sensor, a color sensor, an IR (infrared) sensor, a biometric sensor, a temperature sensor, a humidity sensor, or an illuminance sensor.
인터페이스(177)는 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 직접 또는 무선으로 연결되기 위해 사용될 수 있는 하나 이상의 지정된 프로토콜들을 지원할 수 있다. 일실시예에 따르면, 인터페이스(177)는, 예를 들면, HDMI(high definition multimedia interface), USB(universal serial bus) 인터페이스, SD카드 인터페이스, 또는 오디오 인터페이스를 포함할 수 있다.The interface (177) may support one or more designated protocols that may be used to directly or wirelessly connect the electronic device (101) with an external electronic device (e.g., the electronic device (102)). In one embodiment, the interface (177) may include, for example, a high definition multimedia interface (HDMI), a universal serial bus (USB) interface, an SD card interface, or an audio interface.
연결 단자(178)는, 그를 통해서 전자 장치(101)가 외부 전자 장치(예: 전자 장치(102))와 물리적으로 연결될 수 있는 커넥터를 포함할 수 있다. 일실시예에 따르면, 연결 단자(178)는, 예를 들면, HDMI 커넥터, USB 커넥터, SD 카드 커넥터, 또는 오디오 커넥터(예: 헤드폰 커넥터)를 포함할 수 있다.The connection terminal (178) may include a connector through which the electronic device (101) may be physically connected to an external electronic device (e.g., the electronic device (102)). According to one embodiment, the connection terminal (178) may include, for example, an HDMI connector, a USB connector, an SD card connector, or an audio connector (e.g., a headphone connector).
햅틱 모듈(179)은 전기적 신호를 사용자가 촉각 또는 운동 감각을 통해서 인지할 수 있는 기계적인 자극(예: 진동 또는 움직임) 또는 전기적인 자극으로 변환할 수 있다. 일실시예에 따르면, 햅틱 모듈(179)은, 예를 들면, 모터, 압전 소자, 또는 전기 자극 장치를 포함할 수 있다.The haptic module (179) can convert an electrical signal into a mechanical stimulus (e.g., vibration or movement) or an electrical stimulus that a user can perceive through a tactile or kinesthetic sense. According to one embodiment, the haptic module (179) can include, for example, a motor, a piezoelectric element, or an electrical stimulation device.
카메라 모듈(180)은 정지 영상 및 동영상을 촬영할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 하나 이상의 렌즈들, 이미지 센서들, 이미지 시그널 프로세서들, 또는 플래시들을 포함할 수 있다.The camera module (180) can capture still images and moving images. According to one embodiment, the camera module (180) can include one or more lenses, image sensors, image signal processors, or flashes.
전력 관리 모듈(188)은 전자 장치(101)에 공급되는 전력을 관리할 수 있다. 일실시예에 따르면, 전력 관리 모듈(188)은, 예를 들면, PMIC(power management integrated circuit)의 적어도 일부로서 구현될 수 있다.The power management module (188) can manage power supplied to the electronic device (101). According to one embodiment, the power management module (188) can be implemented as, for example, at least a part of a power management integrated circuit (PMIC).
배터리(189)는 전자 장치(101)의 적어도 하나의 구성요소에 전력을 공급할 수 있다. 일실시예에 따르면, 배터리(189)는, 예를 들면, 재충전 불가능한 1차 전지, 재충전 가능한 2차 전지 또는 연료 전지를 포함할 수 있다.The battery (189) can power at least one component of the electronic device (101). In one embodiment, the battery (189) can include, for example, a non-rechargeable primary battery, a rechargeable secondary battery, or a fuel cell.
통신 모듈(190)은 전자 장치(101)와 외부 전자 장치(예: 전자 장치(102), 전자 장치(104), 또는 서버(108)) 간의 직접(예: 유선) 통신 채널 또는 무선 통신 채널의 수립, 및 수립된 통신 채널을 통한 통신 수행을 지원할 수 있다. 통신 모듈(190)은 프로세서(120)(예: 어플리케이션 프로세서)와 독립적으로 운영되고, 직접(예: 유선) 통신 또는 무선 통신을 지원하는 하나 이상의 커뮤니케이션 프로세서를 포함할 수 있다. 일실시예에 따르면, 통신 모듈(190)은 무선 통신 모듈(192)(예: 셀룰러 통신 모듈, 근거리 무선 통신 모듈, 또는 GNSS(global navigation satellite system) 통신 모듈) 또는 유선 통신 모듈(194)(예: LAN(local area network) 통신 모듈, 또는 전력선 통신 모듈)을 포함할 수 있다. 이들 통신 모듈 중 해당하는 통신 모듈은 제 1 네트워크(198)(예: 블루투스, WiFi(wireless fidelity) direct 또는 IrDA(infrared data association)와 같은 근거리 통신 네트워크) 또는 제 2 네트워크(199)(예: 레거시 셀룰러 네트워크, 5G 네트워크, 차세대 통신 네트워크, 인터넷, 또는 컴퓨터 네트워크(예: LAN 또는 WAN)와 같은 원거리 통신 네트워크)를 통하여 외부의 전자 장치(104)와 통신할 수 있다. 이런 여러 종류의 통신 모듈들은 하나의 구성요소(예: 단일 칩)로 통합되거나, 또는 서로 별도의 복수의 구성요소들(예: 복수 칩들)로 구현될 수 있다. 무선 통신 모듈(192)은 가입자 식별 모듈(196)에 저장된 가입자 정보(예: 국제 모바일 가입자 식별자(IMSI))를 이용하여 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크 내에서 전자 장치(101)를 확인 또는 인증할 수 있다. The communication module (190) may support establishment of a direct (e.g., wired) communication channel or a wireless communication channel between the electronic device (101) and an external electronic device (e.g., the electronic device (102), the electronic device (104), or the server (108)), and performance of communication through the established communication channel. The communication module (190) may operate independently from the processor (120) (e.g., the application processor) and may include one or more communication processors that support direct (e.g., wired) communication or wireless communication. According to one embodiment, the communication module (190) may include a wireless communication module (192) (e.g., a cellular communication module, a short-range wireless communication module, or a global navigation satellite system (GNSS) communication module) or a wired communication module (194) (e.g., a local area network (LAN) communication module or a power line communication module). Among these communication modules, a corresponding communication module may communicate with an external electronic device (104) via a first network (198) (e.g., a short-range communication network such as Bluetooth, wireless fidelity (WiFi) direct, or infrared data association (IrDA)) or a second network (199) (e.g., a long-range communication network such as a legacy cellular network, a 5G network, a next-generation communication network, the Internet, or a computer network (e.g., a LAN or WAN)). These various types of communication modules may be integrated into a single component (e.g., a single chip) or implemented as multiple separate components (e.g., multiple chips). The wireless communication module (192) may use subscriber information (e.g., an international mobile subscriber identity (IMSI)) stored in the subscriber identification module (196) to identify or authenticate the electronic device (101) within a communication network such as the first network (198) or the second network (199).
무선 통신 모듈(192)은 4G 네트워크 이후의 5G 네트워크 및 차세대 통신 기술, 예를 들어, NR 접속 기술(new radio access technology)을 지원할 수 있다. NR 접속 기술은 고용량 데이터의 고속 전송(eMBB(enhanced mobile broadband)), 단말 전력 최소화와 다수 단말의 접속(mMTC(massive machine type communications)), 또는 고신뢰도와 저지연(URLLC(ultra-reliable and low-latency communications))을 지원할 수 있다. 무선 통신 모듈(192)은, 예를 들어, 높은 데이터 전송률 달성을 위해, 고주파 대역(예: mmWave 대역)을 지원할 수 있다. 무선 통신 모듈(192)은 고주파 대역에서의 성능 확보를 위한 다양한 기술들, 예를 들어, 빔포밍(beamforming), 거대 배열 다중 입출력(massive MIMO(multiple-input and multiple-output)), 전차원 다중입출력(FD-MIMO: full dimensional MIMO), 어레이 안테나(array antenna), 아날로그 빔형성(analog beam-forming), 또는 대규모 안테나(large scale antenna)와 같은 기술들을 지원할 수 있다. 무선 통신 모듈(192)은 전자 장치(101), 외부 전자 장치(예: 전자 장치(104)) 또는 네트워크 시스템(예: 제 2 네트워크(199))에 규정되는 다양한 요구사항을 지원할 수 있다. 일실시예에 따르면, 무선 통신 모듈(192)은 eMBB 실현을 위한 Peak data rate(예: 20Gbps 이상), mMTC 실현을 위한 손실 Coverage(예: 164dB 이하), 또는 URLLC 실현을 위한 U-plane latency(예: 다운링크(DL) 및 업링크(UL) 각각 0.5ms 이하, 또는 라운드 트립 1ms 이하)를 지원할 수 있다.The wireless communication module (192) can support a 5G network and next-generation communication technology after a 4G network, for example, NR access technology (new radio access technology). The NR access technology can support high-speed transmission of high-capacity data (eMBB (enhanced mobile broadband)), terminal power minimization and connection of multiple terminals (mMTC (massive machine type communications)), or high reliability and low latency (URLLC (ultra-reliable and low-latency communications)). The wireless communication module (192) can support, for example, a high-frequency band (e.g., mmWave band) to achieve a high data transmission rate. The wireless communication module (192) can support various technologies for securing performance in a high-frequency band, such as beamforming, massive multiple-input and multiple-output (MIMO), full dimensional MIMO (FD-MIMO), array antenna, analog beam-forming, or large scale antenna. The wireless communication module (192) can support various requirements specified in an electronic device (101), an external electronic device (e.g., an electronic device (104)), or a network system (e.g., a second network (199)). According to one embodiment, the wireless communication module (192) can support a peak data rate (e.g., 20 Gbps or more) for eMBB realization, a loss coverage (e.g., 164 dB or less) for mMTC realization, or a U-plane latency (e.g., 0.5 ms or less for downlink (DL) and uplink (UL) each, or 1 ms or less for round trip) for URLLC realization.
안테나 모듈(197)은 신호 또는 전력을 외부(예: 외부의 전자 장치)로 송신하거나 외부로부터 수신할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 서브스트레이트(예: PCB) 위에 형성된 도전체 또는 도전성 패턴으로 이루어진 방사체를 포함하는 안테나를 포함할 수 있다. 일실시예에 따르면, 안테나 모듈(197)은 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다. 이런 경우, 제 1 네트워크(198) 또는 제 2 네트워크(199)와 같은 통신 네트워크에서 사용되는 통신 방식에 적합한 적어도 하나의 안테나가, 예를 들면, 통신 모듈(190)에 의하여 상기 복수의 안테나들로부터 선택될 수 있다. 신호 또는 전력은 상기 선택된 적어도 하나의 안테나를 통하여 통신 모듈(190)과 외부의 전자 장치 간에 송신되거나 수신될 수 있다. 어떤 실시예에 따르면, 방사체 이외에 다른 부품(예: RFIC(radio frequency integrated circuit))이 추가로 안테나 모듈(197)의 일부로 형성될 수 있다. The antenna module (197) may transmit or receive signals or power to or from the outside (e.g., an external electronic device). According to one embodiment, the antenna module (197) may include an antenna including a radiator formed of a conductor or a conductive pattern formed on a substrate (e.g., a PCB). According to one embodiment, the antenna module (197) may include a plurality of antennas (e.g., an array antenna). In this case, at least one antenna suitable for a communication method used in a communication network, such as the first network (198) or the second network (199), may be selected from the plurality of antennas by, for example, the communication module (190). A signal or power may be transmitted or received between the communication module (190) and the external electronic device through the at least one selected antenna. According to some embodiments, in addition to the radiator, another component (e.g., a radio frequency integrated circuit (RFIC)) may be additionally formed as a part of the antenna module (197).
다양한 실시예에 따르면, 안테나 모듈(197)은 mmWave 안테나 모듈을 형성할 수 있다. 일실시예에 따르면, mmWave 안테나 모듈은 인쇄 회로 기판, 상기 인쇄 회로 기판의 제 1 면(예: 아래 면)에 또는 그에 인접하여 배치되고 지정된 고주파 대역(예: mmWave 대역)을 지원할 수 있는 RFIC, 및 상기 인쇄 회로 기판의 제 2 면(예: 윗 면 또는 측 면)에 또는 그에 인접하여 배치되고 상기 지정된 고주파 대역의 신호를 송신 또는 수신할 수 있는 복수의 안테나들(예: 어레이 안테나)을 포함할 수 있다.According to various embodiments, the antenna module (197) may form a mmWave antenna module. According to one embodiment, the mmWave antenna module may include a printed circuit board, an RFIC positioned on or adjacent a first side (e.g., a bottom side) of the printed circuit board and capable of supporting a designated high-frequency band (e.g., a mmWave band), and a plurality of antennas (e.g., an array antenna) positioned on or adjacent a second side (e.g., a top side or a side) of the printed circuit board and capable of transmitting or receiving signals in the designated high-frequency band.
상기 구성요소들 중 적어도 일부는 주변 기기들간 통신 방식(예: 버스, GPIO(general purpose input and output), SPI(serial peripheral interface), 또는 MIPI(mobile industry processor interface))을 통해 서로 연결되고 신호(예: 명령 또는 데이터)를 상호간에 교환할 수 있다.At least some of the above components can be connected to each other and exchange signals (e.g., commands or data) with each other via a communication method between peripheral devices (e.g., a bus, GPIO (general purpose input and output), SPI (serial peripheral interface), or MIPI (mobile industry processor interface)).
일실시예에 따르면, 명령 또는 데이터는 제 2 네트워크(199)에 연결된 서버(108)를 통해서 전자 장치(101)와 외부의 전자 장치(104)간에 송신 또는 수신될 수 있다. 외부의 전자 장치(102, 또는 104) 각각은 전자 장치(101)와 동일한 또는 다른 종류의 장치일 수 있다. 일실시예에 따르면, 전자 장치(101)에서 실행되는 동작들의 전부 또는 일부는 외부의 전자 장치들(102, 104, 또는 108) 중 하나 이상의 외부의 전자 장치들에서 실행될 수 있다. 예를 들면, 전자 장치(101)가 어떤 기능이나 서비스를 자동으로, 또는 사용자 또는 다른 장치로부터의 요청에 반응하여 수행해야 할 경우에, 전자 장치(101)는 기능 또는 서비스를 자체적으로 실행시키는 대신에 또는 추가적으로, 하나 이상의 외부의 전자 장치들에게 그 기능 또는 그 서비스의 적어도 일부를 수행하라고 요청할 수 있다. 상기 요청을 수신한 하나 이상의 외부의 전자 장치들은 요청된 기능 또는 서비스의 적어도 일부, 또는 상기 요청과 관련된 추가 기능 또는 서비스를 실행하고, 그 실행의 결과를 전자 장치(101)로 전달할 수 있다. 전자 장치(101)는 상기 결과를, 그대로 또는 추가적으로 처리하여, 상기 요청에 대한 응답의 적어도 일부로서 제공할 수 있다. 이를 위하여, 예를 들면, 클라우드 컴퓨팅, 분산 컴퓨팅, 모바일 에지 컴퓨팅(MEC: mobile edge computing), 또는 클라이언트-서버 컴퓨팅 기술이 이용될 수 있다. 전자 장치(101)는, 예를 들어, 분산 컴퓨팅 또는 모바일 에지 컴퓨팅을 이용하여 초저지연 서비스를 제공할 수 있다. 일 실시예에 있어서, 외부의 전자 장치(104)는 IoT(internet of things) 기기를 포함할 수 있다. 서버(108)는 기계 학습 및/또는 신경망을 이용한 지능형 서버일 수 있다. 일실시예에 따르면, 외부의 전자 장치(104) 또는 서버(108)는 제 2 네트워크(199) 내에 포함될 수 있다. 전자 장치(101)는 5G 통신 기술 및 IoT 관련 기술을 기반으로 지능형 서비스(예: 스마트 홈, 스마트 시티, 스마트 카, 또는 헬스 케어)에 적용될 수 있다.In one embodiment, commands or data may be transmitted or received between the electronic device (101) and an external electronic device (104) via a server (108) connected to a second network (199). Each of the external electronic devices (102 or 104) may be the same or a different type of device as the electronic device (101). In one embodiment, all or part of the operations executed in the electronic device (101) may be executed in one or more of the external electronic devices (102, 104, or 108). For example, when the electronic device (101) is to perform a certain function or service automatically or in response to a request from a user or another device, the electronic device (101) may, instead of executing the function or service itself or in addition, request one or more external electronic devices to perform at least a part of the function or service. One or more external electronic devices that have received the request may execute at least a part of the requested function or service, or an additional function or service related to the request, and transmit the result of the execution to the electronic device (101). The electronic device (101) may provide the result, as is or additionally processed, as at least a part of a response to the request. For this purpose, cloud computing, distributed computing, mobile edge computing (MEC), or client-server computing technology may be used, for example. The electronic device (101) may provide an ultra-low latency service by using distributed computing or mobile edge computing, for example. In one embodiment, the external electronic device (104) may include an IoT (Internet of Things) device. The server (108) may be an intelligent server using machine learning and/or a neural network. According to one embodiment, the external electronic device (104) or the server (108) may be included in the second network (199). The electronic device (101) can be applied to intelligent services (e.g., smart home, smart city, smart car, or healthcare) based on 5G communication technology and IoT-related technology.
본 문서에 개시된 다양한 실시예들에 따른 전자 장치는 다양한 형태의 장치가 될 수 있다. 전자 장치는, 예를 들면, 휴대용 통신 장치(예: 스마트폰), 컴퓨터 장치, 휴대용 멀티미디어 장치, 휴대용 의료 기기, 카메라, 웨어러블 장치, 또는 가전 장치를 포함할 수 있다. 본 문서의 실시예에 따른 전자 장치는 전술한 기기들에 한정되지 않는다.The electronic devices according to various embodiments disclosed in this document may be devices of various forms. The electronic devices may include, for example, portable communication devices (e.g., smartphones), computer devices, portable multimedia devices, portable medical devices, cameras, wearable devices, or home appliance devices. The electronic devices according to embodiments of this document are not limited to the above-described devices.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 상기 아이템 한 개 또는 복수 개를 포함할 수 있다. 본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나", "A, B 또는 C", "A, B 및 C 중 적어도 하나", 및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들 중 어느 하나, 또는 그들의 모든 가능한 조합을 포함할 수 있다. "제 1", "제 2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제 1) 구성요소가 다른(예: 제 2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 상기 어떤 구성요소가 상기 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제 3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.It should be understood that the various embodiments of this document and the terminology used herein are not intended to limit the technical features described in this document to specific embodiments, but rather to encompass various modifications, equivalents, or substitutes of the embodiments. In connection with the description of the drawings, similar reference numerals may be used for similar or related components. The singular form of a noun corresponding to an item may include one or more of the items, unless the context clearly dictates otherwise. In this document, each of the phrases "A or B", "at least one of A and B", "at least one of A or B", "A, B, or C", "at least one of A, B, and C", and "at least one of A, B, or C" can include any one of the items listed together in the corresponding phrase, or all possible combinations thereof. Terms such as "first", "second", or "first" or "second" may be used merely to distinguish one component from another, and do not limit the components in any other respect (e.g., importance or order). When a component (e.g., a first) is referred to as "coupled" or "connected" to another (e.g., a second) component, with or without the terms "functionally" or "communicatively," it means that the component can be connected to the other component directly (e.g., wired), wirelessly, or through a third component.
본 문서의 다양한 실시예들에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로와 같은 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 상기 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term "module" used in various embodiments of this document may include a unit implemented in hardware, software or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be a component that is configured integrally or a minimum unit of the component that performs one or more functions, or a part thereof. For example, according to one embodiment, a module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(machine)(예: 전자 장치(101)) 의해 읽을 수 있는 저장 매체(storage medium)(예: 내장 메모리(136) 또는 외장 메모리(138))에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램(140))로서 구현될 수 있다. 예를 들면, 기기(예: 전자 장치(101))의 프로세서(예: 프로세서(120))는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 상기 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 상기 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 기기로 읽을 수 있는 저장 매체는, 비일시적(non-transitory) 저장 매체의 형태로 제공될 수 있다. 여기서, ‘비일시적’은 저장 매체가 실재(tangible)하는 장치이고, 신호(signal)(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장 매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.Various embodiments of the present document may be implemented as software (e.g., a program (140)) including one or more instructions stored in a storage medium (e.g., an internal memory (136) or an external memory (138)) readable by a machine (e.g., an electronic device (101)). For example, a processor (e.g., a processor (120)) of the machine (e.g., an electronic device (101)) may call at least one instruction among the one or more instructions stored from the storage medium and execute it. This enables the machine to operate to perform at least one function according to the at least one called instruction. The one or more instructions may include code generated by a compiler or code executable by an interpreter. The machine-readable storage medium may be provided in the form of a non-transitory storage medium. Here, ‘non-transitory’ simply means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves), and the term does not distinguish between cases where data is stored semi-permanently or temporarily on the storage medium.
일실시예에 따르면, 본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory(CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어TM)를 통해 또는 두 개의 사용자 장치들(예: 스마트 폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 중계 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.According to one embodiment, the method according to various embodiments disclosed in the present document may be provided as included in a computer program product. The computer program product may be traded between a seller and a buyer as a commodity. The computer program product may be distributed in the form of a machine-readable storage medium (e.g., a compact disc read only memory (CD-ROM)), or may be distributed online (e.g., downloaded or uploaded) via an application store (e.g., Play Store TM ) or directly between two user devices (e.g., smart phones). In the case of online distribution, at least a part of the computer program product may be at least temporarily stored or temporarily generated in a machine-readable storage medium, such as a memory of a manufacturer's server, a server of an application store, or an intermediary server.
다양한 실시예들에 따르면, 상기 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있으며, 복수의 개체 중 일부는 다른 구성요소에 분리 배치될 수도 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 상기 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 상기 통합 이전에 상기 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 상기 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (e.g., a module or a program) of the above-described components may include a single or multiple entities, and some of the multiple entities may be separately arranged in other components. According to various embodiments, one or more of the components or operations of the above-described components may be omitted, or one or more other components or operations may be added. Alternatively or additionally, the multiple components (e.g., a module or a program) may be integrated into one component. In such a case, the integrated component may perform one or more functions of each of the multiple components identically or similarly to those performed by the corresponding component of the multiple components before the integration. According to various embodiments, the operations performed by the module, program, or other component may be executed sequentially, in parallel, repeatedly, or heuristically, or one or more of the operations may be executed in a different order, omitted, or one or more other operations may be added.
도 2는, 다양한 실시예들에 따른, 카메라 모듈(180)을 예시하는 블럭도(200)이다. 도 2를 참조하면, 카메라 모듈(180)은 렌즈 어셈블리(210), 플래쉬(220), 이미지 센서(230), 이미지 스태빌라이저(240), 메모리(250)(예: 버퍼 메모리), 또는 이미지 시그널 프로세서(260)를 포함할 수 있다. 렌즈 어셈블리(210)는 이미지 촬영의 대상인 피사체로부터 방출되는 빛을 수집할 수 있다. 렌즈 어셈블리(210)는 하나 또는 그 이상의 렌즈들을 포함할 수 있다. 일실시예에 따르면, 카메라 모듈(180)은 복수의 렌즈 어셈블리(210)들을 포함할 수 있다. 이런 경우, 카메라 모듈(180)은, 예를 들면, 듀얼 카메라, 360도 카메라, 또는 구형 카메라(spherical camera)를 형성할 수 있다. 복수의 렌즈 어셈블리(210)들 중 일부는 동일한 렌즈 속성(예: 화각, 초점 거리, 자동 초점, f 넘버(f number), 또는 광학 줌)을 갖거나, 또는 적어도 하나의 렌즈 어셈블리는 다른 렌즈 어셈블리의 렌즈 속성들과 다른 하나 이상의 렌즈 속성들을 가질 수 있다. 렌즈 어셈블리(210)는, 예를 들면, 광각 렌즈 또는 망원 렌즈를 포함할 수 있다. FIG. 2 is a block diagram (200) illustrating a camera module (180) according to various embodiments. Referring to FIG. 2, the camera module (180) may include a lens assembly (210), a flash (220), an image sensor (230), an image stabilizer (240), a memory (250) (e.g., a buffer memory), or an image signal processor (260). The lens assembly (210) may collect light emitted from a subject that is a target of an image capture. The lens assembly (210) may include one or more lenses. According to one embodiment, the camera module (180) may include a plurality of lens assemblies (210). In this case, the camera module (180) may form, for example, a dual camera, a 360-degree camera, or a spherical camera. Some of the plurality of lens assemblies (210) may have the same lens properties (e.g., angle of view, focal length, autofocus, f number, or optical zoom), or at least one lens assembly may have one or more lens properties that are different from the lens properties of the other lens assemblies. The lens assembly (210) may include, for example, a wide-angle lens or a telephoto lens.
플래쉬(220)는 피사체로부터 방출 또는 반사되는 빛을 강화하기 위하여 사용되는 빛을 방출할 수 있다. 일실시예에 따르면, 플래쉬(220)는 하나 이상의 발광 다이오드들(예: RGB(red-green-blue) LED, white LED, infrared LED, 또는 ultraviolet LED), 또는 xenon lamp를 포함할 수 있다. 이미지 센서(230)는 피사체로부터 방출 또는 반사되어 렌즈 어셈블리(210)를 통해 전달된 빛을 전기적인 신호로 변환함으로써, 상기 피사체에 대응하는 이미지를 획득할 수 있다. 일실시예에 따르면, 이미지 센서(230)는, 예를 들면, RGB 센서, BW(black and white) 센서, IR 센서, 또는 UV 센서와 같이 속성이 다른 이미지 센서들 중 선택된 하나의 이미지 센서, 동일한 속성을 갖는 복수의 이미지 센서들, 또는 다른 속성을 갖는 복수의 이미지 센서들을 포함할 수 있다. 이미지 센서(230)에 포함된 각각의 이미지 센서는, 예를 들면, CCD(charged coupled device) 센서 또는 CMOS(complementary metal oxide semiconductor) 센서를 이용하여 구현될 수 있다.The flash (220) can emit light used to enhance light emitted or reflected from a subject. According to one embodiment, the flash (220) can include one or more light-emitting diodes (e.g., red-green-blue (RGB) LED, white LED, infrared LED, or ultraviolet LED), or a xenon lamp. The image sensor (230) can acquire an image corresponding to the subject by converting light emitted or reflected from the subject and transmitted through the lens assembly (210) into an electrical signal. According to one embodiment, the image sensor (230) can include one image sensor selected from among image sensors having different properties, such as, for example, an RGB sensor, a black and white (BW) sensor, an IR sensor, or a UV sensor, a plurality of image sensors having the same property, or a plurality of image sensors having different properties. Each image sensor included in the image sensor (230) may be implemented using, for example, a CCD (charged coupled device) sensor or a CMOS (complementary metal oxide semiconductor) sensor.
이미지 스태빌라이저(240)는 카메라 모듈(180) 또는 이를 포함하는 전자 장치(101)의 움직임에 반응하여, 렌즈 어셈블리(210)에 포함된 적어도 하나의 렌즈 또는 이미지 센서(230)를 특정한 방향으로 움직이거나 이미지 센서(230)의 동작 특성을 제어(예: 리드 아웃(read-out) 타이밍을 조정 등)할 수 있다. 이는 촬영되는 이미지에 대한 상기 움직임에 의한 부정적인 영향의 적어도 일부를 보상하게 해 준다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 일실시예에 따르면, 이미지 스태빌라이저(240)은 카메라 모듈(180)의 내부 또는 외부에 배치된 자이로 센서(미도시) 또는 가속도 센서(미도시)를 이용하여 카메라 모듈(180) 또는 전자 장치(101)의 그런 움직임을 감지할 수 있다. 일실시예에 따르면, 이미지 스태빌라이저(240)는, 예를 들면, 광학식 이미지 스태빌라이저로 구현될 수 있다. 메모리(250)는 이미지 센서(230)을 통하여 획득된 이미지의 적어도 일부를 다음 이미지 처리 작업을 위하여 적어도 일시 저장할 수 있다. 예를 들어, 셔터에 따른 이미지 획득이 지연되거나, 또는 복수의 이미지들이 고속으로 획득되는 경우, 획득된 원본 이미지(예: Bayer-patterned 이미지 또는 높은 해상도의 이미지)는 메모리(250)에 저장이 되고, 그에 대응하는 사본 이미지(예: 낮은 해상도의 이미지)는 디스플레이 모듈(160)을 통하여 프리뷰될 수 있다. 이후, 지정된 조건이 만족되면(예: 사용자 입력 또는 시스템 명령) 메모리(250)에 저장되었던 원본 이미지의 적어도 일부가, 예를 들면, 이미지 시그널 프로세서(260)에 의해 획득되어 처리될 수 있다. 일실시예에 따르면, 메모리(250)는 메모리(130)의 적어도 일부로, 또는 이와는 독립적으로 운영되는 별도의 메모리로 구성될 수 있다.The image stabilizer (240) can move at least one lens or image sensor (230) included in the lens assembly (210) in a specific direction or control the operating characteristics of the image sensor (230) (e.g., adjusting read-out timing, etc.) in response to the movement of the camera module (180) or the electronic device (101) including the same. This allows compensating for at least some of the negative effects of the movement on the captured image. In one embodiment, the image stabilizer (240) can detect such movement of the camera module (180) or the electronic device (101) by using a gyro sensor (not shown) or an acceleration sensor (not shown) disposed inside or outside the camera module (180). In one embodiment, the image stabilizer (240) can be implemented as, for example, an optical image stabilizer. The memory (250) can temporarily store at least a portion of an image acquired through the image sensor (230) for the next image processing task. For example, when image acquisition is delayed due to a shutter, or when a plurality of images are acquired at high speed, the acquired original image (e.g., a Bayer-patterned image or a high-resolution image) is stored in the memory (250), and a corresponding copy image (e.g., a low-resolution image) can be previewed through the display module (160). Thereafter, when a specified condition is satisfied (e.g., a user input or a system command), at least a portion of the original image stored in the memory (250) can be acquired and processed by, for example, an image signal processor (260). According to one embodiment, the memory (250) can be configured as at least a portion of the memory (130), or as a separate memory that operates independently therefrom.
이미지 시그널 프로세서(260)는 이미지 센서(230)을 통하여 획득된 이미지 또는 메모리(250)에 저장된 이미지에 대하여 하나 이상의 이미지 처리들을 수행할 수 있다. 상기 하나 이상의 이미지 처리들은, 예를 들면, 깊이 지도(depth map) 생성, 3차원 모델링, 파노라마 생성, 특징점 추출, 이미지 합성, 또는 이미지 보상(예: 노이즈 감소, 해상도 조정, 밝기 조정, 블러링(blurring), 샤프닝(sharpening), 또는 소프트닝(softening)을 포함할 수 있다. 추가적으로 또는 대체적으로, 이미지 시그널 프로세서(260)는 카메라 모듈(180)에 포함된 구성 요소들 중 적어도 하나(예: 이미지 센서(230))에 대한 제어(예: 노출 시간 제어, 또는 리드 아웃 타이밍 제어 등)를 수행할 수 있다. 이미지 시그널 프로세서(260)에 의해 처리된 이미지는 추가 처리를 위하여 메모리(250)에 다시 저장되거나 카메라 모듈(180)의 외부 구성 요소(예: 메모리(130), 디스플레이 모듈(160), 전자 장치(102), 전자 장치(104), 또는 서버(108))로 제공될 수 있다. 일실시예에 따르면, 이미지 시그널 프로세서(260)는 프로세서(120)의 적어도 일부로 구성되거나, 프로세서(120)와 독립적으로 운영되는 별도의 프로세서로 구성될 수 있다. 이미지 시그널 프로세서(260)이 프로세서(120)과 별도의 프로세서로 구성된 경우, 이미지 시그널 프로세서(260)에 의해 처리된 적어도 하나의 이미지는 프로세서(120)에 의하여 그대로 또는 추가의 이미지 처리를 거친 후 디스플레이 모듈(160)를 통해 표시될 수 있다.The image signal processor (260) can perform one or more image processing operations on an image acquired through an image sensor (230) or an image stored in a memory (250). The one or more image processing operations may include, for example, depth map generation, 3D modeling, panorama generation, feature point extraction, image synthesis, or image compensation (e.g., noise reduction, resolution adjustment, brightness adjustment, blurring, sharpening, or softening). Additionally or alternatively, the image signal processor (260) may perform control (e.g., exposure time control, or read-out timing control, etc.) for at least one of the components included in the camera module (180) (e.g., the image sensor (230)). The image processed by the image signal processor (260) may be stored back in the memory (250) for further processing or may be provided to an external component of the camera module (180) (e.g., the memory (130), the display module (160), the electronic device (102), the electronic device (104), or the server (108)). According to one embodiment, the image signal processor (260) may include at least one of the processors (120). It may be configured as a part of the image signal processor (260) or as a separate processor that operates independently of the processor (120). When the image signal processor (260) is configured as a separate processor from the processor (120), at least one image processed by the image signal processor (260) may be displayed through the display module (160) as is or after undergoing additional image processing by the processor (120).
일실시예에 따르면, 전자 장치(101)는 각각 다른 속성 또는 기능을 가진 복수의 카메라 모듈(180)들을 포함할 수 있다. 이런 경우, 예를 들면, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 광각 카메라이고, 적어도 다른 하나는 망원 카메라일 수 있다. 유사하게, 상기 복수의 카메라 모듈(180)들 중 적어도 하나는 전면 카메라이고, 적어도 다른 하나는 후면 카메라일 수 있다.According to one embodiment, the electronic device (101) may include a plurality of camera modules (180), each having different properties or functions. In this case, for example, at least one of the plurality of camera modules (180) may be a wide-angle camera and at least another may be a telephoto camera. Similarly, at least one of the plurality of camera modules (180) may be a front camera and at least another may be a rear camera.
도 2는 일 실시예에 다른 전자 장치(101)에 포함되는 카메라 모듈(180)의 구성에 대한 일 예시를 도시한 것이며, 카메라 모듈(180)은 도 2에 도시된 구성요소 중 일부만을 포함하거나 다른 구성요소를 더 포함할 수도 있다. 예를 들어, 도 2의 플래쉬(220)는 카메라 모듈(180)에 포함되지 않고 플리커(flicker) 센서 주변에 별도로 배치될 수도 있다.FIG. 2 illustrates an example of a configuration of a camera module (180) included in another electronic device (101) according to one embodiment, and the camera module (180) may include only some of the components illustrated in FIG. 2 or may further include other components. For example, the flash (220) of FIG. 2 may not be included in the camera module (180) but may be separately arranged around a flicker sensor.
전자 장치(101)에 포함된 이미지 센서(230)는 동작 조건에 따라서 다른 동작 모드에 기초하여 동작할 수 있다. 예를 들어, 전자 장치(101)가 카메라(180)를 통해서 제1 배율로 영상을 촬영하는 경우, 복수 개의 픽셀들을 비닝하여 이미지 프레임을 출력하는 비닝 모드로 동작할 수 있다. 전자 장치(101)가 카메라(180)를 통해서 제1 배율보다 높은 제2 배율로 영상을 촬영하는 경우, 이미지 센서(230)는 보다 높은 해상도에 기초하여 생성된 이미지 프레임을 출력하기 위한 동작 모드로 동작할 수 있다. 여기서, 이미지 센서(230)가 보다 높은 해상도로 이미지 프레임을 출력하도록 동작하는 경우, 이미지 프레임에 포함된 픽셀들이 나타내는 색상 채널들의 패턴이 변경될 수 있다. 이미지 시그널 프로세서(260)는 이미지 센서에서 출력된 이미지 프레임을 사람의 눈이 인지하는 것과 유사하게 표현되는 색상 값을 가지는 이미지(예: RGB 이미지)로 변환하는 디모자이크(demosaic) 동작을 수행할 수 있다. 이미지 센서(230)는 색상 채널들의 패턴이 변경된 이미지 프레임을 이미지 시그널 프로세서(260)가 디모자이크 동작을 수행할 수 있는 패턴(예: 베이어(Bayer) 패턴)으로 변환하는 리모자이크(remosaic) 동작을 수행할 수 있다. 다만, 리모자이크 동작이 이미지 시그널 프로세서(260)에서 수행되어야 하는 것으로 한정되지 아니한다. 예를 들어, 리모자이크 동작은 센서 혹은 프로세서(120)(예: AP(application processor))에서 수행될 수 있다. 이미지 센서(230)가 리모자이크를 수행하여 이미지 프레임을 출력하는 동작 모드는 리모자이크 모드라고 언급될 수 있다.The image sensor (230) included in the electronic device (101) may operate based on different operation modes depending on the operating conditions. For example, when the electronic device (101) captures an image at a first magnification through the camera (180), the electronic device (101) may operate in a binning mode that bins a plurality of pixels to output an image frame. When the electronic device (101) captures an image at a second magnification higher than the first magnification through the camera (180), the image sensor (230) may operate in an operation mode for outputting an image frame generated based on a higher resolution. Here, when the image sensor (230) operates to output an image frame at a higher resolution, the pattern of color channels represented by the pixels included in the image frame may be changed. The image signal processor (260) may perform a demosaic operation that converts an image frame output from the image sensor into an image (e.g., an RGB image) having color values expressed similarly to those recognized by the human eye. The image sensor (230) can perform a remosaic operation that converts an image frame in which a pattern of color channels has been changed into a pattern (e.g., a Bayer pattern) on which an image signal processor (260) can perform a demosaic operation. However, the remosaic operation is not limited to being performed in the image signal processor (260). For example, the remosaic operation can be performed in the sensor or the processor (120) (e.g., an application processor (AP)). An operation mode in which the image sensor (230) performs remosaic and outputs an image frame can be referred to as a remosaic mode.
이미지 센서(230)의 동작 모드가 비닝 모드에서 리모자이크 모드로 변경되는 경우, 이미지 프레임의 크기가 증가할 수 있다. 예를 들어, 리모자이크 모드에서 화각 내의 영역이 12 Mp(megapixel)이 되도록 마진(margin)을 고려하여 17.3 Mp 로 촬영된 이미지 데이터가 획득될 수 있다. 다만, 본 문서에서 제시된 17.3 Mp의 값은 약 20% 정도의 마진(margin)을 고려하여, 실제 제공되는 이미지의 해상도보다 높은 해상도의 예시로서 제시된 것이며, 마진 값에 따라서 해상도 값은 변경될 수 있다. 그러나, 이미지 시그널 프로세서(260)는 크기가 변경된 이미지 프레임을 처리하지 못할 수 있다. 따라서, 이미지 센서(230)는 이미지 프레임의 크기를 이미지 시그널 프로세서(260)가 처리할 수 있는 크기로 다운-스케일(down-scale)할 수 있다. 예를 들어, 이미지 센서(230)는 이미지 프레임의 크기를 17.3 Mp에서 12 Mp로 다운-스케일할 수 있다. 여기서, 화각 내의 영역은 8Mp의 해상도로 구성될 수 있다. 이미지 시그널 프로세서(260)는 영상의 크기가 다운-스케일된 이미지 프레임에 대한 영상 처리를 수행한 후 영상을 화각 내 영역의 본래 크기로 복원하기 위해 업-스케일(up-scale)을 수행할 수 있다. 예를 들어, 8Mp의 해상도로 구성된 화각 내의 영역을 12 Mp로 업-스케일할 수 있다.When the operation mode of the image sensor (230) is changed from the binning mode to the re-mosaic mode, the size of the image frame may increase. For example, in the re-mosaic mode, image data captured at 17.3 Mp may be acquired by considering a margin so that the area within the field of view becomes 12 Mp (megapixel). However, the value of 17.3 Mp presented in this document is presented as an example of a higher resolution than the resolution of an image actually provided by considering a margin of about 20%, and the resolution value may be changed according to the margin value. However, the image signal processor (260) may not be able to process an image frame whose size has been changed. Therefore, the image sensor (230) may down-scale the size of the image frame to a size that the image signal processor (260) can process. For example, the image sensor (230) may down-scale the size of the image frame from 17.3 Mp to 12 Mp. Here, the area within the field of view can be configured with a resolution of 8 Mp. The image signal processor (260) can perform image processing on an image frame whose size is down-scaled, and then perform up-scaling to restore the image to the original size of the area within the field of view. For example, the area within the field of view configured with a resolution of 8 Mp can be up-scaled to 12 Mp.
상술한 바와 같이 이미지 센서의 모드 변경 동작에서, 다운-스케일과 업-스케일을 수행하게 되면 이미지의 열화가 발생할 수 있다. 일 실시예에 따르면, 이미지 센서의 동작 모드 변경 시에 발생하는 열화를 방지할 수 있는 이미지 센서, 그 이미지 센서를 포함하는 전자 장치 및 그 동작 방법이 제공될 수 있다.As described above, in the mode change operation of the image sensor, when down-scaling and up-scaling are performed, image deterioration may occur. According to one embodiment, an image sensor capable of preventing deterioration occurring when the operation mode of the image sensor is changed, an electronic device including the image sensor, and an operating method thereof may be provided.
전자 장치(101)는 복수개의 카메라들(예: 제1 카메라 및 제2 카메라)를 포함할 수 있다. 전자 장치(101)는 영상을 촬영하기 위해 사용되는 카메라를 동작 조건에 따라서 화각이 다른 카메라로 전환할 수 있다. 예를 들어, 전자 장치(101)는 제1 배율로 영상을 촬영하는 경우에는 제1 카메라를 통해서 영상을 촬영하고, 제2 배율로 영상을 촬영하는 경우에는 제2 카메라를 통해서 영상을 촬영할 수 있다. 제1 카메라와 제2 카메라는 물리적으로 동일한 위치에 배치될 수 없다. 따라서, 전자 장치(101)가 영상을 촬영하기 위한 카메라를 변경하는 경우, 변경 이전에 사용된 카메라를 통해서 촬영된 영상과 변경 이후에 사용된 카메라를 통해서 촬영된 영상 사이에 이질감이 발생할 수 있다. 예를 들어, 전자 장치(101)가 제1 카메라를 통해서 촬영된 영상으로 라이브 프리뷰(live preview) 영상을 표시하고 있는 상태에서 제2 카메라로 전환하여 라이브 프리뷰 영상을 제공하는 경우, 두 카메라 간의 시차(parallax)로 인해서 라이브 프리뷰 영상이 갑자기 이동하는 것과 같은 현상이 발생할 수 있다.The electronic device (101) may include a plurality of cameras (e.g., a first camera and a second camera). The electronic device (101) may switch the camera used to capture an image to a camera with a different angle of view depending on the operating conditions. For example, when the electronic device (101) captures an image at a first magnification, the image may be captured through the first camera, and when the electronic device (101) captures an image at a second magnification, the image may be captured through the second camera. The first camera and the second camera cannot be physically positioned at the same location. Therefore, when the electronic device (101) switches the camera for capturing an image, a sense of incongruity may occur between an image captured through the camera used before the change and an image captured through the camera used after the change. For example, when the electronic device (101) is displaying a live preview image captured through the first camera and then switches to the second camera to provide a live preview image, a phenomenon such as the live preview image suddenly moving may occur due to parallax between the two cameras.
일 실시예에서, 전자 장치는 고품질의 이미지 및 줌(zoom) 시스템을 위해 복수 개(예: 3개 내지 6개)의 다중 카메라들을 포함할 수 있다. 카메라의 다양한 동작 모드에서 각 카메라의 동기화 및 전환은 자연스러운 장면의 표시와 향상된 카메라 동작을 위한 중요한 기술이다. 일 실시예에 따른 전자 장치 및 그 동작 방법은 다중 카메라들 각각에 대한 정보(예: 보정(calibration), 주소 정보, 또는 광학 이미지 안정화(optical image stabilization) 정보)를 실시간 또는 주기적으로 획득하고 활용함으로써 카메라의 줌 동작 시에 다른 카메라로 전환하거나 카메라의 동작 모드를 전환할 수 있다. 일 실시예에 따른 전자 장치 또는 그 동작 방법은 I2C(inter-integrated circuit)(또는 I3C(improved inter-integrated circuit)) 통신 방식을 이용하여 프로세서(예: 어플리케이션 프로세서)로부터 이미지 센서로 출력 영역 정보를 포함하는 신호를 전송하고, 동시에 이미지 센서가 MIPI(mobile industry processor interface)를 통해서 프로세서로 데이터를 전송하여 다중 카메라 시스템 및 원활한 줌 시나리오를 제공할 수 있다. 이미지 신호 처리는, 예를 들어, 이미지 센서(예: 도 2의 이미지 센서(230)) 또는 이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(260)) 중 적어도 하나에 의해서 수행될 수 있다. In one embodiment, an electronic device may include multiple (e.g., three to six) multi-cameras for high-quality image and zoom system. Synchronization and switching of each camera in various operation modes of the camera are important techniques for natural scene display and improved camera operation. An electronic device and an operation method thereof according to one embodiment may acquire and utilize information (e.g., calibration, address information, or optical image stabilization information) about each of the multi-cameras in real time or periodically, thereby switching to another camera or switching the operation mode of the camera during zoom operation of the camera. An electronic device or an operation method thereof according to one embodiment may transmit a signal including output area information from a processor (e.g., an application processor) to an image sensor using an I2C (inter-integrated circuit) (or I3C (improved inter-integrated circuit)) communication method, and at the same time, the image sensor may transmit data to the processor through a MIPI (mobile industry processor interface), thereby providing a multi-camera system and a smooth zoom scenario. Image signal processing may be performed, for example, by at least one of an image sensor (e.g., an image sensor (230) of FIG. 2) or an image signal processor (e.g., an image signal processor (260) of FIG. 2).
일 실시예에 따르면, 영상을 촬영하기 위한 카메라를 전환하는 경우에 발생하는 시차를 간단하게 보상할 수 있는 이미지 센서, 그 이미지 센서를 포함하는 전자 장치 및 그 동작 방법이 제공될 수 있다.According to one embodiment, an image sensor capable of simply compensating for parallax that occurs when switching a camera for capturing an image, an electronic device including the image sensor, and an operating method thereof can be provided.
본 문서에서 이루고자 하는 기술적 과제는 이상에서 언급한 기술적 과제로 제한되지 않으며, 언급되지 않은 또 다른 기술적 과제들은 본 개시의 기재로부터 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The technical problems to be achieved in this document are not limited to the technical problems mentioned above, and other technical problems not mentioned can be clearly understood by a person having ordinary skill in the technical field to which the present invention belongs from the description of this disclosure.
도 3은, 일 실시예에 따른 전자 장치(101)에 포함된 이미지 센서(300)의 복수 개의 동작 모드에 기반한 동작의 예시를 설명하기 위한 도면이다.FIG. 3 is a drawing for explaining an example of an operation based on multiple operation modes of an image sensor (300) included in an electronic device (101) according to one embodiment.
일 실시예에 따른 전자 장치(101)는 적어도 하나의 프로세서(120), 메모리(130) 및 카메라 모듈(180)을 포함할 수 있다. 카메라 모듈(180)은 광을 수신하는 이미지 센서(300)를 포함할 수 있다. 일 실시예에 따른 프로세서(120)는 하나 이상의 동작 모드에 기초하여 이미지 프레임을 출력하도록 이미지 센서(300)를 제어할 수 있다. 카메라 모듈(180)은 이미지 센서(300)를 통해서 출력되는 이미지 프레임을 프로세서(120)로 전송할 수 있다. 예를 들어, 프로세서(120)는 I2C(또는 I3C, SPI(serial peripheral interface)) 통신을 통해서 제어 신호를 카메라 모듈(180)로 전송하고, 카메라 모듈(180)은 인터페이스(예를 들어, MIPI(mobile industry processor interface))를 통해서 이미지 프레임을 프로세서(120)로 전송할 수 있다.An electronic device (101) according to one embodiment may include at least one processor (120), a memory (130), and a camera module (180). The camera module (180) may include an image sensor (300) that receives light. The processor (120) according to one embodiment may control the image sensor (300) to output an image frame based on one or more operation modes. The camera module (180) may transmit an image frame output through the image sensor (300) to the processor (120). For example, the processor (120) may transmit a control signal to the camera module (180) through I2C (or I3C, SPI (serial peripheral interface)) communication, and the camera module (180) may transmit an image frame to the processor (120) through an interface (for example, MIPI (mobile industry processor interface)).
일 실시예에서, 프로세서(120)는 영상을 촬영하기 위해 설정된 배율(magnification)에 기초하여 이미지 센서(300)의 동작 모드를 제어할 수 있다. 예를 들어, 프로세서(120)는 기준 범위(예: x1 내지 x1.9) 이내인 제1 배율에 기초하여 영상을 촬영하는 동안 이미지 센서(300)가 제1 패턴(311)에 기초하여 이미지 프레임을 프로세서(120)로 출력하도록 제어할 수 있다. 예를 들어, 제1 패턴(311)은 이미지 센서(300)가 복수 개의 픽셀들의 값을 비닝(binning)하여 출력하는 패턴일 수 있다. 프로세서(230)는 기준 범위를 초과하는 제2 배율(예: x2 내지 x3.9)에 기초하여 영상을 촬영하는 경우 제2 패턴(313)에 기초하여 이미지 프레임을 출력하도록 제어할 수 있다. 예를 들어, 제2 패턴(313)은 이미지 센서(300)로부터 독출(read-out)된 원시 데이터(raw data)에 대한 리모자이크(remosaic) 동작을 통해서 구성된 것일 수 있다. 제2 패턴(313)에 따른 이미지 프레임은 보다 제1 패턴(311)에 따라 출력되는 이미지의 제1 해상도보다 높은 제2 해상도를 가지는 이미지를 포함할 수 있다. 이미지 센서(300)는 동작 모드에 따른 패턴에 기초하여 이미지 프레임을 프로세서(120)로 스트리밍(streaming)할 수 있다. 이미지 센서(300)는 제2 해상도보다 더 높은 제3 해상도를 가지는 이미지를 포함하는 이미지 프레임을 출력하기 위해 제3 패턴(315)에 기초하여 이미지 프레임을 출력할 수도 있으나, 이에 한정되지 아니한다.In one embodiment, the processor (120) can control the operation mode of the image sensor (300) based on a magnification set for capturing an image. For example, the processor (120) can control the image sensor (300) to output an image frame to the processor (120) based on a first pattern (311) while capturing an image based on a first magnification within a reference range (e.g., x1 to x1.9). For example, the first pattern (311) can be a pattern in which the image sensor (300) bins and outputs values of a plurality of pixels. The processor (230) can control the image sensor (300) to output an image frame based on a second pattern (313) while capturing an image based on a second magnification exceeding the reference range (e.g., x2 to x3.9). For example, the second pattern (313) may be configured through a remosaic operation on raw data read-out from the image sensor (300). An image frame according to the second pattern (313) may include an image having a second resolution higher than a first resolution of an image output according to the first pattern (311). The image sensor (300) may stream the image frame to the processor (120) based on the pattern according to the operation mode. The image sensor (300) may output an image frame based on the third pattern (315) to output an image frame including an image having a third resolution higher than the second resolution, but is not limited thereto.
제1 패턴(311), 제2 패턴(313) 및 제3 패턴(315)은 이미지 센서(300)가 하나의 색상 채널에 네 개의 마이크로 렌즈가 대응되도록 배치되고, 각 마이크로 렌즈에 네 개의 수광 소자들(예: 포토 다이오드들(photo diodes, PDs))가 대응되도록 배치된 구조를 가지는 경우에 대한 예시일 수 있다. 다만, 도 3에 도시된 패턴들은 이미지 센서(300)가 동작 모드에 따라 이미지 프레임을 출력하는 예시를 설명하기 위한 것에 불과하며, 이에 한정되지 아니한다. 일 실시예에 따른 이미지 센서(300)는 복수개의 동작 모드에 기초하여 동작할 수 있는 다른 구조를 가질 수도 있다. 예를 들어, 이미지 센서(300)는 하나의 색상 채널에 아홉 개의 마이크로 렌즈가 대응되도록 배치되고, 각 마이크로 렌즈에 하나의 수광 소자가 대응되도록 배치된 구조를 가질 수도 있다. 이 경우, 이미지 센서(300)는 기준 범위 이내의 제1 배율에 기초하여 영상을 촬영하는 동안 제4 패턴(321)에 기초하여 이미지 프레임을 출력할 수 있다. 이미지 센서(300)는 기준 범위를 초과하는 제2 배율에 기초하여 영상을 촬영하는 동안 제5 패턴(325)에 기초하여 이미지 프레임을 출력할 수 있다.The first pattern (311), the second pattern (313), and the third pattern (315) may be examples of a case where the image sensor (300) has a structure in which four micro lenses are arranged to correspond to one color channel, and four light-receiving elements (e.g., photo diodes (PDs)) are arranged to correspond to each micro lens. However, the patterns illustrated in FIG. 3 are merely for explaining an example in which the image sensor (300) outputs an image frame according to an operation mode, and is not limited thereto. The image sensor (300) according to one embodiment may have another structure that can operate based on a plurality of operation modes. For example, the image sensor (300) may have a structure in which nine micro lenses are arranged to correspond to one color channel, and one light-receiving element is arranged to correspond to each micro lens. In this case, the image sensor (300) may output an image frame based on the fourth pattern (321) while capturing an image based on a first magnification within a reference range. The image sensor (300) can output an image frame based on the fifth pattern (325) while capturing an image based on a second magnification exceeding the reference range.
일 실시예에 따른 프로세서(120)는 출력 영역 정보를 포함하는 신호를 카메라 모듈(180)(또는, 이미지 센서(300))로 전송할 수 있다. 프로세서(120)는 출력 영역 정보를 주기적, 지속적 또는 반복적으로 모니터링하고 전송할 수 있다. 예를 들어, 프로세서(120)는 집적 회로(IC) 간에 신호를 전송하기 위한 통신(예: I2C 통신)을 통해서 출력 영역 정보를 포함하는 신호를 전송할 수 있다. 출력 영역 정보는 이미지 센서(300)의 동작 모드가 변경되거나 이미지 프레임을 획득하기 위해 사용되는 카메라가 이미지 센서(300)를 포함하는 카메라로 변경된 경우에 이미지 센서(300)가 출력할 데이터의 범위를 지시하는 정보를 포함할 수 있다. 이미지 센서(300)가 출력할 데이터의 범위는 이미지 센서(300)가 픽셀 값을 독출할 수 있는 픽셀들 중, 이미지 프레임에 포함될 픽셀들을 의미할 수 있다. 예를 들어, 출력 영역 정보는 동작 모드가 변경된 이미지 센서(300) 또는 변경된 카메라의 이미지 센서가 픽셀 값을 독출할 수 있는 영역 중, 이미지 프레임에 포함될 픽셀의 시작 지점에 대한 좌표(이하, 시작 좌표) 값을 포함할 수 있다. 출력 영역 정보는 이미지 센서(300)가 픽셀 값을 독출할 수 있는 영역 중, 이미지 프레임에 포함될 픽셀의 종료 지점에 대한 좌표(이하, 종료 좌표) 값을 더 포함할 수도 있다. 프로세서(120)는 배율이 변경됨으로 인해서 발생하는 오프셋에 기초하여 출력 영역 정보를 결정할 수도 있다. The processor (120) according to one embodiment may transmit a signal including output area information to the camera module (180) (or, the image sensor (300)). The processor (120) may monitor and transmit the output area information periodically, continuously, or repeatedly. For example, the processor (120) may transmit the signal including the output area information through communication (e.g., I2C communication) for transmitting a signal between integrated circuits (ICs). The output area information may include information indicating a range of data to be output by the image sensor (300) when the operation mode of the image sensor (300) is changed or a camera used to acquire an image frame is changed to a camera including the image sensor (300). The range of data to be output by the image sensor (300) may mean pixels to be included in the image frame among pixels from which the image sensor (300) can read pixel values. For example, the output area information may include a coordinate value (hereinafter, “start coordinate”) for a start point of a pixel to be included in an image frame, among an area from which an image sensor (300) whose operation mode has been changed or an image sensor of a changed camera can read out a pixel value. The output area information may further include a coordinate value (hereinafter, “end coordinate”) for an end point of a pixel to be included in an image frame, among an area from which the image sensor (300) can read out a pixel value. The processor (120) may also determine the output area information based on an offset that occurs due to a change in magnification.
일 실시예에서, 출력 영역 정보는 이미지 프레임에 포함될 영역을 결정하기 위한 추가 정보를 더 포함할 수도 있다. 예를 들어, 출력 영역 정보는 이미지 스태빌라이저(예: 도 2의 이미지 스태빌라이저(240))의 제어 정보, 공정 보상 값 또는 줌 동작 위치 중 적어도 하나를 포함할 수 있다. 이미지 스테빌라이저의 제어 정보는 영상의 흔들림을 보정하기 위한 이미지 안정화 동작과 관련된 파라미터 값과 연관된 정보를 포함할 수 있다. 공정 보상 값은 이미지 센서(300)와 관련하여 미리 설정된 오프셋 값을 포함할 수 있다. 줌 동작 위치는 사용자가 줌 동작을 영상 내에서 어느 위치 또는 영역에 대해 입력하였는지 여부에 따라 결정되는 정보를 포함할 수 있다.In one embodiment, the output region information may further include additional information for determining a region to be included in the image frame. For example, the output region information may include at least one of control information of an image stabilizer (e.g., the image stabilizer (240) of FIG. 2), a process compensation value, or a zoom operation position. The control information of the image stabilizer may include information associated with a parameter value related to an image stabilization operation for correcting shaking of the image. The process compensation value may include a preset offset value related to the image sensor (300). The zoom operation position may include information determined based on whether a user inputs a zoom operation for a certain location or region within the image.
일 실시예에 따른 이미지 센서(300)는 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 데이터(예: 이미지 프레임)를 출력할 수 있다. 이미지 센서(300)에서 출력되는 이미지 프레임은 프로세서(120)와 연결된 인터페이스(예: mobile industry processor interface (MIPI))를 통해서 프로세서(120)로 전달될 수 있다. 일 실시예에서, 이미지 센서(300)는 이미지 센서(300)에 포함된 픽셀들로부터 독출된 픽셀 값들 중에서 출력 영역 정보에 기초하여 데이터를 선택하여 이미지 프레임을 출력하도록 구성될 수 있다. 일 실시예에서, 이미지 센서(300)는 이미지 센서(300)에 포함된 픽셀들 중에서 출력 영역 정보에 상응하는 픽셀 값만 독출하여 이미지 프레임을 출력하도록 구성될 수도 있다. 이미지 센서(300)는 이미지 센서(300)의 동작 모드가 변경되는 것에 기초하여, 출력 영역 정보를 통해서 결정된 영역에 상응하는 영상을 포함하는 이미지 프레임을 출력하도록 구성될 수 있다. 예를 들어, 이미지 센서(300)는 배율이 기준 범위를 초과하는 배율로 변경되는 것에 기초하여, 이미지 센서(300)는 프로세서(120)로부터 수신된 출력 영역 정보에 기초하여 변경된 배율에 상응하는 영상을 포함하는 이미지 프레임을 프로세서(120)로 출력하도록 구성될 수 있다.An image sensor (300) according to one embodiment may output data (e.g., an image frame) including pixel values corresponding to output area information. The image frame output from the image sensor (300) may be transmitted to the processor (120) through an interface (e.g., a mobile industry processor interface (MIPI)) connected to the processor (120). In one embodiment, the image sensor (300) may be configured to select data based on output area information among pixel values read from pixels included in the image sensor (300) and output an image frame. In one embodiment, the image sensor (300) may be configured to read only pixel values corresponding to output area information among pixels included in the image sensor (300) and output an image frame. The image sensor (300) may be configured to output an image frame including an image corresponding to an area determined through output area information based on a change in an operation mode of the image sensor (300). For example, the image sensor (300) may be configured to output an image frame including an image corresponding to the changed magnification to the processor (120) based on output area information received from the processor (120) based on a change in magnification to a magnification exceeding a reference range.
일 실시예에 따른 전자 장치(101)는 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))를 더 포함할 수 있다. 프로세서(230)는 이미지 센서(300)에서 출력된 이미지 프레임에 기초하여 생성된 미리보기 영상을 포함하는 화면을 터치스크린 디스플레이를 통해서 표시할 수 있다. 프로세서(230)는 터치스크린 디스플레이를 통해서 수신된 터치 입력에 기초하여 영상의 촬영과 연관된 배율을 변경할 수 있다. 프로세서(230)는 변경된 배율에 기초하여 이미지 센서(300)의 동작 모드가 변경되도록 카메라 모듈(180)을 제어할 수 있다.An electronic device (101) according to one embodiment may further include a touchscreen display (e.g., a display module (160) of FIG. 1). The processor (230) may display a screen including a preview image generated based on an image frame output from an image sensor (300) through the touchscreen display. The processor (230) may change a magnification associated with capturing an image based on a touch input received through the touchscreen display. The processor (230) may control the camera module (180) so that an operation mode of the image sensor (300) is changed based on the changed magnification.
도 4는, 일 실시예에 따른 복수 개의 카메라(401, 402)들을 포함하는 전자 장치(101)의 예시를 설명하기 위한 도면이다.FIG. 4 is a drawing for explaining an example of an electronic device (101) including a plurality of cameras (401, 402) according to one embodiment.
일 실시예에서, 전자 장치(101)는 프로세서(120), 메모리(130) 및 카메라 모듈(180)을 포함할 수 있다. 카메라 모듈(180)은 복수 개의 카메라(401, 402)를 포함할 수 있다. 도 4에 도시된 블록도는 제1 카메라(401) 및 제2 카메라(402)를 도시하고 있으나, 카메라 모듈(180)는 보다 많은 수의 카메라를 포함할 수도 있다. 복수 개의 카메라(401, 402)는 실질적으로 동일하거나 평행한 방향을 향하여 촬영을 수행하도록 배치된 것일 수 있다. 도 4를 참조하면, 전자 장치(101)의 카메라 모듈(180-1)에 포함된 제1 카메라(401-1) 및 제2 카메라(402-2)는 하우징의 일 면(410)을 통해서 영상을 촬영하도록 배치된 것일 수 있다. 다만, 도 4에 도시된 제1 카메라(401-1) 및 제2 카메라(402-1)는 제1 카메라(401) 및 제2 카메라(402)를 배치하는 일 예시를 도시한 것이며, 제1 카메라(401) 및 제2 카메라(402)가 배치된 형상은 도 4에 도시된 것으로 한정되지 아니한다. 일 실시예에서, 제1 카메라(401)는 제1 화각을 지원하도록 구성될 수 있다. 제2 카메라(402)는 제1 화각과 상이한 제2 화각을 지원하도록 구성될 수 있다. 예를 들어, 제1 카메라(401)는 광각(wide-angle) 카메라로 구성되고, 제2 카메라(402)는 제1 카메라(401)보다 좁은 화각을 지원하도록 구성된 망원(telephoto) 카메라로 구성될 수 있다. 일 실시예에 따른 프로세서(120)는 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나로부터 이미지 프레임을 획득할 수 있다. 프로세서(120)는 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나로 제어 신호를 전송하고, 카메라 모듈(180)은 프로세서(120)와 연결된 인터페이스를 통해서 이미지 프레임을 전송할 수 있다. In one embodiment, the electronic device (101) may include a processor (120), a memory (130), and a camera module (180). The camera module (180) may include a plurality of cameras (401, 402). The block diagram illustrated in FIG. 4 illustrates a first camera (401) and a second camera (402), but the camera module (180) may include a greater number of cameras. The plurality of cameras (401, 402) may be arranged to photograph in substantially the same or parallel directions. Referring to FIG. 4, the first camera (401-1) and the second camera (402-2) included in the camera module (180-1) of the electronic device (101) may be arranged to photograph an image through one side (410) of the housing. However, the first camera (401-1) and the second camera (402-1) illustrated in FIG. 4 illustrate an example of arranging the first camera (401) and the second camera (402), and the shape in which the first camera (401) and the second camera (402) are arranged is not limited to that illustrated in FIG. 4. In one embodiment, the first camera (401) may be configured to support a first angle of view. The second camera (402) may be configured to support a second angle of view different from the first angle of view. For example, the first camera (401) may be configured as a wide-angle camera, and the second camera (402) may be configured as a telephoto camera configured to support a narrower angle of view than the first camera (401). The processor (120) according to one embodiment may obtain an image frame from at least one of the first camera (401) or the second camera (402). The processor (120) can transmit a control signal to at least one of the first camera (401) or the second camera (402), and the camera module (180) can transmit an image frame through an interface connected to the processor (120).
일 실시예에서, 프로세서(120)는 영상을 촬영하기 위해 설정된 배율에 기초하여 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나로부터 이미지 프레임을 획득할 수 있다. 예를 들어, 프로세서(120)는 제2 배율에 기초하여 영상을 촬영하는 경우 제1 카메라(401)로부터 이미지 프레임을 수신하고, 기준 범위를 초과하는 제3 배율에 기초하여 영상을 촬영하는 경우 제2 카메라(402)로부터 이미지 프레임을 수신할 수 있다. 제1 카메라(401)로부터 이미지 프레임을 수신하는 동안 제2 카메라(402)가 비활성화되어 있는 경우, 프로세서(120)는 제2 배율로부터 제3 배율로 변경되는 것에 기초하여 제2 카메라(402)를 활성화할 수 있다. 제1 카메라(401) 또는 제2 카메라(402)는 프로세서(120)로 이미지 프레임을 스트리밍할 수 있다. 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나는 도 3에 도시된 바와 같이 복수 개의 동작 모드를 지원하도록 구성될 수 있다. 다만, 이에 한정되지 아니한다. 제1 카메라(401) 및 제2 카메라(402)는 하나의 동작 모드만을 지원하도록 구성될 수도 있다. 일 실시예에서, 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나는 각각 도 6의 흐름도(600)에 기초하여 배율에 상응하는 동작을 수행할 수도 있다.In one embodiment, the processor (120) can acquire image frames from at least one of the first camera (401) or the second camera (402) based on a magnification set for capturing an image. For example, the processor (120) can receive image frames from the first camera (401) when capturing an image based on the second magnification, and can receive image frames from the second camera (402) when capturing an image based on a third magnification exceeding a reference range. If the second camera (402) is deactivated while receiving image frames from the first camera (401), the processor (120) can activate the second camera (402) based on a change from the second magnification to the third magnification. The first camera (401) or the second camera (402) can stream image frames to the processor (120). At least one of the first camera (401) or the second camera (402) may be configured to support multiple operation modes as illustrated in FIG. 3. However, the present invention is not limited thereto. The first camera (401) or the second camera (402) may be configured to support only one operation mode. In one embodiment, at least one of the first camera (401) or the second camera (402) may perform an operation corresponding to a magnification based on the flowchart (600) of FIG. 6, respectively.
일 실시예에 따른 프로세서(120)는 출력 영역 정보를 포함하는 신호를 카메라 모듈(180)(또는, 제1 카메라(401) 또는 제2 카메라(402))로 전송할 수 있다. 프로세서(120)는 출력 영역 정보를 주기적, 지속적 또는 반복적으로 모니터링하고 전송할 수 있다. 출력 영역 정보는 영상을 획득하는 카메라가 변경된 경우에 변경된 카메라가 출력할 데이터의 범위를 지시하는 정보를 포함할 수 있다. 카메라(예: 제1 카메라(401) 또는 제2 카메라(402))가 출력할 데이터의 범위는 픽셀 값을 독출할 수 있는 픽셀들 중, 이미지 프레임에 포함될 픽셀들을 의미할 수 있다. 예를 들어, 출력 영역 정보는 변경된 카메라가 픽셀 값을 독출할 수 있는 영역 중에서 이미지 프레임에 포함될 픽셀의 시작 좌표 값을 포함할 수 있다. 출력 영역 정보는 이미지 센서(300)가 픽셀 값을 독출할 수 있는 영역 중, 이미지 프레임에 포함될 픽셀의 종료 좌표 값을 더 포함할 수도 있다. 프로세서는 배율이 변경됨으로 인해서 발생하는 오프셋에 기초하여 출력 영역 정보를 결정할 수도 있다.The processor (120) according to one embodiment may transmit a signal including output area information to the camera module (180) (or, the first camera (401) or the second camera (402)). The processor (120) may monitor and transmit the output area information periodically, continuously, or repeatedly. The output area information may include information indicating a range of data to be output by a changed camera when a camera that acquires an image is changed. The range of data to be output by a camera (e.g., the first camera (401) or the second camera (402)) may mean pixels to be included in an image frame among pixels from which pixel values can be read out. For example, the output area information may include a start coordinate value of a pixel to be included in an image frame among areas from which the changed camera can read out pixel values. The output area information may further include an end coordinate value of a pixel to be included in an image frame among areas from which the image sensor (300) can read out pixel values. The processor may also determine the output area information based on an offset that occurs due to a change in magnification.
일 실시예에서, 출력 영역 정보는 이미지 프레임에 포함될 영역을 결정하기 위한 추가 정보를 더 포함할 수도 있다. 예를 들어, 출력 영역 정보는 이미지 스태빌라이저의 제어 정보, 공정 보상 값 또는 줌 동작 위치 중 적어도 하나를 포함할 수 있다. 이미지 스테빌라이저의 제어 정보는 영상의 흔들림을 보정하기 위한 이미지 안정화 동작과 관련된 파라미터 값과 연관된 정보를 포함할 수 있다. 공정 보상 값은 제1 카메라(401) 및 제2 카메라(402)와 관련하여 미리 설정된 오프셋 값을 포함할 수 있다. 줌 동작 위치는 사용자가 줌 동작을 영상 내에서 어느 위치 또는 영역에 대해 입력하였는지 여부에 따라 결정되는 정보를 포함할 수 있다.In one embodiment, the output region information may further include additional information for determining a region to be included in the image frame. For example, the output region information may include at least one of control information of the image stabilizer, a process compensation value, or a zoom operation position. The control information of the image stabilizer may include information associated with a parameter value related to an image stabilization operation for correcting shaking of the image. The process compensation value may include a preset offset value related to the first camera (401) and the second camera (402). The zoom operation position may include information determined based on whether a user inputs a zoom operation for a certain location or area within the image.
일 실시예에 따른 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나는 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 이미지 프레임을 출력할 수 있다. 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나를 통해서 출력되는 이미지 프레임은 프로세서(120)와 연결된 인터페이스를 통해서 프로세서(120)로 전달될 수 있다. 일 실시예에서 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나는 독출된 픽셀 값들 중에서 출력 영역 정보에 기초하여 데이터를 선택하여 이미지 프레임을 출력하도록 구성될 수 있다. 일 실시예에서, 제1 카메라(401) 또는 제2 카메라(402) 중 적어도 하나는 각 카메라에 포함된 이미지 센서의 픽셀들 중에서 출력 영역 정보에 상응하는 픽셀 값만 독출하여 이미지 프레임을 출력하도록 구성될 수도 있다. 영상을 촬영하기 위해 사용되는 카메라가 변경되는 것에 기초하여, 변경된 카메라는 출력 영역 정보를 통해서 결정된 영역에 상응하는 영상을 포함하는 이미지 프레임을 출력하도록 구성될 수 있다. 예를 들어, 제1 카메라(401)를 통해서 촬영된 영상에 기초하여 미리보기 영상을 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해서 표시하고 있는 상태에서, 배율을 변경하도록 하는 사용자 입력에 응답하여 제2 카메라(402)는 프로세서(120)로부터 수신된 출력 영역 정보에 기초하여 변경된 배율에 상응하는 이미지 프레임을 프로세서(120)로 출력할 수 있다.According to one embodiment, at least one of the first camera (401) or the second camera (402) may output an image frame including pixel values corresponding to output area information. The image frame output through at least one of the first camera (401) or the second camera (402) may be transmitted to the processor (120) through an interface connected to the processor (120). In one embodiment, at least one of the first camera (401) or the second camera (402) may be configured to select data based on the output area information among the read-out pixel values and output the image frame. In one embodiment, at least one of the first camera (401) or the second camera (402) may be configured to output the image frame by reading only the pixel values corresponding to the output area information among the pixels of the image sensor included in each camera. Based on a change in the camera used to capture an image, the changed camera may be configured to output an image frame including an image corresponding to an area determined through the output area information. For example, in a state where a preview image is displayed on a touchscreen display (e.g., display module (160) of FIG. 1) based on an image captured through a first camera (401), in response to a user input for changing the magnification, the second camera (402) can output an image frame corresponding to the changed magnification to the processor (120) based on output area information received from the processor (120).
일 실시예에서, 출력 영역 정보는 이미지 프레임에 포함될 영역들을 결정하기 위한 추가 정보를 더 포함할 수 있다. 예를 들어, 출력 영역 정보는 이미지 스태빌라이저의 제어 정보에 연관된 정보를 더 포함할 수 있다. 이미지 스태빌라이저의 제어 정보는 장치의 흔들림을 보상하기 위해 촬영되는 이미지의 위치를 보정하기 위한 값을 포함할 수 있다. 예를 들어, 이미지 스태빌라이저의 제어 정보는 광학식 이미지 스태빌라이저의 위치를 이동시키기 위한 제어 값, 및/또는 이미지 스태빌라이저에 포함된 홀 센서를 통해서 감지된 이미지 스태빌라이저의 위치 값을 포함할 수 있다.In one embodiment, the output region information may further include additional information for determining regions to be included in the image frame. For example, the output region information may further include information related to control information of the image stabilizer. The control information of the image stabilizer may include a value for correcting a position of an image being captured to compensate for shaking of the device. For example, the control information of the image stabilizer may include a control value for moving a position of an optical image stabilizer, and/or a position value of the image stabilizer detected via a Hall sensor included in the image stabilizer.
일 실시예에서, 제1 카메라(401)는 도 3에 도시된 바와 같이 복수개의 동작 모드 중 어느 하나에 기초하여 동작할 수 있도록 구성될 수 있다. 다만, 이에 한정되지 아니한다. 제1 카메라(401)는 단일 동작 모드에 기초하여 동작할 수 있도록 구성된 것일 수도 있다. In one embodiment, the first camera (401) may be configured to operate based on any one of a plurality of operating modes as illustrated in FIG. 3. However, this is not limited thereto. The first camera (401) may also be configured to operate based on a single operating mode.
도 5는, 일 실시예에 따른 전자 장치(101)가 이미지 프레임을 획득하는 프로세스를 도시한 흐름도(500)이다. 본 문서에서, 전자 장치(101)의 동작은 프로세서(예: 도 1, 도 3 또는 도 4의 프로세서(120))가 메모리(예: 도 1, 도 3, 또는 도 4의 메모리(130))에 저장된 인스트럭션들(instructions)을 실행하여 연산을 수행하거나, 전자 장치(101)의 구성요소를 제어하여 수행되는 것으로 이해될 수 있다.FIG. 5 is a flowchart (500) illustrating a process by which an electronic device (101) acquires an image frame according to one embodiment. In this document, the operation of the electronic device (101) may be understood as being performed by a processor (e.g., processor (120) of FIG. 1, FIG. 3, or FIG. 4) executing instructions stored in a memory (e.g., memory (130) of FIG. 1, FIG. 3, or FIG. 4) to perform a calculation or controlling a component of the electronic device (101).
일 실시예에 따르면, 동작 510에서, 전자 장치(101)는 제1 배율에 기초하여 제1 이미지 프레임을 획득할 수 있다. 예를 들어, 전자 장치(101)는 동작 501에서, x1.5 배율에 상응하는 영상을 획득하기 위해 제1 카메라(예: 도 4의 제1 카메라(401))에 포함된 이미지 센서(예: 도 3의 이미지 센서(300))가 제1 패턴(예: 도 3의 제1 패턴(311), 제4 패턴(321)))에 기초하여 출력한 데이터를 포함하는 이미지 프레임을 획득할 수 있다. 예를 들어, 전자 장치(101)는 동작 501에서, x2.5 배율에 상응하는 영상을 획득하기 위해 제1 카메라(예: 도 4의 제1 카메라(401))에 포함된 이미지 센서(예: 도 3의 이미지 센서(300))가 제2 패턴(예: 도 3의 제2 패턴(313))에 기초하여 출력한 데이터를 포함하는 이미지 프레임을 획득할 수 있다.According to one embodiment, in
일 실시예에 따르면, 동작 520에서, 전자 장치(101)의 프로세서(120)가 출력 영역 정보를 포함하는 신호를 카메라 모듈(예: 도 1, 3 또는 4의 카메라 모듈(180))로 전송할 수 있다. 예를 들어, 프로세서(120)는 집적 회로 간의 통신 방식(예: I2C 통신)에 기초하여 출력 영역 정보를 포함하는 신호를 전송할 수 있다. 도 5의 흐름도(500)는 설명의 편의를 위하여 동작 510 이후에 동작 520이 수행되는 것으로 도시하고 있으나, 본 개시에 포함된 흐름도의 동작 순서에 한정되지 아니한다. 예를 들어, 제1 배율에 기초하여 획득되는 제1 이미지 프레임이 스트리밍 되는 동안 프로세서(120)는 동작 520을 반복적으로 수행하면서 출력 영역 정보를 모니터링할 수 있다.According to one embodiment, in operation 520, the processor (120) of the electronic device (101) may transmit a signal including output area information to a camera module (e.g., the camera module (180) of FIG. 1, 3 or 4). For example, the processor (120) may transmit the signal including the output area information based on a communication method between integrated circuits (e.g., I2C communication). Although the flowchart (500) of FIG. 5 illustrates that operation 520 is performed after
일 실시예에 따르면, 동작 530에서, 전자 장치(101)는 출력 영역 정보에 기초하여 제2 배율에 상응하는 제2 이미지 프레임을 획득할 수 있다. 여기서, 제2 배율은 동작 510의 제1 배율을 포함하는 기준 범위를 초과하는 배율일 수 있다. 예를 들어, 전자 장치(101)는 동작 510에 기초하여 x1.5 배율에 기초하여 제1 이미지 프레임을 획득하는 상태로부터 영상을 촬영하기 위한 배율이 x1.9 배율을 초과하는 x2.0 배율로 변경되는 것에 기초하여, 이미지 센서(예: 도 3의 이미지 센서(300))가 데이터를 출력하는 패턴을 제1 패턴(예: 도 3의 제1 패턴(311))으로부터 제2 패턴(예: 도 3의 제2 패턴(313))으로 변경할 수 있다. 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))가 제2 패턴(예: 도 3의 제2 패턴(313))으로 출력하는 데이터로부터 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 제2 이미지 프레임을 획득할 수 있다.According to one embodiment, in
다른 예를 들면, 전자 장치(101)는 영상을 촬영하기 위한 배율이 x2.9 배율을 초과하는 x3.0 배율로 변경되는 것에 기초하여, 영상을 획득하기 위해 사용되는 카메라를 제1 카메라(예: 도 4의 제1 카메라(401))로부터 제2 카메라(예: 도 4의 제2 카메라(402))로 전환할 수 있다. 전자 장치(101)는 제2 카메라(예: 도 4의 제2 카메라(402))의 이미지 센서에 의해서 출력되는 데이터로부터 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 제2 이미지 프레임을 획득할 수 있다. 다만, 일 실시예에서 배율의 변경에 따라 전자 장치(101)가 이미지 프레임을 획득하는 프로세스를 설명하기 위한 예시들일 뿐이며, 이에 한정되지 아니한다.As another example, the electronic device (101) may switch the camera used to acquire an image from a first camera (e.g., the first camera (401) of FIG. 4) to a second camera (e.g., the second camera (402) of FIG. 4) based on the fact that the magnification for capturing an image is changed from x2.9 to x3.0. The electronic device (101) may acquire a second image frame including pixel values corresponding to output area information from data output by an image sensor of the second camera (e.g., the second camera (402) of FIG. 4). However, in one embodiment, these are only examples for explaining a process in which the electronic device (101) acquires an image frame according to a change in magnification, and are not limited thereto.
도 6은, 일 실시예에 따른 전자 장치(101)가 단일 카메라(예: 도 3의 카메라 모듈(180))에 기초하여 영상의 촬영과 관련된 배율을 변경하는 프로세스를 도시한 흐름도(600)이다.FIG. 6 is a flowchart (600) illustrating a process in which an electronic device (101) according to one embodiment changes a magnification related to capturing an image based on a single camera (e.g., camera module (180) of FIG. 3).
일 실시예에 따르면, 동작 610에서 전자 장치(101)는 카메라(예: 도 3의 카메라 모듈(180))를 통해서 제1 배율에 기초하여 제1 이미지 프레임을 획득할 수 있다. 제1 배율은 카메라(예: 도 3의 카메라 모듈(180))에 포함된 이미지 센서(예: 도 3의 이미지 센서(300))가 제1 패턴(예: 도 3의 제1 패턴(311))에 기초하여 촬영된 영상에 대한 픽셀 값들을 출력하도록 동작하는 기준 범위 이내에 속할 수 있다. 기준 범위는 이미지 센서(예: 도 3의 이미지 센서(300))가 출력하는 픽셀의 패턴을 유지하면서 배율을 변경하는 범위를 의미할 수 있다. 예를 들어, 동작 610에서 전자 장치(101)의 카메라(예: 도 1 내지 4의 카메라 모듈(180))는 영상을 촬영하기 위해 설정된 배율이 x1 내지 x1.9 범위 이내인 경우, 카메라(예: 도 1, 3, 4의 카메라 모듈(180))에 포함된 이미지 센서가 제1 패턴(예: 도 3의 제1 패턴(311))에 기초하여 픽셀 값을 출력하도록 구성될 수 있다. 예를 들어, 동작 610에서 이미지 센서(예: 도 3의 이미지 센서(300))는 픽셀 값을 비닝(binning)하여 출력할 수 있다. 전자 장치(101)는 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해 동작 610에서 획득되는 제1 이미지 프레임에 기초하여 미리보기 영상을 포함하는 화면을 표시할 수 있다. 전자 장치(101)는 제1 이미지 프레임에 기초하여 영상 또는 동영상을 메모리(예: 도 1 내지 도 4의 메모리(130, 250)에 저장할 수도 있다. 전자 장치(101)는 제1 이미지 프레임에 기초하여 외부 장치로 영상을 전송할 수도 있다.According to one embodiment, in
일 실시예에 따르면, 동작 620에서 전자 장치(101)의 프로세서(120)가 출력 영역 정보를 포함하는 신호를 카메라(예: 도 1 내지 4의 카메라 모듈(180))(또는 그 카메라의 이미지 센서(예: 도 3의 이미지 센서(300))로 출력 영역 정보를 포함하는 신호를 전송할 수 있다. 예를 들어, 전자 장치(101)는 카메라를 사용하는 어플리케이션(예: 카메라 어플리케이션, 영상 통화 어플리케이션)이 실행 중인 동안, 어플리케이션에 대한 줌 동작을 위한 설정 값을 확인할 수 있다. 전자 장치(101)는 설정된 배율이 기준 범위를 벗어남에 따라서 이미지 센서(예: 도 3의 이미지 센서(300))가 출력하는 픽셀 값들의 패턴이 변경되는 경우, 변경된 패턴에 따른 픽셀 값들 중에서 프로세서(120)로 출력되는 이미지 프레임에 포함될 픽셀 값들을 결정하기 위한 출력 영역 정보를 결정할 수 있다. 예를 들어, 출력 영역 정보는 좌표 값을 포함할 수 있다. 좌표 값은 영상 내에서 줌 동작이 확대하고자 하는 영역의 위치, 이미지 스태빌라이저의 제어 값, 또는 미리 설정된 오프셋 값 중 적어도 하나에 기초하여 산출될 수 있다.According to one embodiment, in
동작 630에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 기준 범위를 초과하는지 여부를 판단할 수 있다. 예를 들어, 전자 장치(101)는 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해서 줌 동작을 명령하는 사용자 입력을 수신할 수 있다. 설정된 배율이 기준 범위 이내인 경우, 전자 장치(101)는 제1 배율에 상응하는 패턴에 기초하여 제1 이미지 프레임을 획득하는 동작 610을 다시 수행할 수 있다. 전자 장치(101)는 다시 수행된 제1 이미지 프레임에 기초하여 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해서 출력되는 미리보기 영상을 갱신할 수 있다. 전자 장치(101)는 갱신된 제1 이미지 프레임을 저장되는 동영상에 추가하거나 외부 장치로 전송할 수도 있다.In
일 실시예에 따르면, 영상을 촬영하기 위해 설정된 배율이 기준 범위를 초과하는 것으로 판단하는 것에 기초하여, 동작 640에서 전자 장치(101)는 동작 620에서 전송된 출력 영역 정보에 기초하여 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 획득할 수 있다. 예를 들어, 전자 장치(101)의 이미지 센서(예: 도 3의 이미지 센서(300))는 배율이 x2.0으로 변경되는 것에 기초하여, 제2 패턴(예: 도 3의 제2 패턴(313))에 기초하여 이미지 프레임을 출력할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))가 제2 패턴(예: 도 3의 제2 패턴(313)) 기초하여 출력하는 영상은 제1 패턴(예: 도 3의 제1 패턴(311))에 기초하여 출력하는 영상보다 높은 해상도를 가질 수 있다. 동작 630에서 이미지 센서(예: 도 3의 이미지 센서(300))는 출력 영역 정보에 상응하는 영역을 크롭(crop)하여 출력하거나, 출력 영역 정보에 상응하는 픽셀 값만 독출할 수 있다. 도 6에서는 도시되지 않았으나, 프로세서(120)는 제2 패턴(예: 도 3의 제2 패턴(313))에 기초하여 생성된 제2 이미지 프레임이 스트리밍 되고 있는 동안에도 출력 영역 정보를 모니터링할 수도 있다.According to one embodiment, based on determining that a magnification set for capturing an image exceeds a reference range, in
일 실시예에 따르면, 동작 650에서, 전자 장치(101)는 카메라 동작을 종료할 것인지 여부를 판단할 수 있다. 예를 들어, 카메라 어플리케이션의 실행이 종료되거나, 영상 통화가 종료되었음을 지시하는 이벤트가 발생하였는지 여부를 판단할 수 있다. 카메라 동작의 종료가 식별되는 것에 기초하여, 전자 장치(101)는 카메라의 동작을 종료하고 카메라 모듈(예: 도 1 내지 4의 카메라 모듈(180))을 비활성화하거나 전원을 오프(off)시킬 수 있다.According to one embodiment, at
일 실시예 따르면, 카메라 동작이 종료되지 않은 경우, 동작 660에서 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 기준 범위 이내인지 여부를 판단할 수 있다. 배율이 기준 범위를 초과하는 것에 기초하여, 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))가 계속해서 제2 패턴(예: 도 3의 제2 패턴(313))에 기초하여 이미지 프레임을 출력하도록 동작 640을 수행할 수 있다. 배율이 기준 범위 이내로 변경된 경우, 전자 장치(101)는 동작 610 또는 동작 620 중 적어도 하나를 수행할 수 있다.According to one embodiment, if the camera operation is not terminated, in
도 7은, 일 실시예에 따른 전자 장치(101)가 제1 카메라(예: 도 4의 제1 카메라(401)) 및 제2 카메라(예: 도 4의 제2 카메라(402))에 기초하여 영상의 촬영과 관련된 배율을 변경하는 프로세스를 도시한 흐름도(700)이다.FIG. 7 is a flowchart (700) illustrating a process in which an electronic device (101) according to one embodiment changes a magnification related to capturing an image based on a first camera (e.g., the first camera (401) of FIG. 4) and a second camera (e.g., the second camera (402) of FIG. 4).
일 실시예에 따르면, 전자 장치(101)는 동작 710에서 출력 영역 정보를 결정할 수 있다. 출력 영역 정보는 각 카메라 별로 각 동작 모드에 따라 이미지 센서에 포함된 픽셀들 중에서 그 픽셀 값이 이미지 프레임이 포함될 픽셀들의 영역을 나타내는 정보를 포함할 수 있다. 전자 장치(101)의 프로세서(120)는 출력 영역 정보를 결정하고, 결정된 출력 영역 정보를 카메라 모듈(180)로 전송할 수 있다. 카메라 모듈(180)은 출력 영역 정보에 기초하여 각 카메라(예: 도 4의 제1 카메라(401) 또는 제2 카메라(402)) 또는 카메라의 이미지 센서(예: 도 3의 이미지 센서(300))를 제어할 수 있다. 또는, 출력 영역 정보는 출력 영역 정보에 기초하여 동작하도록 각 카메라(예: 도 4의 제1 카메라(401) 또는 제2 카메라(402)) 또는 카메라의 이미지 센서(예: 도 3의 이미지 센서(300))로 전달될 수 있다.According to one embodiment, the electronic device (101) may determine output area information in
일 실시예에 따르면, 동작 720에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 제1 임계치 이하인지 여부를 판단할 수 있다. 예를 들어, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 x2.0 미만인지 여부를 판단할 수 있다. 영상을 촬영하기 위해 설정된 배율이 제1 임계치 미만인 것으로 판단되면(예를 들어, 배율이 x1.9인 경우), 전자 장치(101)는 동작 730에서 제1 배율에 기초하여 제1 카메라(예: 도 4의 제1 카메라(401))를 통해서 제1 이미지 프레임을 획득할 수 있다. 동작 730에서, 제1 카메라(예: 도 4의 제1 카메라(401))의 이미지 센서(예: 도 3의 이미지 센서(300))는 제1 패턴(예: 도 3의 제1 패턴(311))에 기초하여 이미지 프레임을 출력할 수 있다. 예를 들어, 제1 카메라(예: 도 4의 제1 카메라(401))의 이미지 센서(예: 도 3의 이미지 센서(300))는 복수 개의 픽셀을 비닝하여 출력하는 동작 모드(이하, '비닝 모드'라 한다)에 기초하여 동작할 수 있다. 카메라 모듈(180)은 출력 영역 정보 중에서 제1 카메라(예: 도 4의 제1 카메라(401))가 비닝 모드로 출력할 수 있는 픽셀들 중 이미지 프레임에 포함될 픽셀들의 위치를 지시하는 정보에 기초하여 구성된 이미지 프레임을 프로세서(120)로 전달할 수 있다.According to one embodiment, in
일 실시예에 따르면, 동작 720에서 영상을 촬영하기 위해 설정된 배율이 제1 임계치 이상인 것으로 판단된 경우, 전자 장치(101)는 동작 740에서 영상을 촬영하기 위해 설정된 배율이 제2 임계치 미만인지 여부를 판단할 수 있다. 영상을 촬영하기 위해 설정된 배율이 제2 임계치(예: x3.0 배율) 미만인 것으로 판단되면(예를 들어, 배율이 x2.9인 경우), 전자 장치(101)는 동작 750에서 제2 배율에 기초하여 제1 카메라(예: 도 4의 제1 카메라(401))를 통해서 제2 이미지 프레임을 획득할 수 있다. 동작 750에서, 제1 카메라(예: 도 4의 제1 카메라(401))의 이미지 센서(예: 도 3의 이미지 센서(300))는 제2 패턴(예: 도 3의 제2 패턴(313))에 기초하여 이미지 프레임을 출력할 수 있다. 예를 들어, 제1 카메라(예: 도 4의 제1 카메라(401))의 이미지 센서(예: 도 3의 이미지 센서(300))는 픽셀들의 패턴을 리모자이크(remosaic)하여 출력하는 동작 모드(이하, '리모자이크 모드'라 한다)에 기초하여 동작할 수 있다. 카메라 모듈(180)은 출력 영역 정보 중에서 제1 카메라(예: 도 4의 제1 카메라(401))가 리모자이크 모드로 출력할 수 있는 픽셀들 중에서 이미지 프레임에 포함될 픽셀들의 위치를 지시하는 정보에 기초하여 구성된 이미지 프레임을 프로세서(120)로 전달할 수 있다. 예를 들어, 이미지 프레임은 이미지 센서(예: 도 3의 이미지 센서(300))에서 독출된 픽셀 값들 중 출력 영역 정보에 상응하는 영역을 크롭하여 구성될 수 있다. 예를 들어, 이미지 프레임은 이미지 센서(예: 도 3의 이미지 센서(300))가 출력 영역 정보에 상응하는 영역의 픽셀 값 만을 독출하여 구성될 수도 있다.According to one embodiment, if it is determined that the magnification set for capturing an image in
일 실시예에 따르면, 동작 740에서 영상을 촬영하기 위해 설정된 배율이 제2 임계치 이상인 것으로 판단되면(예를 들어, 배율이 x3.0인 경우), 전자 장치는 동작 760에서 제3 배율에 기초하여 제2 카메라(예: 도 4의 제2 카메라(402))를 통해서 제3 이미지 프레임을 획득할 수 있다. 제2 카메라(예: 도 4의 제2 카메라(401))는 제1 카메라(예: 도 4의 제1 카메라(402))와 상이한 화각을 지원하도록 구성된 카메라일 수 있다. 예를 들어, 제2 카메라(예: 도 4의 제2 카메라(402))는 제1 카메라(예: 도 4의 제1 카메라(401))보다 좁은 화각을 지원하는 (초점 거리가 긴) 카메라일 수 있다. 카메라 모듈(180)은 출력 영역 정보 중에서 제2 카메라(예: 도 4의 제2 카메라(402))가 출력할 수 있는 픽셀들 중에서 이미지 프레임에 포함될 픽셀들의 위치를 지시하는 정보에 기초하여 구성된 이미지 프레임을 프로세서(120)로 전달할 수 있다. 예를 들어, 이미지 프레임은 제2 카메라(예: 도 4의 제2 카메라(402))의 이미지 센서에서 독출될 픽셀 값들 중 출력 영역 정보에 상응하는 영역을 크롭하여 구성될 수 있다. 예를 들어, 이미지 프레임은 제2 카메라(예: 도 4의 제2 카메라(402))의 이미지 센서가 출력 영역 정보에 상응하는 영역의 픽셀 값 만을 독출하여 구성될 수도 있다.According to one embodiment, if it is determined that the magnification set for capturing the image in
일 실시예에 따른 전자 장치(101)는 동작 770에서 카메라 동작을 종료할 것인지 여부를 판단할 수 있다. 예를 들어, 카메라 어플리케이션의 실행이 종료되거나, 영상 통화가 종료되었음을 지시하는 이벤트가 발생하였는지 여부를 판단할 수 있다. 카메라 동작의 종료가 식별되는 것에 기초하여, 전자 장치(101)는 카메라의 동작을 종료하고 카메라 모듈(예: 도 1 내지 4의 카메라 모듈(180))을 비활성화하거나 전원을 오프(off)시킬 수 있다. 카메라 동작을 종료하지 않는 경우, 전자 장치(101)는 동작 710을 다시 수행하여 출력 영역 정보를 업데이트할 수 있다. 설명의 편의를 위하여 동작 710이 흐름도(700) 내에 도시되었으나, 전자 장치(101)가 동작 710을 수행하는 순서는 도 7에 도시된 순서에 한정되지 아니한다. 예를 들어, 전자 장치(101)의 프로세서(120)는 카메라 내지 이미지 센서의 동작과 별도의 루틴으로서 출력 영역 정보를 지속적, 반복적 또는 주기적으로 모니터링하고, 결정된 출력 영역 정보를 카메라 모듈(180)로 전송하여 갱신할 수 있다.In one embodiment, the electronic device (101) may determine whether to terminate the camera operation at
도 8은, 일 실시예에 따른 전자 장치(101)가 변경되는 배율에 따라 이미지 프레임을 촬영 영역 정보에 기초하여 출력하는 동작을 개념적으로 설명하기 위한 도면이다.FIG. 8 is a diagram conceptually explaining an operation of an electronic device (101) according to one embodiment of the present invention to output an image frame based on shooting area information according to a changing magnification.
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위한 배율이 변경되면, 변경된 배율에 상응하는 영상을 출력 영역 정보에 기초하여 획득할 수 있다. 도 8을 참조하면, 전자 장치(101)는 영상을 촬영하기 위한 배율이 x1.0 배로 설정되어 있는 경우, 제1 패턴(811)에 기초하여 제1 이미지(810)를 포함하는 이미지 프레임을 획득할 수 있다. 영상을 촬영하기 위한 배율이 x1.0 배로 설정되어 있는 경우, 전자 장치(101)는 비닝(binning) 모드에 기초하여 제1 이미지(810)를 획득할 수 있다. 예를 들어, 전자 장치(101)의 이미지 센서(예: 도 3의 이미지 센서(300))의 각 픽셀들로부터 제1 패턴(811)을 가지는 데이터를 독출할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300)는 제1 패턴(811)을 가지는 데이터에 대한 비닝(binning) 연산(812)을 통해서 복수의 픽셀들이 병합되어 구성된 패턴(813)을 가지는 데이터를 포함하는 이미지 프레임을 프로세서(예: 도 3의 프로세서(120))로 출력할 수 있다.In one embodiment, when the magnification for capturing an image is changed, the electronic device (101) can obtain an image corresponding to the changed magnification based on the output area information. Referring to FIG. 8, when the magnification for capturing an image is set to x1.0 times, the electronic device (101) can obtain an image frame including a first image (810) based on the first pattern (811). When the magnification for capturing an image is set to x1.0 times, the electronic device (101) can obtain the first image (810) based on a binning mode. For example, data having the first pattern (811) can be read from each pixel of an image sensor (e.g., the image sensor (300) of FIG. 3) of the electronic device (101). An image sensor (e.g., an image sensor (300) of FIG. 3) can output an image frame including data having a pattern (813) formed by merging multiple pixels through a binning operation (812) on data having a first pattern (811) to a processor (e.g., a processor (120) of FIG. 3).
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위한 배율을 x1.0배에서 제1 배율로 변경할 수 있다. 예를 들어, 전자 장치(101)는 배율을 설정하도록 하는 사용자 입력에 응답하여, 영상을 촬영하기 위해 설정된 배율을 변경할 수 있다. 일 실시예에서, 전자 장치(101)의 프로세서(120)는 변경되는 제1 배율에 따른 영상에 상응하는 영역을 지시하는 출력 영역 정보를 카메라 내지 이미지 센서(예: 도 3의 이미지 센서(300))로 전송할 수 있다. 도 8을 참조하면, 프로세서(120)는 시작 좌표 (X1, Y1)을 포함하는 출력 영역 정보를 전송할 수 있다. 출력 영역 정보는 종료 좌표 (X2, Y2)를 더 포함할 수도 있다.In one embodiment, the electronic device (101) can change the magnification for capturing an image from x1.0 times to the first magnification. For example, the electronic device (101) can change the set magnification for capturing an image in response to a user input for setting the magnification. In one embodiment, the processor (120) of the electronic device (101) can transmit output area information indicating an area corresponding to an image according to the changed first magnification to a camera or an image sensor (e.g., the image sensor (300) of FIG. 3). Referring to FIG. 8, the processor (120) can transmit output area information including start coordinates (X 1 , Y 1 ). The output area information may further include end coordinates (X 2 , Y 2 ).
일 실시예에서, 전자 장치(101)는 출력 영역 정보에 기초하여 제1 배율에 상응하는 제2 이미지(820)를 획득할 수 있다. 전자 장치(101)는 이미지(810) 내에서 시작 좌표 (X1, Y1)로부터 종료 좌표 (X2, Y2)까지의 픽셀 값들로 구성된 제2 이미지(820)를 획득할 수 있다. 예를 들어, 전자 장치(101)의 이미지 센서(예: 도 3의 이미지 센서(300))는 이미지 센서(예: 도 3의 이미지 센서(300))의 각 픽셀들로부터 제1 패턴(821)을 가지는 데이터를 독출할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))는 제1 패턴(821)을 가지는 데이터에 대한 비닝(binning) 연산(822)을 통해서 복수의 픽셀들이 병합되어 구성된 패턴(823)을 가지는 데이터의 적어도 일부(824)를 크롭(crop)한 데이터(825)를 포함하는 이미지 프레임을 프로세서(예: 도 3의 프로세서(120))로 출력할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))는 시작 좌표 (X1, Y1) 또는 종료 좌표 (X2, Y2) 중 적어도 하나에 기초하여 데이터를 크롭할 영역을 결정할 수 있다.In one embodiment, the electronic device (101) can obtain a second image (820) corresponding to the first magnification based on the output area information. The electronic device (101) can obtain the second image (820) composed of pixel values from the start coordinate (X 1 , Y 1 ) to the end coordinate (X 2 , Y 2 ) within the image (810). For example, the image sensor (e.g., the image sensor (300) of FIG. 3 ) of the electronic device (101) can read data having a first pattern (821) from each pixel of the image sensor (e.g., the image sensor (300) of FIG. 3 ). An image sensor (e.g., an image sensor (300) of FIG. 3) can output an image frame including data (825) that is cropped at least a portion (824) of data having a pattern (823) in which a plurality of pixels are merged through a binning operation (822) on data having a first pattern (821) to a processor (e.g., a processor (120) of FIG. 3). The image sensor (e.g., an image sensor (300) of FIG. 3) can determine an area to crop data based on at least one of a start coordinate (X 1 , Y 1 ) or an end coordinate (X 2 , Y 2 ).
일 실시예에서, 전자 장치(101)는 제1 패턴(821)을 가지는 데이터에 기초하여 데이터(825) 보다 높은 해상도의 이미지 프레임을 획득할 수도 있다. 도 8을 참조하면, 전자 장치(101)는 제1 패턴(821)을 가지는 데이터에 대한 리모자이크 연산(826)을 수행하여 구성된 패턴(827)을 가지는 데이터를 획득할 수 있다. 여기서, 리모자이크 연산(826)은, 예를 들어, 이미지 센서(예: 도 3의 이미지 센서(300))에서 출력된 데이터에 대한 리모자이크를 수행하는 소프트웨어적 리모자이크 연산을 포함할 수 있다. 전자 장치(101)는 패턴(827)을 가지는 데이터의 적어도 일부(828)를 크롭한 데이터(829)를 포함하는 이미지 프레임을 프로세서(예: 도 3의 프로세서(120))로 출력할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))는 시작 좌표 (X1, Y1) 또는 종료 좌표 (X2, Y2) 중 적어도 하나에 기초하여 데이터를 크롭할 영역을 결정할 수 있다. 데이터(829)는 데이터(825) 보다 높은 해상도를 가지는 이미지에 대한 정보를 포함할 수 있다.In one embodiment, the electronic device (101) may obtain an image frame having a higher resolution than the data (825) based on the data having the first pattern (821). Referring to FIG. 8, the electronic device (101) may obtain data having a configured pattern (827) by performing a re-mosaic operation (826) on the data having the first pattern (821). Here, the re-mosaic operation (826) may include, for example, a software re-mosaic operation that performs re-mosaic on data output from an image sensor (e.g., the image sensor (300) of FIG. 3). The electronic device (101) may output an image frame including data (829) that is a cropped portion (828) of the data having the pattern (827) to a processor (e.g., the processor (120) of FIG. 3). An image sensor (e.g., image sensor (300) of FIG. 3) can determine an area to crop data from based on at least one of a start coordinate (X 1 , Y 1 ) or an end coordinate (X 2 , Y 2 ). The data (829) can include information about an image having a higher resolution than the data (825).
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위한 배율을 제1 배율에서 기준 범위에서 벗어나는 제2 배율로 변경할 수 있다. 전자 장치(101)는 출력 영역 정보에 기초하여 제2 배율에 상응하는 제2 이미지(830)를 획득할 수 있다. 영상을 촬영하기 위한 배율이 제2 배율로 변경되는 것에 기초하여, 이미지 센서(예: 도 3의 이미지 센서(300))는 보다 높은 해상도로 영상을 획득하기 위해 제2 패턴(831)에 기초하여 영상에 대한 데이터를 출력하는 동작 모드로 전환될 수 있다. 예를 들어, 전자 장치(101)의 이미지 센서(예: 도 3의 이미지 센서(300))는 이미지 센서(예: 도 3의 이미지 센서(300))의 각 픽셀들로부터 제2 패턴(831)을 가지는 데이터를 독출할 수 있다. 제2 패턴(831)을 가지는 데이터는 이미지 센서(예: 도 3의 이미지 센서(300))에서 독출된 데이터에 대한 리모자이크 연산(832)을 수행하여 획득된 것일 수 있다. 예를 들어, 리모자이크 연산(832)은 이미지 센서(832) 측에서 리모자이크를 수행하여 출력하는 하드웨어적 리모자이크 연산을 포함할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))는 제2 패턴(831)을 가지는 데이터에 대한 리모자이크 연산을 수행함으로써 획득된 데이터에 대한 비닝 연산(834)을 수행하여 베이어 패턴(833)을 가지는 데이터를 포함하는 이미지 프레임을 프로세서(예: 도 3의 프로세서(120))로 출력할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300))는 시작 좌표 (X3, Y3) 또는 종료 좌표 (X4, Y4) 중 적어도 하나에 기초하여 리모자이크 연산을 통해서 베이어 패턴(833)을 가지는 데이터를 획득할 수 있다.In one embodiment, the electronic device (101) can change the magnification for capturing an image from a first magnification to a second magnification that is out of a reference range. The electronic device (101) can obtain a second image (830) corresponding to the second magnification based on the output area information. Based on the magnification for capturing an image being changed to the second magnification, the image sensor (e.g., the image sensor (300) of FIG. 3) can switch to an operation mode for outputting data about the image based on the second pattern (831) to obtain an image with a higher resolution. For example, the image sensor (e.g., the image sensor (300) of FIG. 3) of the electronic device (101) can read data having the second pattern (831) from each pixel of the image sensor (e.g., the image sensor (300) of FIG. 3). Data having the second pattern (831) may be obtained by performing a re-mosaic operation (832) on data read from an image sensor (e.g., the image sensor (300) of FIG. 3). For example, the re-mosaic operation (832) may include a hardware re-mosaic operation that performs re-mosaic on the image sensor (832) side and outputs it. The image sensor (e.g., the image sensor (300) of FIG. 3) may perform a binning operation (834) on data obtained by performing the re-mosaic operation on data having the second pattern (831) and output an image frame including data having the Bayer pattern (833) to a processor (e.g., the processor (120) of FIG. 3). An image sensor (e.g., image sensor (300) of FIG. 3) can obtain data having a Bayer pattern (833) through a remosaic operation based on at least one of the start coordinates (X 3 , Y 3 ) or the end coordinates (X 4 , Y 4 ).
일 실시예에서, 이미지 센서(예: 도 3의 이미지 센서(300))가 제2 패턴(831)에 기초하여 독출되는 픽셀 값들로 구성된 데이터를 출력하면, 제1 패턴(821)에 기초하여 출력된 데이터보다 데이터의 크기가 증가할 수 있다. 그러나 이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(260))는 이미지 센서(예: 도 3의 이미지 센서(300))에서 출력되는 데이터의 크기가 변경되면 영상 처리를 수행하지 못하거나 이미지 시그널 프로세서(예: 도 2의 이미지 시그널 프로세서(260))를 구성하기 위한 복잡도가 증가할 수 있다. 따라서 이미지 센서(예: 도 3의 이미지 센서(300))는 출력 영역 정보에 포함된 시작 좌표 (X3, Y3)로부터 종료 좌표 (X4, Y4) 이내의 영역에 상응하는 픽셀 값들을 포함하는 이미지 프레임을 출력할 수 있다. 출력되는 이미지 프레임의 크기를 유지할 수 있으므로, 이미지에 대한 다운-스케일 동작 및 업-스케일 동작 없이 이미지 센서(예: 도 3의 이미지 센서(300))의 동작 모드를 심리스(seamless)하게 전환할 수 있다.In one embodiment, when an image sensor (e.g., the image sensor (300) of FIG. 3) outputs data composed of pixel values read based on the second pattern (831), the size of the data may increase compared to data output based on the first pattern (821). However, if the size of the data output from the image sensor (e.g., the image sensor (300) of FIG. 3) changes, the image signal processor (e.g., the image signal processor (260) of FIG. 2) may not be able to perform image processing or the complexity for configuring the image signal processor (e.g., the image signal processor (260) of FIG. 2) may increase. Therefore, the image sensor (e.g., the image sensor (300) of FIG. 3) may output an image frame including pixel values corresponding to an area within the start coordinate (X 3 , Y 3 ) to the end coordinate (X 4 , Y 4 ) included in the output area information. Since the size of the output image frame can be maintained, the operation mode of the image sensor (e.g., the image sensor (300) of FIG. 3) can be seamlessly switched without down-scaling and up-scaling operations for the image.
도 9는, 일 실시예에 따른 전자 장치(101)가 변경되는 배율에 기초하여 카메라를 변경하는 동작을 설명하기 위한 도면이다.FIG. 9 is a drawing for explaining an operation of changing a camera based on a changing magnification of an electronic device (101) according to one embodiment.
일 실시예에서, 전자 장치(101)는 복수개의 카메라(401, 402)를 포함할 수 있다. 예를 들어, 전자 장치(101)는 광각 카메라를 포함하는 제1 카메라(401) 및 제1 카메라(401)보다 좁은 화각을 지원하는 망원 카메라를 포함하는 제2 카메라(402)를 포함할 수 있다. 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율에 기초하여 복수개의 카메라(401, 402) 중에서 영상을 촬영하기 위해 사용될 카메라를 선택할 수 있다.In one embodiment, the electronic device (101) may include a plurality of cameras (401, 402). For example, the electronic device (101) may include a first camera (401) including a wide-angle camera and a second camera (402) including a telephoto camera supporting a narrower angle of view than the first camera (401). The electronic device (101) may select a camera to be used for capturing an image from among the plurality of cameras (401, 402) based on a magnification set for capturing an image.
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 제1 카메라(401)에 기초하여 영상을 촬영하도록 하는 제1 범위에 포함된 제2 배율인 경우, 제1 카메라(401)를 통해서 제2 이미지(910)를 획득할 수 있다. 예를 들어, 제1 범위는 x2.9 이하인 배율을 지시할 수 있다. 영상을 촬영하기 위해 설정된 배율이 x2.9인 경우, 전자 장치(101)는 x2.9 배율의 제2 이미지(910)를 제1 카메라(401)를 통해서 획득할 수 있다.In one embodiment, the electronic device (101) can obtain a second image (910) through the first camera (401) when the magnification set for capturing an image is a second magnification included in a first range for capturing an image based on the first camera (401). For example, the first range can indicate a magnification of x2.9 or less. When the magnification set for capturing an image is x2.9, the electronic device (101) can obtain a second image (910) at a magnification of x2.9 through the first camera (401).
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 제2 카메라(402)에 기초하여 영상을 촬영하도록 하는 제2 범위에 포함된 제3 배율인 경우, 제2 카메라(402)를 통해서 제3 이미지(920)를 획득할 수 있다. 예를 들어, 제2 범위는 x3.0 이상인 배율을 지시할 수 있다. 영상을 촬영하기 위해 설정된 배율이 제1 범위 내에서 제2 범위 내로 변경된 경우, 전자 장치(101)는 제2 카메라(402)를 통해서 제3 이미지(920)를 획득할 수 있다. 제2 카메라(402)가 전원이 오프(off)된 상태이거나 비활성화된 상태인 경우, 전자 장치(101)는 배율의 변경에 기초하여 제2 카메라(402)의 전원을 턴-온(turn-on)시키거나 활성화시킬 수 있다. 예를 들어, 영상을 촬영하기 위해 설정된 배율이 x3.0으로 변경되는 것에 기초하여, 전자 장치(101)는 제2 카메라(402)를 통해서 제3 이미지(920)를 획득할 수 있다. 사용되지 않는 제1 카메라(101)는 턴-오프(turn-off) 되거나 비활성화될 수 있다.In one embodiment, the electronic device (101) can obtain a third image (920) through the second camera (402) when the magnification set for capturing an image is a third magnification included in the second range for capturing an image based on the second camera (402). For example, the second range can indicate a magnification of x3.0 or greater. When the magnification set for capturing an image is changed from the first range to the second range, the electronic device (101) can obtain the third image (920) through the second camera (402). When the second camera (402) is turned off or deactivated, the electronic device (101) can turn on or activate the second camera (402) based on the change in the magnification. For example, based on the magnification set for capturing an image being changed to x3.0, the electronic device (101) can acquire a third image (920) through the second camera (402). The first camera (101) that is not being used can be turned off or deactivated.
도 10은, 일 실시예에 따른 전자 장치(101)가 배율을 변경하는 동작에서 표시하는 화면의 예시를 도시한 도면이다.FIG. 10 is a drawing illustrating an example of a screen displayed by an electronic device (101) in an operation of changing a magnification according to one embodiment.
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 제1 기준 범위(예: x1 내지 x1.9)에 속하는 경우, 이미지 센서에 포함된 픽셀들을 비닝함으로써 제1 패턴(1015)에 기초하여 출력되는 이미지 프레임에 기초하여 획득된 영상(1010)을 포함하는 화면을 표시할 수 있다.In one embodiment, the electronic device (101) can display a screen including an image (1010) acquired based on an image frame output based on a first pattern (1015) by binning pixels included in the image sensor when a magnification set for capturing an image falls within a first reference range (e.g., x1 to x1.9).
일 실시예에서, 영상을 촬영하기 위해 설정된 배율이 변경되어 제2 기준 범위(예: x2 내지 x2.9)에 속하는 경우, 이미지 센서에서 출력되는 데이터를 리모자이크하여 출력할 수 있다. 전자 장치(101)의 프로세서(120)는 이미지 센서의 동작 모드가 변경되는 동작에서 표시되는 이미지가 이동하지 않거나 이동하는 정도가 감소하도록 하는 출력 영역 정보를 이미지 센서로 전송할 수 있다. 이미지 센서는 리모자이크하여 출력되는 픽셀들 중, 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 이미지 프레임을 출력할 수 있다. 예를 들어, 전자 장치(101)는 이미지 센서에서 출력되는 데이터를 리모자이크하여 구성된 제2 패턴(1025)에 기초하여 출력되는 이미지 프레임에 기초하여 획득된 영상(1020)을 포함하는 화면을 표시할 수 있다. 또는, 예를 들어, 전자 장치(101)는 이미지 센서가 리모자이크를 수행하여 구성된 제2 패턴(1025)을 가지는 이미지 데이터에 기초하여 영상(1020)을 획득할 수도 있다.In one embodiment, when a magnification set for capturing an image is changed and falls within a second reference range (e.g., x2 to x2.9), data output from an image sensor may be remosaiced and output. The processor (120) of the electronic device (101) may transmit output area information to the image sensor so that an image displayed in an operation in which an operation mode of the image sensor is changed may not move or may move to a reduced degree. The image sensor may output an image frame including pixel values corresponding to the output area information among pixels output by remosaicing. For example, the electronic device (101) may display a screen including an image (1020) acquired based on an image frame output based on a second pattern (1025) configured by remosaicing data output from the image sensor. Alternatively, for example, the electronic device (101) may acquire the image (1020) based on image data having a second pattern (1025) configured by the image sensor performing remosaicing.
일 실시예에서, 영상을 촬영하기 위해 설정된 배율이 변경되어 제3 기준 범위(예: x3.0 이상)에 속하는 경우, 전자 장치(101)는 영상을 촬영하기 위해 사용되는 카메라를 변경(예를 들어, 보다 좁은 화각을 지원하는 카메라 또는 초점 거리가 긴 카메라로 변경)할 수 있다. 전자 장치(101)의 프로세서(120)는 카메라가 전환되는 동작에서 표시되는 이미지가 이동하지 않거나 이동하는 정도가 감소하도록 하는 출력 영역 정보를 변경되는 카메라로 전송할 수 있다. 변경된 카메라는 독출할 수 있는 픽셀들 중 출력 영역 정보에 상응하는 픽셀 값들을 포함하는 이미지 프레임을 출력할 수 있다. 전자 장치(101)는 이미지 센서에서 출력되는 이미지 프레임에 기초하여 획득된 영상(1030)을 포함하는 화면을 표시할 수 있다.In one embodiment, when a magnification set for capturing an image is changed and falls within a third reference range (e.g., x3.0 or more), the electronic device (101) may change the camera used for capturing the image (e.g., change to a camera supporting a narrower angle of view or a camera with a longer focal length). The processor (120) of the electronic device (101) may transmit output area information to the changed camera so that the displayed image does not move or moves to a reduced degree in the operation of switching the camera. The changed camera may output an image frame including pixel values corresponding to the output area information among pixels that can be read. The electronic device (101) may display a screen including an image (1030) acquired based on the image frame output from the image sensor.
도 11은, 일 실시예에 따른 전자 장치(101)가 사용자 입력에 기초하여 미리보기 영상(1110)을 확대하는 동작의 예시를 도시한 도면이다.FIG. 11 is a diagram illustrating an example of an operation of an electronic device (101) according to one embodiment of the present invention to enlarge a preview image (1110) based on a user input.
일 실시예에서, 전자 장치(101)는 카메라 모듈(180)로부터 스트리밍되는 이미지 프레임에 기초하여 미리보기 영상(1110)을 포함하는 화면을 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))을 통해서 표시할 수 있다. 전자 장치(101)는 미리보기 영상(1110)에 대하여 촬영되는 영상의 배율을 변경하기 위한 배율 변경 입력을 수신할 수 있다. 예를 들어, 전자 장치(101)는 터치스크린 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해서 핀치 아웃(pinch-out) 입력을 수신할 수 있다. 핀치 아웃 입력은 둘 이상의 터치 지점이 식별되는 제1 입력(1101)에 이어서 둘 이상의 터치 지점의 위치가 멀어지도록 이동하는 제1 입력(1102)을 포함하는 입력을 의미하는 것으로 언급될 수 있다. 핀치 인(pinch-in) 입력은 반대로 핀치 아웃 입력은 둘 이상의 터치 지점이 식별되는 제1 입력(1101)에 이어서 둘 이상의 터치 지점의 위치가 가까워지도록 이동하는 입력(도시되지 않음)을 의미하는 것으로 언급될 수 있다. 다만, 배율 변경 입력은 핀치 아웃 입력 또는 핀치 인 입력으로 제한되지 아니한다. 예를 들어, 영상의 배율을 변경하기 위한 입력은 지정된 배율을 지시하는 아이콘을 선택하는 터치 입력이나 배율을 나타내는 바(bar)를 드래그 하는 입력으로 구성될 수도 있다.In one embodiment, the electronic device (101) may display a screen including a preview image (1110) based on image frames streamed from a camera module (180) through a touchscreen display (e.g., the display module (160) of FIG. 1). The electronic device (101) may receive a magnification change input for changing a magnification of an image captured with respect to the preview image (1110). For example, the electronic device (101) may receive a pinch-out input through the touchscreen display (e.g., the display module (160) of FIG. 1). The pinch-out input may be referred to as an input including a first input (1101) in which two or more touch points are identified, followed by a first input (1102) in which the positions of the two or more touch points move apart. A pinch-in input may be referred to as an input (not shown) in which, conversely, a pinch-out input refers to an input in which the positions of two or more touch points move closer following a first input (1101) in which two or more touch points are identified. However, the magnification change input is not limited to a pinch-out input or a pinch-in input. For example, an input for changing the magnification of an image may consist of a touch input for selecting an icon indicating a specified magnification or an input for dragging a bar indicating a magnification.
일 실시예에서, 전자 장치(101)는 배율 변경 입력이 입력된 위치에 기초하여 출력 영역 정보를 결정할 수 있다. 예를 들어, 도 11을 참조하면, 제1 지점(1111) 및 제2 지점(1112)으로부터 시작되는 핀치 아웃 입력이 수신된 경우, 전자 장치(101)는 제1 영역(1121)을 포함하도록 줌-인(zoom-in)된 제1 확대 영상(1131)을 획득할 수 있다. 줌-인 동작을 수행한 결과에 의해 변경된 배율에 따라 이미지 센서의 동작 모드 또는 영상을 촬영하기 위한 카메라가 전환된 경우, 전자 장치(101)의 프로세서는 제1 영역(1121)을 포함하는 영역을 지시하는 출력 영역 정보를 이미지 센서로 전송할 수 있다. 이미지 센서는 출력 영역 정보에 기초하여 제1 확대 영상(1131)을 포함하는 이미지 프레임을 출력할 수 있다. 전자 장치(101)는 터치스크린 디스플레이를 통해서 제1 확대 영상(1131)을 포함하는 화면을 표시할 수 있다.In one embodiment, the electronic device (101) can determine output area information based on a location where a magnification change input is input. For example, referring to FIG. 11, when a pinch-out input starting from a first point (1111) and a second point (1112) is received, the electronic device (101) can obtain a first magnified image (1131) that is zoomed in to include a first area (1121). When the operation mode of the image sensor or the camera for capturing the image is switched according to the magnification changed as a result of performing the zoom-in operation, the processor of the electronic device (101) can transmit output area information indicating an area including the first area (1121) to the image sensor. The image sensor can output an image frame including the first magnified image (1131) based on the output area information. The electronic device (101) can display a screen including the first magnified image (1131) through a touchscreen display.
일 실시예에서, 전자 장치(101)는 제3 지점(1113) 및 제4 지점(1114)으로부터 시작되는 핀치 아웃 입력이 수신된 경우, 전자 장치(101)는 제2 영역(1122)을 포함하도록 줌-인 된 제2 확대 영상(1132)을 획득할 수 있다. 줌-인 동작을 수행한 결과에 의해 변경된 배율에 따라 이미지 센서의 동작 모드 또는 영상을 촬영하기 위한 카메라가 전환된 경우, 전자 장치(101)의 프로세서는 제2 영역(1122)을 포함하는 영역을 지시하는 출력 영역 정보를 이미지 센서로 전송할 수 있다. 이미지 센서는 출력 영역 정보에 기초하여 제2 확대 영상(1132)을 포함하는 이미지 프레임을 출력할 수 있다. 전자 장치(101)는 터치스크린 디스플레이를 통해서 제2 확대 영상(1132)을 포함하는 화면을 표시할 수 있다.In one embodiment, when the electronic device (101) receives a pinch-out input starting from the third point (1113) and the fourth point (1114), the electronic device (101) can obtain a second enlarged image (1132) zoomed in to include the second area (1122). When the operation mode of the image sensor or the camera for capturing the image is switched according to the changed magnification as a result of performing the zoom-in operation, the processor of the electronic device (101) can transmit output area information indicating an area including the second area (1122) to the image sensor. The image sensor can output an image frame including the second enlarged image (1132) based on the output area information. The electronic device (101) can display a screen including the second enlarged image (1132) through a touchscreen display.
프로세서(120)가 출력 영역 정보를 이미지 센서로 전송하고, 이미지 센서가 출력 영역 정보에 기초하여 배율이 변경된 이미지를 제공함으로써, 영상의 배율 변경 시에 고정된 지점(예: 이미지의 중심)을 기준으로만 스트리밍되는 영상이 확대 또는 축소되는 것이 아니라, 사용자가 원하는 지점을 중심으로 확대 또는 축소된 영상이 제공될 수 있다.Since the processor (120) transmits output area information to the image sensor, and the image sensor provides an image with a changed magnification based on the output area information, when the magnification of the image is changed, the streaming image is not enlarged or reduced only based on a fixed point (e.g., the center of the image), but an image enlarged or reduced based on a point desired by the user can be provided.
도 12는, 일 실시예에 따른 전자 장치(101)의 이미지 센서(예: 도 3의 이미지 센서(300))의 동작 모드가 변경되는 동작에서 프로세서(120)와 이미지 센서(예: 도 3의 이미지 센서(300))가 출력하는 정보를 도시한 도면이다.FIG. 12 is a diagram illustrating information output by a processor (120) and an image sensor (e.g., the image sensor (300) of FIG. 3) in an operation in which the operation mode of the image sensor (e.g., the image sensor (300) of FIG. 3) of an electronic device (101) is changed according to one embodiment.
도 12에서, 신호(1201)는 프로세서(120)로부터 이미지 센서(예: 도 3의 이미지 센서(300))로 전송되는 신호를 나타낸다. 인터페이스(1202)는 이미지 센서(예: 도 3의 이미지 센서(300))로부터 이미지 프레임을 출력하는 인터페이스를 나타낸다. 예를 들어, 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))로부터 출력되는 이미지 프레임의 스트림에 기초하여 주기적으로 갱신되는 미리보기 이미지를 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해 표시할 수 있다. 도 12는 2.0x에서 2.1x로 변경되는 예시를 도시한다. 인터페이스(1202)를 통해서 출력되는 데이터는 이미지 센서(예: 도 3의 이미지 센서(300))의 수광 소자들로부터 독출(readout)된 정보에 대해 비닝(binning) 또는 리모자이크(remosaic)를 수행한 결과로서 획득된 데이터를 포함할 수 있다.In FIG. 12, a signal (1201) represents a signal transmitted from a processor (120) to an image sensor (e.g., the image sensor (300) of FIG. 3). An interface (1202) represents an interface for outputting an image frame from the image sensor (e.g., the image sensor (300) of FIG. 3). For example, the electronic device (101) may display a preview image that is periodically updated based on a stream of image frames output from the image sensor (e.g., the image sensor (300) of FIG. 3) through a display (e.g., the display module (160) of FIG. 1). FIG. 12 illustrates an example of changing from 2.0x to 2.1x. The data output through the interface (1202) may include data obtained as a result of performing binning or remosaic on information readout from photodetectors of the image sensor (e.g., the image sensor (300) of FIG. 3).
일 실시예에서, 프로세서(120)는 이미지 프레임을 구성하는 이미지 센서(예: 도 3의 이미지 센서(300))의 변경된 모드로 동작하는 이미지 센서가 출력 가능한 픽셀들 중 이미지 프레임에 포함될 픽셀들의 시작 좌표 또는 종료 좌표 중 적어도 하나를 결정할 수 있다. 예를 들어, 도 12를 참조하면, 프로세서(120)는 2.1x 배율에서 이미지 프레임에 포함될 픽셀들의 시작 좌표 또는 종료 좌표 중 적어도 하나를 결정할 수 있다. 프로세서(120)는 픽셀들의 시작 좌표 또는 종료 좌표 중 적어도 하나를 포함하는 출력 영역 정보(1200)를 포함하는 신호를 이미지 센서(예: 도 3의 이미지 센서(300))로 전송할 수 있다. 출력 영역 정보(1200)는 이미지 프레임에 포함될 영역을 결정하기 위한 추가 정보를 더 포함할 수 있다. 예를 들어, 추가 정보는 카메라에 포함된 이미지 스태빌라이저의 제어 정보, 미리 설정된 오프셋 값, 또는 배율 변경에 대한 기준 위치 중 적어도 하나를 포함할 수 있다. 또는, 프로세서(120)는 추가 정보를 더 고려하여 시작 좌표 또는 종료 좌표 중 적어도 하나를 결정할 수도 있다.In one embodiment, the processor (120) may determine at least one of the start coordinates or the end coordinates of pixels to be included in the image frame from among pixels that can be output by an image sensor operating in a changed mode of an image sensor (e.g., the image sensor (300) of FIG. 3) that constitutes an image frame. For example, referring to FIG. 12, the processor (120) may determine at least one of the start coordinates or the end coordinates of pixels to be included in the image frame at a magnification of 2.1x. The processor (120) may transmit a signal including output area information (1200) including at least one of the start coordinates or the end coordinates of the pixels to the image sensor (e.g., the image sensor (300) of FIG. 3). The output area information (1200) may further include additional information for determining an area to be included in the image frame. For example, the additional information may include at least one of control information of an image stabilizer included in a camera, a preset offset value, or a reference position for a magnification change. Alternatively, the processor (120) may further consider additional information to determine at least one of the start coordinate or the end coordinate.
도 12를 참조하면, 배율이 2.0x에서 2.1x로 변경되는 동작에서 프로세서(120)가 출력 영역 정보(1200)를 N 번째 프레임(1210)이 출력되는 시점에 전송한 경우, 출력 영역 정보(1200)에 기초하여 변경된 배율로 출력되는 프레임은 N+2번째 프레임(1212)일 수 있다. 다만, 이에 한정되지 아니한다. 예를 들어, N+1번째 프레임(1211)에서 변경된 배율로 출력되도록 구성될 수도 있다.Referring to FIG. 12, in an operation where the magnification is changed from 2.0x to 2.1x, if the processor (120) transmits the output area information (1200) at the time when the Nth frame (1210) is output, the frame output with the changed magnification based on the output area information (1200) may be the N+2th frame (1212). However, this is not limited thereto. For example, it may be configured to be output with the changed magnification in the N+1th frame (1211).
도 13은, 일 실시예에 따른 전자 장치(101)가 배율 사용조건에 기초하여 출력 영역 정보를 전송하는 예시를 도시한 도면이다.FIG. 13 is a diagram illustrating an example in which an electronic device (101) according to one embodiment transmits output area information based on a magnification usage condition.
도 13에서, 신호(1301)는 프로세서(120)로부터 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))로 전송되는 신호를 나타낸다. 인터페이스(1302)는 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))로부터 이미지 프레임을 출력하는 인터페이스를 나타낸다. 예를 들어, 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))로부터 출력되는 이미지 프레임의 스트림에 기초하여 주기적으로 갱신되는 미리보기 이미지를, 디스플레이(예: 도 1의 디스플레이 모듈(160)를 통해 표시할 수 있다. 도 13은 배율이 2.0x에서 2.1x로 변경되는 예시를 도시한다. 인터페이스(1302)를 통해서 출력되는 데이터는 이미지 센서(예: 도 3의 이미지 센서(300))의 수광 소자들로부터 독출된 정보에 대해 비닝 또는 리모자이크를 수행한 결과로서 획득된 데이터를 포함할 수 있다.In FIG. 13, a signal (1301) represents a signal transmitted from a processor (120) to an image sensor (e.g., the image sensor (300) of FIG. 3) or each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4). An interface (1302) represents an interface that outputs an image frame from an image sensor (e.g., the image sensor (300) of FIG. 3) or each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4). For example, the electronic device (101) may display a preview image that is periodically updated based on a stream of image frames output from an image sensor (e.g., the image sensor (300) of FIG. 3) through a display (e.g., the display module (160) of FIG. 1). FIG. 13 illustrates an example in which the magnification is changed from 2.0x to 2.1x. The data output through the interface (1302) may include data obtained as a result of performing binning or remosaic on information read from light-receiving elements of the image sensor (e.g., the image sensor (300) of FIG. 3).
일 실시예에서, 전자 장치(101)는 배율 변경시마다 출력 영역 정보를 전송하는 대신에, 카메라의 동작 초기에 출력 영역 정보로서 각 배율의 사용 조건을 설정하는 배율 사용조건 설정 정보(1311)를 포함하는 신호 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))로 전송할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))는 배율 사용조건 설정 정보(1311)에 기초하여 배율 별 동작 조건을 설정할 수 있다.In one embodiment, instead of transmitting output area information every time the magnification is changed, the electronic device (101) may transmit a signal including magnification usage condition setting information (1311) that sets usage conditions for each magnification as output area information at the beginning of the camera operation to an image sensor (e.g., the image sensor (300) of FIG. 3) or each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4). The image sensor (e.g., the image sensor (300) of FIG. 3) or each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4) may set operation conditions for each magnification based on the magnification usage condition setting information (1311).
일 실시예에서, 전자 장치(101)는 영상을 촬영하기 위해 설정된 배율이 변경되면, 변경된 배율 설정에 대한 정보(1312)를 포함하는 신호를 전송할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))는 변경된 배율 및 변경된 배율에 상응하는 동작 조건에 기초하여 이미지 프레임에 포함될 영역을 결정할 수 있다. 도 13을 참조하면, N번째 프레임(1320)이 출력되는 시점에 배율 설정에 대한 정보(1312)를 포함하는 신호가 전송된 경우, 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))는 변경된 배율에 따른 동작 조건(예: 시작 좌표 또는 종료 좌표 중 적어도 하나)에 기초하여 변경된 배율(예: 2.1x 배율)에 상응하는 영상을 포함하는 N+2번째 프레임(1322)을 출력할 수 있다.In one embodiment, when a magnification set for capturing an image is changed, the electronic device (101) may transmit a signal including information (1312) about the changed magnification setting. An image sensor (e.g., image sensor (300) of FIG. 3) or each camera (e.g., first camera (401) and second camera (402) of FIG. 4) may determine an area to be included in an image frame based on the changed magnification and an operating condition corresponding to the changed magnification. Referring to FIG. 13, when a signal including information (1312) on magnification setting is transmitted at the time when the Nth frame (1320) is output, an image sensor (e.g., the image sensor (300) of FIG. 3) or each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4) can output an (N+2)th frame (1322) including an image corresponding to a changed magnification (e.g., 2.1x magnification) based on an operating condition (e.g., at least one of the start coordinate or the end coordinate) according to the changed magnification.
일 실시예에서, 전자 장치(101)는 배율 설정에 대한 정보(1312)에 대한 추가 정보를 포함하는 신호를 더 전송할 수 있다. 예를 들어, 추가 정보는 카메라에 포함된 이미지 스태빌라이저의 제어 정보, 미리 설정된 오프셋 값, 또는 배율 변경에 대한 기준 위치 중 적어도 하나를 포함할 수 있다. 이미지 센서(예: 도 3의 이미지 센서(300)) 또는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))는 추가 정보에 기초하여 변경된 배율에 따른 동작 조건을 수정하고, 수정된 동작 조건에 기초하여 변경된 배율에 상응하는 N+2번째 프레임(1322)을 출력할 수도 있다.In one embodiment, the electronic device (101) may further transmit a signal including additional information about the information (1312) regarding the magnification setting. For example, the additional information may include at least one of control information of an image stabilizer included in the camera, a preset offset value, or a reference position for a magnification change. An image sensor (e.g., an image sensor (300) of FIG. 3) or each camera (e.g., a first camera (401) and a second camera (402) of FIG. 4) may modify an operating condition according to a changed magnification based on the additional information, and output an N+2-th frame (1322) corresponding to the changed magnification based on the modified operating condition.
도 14는, 일 실시예에 따른 전자 장치(101)가 영상을 촬영하기 위한 카메라를 전환하는 동작에서 프로세서와 이미지 센서가 출력하는 정보를 도시한 도면이다.FIG. 14 is a diagram illustrating information output by a processor and an image sensor in an operation of switching a camera for capturing an image by an electronic device (101) according to one embodiment.
도 14에서, 신호(1401)는 프로세서(120)로부터 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))로 전송되는 신호를 나타낸다. 인터페이스(1402)는 각 카메라(예: 도 4의 제1 카메라(401), 제2 카메라(402))로부터 이미지 프레임을 출력하는 인터페이스를 나타낸다. 예를 들어, 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))로부터 출력되는 이미지 프레임의 스트림에 기초하여 주기적으로 갱신되는 미리보기 이미지를, 디스플레이(예: 도 1의 디스플레이 모듈(160))를 통해 표시할 수 있다. 도 14는 12M 픽셀의 해상도를 지원하는 제1 카메라(예: 도 4의 제1 카메라(401))로부터 17.3M의 해상도를 지원하는 제2 카메라(예: 도 4의 제2 카메라(402))로 전환되는 예시를 나타낸다.In FIG. 14, a signal (1401) represents a signal transmitted from a processor (120) to each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4). An interface (1402) represents an interface for outputting image frames from each camera (e.g., the first camera (401) and the second camera (402) of FIG. 4). For example, the electronic device (101) may display a preview image that is periodically updated based on a stream of image frames output from an image sensor (e.g., the image sensor (300) of FIG. 3) through a display (e.g., the display module (160) of FIG. 1). FIG. 14 shows an example of switching from a first camera (e.g., the first camera (401) of FIG. 4) supporting a resolution of 12 M pixels to a second camera (e.g., the second camera (402) of FIG. 4) supporting a resolution of 17.3 M pixels.
일 실시예에서, 프로세서(120)는 제2 카메라(예: 도 4의 제2 카메라(402))의 이미지 센서가 출력 가능한 픽셀들 중, 출력될 이미지 프레임에 포함될 픽셀들에 대한 시작 좌표와 종료 좌표를 결정할 수 있다. 예를 들어, 도 14를 참조하면, 프로세서(120)는 리모자이크 모드에서 17.3M 픽셀을 지원하는 제2 카메라(예: 도 4의 제2 카메라(402))에 대한 시작 좌표 또는 종료 좌표 중 적어도 하나를 결정할 수 있다. 프로세서(120)는 픽셀들의 시작 좌표 또는 종료 좌표 중 적어도 하나를 포함하는 출력 영역 정보(1400)를 포함하는 신호를 이미지 센서(예: 도 3의 이미지 센서(300))로 전송할 수 있다. 출력 영역 정보(1400)는 이미지 프레임에 포함될 영역을 결정하기 위한 추가 정보를 더 포함할 수 있다. 예를 들어, 추가 정보는 카메라에 포함된 이미지 스태빌라이저의 제어 정보, 미리 설정된 오프셋 값, 또는 배율 변경에 대한 기준 위치 중 적어도 하나를 포함할 수 있다. 또는, 프로세서(120)는 추가 정보를 더 고려하여 시작 좌표 또는 종료 좌표 중 적어도 하나를 결정할 수도 있다.In one embodiment, the processor (120) may determine start coordinates and end coordinates for pixels to be included in an image frame to be output, among pixels that an image sensor of a second camera (e.g., the second camera (402) of FIG. 4) can output. For example, referring to FIG. 14, the processor (120) may determine at least one of the start coordinates or the end coordinates for the second camera (e.g., the second camera (402) of FIG. 4) that supports 17.3 Mpixels in a re-mosaic mode. The processor (120) may transmit a signal including output area information (1400) including at least one of the start coordinates or the end coordinates of the pixels to the image sensor (e.g., the image sensor (300) of FIG. 3). The output area information (1400) may further include additional information for determining an area to be included in the image frame. For example, the additional information may include at least one of control information of an image stabilizer included in the camera, a preset offset value, or a reference position for a magnification change. Alternatively, the processor (120) may further consider additional information to determine at least one of the start coordinate or the end coordinate.
도 14를 참조하면, 프로세서(120) 출력 영역 정보(1400)를 포함하는 신호가 N 번째 프레임(1411)이 출력되는 시점에 전송한 경우, 출력 영역 정보(1400)에 기초하여 변경된 카메라를 통해서 촬영된 영상을 포함하는 프레임은 N+2번째 프레임(1413)으로 출력될 수 있다. 다만, 이에 한정되지 아니한다. 예를 들어, N+1번째 프레임(1412)이 변경된 카메라를 통해서 출력될 수도 있다.Referring to FIG. 14, when a signal including processor (120) output area information (1400) is transmitted at the time when the Nth frame (1411) is output, a frame including an image captured through a camera that has been changed based on the output area information (1400) may be output as the N+2th frame (1413). However, this is not limited thereto. For example, the N+1th frame (1412) may also be output through the changed camera.
일 실시예에서, 모드 변경 이전에 출력되는 이미지 프레임들(예: N 번째 프레임(1411), N+1번째 프레임(1412))의 패턴과 모드 변경 이후에 출력되는 이미지 프레임들(예: N+2번째 프레임(1413))의 패턴은 서로 상이할 수 있다. 예를 들어, 모드 변경 이전에 출력되는 이미지 프레임들은 테트라(tetra) 패턴이라고 언급될 수 있는 네 개의 인접한 픽셀들의 색상이 동일한 패턴을 가질 수 있다. 모드 변경 이후에 출력되는 이미지 프레임들은 리모자이크를 수행한 결과에 기초하여 베이어(Bayer) 패턴을 가질 수 있다. 다만, 일 실시예의 이해를 위한 예시를 기술한 것으로서 이에 한정되지 아니한다.In one embodiment, the pattern of image frames output before the mode change (e.g., the Nth frame (1411), the N+1th frame (1412)) and the pattern of image frames output after the mode change (e.g., the N+2th frame (1413)) may be different from each other. For example, the image frames output before the mode change may have a pattern in which four adjacent pixels have the same color, which may be referred to as a tetra pattern. The image frames output after the mode change may have a Bayer pattern based on the result of performing remosaicing. However, this is not limited thereto and is an example described for understanding one embodiment.
도 15는, 일 실시예에 따른 전자 장치(101)가 촬영되는 영상에 대한 배율, 크기 또는 위치 중 적어도 하나를 전환하는 예시를 도시한 도면이다.FIG. 15 is a drawing illustrating an example of an electronic device (101) switching at least one of a magnification, a size, or a position of an image being captured according to one embodiment.
일 실시예에서, 전자 장치(101)는 이미지 센서(예: 도 3의 이미지 센서(300))가 프로세서(120)에서 제공되는 출력 영역 정보에 기초하여 이미지 프레임을 출력하도록 함으로써, 이미지 센서(예: 도 3의 이미지 센서(300))의 동작 모드가 변경하는 동작에서도 끊김 없이 사용자가 원하는 영역의 고화소 이미지를 제공할 수 있다.In one embodiment, the electronic device (101) can provide a high-pixel image of an area desired by a user without interruption even when the operation mode of the image sensor (e.g., the image sensor (300) of FIG. 3) changes by causing the image sensor (e.g., the image sensor (300) of FIG. 3) to output an image frame based on output area information provided from the processor (120).
일 실시예에서, 전자 장치(101)는 비닝 모드(1510)에서 픽셀들을 비닝하여 출력하는 제1 패턴(1511)에 기초하여 저배율(또는 넓은 화각(field of view))의 제1 영상(1512)을 획득할 수 있다. 비닝 모드(1510)로부터 리모자이크 모드(1520, 1530)로 전환되도록 하는 이벤트(예: 배율의 변경)가 발생하는 것에 기초하여, 전자 장치(101)는 비닝 모드(1510)에서 제공되던 제1 영상(1512)과 연속적인 제2 영상(1522, 1532)을 리모자이크에 기초하여 출력되는 제2 패턴(1521, 1531) 내의 출력 영역(1523, 1533)에 포함된 픽셀들로부터 획득할 수 있다.In one embodiment, the electronic device (101) can obtain a first image (1512) of low magnification (or wide field of view) based on a first pattern (1511) that bins pixels in a binning mode (1510) and outputs them. Based on an event (e.g., change in magnification) that causes a switch from the binning mode (1510) to the re-mosaic mode (1520, 1530), the electronic device (101) can obtain a second image (1522, 1532) that is continuous with the first image (1512) provided in the binning mode (1510) from pixels included in an output area (1523, 1533) within the second pattern (1521, 1531) that is output based on the re-mosaic.
일 실시예에서, 전자 장치(101)는 리모자이크 모드(1520, 1530)에서 출력 영역 정보에 기초하여 영상을 획득함으로써, 이미지 센서에서 출력되는 픽셀들 내에서 임의의 위치에 대한 영상을 획득할 수 있다. 도 15를 참조하면, 전자 장치(101)는 리모자이크 모드(1520)에서 제1 위치의 출력 영역(1524)에 기초하여 이미지 프레임을 획득함으로써, 제1 위치의 출력 영역(1524)에 상응하는 이미지(1525)를 획득할 수 있다. 전자 장치(101)는 리모자이크 모드(1530)에서 제2 위치의 출력 영역(1534)에 기초하여 이미지 프레임을 획득하는 경우, 제2 위치의 출력 영역(1534)에 상응하는 이미지 (1535)를 획득할 수 있다.In one embodiment, the electronic device (101) can obtain an image for an arbitrary position within pixels output from an image sensor by obtaining an image based on output area information in the re-mosaic mode (1520, 1530). Referring to FIG. 15, the electronic device (101) can obtain an image frame based on the output area (1524) of the first position in the re-mosaic mode (1520), thereby obtaining an image (1525) corresponding to the output area (1524) of the first position. When the electronic device (101) obtains an image frame based on the output area (1534) of the second position in the re-mosaic mode (1530), it can obtain an image (1535) corresponding to the output area (1534) of the second position.
일 실시예에서, 전자 장치(101)는 리모자이크 모드(1520, 1530)에서 출력 영역 정보에 기초하여 영상을 획득함으로써, 이미지 센서에서 출력되는 픽셀들 내에서 임의의 크기를 가지는 영역에 대한 영상을 획득할 수 있다. 도 15를 참조하면, 전자 장치(101)는 리모자이크 모드(1520, 1530)에서 출력 영역(1523, 1533)보다 작은 크기의 영역(1526, 1536)에 기초하여 이미지 프레임을 획득함으로써, 작은 크기의 영역(1526, 1536)에 상응하는 이미지(1527, 1537)를 획득할 수 있다.In one embodiment, the electronic device (101) can obtain an image for an area having an arbitrary size within pixels output from an image sensor by obtaining an image based on output area information in the re-mosaic mode (1520, 1530). Referring to FIG. 15, the electronic device (101) can obtain an image frame based on an area (1526, 1536) having a smaller size than the output area (1523, 1533) in the re-mosaic mode (1520, 1530), thereby obtaining an image (1527, 1537) corresponding to the area (1526, 1536) having a smaller size.
본 문서에서, 영상을 촬영하기 위한 배율에 기초하여 이미지 센서의 동작 모드 또는 영상을 촬영하기 위한 카메라가 변경되는 경우에 출력 영역 정보에 기초하여 이미지를 획득하는 실시예를 위주로 설명되었으나, 출력 영역 정보에 기초하여 이미지를 획득하는 방법 및 장치는 이미지 센서의 동작 모드 또는 영상을 촬영하기 위한 카메라가 변경되는 동작과 관련하여 적용되는 것이다. 출력 영역 정보에 기초하여 이미지를 획득하는 방법 및 장치는 배율을 변경하는 경우에만 한정하여 적용되는 것은 아니다. 예를 들어, 피사체까지의 거리와 같은 다른 촬영 조건에 따라서 이미지 센서의 동작 모드 또는 영상을 촬영하기 위한 카메라가 변경되는 경우에도 상술한 출력 영역 정보에 기초하여 이미지를 획득하는 동작이 적용될 수 있다.In this document, the embodiment of acquiring an image based on output area information in the case where the operation mode of the image sensor or the camera for capturing the image is changed based on the magnification for capturing the image has been mainly described, but the method and device for acquiring an image based on output area information are applicable in relation to the operation in which the operation mode of the image sensor or the camera for capturing the image is changed. The method and device for acquiring an image based on output area information are not limited to the case in which the magnification is changed. For example, the operation of acquiring an image based on the above-described output area information can be applied even in the case in which the operation mode of the image sensor or the camera for capturing the image is changed depending on other shooting conditions, such as the distance to the subject.
[일 실시예에 따른 전자 장치는, 이미지 데이터를 출력하는 이미지 센서를 포함하는 카메라, 인스트럭션들을 저장하는 메모리 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에, 기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 이미지 센서로 전송하도록 구성될 수 있다. 상기 이미지 센서는, 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 적어도 하나의 프로세서로 출력하도록 구성될 수 있다.[An electronic device according to one embodiment may include a camera including an image sensor outputting image data, a memory storing instructions, and at least one processor. The at least one processor may be configured to, when executing the instructions, obtain a first image frame through the image sensor based on a first magnification within a reference range. The at least one processor may be configured to transmit a signal including output area information indicating a range of data to be output by the image sensor to the image sensor. The image sensor may be configured to output a second image frame including an image corresponding to the second magnification to the at least one processor based on the output area information, based on a magnification related to capturing the image being changed to a second magnification exceeding the reference range.
일 실시예에서, 상기 이미지 센서는, 상기 기준 범위 이내의 배율에 기초하여 영상을 촬영하는 경우 제1 해상도에 기초하여 독출(read-out)되는 제1 데이터에 기초하여 상기 제1 이미지 프레임을 출력하도록 구성될 수 있다. 상기 이미지 센서는 상기 기준 범위를 초과하는 배율에 기초하여 영상을 촬영하는 경우 상기 제1 해상도보다 높은 제2 해상도에 기초하여 독출되는 제2 데이터 내에서 상기 출력 영역 정보에 포함된 시작 좌표에 기초하여 결정되는 영역에 기초하여 상기 제2 이미지 프레임을 출력하도록 구성될 수 있다.In one embodiment, the image sensor may be configured to output the first image frame based on first data read-out based on a first resolution when capturing an image based on a magnification within the reference range. The image sensor may be configured to output the second image frame based on an area determined based on start coordinates included in the output area information within second data read-out based on a second resolution higher than the first resolution when capturing an image based on a magnification exceeding the reference range.
일 실시예에서, 상기 카메라는 출력되는 영상의 흔들림을 보정하는 이미지 스태빌라이저를 더 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 이미지 스태빌라이저의 제어 정보에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the camera may further include an image stabilizer for compensating for shaking of an output image. The at least one processor may be configured to determine the output area information based on control information of the image stabilizer.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 출력 영역 정보를 상기 이미지 센서로 주기적으로 전송하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to periodically transmit the output area information to the image sensor.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상이한 해상도를 가지는 이미지 프레임을 출력하도록 상기 이미지 센서의 동작 모드가 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to determine the output area information based on an offset resulting from a change in the operating mode of the image sensor to output image frames having different resolutions.
일 실시예에 따른 전자 장치는, 상기 카메라를 통해서 촬영된 영상에 기초하여 미리보기 영상을 디스플레이하는 터치스크린 디스플레이를 더 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 터치스크린 디스플레이에 표시된 상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 배율 변경 입력이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.An electronic device according to one embodiment may further include a touchscreen display that displays a preview image based on an image captured by the camera. The at least one processor may be configured to receive a magnification change input associated with an input area within the preview image displayed on the touchscreen display. The at least one processor may be configured to determine the output area information based on a position at which the magnification change input is input.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 출력 영역 정보에 기초하여 상기 이미지 센서로부터 출력된 상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하도록 상기 터치스크린 디스플레이를 제어하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to control the touchscreen display to display the preview image in an enlarged manner based on the input area, based on the second image frame output from the image sensor based on the output area information.
일 실시예에서, 상기 적어도 하나의 프로세서는 상기 이미지 센서에 대해 미리 설정된 오프셋 값 및 줌 배열에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to determine the output area information based on a preset offset value and zoom arrangement for the image sensor.
일 실시예에 따라 이미지 센서를 포함하는 카메라를 포함하는 전자 장치의 동작 방법은, 상기 전자 장치의 적어도 하나의 프로세서가 기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하는 동작을 포함할 수 있다. 상기 방법은 상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 적어도 하나의 프로세서가 상기 이미지 센서로 전송하는 동작을 포함할 수 있다. 상기 방법은 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 이미지 센서가 상기 적어도 하나의 프로세서로 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 출력하는 동작을 포함할 수 있다.According to one embodiment, a method of operating an electronic device including a camera including an image sensor may include an operation in which at least one processor of the electronic device acquires a first image frame through the image sensor based on a first magnification within a reference range. The method may include an operation in which the at least one processor transmits a signal including output area information indicating a range of data to be output by the image sensor to the image sensor. The method may include an operation in which the image sensor outputs a second image frame including an image corresponding to the second magnification based on the output area information to the at least one processor based on a change in a magnification related to capturing the image to a second magnification exceeding the reference range.
일 실시예에서, 상기 제1 이미지 프레임을 획득하는 동작은, 상기 기준 범위 이내의 배율에 기초하여 동작하는 경우 제1 해상도에 기초하여 독출되는 제1 데이터에 기초하여 상기 제1 이미지 프레임을 출력하는 동작을 포함할 수 있다. 상기 제2 이미지 프레임을 출력하는 동작은, 상기 기준 범위를 초과하는 배율에 기초하여 영상을 촬영하는 경우 상기 제1 해상도보다 높은 제2 해상도에 기초하여 독출되는 제2 데이터 내에서 상기 출력 영역 정보에 포함된 시작 좌표에 기초하여 결정되는 영역에 기초하여 상기 제2 이미지 프레임을 출력하는 동작을 포함할 수 있다.In one embodiment, the operation of obtaining the first image frame may include an operation of outputting the first image frame based on first data read out based on a first resolution when operating based on a magnification within the reference range. The operation of outputting the second image frame may include an operation of outputting the second image frame based on an area determined based on start coordinates included in the output area information within second data read out based on a second resolution higher than the first resolution when capturing an image based on a magnification exceeding the reference range.
일 실시예에서, 상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 카메라의 이미지 스태빌라이저에 대한 제어 정보에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함할 수 있다.In one embodiment, the act of transmitting a signal including the output area information may include an act of determining the output area information based on control information for an image stabilizer of the camera.
일 실시예에서, 상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 출력 영역 정보를 주기적으로 전송하는 동작을 포함할 수 있다.In one embodiment, the operation of transmitting a signal including the output area information may include an operation of periodically transmitting the output area information.
일 실시예에서, 상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 제1 배율로부터 상기 제2 배율로 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함할 수 있다.In one embodiment, the act of transmitting a signal including the output area information may include an act of determining the output area information based on an offset resulting from a change from the first magnification to the second magnification.
일 실시예에서, 상기 방법은 상기 제1 이미지 프레임에 기초하여 미리보기 영상을 디스플레이하는 동작 및 상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하는 동작을 더 포함할 수 있다. 상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 배율 변경이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함할 수 있다.In one embodiment, the method may further include the operation of displaying a preview image based on the first image frame and the operation of receiving a scale change input associated with an input area within the preview image. The operation of transmitting a signal including the output area information may include the operation of determining the output area information based on a location where the scale change is input.
일 실시예에서, 상기 방법은 상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하는 동작을 더 포함할 수 있다.In one embodiment, the method may further include an operation of displaying the preview image in an enlarged manner relative to the input area based on the second image frame.
일 실시예에 따른 전자 장치는, 제1 화각을 지원하는 제1 카메라, 상기 제1 화각과 상이한 제2 화각을 지원하는 제2 카메라, 인스트럭션들을 저장하는 메모리 및 적어도 하나의 프로세서를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에, 영상의 촬영과 관련된 기준 범위 내의 제1 배율에 기초하여 상기 제1 카메라를 통해서 제1 이미지 프레임을 획득하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 벗어나는 제2 배율로 변경되는 것에 기초하여, 상기 제2 카메라에 포함된 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 제2 카메라로 전송하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 출력 영역 정보를 포함하는 신호에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 제2 카메라로부터 획득하도록 구성될 수 있다.An electronic device according to one embodiment may include a first camera supporting a first angle of view, a second camera supporting a second angle of view different from the first angle of view, a memory storing instructions, and at least one processor. The at least one processor may be configured to, when executing the instructions, obtain a first image frame through the first camera based on a first magnification within a reference range related to capturing an image. The at least one processor may be configured to transmit a signal including output area information indicating a range of data to be output by an image sensor included in the second camera to the second camera based on a change in the magnification related to capturing the image to a second magnification out of the reference range. The at least one processor may be configured to obtain a second image frame including an image corresponding to the second magnification from the second camera based on the signal including the output area information.
일 실시예에서, 상기 제1 카메라는 출력되는 영상의 흔들림을 보정하는 이미지 스태빌라이저를 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 이미지 스태빌라이저의 제어 정보에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the first camera may include an image stabilizer for compensating for shaking of an output image. The at least one processor may be configured to determine the output area information based on control information of the image stabilizer.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 제1 배율로부터 상기 제2 배율로 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to determine the output area information based on an offset resulting from a change from the first magnification to the second magnification.
일 실시예에서, 상기 전자 장치는 상기 제1 카메라 또는 상기 제2 카메라를 통해서 촬영된 영상에 기초하여 미리보기 영상을 디스플레이하는 터치스크린 디스플레이를 더 포함할 수 있다. 상기 적어도 하나의 프로세서는, 상기 제1 카메라를 통해서 획득된 상기 제1 이미지 프레임에 기초하여 상기 미리보기 영상을 디스플레이하도록 상기 터치스크린 디스플레이를 제어하도록 구성될 수 있다. 상기 적어도 하나의 프로세서는, 상기 터치스크린 디스플레이에 표시된 상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하도록 구성될 수 있다. 상기 배율 변경 입력이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하도록 구성될 수 있다.In one embodiment, the electronic device may further include a touchscreen display that displays a preview image based on an image captured through the first camera or the second camera. The at least one processor may be configured to control the touchscreen display to display the preview image based on the first image frame acquired through the first camera. The at least one processor may be configured to receive a magnification change input associated with an input area within the preview image displayed on the touchscreen display. The output area information may be determined based on a position at which the magnification change input is input.
일 실시예에서, 상기 적어도 하나의 프로세서는, 상기 출력 영역 정보에 기초하여 상기 제2 카메라로부터 출력된 상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하도록 상기 터치스크린 디스플레이를 제어하도록 구성될 수 있다.In one embodiment, the at least one processor may be configured to control the touchscreen display to display the preview image enlarged based on the input area based on the second image frame output from the second camera based on the output area information.
일 실시예에 따른 컴퓨터로 판독 가능한 기록 매체는, 실행 시에 전자 장치가 상술한 방법 또는 전자 장치의 동작을 수행하도록 하는 인스트럭션들을 저장한 것일 수 있다.]A computer-readable recording medium according to one embodiment may store instructions that, when executed, cause an electronic device to perform the method described above or the operation of the electronic device.
다양한 실시예들에 따른 전자 장치 및 이의 동작 방법은, 이미지 센서의 동작 모드 변경 시에 발생하는 열화를 방지할 수 있다.An electronic device and an operating method thereof according to various embodiments can prevent deterioration that occurs when the operating mode of an image sensor is changed.
다양한 실시예들에 따른 전자 장치 및 이의 동작 방법은, 카메라 전환 시에 복잡한 구조 없이 카메라 간의 시차를 보상할 수 있다.An electronic device and an operating method thereof according to various embodiments can compensate for parallax between cameras without a complex structure when switching cameras.
본 개시에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects obtainable from the present disclosure are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by a person skilled in the art to which the present disclosure belongs from the description below.
본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들은 하드웨어, 소프트웨어, 또는 하드웨어와 소프트웨어의 조합의 형태로 구현될(implemented) 수 있다. The methods according to the embodiments described in the claims or specification of the present disclosure may be implemented in the form of hardware, software, or a combination of hardware and software.
소프트웨어로 구현하는 경우, 하나 이상의 프로그램(소프트웨어 모듈)을 저장하는 컴퓨터 판독 가능 저장 매체가 제공될 수 있다. 컴퓨터 판독 가능 저장 매체에 저장되는 하나 이상의 프로그램은, 전자 장치(device) 내의 하나 이상의 프로세서에 의해 실행 가능하도록 구성된다(configured for execution). 하나 이상의 프로그램은, 전자 장치로 하여금 본 개시의 청구항 또는 명세서에 기재된 실시예들에 따른 방법들을 실행하게 하는 명령어(instructions)를 포함한다. In the case of software implementation, a computer-readable storage medium storing one or more programs (software modules) may be provided. The one or more programs stored in the computer-readable storage medium are configured for execution by one or more processors in an electronic device. The one or more programs include instructions that cause the electronic device to execute methods according to embodiments described in the claims or specification of the present disclosure.
이러한 프로그램(소프트웨어 모듈, 소프트웨어)은 랜덤 액세스 메모리 (random access memory), 플래시(flash) 메모리를 포함하는 불휘발성(non-volatile) 메모리, 롬(ROM: read only memory), 전기적 삭제가능 프로그램가능 롬(EEPROM: electrically erasable programmable read only memory), 자기 디스크 저장 장치(magnetic disc storage device), 컴팩트 디스크 롬(CD-ROM: compact disc-ROM), 디지털 다목적 디스크(DVDs: digital versatile discs) 또는 다른 형태의 광학 저장 장치, 마그네틱 카세트(magnetic cassette)에 저장될 수 있다. 또는, 이들의 일부 또는 전부의 조합으로 구성된 메모리에 저장될 수 있다. 또한, 각각의 구성 메모리는 다수 개 포함될 수도 있다. These programs (software modules, software) may be stored in a random access memory, a non-volatile memory including a flash memory, a read only memory (ROM), an electrically erasable programmable read only memory (EEPROM), a magnetic disc storage device, a compact disc-ROM (CD-ROM), digital versatile discs (DVDs) or other forms of optical storage devices, a magnetic cassette. Or, they may be stored in a memory composed of a combination of some or all of these. In addition, each configuration memory may be included in multiple numbers.
또한, 상기 프로그램은 인터넷(Internet), 인트라넷(Intranet), LAN(local area network), WLAN(wide LAN), 또는 SAN(storage area network)과 같은 통신 네트워크, 또는 이들의 조합으로 구성된 통신 네트워크를 통하여 접근(access)할 수 있는 부착 가능한(attachable) 저장 장치(storage device)에 저장될 수 있다. 이러한 저장 장치는 외부 포트를 통하여 본 개시의 실시 예를 수행하는 장치에 접속할 수 있다. 또한, 통신 네트워크상의 별도의 저장장치가 본 개시의 실시 예를 수행하는 장치에 접속할 수도 있다. Additionally, the program may be stored in an attachable storage device that is accessible via a communication network, such as the Internet, an Intranet, a local area network (LAN), a wide LAN (WLAN), or a storage area network (SAN), or a combination thereof. The storage device may be connected to a device performing an embodiment of the present disclosure via an external port. Additionally, a separate storage device on the communication network may be connected to a device performing an embodiment of the present disclosure.
상술한 본 개시의 구체적인 실시예들에서, 개시에 포함되는 구성 요소는 제시된 구체적인 실시 예에 따라 단수 또는 복수로 표현되었다. 그러나, 단수 또는 복수의 표현은 설명의 편의를 위해 제시한 상황에 적합하게 선택된 것으로서, 본 개시가 단수 또는 복수의 구성 요소에 제한되는 것은 아니며, 복수로 표현된 구성 요소라 하더라도 단수로 구성되거나, 단수로 표현된 구성 요소라 하더라도 복수로 구성될 수 있다. In the specific embodiments of the present disclosure described above, the components included in the disclosure are expressed in the singular or plural form according to the specific embodiments presented. However, the singular or plural expressions are selected to suit the presented situation for the convenience of explanation, and the present disclosure is not limited to the singular or plural components, and even if a component is expressed in the plural form, it may be composed of the singular form, or even if a component is expressed in the singular form, it may be composed of the plural form.
또한, 본 개시에서, “부”, “모듈” 등의 용어는 프로세서 또는 회로와 같은 하드웨어 구성(hardware component), 및/또는 프로세서와 같은 하드웨어 구성에 의해 실행되는 소프트웨어 구성(software component)일 수 있다. Additionally, in the present disclosure, terms such as “part”, “module”, etc. may refer to a hardware component such as a processor or a circuit, and/or a software component executed by a hardware component such as a processor.
"부", "모듈"은 어드레싱될 수 있는 저장 매체에 저장되며 프로세서에 의해 실행될 수 있는 프로그램에 의해 구현될 수도 있다. 예를 들어, “부”, "모듈" 은 소프트웨어 구성 요소들, 객체 지향 소프트웨어 구성 요소들, 클래스 구성 요소들 및 태스크 구성 요소들과 같은 구성 요소들과, 프로세스들, 함수들, 속성들, 프로시저들, 서브루틴들, 프로그램 코드의 세그먼트들, 드라이버들, 펌웨어, 마이크로 코드, 회로, 데이터, 데이터베이스, 데이터 구조들, 테이블들, 어레이들 및 변수들에 의해 구현될 수 있다.A “component”, a “module” may be implemented by a program stored in an addressable storage medium and executed by a processor. For example, a “component”, a “module” may be implemented by components such as software components, object-oriented software components, class components, and task components, and processes, functions, properties, procedures, subroutines, segments of program code, drivers, firmware, microcode, circuitry, data, databases, data structures, tables, arrays, and variables.
본 개시에서 설명된 특정 실행들은 일 실시예일 뿐이며, 어떠한 방법으로도 본 개시의 범위를 한정하는 것은 아니다. 명세서의 간결함을 위하여, 종래 전자적인 구성들, 제어 시스템들, 소프트웨어, 및 상기 시스템들의 다른 기능적인 측면들의 기재는 생략될 수 있다.The specific implementations described in this disclosure are only examples and are not intended to limit the scope of the disclosure in any way. For the sake of brevity, descriptions of conventional electronic components, control systems, software, and other functional aspects of the systems may be omitted.
또한, 본 개시에서, “a, b 또는 c 중 적어도 하나를 포함한다”는 “a만 포함하거나, b만 포함하거나, c만 포함하거나, a 및 b를 포함하거나, b 및 c를 포함하거나, a 및 c를 포함하거나, a, b 및 c를 모두 포함하는 것을 의미할 수 있다.Additionally, in the present disclosure, “comprising at least one of a, b, or c” may mean “comprising only a, or comprising only b, or comprising only c, or comprising both a and b, or comprising both b and c, or comprising all of a, b, and c.”
한편 본 개시의 상세한 설명에서는 구체적인 실시 예에 관해 설명하였으나, 본 개시의 범위에서 벗어나지 않는 한도 내에서 여러 가지 변형이 가능함은 물론이다. 그러므로 본 개시의 범위는 설명된 실시 예에 국한되어 정해져서는 아니 되며 후술하는 특허청구의 범위뿐만 아니라 이 특허청구의 범위와 균등한 것들에 의해 정해져야 한다.Meanwhile, although the detailed description of the present disclosure has described specific embodiments, it is obvious that various modifications are possible within the scope of the present disclosure. Therefore, the scope of the present disclosure should not be limited to the described embodiments, but should be determined not only by the scope of the claims described below, but also by equivalents of the scope of the claims.
Claims (20)
이미지 데이터를 출력하는 이미지 센서를 포함하는 카메라;
인스트럭션들을 저장하는 메모리; 및
적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에,
기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하고,
상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 이미지 센서로 전송하도록 구성되고,
상기 이미지 센서는, 영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 적어도 하나의 프로세서로 출력하도록 구성된, 전자 장치.In electronic devices,
A camera including an image sensor that outputs image data;
Memory for storing instructions; and
comprising at least one processor,
At least one of the above processors, when executing the instructions,
Acquire a first image frame through the image sensor based on a first magnification within a reference range,
The image sensor is configured to transmit a signal including output area information indicating a range of data to be output by the image sensor to the image sensor,
An electronic device, wherein the image sensor is configured to output a second image frame including an image corresponding to the second magnification to the at least one processor based on the output area information, based on a change in the magnification related to capturing the image to a second magnification exceeding the reference range.
상기 이미지 센서는,
상기 기준 범위 이내의 배율에 기초하여 영상을 촬영하는 경우 제1 해상도에 기초하여 독출(read-out)되는 제1 데이터에 기초하여 상기 제1 이미지 프레임을 출력하고,
상기 기준 범위를 초과하는 배율에 기초하여 영상을 촬영하는 경우 상기 제1 해상도보다 높은 제2 해상도에 기초하여 독출되는 제2 데이터 내에서 상기 출력 영역 정보에 포함된 시작 좌표에 기초하여 결정되는 영역에 기초하여 상기 제2 이미지 프레임을 출력하도록 구성된, 전자 장치.In claim 1,
The above image sensor,
When capturing an image based on a magnification within the above reference range, the first image frame is output based on the first data read-out based on the first resolution,
An electronic device configured to output the second image frame based on an area determined based on start coordinates included in the output area information within second data read based on a second resolution higher than the first resolution when capturing an image based on a magnification exceeding the above reference range.
상기 카메라는 출력되는 영상의 흔들림을 보정하는 이미지 스태빌라이저를 더 포함하고,
상기 적어도 하나의 프로세서는, 상기 이미지 스태빌라이저의 제어 정보에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 2,
The above camera further includes an image stabilizer that compensates for shaking of the output image,
An electronic device wherein said at least one processor is configured to determine said output area information based on control information of said image stabilizer.
상기 적어도 하나의 프로세서는, 상기 출력 영역 정보를 상기 이미지 센서로 주기적으로 전송하도록 구성된, 전자 장치.In claim 1,
An electronic device wherein said at least one processor is configured to periodically transmit said output area information to said image sensor.
상기 적어도 하나의 프로세서는, 상이한 해상도를 가지는 이미지 프레임을 출력하도록 상기 이미지 센서의 동작 모드가 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 1,
An electronic device wherein said at least one processor is configured to determine the output area information based on an offset resulting from a change in the operating mode of the image sensor to output an image frame having a different resolution.
상기 카메라를 통해서 촬영된 영상에 기초하여 미리보기 영상을 디스플레이하는 터치스크린 디스플레이를 더 포함하고,
상기 적어도 하나의 프로세서는,
상기 터치스크린 디스플레이에 표시된 상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하고,
상기 배율 변경 입력이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 1,
Further comprising a touchscreen display that displays a preview image based on an image captured through the camera;
At least one processor of the above,
Receive a scale change input associated with an input area within the preview image displayed on the touch screen display,
An electronic device configured to determine the output area information based on a position at which the above scale change input is input.
상기 적어도 하나의 프로세서는,
상기 출력 영역 정보에 기초하여 상기 이미지 센서로부터 출력된 상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하도록 상기 터치스크린 디스플레이를 제어하도록 구성된, 전자 장치.In claim 6,
At least one processor of the above,
An electronic device configured to control the touchscreen display to display the preview image in an enlarged manner based on the input area, based on the second image frame output from the image sensor based on the output area information.
상기 적어도 하나의 프로세서는 상기 이미지 센서에 대해 미리 설정된 오프셋 값 및 줌 배열에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 1,
An electronic device wherein said at least one processor is configured to determine said output area information based on a preset offset value and zoom arrangement for said image sensor.
상기 전자 장치의 적어도 하나의 프로세서가 기준 범위 내의 제1 배율에 기초하여 상기 이미지 센서를 통해서 제1 이미지 프레임을 획득하는 동작;
상기 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 적어도 하나의 프로세서가 상기 이미지 센서로 전송하는 동작; 및
영상의 촬영과 관련된 배율이 상기 기준 범위를 초과하는 제2 배율로 변경되는 것에 기초하여, 상기 이미지 센서가 상기 적어도 하나의 프로세서로 상기 출력 영역 정보에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 출력하는 동작을 포함하는, 방법.A method of operating an electronic device including a camera including an image sensor,
An operation of at least one processor of the electronic device to acquire a first image frame through the image sensor based on a first magnification within a reference range;
An operation in which at least one processor transmits a signal including output area information indicating a range of data to be output by the image sensor to the image sensor; and
A method comprising: an operation of the image sensor outputting a second image frame including an image corresponding to the second magnification based on the output area information to the at least one processor, based on a change in the magnification related to capturing the image to a second magnification exceeding the reference range.
상기 제1 이미지 프레임을 획득하는 동작은, 상기 기준 범위 이내의 배율에 기초하여 동작하는 경우 제1 해상도에 기초하여 독출되는 제1 데이터에 기초하여 상기 제1 이미지 프레임을 출력하는 동작을 포함하고,
상기 제2 이미지 프레임을 출력하는 동작은, 상기 기준 범위를 초과하는 배율에 기초하여 영상을 촬영하는 경우 상기 제1 해상도보다 높은 제2 해상도에 기초하여 독출되는 제2 데이터 내에서 상기 출력 영역 정보에 포함된 시작 좌표에 기초하여 결정되는 영역에 기초하여 상기 제2 이미지 프레임을 출력하는 동작을 포함하는, 방법.In claim 9,
The operation of obtaining the first image frame includes an operation of outputting the first image frame based on first data read out based on the first resolution when operating based on a magnification within the reference range,
A method wherein the operation of outputting the second image frame includes an operation of outputting the second image frame based on an area determined based on start coordinates included in the output area information within second data read based on a second resolution higher than the first resolution when capturing an image based on a magnification exceeding the reference range.
상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 카메라의 이미지 스태빌라이저에 대한 제어 정보에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함하는, 방법.In claim 10,
A method wherein the operation of transmitting a signal including the output area information includes an operation of determining the output area information based on control information for an image stabilizer of the camera.
상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 출력 영역 정보를 주기적으로 전송하는, 방법.In claim 9,
A method for transmitting a signal including the above output area information, wherein the operation comprises periodically transmitting the above output area information.
상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은, 상기 제1 배율로부터 상기 제2 배율로 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함하는, 방법.In claim 9,
A method wherein the operation of transmitting a signal including the output area information includes an operation of determining the output area information based on an offset that occurs due to a change from the first magnification to the second magnification.
상기 제1 이미지 프레임에 기초하여 미리보기 영상을 디스플레이하는 동작; 및
상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하는 동작을 더 포함하고,
상기 출력 영역 정보를 포함하는 신호를 전송하는 동작은,
상기 배율 변경이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하는 동작을 포함하는, 방법.In claim 11,
An operation of displaying a preview image based on the first image frame; and
Further comprising an action of receiving a scale change input associated with an input area within the above preview image,
The operation of transmitting a signal including the above output area information is:
A method comprising an operation of determining the output area information based on a position where the change in scale is input.
상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하는 동작을 더 포함하는, 방법.In claim 14,
A method further comprising an action of displaying the preview image in an enlarged manner based on the input area based on the second image frame.
제1 화각을 지원하는 제1 카메라;
상기 제1 화각과 상이한 제2 화각을 지원하는 제2 카메라;
인스트럭션들을 저장하는 메모리; 및
적어도 하나의 프로세서를 포함하고,
상기 적어도 하나의 프로세서는, 상기 인스트럭션들을 실행 시에,
영상의 촬영과 관련된 기준 범위 내의 제1 배율에 기초하여 상기 제1 카메라를 통해서 제1 이미지 프레임을 획득하고,
상기 영상의 촬영과 관련된 배율이 상기 기준 범위를 벗어나는 제2 배율로 변경되는 것에 기초하여, 상기 제2 카메라에 포함된 이미지 센서가 출력할 데이터의 범위를 지시하는 출력 영역 정보를 포함하는 신호를 상기 제2 카메라로 전송하고,
상기 출력 영역 정보를 포함하는 신호에 기초하여 상기 제2 배율에 상응하는 영상을 포함하는 제2 이미지 프레임을 상기 제2 카메라로부터 획득하도록 구성된, 전자 장치.In electronic devices,
First camera supporting the first angle of view;
A second camera supporting a second angle of view different from the first angle of view;
Memory for storing instructions; and
comprising at least one processor,
At least one of the above processors, when executing the instructions,
Acquire a first image frame through the first camera based on a first magnification within a reference range related to capturing the image,
Based on the fact that the magnification related to the shooting of the above image is changed to a second magnification that is outside the above reference range, a signal including output area information indicating the range of data to be output by the image sensor included in the second camera is transmitted to the second camera,
An electronic device configured to acquire a second image frame including an image corresponding to the second magnification from the second camera based on a signal including the output area information.
상기 제1 카메라는 출력되는 영상의 흔들림을 보정하는 이미지 스태빌라이저를 포함하고,
상기 적어도 하나의 프로세서는, 상기 이미지 스태빌라이저의 제어 정보에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 16,
The above first camera includes an image stabilizer that compensates for shaking of the output image,
An electronic device wherein said at least one processor is configured to determine said output area information based on control information of said image stabilizer.
상기 적어도 하나의 프로세서는, 상기 제1 배율로부터 상기 제2 배율로 변경됨으로 인해서 발생하는 오프셋에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 16,
An electronic device wherein said at least one processor is configured to determine said output area information based on an offset resulting from a change from said first magnification to said second magnification.
상기 제1 카메라 또는 상기 제2 카메라를 통해서 촬영된 영상에 기초하여 미리보기 영상을 디스플레이하는 터치스크린 디스플레이를 더 포함하고,
상기 적어도 하나의 프로세서는,
상기 제1 카메라를 통해서 획득된 상기 제1 이미지 프레임에 기초하여 상기 미리보기 영상을 디스플레이하도록 상기 터치스크린 디스플레이를 제어하고,
상기 터치스크린 디스플레이에 표시된 상기 미리보기 영상 내의 입력 영역에 연관된 배율 변경 입력을 수신하고,
상기 배율 변경 입력이 입력된 위치에 기초하여 상기 출력 영역 정보를 결정하도록 구성된, 전자 장치.In claim 16,
Further comprising a touchscreen display that displays a preview image based on an image captured through the first camera or the second camera,
At least one processor of the above,
Controlling the touchscreen display to display the preview image based on the first image frame acquired through the first camera;
Receive a scale change input associated with an input area within the preview image displayed on the touch screen display,
An electronic device configured to determine the output area information based on a position at which the above scale change input is input.
상기 적어도 하나의 프로세서는,
상기 출력 영역 정보에 기초하여 상기 제2 카메라로부터 출력된 상기 제2 이미지 프레임에 기초하여, 상기 미리보기 영상을 상기 입력 영역을 기준으로 확대되어 표시하도록 상기 터치스크린 디스플레이를 제어하도록 구성된, 전자 장치.
In claim 19,
At least one processor of the above,
An electronic device configured to control the touchscreen display to display the preview image in an enlarged form with respect to the input area based on the second image frame output from the second camera based on the output area information.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/KR2024/002151 WO2024205028A1 (en) | 2023-03-28 | 2024-02-19 | Electronic device comprising image sensor and method for operating same |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20230040574 | 2023-03-28 | ||
KR1020230040574 | 2023-03-28 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR20240145854A true KR20240145854A (en) | 2024-10-07 |
Family
ID=93115737
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230066436A KR20240145854A (en) | 2023-03-28 | 2023-05-23 | Electronic apparatus comprising image sensor and operating method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR20240145854A (en) |
-
2023
- 2023-05-23 KR KR1020230066436A patent/KR20240145854A/en unknown
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR20200101180A (en) | An electronic device for stabilizing image and operating method thereof | |
KR20200077984A (en) | Camera module which has multi-cell structure and portable communication device including the camera module | |
KR20220023632A (en) | Method for stabilization and electronic device thereof | |
KR20220101470A (en) | Electronic device that performs image stabilization and operating method thereof | |
KR20220067034A (en) | Method, apparatus and storage medium for providing slow shutter | |
KR20220102401A (en) | Electronic device and operating method thereof | |
KR20220064170A (en) | Electronic device including image sensor and operating method thereof | |
KR20220055230A (en) | Method for Taking pictures using a plurality of Cameras and Device thereof | |
KR20220151451A (en) | Electronic device including a plurality of cameras and operating method thereof | |
KR20210130972A (en) | Color filter array of an electronic deviceand the electronic | |
WO2022196993A1 (en) | Electronic device and method for capturing image by using angle of view of camera module | |
KR20220134276A (en) | ELECTRONIC DEVICE including image sensor AND OPERATING METHOD THEREOF | |
KR20240145854A (en) | Electronic apparatus comprising image sensor and operating method thereof | |
KR20220099789A (en) | Electronic device including camera module and method operating the electronic device | |
KR20210154594A (en) | Electronic device and method including Focus adjustment function | |
KR20210118622A (en) | Method for Stabilization at high magnification and Electronic Device thereof | |
US11877072B2 (en) | Image capturing method using plurality of cameras, and electronic device | |
KR20240014992A (en) | Electronic apparatus obataining image using cameras and method thereof | |
KR20240010372A (en) | Method for correcting camera shake and electronic device for supporting the same | |
KR20240057945A (en) | Electronic apparatus and operating method for generating high dynamic range image | |
KR20240054134A (en) | Learning-based image quality improvement method using image of image sensor and electronic deviec supporting the same | |
KR20220014150A (en) | Electronic device including image sensor and image signal processor and Method thereof | |
KR20240051782A (en) | Electronic apparatus obtaining image using camera and operating method thereof | |
KR20240034073A (en) | Readout method for image sensor and image sensor thereof | |
KR20220132889A (en) | Electronic device including a plurality of cameras |