Nothing Special   »   [go: up one dir, main page]

KR20160047891A - 영상을 처리하는 전자 장치 및 방법 - Google Patents

영상을 처리하는 전자 장치 및 방법 Download PDF

Info

Publication number
KR20160047891A
KR20160047891A KR1020140144398A KR20140144398A KR20160047891A KR 20160047891 A KR20160047891 A KR 20160047891A KR 1020140144398 A KR1020140144398 A KR 1020140144398A KR 20140144398 A KR20140144398 A KR 20140144398A KR 20160047891 A KR20160047891 A KR 20160047891A
Authority
KR
South Korea
Prior art keywords
image
electronic device
depth information
information
sensor
Prior art date
Application number
KR1020140144398A
Other languages
English (en)
Other versions
KR102251483B1 (ko
Inventor
윤영권
김문수
김태호
Original Assignee
삼성전자주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to KR1020140144398A priority Critical patent/KR102251483B1/ko
Application filed by 삼성전자주식회사 filed Critical 삼성전자주식회사
Priority to US14/921,738 priority patent/US9990727B2/en
Priority to CN201510696218.XA priority patent/CN105554369B/zh
Priority to EP15852640.0A priority patent/EP3210376A4/en
Priority to PCT/KR2015/011286 priority patent/WO2016064248A1/en
Priority to AU2015337185A priority patent/AU2015337185B2/en
Publication of KR20160047891A publication Critical patent/KR20160047891A/ko
Priority to US15/995,871 priority patent/US10430957B2/en
Priority to US16/587,581 priority patent/US10970865B2/en
Priority to US17/222,161 priority patent/US11455738B2/en
Application granted granted Critical
Publication of KR102251483B1 publication Critical patent/KR102251483B1/ko

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • User Interface Of Digital Computer (AREA)
  • Studio Devices (AREA)

Abstract

본 개시는 영상을 처리하는 전자 장치 및 방법에 관한 것이다.
이러한 본 발명은 전자 장치의 영상 처리 방법에 있어서, 제1 이미지 센서를 통해 제1 영상 및 제2 영상을 획득하는 동작과, 제2 이미지 센서를 통해 획득되는 적어도 하나의 제3 영상에서 뎁스 정보(depth information)를 추출하는 동작과, 상기 추출된 뎁스 정보를 상기 획득된 제1 영상에 적용하여 표시하는 동작과, 상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 동작을 포함할 수 있다.

Description

영상을 처리하는 전자 장치 및 방법{ELECTRONIC DEVICE AND METHOD FOR PROCESSING IMAGE}
본 개시는 영상을 처리하는 전자 장치 및 방법에 관한 것이다.
최근에 휴대 가능한 전자 장치에서 제공하는 다양한 서비스 및 부가 기능들은 점차 확대되고 있다. 이러한 전자 장치의 효용 가치를 높이고 사용자들의 다양한 욕구를 만족시키기 위해서 전자 장치에서 실행 가능한 다양한 애플리케이션들이 개발되고 있다. 이에 따라 최근 스마트 폰, 휴대폰, 노트 PC 및 태블릿 PC와 같은 이동이 가능하고, 터치 스크린을 가지는 전자 장치는 적어도 수 개에서 수백 개의 애플리케이션들을 저장할 수 있다.
그리고, 이러한 전자 장치는 2 개의 카메라가 장착되어 영상 또는 이미지를 촬영할 수 있다. 촬영된 영상의 뎁스 정보(depth information)를 이용하여 후처리로 이미지를 합성할 수 있다.
그런데, 종래 전자 장치는 뎁스 정보를 이용하여 후처리로 이미지를 처리하기 때문에 실시간으로 이미지를 표시하거나 동영상 촬영이 불가능한 문제점이 있었다.
따라서, 복수의 이미지의 뎁스 정보를 이용하여 실시간으로 이미지 처리를 하여 프리뷰잉하거나 촬영하는 필요성이 요구되고 있다.
따라서 본 발명의 다양한 실시예는 이미지를 처리하는 전자 장치 및 방법을 제공한다.
상술한 바를 달성하기 위해 한 실시예는 전자 장치의 영상 처리 방법에 있어서, 제1 이미지 센서를 통해 제1 영상 및 제2 영상을 획득하는 동작과, 제2 이미지 센서를 통해 획득되는 적어도 하나의 제3 영상에서 뎁스 정보(depth information)를 추출하는 동작과, 상기 추출된 뎁스 정보를 상기 획득된 제1 영상에 적용하여 표시하는 동작과, 상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 동작을 포함할 수 있다.
또한, 상술한 바를 달성하기 위한 한 실시예는 영상을 처리하는 전자 장치에 있어서, 제1 영상 및 제2 영상을 획득하는 제1 이미지 센서와 적어도 하나의 제3 영상을 획득하는 제2 이미지 센서를 포함하는 영상 획득 모듈과, 상기 적어도 하나의 제3 영상에서 뎁스 정보를 추출하고, 상기 추출된 뎁스 정보를 상기 획득된 제1 영상에 적용하여 표시하고, 상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 영상 처리부와, 상기 제1 영상을 표시하는 디스플레이를 포함할 수 있다.
본 발명의 다양한 실시예에 따르면, 복수의 이미지의 뎁스 정보를 이용하여 실시간으로 이미지를 처리함으로써, 실시간으로 이미지를 프리뷰잉하거나 촬영할 수 있다.
또한, 본 발명의 한 실시예에 따르면, 복수의 이미지를 실시간으로 합성하여 프리뷰잉하거나 촬영함으로써, 사용자의 편의성을 제공할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치의 영상 처리부의 블록도를 도시한다.
도 3은 본 발명의 다양한 실시예들에 따른 전자 장치의 정면 또는 후면 사시도를 나타낸다.
도 4는 본 발명의 일 실시예에 따른 전자 장치의 영상 처리 방법을 나타낸 순서도이다.
도 5는 본 발명의 다른 실시예에 따른 전자 장치의 영상 처리 방법을 나타낸 순서도이다.
도 6a는 본 발명의 일 실시예에 따른 영상에서 제1 피사체에 초점이 맞춰진 예시도이다.
도 6b는 본 발명의 일 실시예에 따른 영상에서 제2 피사체에 초점이 맞춰진 예시도이다.
도 6c는 본 발명의 일 실시예에 따른 영상에서 제3 피사체에 초점이 맞춰진 예시도이다.
도 6d는 본 발명의 일 실시예에 따른 전자 장치에서 서로 다른 초점을 갖는 도 6a, 도 6b 및 도 6c를 합성한 예시도이다.
도 7은 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 피사체의 초점을 제어하는 과정을 나타낸 순서도이다.
도 8a는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 제1 피사체를 선택하는 경우의 초점을 제어하는 예시도이다.
도 8b는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 제2 피사체를 선택하는 경우의 초점을 제어하는 예시도이다.
도 9는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 교체 효과를 적용하는 과정을 나타낸 순서도이다.
도 10a는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 교체 효과를 적용하는 예시도이다.
도 10b는 본 발명의 다른 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 효과를 적용하는 예시도이다.
도 11a는 본 발명의 일 실시 예에 따른 렌즈 효과를 적용하기 위한 이미지를 표시한 예시도이다.
도 11b는 본 발명의 일 실시 예에 따른 표시된 이미지에 이미지 효과를 제공하기 위한 렌즈 속성 정보를 나타낸 예시도이다.
도 11c는 본 발명의 실시 예에 따른 렌즈의 조리개 값을 조절하여 이미지 효과를 제공하기 위한 예시도이다.
도 11d는 본 발명의 실시 예에 따른 렌즈의 셔터 스피트를 조절하여 이미지 효과를 제공하기 위한 예시도이다.
도 11e는 본 발명의 실시 예에 따른 렌즈의 초점 거리와 셔터 스피트를 조절하여 이미지 효과를 제공하기 위한 예시도이다..
도 12는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
도 13은 다양한 실시예들에 따른 복수의 전자 장치들(예: 제1 전자 장치(1310) 및 제2 전자 장치(1330)) 사이의 통신 프로토콜(1300)을 도시한다.
이하, 첨부된 도면을 참조하여 본 개시(present disclosure)를 설명한다. 본 개시는 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들이 도면에 예시되고 관련된 상세한 설명이 기재되어 있다. 그러나, 이는 본 개시를 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 개시의 사상 및 기술 범위에 포함되는 모든 변경 및/또는 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 구성요소에 대해서는 유사한 참조 부호가 사용되었다.
본 개시 가운데 사용될 수 있는 "포함한다" 또는 "포함할 수 있다" 등의 표현은 개시된 해당 기능, 동작 또는 구성요소 등의 존재를 가리키며, 추가적인 하나 이상의 기능, 동작 또는 구성요소 등을 제한하지 않는다. 또한, 본 개시에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.
본 개시에서 "또는" 등의 표현은 함께 나열된 단어들의 어떠한, 그리고 모든 조합을 포함한다. 예를 들어, "A 또는 B"는, A를 포함할 수도, B를 포함할 수도 또는 A와 B 모두를 포함할 수도 있다.
본 개시 가운데 "제1", "제2", "첫째", 또는 "둘째" 등의 표현들이 본 개시의 다양한 구성요소들을 수식할 수 있지만, 해당 구성요소들을 한정하지 않는다. 예를 들어, 상기 표현들은 해당 구성요소들의 순서 및/또는 중요도 등을 한정하지 않는다. 상기 표현들은 한 구성요소를 다른 구성요소와 구분 짓기 위해 사용될 수 있다. 예를 들어, 제1 사용자 기기와 제 2 사용자 기기는 모두 사용자 기기이며, 서로 다른 사용자 기기를 나타낸다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해될 수 있어야 할 것이다.
본 개시에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 개시를 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다.
다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥 상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 개시에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.
본 개시에 따른 전자 장치는, 디스플레이 제어 기능이 포함된 장치일 수 있다. 예를 들면, 전자 장치는 스마트 폰(smartphone), 태블릿 PC(tablet personal computer), 이동 전화기(mobile phone), 화상전화기, 전자북 리더기(e-book reader), 데스크탑 PC(desktop personal computer), 랩탑 PC(laptop personal computer), 넷북 컴퓨터(netbook computer), PDA(personal digital assistant), PMP(portable multimedia player), MP3 플레이어, 모바일 의료기기, 카메라(camera), 또는 웨어러블 장치(wearable device)(예: 전자 안경과 같은 head-mounted-device(HMD), 전자 의복, 전자 팔찌, 전자 목걸이, 전자 앱세서리(appcessory), 전자 문신, 또는 스마트 와치(smartwatch))중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 디스플레이 제어 기능을 갖춘 스마트 가전 제품(smart home appliance)일 수 있다. 스마트 가전 제품은, 예를 들자면, 전자 장치는 텔레비전, DVD(digital video disk) 플레이어, 오디오, 냉장고, 에어컨, 청소기, 오븐, 전자레인지, 세탁기, 공기 청정기, 셋톱 박스(set-top box), TV 박스(예를 들면, 삼성 HomeSyncTM, 애플TVTM, 또는 구글 TVTM), 게임 콘솔(game consoles), 전자 사전, 전자 키, 캠코더(camcorder), 또는 전자 액자 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 각종 의료기기(예: MRA(magnetic resonance angiography), MRI(magnetic resonance imaging), CT(computed tomography), 촬영기, 초음파기 등), 네비게이션(navigation) 장치, GPS 수신기(global positioning system receiver), EDR(event data recorder), FDR(flight data recorder), 자동차 인포테인먼트(infotainment) 장치, 선박용 전자 장비(예: 선박용 항법 장치 및 자이로 콤파스 등), 항공 전자기기(avionics), 보안 기기, 차량용 헤드 유닛, 산업용 또는 가정용 로봇, 금융 기관의 ATM(automatic teller? machine) 또는 상점의 POS(point of sales) 중 적어도 하나를 포함할 수 있다.
어떤 실시예들에 따르면, 전자 장치는 디스플레이 제어 기능을 포함한 가구(furniture) 또는 건물/구조물의 일부, 전자 보드(electronic board), 전자 사인 입력장치(electronic signature receiving device), 프로젝터(projector), 또는 각종 계측기기(예: 수도, 전기, 가스, 또는 전파 계측 기기 등) 중 적어도 하나를 포함할 수 있다. 본 개시에 따른 전자 장치는 전술한 다양한 장치들 중 하나 또는 그 이상의 조합일 수 있다. 또한, 본 개시에 따른 전자 장치는 플렉서블 장치일 수 있다. 또한, 본 개시에 따른 전자 장치는 전술한 기기들에 한정되지 않음은 당업자에게 자명하다.
이하, 첨부된 도면을 참조하여 다양한 실시예에 따른 전자 장치에 대해서 살펴본다. 다양한 실시예에서 이용되는 사용자라는 용어는 전자 장치를 사용하는 사람 또는 전자 장치를 사용하는 장치(예: 인공지능 전자 장치)를 지칭할 수 있다.
도 1은 본 발명의 다양한 실시예에 따른 전자 장치를 포함하는 네트워크 환경을 도시한다.
도 1을 참조하면, 상기 전자 장치(101)는 버스(110), 프로세서(120), 저장부(130), 입출력 인터페이스(140), 디스플레이(150), 통신 인터페이스(160) 및 영상 처리부(170)를 포함할 수 있다.
본 발명의 다양한 실시 예에 따른 전자 장치는 데이터 송수신이 가능하며, 생체 정보를 송신 또는 수신하여 임의 동작을 수행할 수 있는 다양한 전자 장치를 포함할 수 있다. 상기 전자 장치는 스마트 폰, 휴대폰, 노트북, 도어락(door-rock), 에어컨, 세탁기, 노트 PC, 태블릿 PC, 스마트 TV 등을 포함할 수 있다.
상기 버스(110)는 전술한 구성요소들을 서로 연결하고, 전술한 구성요소들 간의 통신(예: 제어 메시지)을 전달하는 회로일 수 있다.
상기 프로세서(120)는 예를 들면, 상기 버스(110)를 통해 전술한 다른 구성요소들(예: 상기 저장부(130), 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 영상 처리부(170) 등)로부터 명령을 수신하여, 수신된 명령을 해독하고, 해독된 명령에 따른 연산이나 데이터 처리를 실행할 수 있다.
상기 저장부(130)는 상기 프로세서(120) 또는 다른 구성요소들(예: 상기 입출력 인터페이스(140), 상기 디스플레이(150), 상기 통신 인터페이스(160), 또는 상기 영상 처리부(170) 등)로부터 수신되거나 상기 프로세서(120) 또는 다른 구성요소들에 의해 생성된 명령 또는 데이터를 저장할 수 있다. 상기 저장부(130)는 예를 들면, 커널(131), 미들웨어(132), 애플리케이션 프로그래밍 인터페이스(API: application programming interface)(133) 또는 애플리케이션(134) 등의 프로그래밍 모듈들을 포함할 수 있다. 전술한 각각의 프로그래밍 모듈들은 소프트웨어, 펌웨어, 하드웨어 또는 이들 중 적어도 둘 이상의 조합으로 구성될 수 있다.
상기 커널(131)은 나머지 다른 프로그래밍 모듈들, 예를 들면, 상기 미들웨어(132), 상기 API(133) 또는 상기 애플리케이션(134)에 구현된 동작 또는 기능을 실행하는 데 사용되는 시스템 리소스들(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 저장부(130) 등)을 제어 또는 관리할 수 있다. 또한, 상기 커널(131)은 상기 미들웨어(132), 상기 API(133) 또는 상기 애플리케이션(134)에서 상기 전자 장치(101)의 개별 구성요소에 접근하여 제어 또는 관리할 수 있는 인터페이스를 제공할 수 있다.
상기 미들웨어(132)는 상기 API(133) 또는 상기 애플리케이션(134)이 상기 커널(131)과 통신하여 데이터를 주고받을 수 있도록 중개 역할을 수행할 수 있다. 또한, 상기 미들웨어(132)는 상기 애플리케이션(134)으로부터 수신된 작업 요청들과 관련하여, 예를 들면, 상기 애플리케이션(134) 중 적어도 하나의 애플리케이션에 상기 전자 장치(101)의 시스템 리소스(예: 상기 버스(110), 상기 프로세서(120) 또는 상기 저장부(130) 등)를 사용할 수 있는 우선 순위를 배정하는 등의 방법을 이용하여 작업 요청에 대한 제어(예: 스케쥴링 또는 로드 밸런싱)를 수행할 수 있다.
상기 API(133)는 상기 애플리케이션(134)이 상기 커널(131) 또는 상기 미들웨어(132)에서 제공되는 기능을 제어하기 위한 인터페이스로, 예를 들면, 파일 제어, 창 제어, 화상 처리 또는 문자 제어 등을 위한 적어도 하나의 인터페이스 또는 함수(예: 명령어)를 포함할 수 있다.
다양한 실시예에 따르면, 상기 애플리케이션(134)은 SMS/MMS 애플리케이션, 이메일 애플리케이션, 달력 애플리케이션, 알람 애플리케이션, 건강 관리(health care) 애플리케이션(예: 운동량 또는 혈당 등을 측정하는 애플리케이션) 또는 환경 정보 애플리케이션(예: 기압, 습도 또는 온도 정보 등을 제공하는 애플리케이션) 등을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 애플리케이션(134)은 상기 전자 장치(101)와 외부 전자 장치(예: 전자 장치 104) 사이의 정보 교환과 관련된 애플리케이션일 수 있다. 상기 정보 교환과 관련된 애플리케이션은, 예를 들어, 상기 외부 전자 장치에 특정 정보를 전달하기 위한 알림 전달(notification relay) 애플리케이션, 또는 상기 외부 전자 장치를 관리하기 위한 장치 관리(device management) 애플리케이션을 포함할 수 있다.
예를 들면, 상기 알림 전달 애플리케이션은 상기 전자 장치(101)의 다른 애플리케이션(예: SMS/MMS 애플리케이션, 이메일 애플리케이션, 건강 관리 애플리케이션 또는 환경 정보 애플리케이션 등)에서 발생한 알림 정보를 외부 전자 장치(예: 전자 장치(104))로 전달하는 기능을 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 알림 전달 애플리케이션은, 예를 들면, 외부 전자 장치(예: 전자 장치(104))로부터 알림 정보를 수신하여 사용자에게 제공할 수 있다. 상기 장치 관리 애플리케이션은, 예를 들면, 상기 전자 장치(101)와 통신하는 외부 전자 장치(예: 전자 장치(104))의 적어도 일부에 대한 기능(예: 외부 전자 장치 자체(또는, 일부 구성 부품)의 턴온/턴오프 또는 디스플레이의 밝기(또는, 해상도) 조절), 상기 외부 전자 장치에서 동작하는 애플리케이션 또는 상기 외부 전자 장치에서 제공되는 서비스(예: 통화 서비스 또는 메시지 서비스)를 관리(예: 설치, 삭제 또는 업데이트)할 수 있다.
다양한 실시예에 따르면, 상기 애플리케이션(134)은 상기 외부 전자 장치(예: 전자 장치(104))의 속성(예: 전자 장치의 종류)에 따라 지정된 애플리케이션을 포함할 수 있다. 예를 들어, 외부 전자 장치가 MP3 플레이어인 경우, 상기 애플리케이션(134)은 음악 재생과 관련된 애플리케이션을 포함할 수 있다. 유사하게, 외부 전자 장치가 모바일 의료기기인 경우, 상기 애플리케이션(134)은 건강 관리와 관련된 애플리케이션을 포함할 수 있다. 한 실시예에 따르면, 상기 애플리케이션(134)은 전자 장치(101)에 지정된 애플리케이션 또는 외부 전자 장치(예: 서버(106) 또는 전자 장치(104))로부터 수신된 애플리케이션 중 적어도 하나를 포함할 수 있다.
상기 입출력 인터페이스(140)는 입출력 장치(예: 센서, 키보드 또는 터치 스크린)를 통하여 사용자로부터 입력된 명령 또는 데이터를, 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 저장부(130), 상기 통신 인터페이스(160), 또는 상기 영상 처리부(170)에 전달할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)는 터치 스크린을 통하여 입력된 사용자의 터치에 대한 데이터를 상기 프로세서(120)로 제공할 수 있다. 또한, 상기 입출력 인터페이스(140)는 예를 들면, 상기 버스(110)를 통해 상기 프로세서(120), 상기 저장부(130), 상기 통신 인터페이스(160), 또는 상기 영상 처리부(170)로부터 수신된 명령 또는 데이터를 상기 입출력 장치(예: 스피커 또는 디스플레이)를 통하여 출력할 수 있다. 예를 들면, 상기 입출력 인터페이스(140)는 상기 프로세서(120)를 통하여 처리된 음성 데이터를 스피커를 통하여 사용자에게 출력할 수 있다.
상기 디스플레이(150)는 사용자에게 각종 정보(예: 멀티미디어 데이터 또는 텍스트 데이터 등)을 표시할 수 있다.
상기 통신 인터페이스(160)는 상기 전자 장치(101)와 외부 장치(예: 전자 장치(104) 또는 서버(106)) 간의 통신을 연결할 수 있다. 예를 들면, 상기 통신 인터페이스(160)는 무선 통신 또는 유선 통신을 통해서 네트워크(162)에 연결되어 상기 외부 장치와 통신할 수 있다. 상기 무선 통신은, 예를 들어, Wifi(wireless fidelity), BT(Bluetooth), NFC(near field communication), GPS(global positioning system) 또는 cellular 통신(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등) 중 적어도 하나를 포함할 수 있다. 상기 유선 통신은, 예를 들어, USB(universal serial bus), HDMI(high definition multimedia interface), RS-232(recommended standard 232) 또는 POTS(plain old telephone service) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 네트워크(162)는 통신 네트워크(telecommunications network)일 수 있다. 상기 통신 네트워크는 컴퓨터 네트워크(computer network), 인터넷(internet), 사물 인터넷(internet of things) 또는 전화망(telephone network) 중 적어도 하나를 포함할 수 있다. 한 실시예에 따르면, 상기 전자 장치(101)와 외부 장치 간의 통신을 위한 프로토콜(예: transport layer protocol, data link layer protocol 또는 physical layer protocol))은 애플리케이션(134), 애플리케이션 프로그래밍 인터페이스(133), 상기 미들웨어(132), 커널(131) 또는 통신 인터페이스(160) 중 적어도 하나에서 지원될 수 있다.
상기 서버(106)는 상기 전자 장치(101)에서 구현되는 동작(또는, 기능)들 중 적어도 하나의 동작을 수행함으로써, 상기 전자 장치(101)의 구동을 지원할 수 있다. 예를 들면, 상기 서버(106)는 상기 전자 장치(101)에 구현된 영상 처리부(170)를 지원할 수 있는 영상 처리 서버 모듈(108)을 포함할 수 있다. 예컨대, 상기 영상 처리 서버 모듈(108)은 영상 처리부(170)의 적어도 하나의 구성요소를 포함하여, 영상 처리부(170)가 수행하는 동작들 중 적어도 하나의 동작을 수행(예: 대행)할 수 있다.
상기 영상 처리부(170)는 다른 구성요소들(예: 상기 프로세서(120), 상기 저장부(130), 상기 입출력 인터페이스(140), 또는 상기 통신 인터페이스(160) 등)로부터 획득된 정보 중 적어도 일부를 처리하고, 이를 다양한 방법으로 사용자에게 제공할 수 있다. 예를 들면, 상기 영상 처리부(170)는 상기 프로세서(120)를 이용하여 또는 이와는 독립적으로, 상기 전자 장치(101)가 다른 전자 기기(예: 전자 장치(104) 또는 서버(106))와 연동하도록 상기 전자 장치(101)의 적어도 일부 기능을 제어할 수 있다. 한 실시예에 따르면, 영상 처리부(170)의 적어도 하나의 구성은 상기 서버(106)(예: 영상 처리 서버 모듈(108)에 포함될 수 있으며, 상기 서버(106)로부터 영상 처리부(170)에서 구현되는 적어도 하나의 동작을 지원받을 수 있다. 후술하는 도 2 내지 도 13을 통하여 상기 영상 처리부(170)에 대한 추가적인 정보가 제공된다.
도 2는 본 발명의 다양한 실시예들에 따른 전자 장치의 영상 처리부의 블록도를 도시한다.
도 2를 참조하면, 상기 영상 처리부(170)는 영상 획득 모듈(210), 뎁스 정보(depth information) 추출 모듈(220), 적용 모듈(230)을 포함할 수 있다.
일 실시 예에 따르면, 상기 영상 획득 모듈(210)은 적어도 하나의 이미지 센서로부터 적어도 하나의 영상(또는 이미지)을 획득할 수 있다. 상기 적어도 하나의 이미지 센서는 적어도 하나의 어레이 카메라, 스테레오 카메라(Stereo Camera), TOF(Time Of Flight), Structure Light 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 상기 어레이 카메라는 복수의 카메라 모듈을 포함할 수 있다. 상기 영상 획득 모듈(210)은 이러한 이미지 센서 및 어레이 카메라를 통해서 적어도 하나의 영상(또는 이미지)을 획득할 수 있다. 상기 영상 획득 모듈(210)은 제1 이미지 센서를 통해서 제1 영상과 제2 영상을 획득하고, 제2 이미지 센서를 통해서 적어도 하나의 제3 영상을 획득할 수 있다. 상기 제2 이미지 센서는 적어도 하나의 어레이 카메라에 포함된 적어도 하나의 이미지 센서를 포함할 수 있다. 상기 제3 영상은 상기 적어도 하나의 어레이 카메라에 의해 획득된 영상이거나 스테레오 카메라의 하나의 카메라로부터 획득되는 이미지일 수 있다. 또한, 영상 획득 모듈(210)은 적어도 하나의 어레이 카메라를 통해서 적어도 하나의 영상을 획득할 수 있다. 상기 이미지 센서는 하나의 영상을 획득할 수 있고, 상기 어레이 카메라는 구비된 적어도 하나의 카메라 모듈을 통해서 적어도 하나의 영상들을 획득할 수 있다. 상기 이미지 센서는 동일한 장면에서 두 개의 영상을 획득할 수 있다. 이러한 두 개의 영상들 중에서 제1 영상은 디스플레이(150)에 프리뷰잉되는 영상이고, 제2 영상은 버퍼 또는 메모리에 임시 저장되는 영상일 수 있다. 상기 제1 영상은 상기 제2 영상보다 해상도가 낮을 수 있다.
일 실시 예에 따르면, 영상 획득 모듈(210)의 제1 이미지 센서를 통해서 제1 영상 및 제2 영상이 획득되고, 제2 이미지 센서를 통해 적어도 하나의 제3 영상이 획득되면, 영상 처리부(170)는 제2 이미지 센서를 통해 획득되는 영상을 이용하여 뎁스 정보(depth information)를 추출하고, 추출된 뎁스 정보를 상기 제1 영상에 적용하여 디스플레이(150)에 표시할 수 있다. 또한, 영상 처리부(170)는 제1 이미지 센서를 통해 획득된 제1 영상과, 제2 이미지 센서를 통해 획득된 제3 영상을 합성하여 뎁스 정보를 추출할 수 있다. 그리고, 영상 처리부(170)는 추출된 뎁스 정보를 상기 제1 이미지 센서를 통해 획득된 제2 영상에 적용할 수 있다. 상기 제2 영상은 임시 버퍼에 저장될 수 있다. 상기 영상 처리부(170)는 업스케일링된 뎁스 정보를 버퍼 또는 메모리에 임시 저장된 제2 영상에 적용할 수 있다. 상기 영상 처리부(170)는 상기 업스케일링된 뎁스 정보와 상기 촬영된 영상을 메모리(130)에 저장할 수 있다. 상기 저장된 영상은 적어도 하나의 피사체를 포함하고, 상기 업스케일링된 뎁스 정보는 상기 영상에 포함되거나 별도로 저장될 수 있다. 상기 영상 처리부(170)는 이러한 뎁스 정보를 이용할 수 있다. 상기 영상 처리부(170)는 상기 영상을 표시하는데 있어서, 상기 추출된 뎁스 정보를 조절하고, 상기 조절된 뎁스 정보를 상기 제1 영상에 적용하여 표시할 수 있다. 이러한 뎁스 정보를 업스케일링하는 동작은 영상의 해상도에 맞게 뎁스 정보의 해상도 크기를 변경하는 동작을 포함할 수 있다.
일 실시 예에 따르면, 상기 영상 처리부(170)는 상기 추출된 뎁스 정보가 적용된 제1 영상을 디스플레이(150)에 프리뷰잉(previewing)하고, 상기 프리뷰잉되는 도중에 상기 프리뷰잉되는 영상에 렌즈 교체 효과를 적용하기 위한 입력이 감지되는 경우, 상기 렌즈 교체와 관련된 정보를 표시할 수 있다. 상기 정보는 렌즈의 속성을 조절하기 위한 정보이며, 조리개 값, 셔터 스피드, 수동 및 프로그램 중 적어도 하나를 포함할 수 있다. 그리고, 상기 영상 처리부(170)는 상기 표시된 정보 중 적어도 하나의 정보의 선택이 감지되면, 상기 프리뷰잉되는 영상에서 상기 선택된 정보에 대응하는 이미지 효과(예: 블러)를 적용하여 디스플레이할 수 있다. 상기 영상 처리부(170)는 디스플레이(150)에 표시되는 영상에 렌즈 교체 효과를 적용하기 위해 사용자로부터 입력을 받는 메뉴 또는 아이콘을 상기 영상과 함께 디스플레이할 수 있다.
일 실시 예에 따르면, 상기 뎁스 정보 추출 모듈(220)은 이미지 센서로부터 획득되는 영상에서 뎁스 맵(depth map)을 추출할 수 있다. 상기 뎁스 맵은 스테레오 매칭 방법을 통해서 추출될 수 있다. 상기 뎁스 정보 추출 모듈(220)은 상기 제1 영상 및 상기 제2 영상 중 적어도 하나의 영상에 이미지 효과를 적용할 수 있다. 상기 뎁스 정보 추출 모듈(220)은 상기 제1 영상 및 상기 제2 영상에 포함된 동일한 피사체의 상대적인 거리를 추정하고, 추정된 거리에 대응하여 이미지 효과를 적용할 수 있다.
일 실시 예에 따르면, 상기 적용 모듈(220)은 뎁스 정보 추출 모듈(220)에서 추출된 뎁스 정보를 업 스케일링(up scaling)하여 영상 획득 모듈(210)에서 획득된 적어도 하나의 영상에 적용할 수 있다. 상기 적용 모듈(220)은 상기 업 스케일링된 뎁스 정보을 이용하여 상기 획득된 영상의 적어도 일부 영역에 이미지 효과(예: 블러)를 적용할 수 있다. 상기 적용 모듈(220)은 상기 추출된 뎁스 정보가 적용된 영상이 디스플레이(150) 상에 표시되는 도중에 상기 디스플레이(150)에 터치가 감지되는 경우, 상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일치시키고, 상기 프리뷰잉되는 영상에서 상기 피사체를 제외한 적어도 하나의 피사체에 이미지 효과(예: 블러)를 적용할 수 있다. 상기 적용 모듈(220)은 적어도 하나의 피사체에 해당되는 각각의 뎁스 정보를 이용하여 해당 피사체에 이미지 효과(예: 블러)를 적용할 수 있다. 상기 이미지 효과는 블러(Blur), 컬러, 밝기, 모자이크 및 해상도 중 적어도 하나를 조절하는 것을 포함할 수 있다.
일 실시 예에 따르면, 영상 처리부(170)는 세션 연결 모듈(미도시)를 포함할 수 있는데, 이러한 세션 연결 모듈은 상기 영상 처리부(170)에 포함된 영상 획득 모듈(210), 뎁스 정보 추출 모듈(220) 및 적용 모듈(230)간의 연동을 제어할 수 있다. 일 실시 예에 따르면, 세션 연결 모듈은 전자 장치(101)에 포함된 적어도 하나의 구성 요소들 간의 연결을 제어할 수 있다. 또한, 세션 연결 모듈은 상기 전자 장치(101)와 상기 서버(106)간의 연결 및/또는 상기 전자 장치(101)와 적어도 하나의 주변 전자 장치와의 세션 연결을 제어할 수 있다.
뿐만 아니라, 상기 영상 획득 모듈(210), 뎁스 정보 추출 모듈(220) 및 적용 모듈(230)에서 각각 수행되는 다양한 기능들은 영상 처리부(170)에서 수행될 수 있거나 또는 프로세서(120)에서 수행될 수 있다.
도 3은 본 발명의 다양한 실시예들에 따른 전자 장치의 정면 또는 후면 사시도를 나타낸다.
전자 장치(101)는 적어도 하나의 카메라를 정면 또는 후면에 장착할 수 있다. 전자 장치(101)는 정면에 제1 카메라(301)와 제2 카메라(302)를 장착하거나 후면에 제1 카메라(301)와 제2 카메라(302)를 장착할 수 있다. 상기 제1 카메라(301)와 제2 카메라(302) 중 적어도 하나는 어레이 카메라, 스테레오 카메라(Stereo Camera), TOF(Time Of Flight), Structure Light 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 상기 어레이 카메라는 복수의 카메라 모듈을 포함할 수 있다. 이러한 카메라는 피사체에 대한 촬영을 통해 획득한 영상을 영상 처리부(170) 또는 프로세서(120)로 전달할 수 있다. 또한, 카메라는 복수 개의 컬러 픽셀들을 포함하는 영상을 수집하여 영상 처리부(170) 또는 프로세서(120)로 전달할 수 있다. 상기 카메라는 전자 장치(101)에 연결된 적어도 하나의 영상(또는 이미지) 센서 모듈을 포함할 수 있다. 또한, 상기 카메라는 뎁스 센서(depth sensor)를 포함할 수 있으며, 이러한 뎁스 센서는 비행 시간(Time-of-Flight:TOF) 방식으로 작동하는 적외선 펄스 레이저로 구현되어 측정 피사체의 뎁스 정보를 출력하는 적어도 하나의 센서를 포함할 수 있다.
또한, 상기 제2 카메라(302)는 상기 제1 카메라(301)와 적어도 일부의 화각을 공유할 수 있다. 이러한 제2 카메라(302)가 구비된 전자 장치(101)는 적외선 펄스 레이저를 발광하여 피사체에 반사되어 입력되는 시간 정보를 이용하여 뎁스 정보를 판단하는 TOF 방식의 센서를 포함할 수 있다. 또한, 제2 카메라(302)는 적어도 두 개의 카메라가 기구적으로 연결되어 있는 어레이 카메라(array camera)를 포함할 수 있다. 이러한 제1 카메라 및 제2 카메라 중 적어도 하나는 전자 장치(101)의 표면 어디에도 장착될 수 있으며, 본 발명의 다양한 실시 예에 따른 뎁스 정보는 이러한 제1 카메라와 제2 카메라간의 거리(예: 베이스 라인(base line))에 따라 다를 수 있다.
도 4는 본 발명의 일 실시예에 따른 전자 장치의 영상 처리 방법을 나타낸 순서도이다.
이하, 도 4를 참조하여, 본 발명의 일 실시 예에 따른 전자 장치의 영상 처리 방법을 설명하면 다음과 같다.
전자 장치(101)는 제1 이미지 센서를 통해 제1 영상 및 제2 영상을 획득하고, 제2 영상을 버퍼에 저장할 수 있다(410). 전자 장치(101)는 이미지 센서를 통해 제1 영상(예: 프리뷰 영상) 및 제2 영상을 획득할 수 있고, 상기 획득된 제2 영상을 버퍼에 저장할 수 있다. 전자 장치(101)는 적어도 하나의 카메라가 장착될 수 있으며, 이러한 각각의 카메라는 이미지(또는 영상)를 획득할 수 있는 이미지 센서가 구비될 수 있다. 상기 이미지 센서는 프리뷰 영상과 실제 촬영 영상을 동시 또는 순차적으로 생성할 수 있고, 상기 프리뷰 영상을 디스플레이(150)에 표시할 수 있다. 상기 프리뷰 영상은 실제 촬영 영상보다 해상도가 낮을 수 있으며, 디스플레이(150)의 해상도에 대응되는 해상도를 가질 수 있다. 이러한 전자 장치(101)는 이미지 센서를 통해 획득되는 동일한 장면 별로 적어도 두 개의 영상을 생성하고, 생성된 두 개의 영상들 중에서 제1 영상은 프리뷰잉하는데 사용하고, 제2 영상은 버퍼에 임시로 저장할 수 있다. 상기 제1 영상은 상기 제2 영상보다 해상도가 낮을 수 있다. 예를 들어, 상기 제1 영상은 3.7 Mpixel이고, 상기 제2 영상은 16 Mpixel일 수 있다.
상기 전자 장치(101)는 적어도 하나의 제2 이미지 센서를 통해 획득되는 적어도 하나의 제3 영상에서 뎁스 정보를 추출할 수 있다(420). 상기 적어도 하나의 제2 이미지 센서는 적어도 하나의 어레이 카메라를 포함할 수 있다. 전자 장치(101)는 적어도 하나의 어레이 카메라가 장착될 수 있으며, 상기 어레이 카메라는 상기 제1 이미지 센서에서 출력되는 영상의 해상도보다 낮은 복수 개의 영상(또는 이미지)를 촬영할 수 있다. 전자 장치(101)는 적어도 하나의 제2 이미지 센서로부터 획득되는 적어도 하나의 영상을 통해서 뎁스 정보를 획득할 수 있다. 전자 장치(101)는 적어도 두 개의 영상에 동일하게 포함된 피사체의 상대적인 거리를 추정할 수 있다. 상기 전자 장치(101)는 추출된 뎁스 정보를 이용하여 제1 영상 및 제2 영상 중 적어도 하나의 영상에 이미지 효과를 적용할 수 있다. 상기 뎁스 정보는 제1 영상 또는 제2 영상에 대한 뎁스 맵을 포함할 수 있다.
전자 장치(101)는 추출된 뎁스 정보를 상기 제1 영상에 적용하여 디스플레이(150)에 표시할 수 있다(430). 전자 장치(101)는 적어도 하나의 제2 이미지 센서로부터 얻어진 적어도 하나의 영상에서 획득된 뎁스 정보를 상기 제1 이미지 센서에서 촬영된 실제 촬영 영상 또는 프리뷰 영상에 대응하여 처리되도록 상기 뎁스 정보를 스케일링할 수 있다. 전자 장치(101)는 추출된 뎁스 정보를 제1 이미지 센서를 통해 획득되는 영상들 중, 에 해당되는 영상(예: 제1 영상)에 적용하여 디스플레이(150)에 표시할 수 있다. 또한, 전자 장치(101)는 추출된 뎁스 정보를 업스케일링하고, 상기 업스케일링된 뎁스 정보를 상기 버퍼에 저장된 영상(예: 제2 영상)에 적용하여 저장할 수 있다. 상기 뎁스 정보를 업스케일링하는 동작은 영상의 해상도에 맞게 뎁스 정보의 해상도 크기를 변경하는 것을 포함할 수 있다. 예를 들어, 상기 어레이 카메라를 통해 획득되는 영상이 2Mpixel인 경우, 전자 장치(101)는 2Mpixel의 영상을 3.7Mpixel의 영상 또는 16Mpixel의 영상으로 업스케일링할 수 있다.
프리뷰잉되고 있는 영상을 촬영하는 입력이 감지되면(440), 전자 장치(101)는 추출된 뎁스 정보를 업스케일링하여 상기 저장된 제2 영상에 적용하고, 상기 업스케일링된 뎁스 정보가 적용된 제2 영상을 저장할 수 있다(450). 추출된 뎁스 정보가 적용된 영상(예: 제1 영상)이 디스플레이(150)에 표시되고 있는 상태에서 피사체를 촬영하고자 하는 입력이 감지되면, 전자 장치(101)는 상기 동작(420)에서 추출된 뎁스 정보를 업스케일링하고, 상기 업스케일링된 뎁스 정보를 상기 동작(410)에서 버퍼에 저장된 영상(예: 제2 영상)에 적용하고, 상기 업스케일링된 뎁스 정보가 적용된 영상을 저장할 수 있다. 또한, 본 발명은 동작(420)에서 추출된 뎁스 정보를 업스케일링하고, 상기 업스케일링된 뎁스 정보를 상기 동작(410)에서 버퍼에 저장된 영상(예: 제2 영상)에 적용한 상태에서 피사체를 촬영하고자 하는 입력이 감지에 대응하여 제2 영상을 메모리(130)에 저장할 수 있다. 전자 장치(101)는 추출된 뎁스 정보를 업스케일링하여 상기 저장된 영상(예: 제2 영상)에 적용하기 위해서, 상기 동작(420)에서 추출된 뎁스 맵을 업 스케일링(up scaling)하고, 상기 업 스케일링된 뎁스 맵을 이용하여 상기 저장된 영상의 적어도 일부 영역에 이미지 효과(예: 블러(Blur))를 적용할 수 있다. 전자 장치(101)는 업스케일링된 뎁스 정보가 적용된 영상과 뎁스 정보를 메모리(130)에 저장할 수 있다. 상기 저장된 영상은 적어도 하나의 피사체를 포함할 수 있다. 일 실시 예에 따르면, 상기 적용된 영상은 버퍼에 임시로 저장되거나 메모리(130)에 저장될 수 있다. 이후, 사용자의 촬영 요구가 있을 때, 상기 버퍼 또는 메모리에서 촬영 요구가 있는 시점의 영상을 인코딩하여 메모리(130)의 다른 영역에 저장할 수 있다. 다른 실시 예에 따르면, 상기 촬영된 영상은 영상 처리 이전에 버퍼에 임시로 저장되거나 메모리(130)에 저장될 수 있다. 이후, 사용자의 촬영 요구가 있을 대, 상기 버퍼 또는 메모리에서 촬영 요구가 있는 시점의 영상을 인코딩하여 메모리(130)의 다른 영역에 저장할 수 있다.
그리고, 상기 동작(430)에서 상기 뎁스 정보가 적용된 영상(예: 제1 영상)이 디스플레이(150) 상에 표시되는 도중에 상기 디스플레이(150)에 터치가 감지되는 경우, 전자 장치(101)는 상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일치시키고, 상기 프리뷰잉되는 영상에서 상기 피사체를 제외한 적어도 하나의 피사체에 이미지 효과(예: 블러)를 적용할 수 있다. 상기 적어도 하나의 피사체에 이미지 효과(예: 블러)를 적용하기 위해 상기 적어도 하나의 피사체의 뎁스 정보를 이용할 수 있다. 또한, 상기 동작(430)에서 상기 뎁스 정보가 적용된 영상(예: 제1 영상)이 디스플레이(150) 상에 표시되는 도중에 상기 표시되는 영상에 렌즈 교체 효과를 적용하기 위한 입력이 감지되는 경우, 전자 장치(101)는 상기 렌즈 교체와 관련된 정보를 디스플레이(150)에 표시할 수 있다. 만일, 상기 디스플레이된 정보 중 적어도 하나의 정보의 선택이 감지되면, 전자 장치(101)는 프리뷰잉되는 영상에서 상기 선택된 정보에 해당되는 적어도 하나의 피사체에 상기 선택된 정보를 이용한 이미지 효과(예: 블러)를 적용하여 디스플레이할 수 있다. 상기 정보는 렌즈의 속성을 조절하기 위한 정보이며, 조리개 값, 셔터 스피드, 수동 및 프로그램 중 적어도 하나를 포함할 수 있다.
도 5는 본 발명의 다른 실시예에 따른 전자 장치의 영상 처리 방법을 나타낸 순서도이다.
이하, 도 5를 참조하여, 본 발명의 다른 실시 예에 따른 전자 장치의 영상 처리 방법을 설명하면 다음과 같다.
전자 장치(101)는 제1 이미지 센서를 통해 제1 영상 및 제2 영상을 획득하고, 제2 이미지 센서를 통해 제3 영상을 획득할 수 있다(510). 전자 장치(101)는 적어도 두 개의 카메라가 장착될 수 있으며, 이러한 각각의 카메라는 이미지(또는 영상)를 획득할 수 있는 적어도 하나의 이미지 센서가 구비될 수 있다. 상기 제1 이미지 센서는 제1 영상과 제2 영상을 동시 또는 순차적으로 생성할 수 있고, 상기 제1 영상을 디스플레이(150)에 표시할 수 있다. 제1 영상(예: 프리뷰 영상)은 제2 영상(예: 촬영 영상)보다 해상도가 낮을 수 있으며, 디스플레이(150)의 해상도에 대응되는 해상도를 가질 수 있다. 상기 제2 영상은 버퍼 또는 메모리(130)에 저장될 수 있다. 상기 버퍼에 저장되는 영상은 미리 결정된 시간이 지나면 자동으로 삭제될 수 있다.
상기 전자 장치(101)는 획득된 제1 영상 및 제3 영상 중 적어도 하나의 영상을 이용하여 뎁스 정보를 추출할 수 있다(520). 전자 장치(101)는 제1 이미지 센서에서 획득된 제1 영상과 적어도 하나의 제2 이미지 센서에서 획득된 제3 영상을 합성할 수 있다. 상기 합성된 영상은 상기 제1 영상과 제2 영상의 적어도 일부를 포함하는 해상도를 가질 수 있다. 또한, 전자 장치(101)는 제1 영상과 제3 영상에서 뎁스 정보를 추출할 수 있다. 상기 전자 장치(101)는 제1 영상 및 제2 영상 중 적어도 하나의 영상의 초점, 노출 조건, 화이트 밸런스, 회전 및 이동 중 적어도 하나를 조절할 수 있다. 상기 제1 영상을 조절하는 동작은 상기 제1 영상 및 상기 제3 영상에 동일하게 포함된 피사체의 상대적인 거리를 추정하는 동작을 포함할 수 있다.
전자 장치(101)는 추출된 뎁스 정보를 제1 영상에 적용하여 디스플레이(150)에 표시할 수 있다(530). 전자 장치(101)는 상기 동작(520)에서 합성된 영상을 디스플레이(150)에 표시하거나, 상기 추출된 뎁스 정보를 이용하여 상기 제1 영상에 이미지 효과(예: 블러)를 적용하여 표시할 수 있다. 상기 제1 영상 표시되고 있는 도중에 터치가 감지되는 경우, 전자 장치(101)는 상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일치시키고, 상기 표시되는 영상에서 상기 피사체를 제외한 적어도 하나의 피사체에 이미지 효과(예: 블러)를 적용할 수 있다. 그리고, 상기 적어도 하나의 피사체에 이미지 효과(예: 블러)를 적용하기 위해 상기 적어도 하나의 피사체의 뎁스 정보를 이용할 수 있다. 상기 영상이 프리뷰잉되는 도중에 렌즈 교체 효과를 적용하기 위한 입력이 감지되는 경우, 전자 장치(101)는 상기 렌즈 교체와 관련된 정보를 디스플레이하고, 상기 디스플레이된 정보 중 적어도 하나의 정보의 선택이 감지되면, 상기 영상에서 상기 선택된 정보에 해당되는 적어도 하나의 피사체에 상기 선택된 정보를 이용한 이미지 효과(예: 블러)를 적용하여 디스플레이할 수 있다. 상기 정보는 렌즈의 속성을 조절하기 위한 정보이며, 조리개 값, 셔터 스피드, 수동 및 프로그램 중 적어도 하나를 포함할 수 있다.
영상을 촬영하는 입력이 감지되면(540), 전자 장치(101)는 추출된 뎁스 정보를 업스케일링하고, 업스케일링된 뎁스 정보를 상기 제2 영상에 적용하여 저장할 수 있다(550). 전자 장치(101)는 제1 이미지 센서와 적어도 하나의 제2 이미지 센서를 통해 획득되는 영상을 디스플레이(150)에 표시할 수 있다. 영상이 디스플레이(150)에 표시되고 있는 상태에서 피사체를 촬영하고자 하는 입력이 감지되면, 전자 장치(101)는 상기 동작(520)에서 추출된 뎁스 정보를 업스케일링하고, 상기 업스케일링된 뎁스 정보를 상기 동작(510)에서 획득된 제2 영상에 적용하고, 상기 업스케일링된 뎁스 정보가 적용된 제2 영상을 저장할 수 있다. 또한, 본 발명은 동작(520)에서 추출된 뎁스 정보를 업스케일링하고, 상기 업스케일링된 뎁스 정보를 상기 동작(510)의 제2 영상에 적용한 상태에서 피사체를 촬영하고자 하는 입력이 감지에 대응하여 제2 영상을 메모리(130)에 저장할 수 있다. 전자 장치(101)는 추출된 뎁스 정보를 업스케일링하여 상기 제2 영상에 적용하기 위해서, 상기 동작(520)에서 추출된 뎁스 맵을 업 스케일링(up scaling)하고, 상기 업 스케일링된 뎁스 맵을 이용하여 상기 저장된 영상의 적어도 일부 영역에 이미지 효과(예: 블러)를 적용할 수 있다. 예를 들어, 뎁스 정보에 따라 피사체 별로 차등적인 블러 효과를 적용하여 셀렉티브 포커싱 효과를 나타낼 수 있다. 전자 장치(101)는 상기 적용된 제1 영상을 메모리(130)에 저장할 수 있다.
도 6a는 본 발명의 일 실시예에 따른 영상에서 제1 피사체에 초점이 맞춰진 예시도이고, 도 6b는 본 발명의 일 실시예에 따른 영상에서 제2 피사체에 초점이 맞춰진 예시도이고, 도 6c는 본 발명의 일 실시예에 따른 영상에서 제3 피사체에 초점이 맞춰진 예시도이고, 도 6d는 본 발명의 일 실시예에 따른 전자 장치에서 서로 다른 초점을 갖는 도 6a, 도 6b 및 도 6c를 합성한 예시도이다.
도 6a를 참조하면, 도 6a의 이미지(610)는 인물에 해당되는 제1 피사체(611)에 초점이 맞춰져 있고, 배경에 해당되는 제2 피사체(612, 613, 614)와 인물에 해당되는 제3 피사체(615)에는 초점이 맞춰져 있지 않다. 제1 피사체(611)에 선택적 포커싱(selective focusing)이 적용된 예시도이다.
도 6b를 참조하면, 도 6b의 이미지(620)는 배경에 해당되는 제2 피사체(622, 623, 624)에 초점이 맞춰져 있고, 인물에 해당되는 제1 피사체(611)와 제3 피사체(615)에는 초점이 맞춰져 있지 않다. 제2 피사체(622, 623, 624)에 선택적 포커싱(selective focusing)이 적용된 예시도이다.
도 6c를 참조하면, 도 6c의 이미지(630)는 인물에 해당되는 제3 피사체(635)에 초점이 맞춰져 있고, 인물에 해당되는 제1 피사체(611)와 배경에 해당되는 제2 피사체(612, 613, 614)에는 초점이 맞춰져 있지 않다. 제3 피사체(635)에 선택적 포커싱(selective focusing)이 적용된 예시도이다.
도 6d를 참조하면, 도 6d의 이미지(640)는 도 6a 내지 도 6c에서 서로 다른 초점을 포함하는 이미지들을 합성한 것으로서, 본 발명은 복수의 이미지들 각각에 포함된 피사체를 하나의 이미지로 합성할 수 있다. 전자 장치(101)는 복수의 이미지를 합성하는 명령을 감지할 수 있다. 예를 들어, 전자 장치(101)는 입출력 인터페이스(140) 및 디스플레이(150) 중 적어도 하나를 통해 입력되는 입력 정보에 기반하여 복수의 이미지를 합성하는 명령을 감지할 수 있다. 또한, 전자 장치(101)는 복수의 이미지를 합성하는 사용자 제스처를 감지하여 복수의 이미지를 합성할 수 있거나 복수의 이미지들에 포함된 피사체들이 서로 다른 초점을 가질 경우 자동으로 사진을 합성할 수 있다.
전자 장치(101)는 이러한 명령이 감지되면, 각각의 영상 또는 이미지에서 초점이 맞춰진 적어도 하나의 피사체를 추출할 수 있다. 예를 들어, 도 6a의 이미지(610)에서 초점이 맞춰진 제1 피사체(611)를 추출하고, 도 6b의 이미지(620)에서 초점이 맞춰진 제2 피사체(622, 623, 624)를 추출하고, 도 6c의 이미지(630)에서 초점이 맞춰진 제3 피사체(635)를 추출할 수 있다. 그리고, 전자 장치(101)는 도 6a 내지 도 6c에서 추출된 피사체를 합성하여 도 6d와 같이 하나의 이미지(640)를 생성할 수 있다. 상기 이미지(640)는 도 6a 내지 도 6c에 포함된 초점이 맞춰진 복수의 피사체를 포함할 수 있다. 그리고, 전자 장치(101)는 생성된 이미지(640)와 각 피사체의 뎁스 정보를 메모리(130) 또는 버퍼에 저장할 수 있으며, 또한, 생성된 이미지(640)를 디스플레이(150)에 표시할 수 있다. 또한, 전자 장치(101)는 각각의 이미지들(610, 620, 630)의 뎁스 정보를 생성된 이미지(640)에 적용하여 디스플레이(150)에 표시할 수 있다. 또한, 전자 장치(101)는 각각의 이미지들(610, 620, 630) 이용하여 이미지(640)를 생성하고, 생성된 이미지(640)를 표시할 수 있다.
도 7은 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 피사체의 초점을 제어하는 과정을 나타낸 순서도이다.
이하, 도 7을 참조하여 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 피사체의 초점을 제어하는 과정을 상세히 설명하면 다음과 같다.
전자 장치(101)는 적어도 하나의 피사체를 포함한 이미지를 표시할 수 있다(710). 전자 장치(101)의 디스플레이(150)는 초점이 서로 다른 복수의 이미지 또는 영상을 합성하여 표시할 수 있다. 전자 장치(101)는 복수의 카메라 또는 이미지 센서를 통해 촬영되는 복수의 이미지 또는 복수의 영상을 합성하여 새로운 이미지 또는 영상을 생성하고, 생성된 이미지 또는 영상을 디스플레이(150)에 표시할 수 있다.
임의 피사체 선택이 감지되면(720), 전자 장치(101)는 선택된 피사체를 제외한 다른 피사체에 이미지 효과(예: 블러)를 적용하여 표시할 수 있다(730). 디스플레이(150)에 이미지 또는 영상이 표시된 상태에서, 전자 장치(101)는 입출력 인터페이스(140) 및 디스플레이(150) 중 적어도 하나를 통해 입력되는 입력 정보에 기반하여 합성된 이미지 또는 영상에서 입력에 해당되는 피사체에 초점을 일치시키고, 상기 입력에 해당되지 않는 다른 적어도 하나의 피사체에는 이미지 효과(예: 블러)를 적용하여 표시할 수 있다. 전자 장치(101)는 뎁스 정보가 적용된 이미지가 표시되고 있는 상태에서, 디스플레이(150) 상에 터치가 감지되는 경우, 저장된 뎁스 정보를 이용하여 상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일시키고, 상기 프리뷰잉되는 영상에서 상기 초점이 일치된 피사체를 제외한 적어도 하나의 다른 피사체에 이미지 효과(예: 블러)를 적용하여 표시할 수 있다. 상기 이미지 효과는 해당 피사체의 뎁스 정보를 이용하여 적용될 수 있다. 상기 이미지 효과는 블러(Blur), 컬러, 밝기, 모자이크 및 해상도 중 적어도 하나를 조절하는 것을 포함할 수 있다. 전자 장치(101)는 이미지가 표시되고 있는 상태에서, 디스플레이(150) 상에 터치가 감지되는 경우, 저장된 뎁스 정보를 이용하여 상기 터치가 감지된 지점에 해당되는 제1 피사체에는 초점을 일치시키고, 상기 제1 피사체와 가까운 거리에 있는 제2 피사체에는 작은 정도의 이미지 효과(예: 블러)를 적용하고, 상기 제1 피사체와 비교적 멀리 존재하는 제3 피사체에는 상대적으로 큰 정도의 이미지 효과(예: 블러)를 적용할 수 있다.
도 8a는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 제1 피사체를 선택하는 경우의 초점을 제어하는 예시도이고, 도 8b는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에서 제2 피사체를 선택하는 경우의 초점을 제어하는 예시도이다.
도 8a를 참조하면, 도 8a의 좌측 이미지(810)는 인물에 해당되는 제1 피사체(811), 배경에 해당되는 제2 피사체(812, 813, 814) 및 인물에 해당되는 제3 피사체(815)를 포함할 수 있다. 본 발명은 복수의 이미지들 각각에 포함된 서로 다른 초점을 가진 피사체를 하나의 이미지로 합성할 수 있는데, 도 8a의 좌측 이미지(810)는 이러한 서로 다른 초점을 가진 피사체를 하나의 이미지로 합성한 것이다. 전자 장치(101)의 메모리(130)는 이미지와, 상기 이미지에 포함된 각각의 피사체에 해당되는 뎁스 정보를 저장할 수 있다. 상기 뎁스 정보는 각 피사체가 인접한 피사체 또는 다른 피사체와의 거리를 나타내는 것으로서, 사용자는 이러한 뎁스 정보를 통해 이미지가 흐려짐을 인지할 수 있다. 예를 들어, 도 8a의 좌측 이미지(810)에서 제1 피사체(811)가 선택(816)되는 경우, 전자 장치(101)는 도 8a의 우측 이미지(820)와 같이, 선택된 피사체(811)를 제외한 다른 피사체(822, 823, 824, 825)에 이미지 효과(예: 블러)를 적용할 수 있다. 전자 장치(101)는 디스플레이(150)에 표시된 이미지 또는 영상에서 사용자의 입력이 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점이 일치되도록 조절하고, 상기 영역을 제외한 나머지 영역에 존재하는 다른 피사체의 초점이 일치하지 않도록 조절할 수 있다. 도 8a의 우측 이미지(820)는 제1 피사체(811)를 제외한 제2 피사체(822, 823, 824)와 제3 피사체(825)에 이미지 효과가 적용된 것이다. 제1 피사체(811)에 선택적 포커싱(selective focusing)이 적용된 예시도이다.
도 8b를 참조하면, 도 8b의 좌측 이미지(830)는 인물에 해당되는 제1 피사체(831), 배경에 해당되는 제2 피사체(832, 833, 834) 및 인물에 해당되는 제3 피사체(835)를 포함할 수 있다. 전자 장치(101)는 선택되는 피사체의 뎁스 정보를 조절할 수 있다. 또한, 전자 장치(101)는 각 피사체별 뎁스 정보에 따라 이미지 효과(예: 블러)를 적용할 수 있다. 사용자는 이러한 이미지 효과의 적용을 통해 이미지가 흐려짐을 인지할 수 있다. 예를 들어, 도 8b의 좌측 이미지(830)에서 제3 피사체(835)가 선택(836)되는 경우, 전자 장치(101)는 도 8b의 우측 이미지(840)와 같이, 선택된 피사체(835)를 제외한 다른 피사체(841, 842, 843, 844)의 초점을 흐리게 조절할 수 있다. 전자 장치(101)는 디스플레이(150)에 표시된 이미지 또는 영상에서 사용자의 입력이 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점이 일치되도록 조절하고, 상기 영역을 제외한 나머지 영역에 존재하는 다른 피사체의 초점이 일치하지 않도록 조절할 수 있다.
도 9는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 교체 효과를 적용하는 과정을 나타낸 순서도이다.
이하, 도 9를 참조하여, 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 영상에 렌즈 교체 효과를 적용하는 과정을 상세히 설명하면 다음과 같다.
전자 장치는 디스플레이에 적어도 하나의 피사체를 포함하는 이미지를 표시할 수 있다(910). 전자 장치(101)는 디스플레이(150)에 이미지 센서를 통해 획득되는 영상 또는 이미지를 표시할 수 있거나 메모리(130)에 저장된 영상 또는 이미지를 표시할 수 있다. 이러한 영상 또는 이미지는 복수의 피사체가 포함될 수 있는데, 각각의 피사체는 뎁스 정보를 가질 수 있다. 또한, 전자 장치(101)는 디스플레이(150)에 표시된 이미지에 렌즈 효과를 적용하기 위한 메뉴를 상기 이미지와 함께 표시할 수 있다. 이러한 렌즈 효과를 적용하기 위해 입력받는 명령은 상기 메뉴를 통해 입력되거나 또는 전자 장치(101)에 구비된 별도의 버튼 또는 키 입력을 통해서 입력될 수 있다.
렌즈 교체 효과를 적용하기 위한 명령이 입력되면(920), 전자 장치(101)는 렌즈 교체에 관련된 정보를 표시할 수 있다(930). 전자 장치(101)는 입출력 인터페이스(140) 및 디스플레이(150) 중 적어도 하나를 통해 렌즈 교체 효과를 적용하기 위한 명령을 입력받을 수 있다. 또한, 전자 장치(101)는 사용자 제스처를 통해서 명령을 감지할 수 있다. 전자 장치(101)는 이러한 명령이 감지되면, 사용자에게 렌즈 교체 효과를 시각적으로 제공하기 위해 렌즈 교체에 관련된 정보를 표시할 수 있다. 전자 장치(101)는 디스플레이(150)에 표시된 이미지에 적용될 수 있는 렌즈의 속성을 포함하는 정보를 디스플레이할 수 있다. 상기 정보는 전자 장치(101)에 구비된 적어도 하나의 카메라의 렌즈의 초점거리, 조리개 값, 셔터 스피드 등 다양한 정보를 포함할 수 있다. 또한, 상기 정보는 현재 제품으로 출시된 렌즈의 초점거리, 조리개 값, 셔터 스피드 등 다양한 정보를 더 포함할 수 있다.
임의 렌즈가 선택되면(940), 전자 장치(101)는 선택된 렌즈의 속성을 표시된 이미지에 적용하여 표시할 수 있다(950). 전자 장치(101)는 디스플레이(150)에 표시된 이미지에 적용될 수 있는 렌즈의 속성을 포함하는 정보를 표시할 수 있다. 이러한 표시된 정보 중에서 임의 렌즈의 속성에 해당되는 정보가 선택되면, 전자 장치(101)는 선택된 정보를 이용하여 표시된 이미지를 렌즈가 가지는 특성을 이용하여 이미지 효과를 적용할 수 있다. 예를 들어, 사용자가 조리개 값을 조절하면, 전자 장치(101)는 해당 조리개에 해당되는 심도를 표현할 수 있게 이미지 효과를 적용할 수 있다.
도 10a는 본 발명의 일 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 교체 효과를 적용하는 예시도이고, 도 10b는 본 발명의 다른 실시 예에 따른 디스플레이에 표시되는 이미지에 렌즈 효과를 적용하는 예시도이다.
도 10a에 도시된 바와 같이, 도 10a의 좌측 이미지(1010)는 제1 피사체(1011), 제2 피사체(1012, 1013, 1014) 및 제3 피사체(1015)를 포함할 수 있다. 본 발명은 모든 피사체에 초점이 맞는 올-포커스(all-focus) 이미지를 표시할 수 있는데, 도 10a의 좌측 이미지(1010)는 이러한 모든 피사체에 초점이 맞는 이미지이며, 또한, 상기 이미지(1010)는 렌즈 효과를 적용하기 위한 메뉴(1016)를 포함할 수 있다. 전자 장치(101)의 메모리(130)는 이미지와, 상기 이미지(1010)에 포함된 각각의 피사체에 해당되는 뎁스 정보를 저장할 수 있다. 상기 메뉴(1016)가 선택(1017)되면, 전자 장치는 도 10a의 가운데 이미지(1020)와 같이 복수의 렌즈 속성을 나타내는 정보를 표시할 수 있다. 상기 정보는 예를 들어 초점 거리가 10mm이고 조리개 값이 3.5인 제1 렌즈(1021), 초점 거리가 16mm이고 조리개 값이 2.4인 제2 렌즈(1022), 초점 거리가 30mm이고 조리개 값이 2.0인 제3 렌즈(1023), 초점 거리가 45mm이고 조리개 값이 1.8인 제4 렌즈(1024), 초점 거리가 60mm이고 조리개 값이 2.8인 제5 렌즈(1025) 및 초점 거리가 85mm이고 조리개 값이 1.4인 제6 렌즈(1026)에 대한 속성을 포함할 수 있다. 뿐만 아니라, 본 발명의 실시 예에 따른 정보는 상술한 렌즈 이외에 현재 출시된 렌즈에 대한 정보를 포함할 수 있다. 이러한 정보 중에서 사용자가 초점 거리가 60mm이고 조리개 값이 2.8인 제5 렌즈(1025)를 선택(1017)하는 경우, 전자 장치(101)는 이미지에 초점 거리가 60mm이고 조리개 값이 2.8에 해당되는 렌즈가 가지는 특성을 이용하여 이미지 효과를 적용할 수 있다. 전자 장치(101)는 선택된 조리개에 해당되는 심도를 이미지에 적용할 수 있다. 전자 장치(101)는 제5 렌즈(1025)의 선택이 감지되면, 저장된 뎁스 정보를 이용하여 선택된 렌즈의 조리개 값에 대응하는 이미지 효과(예: 블러)를 적용하거나, 선택된 초점거리에 대응하는 영역을 크롭(crop)할 수 있으며, 도 10a의 우측 이미지(1030)와 같이 디스플레이(150)에 표시할 수 있다. 도 10a의 우측 이미지(1030)에는 초점 거리가 60mm이고 조리개 값이 2.8인 렌즈에 의한 이미지 효과가 적용된 예이다. 예를 들어, 제1 피사체(1031)에 초점이 일치되고, 제2 피사체(1032, 1033, 1034) 및 제3 피사체(1035)는 이미지 효과(예: 블러)가 적용됨을 알 수 있다. 또한, 초점 거리에 대응하여 이미지의 특정 영역(예: 중앙)을 중심으로 초점 거리에 대응하는 영역을 크롭할 수 있다.
도 10b에 도시된 바와 같이, 도 10b의 좌측 이미지(1010)에서 메뉴(1016)가 선택(1017)되면, 전자 장치는 도 10b의 가운데 이미지(1040)와 같이 렌즈 속성을 나타내는 정보를 표시할 수 있다. 상기 정보는 초점 거리(1041)가 10mm에서 85mm까지의 값(1042)과 조리개(1043)의 값이 1.8에서 22.0까지의 값(1044)을 포함할 수 있다. 이러한 정보 중에서 사용자가 초점 거리가 60mm을 선택하고, 조리개 값을 2.8로 선택하면, 전자 장치(101)는 초점 거리가 60mm이고 조리개 값이 2.8의 렌즈의 특성에 따라 이미지에 블러를 적용할 수 있다. 그리고, 전자 장치(101)는 이러한 선택에 대응하여 도 10b의 우측 이미지(1050) 같이 디스플레이(150)에 표시할 수 있다. 도 10b의 우측 이미지(1050)에는 제1 피사체(1051)에 초점이 일치되고, 제2 피사체(1052, 1053, 1054) 및 제3 피사체(1055)는 이미지 효과(예: 블러)가 적용됨을 알 수 있다. 또한, 초점 거리에 대응하여 이미지의 특정 영역(예: 중앙)을 중심으로 초점 거리에 대응하는 영역을 크롭할 수 있다.
도 11a는 본 발명의 일 실시 예에 따른 렌즈 효과를 적용하기 위한 이미지를 표시한 예시도이고, 도 11b는 본 발명의 일 실시 예에 따른 표시된 이미지에 이미지 효과를 제공하기 위한 렌즈 속성 정보를 나타낸 예시도이고, 도 11c는 본 발명의 실시 예에 따른 렌즈의 조리개 값을 조절하여 이미지 효과를 제공하기 위한 예시도이고, 도 11d는 본 발명의 실시 예에 따른 렌즈의 셔터 스피트를 조절하여 이미지 효과를 제공하기 위한 예시도이고, 도 11e는 본 발명의 실시 예에 따른 렌즈의 초점 거리와 셔터 스피트를 조절하여 이미지 효과를 제공하기 위한 예시도이다.
도 11a 및 도 11b에 도시된 바와 같이, 전자 장치(101)는 이미지(1110)에 이미지 효과를 제공하기 위해 렌즈 속성을 표시하기 위한 메뉴(1111)를 포함하여 표시할 수 있다. 상기 메뉴(1111)가 선택되면, 전자 장치(101)는 도 11b와 같이, 전자 장치(101)는 이미지(1120)에 조리개 메뉴(1130), 셔터 스피드 메뉴(1140), 수동 메뉴(1150) 및 프로그램 메뉴(1160)를 포함하여 표시할 수 있다. 전자 장치(101)는 사용자로부터 임의 렌즈가 선택되는 경우, 기능적으로 연결된 디스플레이에 조리개 값을 선택하는 조리개 메뉴(1130), 셔터 스피드를 조절하는 셔터 스피드 메뉴(1140), 조리개, 셔터 스피드를 사용자가 직접 조절하는 수동 메뉴(1150) 및 전자 장치(101)가 조리개 및 셔터 스피드를 자동으로 조절하는 프로그램 메뉴(1160) 를 표시할 수 있다.
이러한 도 11b의 이미지(1120)에서 조리개 메뉴(1130)가 선택되면, 전자 장치(101)는 도 11c와 같이 이미지(1121)에 조리개를 선택할 수 있는 다양한 조리개 값들(1132)를 화면에 표시할 수 있다. 사용자가 조리개 우선을 선택하는 경우, 전자 장치(101)는 기능적으로 연결된 디스플레이(150) 상에 조리개(1131)를 선택할 수 있는 정보를 표시할 수 있다. 사용자가 상기 표시된 정보 중에서 임의 값을 선택하면, 선택된 조리개에 해당되는 심도를 영상 처리를 통해 구현할 수 있다. 또한, 전자 장치(101)는 해당 조리개의 특성에 기반하여 반자동으로 셔터 스피드를 조절하여 촬영할 수 있다.
그리고, 도 11b에서 셔터 스피드 메뉴(1140)가 선택되면, 전자 장치(101)는 도 11d와 같이 이미지(1121)에 셔터 스피드를 선택할 수 있는 다양한 셔터 스피드 값들(1142)을 화면에 표시할 수 있다. 사용자가 셔터 스피드 우선을 선택하는 경우, 전자 장치(101)는 기능적으로 연결된 디스플레이(150) 상에 셔터 스피드(1141)를 선택할 수 있는 정보(1142)를 표시할 수 있다. 사용자가 상기 표시된 정보(1142)에서 임의 값을 선택하면, 전자 장치(101)는 선택된 셔터 스피드는 고정으로 되며 이에 따라 센서 감도(ISO) 조정을 통해 사진을 촬영할 수 있다. 또한, 전자 장치(101)는 선택된 셔터 스피드의 고정 모드에서 조리개 값을 변경할 수 있으며, 해당 조리개 값에 따라 심도 변화를 주는 이미지 효과를 적용할 수 있다.
그리고, 도 11b에서 수동 메뉴(1150)가 선택되면, 전자 장치(101)는 도 11e와 같이 기능적으로 연결된 디스플레이(150) 상에 조리개(1151) 및 셔터 스피드(1153)를 선택할 수 있는 정보(1152, 1154)를 표시할 수 있다. 사용자가 상기 표시된 정보(1152, 1154)에서 임의 값을 선택하면, 전자 장치(101)는 선택된 값에 따라 심도를 조절할 듯한 효과를 이미지 처리를 통해 표시하고, 고정된 셔터 스피드에 맞게 센서 감도(ISO)를 조절하여 촬영할 수 있다.
도 12는 본 발명의 다양한 실시예들에 따른 전자 장치의 블록도를 도시한다.
상기 전자 장치는 예를 들면, 도 1에 도시된 전자 장치(101)의 전체 또는 일부를 구성할 수 있다. 도 12를 참조하면, 상기 전자 장치(1201)는 하나 이상의 애플리케이션 프로세서(AP: application processor)(1210), 통신부(1220), SIM(subscriber identification module) 카드(1224), 메모리(1230), 센서부(1240), 입력 장치(1250), 디스플레이(1260), 인터페이스(1270), 오디오부(1280), 카메라부(1291), 전력 관리부(1295), 배터리(1296), 인디케이터(1297) 및 모터(1298)를 포함할 수 있다.
상기 AP(1210)는 운영체제 또는 응용 프로그램을 구동하여 상기 AP(1210)에 연결된 다수의 하드웨어 또는 소프트웨어 구성요소들을 제어할 수 있고, 멀티미디어 데이터를 포함한 각종 데이터 처리 및 연산을 수행할 수 있다. 상기 AP(1210)는 예를 들면, SoC(system on chip) 로 구현될 수 있다. 한 실시예에 따르면, 상기 AP(1210)는 GPU(graphic processing unit, 미도시)를 더 포함할 수 있다.
상기 통신부(1220)(예: 상기 통신 인터페이스(160))은 상기 전자 장치(1201)(예: 상기 전자 장치(101))와 네트워크를 통해 연결된 다른 전자 장치들(예: 전자 장치(104) 또는 서버(106)) 간의 통신에서 데이터 송수신을 수행할 수 있다. 한 실시예에 따르면, 상기 통신부(1220)는 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227), NFC 모듈(1228) 및 RF(radio frequency) 모듈(1229)를 포함할 수 있다.
상기 셀룰러 모듈(1221)은 통신망(예: LTE, LTE-A, CDMA, WCDMA, UMTS, WiBro 또는 GSM 등)을 통해서 음성 통화, 영상 통화, 문자 서비스 또는 인터넷 서비스 등을 제공할 수 있다. 또한, 상기 셀룰러 모듈(1221)은, 예를 들면, 가입자 식별 모듈(예: SIM 카드(1224))을 이용하여 통신 네트워크 내에서 전자 장치의 구별 및 인증을 수행할 수 있다. 한 실시예에 따르면, 상기 셀룰러 모듈(1221)은 상기 AP(1210)가 제공할 수 있는 기능 중 적어도 일부 기능을 수행할 수 있다. 예를 들면, 상기 셀룰러 모듈(1221)은 멀티 미디어 제어 기능의 적어도 일부를 수행할 수 있다.
한 실시예에 따르면, 상기 셀룰러 모듈(1221)은 커뮤니케이션 프로세서(CP: communication processor)를 포함할 수 있다. 또한, 상기 셀룰러 모듈(1221)은, 예를 들면, SoC로 구현될 수 있다. 도 12에서는 상기 셀룰러 모듈(1221)(예: 커뮤니케이션 프로세서), 상기 메모리(1230) 또는 상기 전력 관리부(1295) 등의 구성요소들이 상기 AP(1210)와 별개의 구성요소로 도시되어 있으나, 한 실시예에 따르면, 상기 AP(1210)가 전술한 구성요소들의 적어도 일부(예: 셀룰러 모듈(1221))를 포함하도록 구현될 수 있다.
한 실시예에 따르면, 상기 AP(1210) 또는 상기 셀룰러 모듈(1221)(예: 커뮤니케이션 프로세서)은 각각에 연결된 비휘발성 메모리 또는 다른 구성요소 중 적어도 하나로부터 수신한 명령 또는 데이터를 휘발성 메모리에 로드(load)하여 처리할 수 있다. 또한, 상기 AP(1210) 또는 상기 셀룰러 모듈(1221)은 다른 구성요소 중 적어도 하나로부터 수신하거나 다른 구성요소 중 적어도 하나에 의해 생성된 데이터를 비휘발성 메모리에 저장(store)할 수 있다.
상기 Wifi 모듈(1223), 상기 BT 모듈(1225), 상기 GPS 모듈(1227) 또는 상기 NFC 모듈(1228) 각각은, 예를 들면, 해당하는 모듈을 통해서 송수신되는 데이터를 처리하기 위한 프로세서를 포함할 수 있다. 도 12에서는 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227) 또는 NFC 모듈(1228)이 각각 별개의 블록으로 도시되었으나, 한 실시예에 따르면, 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227) 또는 NFC 모듈(1228) 중 적어도 일부(예: 두 개 이상)는 하나의 integrated chip(IC) 또는 IC 패키지 내에 포함될 수 있다. 예를 들면, 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227) 또는 NFC 모듈(1228) 각각에 대응하는 프로세서들 중 적어도 일부(예: 셀룰러 모듈(1221)에 대응하는 커뮤니케이션 프로세서 및 Wifi 모듈(1223)에 대응하는 Wifi 프로세서)는 하나의 SoC로 구현될 수 있다.
상기 RF 모듈(1229)는 데이터의 송수신, 예를 들면, RF 신호의 송수신을 할 수 있다. 상기 RF 모듈(1229)은, 도시되지는 않았으나, 예를 들면, 트랜시버(transceiver), PAM(power amp module), 주파수 필터(frequency filter) 또는 LNA(low noise amplifier) 등을 포함할 수 있다. 또한, 상기 RF 모듈(1229)는 무선 통신에서 자유 공간상의 전자파를 송수신하기 위한 부품, 예를 들면, 도체 또는 도선 등을 더 포함할 수 있다. 도 12에서는 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227) 및 NFC 모듈(1228)이 하나의 RF 모듈(1229)을 서로 공유하는 것으로 도시되어 있으나, 한 실시예에 따르면, 셀룰러 모듈(1221), Wifi 모듈(1223), BT 모듈(1225), GPS 모듈(1227) 또는 NFC 모듈(1228) 중 적어도 하나는 별개의 RF 모듈을 통하여 RF 신호의 송수신을 수행할 수 있다.
상기 SIM 카드(1224)는 가입자 식별 모듈을 포함하는 카드일 수 있으며, 전자 장치의 특정 위치에 형성된 슬롯에 삽입될 수 있다. 상기 SIM 카드(1224)는 고유한 식별 정보(예: ICCID(integrated circuit card identifier)) 또는 가입자 정보(예: IMSI(international mobile subscriber identity))를 포함할 수 있다.
상기 메모리(1230)(예: 상기 메모리(130))는 내장 메모리(1232) 또는 외장 메모리(1234)를 포함할 수 있다. 상기 내장 메모리(1232)는, 예를 들면, 휘발성 메모리(예를 들면, DRAM(dynamic RAM), SRAM(static RAM), SDRAM(synchronous dynamic RAM) 등) 또는 비휘발성 메모리(non-volatile Memory, 예를 들면, OTPROM(one time programmable ROM), PROM(programmable ROM), EPROM(erasable and programmable ROM), EEPROM(electrically erasable and programmable ROM), mask ROM, flash ROM, NAND flash memory, NOR flash memory 등) 중 적어도 하나를 포함할 수 있다.
한 실시예에 따르면, 상기 내장 메모리(1232)는 Solid State Drive (SSD)일 수 있다. 상기 외장 메모리(1234)는 flash drive, 예를 들면, CF(compact flash), SD(secure digital), Micro-SD(micro secure digital), Mini-SD(mini secure digital), xD(extreme digital) 또는 Memory Stick 등을 더 포함할 수 있다. 상기 외장 메모리(1234)는 다양한 인터페이스를 통하여 상기 전자 장치(1201)과 기능적으로 연결될 수 있다. 한 실시예에 따르면, 상기 전자 장치(1201)는 하드 드라이브와 같은 저장 장치(또는 저장 매체)를 더 포함할 수 있다.
상기 센서부(1240)는 물리량을 계측하거나 전자 장치(1201)의 작동 상태를 감지하여, 계측 또는 감지된 정보를 전기 신호로 변환할 수 있다. 상기 센서부(1240)는 예를 들면, 제스처 센서(1240A), 자이로 센서(1240B), 기압 센서(1240C), 마그네틱 센서(1240D), 가속도 센서(1240E), 그립 센서(1240F), 근접 센서(1240G), color 센서(1240H)(예: RGB(red, green, blue) 센서), 생체 센서(1240I), 온/습도 센서(1240J), 조도 센서(1240K) 또는 UV(ultra violet) 센서(1240M) 중의 적어도 하나를 포함할 수 있다. 추가적으로 또는 대체적으로, 상기 센서부(1240)는 예를 들면, 후각 센서(E-nose sensor, 미도시), EMG 센서(electromyography sensor, 미도시), EEG 센서(electroencephalogram sensor, 미도시), ECG 센서(electrocardiogram sensor, 미도시), IR(infra red) 센서(미도시), 홍채 센서(미도시) 또는 지문 센서(미도시) 등을 포함할 수 있다. 상기 센서부(1240)는 지문(finger print), 족문(foot finger print), 홍채(iris), 얼굴(face), 심장 박동수, 뇌파, 관절 및 맥박과 같은 생체 정보를 감지하거나 인식할 수 있는 적어도 하나의 센서를 포함할 수 있다. 또한, 상기 센서부(1240)는 상술한 복수의 센서 이외에 사용자의 생체 정보나 사용자의 관절의 굽힘에 따른 정보를 감지하거나 인식할 수 있는 다양한 센서를 포함할 수 있다. 상기 센서부(1240)는 그 안에 속한 적어도 하나 이상의 센서들을 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 입력 장치(1250)는 터치 패널(touch panel)(1252), (디지털) 펜 센서(pen sensor)(1254), 키(key)(1256) 또는 초음파(ultrasonic) 입력 장치(1258)를 포함할 수 있다. 상기 터치 패널(1252)는, 예를 들면, 정전식, 감압식, 적외선 방식 또는 초음파 방식 중 적어도 하나의 방식으로 터치 입력을 인식할 수 있다. 또한, 상기 터치 패널(1252)은 제어 회로를 더 포함할 수도 있다. 정전식의 경우, 물리적 접촉 또는 근접 인식이 가능하다. 상기 터치 패널(1252)은 택타일 레이어(tactile layer)를 더 포함할 수도 있다. 이 경우, 상기 터치 패널(1252)은 사용자에게 촉각 반응을 제공할 수 있다.
상기 (디지털) 펜 센서(854)는 예를 들면, 사용자의 터치 입력을 받는 것과 동일 또는 유사한 방법 또는 별도의 인식용 쉬트(sheet)를 이용하여 구현될 수 있다. 상기 키(1256)는, 예를 들면, 물리적인 버튼, 광학식 키 또는 키패드를 포함할 수 있다. 상기 초음파(ultrasonic) 입력 장치(1258)는 초음파 신호를 발생하는 입력 도구를 통해, 전자 장치(1201)에서 마이크(예: 마이크(1288))로 음파를 감지하여 데이터를 확인할 수 있는 장치로서, 무선 인식이 가능하다. 한 실시예에 따르면, 상기 전자 장치(1201)는 상기 통신부(1220)를 이용하여 이와 연결된 외부 장치(예: 컴퓨터 또는 서버)로부터 사용자 입력을 수신할 수도 있다.
상기 디스플레이(1260)(예: 상기 디스플레이(150))은 패널(1262), 홀로그램 장치(1264) 또는 프로젝터(1266)를 포함할 수 있다. 상기 패널(1262)은, 예를 들면, LCD(liquid-crystal display) 또는 AM-OLED(active-matrix organic light-emitting diode) 등일 수 있다. 상기 패널(1262)은, 예를 들면, 유연하게(flexible), 투명하게(transparent) 또는 착용할 수 있게(wearable) 구현될 수 있다. 상기 패널(1262)은 상기 터치 패널(1252)과 하나의 모듈로 구성될 수도 있다. 상기 홀로그램 장치(1264)는 빛의 간섭을 이용하여 입체 영상을 허공에 보여줄 수 있다. 상기 프로젝터(1266)는 스크린에 빛을 투사하여 영상을 표시할 수 있다. 상기 스크린은, 예를 들면, 상기 전자 장치(1201)의 내부 또는 외부에 위치할 수 있다. 한 실시예에 따르면, 상기 디스플레이(1260)는 상기 패널(1262), 상기 홀로그램 장치(1264), 또는 프로젝터(1266)를 제어하기 위한 제어 회로를 더 포함할 수 있다.
상기 인터페이스(1270)는, 예를 들면, HDMI(high-definition multimedia interface)(1272), USB(universal serial bus)(1274), 광 인터페이스(optical interface)(1276) 또는 D-sub(D-subminiature)(1278)를 포함할 수 있다. 상기 인터페이스(1270)는, 예를 들면, 도 1에 도시된 통신 인터페이스(160)에 포함될 수 있다. 추가적으로 또는 대체적으로, 상기 인터페이스(1270)는, 예를 들면, MHL(mobile high-definition link) 인터페이스, SD(secure Digital) 카드/MMC(multi-media card) 인터페이스 또는 IrDA(infrared data association) 규격 인터페이스를 포함할 수 있다.
상기 오디오부(1280)는 소리(sound)와 전기신호를 쌍방향으로 변환시킬 수 있다. 상기 오디오부(1280)의 적어도 일부 구성요소는, 예를 들면, 도 1 에 도시된 입출력 인터페이스(140)에 포함될 수 있다. 상기 오디오부(1280)는 예를 들면, 스피커(1282), 리시버(1284), 이어폰(1286) 또는 마이크(1288) 등을 통해 입력 또는 출력되는 소리 정보를 처리할 수 있다.
상기 카메라(1291)는 정지 영상 및 동영상을 촬영할 수 있는 장치로서, 한 실시예에 따르면, 하나 이상의 이미지 센서(예: 전면 센서 또는 후면 센서), 렌즈(미도시), ISP(image signal processor, 미도시) 또는 플래쉬 (flash, 미도시)(예: LED 또는 xenon lamp)를 포함할 수 있다.
상기 전력 관리부(1295)는 상기 전자 장치(1201)의 전력을 관리할 수 있다. 도시하지는 않았으나, 상기 전력 관리부(1295)는 예를 들면, PMIC(power management integrated circuit), 충전 IC(charger integrated circuit) 또는 배터리 또는 연료 게이지(battery or fuel gauge)를 포함할 수 있다.
상기 PMIC는, 예를 들면, 집적회로 또는 SoC 반도체 내에 탑재될 수 있다. 충전 방식은 유선과 무선으로 구분될 수 있다. 상기 충전 IC는 배터리를 충전시킬 수 있으며, 충전기로부터의 과전압 또는 과전류 유입을 방지할 수 있다. 한 실시예에 따르면, 상기 충전 IC는 유선 충전 방식 또는 무선 충전 방식 중 적어도 하나를 위한 충전 IC를 포함할 수 있다. 무선 충전 방식으로는, 예를 들면, 자기공명 방식, 자기유도 방식 또는 전자기파 방식 등이 있으며, 무선 충전을 위한 부가적인 회로, 예를 들면, 코일 루프, 공진 회로 또는 정류기 등의 회로가 추가될 수 있다.
상기 배터리 게이지는, 예를 들면, 상기 배터리(1296)의 잔량, 충전 중 전압, 전류 또는 온도를 측정할 수 있다. 상기 배터리(1296)는 전기를 저장 또는 생성할 수 있고, 그 저장 또는 생성된 전기를 이용하여 상기 전자 장치(1201)에 전원을 공급할 수 있다. 상기 배터리(1296)는, 예를 들면, 충전식 전지(rechargeable battery) 또는 태양 전지(solar battery)를 포함할 수 있다.
상기 인디케이터(1297)는 상기 전자 장치(1201) 혹은 그 일부(예: 상기 AP 1210)의 특정 상태, 예를 들면, 부팅 상태, 메시지 상태 또는 충전 상태 등을 표시할 수 있다. 상기 모터(1298)는 전기적 신호를 기계적 진동으로 변환할 수 있다. 도시되지는 않았으나, 상기 전자 장치(1201)는 모바일 TV 지원을 위한 처리 장치(예: GPU)를 포함할 수 있다. 상기 모바일 TV지원을 위한 처리 장치는, 예를 들면, DMB(digital multimedia broadcasting), DVB(digital video broadcasting) 또는 미디애플로우(media flow) 등의 규격에 따른 미디어 데이터를 처리할 수 있다.
본 개시에 따른 전자 장치의 전술한 구성요소들 각각은 하나 또는 그 이상의 부품(component)으로 구성될 수 있으며, 해당 구성 요소의 명칭은 전자 장치의 종류에 따라서 달라질 수 있다. 본 개시에 따른 전자 장치는 전술한 구성요소 중 적어도 하나를 포함하여 구성될 수 있으며, 일부 구성요소가 생략되거나 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 또한, 본 개시에 따른 전자 장치의 구성 요소들 중 일부가 결합되어 하나의 개체(entity)로 구성됨으로써, 결합되기 이전의 해당 구성 요소들의 기능을 동일하게 수행할 수 있다.
도 13은 다양한 실시예들에 따른 복수의 전자 장치들(예: 제1 전자 장치(1310) 및 제2 전자 장치(1330)) 사이의 통신 프로토콜(1300)을 도시한다.
도 13을 참조하면, 예를 들어, 상기 통신 프로토콜(1300)은 장치 발견 프로토콜(device discovery protocol)(1351), 기능 교환 프로토콜(capability exchange protocol)(1353), 네트워크 프로토콜(network protocol)(1355) 및 어플리케이션 프로토콜(application protocol)(1357) 등을 포함할 수 있다.
한 실시예에 따르면, 상기 장치 발견 프로토콜(1351)은 전자 장치들(예: 제1 전자 장치(1310) 또는 제2 전자 장치(1330))이 자신과 통신 가능한 외부 전자 장치를 감지하거나 감지된 외부 전자 장치와 연결하기 위한 프로토콜일 수 있다. 예를 들어, 제1 전자 장치(1310)(예: 전자 장치(101))는 상기 장치 발견 프로토콜(1351)을 이용하여, 상기 제1 전자 장치(1310)에서 사용 가능한 통신 방법(예: Wifi, BT 또는 USB 등)을 통해, 제2 전자 장치(1330)(예: 전자 장치(104))를 감지할 수 있다. 상기 제1 전자 장치(1310)는 상기 제2 전자 장치(1330)와의 통신 연결을 위해, 상기 장치 발견 프로토콜(1351)을 이용하여, 감지된 제2 전자 장치(1330)에 대한 식별 정보를 획득하여 저장할 수 있다. 상기 제1 전자 장치(1310)는 예를 들면, 적어도 상기 식별 정보에 기반하여, 상기 제2 전자 장치(1330)와의 통신 연결을 개설할 수 있다.
어떤 실시예에 따르면, 상기 장치 발견 프로토콜(1351)은 복수의 전자 장치들 사이에서 상호 인증을 하기 위한 프로토콜일 수 있다. 예를 들어, 제1 전자 장치(1310)는 적어도 하나의 제2 전자 장치(1330)와 연결을 위한 통신 정보(예: MAC(media access control) address, UUID(universally unique identifier), SSID(subsystem identification), IP(internet protocol) address)에 기반하여, 상기 제1 전자 장치(1310)와 상기 제2 전자 장치(1330) 간의 인증을 수행할 수 있다.
한 실시예에 따르면, 상기 기능 교환 프로토콜(1353)은 제1 전자 장치(1310) 또는 제2 전자 장치(1330) 중 적어도 하나에서 지원 가능한 서비스의 기능과 관련된 정보를 교환하기 위한 프로토콜일 수 있다. 예를 들어, 제1 전자 장치(1310) 및 제2 전자 장치(1330)는 상기 기능 교환 프로토콜(1353)을 통하여, 각각이 현재 제공하고 있는 서비스의 기능과 관련된 정보를 서로 교환할 수 있다. 교환 가능한 정보는 제1 전자 장치(1310) 및 제2 전자 장치(1330)에서 지원 가능한 복수의 서비스들 중에서 특정 서비스를 가리키는 식별 정보를 포함할 수 있다. 예를 들어, 제1 전자 장치(1310)는 상기 기능 교환 프로토콜(1353)을 통해 제2 전자 장치(1330)로부터 상기 제2 전자 장치(1330)가 제공하는 특정 서비스의 식별 정보를 수신할 수 있다. 이 경우, 제1 전자 장치(1310)는 상기 수신된 식별 정보에 기반하여, 상기 제1 전자 장치(1310)가 상기 특정 서비스를 지원할 수 있는지 여부를 판단할 수 있다.
한 실시예에 따르면, 상기 네트워크 프로토콜(1355)은 통신이 가능하도록 연결된 전자 장치들(예: 제1 전자 장치(1310), 제2 전자 장치(1330)) 간에, 예컨대, 서비스를 연동하여 제공하기 위하여 송수신 되는, 데이터 흐름을 제어하기 위한 프로토콜일 수 있다. 예를 들어, 제1 전자 장치(1310) 또는 제2 전자 장치(1330) 중 적어도 하나는 상기 네트워크 프로토콜(1355)을 이용하여, 오류 제어, 또는 데이터 품질 제어 등을 수행할 수 있다. 추가적으로 또는 대체적으로, 상기 네트워크 프로토콜(1355)은 제1 전자 장치(1310)와 제2 전자 장치(1330) 사이에서 송수신되는 데이터의 전송 포맷을 결정할 수 있다. 또한, 제1 전자 장치(1310) 또는 제2 전자 장치(1330) 중 적어도 하나는 상기 네트워크 프로토콜(1355)을 이용하여 상호 간의 데이터 교환을 위한 적어도 세션(session)을 관리(예: 세션 연결 또는 세션 종료)할 수 있다.
한 실시예에 따르면, 상기 어플리케이션 프로토콜(1257)은 외부 전자 장치로 제공되는 서비스와 관련된 데이터를 교환하기 위한, 절차 또는 정보를 제공하기 위한 프로토콜일 수 있다. 예를 들어, 제1 전자 장치(1310)(예: 전자 장치(101))은 상기 어플리케이션 프로토콜(1357)을 통해 제2 전자 장치(1330)(예: 전자 장치(104) 또는 서버(106))로 서비스를 제공할 수 있다.
한 실시예에 따르면, 상기 통신 프로토콜(1300)은 표준 통신 프로토콜, 개인 또는 단체에서 지정한 통신 프로토콜(예: 통신 장치 제조 업체 또는 네트워크 공급 업체 등에서 자체적으로 지정한 통신 프로토콜) 또는 이들의 조합을 포함할 수 있다.
본 개시에 사용된 용어 "모듈"은, 예를 들어, 하드웨어, 소프트웨어 또는 펌웨어(firmware) 중 하나 또는 둘 이상의 조합을 포함하는 단위(unit)를 의미할 수 있다. "모듈"은 예를 들어, 유닛(unit), 로직(logic), 논리 블록(logical block), 부품(component) 또는 회로(circuit) 등의 용어와 바꾸어 사용(interchangeably use)될 수 있다. "모듈"은, 일체로 구성된 부품의 최소 단위 또는 그 일부가 될 수 있다. "모듈"은 하나 또는 그 이상의 기능을 수행하는 최소 단위 또는 그 일부가 될 수도 있다. "모듈"은 기계적으로 또는 전자적으로 구현될 수 있다. 예를 들면, 본 개시에 따른 "모듈"은, 알려졌거나 앞으로 개발될, 어떤 동작들을 수행하는 ASIC(application-specific integrated circuit) 칩, FPGAs(field-programmable gate arrays) 또는 프로그램 가능 논리 장치(programmable-logic device) 중 적어도 하나를 포함할 수 있다.
다양한 실시예에 따르면, 본 개시에 따른 장치(예: 모듈들 또는 그 기능들) 또는 방법(예: 동작들)의 적어도 일부는, 예컨대, 프로그래밍 모듈의 형태로 컴퓨터로 읽을 수 있는 저장매체(computer-readable storage media)에 저장된 명령어로 구현될 수 있다. 상기 명령어는, 하나 이상의 프로세서 (예: 상기 프로세서(120))에 의해 실행될 경우, 상기 하나 이상의 프로세서가 상기 명령어에 해당하는 기능을 수행할 수 있다. 컴퓨터로 읽을 수 있는 저장매체는, 예를 들면, 상기 메모리(130)가 될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는, 예를 들면, 상기 프로세서(210)에 의해 구현(implement)(예: 실행)될 수 있다. 상기 프로그래밍 모듈의 적어도 일부는 하나 이상의 기능을 수행하기 위한, 예를 들면, 모듈, 프로그램, 루틴, 명령어 세트 (sets of instructions) 또는 프로세스 등을 포함할 수 있다.
상기 컴퓨터로 판독 가능한 기록 매체에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 마그네틱 매체(Magnetic Media)와, CD-ROM(Compact Disc Read Only Memory), DVD(Digital Versatile Disc)와 같은 광기록 매체(Optical Media)와, 플롭티컬 디스크(Floptical Disk)와 같은 자기-광 매체(Magneto-Optical Media)와, 그리고 ROM(Read Only Memory), RAM(Random Access Memory), 플래시 메모리 등과 같은 프로그램 명령(예: 프로그래밍 모듈)을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함될 수 있다. 또한, 프로그램 명령에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함할 수 있다. 상술한 하드웨어 장치는 본 개시의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지다.
본 개시에 따른 모듈 또는 프로그래밍 모듈은 전술한 구성요소들 중 적어도 하나 이상을 포함하거나, 일부가 생략되거나, 또는 추가적인 다른 구성요소를 더 포함할 수 있다. 본 개시에 따른 모듈, 프로그래밍 모듈 또는 다른 구성요소에 의해 수행되는 동작들은 순차적, 병렬적, 반복적 또는 휴리스틱(heuristic)한 방법으로 실행될 수 있다. 또한, 일부 동작은 다른 순서로 실행되거나, 생략되거나, 또는 다른 동작이 추가될 수 있다. 다양한 실시예에 따르면, 명령들을 저장하고 있는 저장 매체에 있어서, 상기 명령들은 적어도 하나의 프로세서에 의하여 실행될 때에 상기 적어도 하나의 프로세서로 하여금 적어도 하나의 동작을 수행하도록 설정된 것으로서, 상기 적어도 하나의 동작은 이미지 센서를 통해 영상을 획득하는 제1 명령 셋과, 어레이 카메라를 통해 획득되는 복수의 영상들을 이용하여 뎁스 정보(depth information)를 추출하는 제2 명령 셋과, 상기 추출된 뎁스 정보를 상기 획득된 영상에 적용하여 프리뷰잉하는 제3 명령 셋과, 상기 프리뷰잉되는 영상을 촬영하는 입력에 대응하여 상기 추출된 뎁스 정보를 업스케일링(Up Scaling)하여 상기 획득된 영상에 적용하고, 상기 업스케일링된 뎁스 정보가 적용된 영상을 촬영하는 제4 명령 셋을 포함을 포함할 수 있다.
그리고 본 명세서와 도면에 개시된 본 개시의 실시 예들은 본 개시의 기술 내용을 쉽게 설명하고 본 개시의 이해를 돕기 위해 특정 예를 제시한 것일 뿐이며, 본 개시의 범위를 한정하고자 하는 것은 아니다. 따라서 본 개시의 범위는 여기에 개시된 실시 예들 이외에도 본 개시의 기술적 사상을 바탕으로 도출되는 모든 변경 또는 변형된 형태가 본 개시의 범위에 포함되는 것으로 해석되어야 한다.
101: 전자 장치 110: 버스
120: 프로세서 130: 저장부
140: 입출력 인터페이스 150: 디스플레이
160: 통신 인터페이스 170: 영상 처리부

Claims (20)

  1. 전자 장치의 영상 처리 방법에 있어서,
    제1 이미지 센서를 통해 제1 영상 및 제2 영상을 획득하는 동작과,
    제2 이미지 센서를 통해 획득되는 적어도 하나의 제3 영상에서 뎁스 정보(depth information)를 추출하는 동작과,
    상기 추출된 뎁스 정보를 상기 획득된 제1 영상에 적용하여 표시하는 동작과,
    상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 동작을 포함하는 방법.
  2. 제1 항에 있어서,
    상기 획득된 영상에 적용하는 동작은,
    상기 추출된 뎁스 정보를 영상의 크기에 맞게 스케일링(scaling)하는 동작과,
    상기 영상에 상기 스케일링된 뎁스 정보를 적용하는 동작을 포함하는 방법.
  3. 제1 항에 있어서,
    상기 표시하는 동작은,
    상기 추출된 뎁스 정보를 이용하여 상기 획득된 제1 영상의 적어도 일부 영역에 이미지 효과를 적용하는 동작을 포함하는 방법.
  4. 제1 항에 있어서,
    상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 동작은,
    상기 표시되는 영상을 촬영하는 입력이 감지되기 이전 또는 이후에 수행되는 것을 특징으로 하는 방법.
  5. 제1 항에 있어서,
    상기 제2 이미지 센서는 적어도 하나의 어레이 카메라(array camera), 스테레오 카메라(Stereo Camera), TOF(Time Of Flight), Structure Light 센서 및 적외선 센서 중 적어도 하나에 포함된 이미지 센서를 포함하는 것을 특징으로 하는 방법.
  6. 제5 항에 있어서,
    상기 뎁스 정보는,
    상기 적어도 하나의 어레이 카메라(array camera), 상기 스테레오 카메라(Stereo Camera), 상기 TOF(Time Of Flight), 상기 Structure Light 센서 및 상기 적외선 센서 중 적어도 하나에 포함된 이미지 센서로부터 획득되는 영상에서 추출되는 것을 특징으로 하는 방법.
  7. 제1 항에 있어서,
    상기 뎁스 정보 또는 상기 뎁스 정보가 적용된 제2 영상을 저장하는 동작을 더 포함하는 방법.
  8. 제3 항에 있어서,
    상기 이미지 효과는 블러(Blur), 컬러, 밝기, 모자이크 및 해상도 중 적어도 하나를 조절하는 것을 특징으로 하는 방법.
  9. 제1 항에 있어서,
    상기 제1 영상이 표시되는 도중에 터치가 감지되는 경우, 상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일치시키는 동작과,
    상기 표시된 제1 영상에서 상기 피사체를 제외한 적어도 하나의 피사체에 이미지 효과를 적용하는 동작을 더 포함하는 방법.
  10. 제1 항에 있어서,
    상기 표시되는 영상에 렌즈 교체 효과를 적용하기 위한 입력이 감지되는 경우, 상기 렌즈 교체와 관련된 정보를 표시하는 동작과,
    상기 표시된 정보 중 적어도 하나의 정보의 선택에 대응하여 상기 선택된 정보를 이용하여 상기 표시된 제1 영상에 이미지 효과를 적용하는 동작을 더 포함하는 방법.
  11. 제10 항에 있어서,
    상기 정보는 렌즈의 속성을 조절하기 위한 정보이며, 조리개 값, 셔터 스피드, 수동 및 프로그램 중 적어도 하나를 포함하는 방법.
  12. 영상을 처리하는 전자 장치에 있어서,
    제1 영상 및 제2 영상을 획득하는 제1 이미지 센서와 적어도 하나의 제3 영상을 획득하는 제2 이미지 센서를 포함하는 영상 획득 모듈과,
    상기 적어도 하나의 제3 영상에서 뎁스 정보를 추출하고, 상기 추출된 뎁스 정보를 상기 획득된 제1 영상에 적용하여 표시하고, 상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 영상 처리부와,
    상기 제1 영상을 표시하는 디스플레이를 포함하는 전자 장치.
  13. 제12 항에 있어서,
    상기 영상 처리부는,
    상기 추출된 뎁스 정보를 영상의 크기에 맞게 스케일링하고, 상기 영상에 상기 스케일링된 뎁스 정보를 적용하는 것을 특징으로 하는 전자 장치.
  14. 제12 항에 있어서,
    상기 영상 처리부는,
    상기 추출된 뎁스 정보를 이용하여 상기 획득된 제1 영상의 적어도 일부 영역에 이미지 효과를 적용하는 것을 특징으로 하는 전자 장치.
  15. 제12 항에 있어서,
    상기 영상 처리부는,
    상기 표시되는 영상을 촬영하는 입력이 감지되기 이전 또는 이후에 상기 추출된 뎁스 정보를 상기 획득된 제2 영상에 적용하는 것을 특징으로 하는 전자 장치.
  16. 제12 항에 있어서,
    상기 제2 이미지 센서는 적어도 하나의 어레이 카메라(array camera) , 스테레오 카메라(Stereo Camera), TOF(Time Of Flight), Structure Light 센서 및 적외선 센서 중 적어도 하나에 포함된 이미지 센서를 포함하는 것을 특징으로 하는 전자 장치.
  17. 제16 항에 있어서,
    상기 영상 처리부는,
    상기 적어도 하나의 어레이 카메라(array camera), 상기 스테레오 카메라(Stereo Camera), 상기 TOF(Time Of Flight), Structure Light 센서 및 상기 적외선 센서 중 적어도 하나에 포함된 이미지 센서로부터 획득되는 영상에서 뎁스 정보를 추출하는 것을 특징으로 하는 전자 장치.
  18. 제12 항에 있어서,
    상기 뎁스 정보 또는 상기 뎁스 정보가 적용된 제2 영상을 저장하는 메모리를 더 포함하는 전자 장치.
  19. 제12 항에 있어서,
    상기 제1 영상이 표시되는 도중에 터치가 감지되는 경우, 상기 영상 처리부는,
    상기 터치가 감지된 지점을 중심으로 일정 영역에 해당되는 피사체의 초점을 일치시키고, 상기 표시된 제1 영상에서 상기 피사체를 제외한 적어도 하나의 피사체에 이미지 효과를 적용하는 것을 특징으로 하는 전자 장치.
  20. 제12 항에 있어서,
    상기 표시되는 영상에 렌즈 교체 효과를 적용하기 위한 입력이 감지되는 경우, 상기 영상 처리부는,
    상기 렌즈 교체와 관련된 정보를 표시하고, 상기 표시된 정보 중 적어도 하나의 정보의 선택에 대응하여 상기 선택된 정보를 이용하여 상기 표시된 제1 영상에 이미지 효과를 적용하는 것을 특징으로 하는 전자 장치.
KR1020140144398A 2014-10-23 2014-10-23 영상을 처리하는 전자 장치 및 방법 KR102251483B1 (ko)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020140144398A KR102251483B1 (ko) 2014-10-23 2014-10-23 영상을 처리하는 전자 장치 및 방법
CN201510696218.XA CN105554369B (zh) 2014-10-23 2015-10-23 用于处理图像的电子设备和方法
EP15852640.0A EP3210376A4 (en) 2014-10-23 2015-10-23 Electronic device and method for processing image
PCT/KR2015/011286 WO2016064248A1 (en) 2014-10-23 2015-10-23 Electronic device and method for processing image
US14/921,738 US9990727B2 (en) 2014-10-23 2015-10-23 Electronic device and method for processing image
AU2015337185A AU2015337185B2 (en) 2014-10-23 2015-10-23 Electronic device and method for processing image
US15/995,871 US10430957B2 (en) 2014-10-23 2018-06-01 Electronic device for processing images obtained using multiple image sensors and method for operating the same
US16/587,581 US10970865B2 (en) 2014-10-23 2019-09-30 Electronic device and method for applying image effect to images obtained using image sensor
US17/222,161 US11455738B2 (en) 2014-10-23 2021-04-05 Electronic device and method for applying image effect to images obtained using image sensor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020140144398A KR102251483B1 (ko) 2014-10-23 2014-10-23 영상을 처리하는 전자 장치 및 방법

Publications (2)

Publication Number Publication Date
KR20160047891A true KR20160047891A (ko) 2016-05-03
KR102251483B1 KR102251483B1 (ko) 2021-05-14

Family

ID=55761193

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140144398A KR102251483B1 (ko) 2014-10-23 2014-10-23 영상을 처리하는 전자 장치 및 방법

Country Status (6)

Country Link
US (4) US9990727B2 (ko)
EP (1) EP3210376A4 (ko)
KR (1) KR102251483B1 (ko)
CN (1) CN105554369B (ko)
AU (1) AU2015337185B2 (ko)
WO (1) WO2016064248A1 (ko)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220070385A1 (en) * 2018-05-07 2022-03-03 Apple Inc. Creative camera
US11617022B2 (en) 2020-06-01 2023-03-28 Apple Inc. User interfaces for managing media
US11641517B2 (en) 2016-06-12 2023-05-02 Apple Inc. User interface for camera effects
US11669985B2 (en) 2018-09-28 2023-06-06 Apple Inc. Displaying and editing images with depth information
US11682182B2 (en) 2018-05-07 2023-06-20 Apple Inc. Avatar creation user interface
US11687224B2 (en) 2017-06-04 2023-06-27 Apple Inc. User interface camera effects
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen
US11822778B2 (en) 2020-05-11 2023-11-21 Apple Inc. User interfaces related to time
US11869165B2 (en) 2010-04-07 2024-01-09 Apple Inc. Avatar editing environment
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10721405B2 (en) 2004-03-25 2020-07-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
US9826159B2 (en) 2004-03-25 2017-11-21 Clear Imaging Research, Llc Method and apparatus for implementing a digital graduated filter for an imaging apparatus
WO2005093654A2 (en) 2004-03-25 2005-10-06 Fatih Ozluturk Method and apparatus to correct digital image blur due to motion of subject or imaging device
EP4016981A3 (en) * 2013-12-24 2022-09-21 Sony Depthsensing Solutions A time-of-flight camera system
CN111371986A (zh) * 2015-03-16 2020-07-03 深圳市大疆创新科技有限公司 用于焦距调节和深度图确定的装置和方法
CN110769149B (zh) 2015-04-23 2021-05-11 苹果公司 用于处理来自多相机的内容的方法、电子设备和存储介质
US9681111B1 (en) 2015-10-22 2017-06-13 Gopro, Inc. Apparatus and methods for embedding metadata into video stream
US9667859B1 (en) 2015-12-28 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
JP6637767B2 (ja) * 2016-01-05 2020-01-29 キヤノン株式会社 電子機器およびその制御方法、ならびに遠隔撮影システム
US9922387B1 (en) 2016-01-19 2018-03-20 Gopro, Inc. Storage of metadata and images
US9967457B1 (en) 2016-01-22 2018-05-08 Gopro, Inc. Systems and methods for determining preferences for capture settings of an image capturing device
US9665098B1 (en) 2016-02-16 2017-05-30 Gopro, Inc. Systems and methods for determining preferences for flight control settings of an unmanned aerial vehicle
CN105974427B (zh) * 2016-06-24 2021-05-04 上海图漾信息科技有限公司 结构光测距装置及方法
KR102520225B1 (ko) * 2016-06-30 2023-04-11 삼성전자주식회사 전자 장치 및 전자 장치의 이미지 촬영 방법
KR102529120B1 (ko) * 2016-07-15 2023-05-08 삼성전자주식회사 영상을 획득하는 방법, 디바이스 및 기록매체
US10564740B2 (en) 2016-07-21 2020-02-18 Samsung Electronics Co., Ltd. Pen device—panel interaction based on electromagnetic signals output by the pen device
KR102488563B1 (ko) * 2016-07-29 2023-01-17 삼성전자주식회사 차등적 뷰티효과 처리 장치 및 방법
KR102622754B1 (ko) * 2016-09-07 2024-01-10 삼성전자주식회사 이미지 합성 방법 및 이를 지원하는 전자 장치
US10234524B2 (en) * 2016-10-18 2019-03-19 Siemens Healthcare Gmbh Shifted pulses for simultaneous multi-slice imaging
US9973792B1 (en) 2016-10-27 2018-05-15 Gopro, Inc. Systems and methods for presenting visual information during presentation of a video segment
WO2018076460A1 (zh) * 2016-10-28 2018-05-03 华为技术有限公司 一种终端的拍照方法和终端
US10719927B2 (en) * 2017-01-04 2020-07-21 Samsung Electronics Co., Ltd. Multiframe image processing using semantic saliency
US10187607B1 (en) 2017-04-04 2019-01-22 Gopro, Inc. Systems and methods for using a variable capture frame rate for video capture
KR102390184B1 (ko) 2017-04-26 2022-04-25 삼성전자주식회사 전자 장치 및 전자 장치의 영상 표시 방법
EP3488603B1 (en) * 2017-05-24 2021-07-28 SZ DJI Technology Co., Ltd. Methods and systems for processing an image
CN107493427A (zh) * 2017-07-31 2017-12-19 广东欧珀移动通信有限公司 移动终端的对焦方法、装置和移动终端
KR102338576B1 (ko) * 2017-08-22 2021-12-14 삼성전자주식회사 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법
CN108055452B (zh) * 2017-11-01 2020-09-18 Oppo广东移动通信有限公司 图像处理方法、装置及设备
CN107959778B (zh) * 2017-11-30 2019-08-20 Oppo广东移动通信有限公司 基于双摄像头的成像方法和装置
CN108040207A (zh) * 2017-12-18 2018-05-15 信利光电股份有限公司 一种图像处理方法、装置、设备及计算机可读存储介质
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11012694B2 (en) 2018-05-01 2021-05-18 Nvidia Corporation Dynamically shifting video rendering tasks between a server and a client
US10713756B2 (en) * 2018-05-01 2020-07-14 Nvidia Corporation HW-assisted upscaling and multi-sampling using a high resolution depth buffer
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US12034015B2 (en) 2018-05-25 2024-07-09 Meta Platforms Technologies, Llc Programmable pixel array
TWI734079B (zh) * 2018-05-29 2021-07-21 大陸商廣州印芯半導體技術有限公司 影像感測系統及其多功能影像感測器
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
EP3627511A1 (en) * 2018-09-21 2020-03-25 Samsung Electronics Co., Ltd. Method and system for automatically adding effect while recording
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
JP7171406B2 (ja) * 2018-12-12 2022-11-15 キヤノン株式会社 電子機器及びその制御方法
US10902265B2 (en) * 2019-03-27 2021-01-26 Lenovo (Singapore) Pte. Ltd. Imaging effect based on object depth information
KR20200117562A (ko) * 2019-04-04 2020-10-14 삼성전자주식회사 비디오 내에서 보케 효과를 제공하기 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
US11786694B2 (en) 2019-05-24 2023-10-17 NeuroLight, Inc. Device, method, and app for facilitating sleep
KR20220017480A (ko) * 2019-06-06 2022-02-11 어플라이드 머티어리얼스, 인코포레이티드 합성 이미지들을 생성하는 방법 및 이미징 시스템
US12108141B2 (en) * 2019-08-05 2024-10-01 Meta Platforms Technologies, Llc Dynamically programmable image sensor
CN111246106B (zh) * 2020-01-22 2021-08-03 维沃移动通信有限公司 图像处理方法、电子设备及计算机可读存储介质
KR20210098292A (ko) * 2020-01-31 2021-08-10 삼성전자주식회사 카메라를 포함하는 전자 장치 및 그 동작 방법
CN113359950A (zh) * 2020-03-06 2021-09-07 苹果公司 用于手持式电子设备的外壳结构
US12075175B1 (en) 2020-09-08 2024-08-27 Meta Platforms Technologies, Llc Programmable smart sensor with adaptive readout
US11212449B1 (en) * 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US12088748B2 (en) 2021-03-02 2024-09-10 Apple Inc. Handheld electronic device
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11632601B1 (en) * 2021-11-11 2023-04-18 Qualcomm Incorporated User interface for camera focus

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099735A (ko) * 2012-02-29 2013-09-06 삼성전자주식회사 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법
KR20140067253A (ko) * 2012-11-26 2014-06-05 삼성전자주식회사 영상 처리 장치 및 방법

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100891549B1 (ko) 2007-05-22 2009-04-03 광주과학기술원 깊이 카메라를 이용하여 보완한 깊이 정보 생성 방법 및장치, 그리고 그 방법을 수행하는 프로그램이 기록된 기록매체
JP5124372B2 (ja) 2008-07-10 2013-01-23 株式会社リコー 画像処理装置、画像処理方法およびデジタルスチルカメラ
KR101629459B1 (ko) 2009-11-05 2016-06-10 삼성전자주식회사 영상 처리 장치 및 방법
KR20110124473A (ko) * 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
JP2012044564A (ja) 2010-08-20 2012-03-01 Sanyo Electric Co Ltd 撮像装置
US20120050480A1 (en) * 2010-08-27 2012-03-01 Nambi Seshadri Method and system for generating three-dimensional video utilizing a monoscopic camera
KR20120060549A (ko) 2010-12-02 2012-06-12 전자부품연구원 사용자 단말 및 이를 이용한 영상 통화 방법
CN102314683B (zh) * 2011-07-15 2013-01-16 清华大学 一种非平面图像传感器的计算成像方法和成像装置
KR101792641B1 (ko) 2011-10-07 2017-11-02 엘지전자 주식회사 이동 단말기 및 그의 아웃 포커싱 이미지 생성방법
US9185387B2 (en) * 2012-07-03 2015-11-10 Gopro, Inc. Image blur based on 3D depth information
KR101391095B1 (ko) * 2012-11-14 2014-05-07 한양대학교 에리카산학협력단 이미지의 뎁스 정보를 이용한 스테레오 비전 이미지 개선 방법 및 장치
KR102124802B1 (ko) * 2013-06-04 2020-06-22 엘지전자 주식회사 이동 단말기 및 그것의 제어방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20130099735A (ko) * 2012-02-29 2013-09-06 삼성전자주식회사 원거리 획득이 가능한 tof카메라와 스테레오 카메라의 합성 시스템 및 방법
KR20140067253A (ko) * 2012-11-26 2014-06-05 삼성전자주식회사 영상 처리 장치 및 방법

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11869165B2 (en) 2010-04-07 2024-01-09 Apple Inc. Avatar editing environment
US12132981B2 (en) 2016-06-12 2024-10-29 Apple Inc. User interface for camera effects
US11641517B2 (en) 2016-06-12 2023-05-02 Apple Inc. User interface for camera effects
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects
US11687224B2 (en) 2017-06-04 2023-06-27 Apple Inc. User interface camera effects
US11682182B2 (en) 2018-05-07 2023-06-20 Apple Inc. Avatar creation user interface
US12033296B2 (en) 2018-05-07 2024-07-09 Apple Inc. Avatar creation user interface
US11722764B2 (en) * 2018-05-07 2023-08-08 Apple Inc. Creative camera
US20220070385A1 (en) * 2018-05-07 2022-03-03 Apple Inc. Creative camera
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11669985B2 (en) 2018-09-28 2023-06-06 Apple Inc. Displaying and editing images with depth information
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US12008230B2 (en) 2020-05-11 2024-06-11 Apple Inc. User interfaces related to time with an editable background
US11921998B2 (en) 2020-05-11 2024-03-05 Apple Inc. Editing features of an avatar
US11822778B2 (en) 2020-05-11 2023-11-21 Apple Inc. User interfaces related to time
US12099713B2 (en) 2020-05-11 2024-09-24 Apple Inc. User interfaces related to time
US12081862B2 (en) 2020-06-01 2024-09-03 Apple Inc. User interfaces for managing media
US11617022B2 (en) 2020-06-01 2023-03-28 Apple Inc. User interfaces for managing media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US12101567B2 (en) 2021-04-30 2024-09-24 Apple Inc. User interfaces for altering visual media
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
US11776190B2 (en) 2021-06-04 2023-10-03 Apple Inc. Techniques for managing an avatar on a lock screen

Also Published As

Publication number Publication date
EP3210376A1 (en) 2017-08-30
US11455738B2 (en) 2022-09-27
US9990727B2 (en) 2018-06-05
US10430957B2 (en) 2019-10-01
WO2016064248A1 (en) 2016-04-28
US10970865B2 (en) 2021-04-06
US20200027226A1 (en) 2020-01-23
AU2015337185B2 (en) 2019-06-13
CN105554369B (zh) 2020-06-23
US20180276833A1 (en) 2018-09-27
CN105554369A (zh) 2016-05-04
AU2015337185A1 (en) 2017-03-23
US20160117829A1 (en) 2016-04-28
EP3210376A4 (en) 2017-10-18
KR102251483B1 (ko) 2021-05-14
US20210225019A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
US11455738B2 (en) Electronic device and method for applying image effect to images obtained using image sensor
US11350033B2 (en) Method for controlling camera and electronic device therefor
US20210349616A1 (en) Electronic device and method for electronic device displaying image
US10623661B2 (en) Image composition method with image sensors having different angles of view and electronic device for supporting the same
US10003785B2 (en) Method and apparatus for generating images
KR102294945B1 (ko) 기능 제어 방법 및 그 전자 장치
KR102547104B1 (ko) 전자 장치 및 복수의 영상을 처리하는 방법
US20160037067A1 (en) Method for generating image and electronic device thereof
KR20160051390A (ko) 전자장치 및 전자장치의 필터 제공 방법
KR20180011539A (ko) 영상의 처리를 위한 전자 장치
KR20150141808A (ko) 구도 정보를 이용하는 전자 장치 및 이를 이용하는 촬영 방법
KR20160058519A (ko) 복수의 영상들에 대한 영상 처리
KR20150106719A (ko) 전자 장치의 촬영 위치 안내 방법 및 이를 이용한 전자 장치
KR20160055337A (ko) 텍스트 표시 방법 및 그 전자 장치
KR20150099017A (ko) 이미지를 처리하기 위한 전자 장치 및 방법
KR20150141426A (ko) 전자 장치 및 전자 장치에서의 이미지 처리 방법
KR20150110032A (ko) 영상데이터 처리 전자장치 및 방법
KR20160038563A (ko) 하나 이상의 이미지들을 추천하는 방법 및 그를 위한 전자 장치
EP3429198B1 (en) Photographing apparatus and control method thereof

Legal Events

Date Code Title Description
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right