Nothing Special   »   [go: up one dir, main page]

KR20150050486A - Image processing apparatus, image processing method and program thereof - Google Patents

Image processing apparatus, image processing method and program thereof Download PDF

Info

Publication number
KR20150050486A
KR20150050486A KR1020140149293A KR20140149293A KR20150050486A KR 20150050486 A KR20150050486 A KR 20150050486A KR 1020140149293 A KR1020140149293 A KR 1020140149293A KR 20140149293 A KR20140149293 A KR 20140149293A KR 20150050486 A KR20150050486 A KR 20150050486A
Authority
KR
South Korea
Prior art keywords
image
depth
input
pixel
depth map
Prior art date
Application number
KR1020140149293A
Other languages
Korean (ko)
Other versions
KR101709380B1 (en
Inventor
다케시 미우라
쇼고 사와이
야스히로 구로다
히로시 고야마
가즈히로 히라모토
고스케 이시구로
료 오노
Original Assignee
가부시키가이샤 모르포
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시키가이샤 모르포 filed Critical 가부시키가이샤 모르포
Publication of KR20150050486A publication Critical patent/KR20150050486A/en
Application granted granted Critical
Publication of KR101709380B1 publication Critical patent/KR101709380B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2621Cameras specially adapted for the electronic generation of special effects during image pickup, e.g. digital cameras, camcorders, video cameras having integrated special effects capability
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0075Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for altering, e.g. increasing, the depth of field or depth of focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2622Signal amplitude transition in the zone between image portions, e.g. soft edges
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2624Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects for obtaining an image which is composed of whole input images, e.g. splitscreen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20101Interactive definition of point of interest, landmark or seed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Optics & Photonics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Exposure Control For Cameras (AREA)

Abstract

The present invention provides an image processing device and the like that can generate a composite image corresponding to a desired focusing condition. In a smartphone (1), an edge detecting means (107) detects an edge as a feature from a plurality of input images taken with different focusing distances, and detects the intensity of the edge as a feature value. A depth estimating unit (111) then estimates the depth of a target pixel, which is information representing which of the input images is in focus at, with respect to the target pixel, by using the edge intensity detected by the edge detecting means (107). A depth map generating unit (113) then generates a depth map based on the estimation results by the depth estimating unit (111).

Description

화상처리장치, 화상처리방법 및 프로그램{Image processing apparatus, image processing method and program thereof}TECHNICAL FIELD The present invention relates to an image processing apparatus, an image processing method,

본 발명은, 화상처리를 행하는 화상처리장치 등에 관한 것이다. The present invention relates to an image processing apparatus and the like that perform image processing.

목적의 피사체를 카메라 등의 촬상장치에 의해서 촬상할 때에는, 그 피사체를 둘러싸는 배경도 포함한 씬(scene) 정보의 읽어들임이 행해지고, 그 씬 정보에 관련되는 화상이 출력된다. 이때, 피사체 및 배경에 대한 초점을 어떻게 맞추는지에 따라서, 출력되는 화상의 인상이 달라진다.When an object of interest is picked up by an image pickup device such as a camera, scene information including the background surrounding the object is read, and an image related to the scene information is output. At this time, depending on how the focus on the subject and the background is adjusted, the impression of the output image changes.

여기서, 목적의 피사체를 강조한 화상출력으로 하고 싶은 경우에는, 근경(近景)인 목적의 피사체에는 포커싱(合焦)하면서, 원경(遠景)인 배경은 비(非)포커싱하기 위하여, 피사계 심도를 얕게 하는 방법이 있다. 피사계 심도를 얕게 하기 위해서는, 근접촬상을 행하거나, 또는 망원렌즈를 이용하거나, 조리개를 열거나 하는 조치가 필요한데, 이들 조치를 일반인이 실시하거나, 또는 이들 조치가 가능한 하드웨어를 구비하는 것은 어렵다. 또한, 스마트폰 등의 카메라기능 구비 휴대전화에 있어서는, 하드웨어의 제약이 매우 심하고, 피사계 심도가 깊어서, 근경에서 원경까지 모두 포커싱하여 보이는 팬 포커스(pan-focus)인 화상을 출력하는 것이 주류로 되어 있어서, 널리 사용되고 있는 이들 기기의 하드웨어 상에서 피사체 심도가 얕은 화상을 취득하는 것은 곤란하다. Here, when it is desired to output an image of a target object emphasized, the depth of field is set to be shallow for focusing on a subject of a near-distant view, while focusing on a background of a distant view There is a way. In order to reduce the depth of field, it is necessary to perform close-up imaging, use a telephoto lens, or open the diaphragm. It is difficult for the general person to perform these measures or to provide hardware capable of performing these measures. Further, in a mobile phone having a camera function such as a smart phone, it is mainstream to output a pan-focus image which is very limited in hardware, deep in depth of field, Thus, it is difficult to acquire an image with a shallow depth of field on the hardware of these widely used devices.

여기서, 피사계 심도를 얕게 하는 것이 곤란한 카메라라도 목적의 피사체를 강조한 화상출력으로 하기 위하여, 특허문헌 1 등에 나타내는 바와 같이, 촬상조작이 행해지면, 피사체상(像)의 핀트가 맞은 포커싱 화상과 피사체상의 핀트가 맞지 않는 비포커싱 화상을 자동적으로 연속 촬상하고, 포커싱 화상과 비포커싱 화상을 합성함으로써, 피사체의 윤곽의 주위가 보케(bokeh, 핀트가 맞지 않음)의 화상(소위 소프트 포커스 화상)을 취득하는 기술이 제안되고 있다. Here, as shown in Patent Document 1 or the like, when an image pickup operation is performed in order to make an image output emphasizing the object of interest even with a camera in which it is difficult to make the depth of field shallow, a focused image in which a focused object image is focused, (So-called soft focus image) around the outline of the subject is obtained by combining the focused image and the non-focused image automatically and continuously capturing the unfocused non-focused image automatically Technology has been proposed.

일본 공개특허공보 제2003-8966호Japanese Laid-Open Patent Publication No. 2003-8966

그러나, 촬상에 의해서 얻어진 촬영화상에 복수의 피사체가 포함되는 경우 등에는, 일방의 피사체에 대해서 포커싱되어(핀트가 맞아) 있으나, 타방의 피사체는 비포커싱(보케되어 있음)의 합성화상을 취득하고 싶은 케이스도 있지만, 반대의 케이스, 즉 타방의 피사체에 대해서 포커싱되어 있으나, 일방의 피사체는 비포커싱의 합성화상을 취득하고 싶은 케이스도 있다. 상기와 같은 종래의 화상처리장치 등에서는, 이와 같이 소망의 포커싱 상태에 대응한 합성화상을 취득하는 것이 곤란하다는 문제가 있었다. However, when a plurality of subjects are included in the photographed image obtained by imaging, the other subject is focused (focused) on one of the two subjects but acquires a composite image of non-focused (visible) There is a case where the user wants to acquire a composite image of non-focusing although one subject is focused on the opposite case, that is, the other subject. In such conventional image processing apparatuses and the like, there is a problem that it is difficult to obtain a synthesized image corresponding to the desired focusing state.

본 발명은, 상기의 과제를 해결하기 위해서 이루어진 것으로서, 그 목적으로 하는 바는, 소망의 포커싱 상태에 대응한 합성화상을 생성 가능한 화상처리장치 등을 제공하는 것에 있다. An object of the present invention is to provide an image processing apparatus and the like capable of generating a composite image corresponding to a desired focusing state.

본 발명은, 상기의 과제를 해결하기 위하여, 다음과 같은 수단을 취한다. 다만, 후술하는 발명을 실시하기 위한 형태의 설명 및 도면에서 사용한 부호를 참고를 위하여 부기하지만, 본 발명의 구성요소는 해당 부호를 부여한 것에 한정되는 것은 아니다. In order to solve the above problems, the present invention takes the following measures. In the following description of the embodiments for carrying out the invention described below and the reference numerals used in the drawings, reference should be made to the accompanying drawings, but the constituent elements of the present invention are not limited to those given the corresponding numerals.

이상의 과제를 해결하기 위한 제1의 발명은,According to a first aspect of the present invention,

복수의 입력화상(촬상부(50)에 의해서 촬상된 복수의 촬영화상)으로부터 소정의 특징(특징량, 특징점)을 검출하는(도 4, 도 15의 스텝 A11, 도 19의 스텝 J7) 특징검출수단(도 1의 처리부(10): 예컨대 엣지검출부(107))과,(Feature amount, feature point) from a plurality of input images (a plurality of captured images picked up by the image pickup section 50) (step A11 in Figs. 4 and 15, step J7 in Fig. 19) (The processing section 10 in Fig. 1: an edge detection section 107, for example)

상기 특징검출수단의 검출결과에 근거하여 깊이 맵을 생성하는(도 4의 스텝 A17, 도 15의 스텝 F17, 도 19의 스텝 J27) 깊이 맵 생성수단(도 1의 처리부(10); 깊이 맵 생성부(113))을 구비한 화상처리장치이다. (Step A17 in Fig. 15, step F17 in Fig. 15, step J27 in Fig. 19) based on the detection result of the feature detecting means, the depth map generating means (113)).

또한, 다른 발명으로서,Further, as another invention,

복수의 입력화상(촬상부(50)에 의해서 촬상된 복수의 촬영화상)으로부터 소정의 특징(특징량, 특징점)을 검출하는 것(도 4, 도 15의 스텝 A11, 도 19의 스텝 J7)과, (Feature amount, feature point) from a plurality of input images (a plurality of captured images picked up by the image pickup section 50) (step A11 in Figs. 4 and 15, step J7 in Fig. 19) ,

상기 특징의 검출결과에 근거하여 깊이 맵을 생성하는 것(도 4의 스텝 A17, 도 15의 스텝 F17, 도 19의 스텝 J27)을 포함하는 화상처리방법을 구성해도 좋다. (Step A17 in Fig. 4, step F17 in Fig. 15, step J27 in Fig. 19) to generate a depth map based on the detection result of the feature.

또한, 다른 발명으로서,Further, as another invention,

컴퓨터(도 1의 스마트폰(1), 화상처리장치, 다른 정보처리장치)에,The computer (smart phone 1, image processing device, other information processing device in Fig. 1)

복수의 입력화상(촬상부(50)에 의해서 촬상된 복수의 촬영화상)으로부터 소정의 특징(특징량, 특징점)을 검출하는 특징검출 스텝(도 4, 도 15의 스텝 A11, 도 19의 스텝 J7)과,(A feature amount, a feature point) from a plurality of input images (a plurality of captured images picked up by the image pickup section 50) (step A11 in Figs. 4 and 15, step J7 in Fig. )and,

상기 특징검출 스텝의 검출결과에 근거하여 깊이 맵을 생성하는 깊이 맵 생성 스텝(도 4의 스텝 A17, 도 15의 스텝 F17, 도 19의 스텝 J27)을 실행시키기 위한 프로그램(도 1의 화상처리 프로그램(81))을 구성해도 좋다. (A step A17 in Fig. 4, a step F17 in Fig. 15, and a step J27 in Fig. 19) for generating a depth map based on the detection result of the feature detecting step (81).

이 제1의 발명 등에 의하면, 복수의 입력화상으로부터 소정의 특징을 검출하고, 검출한 특징에 근거하여 깊이 맵을 생성한다. 복수의 입력화상으로부터 검출한 특징에 근거함으로써, 깊이 맵을 생성할 수 있다. According to the first invention or the like, a predetermined feature is detected from a plurality of input images, and a depth map is generated based on the detected feature. Based on the features detected from the plurality of input images, a depth map can be generated.

깊이 맵은, 각 좌표의 화소에 대해서, 어느 입력화상에서 포커싱되어 있는지(즉 포커싱되어 있는 입력화상)를 특정 가능하게 하는 정보임과 함께, 각 입력화상에 대해서 포커싱되어 있는 화소의 좌표(즉 포커싱되어 있는 영역)를 특정 가능하게 하는 정보이다. 이와 같이 하여 생성한 깊이 맵에 의해서, 소망의 포커싱 상태에 대응한 합성화상을 생성하는 것이 가능해진다. 이 「소망의 포커싱 상태에 대응한 합성화상」으로서는, 예컨대, 소정의 피사체는 포커싱되어 있으나 그 외의 피사체는 비포커싱되어 있는 합성화상이나, 모든 피사체가 포커싱되어 있는 합성화상(전(全) 초점화상이라고도 함)이 포함된다. The depth map is information for specifying which input image is focused (i.e., the focused input image) with respect to the pixels of each coordinate, and the coordinates of the focused pixel for each input image (I.e., a region in which information is recorded). With the depth map generated in this manner, a composite image corresponding to a desired focusing state can be generated. As the " synthesized image corresponding to the desired focusing state ", for example, a predetermined subject is focused, but the other subject is a synthesized image that is unfocused or a composite image Quot;).

또한, 깊이 맵에 의해, 일단, 소망의 포커싱 상태에 대응한 합성화상을 생성한 후, 포커싱되는 피사체를 변경하거나, 혹은 비포커싱의 정도를 변경하거나 하여 다른 합성화상을 생성하는 것도 가능해진다. It is also possible to generate another synthesized image by modifying the subject to be focused or changing the degree of non-focusing after the synthesized image corresponding to the desired focusing state is once created by the depth map.

또한, 깊이 맵과 깊이 맵을 생성할 때에 이용한 입력화상을 기억해 두면, 소망의 포커싱 상태에 대응한 합성화상을 생성 가능하게 되기 때문에, 촬상시에 복수의 합성화상을 생성해 둘 필요가 없고, 화상데이터량을 삭감하여, 화상파일의 관리부담 등도 경감할 수 있다. In addition, it is possible to generate a composite image corresponding to a desired focusing state by storing the input image used when generating the depth map and the depth map. Therefore, it is not necessary to generate a plurality of composite images at the time of image capture, The amount of data can be reduced, and the burden of managing image files and the like can be reduced.

특히, 본 발명은, 스마트폰 등의 카메라기능 구비 휴대전화기와 같이, 피사계 심도가 깊어서, 근경에서 원경까지 모두 포커싱하여 보이는 팬 포커스인 화상을 생성하는 화상처리장치에 적합하게 적용할 수 있다. Particularly, the present invention can be suitably applied to an image processing apparatus that generates a pan-focus image in which the depth of field is deep and is focused by focusing from the root to the far-end, such as a mobile phone having a camera function such as a smart phone.

또한, 제2의 발명으로서,Further, as a second invention,

제1의 발명의 화상처리장치로서,In the image processing apparatus of the first invention,

상기 특징검출수단은, 상기 복수의 입력화상으로부터 소정의 특징량(엣지강도, DoG(Difference of Gaussian)값, 배경 정도 등)를 검출하는 특징량 검출수단(도 1의 처리부(10))을 가지고,The feature detecting means has feature amount detecting means (the processing portion 10 of Fig. 1) for detecting a predetermined feature amount (edge strength, DoG (Difference of Gaussian) value, background degree, etc.) from the plurality of input images ,

상기 특징량 검출수단에 의해 검출된 특징량을 이용하여, 대상화소(화상 중의 모든 화소, 일부의 화소)에 대해서, 상기 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 정보인 심도를 추정하는(도 4, 도 15의 스텝 A15) 심도추정수단(도 1의 심도추정부(111))을 더 구비하고,A feature amount detecting unit that detects a feature amount of each of the plurality of input images based on the feature amount detected by the feature amount detecting unit; (The depth estimating unit 111 shown in Fig. 1) for estimating the depth (step A15 in Figs. 4 and 15)

상기 깊이 맵 생성수단은, 상기 심도추정수단의 추정결과에 근거하여 상기 깊이 맵을 생성하는(도 4의 스텝 A17, 도 15의 스텝 F17), 화상처리장치를 구성해도 좋다. The depth map generating means may constitute an image processing apparatus that generates the depth map based on the estimation result of the depth estimation means (step A17 in Fig. 4, step F17 in Fig. 15).

이 제2의 발명에 의하면, 복수의 입력화상으로부터 검출한 특징량을 이용하여, 대상화소에 대해서, 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 심도를 추정한다. 대상화소에 대해서 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 심도를 추정할 수 있으면, 그 추정결과에 근거하여, 깊이 맵을 생성할 수 있다. 또한, 대상화소는, 화상 중의 모든 화소로 해도 좋고, 화상 중의 일부의 영역에 포함되는 화소로 해도 좋다. According to the second aspect of the present invention, the feature amount detected from the plurality of input images is used to estimate a depth indicating which of the plurality of input images is focused on the target pixel. The depth map can be generated based on the estimation result as long as it is possible to estimate the depth indicating which of the plurality of input images is focused on the target pixel. The target pixel may be all the pixels in the image, or may be a pixel included in a part of the image.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 특징량 검출수단은, 상기 복수의 입력화상으로부터 특징으로서 엣지를 검출하는 엣지검출수단(도 1의 엣지검출부(107))을 가지고,The feature amount detection means has edge detection means (the edge detection portion 107 in Fig. 1) for detecting an edge as a feature from the plurality of input images,

상기 심도추정수단은, 상기 엣지검출수단에 의해 검출된 엣지의 강도를 상기 특징량으로서 이용하여, 상기 대상화소에 대해서 상기 심도를 추정하는, 화상처리장치를 구성해도 좋다. The depth estimating means may use the intensity of the edge detected by the edge detecting means as the feature amount to estimate the depth with respect to the target pixel.

이 다른 발명에 의하면, 복수의 입력화상으로부터 특징으로서 엣지를 검출하고, 검출된 엣지의 강도를 특징량으로서 이용하여, 대상화소에 대해서 심도를 추정한다. 본원발명자의 발견에 의하면, 입력화상으로부터 검출되는 엣지의 강도는, 그 초점거리에 있어서의 포커싱 정도와 상관이 있다. 이로 인하여, 엣지의 강도를 특징량으로서 이용함으로써, 대상화소에 대해서 포커싱되어 있는 입력화상을 적절히 추정할 수 있다. According to this other invention, an edge is detected as a feature from a plurality of input images, and the depth of the target pixel is estimated using the intensity of the detected edge as a feature amount. According to the discovery of the inventor of the present invention, the intensity of the edge detected from the input image has a correlation with the degree of focusing at the focal length. Thus, by using the intensity of the edge as the characteristic amount, it is possible to appropriately estimate the input image focused on the target pixel.

또한, 제3의 발명으로서,Further, as a third invention,

제2의 발명의 화상처리장치로서,An image processing apparatus according to a second aspect of the present invention,

상기 심도추정수단은, 상기 특징량 검출수단에 의해 검출된 상기 복수의 입력화상 각각의 특징량을 이용하여, 상기 대상화소에 대해서, 상기 대상화소의 특징량에 대응하여 정해지는 제1종 파라미터값(코스트값(cost 値))과, 상기 대상화소에 대해서 포커싱되어 있다고 하는 제1의 입력화상과 상기 대상화소의 근방화소에 대해서 포커싱되어 있다고 하는 제2의 입력화상이 다른 경우의 패널티로서 정해지는 제2종 파라미터값(패널티값)을 이용한 소정의 적절해(適切解) 연산처리(에너지함수의 값을 최대화 또는 최소화하는 스코어값 연산처리: 도 7의 스텝 C1 ~ C7)를 행하여, 상기 대상화소에 대해서 포커싱되어 있는 입력화상을 판정하는, 화상처리장치를 구성해도 좋다. Wherein the depth estimation means calculates a depth parameter value for each of the plurality of input images detected by the feature amount detection means by using a feature amount of each of the plurality of input images, (Cost value) of the target pixel and a second input image that is focused on the vicinity of the target pixel and the first input image that is focused on the target pixel are different from each other (A score calculation process for maximizing or minimizing the value of the energy function: steps C1 to C7 in Fig. 7) using a second type parameter value (penalty value) The image processing apparatus may be configured to determine an input image that has been focused on.

이 제3의 발명에 의하면, 제1종 파라미터값과 제2종 파라미터값을 이용한 소정의 적절해 연산처리를 행함으로써, 대상화소에 대해서 포커싱되어 있는 입력화상을 적절히 판정할 수 있다. According to the third aspect of the present invention, it is possible to appropriately determine an input image focused on a target pixel by performing predetermined appropriate arithmetic processing using the first kind parameter value and the second kind parameter value.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 적절해 연산처리에 있어서, 상기 대상화소에 대해서, 상기 제1종 파라미터값으로부터 상기 제2종 파라미터값을 감산(減算)함으로써 소정의 스코어값을 연산하고,In the above-mentioned appropriate calculation processing, a predetermined score value is calculated by subtracting (subtracting) the second kind parameter value from the first kind parameter value with respect to the target pixel,

상기 심도추정수단은, 상기 대상화소에 대해서, 상기 스코어값이 소정의 높은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정하는(도 7의 스텝 C5), 화상처리장치를 구성해도 좋다. The depth estimation unit may configure the image processing apparatus to determine, for the target pixel, that the input image satisfying the predetermined high value condition is the focused image (step C5 in Fig. 7) .

이 다른 발명에 의하면, 적절해 연산처리에 있어서, 대상화소에 대해서, 제1종 파라미터값으로부터 제2종 파라미터값을 감산함으로써 스코어값을 연산하고, 대상화소에 대해서, 스코어값이 소정의 높은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정한다. 이로써, 대상화소에 대해서는 가능한 한 특징량이 큰 입력화상을 선택하면서, 근방화소에서는 가능한 한 입력화상을 변화시키지 않도록 하기 위하여, 억제를 할 수 있다. 이러한 스코어값 연산처리를 행함으로써, 대상화소에 대해서 포커싱되어 있는 입력화상을 바르게 판정할 수 있다. According to this other invention, in the arithmetic processing as appropriate, the score value is calculated by subtracting the second kind parameter value from the first kind parameter value with respect to the target pixel, and the score value is set to a predetermined high value The input image that satisfies the condition is determined as the focused input image. Thus, it is possible to suppress an input image having a large feature quantity as much as possible for a target pixel while preventing an input image from being changed as much as possible in a nearby pixel. By performing such a score calculation process, it is possible to correctly determine an input image focused on a target pixel.

또한, 다른 발명으로서, Further, as another invention,

상기 적절해 연산처리에 있어서, 상기 대상화소에 대해서, 상기 제1종 파라미터값에 상기 제2종 파라미터값을 가산함으로써 소정의 스코어값을 연산하고, In the above-mentioned appropriate arithmetic processing, a predetermined score value is calculated for the target pixel by adding the second kind parameter value to the first kind parameter value,

상기 심도추정수단은, 상기 대상화소에 대해서, 상기 스코어값이 소정의 낮은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정하는, 화상처리장치를 구성해도 좋다. The depth estimation unit may constitute an image processing apparatus for determining, for the target pixel, an input image in which the score value satisfies a predetermined low value condition as an focused image.

이 다른 발명에 의하면, 적절해 연산처리에 있어서, 대상화소에 대해서, 제1종 파라미터값에 제2종 파라미터값을 가산함으로써 스코어값을 연산하고, 대상화소에 대해서, 스코어값이 소정의 낮은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정한다. 이로써, 대상화소에 대해서 포커싱되어 있는 입력화상을 바르게 판정할 수 있다. According to this other invention, in the arithmetic processing as appropriate, the score value is calculated by adding the second-type parameter value to the first-type parameter value for the target pixel, and the score value is set to a predetermined low value The input image that satisfies the condition is determined as the focused input image. This makes it possible to correctly determine an input image focused on a target pixel.

또한, 다른 발명으로서, Further, as another invention,

상기 적절해 연산처리에 있어서, 상기 제1의 입력화상이 포커싱되어 있다고 하는 경우의 심도와 상기 제2의 입력화상이 포커싱되어 있다고 하는 경우의 심도와의 차가 클수록, 상기 제2종 파라미터값을 보다 큰 값으로 하여(도 3의 패널티값 테이블(89); P1 < P2), 상기 스코어값을 연산하는, 화상처리장치를 구성해도 좋다. The larger the difference between the depth in the case where the first input image is focused and the depth in the case where the second input image is focused in the appropriate arithmetic processing, (Penalty value table 89 in FIG. 3; P 1 < P 2 ), and the score value is calculated.

이 다른 발명에 의하면, 적절해 연산처리에 있어서, 제1의 입력화상이 포커싱되어 있다고 하는 경우의 심도와 제2의 입력화상이 포커싱되어 있다고 하는 경우의 심도와의 차가 클수록, 제2종 파라미터값을 보다 큰 값으로 하여 스코어값을 연산한다. 이로써, 대상화소의 근방화소에 대해서는, 가능한 한 초점이 가까운 입력화상이 선택되도록 스코어값을 연산할 수 있다. According to this other invention, as the difference between the depth in the case where the first input image is focused and the depth in the case where the second input image is focused is larger in the arithmetic processing as appropriate, To calculate a score value. Thereby, it is possible to calculate the score value so that an input image whose focus is as close as possible to the pixel nearest the target pixel is selected.

또한, 다른 발명으로서,Further, as another invention,

상기 적절해 연산처리에 있어서, 상기 복수의 입력화상 중 2개의 입력화상의 조합에 대응하여 개별적으로 정해지는 상기 제2종 파라미터값을 이용하여, 상기 스코어값을 연산하는, 화상처리장치를 구성해도 좋다. The image processing apparatus may be configured to calculate the score value using the second type parameter values individually determined in association with the combination of the two input images among the plurality of input images good.

이 다른 발명에 의하면, 적절해 연산처리에 있어서, 복수의 입력화상 중 2개의 입력화상의 조합에 대응하여 설정한 제2종 파라미터값을 이용하여, 스코어값을 연산한다. 예컨대, 제1의 입력화상의 초점과 제2의 입력화상의 초점이 크게 괴리되어 있는 경우에는, 제2종 파라미터로서 큰 값을 설정함으로써, 초점이 크게 괴리된 입력화상이 포커싱되어 있는 입력화상이라고 판정되기 어려워지도록 할 수 있다. According to this other invention, the score value is calculated by using the second kind parameter value set corresponding to the combination of the two input images among the plurality of input images in an appropriate arithmetic processing. For example, when the focus of the first input image and the focus of the second input image are greatly different from each other, by setting a large value as the second type parameter, an input image in which an input image with a large difference in focus is focused It is possible to make the determination difficult.

또한, 다른 발명으로서, Further, as another invention,

상기 적절해 연산처리에 있어서, 상기 입력화상을 구성하는 라인에 대하여, 상기 라인 상의 화소에 대해서 상기 스코어값(식 (2), 식 (3)의 에너지함수의 값)을 연산하고(도 7의 스텝 C3),(The value of the energy function of Expression (2) and Expression (3)) with respect to the line constituting the input image with respect to the pixel on the line, Step C3),

상기 심도추정수단은, 상기 입력화상을 구성하는 라인 상의 화소에 대해서, 상기 스코어값에 근거하여 포커싱되어 있는 입력화상을 판정하는(도 7의 스텝 C5), 화상처리장치를 구성해도 좋다. The depth estimation unit may configure the image processing apparatus to determine an input image focused on the line constituting the input image based on the score value (step C5 in Fig. 7).

이 다른 발명에 의하면, 적절해 연산처리에 있어서, 입력화상을 구성하는 라인 상의 화소에 대해서 스코어값을 연산하고, 입력화상을 구성하는 라인 상의 화소에 대해서, 스코어값에 근거하여 포커싱되어 있는 입력화상을 판정한다. 이로써, 심도추정에 대한 연산을 용이화할 수 있다. According to this other invention, in the arithmetic processing appropriately, the score value is calculated for the pixels on the line constituting the input image, and for the pixels on the line constituting the input image, the input image focused on the basis of the score value . Thus, the calculation for the depth estimation can be facilitated.

또한, 제4의 발명으로서, Further, as a fourth invention,

제3의 발명의 화상처리장치로서,An image processing apparatus according to a third aspect of the present invention,

상기 복수의 입력화상으로부터 피사체 흔들림 영역을 검출하는 피사체 흔들림 영역 검출수단(도 1의 처리부(10))을 더 구비하고,(10) of the object shaking area detecting means for detecting a shaking area of the subject from the plurality of input images,

상기 적절해 연산처리에 있어서, 상기 피사체 흔들림 영역 검출수단에 의해 검출된 피사체 흔들림 영역에 대해서, 상기 제1종 파라미터값 및 상기 제2종 파라미터값의 적어도 일방을 상기 피사체 흔들림 영역 이외의 영역에서 이용하는 파라미터값과는 다른 값으로 하여 연산을 행하는, 화상처리장치를 구성해도 좋다. Wherein at least one of the first type parameter value and the second type parameter value is used in an area other than the subject shake area for the subject shake area detected by the subject shake area detection device The image processing apparatus may be configured to perform calculation with a value different from the parameter value.

이 제4의 발명에 의하면, 복수의 입력화상으로부터 피사체 흔들림 영역을 검출한다. 그리고, 적절해 연산처리에 있어서, 상기 피사체 흔들림 영역에 대하여, 제1종 파라미터값 및 제2종 파라미터값의 적어도 일방을 피사체 흔들림 영역 이외의 영역에서 이용하는 파라미터값과는 다른 값으로 하여 연산을 행한다. 이로써, 피사체 흔들림 영역에 포함되는 화소에 대해서, 포커싱되어 있는 입력화상을 적절히 판정할 수 있다. According to the fourth invention, a subject shake area is detected from a plurality of input images. Then, in the arithmetic processing appropriately, at least one of the first kind parameter value and the second kind parameter value is set to a value different from the parameter value used in the area other than the subject shake area, with respect to the subject shake area . Thereby, it is possible to appropriately determine the focused input image with respect to the pixels included in the subject shake area.

또한, 다른 발명으로서,Further, as another invention,

상기 복수의 입력화상에 대해서 콘트라스트 보정(도 4, 도 15의 스텝 A9)을 행하는 콘트라스트 보정수단(도 1의 콘트라스트 보정부(105))을 더 구비하고,(The contrast correcting unit 105 in Fig. 1) for performing contrast correction (step A9 in Fig. 4 and Fig. 15) on the plurality of input images,

상기 특징량 검출수단은, 상기 콘트라스트 보정수단에 의해 보정된 상기 복수의 입력화상으로부터 상기 특징량을 검출하는(도 4, 도 15의 스텝 A11), 화상처리장치를 구성해도 좋다. The characteristic amount detecting means may constitute an image processing apparatus for detecting the characteristic amount from the plurality of input images corrected by the contrast correcting means (step A11 in FIG. 4 and FIG. 15).

이 다른 발명에 의하면, 복수의 입력화상에 대해서 콘트라스트 보정을 행하고, 콘트라스트 보정된 복수의 입력화상으로부터 특징량을 검출함으로써, 입력화상의 특징을 적절히 반영한 특징량을 검출하는 것이 가능해진다. According to this other invention, it is possible to detect the feature amount appropriately reflecting the feature of the input image by performing the contrast correction on the plurality of input images and detecting the feature amount from the plurality of contrast-corrected input images.

또한, 제5의 발명으로서,Further, as a fifth invention,

제2 ~ 제4 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the second to fourth aspects,

상기 복수의 입력화상의 초점이 적절히 분리되어 있는지를 판정하는(도 6의 초점분리 판정처리) 초점분리 판정수단(도 1의 초점분리 판정부(109))을 더 구비하고,(Focus separation determination unit 109 in Fig. 1) that determines whether the focal points of the plurality of input images are appropriately separated (focus separation determination processing in Fig. 6)

상기 심도추정수단은, 상기 초점분리 판정수단의 판정결과가 긍정 판정으로 된 입력화상을 이용하여, 상기 대상화소에 대해서 상기 심도를 추정하는(도 6의 스텝 B7), 화상처리장치를 구성해도 좋다. The depth estimation unit may configure the image processing apparatus to estimate the depth with respect to the target pixel using the input image in which the determination result of the focus separation determination unit is affirmative (step B7 in Fig. 6) .

이 제5의 발명에 의하면, 복수의 입력화상의 초점이 적절히 분리되어 있는지를 판정하고, 그 판정결과가 긍정 판정으로 된 입력화상을 이용하여, 대상화소에 대해서 심도를 추정한다. 입력화상의 초점이 적절히 분리되어 있지 않은 경우, 목적의 피사체와 그 이외의 배경이 적절히 분리되어 있지 않은 등의 문제가 발생한다. 여기서, 초점거리가 적절히 변경되고, 입력화상의 초점이 적절히 분리되어 있는 입력화상을 대상으로 하여, 심도의 추정을 행하도록 한다. According to the fifth invention, it is determined whether or not the foci of a plurality of input images are appropriately separated, and the depth of the target pixel is estimated using the input image whose determination result is affirmative. If the focal point of the input image is not properly separated, there arises a problem that the target object and other background are not properly separated. Here, the depth of the input image is estimated with the focus distance appropriately changed, and the input image in which the focus of the input image is properly separated.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 초점분리 판정수단은, 상기 특징량 검출수단에 의해 특징량이 검출된 상기 복수의 입력화상 각각에 대응하는 화상에 대해서, 다른 화상간의 상관값을 산출(도 6의 스텝 B1)하는 상관연산수단(도 1의 처리부(10))을 가지고, 상기 상관연산수단에 의해 산출된 상관값이 소정의 낮은 임계값 조건을 만족하는 화상에 대응하는 입력화상을, 초점이 적절히 분리되어 있는 입력화상으로 판정하는(도 6의 스텝 B5), 화상처리장치를 구성해도 좋다. The focal separation determination means calculates correlation values (Step B1 in FIG. 6) for calculating correlation values between different images for an image corresponding to each of the plurality of input images whose feature amounts are detected by the feature amount detection means (The processing unit 10 in Fig. 1), and determines that the input image corresponding to the image in which the correlation value calculated by the correlation calculating unit satisfies the predetermined low threshold value condition is an input image in which the focus is properly separated (Step B5 in Fig. 6), an image processing apparatus may be configured.

이 다른 발명에 의하면, 특징량 검출수단에 의해 특징량이 검출된 복수의 입력화상 각각에 대응하는 화상에 대해서, 다른 화상간의 상관값을 산출하고, 산출된 상관값이 소정의 낮은 임계값 조건을 만족하는 화상에 대응하는 입력화상을, 초점이 적절히 분리되어 있는 입력화상으로 판정한다. 입력화상의 초점이 적절히 분리되어 있으면, 특징량이 검출된 다른 화상간의 상관값은 어느 정도 작은 값이 될 것이다. 이로 인하여, 다른 화상간의 상관값을 지표값으로서 이용함으로써, 입력화상의 초점이 적절히 분리되어 있는지를 확실히 판정할 수 있다. According to this other invention, a correlation value between different images is calculated for an image corresponding to each of a plurality of input images whose feature amounts are detected by the feature amount detecting means, and the calculated correlation value satisfies a predetermined low threshold value condition Is determined as an input image in which the focus is appropriately separated. If the focal point of the input image is appropriately separated, the correlation value between the other images in which the feature amount is detected will be a somewhat smaller value. This makes it possible to reliably determine whether or not the focus of the input image is appropriately separated by using the correlation value between the other images as the index value.

또한, 다른 발명으로서,Further, as another invention,

상기 초점분리 판정수단은, 상기 특징량 검출수단에 의해 특징량이 검출된 상기 복수의 입력화상 각각에 대응하는 화상에 대해서, 특징의 수 또는 비율이 소정의 높은 임계값을 만족하는(도 6의 스텝 B3) 입력화상을, 초점이 적절히 분리되어 있는 입력화상으로 판정하는(도 6의 스텝 B5), 화상처리장치를 구성해도 좋다. Wherein the focus separation determination means determines whether or not the number or the ratio of the features satisfies a predetermined high threshold value for the image corresponding to each of the plurality of input images for which the feature amount is detected by the feature amount detection means B3) The image processing apparatus may be configured to determine the input image as an input image in which the focus is properly separated (step B5 in Fig. 6).

이 다른 발명에 의하면, 특징량 검출수단에 의해 특징량이 검출된 복수의 입력화상 각각에 대응하는 화상에 대해서, 특징의 수 또는 비율이 소정의 높은 임계값을 만족하는 입력화상을, 초점이 적절히 분리되어 있는 입력화상으로 판정한다. 입력화상의 초점이 적절히 분리되어 있으면, 특징의 수나 비율은 어느 정도 큰 값이 될 것이다. 따라서, 특징의 수나 비율을 지표값으로서 이용함으로써, 입력화상의 초점이 적절히 분리되어 있는지를 확실히 판정할 수 있다. According to this other invention, for an image corresponding to each of a plurality of input images whose feature quantities have been detected by the feature quantity detecting means, an input image satisfying a predetermined high threshold value in the number or ratio of the features, As the input image. If the focus of the input image is appropriately separated, the number and the ratio of the features will be somewhat large. Therefore, it is possible to reliably determine whether or not the focus of the input image is appropriately separated by using the number or the ratio of the features as the index value.

또한, 제6의 발명으로서,Further, as a sixth invention,

제2 ~ 제5 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the second to fifth aspects,

상기 특징량 검출수단은, 상기 복수의 입력화상 또는 상기 복수의 입력화상을 축소한 축소 입력화상(도 1의 입력화상 축소부(101))으로부터 상기 특징량을 검출하고(도 4의 스텝 A11),The characteristic amount detecting means detects the characteristic amount from the reduced input image (the input image reducing unit 101 in Fig. 1) obtained by reducing the plurality of input images or the plurality of input images (step A11 in Fig. 4) ,

상기 깊이 맵 생성수단은, 상기 심도추정수단의 추정결과에 근거하여, 축소된 깊이 맵을 생성하는(도 4의 스텝 A17), 화상처리장치를 구성해도 좋다. The depth map generating means may construct an image processing apparatus that generates a reduced depth map based on the estimation result of the depth estimation means (step A17 in Fig. 4).

이 제6의 발명에 의하면, 복수의 입력화상 또는 복수의 입력화상을 축소한 축소 입력화상으로부터 특징량을 검출한다. 그리고, 심도의 추정결과에 근거하여, 축소된 깊이 맵을 생성한다. 복수의 입력화상, 또는, 복수의 입력화상을 축소한 축소 입력화상에 대해서, 상기의 발명의 깊이 맵 생성수법을 적용함으로써, 축소된 깊이 맵을 생성할 수 있다. 축소 깊이 맵은, 깊이 맵에 비하여 용량이 작기 때문에, 메모리에 기억시킬 때에 메모리용량의 삭감이 이루어진다. According to the sixth aspect of the present invention, a feature quantity is detected from a plurality of input images or a reduced input image obtained by reducing a plurality of input images. Then, based on the estimation result of the depth, a reduced depth map is generated. The reduced depth map can be generated by applying the depth map generation method of the present invention to a plurality of input images or a reduced input image obtained by reducing a plurality of input images. Since the reduced depth map has a smaller capacity than the depth map, the memory capacity is reduced when it is stored in the memory.

또한, 제7의 발명으로서,Further, as a seventh invention,

제6의 발명의 화상처리장치로서,An image processing apparatus according to a sixth aspect of the present invention,

상기 축소된 깊이 맵을 복원하는(도 4의 스텝 A19) 복원수단(도 1의 깊이 맵 복원부(115))과,(Depth map restoring unit 115 in Fig. 1) for restoring the reduced depth map (step A19 in Fig. 4)

상기 복원수단에 의해 복원된 깊이 맵을, 소정의 수정용 화상(입력화상)을 이용하여 수정한 깊이 맵을 생성하는(도 4의 스텝 A21) 수정수단(도 1의 깊이 맵 수정부(117))을 더 구비한, 화상처리장치를 구성해도 좋다. (Step A21 in Fig. 4) of generating a depth map in which the depth map restored by the restoration means is corrected using a predetermined correction image (input image) The image processing apparatus may further comprise:

이 제7의 발명에 의하면, 축소된 깊이 맵을 소정의 복원방법을 이용하여 복원한다. 이와 같이 하여 복원된 깊이 맵은, 그 복원에 의해, 심도의 경계가 되는 부분에서 요철이 발생하거나, 피사체의 경계부분에 있어서의 엣지의 위치가 어긋나 버리는 등의 문제가 발생한다. 여기서, 복원된 깊이 맵인 복원 깊이 맵을, 소정의 수정용 화상을 이용하여 수정한 깊이 맵을 생성한다. 이로써, 상기의 문제를 해소하여, 적절한 깊이 맵을 얻을 수 있다. According to the seventh invention, the reduced depth map is restored using a predetermined restoration method. The reconstruction of the depth map in this way causes a problem such that irregularities occur in a portion which becomes the boundary of the depth or the position of the edge in the boundary portion of the object deviates. Here, a depth map is created by modifying the restoration depth map, which is the restored depth map, by using a predetermined correction image. Thus, the above problem can be solved and an appropriate depth map can be obtained.

또한, 제8의 발명으로서,Further, as an eighth invention,

제1의 발명의 화상처리장치로서,In the image processing apparatus of the first invention,

상기 특징검출수단은, 시차(視差)가 발생하는 복수의 시점(視点)에서 촬상된 촬영화상(시차방식으로 촬상된 촬영화상)을 상기 복수의 입력화상으로 하여, 상기 입력화상으로부터 특징점을 검출하는(도 19의 스텝 J7) 특징점 검출수단(도 1의 처리부(10))을 가지고,Wherein the feature detecting means detects the feature points from the input image by using the captured images (captured images captured in a parallax system) captured at a plurality of viewpoints (viewpoints) at which parallax occurs, as the plurality of input images (Step J7 in Fig. 19). With the feature point detecting means (the processing section 10 in Fig. 1)

상기 특징점 검출수단에 의해서 검출된 특징점에 근거하여, 상기 복수의 촬영화상 각각의 시점의 상대적인 위치관계(카메라행렬: 회전행렬, 병진(竝進, translation) 이동벡터)를 추정하는(도 19의 스텝 J23) 시점 위치관계 추정수단(도 1의 처리부(10))과,(Camera matrix: rotation matrix, translational motion, translational motion vector) of each of the plurality of captured images based on the feature points detected by the feature point detection means J23) viewpoint positional relationship estimation means (the processing section 10 in Fig. 1)

소정의 추정연산(번들조정(bundle adjustment))을 행하여, 상기 복수의 입력화상을 구성하는 화소의 3차원의 위치를 추정하는(도 19의 스텝 J25) 화소위치 추정수단(도 1의 처리부(10))을 더 구비하고,(Step J25 in Fig. 19) for estimating a three-dimensional position of a pixel constituting the plurality of input images by performing a predetermined estimation calculation (bundle adjustment) ),

상기 깊이 맵 생성수단은, 상기 시점 위치관계 추정수단의 추정결과와 상기 화소위치 추정수단의 추정결과에 근거하여, 상기 깊이 맵을 생성하는(도 19의 스텝 J27), 화상처리장치를 구성해도 좋다. The depth map generating means may configure the image processing apparatus to generate the depth map based on the estimation result of the viewpoint positional relation estimation means and the estimation result of the pixel position estimation means (Step J27 in Fig. 19) .

이 제8의 발명에 의하면, 시차가 발생하는 복수의 시점에서 촬상된 촬영화상으로부터 검출된 특징점에 근거하여 추정한 시점의 상대적인 위치관계와, 소정의 추정연산을 행하여 추정한 복수의 입력화상을 구성하는 화소의 3차원의 위치에 근거하여, 깊이 맵을 적절히 생성할 수 있다. According to the eighth aspect of the present invention, a relative positional relationship between a point of time estimated based on a feature point detected from a captured image captured at a plurality of time points where parallax occurs, and a plurality of input images estimated by performing a predetermined estimation calculation The depth map can be appropriately generated based on the three-dimensional position of the pixel.

또한, 제9의 발명으로서,Further, as a ninth invention,

제8의 발명의 화상처리장치로서,An image processing apparatus according to an eighth aspect of the present invention,

상기 시점 위치관계 추정수단은,The viewpoint position relation estimating means estimates,

상기 특징점 검출수단에 의해서 검출된 특징점을 추적하는(도 19의 스텝 J11) 특징점 추적수단(도 1의 처리부(10))과,A feature point tracking unit (the processing unit 10 in Fig. 1) that tracks feature points detected by the feature point detection unit (step J11 in Fig. 19)

상기 특징점 추적수단의 추적결과에 근거하여, 상기 복수의 입력화상 중에서 기점(基点)이 되는 입력화상인 기점 입력화상(베이스 프레임)을 추출하는(도 19의 스텝 J13) 기점 입력화상 추출수단(도 1의 처리부(10))을 가지고, 상기 기점 입력화상 추출수단에 의해서 추출된 기점 입력화상에 대해서 상기 특징점 검출수단에 의해서 검출된 특징점에 근거하여, 상기 복수의 촬영화상 각각의 시점의 상대적인 위치관계를 추정하는, 화상처리장치를 구성해도 좋다. (Step J13 in Fig. 19) for extracting a starting point input image (base frame) which is an input image which is a starting point (base point) in the plurality of input images based on the tracking result of the minutia point tracking means (10)), wherein, based on the feature points detected by the feature point detection means, the relative positional relationship between the start point of each of the plurality of shot images with respect to the base point input image extracted by the base point input image extraction means The image processing apparatus according to the present invention may be configured.

이 제9의 발명에 의하면, 특징점을 추적한 추적결과에 근거하여 복수의 입력화상 중에서 추출한 기점 입력화상에 대해서 검출된 특징점에 근거하여, 복수의 촬영화상 각각의 시점의 상대적인 위치관계를 정확하게 추정할 수 있다. According to the ninth aspect of the present invention, on the basis of the feature points detected with respect to the base input image extracted from the plurality of input images on the basis of the tracking results obtained by tracking the feature points, the relative positional relationship between the viewpoints of the plurality of captured images can be accurately estimated .

또한, 제10의 발명으로서,Further, as a tenth invention,

제8 또는 제9의 발명의 화상처리장치로서,An image processing apparatus according to the eighth or ninth aspect of the present invention,

표시수단(도 1의 표시부(30))과,The display means (display portion 30 in Fig. 1)

상기 복수의 촬영화상에 시차를 발생시키기 위한 자기장치(自裝置)의 이동방법(이동방향, 이동량)을 상기 유저에게 가이드하기 위한 가이드표시(도 22의 가이드 화살표, 가이드 도형)를 상기 표시수단에 표시시키는 제어를 행하는 표시제어수단(도 1의 표시제어부(127))을 더 구비한, 화상처리장치를 구성해도 좋다. (Guide arrows and guide diagrams in Fig. 22) for guiding the user to the moving method (moving direction, moving amount) of the magnetic device for causing a parallax to the plurality of captured images to the display means (The display control unit 127 of Fig. 1) for controlling the display of the image data.

이 제10의 발명에 의하면, 상기 복수의 촬영화상에 시차를 발생시키기 위한 자기장치의 이동방법을 유저에게 가이드하기 위한 가이드표시를 표시함으로써, 유저는, 깊이 맵의 생성을 위해서, 어떻게 자기장치를 이동시키면 좋은지를 알 수 있기 때문에, 매우 편리하다. According to the tenth aspect of the present invention, by displaying the guide display for guiding the user to the moving method of the magnetic device for generating the parallax in the plurality of captured images, the user can see how the magnetic device It is very convenient because you can see if it should be moved.

또한, 제11의 발명으로서,Further, as an eleventh invention,

자기장치의 이동 제량(諸量, amount)(이동거리, 이동방향)을 검출하는 이동 제량 검출수단(도 1의 관성센서(75)(가속도센서, 자이로센서), 처리부(10), 관성계측유닛(IMU), GPS 유닛, 관성항법장치(INS)을 더 구비하고,(Inertial sensor 75 (acceleration sensor, gyro sensor), processing unit 10, and inertial measurement unit (see FIG. 1)) for detecting a movement amount (amount, (IMU), a GPS unit, and an inertial navigation system (INS)

상기 표시제어수단은, 상기 이동 제량 검출수단의 검출결과에 근거하여, 상기 가이드표시의 표시(도 22의 가이드 화살표의 표시위치나 가이드 도형의 표시위치)를 변화시키는, 화상처리장치를 구성해도 좋다. The display control means may constitute an image processing apparatus for changing the display of the guide display (the display position of the guide arrow or the display position of the guide graphic form in Fig. 22) based on the detection result of the movement amount detecting means .

이 제11의 발명에 의하면, 검출한 자기장치의 이동 제량에 근거하여 가이드표시의 표시를 변화시킴으로써, 자기장치의 적절한 이동방향이나 이동거리를 유저에게 알리는 것이 가능해진다. According to the eleventh invention, by changing the display of the guide display based on the detected moving amount of the magnetic device, it is possible to notify the user of the appropriate moving direction and moving distance of the magnetic device.

또한, 제12의 발명으로서,Further, as a twelfth invention,

제1 ~ 제11 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the first to eleventh aspects,

상기 깊이 맵과 상기 복수의 입력화상을 이용하여 전(全) 초점화상을 생성하는(도 4, 도 19의 스텝 A23) 전 초점화상 생성수단(도 1의 전 초점화상 생성부(119))을 더 구비한, 화상처리장치를 구성해도 좋다. (Fore-focus image generating unit 119 in Fig. 1) (step A23 in Fig. 4 and Fig. 19) for generating a full focus image using the depth map and the plurality of input images The image processing apparatus may be further provided.

이 제12의 발명에 의하면, 깊이 맵과 복수의 입력화상을 이용함으로써, 입력화상을 구성하는 화소 각각에 대하여 포커싱되어 있는 상태의 화상인 전 초점화상을 생성할 수 있다. According to the twelfth aspect, by using the depth map and the plurality of input images, it is possible to generate a foreground image which is an image in a focused state for each of the pixels constituting the input image.

또한, 다른 발명으로서,Further, as another invention,

상기 깊이 맵 생성수단에 의해 생성된 깊이 맵과 상기 복수의 입력화상을 이용하여 전 초점화상을 생성하는(도 15의 스텝 F19) 전 초점화상 생성수단(도 1의 전 초점화상 생성부(119))과,(Fore-focus image generation unit 119 of FIG. 1) for generating a foreground image using the depth map generated by the depth map generation unit and the plurality of input images (step F19 of FIG. 15) )and,

상기 깊이 맵 생성수단에 의해 생성된 깊이 맵을 소정의 축소방법을 이용하여 축소하는(도 15의 스텝 F21) 깊이 맵 축소수단(도 1의 깊이 맵 축소부(121))과,(Depth map reducing section 121 in Fig. 1) for reducing the depth map generated by the depth map generating means by using a predetermined reduction method (step F21 in Fig. 15)

상기 축소된 깊이 맵인 축소 깊이 맵을 상기 복수의 입력화상 및 상기 전 초점화상의 적어도 일방과 대응시켜서 기억하는 기억수단(도 1의 기억부(80), 화상데이터 세트(83))을 더 구비한, 화상처리장치를 구성해도 좋다. (Storage unit (80), image data set (83) in FIG. 1) for storing the reduced depth map, which is the reduced depth map, in correspondence with at least one of the plurality of input images and the foreground image , An image processing apparatus may be configured.

이 다른 발명에 의하면, 깊이 맵 생성수단에 의해 생성된 깊이 맵과 복수의 입력화상을 이용하여 전 초점화상을 생성한다. 그리고, 깊이 맵 생성수단에 의해 생성된 깊이 맵을 소정의 축소방법을 이용하여 축소하고, 축소된 깊이 맵인 축소 깊이 맵을 복수의 입력화상 및 전 초점화상의 적어도 일방과 대응시켜서 기억한다. 축소 깊이 맵을 기억함으로써, 깊이 맵 그 자체를 기억하는 경우와 비교하여 메모리용량의 삭감이 이루어진다. 또한, 복수의 입력화상이나 전 초점화상과 대응시켜서 기억해 둠으로써, 이후에 이들의 화상정보를 이용하여 전 초점화상의 수정 등을 행하거나, 다른 장치에서 이들 화상정보를 이용하는 것이 가능해진다. According to this other invention, a foreground image is generated by using the depth map generated by the depth map generating means and a plurality of input images. Then, the depth map generated by the depth map generating means is reduced using a predetermined reduction method, and the reduced depth map, which is a reduced depth map, is stored in correspondence with at least one of a plurality of input images and a foreground image. By storing the reduced depth map, the memory capacity can be reduced compared with the case of storing the depth map itself. Further, by memorizing in correspondence with a plurality of input images or fore-focus images, it is possible to subsequently modify the fore-focus image using these image information, or use these image information in other apparatuses.

또한, 다른 발명으로서,Further, as another invention,

상기 기억수단에 기억된 축소 깊이 맵을 소정의 복원방법을 이용하여 복원(도 15의 스텝 A47)하는 깊이 맵 복원수단(도 1의 깊이 맵 복원부(115))과,(Depth map restoring unit 115 in Fig. 1) for restoring the reduced depth map stored in the storage unit using a predetermined restoration method (step A47 in Fig. 15)

상기 복원된 깊이 맵인 복원 깊이 맵을 소정의 수정용 화상을 이용하여 수정(도 15의 스텝 A49)하는 수정수단(도 1의 깊이 맵 수정부(117))을 더 구비한, 화상처리장치를 구성해도 좋다. (Step A49 in Fig. 15) for correcting the restored depth map, which is the restored depth map, by using a predetermined correction image (depth map correction unit 117 in Fig. 1) Maybe.

이 다른 발명에 의하면, 기억수단에 기억된 축소 깊이 맵을 소정의 복원방법을 이용하여 복원한다. 그리고, 복원된 깊이 맵인 복원 깊이 맵을 소정의 수정용 화상을 이용하여 수정한다. 복원된 깊이 맵은, 그 복원에 의해, 심도의 경계가 되는 부분에서 요철이 발생하거나, 피사체의 경계부분에 있어서의 엣지의 위치가 어긋나 버리는 등의 문제가 발생한다. 여기서, 복원된 깊이 맵인 복원 깊이 맵을, 소정의 수정용 화상을 이용하여 수정한다. 이로써, 상기의 문제를 해소하여, 적절한 깊이 맵을 얻을 수 있다. According to this other invention, the reduced depth map stored in the storage means is restored using a predetermined restoration method. Then, the restoration depth map, which is the restored depth map, is corrected using a predetermined correction image. The reconstructed depth map causes a problem such that irregularities occur in a portion that becomes the boundary of the depth or that the position of the edge in the boundary portion of the object deviates. Here, the restoration depth map, which is the restored depth map, is corrected using a predetermined correction image. Thus, the above problem can be solved and an appropriate depth map can be obtained.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 수정용 화상은, 상기 기억수단에 대응시켜서 기억된 전 초점화상 또는 상기 복수의 입력화상 중 적어도 어느 일방의 입력화상이고,Wherein the correction image is at least one of a front-focus image stored in association with the storage means or the plurality of input images,

상기 수정수단은, 상기 복원 깊이 맵 중 수정 대상화소에 대해서, 상기 수정 대상화소의 근방화소의 깊이 맵의 화소값에, 상기 수정 대상화소의 수정용 화상의 화소값과 상기 근방화소의 수정용 화상의 화소값이 가까운 값일수록 높은 가중치 부여를 하고, 또한, 상기 수정 대상화소와 상기 근방화소와의 거리가 가까울수록 높은 가중치 부여를 한 가중평균화 처리(식 (3)에 의한 가중평균화 처리)을 행하여, 상기 수정 대상화소의 복원 깊이 맵의 화소값을 수정하는, 화상처리장치를 구성해도 좋다. The correction means corrects the pixel value of the correction target image of the correction target pixel and the correction image of the vicinity pixel of the correction target pixel with the pixel value of the depth map of the vicinity pixel of the correction target pixel, Weighted averaging process (weighted averaging process according to the equation (3)) is performed with a higher weighting value as the pixel value of the pixel to be corrected becomes closer to the target pixel and the closer the distance between the correction target pixel and the neighboring pixel becomes , And the pixel value of the restoration depth map of the correction target pixel is corrected.

이 다른 발명에 의하면, 수정용 화상으로서, 상기 기억수단에 대응시켜서 기억된 전 초점화상 또는 상기 복수의 입력화상 중 적어도 어느 일방의 입력화상을 이용한다. 그리고, 복원 깊이 맵 중 수정 대상화소에 대해서, 상기 수정 대상화소의 근방화소의 깊이 맵의 화소값에, 상기 수정 대상화소의 수정용 화상의 화소값과 상기 근방화소의 수정용 화상의 화소값이 가까운 값일수록 높은 가중치 부여를 하고, 또한, 상기 수정 대상화소와 상기 근방화소와의 거리가 가까울수록 높은 가중치 부여를 한 가중평균화 처리를 행하여, 상기 수정 대상화소의 복원 깊이 맵의 화소값을 수정한다. 이 수법에 의해, 전경(前景)과 배경(背景)과의 경계가 명확해진 깊이 맵을 얻을 수 있다. According to this other invention, as the correction image, at least one of the input image of the fore-focus image stored in association with the storage means or the plurality of input images is used. The pixel value of the correction image of the correction target pixel and the pixel value of the correction image of the neighboring pixel are set to the pixel value of the depth map of the vicinity pixel of the correction target pixel, The pixel value of the restoration depth map of the correction subject pixel is corrected by performing a weighted averaging process with a higher weighting value as the distance between the correction subject pixel and the adjacent pixel becomes closer . By this method, a depth map in which the boundary between the foreground and the background is clear can be obtained.

또한, 제13의 발명으로서,Further, as a thirteenth invention,

제1 ~ 제12 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the first to twelfth aspects,

표시수단(도 1의 표시부(30))과,The display means (display portion 30 in Fig. 1)

유저 조작을 접수하는 입력수단(도 1의 입력부(20))과,An input unit (input unit 20 in Fig. 1) for accepting a user operation,

상기 입력수단에 대한 유저 조작에 대응하여, 상기 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을, 상기 특정 심도 이외의 심도에 상당하는 입력화상에 적용한 합성화상을 생성하는 합성화상 생성수단(도 1의 강조화상 생성부(123))을 더 구비하고,A composite image obtained by applying a pixel value of a pixel in an input image corresponding to a specific depth to an input image corresponding to a depth other than the specific depth on the basis of the depth map in response to a user operation on the input means Further comprises synthesized image generating means (emphasis image generating section 123 in Fig. 1)

상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치를 구성해도 좋다. The display means may constitute an image processing apparatus for displaying a composite image generated by the composite image generating means.

이 제13의 발명에 의하면, 유저 조작을 접수하는 입력수단으로부터 입력되는 유저 조작에 대응하여, 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을, 특정 심도 이외의 심도에 상당하는 입력화상에 합성한 합성화상을 생성한다. 생성한 합성화상을 표시한다. 이로써, 예컨대, 유저에 의해 지정된 부분에 포커스가 맞춰진 합성화상을 생성하여, 유저에게 열람시키는 것이 가능해진다. According to the thirteenth aspect of the present invention, the pixel value of the pixel in the input image corresponding to the specific depth is calculated at a depth other than the specific depth, based on the depth map, corresponding to the user operation input from the input means for accepting the user operation And generates a composite image synthesized with the corresponding input image. And displays the generated composite image. This makes it possible to generate a synthesized image focused on a portion designated by the user, for example, and to view it to the user.

또한, 제14의 발명으로서,Further, as a fourteenth invention,

제12의 발명의 화상처리장치로서,An image processing apparatus according to a twelfth aspect of the present invention,

표시수단(도 1의 표시부(30))과,The display means (display portion 30 in Fig. 1)

유저 조작을 접수하는 입력수단(도 1의 입력부(20))과,An input unit (input unit 20 in Fig. 1) for accepting a user operation,

상기 전 초점화상에 대해서 셰이딩(shading) 처리를 행하는 셰이딩 처리수단(도 1의 처리부(10))을 가지고, 상기 입력수단에 대한 유저 조작에 대응하여, 상기 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을 상기 셰이딩 처리의 결과의 화상에 합성한 합성화상을 생성하는 합성화상 생성수단(도 1의 강조화상 생성부(123))을 더 구비하고,(10) of the shading processing unit (10) for shading the foreground image, and corresponding to a user operation on the input unit, the shading processing unit (An emphasized image generating unit 123 in Fig. 1) for generating a synthesized image in which a pixel value of a pixel in the input image is combined with an image resulting from the shading process,

상기 표시수단은, 상기 합성화상 생성수단에 의해 생성된 합성화상을 표시하는, 화상처리장치를 구성해도 좋다. The display means may constitute an image processing apparatus which displays the composite image generated by the composite image generating means.

이 제14의 발명에 의하면, 유저 조작을 접수하는 입력수단으로부터 입력되는 유저 조작에 대응하여, 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을, 전 초점화상에 대해서 셰이딩 처리를 행한 결과의 화상에 합성한 합성화상을 생성하고, 생성한 합성화상을 표시한다. 이로써, 예컨대, 유저에 의해 지정된 부분에 포커스가 맞춰진 합성화상을 생성하여, 유저에게 열람시키는 것이 가능해진다. According to the fourteenth invention, the pixel value of the pixel in the input image corresponding to the specific depth is shaded with respect to the foreground image based on the depth map, corresponding to the user operation input from the input means for accepting the user operation A synthesized image synthesized with the processed image is generated, and the synthesized image thus generated is displayed. This makes it possible to generate a synthesized image focused on a portion designated by the user, for example, and to view it to the user.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 합성화상 생성수단은, 유저 조작에 의해 지정된 화상 상의 영역이 상기 셰이딩 처리가 행해진 영역인지 아닌지를 판정하고, 그 판정결과가 긍정 판정인 경우에, 상기 영역의 셰이딩 정도를 상기 소정의 셰이딩 정도와는 다른 셰이딩 정도로 변경하여, 상기 합성화상에 대해서 다시 셰이딩 처리를 행하는, 화상처리장치를 구성해도 좋다. Wherein the composite image generation means determines whether or not an area on the image specified by the user operation is an area in which the shading process has been performed and, if the determination result is affirmative, the degree of shading of the area is set to the predetermined shading degree May be changed to another degree of shading, and the shading processing may be performed again on the composite image.

이 다른 발명에 의하면, 유저 조작에 의해 지정된 화상 상의 영역에 대하여, 셰이딩 처리에 의해서 일단 셰이딩된 화상을 셰이딩 정도를 변경하여, 다시 셰이딩한 합성화상을 생성할 수 있다. 이로써, 예컨대, 합성화상에 있어서 이미 셰이딩된 부분을 유저가 탭 하는 것에 의해, 그 부분의 셰이딩 정도를 변경하는(강하게 하는 또는 약하게 하는) 등의 것이 가능해진다. According to this other invention, it is possible to change the degree of shading of the image once shaded by the shading processing on the area on the image designated by the user operation, and to generate the re-shaded composite image. This makes it possible, for example, to change (shine or weaken) the degree of shading of the portion of the synthesized image by the user tapping the already shaded portion.

또한, 제15의 발명으로서,Further, as a fifteenth invention,

제14의 발명의 화상처리장치로서,In the image processing apparatus of the fourteenth aspect,

상기 입력수단에 대한 유저 조작(아이콘 조작, 탭 조작)에 대응하여, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 상기 유저가 지정하기 위한 지정용 도형(도 25의 타원형의 도형이나 원형, 사각형의 도형)을 상기 표시수단에 표시시키는 표시제어수단(도 1의 표시제어부(127))을 더 구비하고,(An elliptical shape, a circular shape, or a rectangular shape in Fig. 25) for specifying the focusing target area that is a focusing target area by the user in correspondence with the user operation (icon operation, tap operation) (The display control unit 127 of Fig. 1) for displaying on the display means,

상기 합성화상 생성수단은, 상기 깊이 맵에 근거하여, 상기 입력화상 중 상기 지정용 도형에 포함되는 화소의 심도를 상기 특정 심도로 하여, 상기 합성화상을 생성하는, 화상처리장치를 구성해도 좋다. The synthesized image generating means may construct an image processing apparatus that generates the synthesized image with the depth of the pixel included in the designation figure in the input image as the specific depth based on the depth map.

이 제15의 발명에 의하면, 입력수단에 대한 유저 조작에 대응하여, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 유저가 지정하기 위한 지정용 도형을 표시수단에 표시시킴으로써, 유저는, 간단하고 쉬운 조작에 의해서 포커싱 대상영역을 지정할 수 있다. According to the fifteenth aspect of the present invention, in response to the user's operation on the input means, the display means displays a designation figure for allowing the user to designate the focusing target area, which is the area to be focused on, The area to be focused can be designated.

또한, 제16의 발명으로서,Further, as a sixteenth invention,

제15의 발명의 화상처리장치로서. An image processing apparatus according to the fifteenth aspect of the present invention.

상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널을 가지고,Wherein the input means has a touch panel integrally formed with the display means,

상기 표시제어수단은, 상기 지정용 도형을 상기 표시수단에 표시시킨 후, (1) 상기 지정용 도형에 대한 핀치조작(핀치아웃 조작/핀치인 조작), (2) 상기 지정용 도형에 대한 복수 회의 탭 조작(더블 탭 조작), (3) 상기 지정용 도형에 대해서 탭 조작을 계속한 계속시간(긴 누름조작이 된 경우의 긴 누름시간) 중 어느 일방에 대응하여, 상기 표시시킨 지정용 도형의 형상을 변경하는(지정용 도형을 확대하는/축소하는), 화상처리장치를 구성해도 좋다. (1) a pinch operation (pinch-out operation / pinch-in operation) with respect to the designation-purpose design pattern, (2) a plurality of (Long press time in the case of a long press operation) in which the tap operation has been continued with respect to the designation figure, and (3) (To enlarge / reduce the designation figure), the image processing apparatus may be configured.

이 제16의 발명에 의하면, 간단하고 쉬운 유저 조작에 의해서, 지정용 도형의 크기를 변경시킬 수 있다. According to the sixteenth invention, the size of the designation figure can be changed by a simple and easy user operation.

또한, 제17의 발명으로서,In addition, as a seventeenth invention,

제13 또는 제14의 발명의 화상처리장치로서,The image processing apparatus according to the thirteenth or fourteenth aspect,

상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널(도 1의 터치패널(21))을 가지고,The input means has a touch panel (the touch panel 21 of Fig. 1) integrally formed with the display means,

상기 합성화상 생성수단은, 상기 터치패널에 대한 조작에 근거하여 결정한 심도를 상기 특정 심도로 하여, 상기 합성화상을 생성하는, 화상처리장치를 구성해도 좋다. The composite image generating means may constitute an image processing apparatus for generating the composite image with the depth determined based on the operation on the touch panel at the specific depth.

이 제17의 발명에 의하면, 표시수단과 일체적으로 구성된 터치패널에 대한 조작에 의해서, 합성화상을 생성할 수 있다. According to the seventeenth invention, a composite image can be generated by an operation on a touch panel integrally formed with the display means.

또한, 제18의 발명으로서,Further, as the eighteenth invention,

제17의 발명의 화상처리장치로서,An image processing apparatus according to a seventeenth aspect of the present invention,

상기 표시수단은, 촬상대상을 확인 가능한 확인화면(촬상소자로부터의 출력신호에 근거하는 화상이 실시간으로 표시되는 화면)을 표시하고,Wherein the display means displays a confirmation screen (a screen in which an image based on an output signal from the imaging element is displayed in real time)

상기 확인화면에 있어서의 상기 터치패널에 대한 탭 조작에 대응하여, 포커싱 대상으로 하는 확인화면 상의 위치인 포커싱 대상위치를 기억하는 기억수단(도 1의 기억부(80))과,(Storage unit 80 in Fig. 1) for storing a focusing target position, which is a position on a confirmation screen to be focused, corresponding to a tap operation on the touch panel on the confirmation screen,

상기 기억수단에 포커싱 대상위치가 기억된 후, 소정의 촬상조건의 성립에 대응하여 촬상을 행하는 촬상수단(도 1의 촬상부(50))을 더 구비하고,(Imaging section (50) in Fig. 1) for performing imaging in accordance with establishment of a predetermined imaging condition after the focusing target position is stored in the storage means,

상기 특징검출수단은, 상기 촬상수단에 의해서 촬상된 복수의 촬영화상을 상기 복수의 입력화상으로 하여 상기 특징을 검출하고,The feature detecting means detects the feature by using a plurality of captured images captured by the image capturing means as the plurality of input images,

상기 합성화상 생성수단은, 상기 기억수단에 기억된 포커싱 대상위치에 대응하는 심도를 상기 특정 심도로 하여, 상기 합성화상을 생성하는, 화상처리장치를 구성해도 좋다. The composite image generating means may constitute an image processing apparatus that generates the composite image with the depth corresponding to the focusing target position stored in the storage means at the specific depth.

이 제18의 발명에 의하면, 유저는, 확인화면에 있어서 포커싱 대상위치를 지정할 수 있다. 그리고, 그 후에 촬상을 행하고, 확인화면에 있어서 지정된 포커싱 대상위치에 대응하는 심도를 특정 심도로 한 합성화상을 생성할 수 있다. According to the eighteenth aspect of the present invention, the user can designate the focusing target position on the confirmation screen. Then, the imaging is performed after that, and a composite image in which the depth corresponding to the focusing target position specified on the confirmation screen is set to a specific depth can be generated.

이 경우, 다른 발명으로서,In this case, as another invention,

상기 촬상수단은, 상기 기억수단에 포커싱 대상위치가 기억된 후, (1) 상기 입력수단에 대한 소정의 촬상조작을 검지한 것, (2) 일정시간 이상의 계속된 탭 조작을 검지한 것, (3) 복수 회의 탭 조작을 검지한 것의 어느 일방을 상기 촬상조건의 성립으로 하여 촬상을 행하는, 화상처리장치를 구성해도 좋다. (1) detecting a predetermined imaging operation on the input means, (2) detecting a continuous tap operation for a predetermined period of time or more, and 3) It is also possible to configure an image processing apparatus that captures an image by establishing one of the detection of a plurality of tap operations by establishing the image capturing condition.

이 다른 발명에 의하면, 탭 조작에 의해서 포커싱 대상위치가 기억된 후, 간단하고 쉬운 유저 조작에 의해서, 촬상을 행하게 할 수 있다. According to this other invention, it is possible to perform imaging by a simple and easy user operation after the focusing target position is stored by the tapping operation.

또한, 제19의 발명으로서,Further, as a nineteenth invention,

제17의 발명의 화상처리장치로서,An image processing apparatus according to a seventeenth aspect of the present invention,

상기 표시수단은, 소정의 표시용 화상(입력화상)을 표시하고,The display means displays a predetermined display image (input image)

상기 표시용 화상이 표시된 표시화면에 있어서의 상기 터치패널에 대한 핀치조작에 대응하여, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 설정하는 포커싱 대상영역 설정수단(도 1의 처리부(10))과,(The processing unit 10 in Fig. 1) for setting a focusing target area that is a focusing target area in correspondence with the pinch operation on the touch panel on the display screen on which the display image is displayed,

상기 포커싱 대상영역 설정수단에 의해서 설정된 포커싱 대상영역 이외의 영역에 대해서 소정의 셰이딩 정도로 셰이딩 처리를 행하는 셰이딩 처리수단(도 1의 처리부(10))을 더 구비하고,Shading processing means (processing portion (10) in Fig. 1) for performing shading processing with respect to an area other than a focusing target area set by the focusing target area setting means with a predetermined degree of shading,

상기 셰이딩 처리수단은, 상기 포커싱 대상영역 설정수단에 의해서 설정된 포커싱 대상영역에 대한 핀치조작(핀치아웃 조작/핀치인 조작)에 대응하여, 상기 셰이딩 정도를 변경하는(셰이딩 정도를 높게 하는/낮게 하는) 셰이딩 정도 변경수단(도 1의 처리부(10))을 가지는, 화상처리장치를 구성해도 좋다. Wherein the shading processing means changes the shading degree in accordance with a pinch operation (pinch-out operation / pinch-in operation) on the focusing target area set by the focusing object area setting means (the shading degree is increased / ) Shading degree changing means (the processing section 10 in Fig. 1).

이 제19의 발명에 의하면, 유저는, 표시용 화상이 표시된 표시화면에 있어서, 터치패널에 대한 탭 조작에 의해서, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 지정할 수 있다. 그리고, 포커싱 대상영역 이외의 영역에 대해서 소정의 셰이딩 정도로 셰이딩 처리를 행함으로써, 포커싱 대상영역이 강조된 합성화상을 생성할 수 있다. According to the nineteenth aspect of the invention, the user can designate the focusing target area, which is the focusing target area, by tapping the touch panel on the display screen on which the display image is displayed. Then, a shading process is performed with respect to an area other than the focusing target area with a predetermined degree of shading, so that a combined image in which the focusing area is emphasized can be generated.

또한, 제20의 발명으로서,Further, as a twentieth invention,

제19의 발명의 화상처리장치로서,An image processing apparatus according to a nineteenth aspect of the present invention,

상기 셰이딩 정도 변경수단은, 상기 포커싱 대상영역에 대한 핀치아웃 조작에 대응하여 상기 셰이딩 정도를 단계적으로 높게 하고, 상기 포커싱 대상영역에 대한 핀치인 조작에 대응하여 상기 셰이딩 정도를 단계적으로 낮게 하는, 화상처리장치를 구성해도 좋다. Wherein the shading degree changing means gradually increases the degree of shading in correspondence with the pinch-out operation for the focusing target area and decreases the degree of shading stepwise in accordance with the pinching-in operation on the focusing target area Processing apparatus may be configured.

이 제20의 발명에 의하면, 간단하고 쉬운 유저 조작에 의해서, 포커싱 대상영역 이외의 영역에 대해서 셰이딩 처리를 행하는 셰이딩 정도를 변경할 수 있다. According to the twentieth aspect, by the simple and easy user operation, the degree of shading for performing the shading processing on the area other than the focusing area can be changed.

또한, 제21의 발명으로서,Further, as a twenty-first invention,

제1 ~ 제12 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the first to twelfth aspects,

상기 복수의 입력화상은, 다른 초점거리에서 촬상된 복수의 촬영화상이고,Wherein the plurality of input images are a plurality of captured images captured at different focal lengths,

표시수단(도 1의 표시부(30))과,The display means (display portion 30 in Fig. 1)

유저 조작을 접수하는 입력수단(도 1의 입력부(20))과,An input unit (input unit 20 in Fig. 1) for accepting a user operation,

상기 표시수단의 소정위치에, 초점거리 범위를 유저가 지정하기 위한 초점거리 범위지정용 화상(도 27의 초점거리 슬라이더(S1))을 표시시키는 제어를 행하는 표시제어수단(도 1의 표시제어부(127))과,(Focal length slider S1 in Fig. 27) for specifying the focal length range for the user to specify a focal length range designation image at a predetermined position of the display means (the display control unit 127)

상기 깊이 맵에 근거하여, 상기 초점거리 범위지정용 화상에 대한 유저 조작에 의해서 지정된 초점거리 범위에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성하는 합성화상 생성수단(도 1의 강조화상 생성부(123))을 더 구비하고,A synthesizing unit configured to focus a pixel of a depth corresponding to a focal length range specified by a user operation on the image for specifying the focal length range and to generate a composite image in which other pixels are non- (The enhanced image generation unit 123 in Fig. 1)

상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치를 구성해도 좋다. The display means may constitute an image processing apparatus for displaying a composite image generated by the composite image generating means.

이 제21의 발명에 의하면, 유저가 초점거리 범위지정용 화상에 대한 조작에 의해서, 소망의 초점거리 범위에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성시켜서, 상기 합성화상을 열람할 수 있다. According to the twenty-first aspect of the present invention, a user creates a composite image by focusing on a pixel of a depth corresponding to a desired focal length range by non-focusing on the image for specifying the focal length range The synthesized image can be browsed.

또한, 제22의 발명으로서,Further, as a twenty-second invention,

제1 ~ 제12 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the first to twelfth aspects,

상기 복수의 입력화상은, 다른 초점거리에서 촬상된 복수의 촬영화상이고,Wherein the plurality of input images are a plurality of captured images captured at different focal lengths,

표시수단(도 1의 표시부(30))과,The display means (display portion 30 in Fig. 1)

유저 조작을 접수하는 입력수단(도 1의 입력부(20))과,An input unit (input unit 20 in Fig. 1) for accepting a user operation,

상기 복수의 입력화상에 근거하는 복수의 참조용 화상(복수의 입력화상, 복수의 입력화상에 대해서 각각 특징을 검출한 특징검출 화상, 복수의 입력화상에 대해서 각각 콘트라스트 보정을 실시한 콘트라스트 보정화상, 복수의 입력화상과 대응하는 특징검출 화상을 승산(乘算)한 적 화상(積畵像))을 상기 표시수단에 순차적으로 표시시키는 제어를 행하는 표시제어수단(도 1의 표시제어부(127))과,A plurality of reference images based on the plurality of input images (a plurality of input images, a feature detection image in which a feature is detected for each of a plurality of input images, a contrast-corrected image obtained by performing contrast correction for each of a plurality of input images, (The display control unit 127 in Fig. 1) for performing control to sequentially display on the display means an image obtained by multiplying an input image of the input image and a corresponding feature detection image, ,

상기 깊이 맵에 근거하여, 상기 순차적으로 표시되는 참조용 화상 중, 유저에 의해서 지정된 참조용 화상에 대응하는 입력화상의 초점거리에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성하는 합성화상 생성수단(도 1의 강조화상 생성부(123))을 더 구비하고,Wherein the depth map is used to focus a pixel at a depth corresponding to a focal length of an input image corresponding to a reference image designated by the user among the sequentially displayed reference images, (An enhanced image generating unit 123 in FIG. 1) for generating a combined image,

상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치를 구성해도 좋다. The display means may constitute an image processing apparatus for displaying a composite image generated by the composite image generating means.

이 제22의 발명에 의하면, 유저는, 순차적으로 표시되는 참조용 화상을 열람하여 소망의 피사체가 강하게 표시되고 있는 참조용 화상을 지정하고, 깊이 맵에 근거하여, 순차적으로 표시되는 참조용 화상 중, 유저에 의해서 지정된 참조용 화상에 대응하는 입력화상의 초점거리에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성시켜서, 상기 합성화상을 열람할 수 있다. According to the twenty-second aspect of the present invention, a user browses a reference image sequentially displayed to designate a reference image in which a desired subject is strongly displayed, and, based on the depth map, , The synthesized image can be browsed by focusing the pixels corresponding to the focal length of the input image corresponding to the reference image designated by the user and by making the other pixels non-focusing.

또한, 제23의 발명으로서,Further, as a twenty-third invention,

제22의 발명의 화상처리장치로서,An image processing apparatus according to a twenty-second aspect of the present invention,

상기 복수의 입력화상 각각에 대하여, 상기 입력화상과 상기 특징검출수단에 의해서 특징이 검출된 특징검출 화상(엣지화상)을 승산한 적 화상(입력화상과 엣지화상을 화소단위로 승산함으로써 얻어지는 화상)을 생성하는 적 화상 생성수단(도 1의 처리부(10))을 더 구비하고,(An image obtained by multiplying an input image and an edge image by pixel units) obtained by multiplying the input image and a feature detection image (edge image) whose characteristics are detected by the feature detection unit, for each of the plurality of input images, (The processing unit 10 in Fig. 1) that generates the image data,

상기 표시제어수단은, 상기 적 화상 생성수단에 의해서 생성된 적 화상을 상기 참조용 화상으로 하여, 상기 표시수단에 순차적으로 표시시키는 제어를 행하는, 화상처리장치를 구성해도 좋다. And the display control means may constitute an image processing apparatus that performs control to sequentially display the red image generated by the red image generation means as the reference image on the display means.

이 제23의 발명에 의하면, 복수의 입력화상 각각에 대하여, 상기 입력화상과 특징이 검출된 특징검출 화상을 승산한 적 화상을 생성하여, 참조용 화상으로서 순차적으로 표시시킴으로써, 포커싱으로 하는 심도를 유저가 용이하게 지정 가능하게 된다. According to the twenty-third aspect of the present invention, an enemy image obtained by multiplying the input image and the detected feature detection image by feature is generated for each of the plurality of input images, and sequentially displayed as a reference image, So that the user can easily designate it.

또한, 제24의 발명으로서,Further, as a twenty-fourth invention,

제17의 발명의 화상처리장치로서,An image processing apparatus according to a seventeenth aspect of the present invention,

상기 합성화상 생성수단은, 상기 터치패널에 대한 드래그 조작에 근거하여, 상기 특정 심도를 동적으로 변경하여 상기 합성화상을 동적으로 생성하고,Wherein the synthesized image generating means dynamically changes the specific depth based on a drag operation on the touch panel to dynamically generate the synthesized image,

상기 표시수단은, 상기 합성화상 생성수단에 의해 동적으로 생성되는 합성화상을 상기 드래그 조작에 맞춰서 표시하는, 화상처리장치를 구성해도 좋다. The display means may constitute an image processing apparatus for displaying a synthesized image dynamically generated by the synthesized image generating means in accordance with the drag operation.

이 제24의 발명에 의하면, 유저의 터치패널에 대한 드래그 조작에 근거하여, 실시간으로 합성화상을 생성하여 표시할 수 있다. According to the twenty-fourth aspect of the present invention, a composite image can be generated and displayed in real time based on a drag operation of the user on the touch panel.

또한, 제25의 발명으로서,Further, as a twenty-fifth invention,

제2 ~ 제7 중의 어느 하나의 발명의 화상처리장치로서,An image processing apparatus according to any one of the second to seventh aspects,

유저 조작을 접수하는 입력수단(도 1의 입력부(20))을 더 구비하고,(Input unit 20 in Fig. 1) for accepting user operations,

상기 심도추정수단은, 상기 유저 조작에 의해 지정된 지정영역에 포함되는 화소에 대해서 상기 심도를 재추정하는 심도 재추정수단(도 1의 처리부(10))을 가지고,Wherein the depth estimation means has depth depth estimation means (the processing portion (10) in FIG. 1) for predicting the depth for the pixels included in the designated region specified by the user operation,

상기 깊이 맵 생성수단은, 상기 심도 재추정수단에 의한 심도의 재추정의 결과에 근거하여 깊이 맵을 재생성하는 깊이 맵 재생성수단(도 1의 처리부(10))을 가지는, 화상처리장치를 구성해도 좋다. The depth map generating means may be configured to include the depth map regenerating means (the processing portion 10 of FIG. 1) for regenerating the depth map based on the result of re-estimation of the depth by the depth estimating means good.

이 제25의 발명에 의하면, 유저가 화상 중에서 부자연스러운 표시가 이루어지고 있는 부분을 발견한 경우에, 유저가 그 부분을 지정함으로써, 그 부분에 대해서 심도의 재추정이 행해지고, 그 심도의 재추정의 결과에 근거하여, 부자연스러운 부분이 적절히 수정된 깊이 맵을 얻을 수 있다. According to the twenty-fifth aspect of the present invention, when a user finds a portion where an unnatural display is made in an image, the user designates the portion so that re-estimation of the depth is performed on the portion, Based on the result of the above, a depth map in which an unnatural part is appropriately corrected can be obtained.

또한, 제26의 발명으로서,Further, as a twenty-sixth invention,

제25의 발명의 화상처리장치로서,An image processing apparatus according to a twenty-fifth aspect of the present invention,

상기 심도 재추정수단은, 상기 지정영역에 포함되는 화소에 대해서, 상기 제1종 파라미터값 및 상기 제2종 파라미터값의 적어도 일방을, 상기 심도추정수단이 당초의 심도추정에서 이용한 파라미터값과는 다른 값으로 변경하여 상기 적절해 연산처리를 행하여, 상기 심도를 재추정하는, 화상처리장치를 구성해도 좋다. Wherein the depth estimating means estimates at least one of the first type parameter value and the second type parameter value with respect to the pixels included in the designation region from a parameter value used in the original depth estimation by the depth estimation means It is also possible to construct an image processing apparatus that changes the depth to another value and appropriately performs the arithmetic processing to refine the depth.

이 제26의 발명에 의하면, 지정영역에 포함되는 화소에 대해서, 제1종 파라미터값 및 제2종 파라미터값의 적어도 일방을, 심도추정수단이 당초의 심도추정에서 이용한 파라미터값과는 다른 값으로 변경하여 적절해 연산처리를 행하여, 심도를 적절히 재추정할 수 있다. According to the twenty-sixth aspect of the invention, at least one of the first-type parameter value and the second-kind parameter value is set to a value different from the parameter value used by the depth estimation means in the original depth estimation It is possible to appropriately perform the arithmetic processing and to re-estimate the depth appropriately.

또한, 다른 발명으로서,Further, as another invention,

상기 전 초점화상에 있어서의 소정의 화소(예컨대, 터치패널 상에서 유저가 탭 한 영역의 화소나, 엣지강도가 소정값 이상 또는 소정값 미만의 영역의 화소)를 특정하는 화소 특정수단을 더 가지고, Further comprising pixel specifying means for specifying a predetermined pixel in the foreground image (for example, a pixel in an area tapped by the user on the touch panel or a pixel in an area in which the edge intensity is equal to or higher than a predetermined value or lower than a predetermined value)

상기 합성화상 생성수단은, 상기 전 초점화상 중 상기 화소 특정수단에 의해 특정된 화소에 대해서 셰이딩 정도를 상기 소정의 셰이딩 정도보다 작게 하거나, 또는, 상기 전 초점화상 중 상기 화소 특정수단에 의해 특정된 화소 이외의 화소에 대해서 셰이딩 정도를 상기 소정의 셰이딩 정도보다 크게 하여 상기 셰이딩 처리를 행하는, 화상처리장치를 구성해도 좋다. Wherein the synthesized image generating means generates the synthesized image by reducing the degree of shading for the pixel specified by the pixel specifying means in the foreground image to be smaller than the predetermined degree of shading or setting the degree of shading for the pixel specified by the pixel specifying means The image processing apparatus may be configured to perform the shading processing with respect to the pixels other than the pixels by making the shading degree larger than the predetermined shading degree.

전 초점화상을 일정하게 셰이딩한 화상에 강조해야 할 심도의 화소를 합성한 경우, 포커싱과 비포커싱의 경계부근에 있어서 윤곽같은 부자연스러운 화소값이 되어 버리는 영역이 발생하는 현상이 발생한다. 이 현상을 회피하기 위해서, 전 초점화상 중 화소 특정수단에 의해 특정된 화소에 대해서 셰이딩 정도를 소정의 셰이딩 정도보다 작게 하거나, 또는, 전 초점화상 중 화소 특정수단에 의해 특정된 화소 이외의 화소에 대해서 셰이딩 정도를 소정의 셰이딩 정도보다 크게 하여 셰이딩 처리를 행한다. 이로써, 상기의 현상을 회피하고, 적절한 합성화상을 얻는 것이 가능해진다. When a pixel having a depth to be emphasized is to be emphasized on an image obtained by uniformly shading a foreground image, a phenomenon occurs in which an area that becomes an unnatural pixel value such as a contour near the boundary between focusing and non-focusing occurs. In order to avoid this phenomenon, the shading degree of the pixel specified by the pixel specifying means in the foreground image is made smaller than the predetermined shading degree, or the shading degree is set to a pixel other than the pixel specified by the pixel specifying means in the foreground image The degree of shading is made larger than the predetermined degree of shading. This makes it possible to avoid the above-described phenomenon and obtain an appropriate composite image.

또한, 다른 발명으로서,Further, as another invention,

상기 표시수단의 소정위치에, 상기 특정 심도를 유저에게 지정시키기 위한 심도지정용 조작창(예컨대, 도 17의 심도지정용 조작창(W1), 또는 도 27의 초점거리 슬라이더(S1))을 표시시키는 제어를 행하는 표시제어수단을 더 구비하고,(For example, the depth designation operation window W1 in FIG. 17 or the focal length slider S1 in FIG. 27) for designating the specific depth to the user at a predetermined position of the display means And a display control means for controlling the display means,

상기 표시수단에 표시된 심도지정용 조작창에 있어서, 상기 입력수단을 이용하여 유저에 의한 상기 특정 심도의 지정이 가능한, 화상처리장치를 구성해도 좋다. The image processing apparatus may be configured to allow the user to specify the specific depth by using the input means in the depth designation operation window displayed on the display means.

이 다른 발명에 의하면, 표시수단의 소정위치에, 특정 심도를 유저에게 지정시키기 위한 심도지정용 조작창을 표시시키는 제어를 행한다. 그리고, 유저는, 표시수단에 표시된 심도지정용 조작창으로부터 입력수단을 이용하여 특정 심도를 지정한다. 이로써, 유저는 심도지정용 조작창으로부터 임의의 특정 심도를 지정할 수 있다. 그 결과, 특정 심도의 화소가 강조된 강조화상이 생성되어서 표시부에 표시되기 때문에, 유저는 선택한 심도의 화소가 강조된 합성화상을 열람하는 것이 가능해진다. According to this other invention, a control for displaying a depth designation operation window for designating a specific depth to a user is performed at a predetermined position of the display means. Then, the user designates the specific depth using the input means from the depth designation operation window displayed on the display means. Thereby, the user can designate an arbitrary specific depth from the operation window for specifying the depth. As a result, an emphasized image in which pixels of a specific depth are emphasized is generated and displayed on the display unit, so that the user can browse the combined image in which the pixels of the selected depth are highlighted.

또한, 다른 발명으로서,Further, as another invention,

상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널(도 1의 터치패널(21))을 가지고,The input means has a touch panel (the touch panel 21 of Fig. 1) integrally formed with the display means,

상기 유저는, 상기 터치패널에 대한 탭 조작에 의해 상기 특정 심도를 지정하는, 화상처리장치를 구성해도 좋다. The user may configure the image processing apparatus to designate the specific depth by a tap operation on the touch panel.

이 다른 발명에 의하면, 유저는, 터치패널에 대한 탭 조작에 의해서 특정 심도를 지정할 수 있다. According to this other invention, the user can specify a specific depth by tapping the touch panel.

또한, 다른 발명으로서,Further, as another invention,

상기 유저 조작은 탭 조작이며,The user operation is a tap operation,

상기 합성화상 생성수단은, 상기 탭 조작에 의해 탭 된 화상 상의 영역을 상기 지정영역으로 하여(도 8의 스텝 D1), 상기 지정영역에 근거하여 상기 특정 심도를 선택하는(예컨대, 도 8의 스텝 D5), 화상처리장치를 구성해도 좋다. The composite image generation means may select the specific depth based on the designation area by using the area on the image tapped by the tap operation as the designation area (step D1 in FIG. 8) D5), and an image processing apparatus may be configured.

이 다른 발명에 의하면, 유저 조작은 탭 조작이며, 탭 조작에 의해 탭 된 화상 상의 영역을 지정영역으로 하여 상기 지정영역에 근거하여 특정 심도를 선택한다. 이로써, 유저의 탭 조작에 수반하여, 탭 된 지정영역에 대해서 특정 심도를 선택하여 합성화상을 생성하고, 표시부에 표시시키는 것이 가능해진다. According to this other invention, the user operation is a tap operation, and a region on an image tapped by the tap operation is designated as a designated region, and a specific depth is selected based on the designated region. This makes it possible to generate a composite image by selecting a specific depth for the tapped designated area in accordance with the user's tap operation, and to display the composite image on the display section.

또한, 다른 발명으로서,Further, as another invention,

상기 포커싱 화상, 상기 복수의 입력화상 중에서 선택한 입력화상, 상기 합성화상 및 상기 깊이 맵 중 어느 일방의 화상을 표시용 화상으로서 상기 표시수단에 표시시키는 제어를 행하는 표시제어수단을 더 구비하고,Further comprising a display control means for performing control to display either one of the focused image, the input image selected from the plurality of input images, the composite image, and the depth map as a display image on the display means,

상기 표시용 화상은, 상기 유저가 상기 입력수단을 이용하여 상기 특정 심도를 지정하도록 참조 가능한, 화상처리장치를 구성해도 좋다. And the display image may be referred to so that the user can designate the specific depth using the input means.

이 다른 발명에 의하면, 표시제어수단은, 포커싱 화상, 복수의 입력화상 중에서 선택한 입력화상, 합성화상 및 깊이 맵 중 어느 일방의 화상을 표시용 화상으로서 표시수단에 표시시키도록 제어한다. 그리고, 유저는, 표시수단에 참조 가능하게 표시된 표시용 화상에 근거하여, 입력수단을 이용하여 특정 심도를 지정한다. 이로써, 유저는, 표시용 화상을 열람하여, 강조 표시시키고 싶은 부분을 지정할 수 있다. According to this other invention, the display control means controls the display means to display either one of the focused image, the input image selected from the plurality of input images, the composite image, and the depth map as the display image. Then, the user designates a specific depth by using the input means based on the display image that is displayed in a referential manner on the display means. Thereby, the user can browse the display image and designate the portion to be highlighted.

또한, 다른 발명으로서,Further, as another invention,

상기 합성화상 생성수단은, (1) 상기 지정영역의 중심위치에 가장 가까운 화소에 대응하는 심도, (2) 상기 지정영역에 포함되는 화소 중 상기 깊이 맵에 있어서 가장 심도가 깊은 또는 얕은 화소에 대응하는 심도, (3) 상기 지정영역에 포함되는 화소의 화소값의 평균값에 화소값이 가장 가까운 화소에 대응하는 심도, (4) 상기 지정영역 중 깊이 맵 상에 있어서 가장 대응하는 심도의 화소가 차지하는 면적이 큰 심도 중 어느 일방을 상기 특정 심도로서 선택하는, 화상처리장치를 구성해도 좋다. (2) a depth map corresponding to a deepest or shallower pixel in the depth map among the pixels included in the designated area; (3) the depth corresponding to the pixel value closest to the average value of the pixel values of the pixels included in the designated area, (4) the pixel corresponding to the most corresponding depth on the depth map of the specified area The image processing apparatus may be configured to select one of the depths having a large area as the specific depth.

이 다른 발명에 의하면, (1) 지정영역의 중심위치에 가장 가까운 화소에 대응하는 심도, (2) 지정영역에 포함되는 화소 중 깊이 맵에 있어서 가장 심도가 깊은 또는 얕은 화소에 대응하는 심도, (3) 지정영역에 포함되는 화소의 화소값의 평균값에 화소값이 가장 가까운 화소에 대응하는 심도, (4) 지정영역 중 깊이 맵 상에 있어서 가장 대응하는 심도의 화소가 차지하는 면적이 큰 심도 중 어느 일방을 특정 심도로서 선택하여, 합성화상을 생성할 수 있다. According to this other invention, (1) the depth corresponding to the pixel closest to the center position of the designated area, (2) the depth corresponding to the deepest or shallowest pixel in the depth map among the pixels included in the designated area, 3) the depth corresponding to the pixel value closest to the average value of the pixel values of the pixels included in the designated area, and (4) the depth of the designated area corresponding to the pixel having the largest depth corresponding to the depth map. A composite image can be generated by selecting one of them as a specific depth.

또한, 다른 발명으로서,Further, as another invention,

상기 특징량 검출수단은, 상기 복수의 입력화상의 특징으로서 엣지를 검출하는 엣지검출수단(도 1의 엣지검출부(107))을 가지고,Wherein the feature amount detection means has edge detection means (edge detection portion 107 in Fig. 1) for detecting an edge as a feature of the plurality of input images,

상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널(도 1의 터치패널(21))을 가지고,The input means has a touch panel (the touch panel 21 of Fig. 1) integrally formed with the display means,

상기 유저 조작은 드래그 조작이며,The user operation is a drag operation,

상기 드래그 조작에 대응하여 하나의 심도를 선택(도 9의 스텝 E5)하는 심도선택수단(도 1의 처리부(10))과,Depth selecting means (the processing portion 10 in Fig. 1) for selecting one depth in accordance with the drag operation (Step E5 in Fig. 9)

상기 유저에 의한 드래그 조작의 방향과, 상기 심도선택수단에 의해 선택된 심도의 입력화상 중의 상기 드래그 조작에 의해 지정된 지정영역에 포함되는 엣지의 방향과의 유사도를 산출(도 9의 스텝 E6)하는 유사도 산출수단(도 1의 처리부(10))을 더 구비하고,(Step E6 in Fig. 9) of the direction of the drag operation by the user and the direction of the edge included in the designated area specified by the drag operation in the input image of the depth selected by the depth selection means (The processing section 10 in Fig. 1)

상기 심도 재추정수단은, 상기 지정영역에 포함되는 화소에 대해서, 상기 제1종 파라미터값 및 상기 제2종 파라미터값의 적어도 일방을, 상기 심도추정수단이 당초의 심도추정에서 이용한 파라미터값과는 다른 값으로 변경하여 상기 스코어값 연산처리를 행하여, 상기 심도를 재추정하는, 화상처리장치를 구성해도 좋다. Wherein the depth estimating means estimates at least one of the first type parameter value and the second type parameter value with respect to the pixels included in the designation region from a parameter value used in the original depth estimation by the depth estimation means It is also possible to configure the image processing apparatus to perform the score value calculation processing by changing the value to another value and to re-estimate the depth.

이 다른 발명에 의하면, 특징량 검출수단은, 복수의 입력화상의 특징으로서 엣지를 검출하는 엣지검출수단을 가진다. 그리고, 터치패널에 대한 유저의 드래그 조작에 대응하여 하나의 심도를 선택하고, 유저에 의한 드래그 조작의 방향과, 선택된 심도의 입력화상 중의 드래그 조작에 의해 지정된 지정영역에 포함되는 엣지의 방향과의 유사도를 산출한다. 그리고, 심도 재추정수단이, 드래그 조작에 의해 지정된 지정영역에 포함되는 화소에 대해서, 제1종 파라미터값 및 제2종 파라미터값의 적어도 일방을, 심도추정수단이 당초의 심도추정에서 이용한 파라미터값과는 다른 값으로 변경하여 스코어값 연산처리를 행함으로써, 화상 중의 엣지 부분의 심도를 적절히 재추정할 수 있다. According to this other invention, the feature amount detection means has edge detection means for detecting an edge as a feature of a plurality of input images. Then, one depth is selected in accordance with the dragging operation of the user to the touch panel, and the direction of the drag operation by the user and the direction of the edge included in the designated area specified by the drag operation of the selected depth image And calculates the degree of similarity. Then, the depth re-estimating means calculates at least one of the first-type parameter value and the second-type parameter value for the pixels included in the designated area designated by the drag operation as the parameter value used by the depth estimation means in the initial depth estimation The depth of the edge portion in the image can be appropriately re-estimated.

본 발명에 의하면, 소망의 포커싱 상태에 대응한 합성화상을 생성 가능한 화상처리장치 등이 제공된다. According to the present invention, there is provided an image processing apparatus and the like capable of generating a composite image corresponding to a desired focusing state.

도 1은 스마트폰의 기능구성의 일례를 나타내는 블럭도이다.
도 2는 화상데이터 세트의 데이터 구성의 일례를 나타내는 도이다.
도 3은 패널티값 테이블의 테이블 구성의 일례를 나타내는 도이다.
도 4는 화상처리의 흐름의 일례를 나타내는 플로우차트이다.
도 5는 도 4에 계속되는 플로우차트이다.
도 6은 초점분리 판정처리의 흐름의 일례를 나타내는 플로우차트이다.
도 7은 심도추정처리의 흐름의 일례를 나타내는 플로우차트이다.
도 8은 강조화상 생성처리의 흐름의 일례를 나타내는 플로우차트이다.
도 9는 강조화상 수정처리의 흐름의 일례를 나타내는 플로우차트이다.
도 10의 (1)은 입력화상의 일례이고, (2)는 입력화상의 일례이고, (3)은 엣지화상의 일례이고 (4)는 엣지화상의 일례이다.
도 11의 (1)은 깊이 맵의 일례이고, (2)는 전 초점화상의 일례이다.
도 12의 (1)은 복원 깊이 맵의 일례이고, (2)는 수정 깊이 맵의 일례이다.
도 13의 (1)은 전 초점화상에 대한 셰이딩 화상의 일례이고, (2)는 강조화상의 일례이고, (3)은 셰이딩 화상의 일례이고, (4) 강조화상의 일례이다.
도 14의 (1)는 강조화상의 일례이고, (2)는 강조화상에 대한 수정화상의 일례이다.
도 15는 제2의 화상처리의 흐름의 일례를 나타내는 플로우차트이다.
도 16은 변형예에 있어서의 패널티값 테이블의 테이블 구성의 일례를 나타내는 도이다.
도 17은 심도선택용 조작창의 일례를 나타내는 도이다.
도 18은 제2의 강조화상 생성처리의 흐름의 일례를 나타내는 플로우차트이다.
도 19는 제3의 화상처리의 흐름의 일례를 나타내는 플로우차트이다.
도 20의 (1)은 특징점 검출결과의 일례를 나타내는 도이고, (2)는 특징점 검출결과의 일례를 나타내는 도이고, (3)은 특징점 추적결과의 일례를 나타내는 도이다.
도 21의 (1)은 정면 시점의 특징점의 좌표의 추정결과의 일례를 나타내는 도이고, (2)는 상시점(上視點)의 특징점의 좌표의 추정결과의 일례를 나타내는 도이고, (3)은 좌시점(左視點)의 특징점의 좌표의 추정결과의 일례를 나타내는 도이다.
도 22의 (1)은 확인화면의 일례를 나타내는 도이고, (2)는 가이드표시의 일례를 나타내는 도이고, (3)은 가이드표시의 일례를 나타내는 도이고, (4)는 가이드표시의 일례를 나타내는 도이다.
도 23은 제4의 화상처리의 흐름의 일례를 나타내는 플로우차트이다.
도 24는 제3의 강조화상 생성처리의 흐름의 일례를 나타내는 플로우차트이다.
도 25의 (1)은 영역지정용 도형의 일례를 나타내는 도이고, (2)는 영역지정용 도형의 사이즈 조정의 설명도이다.
도 26의 (1)은 핀치아웃 조작에 의한 셰이딩 정도의 변경의 설명도이고, (2)는 핀치인 조작에 의한 셰이딩 정도의 변경의 설명도이다.
도 27의 (1)은 초점거리 슬라이더의 일례를 나타내는 도이고, (2)는 초점거리 슬라이더의 일례를 나타내는 도이고, (3)은 초점거리 슬라이더의 일례를 나타내는 도이다.
도 28은 화소의 구별표시의 일례를 나타내는 도이다.
도 29는 제4의 강조화상 생성처리의 흐름의 일례를 나타내는 도이다.
도 30은 기록매체의 일례를 나타내는 도이다.
도 31은 시차방식을 이용한 깊이 맵의 생성의 원리의 설명도이다.
도 32는 하이라이트 클리핑(highlights clipping) 효과 셰이딩 처리의 흐름의 일례를 나타내는 플로우차트이다.
1 is a block diagram showing an example of a functional configuration of a smartphone.
2 is a diagram showing an example of the data configuration of an image data set;
3 is a diagram showing an example of the table configuration of the penalty value table.
4 is a flowchart showing an example of a flow of image processing.
5 is a flow chart continued from FIG.
6 is a flowchart showing an example of the flow of the focus separation determination processing.
7 is a flowchart showing an example of the flow of the depth estimation processing.
8 is a flowchart showing an example of the flow of the enhanced image generation processing.
9 is a flowchart showing an example of the flow of the enhanced image modification processing.
10 (1) is an example of an input image, (2) is an example of an input image, (3) is an example of an edge image, and (4) is an example of an edge image.
11 (1) is an example of a depth map, and (2) is an example of a foreground image.
12 (1) is an example of a restoration depth map, and (2) is an example of a correction depth map.
13 (1) is an example of a shading image for a foreground image, (2) is an example of an enhanced image, (3) is an example of a shading image, and (4) is an example of an enhanced image.
14 (1) is an example of an enhanced image, and (2) is an example of a modified image for an enhanced image.
15 is a flowchart showing an example of the flow of the second image processing.
16 is a diagram showing an example of the table configuration of the penalty value table in the modified example.
17 is a diagram showing an example of an operation window for depth selection.
18 is a flowchart showing an example of the flow of the second enhanced image generation processing.
19 is a flowchart showing an example of the flow of the third image processing.
20 (1) is a diagram showing an example of a feature point detection result, (2) is an example of a feature point detection result, and (3) is an example of a feature point tracking result.
21 (1) is a diagram showing an example of the estimation result of the coordinates of the minutiae point at the frontal viewpoint, (2) is an example of the estimation result of the coordinates of minutiae points of the upper- Is an illustration showing an example of the estimation result of the coordinates of the minutiae point of the left eye point.
22 (1) is a diagram showing an example of a confirmation screen, (2) is an example of guide display, (3) is an example of guide display, (4) Fig.
23 is a flowchart showing an example of the flow of the fourth image processing.
24 is a flowchart showing an example of the flow of the third enhanced image generation processing.
FIG. 25 (1) is a diagram showing an example of a region designating figure, and (2) is an explanatory diagram of the size adjustment of a region designating figure.
Fig. 26 (1) is an explanatory diagram of the change of the degree of shading by the pinch-out operation, and (2) is an explanatory diagram of the change of the degree of shading by the pinch-in operation.
27 (1) is a view showing an example of a focal length slider, (2) is an example of a focal length slider, and (3) is an example of a focal length slider.
Fig. 28 is a diagram showing an example of the display of distinction of pixels. Fig.
29 is a diagram showing an example of the flow of the fourth enhanced image generation processing.
30 is a diagram showing an example of a recording medium.
31 is an explanatory diagram of the principle of generation of a depth map using a parallax system.
32 is a flowchart showing an example of a flow of a highlight clipping effect shading process.

이하, 도면을 참조하여, 본 발명을 적용한 적합한 실시형태의 일례에 대해서 설명한다. 본 실시형태에서는, 화상처리장치로서, 카메라기능 구비 휴대전화기의 일종인 스마트폰에 본 발명을 적용한 경우의 실시형태에 대해서 설명한다. 단, 본 발명을 적용 가능한 형태가 이하 설명하는 실시형태로 한정되는 것이 아님은 물론이다. Hereinafter, an example of a preferred embodiment to which the present invention is applied will be described with reference to the drawings. In this embodiment, an embodiment in which the present invention is applied to a smart phone, which is a type of mobile phone having a camera function, as an image processing apparatus will be described. However, it is needless to say that the embodiments to which the present invention is applicable are not limited to the embodiments described below.

도 1은, 본 실시형태에 있어서의 스마트폰(1)의 기능구성의 일례를 나타내는 블럭도이다. 스마트폰(1)은, 처리부(10)와, 입력부(20)와, 표시부(30)와, 통신부(40)와, 촬상부(50)와, 휴대전화용 안테나(55)와, 휴대전화용 무선통신회로부(60)와, 시계부(70)와, 관성센서(75)와, 기억부(80)를 가져서 구성된다. Fig. 1 is a block diagram showing an example of the functional configuration of the smartphone 1 according to the present embodiment. The smartphone 1 includes a processing unit 10, an input unit 20, a display unit 30, a communication unit 40, an imaging unit 50, a cellular phone antenna 55, A wireless communication circuit unit 60, a clock unit 70, an inertial sensor 75, and a storage unit 80.

처리부(10)는, 기억부(80)에 기억되어 있는 시스템 프로그램 등의 각종 프로그램에 따라서 스마트폰(1)의 각 부를 통괄적으로 제어하는 프로세서이며, CPU(Central Processing Unit)나 DSP(Digital Signal Processor) 등의 프로세서를 가져서 구성된다. The processor 10 is a processor that controls each section of the smartphone 1 in accordance with various programs such as a system program stored in the storage unit 80. The processor 10 includes a CPU (Central Processing Unit) and a DSP Processor).

본 실시형태에 있어서, 처리부(10)는, 주요한 기능부로서, 입력화상 축소부(101)와, 위치맞춤부(103)와, 콘트라스트 보정부(105)와, 엣지검출부(107)와, 초점분리 판정부(109)와, 심도추정부(111)와, 깊이 맵 생성부(113)와, 깊이 맵 복원부(115)와, 깊이 맵 수정부(117)와, 전 초점화상 생성부(119)와, 깊이 맵 축소부(121)와, 강조화상 생성부(123)와, 강조화상 수정부(125)와, 표시제어부(127)를 가진다. 단, 이들 기능부는 하나의 실시예로서 기재한 것에 지나지 않고, 이 외의 기능부를 필수 구성요소로 해도 좋은 것은 물론이다. In the present embodiment, the processing unit 10 includes, as main functional units, an input image reducing unit 101, a aligning unit 103, a contrast correcting unit 105, an edge detecting unit 107, A depth map generating unit 113, a depth map restoring unit 115, a depth map correcting unit 117, a foreground image generating unit 119 A depth map reducing section 121, an emphasized image generating section 123, an emphasized image correcting section 125 and a display control section 127. The depth map reducing section 121, It goes without saying that these functional units are merely described as one embodiment, and that other functional units may be essential components.

입력부(20)는, 터치패널(21)을 가져서 구성되는 입력장치이며, 터치패널(21)에 대한 유저 조작의 검지신호를 처리부(10)에 출력한다. 터치패널(21)은, 유저와 스마트폰(1)의 사이의 입력 인터페이스로서 기능한다. The input unit 20 is an input device having a touch panel 21 and outputs a detection signal of a user operation to the touch panel 21 to the processing unit 10. [ The touch panel 21 functions as an input interface between the user and the smartphone 1. [

본 실시형태에서는, 입력부(20)를 통하여 스마트폰(1)의 카메라기능이 선택되면, 유저는, 모드로서 「촬영모드」와 「화상열람모드」의 2개의 모드를 선택 가능하고, 또한, 이들 모드에 부수하여, 「강조화상 생성모드」와 「강조화상 수정모드」의 2개의 모드를 선택 가능하게 구성된다. In the present embodiment, when the camera function of the smartphone 1 is selected through the input unit 20, the user can select two modes of "shooting mode" and "image browsing mode" as the mode, Quot; mode and the &quot; enhanced image correction mode &quot;.

표시부(30)는, LCD(Liquid Crystal Display) 등을 가져서 구성되는 표시장치이며, 처리부(10)로부터 출력되는 표시신호에 근거한 각종 표시를 행한다. 표시부(30)에는, 시각정보나 어플리케이션을 기동하기 위한 아이콘 외에, 후술하는 화상처리에서 생성되는 각종 화상이 표시된다. The display unit 30 is a display device having an LCD (Liquid Crystal Display) or the like, and performs various displays based on the display signal output from the processing unit 10. [ In addition to the icon for activating the time information and the application, various kinds of images generated by the image processing described later are displayed on the display unit 30.

통신부(40)는, 처리부(10)의 제어에 따라서, 장치 내부에서 이용되는 정보를 외부의 정보처리장치(예컨대 퍼스널컴퓨터)와의 사이에서 송수신하기 위한 통신장치이다. 통신부(40)의 통신방식으로서는, 소정의 통신규격에 준거한 케이블을 통하여 유선접속하는 형식이나, 크래들(cradle)로 불리는 충전기와 겸용의 중간장치를 통하여 접속하는 형식, 근거리 무선통신을 이용하여 무선접속하는 형식 등, 여러 가지의 방식을 적용 가능하다. The communication unit 40 is a communication device for transmitting and receiving information used in the apparatus to and from an external information processing apparatus (e.g., a personal computer) under the control of the processing unit 10. [ As a communication method of the communication unit 40, there is a type in which a wired connection is made through a cable conforming to a predetermined communication standard, a type in which a charger called a cradle is connected through a common intermediate device, Such as a connection type, can be applied.

촬상부(50)는, 임의의 씬(scene)의 화상을 촬상 가능하게 구성된 촬상 디바이스이며, CCD(Charge Coupled Device) 이미지센서나 CMOS(Complementary MOS) 이미지센서 등의 촬상소자(반도체소자)를 가져서 구성된다. 촬상부(50)는, 촬영대상물로부터 발하여진 광을, 미도시의 렌즈에 의해서 촬상소자의 수광평면에 결상시키고, 광전변환에 의해서, 상(像)의 광의 명암을 전기신호로 변환한다. 변환된 전기신호는, 미도시의 A/D(Analog Digital) 변환기에 의해서 디지털신호에 변환되어서, 처리부(10)에 출력된다. The image pickup section 50 is an image pickup device configured to pick up an image of an arbitrary scene and has an image pickup device (semiconductor device) such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary MOS) . The imaging unit 50 images the light emitted from the object to be imaged on the light receiving plane of the imaging element by a lens not shown and converts the contrast of light of the image into an electric signal by photoelectric conversion. The converted electric signal is converted into a digital signal by an A / D (Analog Digital) converter (not shown) and output to the processing unit 10.

표시제어부(127)는, 촬상부(50)로부터 출력되는 디지털화된 전기신호에 근거하여, 유저가 촬영대상으로 하는 씬을 나타내는 화면(후술하는 확인화면)을 표시부(30)에 표시제어한다. 그리고, 유저의 촬상조작(예컨대 터치패널(21)의 촬상버튼을 탭 하는 조작)에 대응하여, 촬상부(50)로부터 출력되는 전기신호에 근거하여 소정의 포맷(예컨대 JPEG 방식 등)으로 변환된 화상데이터가, 촬영화상의 데이터로서 기억부(80)에 기억된다. 본 명세서에서는, 촬상부(50)에 의한 촬상의 결과로서 얻어진 화상을 「촬영화상」이라고 한다. The display control unit 127 controls the display unit 30 to display on the display unit 30 a screen (a confirmation screen to be described later) showing a scene to be shot by the user based on the digitized electric signal output from the imaging unit 50. [ Then, in accordance with the user's image capturing operation (for example, the operation of tapping the image capturing button of the touch panel 21), the image capturing unit 50 is converted into a predetermined format The image data is stored in the storage section 80 as the data of the photographed image. In the present specification, an image obtained as a result of imaging by the imaging section 50 is referred to as a "captured image".

휴대전화용 안테나(55)는, 스마트폰(1)의 통신서비스 사업자가 설치한 무선기지국과의 사이에서 휴대전화용 무선신호의 송수신을 행하는 안테나이다. An antenna 55 for a cellular phone is an antenna for transmitting and receiving radio signals for a cellular phone with a radio base station provided by a communication service provider of the smartphone 1. [

휴대전화용 무선통신회로부(60)는, RF 변환회로, 베이스 밴드 처리회로 등에 의해서 구성되는 휴대전화의 통신회로부이며, 휴대전화용 무선신호의 변조·복조 등을 행함으로써, 통화나 메일의 송수신 등을 실현한다. The cellular phone radio communication circuit unit 60 is a communication circuit unit of a cellular phone constituted by an RF conversion circuit, a baseband processing circuit, and the like. The cellular phone radio communication circuit unit 60 modulates and demodulates a cellular phone radio signal, .

시계부(70)는, 스마트폰(1)의 내부시계이며, 예컨대 수정진동자 및 발진회로인 수정발진기를 가져서 구성된다. 시계부(70)의 계시(計時)시각은 처리부(10)에 수시로 출력된다. The clock unit 70 is an internal clock of the smartphone 1, and is constituted by, for example, a crystal oscillator and a crystal oscillator which is an oscillation circuit. The timing of the clock section 70 is output to the processing section 10 at any time.

관성센서(75)는, 스마트폰(1)의 관성정보를 검출하는 센서이며, 예컨대, 3축의 가속도센서나 3축의 자이로센서를 가져서 구성되고, 센서를 기준으로 하는 3차원의 로컬좌표계에서 검출한 3축의 가속도벡터 및 3축의 각속도벡터가 처리부(10)에 출력된다. The inertial sensor 75 is a sensor for detecting the inertia information of the smartphone 1 and is constituted by, for example, a three-axis acceleration sensor or a three-axis gyro sensor. The inertial sensor 75 detects the three- The three-axis acceleration vector and the three-axis angular velocity vector are output to the processing unit 10. [

기억부(80)는, ROM(Read Only Memory)이나 플래시ROM, RAM(Random Access Memory) 등의 기억장치를 가져서 구성되고, 처리부(10)가 스마트폰(1)을 제어하기 위한 시스템 프로그램이나, 각종 어플리케이션 처리를 실행하기 위한 각종 프로그램이나 데이터 등을 기억한다. The storage unit 80 includes a storage device such as a ROM (Read Only Memory), a flash ROM, and a RAM (Random Access Memory). The storage unit 80 stores a system program for controlling the smart phone 1, And stores various programs and data for executing various application processes.

본 실시형태에 있어서, 기억부(80)에는, 프로그램으로서, 화상처리(도 3 및 도 4 참조)로서 실행되는 화상처리 프로그램(81)이 기억되어 있다. 화상처리 프로그램(81)은, 초점분리 판정처리(도 5 참조)로서 실행되는 초점분리 판정 프로그램(811)과, 심도추정처리(도 6 참조)로서 실행되는 심도추정 프로그램(813)과, 강조화상 생성처리(도 7 참조)로서 실행되는 강조화상 생성 프로그램(815)과, 강조화상 수정처리(도 8 참조)로서 실행되는 강조화상 수정 프로그램(817)을 서브루틴으로서 포함한다. 이들의 처리에 대해서는 플로우차트를 이용하여 상세하게 후술한다. In the present embodiment, the storage unit 80 stores an image processing program 81 that is executed as image processing (see Figs. 3 and 4) as a program. The image processing program 81 includes a focus separation determination program 811 executed as a focus separation determination processing (see FIG. 5), a depth estimation program 813 executed as a depth estimation processing (see FIG. 6) An emphasized image generating program 815 executed as a generating process (see Fig. 7) and an emphasized image correcting program 817 executed as an emphasized image correcting process (see Fig. 8) are included as subroutines. These processes will be described later in detail using a flowchart.

또한, 기억부(80)에는, 데이터로서 화상데이터 세트(83)와, 강조화상 데이터(85)와, 수정 강조화상 데이터(87)와, 패널티값 테이블(89)이 기억된다. An image data set 83 as data, emphasis image data 85, corrected emphasis image data 87, and a penalty value table 89 are stored in the storage unit 80.

화상데이터 세트(83)는, 처리부(10)가 각종 화상처리를 행하기 위해서 사용하는 각종 데이터에 의해 구성되는 것이며, 그 데이터 구성의 일례를 도 2에 나타낸다. 각 화상데이터 세트(83)에는, 각각 다른 씬으로 촬상부(50)에 의해서 촬상된 화상에 대한 데이터의 조합이 기억되어 있다. 각 화상데이터 세트(83)에는, 복수의 입력화상 데이터(833)와, 상기 복수의 입력화상 데이터(833)에 근거하여 생성되는 축소 깊이 맵 데이터(835)와, 상기 복수의 입력화상 데이터(833) 및 상기 축소 깊이 맵 데이터(835)에 근거하여 생성되는 전 초점화상 데이터(837)가 포함된다. The image data set 83 is constituted by various data used by the processing section 10 to perform various image processing, and an example of its data configuration is shown in Fig. In each image data set 83, a combination of data for an image picked up by the image pickup section 50 in different scenes is stored. Each of the image data sets 83 includes a plurality of input image data 833, reduction depth map data 835 generated based on the plurality of input image data 833, and a plurality of input image data 833 And the foreground image data 837 generated based on the reduction depth map data 835 are included.

복수의 입력화상 데이터(833)는, 각각, 어떤 씬에 대해서 촬상부(50)에 의해서 초점거리나 포커싱 거리, 조리개값 등의 카메라에서의 촬상에 대한 제원(諸元)(이하, 「카메라 제원」이라 함)을 변경하여 촬상부(50)에 의해서 촬상된 촬영화상인 입력화상과, 상기 입력화상에 관한 부수정보로 이루어지는 데이터이다. 각 입력화상 데이터(833)에 있어서의 상기 입력화상의 부수정보로서, 촬영일시(833a)와, 입력화상을 유니크하게 식별하기 위한 화상번호(833b)와, 축소된 입력화상의 데이터인 축소 입력화상 데이터(833c)가 대응되어서 기억되어 있다. The plurality of input image data 833 are information for specifying a scene for which imaging is performed by a camera such as a focal length, a focusing distance, a diaphragm value, etc. (hereinafter, Quot;), and is data composed of an input image which is a captured image picked up by the image pickup section 50, and a side information relating to the input image. As the side information of the input image in each input image data 833, the image pickup date and time 833a, an image number 833b for uniquely identifying the input image, Data 833c are stored in association with each other.

촬영일시(833a)는, 시계부(70)의 계시시각에 근거하여 처리부(10)에 의해 입력화상 데이터(833)에 기억된다. The shooting date and time 833a is stored in the input image data 833 by the processing unit 10 based on the time counted by the clock unit 70. [

이 실시형태에 있어서, 처리부(10)는, 소정의 룰에 따라서 화상번호(833b)를 설정하고, 입력화상 데이터(833)에 대응시켜서 기억한다. In this embodiment, the processing unit 10 sets the image number 833b in accordance with a predetermined rule, and stores it in association with the input image data 833. [

예컨대, 촬상부(50)가, 촬상시에 제일 앞쪽에 초점을 맞추어서 촬상하고, 서서히 초점을 안쪽으로 이동시켜서 촬상을 행하는 경우, 처리부(10)는, 각각의 입력화상의 촬영일시(833a)에 근거하여, 촬영시각이 나중이 될수록 초점거리가 길어진다는 룰에 근거하여, 촬영시각이 빠른 입력화상으로부터 순서대로, 1부터 차례로 화상번호(833b)를 할당한다. 반대로, 촬상시에 가장 뒤쪽에 초점을 맞추어서 촬상하고, 서서히 초점을 앞으로 이동시켜서 촬상을 행하는 경우에는, 촬영시각이 나중이 될수록 초점거리가 짧아진다는 룰에 근거하여, 촬영시각이 늦은 입력화상으로부터 순서대로, 1부터 차례로 화상번호(833b)를 할당하면 좋다. 또한, 이 외에도, 촬상시의 카메라 제원에 대응하여 화상명이 자동적으로 부여되는 경우(예컨대 포커싱 거리가 증가하는데 따라서 Image ××에 있어서 ××가 증가하도록 자동적으로 화상파일명이 부여되는 경우)에는, 촬영화상의 화상명(Image1, Image2, Image3, …)의 순서(오름차순)대로 화상번호(833b)를 할당함으로써 해도 좋다. For example, in the case where the imaging section 50 performs imaging by moving the focal point inward gradually while taking an image while focusing on the first front side at the time of imaging, the processing section 10 sets the imaging date and time 833a of each input image On the basis of the rule that the focal length becomes longer as the photographing time becomes later, the image number 833b is assigned in order from the input image having the earlier photographing time in order from the first. On the contrary, when the image is picked up with the focal point positioned at the rearmost position at the time of image pickup and the focus is shifted forward, the focal distance becomes shorter as the photographing time becomes later, The image number 833b may be assigned in order starting from the first. In addition, in the case where the image name is automatically given in correspondence with the camera specification at the time of image pickup (for example, when the image file name is automatically given so that xx increases in Image xx as the focusing distance increases, The image number 833b may be allocated according to the order of the image names (Image1, Image2, Image3, ...) of the image (ascending order).

또한, 예컨대, 촬상부(50)가, 촬상시에 카메라 제원을 EXIF 정보 등의 메타데이터로서 입력화상에 기억시키는 구성으로 되어 있는 경우에는, 그 카메라 제원을 참조하여, 카메라 제원에 대응한 화상번호(833b)를 할당하도록 하는 것도 가능하다. In a case where the imaging unit 50 is configured to store the camera specification data as meta data such as EXIF information in the input image at the time of imaging, the image specification unit 50 refers to the camera specification, (833b) may be allocated.

축소 깊이 맵 데이터(835)는, 깊이 맵 생성부(113)가 축소 입력화상을 이용하여 생성한 축소된 깊이 맵인 축소 깊이 맵의 데이터이다. 깊이 맵이란, 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 정보인 심도가 화소별로 정해진 맵 데이터이다. 본 실시형태에서는, 대상화소에 대해서, 복수의 입력화상 중 어느 쪽의 입력화상으로 포커싱되어 있는지를 나타내는 정보인 심도를 추정하는 심도추정처리를 행하고, 그 심도추정의 결과에 근거하여 깊이 맵을 생성한다. 또한, 본 실시형태에서는, 대상화소를 화상 중의 모든 화소로 하여 설명하지만, 화상 중의 모든 화소가 아니라, 화상 중의 일부의 영역에 포함되는 화소를 대상화소로 해도 좋은 것은 물론이다. The reduced depth map data 835 is data of a reduced depth map which is a reduced depth map generated by the depth map generating unit 113 using the reduced input image. The depth map is map data in which the depth, which is information indicating which of the plurality of input images is focused on which input image, is determined pixel by pixel. In the present embodiment, a depth estimation process for estimating a depth, which is information indicating which one of a plurality of input images is focused, is performed on a target pixel, and a depth map is generated based on the result of the depth estimation do. In the present embodiment, the target pixel is described as all the pixels in the image. However, it is needless to say that not all the pixels in the image but pixels included in a part of the image may be used as target pixels.

전 초점화상 데이터(837)는, 전 초점화상 생성부(119)가 깊이 맵과 복수의 입력화상을 이용하여 생성한 모든 화소에 있어서 포커싱되어 있는 것으로 추정되는 입력화상의 화소값으로 구성되는 화상의 데이터이다. The fore-focus image data 837 is a histogram of the image composed of the pixel values of the input image estimated to be focused in all the pixels generated by using the depth map and the plurality of input images Data.

복수의 입력화상이나 전 초점화상은, 예컨대 JPEG 형식으로 부호화되고, 화상 No(831)나 촬영일시(832), 스마트폰의 기종, 조리개값, 초점거리, 포커싱 거리, 화소수, GPS 정보 등의 부수적인 EXIF 정보와 함께 기억된다. 이때, 축소 깊이 맵 데이터(835)는, 부수적인 데이터로서 EXIF 정보에 포함시키는 형태로 기억시킬 수 있고, 이와 같이 함으로써, 하나의 JPEG 파일로서 기억부(80)에 기억시킬 수 있다. EXIF 정보에는, 축소 깊이 맵의 생성에 이용한 정보(예컨대 축소율)를 더 포함시킬 수 있다. 화상데이터 세트(83)는, 비휘발성의 메모리(예컨대 플래시ROM)에 기억된다. The plurality of input images or the foreground images are coded in, for example, the JPEG format, and encoded into the image No. 831, the shooting date and time 832, the type of the smartphone, the aperture value, the focal length, It is stored together with the accompanying EXIF information. At this time, the reduced depth map data 835 can be stored in the form of being included in the EXIF information as additional data. By doing so, the reduced depth map data 835 can be stored in the storage unit 80 as one JPEG file. The EXIF information may further include information (for example, reduction rate) used for generating the reduced depth map. The image data set 83 is stored in a nonvolatile memory (e.g., flash ROM).

또한, 축소 깊이 맵을 부수적인 데이터로서 EXIF 정보에 포함시키는 것이 아니라, 축소 깊이 맵을 복수의 입력화상 및 전 초점화상의 적어도 일방과 함께 JPEG 형식으로 부호화하여 화상데이터 세트(83)에 포함시키도록 하는 것도 가능하다. 이 경우는, 이들의 부호화된 화상데이터의 EXIF 정보로서, 축소 깊이 맵의 생성에 이용한 정보(예컨대 축소율)를 포함시키도록 하면 좋다. Instead of including the reduced depth map as additional data in the EXIF information, the reduced depth map may be encoded in the JPEG format together with at least one of the plurality of input images and the foreground image and included in the image data set 83 It is also possible to do. In this case, the EXIF information of the coded image data may include information (for example, reduction rate) used for generating the reduced depth map.

또한, 자세한 것은 후술하겠지만, 본 실시형태에서는, 복수의 입력화상의 초점이 적절히 분리되어 있는지를 판정하는 초점분리 판정처리를 행하고, 초점이 적절히 분리되어 있는 입력화상을 이용하여 축소 깊이 맵을 생성한다. 즉, 초점이 적절히 분리되어 있지 않으면 판정된 입력화상은 축소 깊이 맵의 생성에 이용되지 않는다. 이로 인하여, 복수의 입력화상 중, 어느 쪽의 입력화상을 축소 깊이 맵의 생성에 이용했는지를 나타내는 정보를 EXIF 정보에 포함시키도록 하면 바람직하다. 즉, 축소 깊이 맵과, 상기 축소 깊이 맵의 생성에 이용한 입력화상의 정보를 관련지어서 기억하게 함으로써, 이후에 축소 깊이 맵을 이용하여 전 초점화상의 생성이나 강조화상의 생성, 강조화상의 수정 등의 처리를 행할 때에, 어느 입력화상을 이용하여 처리를 행하면 좋은지가 명확해진다. As will be described in detail later, in the present embodiment, focus separation determination processing for determining whether or not the focus of a plurality of input images is appropriately separated is performed, and a reduced depth map is generated using an input image in which the focus is appropriately separated . That is, if the focus is not appropriately separated, the determined input image is not used for generation of the reduced depth map. Therefore, it is preferable to include, in the EXIF information, information indicating which of the plurality of input images has been used to generate the reduced depth map. That is, by storing the reduced depth map and the information of the input image used for generating the reduced depth map in association with each other, the generation of the foreground image, the generation of the enhanced image, and the correction of the enhanced image It is made clear which input image should be used for processing.

강조화상 데이터(85)는, 강조화상 생성부(123)가, 유저 조작에 따라서 전 초점화상 중 특정의 화소부분을 강조하고, 다른 화소부분을 셰이딩한 화상의 데이터이다. 또한, 이 강조화상 데이터(85)는, 일시 데이터로서 휘발성의 메모리(예컨대 RAM)에 기억시키는 것으로 해도 좋고, 화상데이터 세트(83)에 포함시켜서 비휘발성의 메모리(예컨대 플래시ROM)에 기억시키는 것으로 해도 좋다. The emphasis image data 85 is data of an image in which the emphasized image generating section 123 emphasizes a specific pixel portion of the foreground image according to a user operation and shades another pixel portion. The emphasized image data 85 may be stored in a volatile memory (for example, a RAM) as temporary data or may be stored in a nonvolatile memory (for example, a flash ROM) in the image data set 83 Maybe.

수정 강조화상 데이터(87)는, 강조화상 수정부(125)가, 유저 조작에 따라서 강조화상의 일부를 수정한 화상데이터이다. 또한, 이 수정 강조화상 데이터(87)도, 일시 데이터로서 휘발성의 메모리(예컨대 RAM)에 기억시키는 것으로 해도 좋고, 화상데이터 세트(83)에 포함시켜서 비휘발성의 메모리(예컨대 플래시ROM)에 기억시키는 것으로 해도 좋다. The corrected emphasis image data 87 is image data obtained by correcting a part of the emphasized image in accordance with a user operation. The corrected emphasis image data 87 may be stored as temporary data in a volatile memory (for example, RAM) or may be stored in a nonvolatile memory (for example, flash ROM) in the image data set 83 .

패널티값 테이블(89)은, 심도추정부(111)가 행하는 심도추정처리에 있어서, 후술하는 적절해 연산처리로서 스코어값 연산처리를 행할 때에 이용하는 파라미터값의 일종인 패널티값이 정해진 테이블이며, 비휘발성의 메모리(예컨대 ROM)에 미리 기억되어 있다. 스코어값 연산처리에서는, 대상화소에 대해서, 상기 대상화소의 대응하는 심도의 엣지화상의 엣지강도에 대응한 코스트값(cost 値)을 산출하고, 코스트값과 패널티값을 이용하여, 소정의 에너지함수의 값을 스코어값으로 하여 연산한다. 패널티값은, 대상화소와 상기 대상화소의 근방화소에서, 포커싱되어 있다고 하는 입력화상을 변화시키는 경우에 부과되는 패널티이다. 본 실시형태에 있어서, 코스트값은 제1종 파라미터값에 상당하고, 패널티값은 제2종 파라미터값에 상당하다. The penalty value table 89 is a table in which the penalty value, which is a kind of parameter value used when the score value calculation process is performed as the appropriate solution calculation process to be described later, is set in the depth estimation process performed by the depth estimation unit 111, And stored in a volatile memory (e.g., ROM) in advance. In the score value calculation process, a cost value (cost value) corresponding to the edge intensity of the edge image at the corresponding depth of the target pixel is calculated for the target pixel, and the cost value and the penalty value are used to calculate a predetermined energy function As a score value. The penalty value is a penalty imposed when changing an input image that is focused on a target pixel and a neighboring pixel of the target pixel. In the present embodiment, the cost value corresponds to the first kind parameter value, and the penalty value corresponds to the second kind parameter value.

도 3은, 패널티값 테이블(89)의 테이블 구성의 일례를 나타내는 도이다. 3 is a diagram showing an example of the table configuration of the penalty value table 89. Fig.

패널티값 테이블(89)에는, 종별(891)과, 제1의 패널티값(893)과, 제2의 패널티값(895)이 대응되어서 정해져 있다. In the penalty value table 89, the category 891, the first penalty value 893, and the second penalty value 895 are associated with each other.

대상화소와 근방화소에서, 포커싱되어 있다고 하는 입력화상을 화상번호(833b)에서 「1」만큼 변화시키는 경우의 패널티값이 제1의 패널티값(893)이다. 또한, 대상화소와 근방화소에서, 포커싱되어 있다고 하는 입력화상을 화상번호(833b)에서 「2 이상」 변화시키는 경우의 패널티값이 제2의 패널티값(895)이다. 그리고, 종별(891)의 「통상시」에는, 제1의 패널티값(893)으로서 「P1」이, 제2의 패널티값(895)으로서 「P2」가 각각 정해져 있다. 단, 「P1 < P2」이다. The penalty value when the input image that is focused on the target pixel and the neighboring pixels is changed by &quot; 1 &quot; in the image number 833b is the first penalty value 893. In addition, the penalty value when the input image that is focused on the target pixel and the neighboring pixels is changed to "2 or more" in the image number 833b is the second penalty value 895. "P 1 " is set as the first penalty value 893 and "P 2 " is set as the second penalty value 895 in the "normal time" of the category 891. However, &quot; P 1 &lt; P 2 & quot ;.

또한, 종별(891)의 「강조화상 수정시」에는, 유저에 의한 드래그방향과 엣지방향이 소정의 근사(近似)조건을 만족하는 경우와, 유저에 의한 드래그방향과 엣지방향이 소정의 괴리(乖離)조건을 만족하는 경우에서, 다른 패널티값이 정해져 있다. 구체적으로는, 전자에 대해서는, 제1의 패널티값(893)으로서 「P1-α」가, 제2의 패널티값(895)으로서 「P2-α」가 각각 정해져 있다. 또한, 후자에 대해서는, 제1의 패널티값(893)으로서 「P1+α」가, 제2의 패널티값(895)으로서 「P2+α」가 각각 정해져 있다. 「α」의 값은 적절하게 설정 가능하고, 예컨대 「α=1」이다. In addition, in the case of "correcting the emphasized image" of the category 891, there is a case where the drag direction and the edge direction by the user satisfy a predetermined approximate condition and the case where the drag direction by the user and the edge direction are set at a predetermined distance Dissociation) condition is satisfied, another penalty value is determined. Specifically, for the former, "P 1 -α" is defined as the first penalty value 893 and "P 2 -α" is defined as the second penalty value 895. With respect to the latter, as a penalty value (893) of the first is "P 1 + α", a penalty is defined as a value 895 of each of the 2 "P 2 + α". The value of &quot; alpha &quot; can be appropriately set, for example, &quot; alpha = 1 &quot;.

2-1. 제1 실시예2-1. First Embodiment

2-1-1. 처리의 흐름2-1-1. Flow of processing

도 4 및 도 5는, 처리부(10)가 기억부(80)에 기억되어 있는 화상처리 프로그램(81)에 따라서 실행하는 화상처리의 흐름을 나타내는 플로우차트이다. 이 화상처리는, 스마트폰(1)의 카메라기능이 유저에 의해 선택된 경우에 실행을 개시하는 처리이다. 4 and 5 are flow charts showing the flow of image processing executed by the processing section 10 in accordance with the image processing program 81 stored in the storage section 80. Fig. This image processing is processing for starting execution when the camera function of the smartphone 1 is selected by the user.

본 실시예에서는, 화상처리로서, 「촬영모드」로서, 예컨대 초점거리를 변경하여 촬상된 복수의 촬영화상을 입력화상으로서 이용하여 깊이 맵이나 전(全) 초점화상, 강조화상, 수정 강조화상의 생성·표시를 행하는 것에 주안점을 둔 처리를 도시·설명한다. 단, 종래의 스마트폰에 구비되어 있는 카메라기능과 같이, 초점거리를 변경하지 않고 팬 포커스인 화상을 촬상하여 표시하는 「통상 촬영모드」에서의 촬상을 행하는 것도 당연히 가능하지만, 이에 대한 처리에 대해서는 도시·설명을 생략한다. In the present embodiment, as the image processing, as a "photographing mode", a plurality of photographed images obtained by changing the focal distance, for example, are used as input images to generate a depth map, a full focus image, And a process that focuses on generation and display are described and illustrated. However, as in the camera function provided in the conventional smart phone, it is naturally possible to perform imaging in the &quot; normal shooting mode &quot; in which the image of the pan focus is captured and displayed without changing the focal distance. Explanations are omitted.

맨 처음에, 처리부(10)는, 유저에 의해 입력부(20)를 통하여 선택된 모드를 판정한다(스텝 A1). 선택된 모드가 「촬영모드」인 경우는(스텝 A1; 촬영모드), 처리부(10)는, 유저의 셔터조작에 따라서, 동일 씬에 대해서 초점거리를 변경하여 복수 매의 화상의 촬상을 촬상부(50)에 행하게 하도록 제어한다(스텝 A3). 예컨대, 유저에 의한 1회의 셔터조작에 수반하여, 어떤 씬을 대상으로 한 하나의 화상데이터 세트(83)가 취득되는 것으로 한다. First, the processing unit 10 determines the mode selected by the user through the input unit 20 (step A1). When the selected mode is the &quot; photographing mode &quot; (step A1; photographing mode), the processing unit 10 changes the focal distance for the same scene according to the shutter operation of the user, 50) (step A3). For example, it is assumed that one image data set 83 for a certain scene is acquired with one shutter operation by the user.

그 후, 입력화상 축소부(101)가, 소정의 축소방법을 이용하여 복수의 입력화상을 각각 축소하는 입력화상 축소처리를 행한다(스텝 A5). 이 경우, 가능한 한 원래의 입력화상의 화상정보를 잃어버리지 않도록, 예컨대 가로 세로를 1/2n (n는 1 이상의 정수)로 축소한다. 입력화상의 축소는, 다운 샘플링 등의 공지의 수법에 의해서 실현할 수 있다. 축소 입력화상은, 축소 대상이 된 원래의 입력화상에 대응시켜서 기억된다. Thereafter, the input image reduction unit 101 performs input image reduction processing for reducing a plurality of input images by using a predetermined reduction method (step A5). In this case, for example, the image is reduced to 1/2 n (n is an integer of 1 or more) so that the image information of the original input image is lost as much as possible. The reduction of the input image can be realized by a known technique such as downsampling. The reduced input image is stored in association with the original input image to be reduced.

그 후, 위치맞춤부(103)가, 기억부(80)에 기억된 복수의 축소 입력화상의 위치맞춤 처리를 행한다(스텝 A7). Thereafter, the alignment unit 103 performs alignment processing of a plurality of reduced input images stored in the storage unit 80 (step A7).

유저에 의한 촬영이 스마트폰(1)을 고정한 상태 등의 안정된 상태에서의 촬영이 아니라, 촬영자가 손으로 든 상태로 행해진 경우, 입력화상 사이에서 위치 어긋남이 발생할 가능성이 높다. 위치 어긋남이 있으면, 포커싱·비포커싱으로서 출력하는 화소의 위치가 어긋나 버리고, 그 결과, 잘못된 깊이정보를 포함하는 깊이 맵을 생성해 버릴 우려가 있다. 여기서, 축소 입력화상의 위치맞춤을 행한다. 위치맞춤 처리에는, 여러 가지의 수법을 적용할 수 있는데, 예컨대 옵티컬 플로우를 이용한 공지의 위치맞춤 수법을 적용할 수 있다. 이 수법에는, 블록 매칭법이나 구배법 등의 수법이 포함된다. There is a high possibility that positional deviation occurs between the input images when photographing by the user is performed in a state in which the photographer is in a hand, not in a stable state such as a state where the smartphone 1 is fixed. If there is a positional shift, the position of a pixel to be output as focusing or non-focusing is shifted, and as a result, a depth map including incorrect depth information may be generated. Here, the reduced input image is aligned. For the alignment processing, various techniques can be applied. For example, a known alignment technique using an optical flow can be applied. This method includes a block matching method and a gradient method.

다음에, 콘트라스트 보정부(105)가, 콘트라스트 보정처리를 행한다(스텝 A9). 후술하는 엣지검출처리에 있어서 엣지를 검출할 때에, 촬영 씬에 강한 광이 존재하는 것에 기인하여, 입력화상 사이에서 엣지가 어긋난다고 하는 문제가 있다. 여기서, 입력화상의 휘도에 대해서, 소정의 콘트라스트 보정의 연산식에 따르는 콘트라스트 보정을 행한다. 이 경우, 화상 전체에 콘트라스트 보정을 실시함으로써 해도 좋고, 화상 중의 일부분에 콘트라스트 보정을 실시함으로써 해도 좋다. Next, the contrast correction section 105 performs a contrast correction process (step A9). There is a problem that the edges are shifted between the input images due to the presence of strong light in the shooting scene when the edge is detected in the edge detection processing to be described later. Here, contrast correction is performed according to a predetermined contrast correction expression for the luminance of the input image. In this case, the entire image may be subjected to contrast correction, or a part of the image may be subjected to contrast correction.

화상 중의 일부분에 콘트라스트 보정을 실시하는 경우에 있어서는, 하이라이트 클리핑(highlights clipping; blown out highlights)의 발생을 고려할 필요가 있다. 하이라이트 클리핑이란, 강한 광이 조사되고 있는 영역에 있어서 노출 오버가 발생하고, 해조(諧調)의 정보를 잃어버리게 되어 새하얗게 되어 버리는 것을 의미한다. 하이라이트 클리핑되어 있는 영역(이하, 「하이라이트 클리핑영역」이라 함)에서는, 해조가 전체적으로 둔해져 버리는 경우가 있어서, 엣지를 검출할 때에, 적절한 엣지가 검출되지 않게 될 우려가 있다. When contrast correction is applied to a part of an image, it is necessary to consider the occurrence of highlight clipping (blown out highlights). The highlight clipping means that overexposure occurs in a region where strong light is irradiated, information of a seaweed (tone) is lost, and it becomes whitish. In a highlight clipped area (hereinafter referred to as a &quot; highlight clipping area &quot;), the seaweed may be entirely dulled, so that there is a possibility that an appropriate edge may not be detected when the edge is detected.

여기서, 공지의 수법을 이용하여 하이라이트 클리핑영역을 검출하고, 상기 하이라이트 클리핑영역에 대해서, 바람직하게는 상기 하이라이트 클리핑영역을 포함하는 한 둘레 더 큰 영역에 대해서 국소적으로 콘트라스트를 낮추는 처리를 행한다. 이 처리에 의해, 뒷단의 엣지검출처리에서 하이라이트 클리핑영역의 경계에서 잘못된 위치에서의 엣지를 검출하지 않도록 할 수 있어서, 후술하는 심도추정 및 깊이 맵 생성에 있어서 엣지의 어긋남의 영향을 저감할 수 있다. Here, a highlight clipping area is detected using a known method, and a process of locally lowering the contrast for the highlight clipping area, preferably for a larger area including the highlight clipping area, is performed. With this processing, it is possible to prevent an edge at a wrong position from being detected at the border of the highlight clipping area in the trailing edge detection processing, and it is possible to reduce the influence of the edge deviation in the depth estimation and depth map generation described later .

또한, 상기의 하이라이트 클리핑은, 복수의 노출에서 동일 화상을 촬상하고, 1매의 화상에 합성하는 HDR을 적용하는 것에 의해서도 회피할 수 있다. 본원 출원인은, 노출변환 함수를 이용하여 하이라이트 클리핑을 회피하는 수법을 고안하고 있다. 자세한 것은, 국제공개 제2013/054446호 명세서에서 개시하고 있는데, 「y = a·xb」로 나타내는 노출변환 함수를 정의하고, 저노출의 입력화상의 화소값의 샘플 데이터를 이용한 최소이승법 등의 수법을 이용하여, 노출변환 함수에 포함되는(a, b)의 노출변환 파라미터의 값을 추정함으로써, 노출변환 함수를 구한다. 그리고, 구한 노출변환 함수를 이용하여 대상 화상의 해조값을 수정함으로써, 해조값의 둔함이 해소된 대상 화상을 생성한다. 이와 같이 하여 생성한 대상 화상에 대해서 엣지검출을 행함으로써, 후술하는 심도추정 및 깊이 맵 생성에 있어서 엣지의 어긋남의 영향을 저감할 수 있다. The above highlight clipping can also be avoided by capturing the same image in a plurality of exposures and applying HDR to be combined with one image. Applicants have devised a technique for avoiding highlight clipping using an exposure conversion function. The details are disclosed in International Publication No. 2013/054446, wherein an exposure conversion function represented by &quot; y = a x b &quot; is defined, and a minimum inversion method using sample data of pixel values of an input image of low exposure The exposure conversion function is estimated by estimating the values of the exposure conversion parameters (a, b) included in the exposure conversion function. Then, by using the obtained exposure conversion function to correct the seawater value of the target image, an object image in which the seawater dullness is eliminated is generated. By performing edge detection on the target image generated in this way, it is possible to reduce the influence of the edge deviation in depth estimation and depth map generation, which will be described later.

다음으로, 엣지검출부(107)가, 콘트라스트 보정처리에서 얻어진 복수의 축소 입력화상 각각에 대응하는 콘트라스트 보정화상에 대해서 엣지검출처리를 행한다(스텝 A11). 본 실시예에서는, 입력화상의 특징으로서, 콘트라스트 보정화상 속의 엣지를 검출한다. 구체적으로는, 예컨대, 엣지검출처리로서, 라플라스 필터를 이용한 엣지검출을 행한다. 다만, 라플라스 필터를 이용하는 것이 아니라, 이외에도 Sobel 필터나 Roberts 필터, Forsen 필터, 레인지 필터 등의 엣지검출용의 필터를 이용해도 좋다. 또한, 콘트라스트 보정화상을 푸리에변환에 의해서 주파수영역으로 변환하고, 저주파성분을 제거함으로써, 고주파성분인 엣지를 검출하는 것으로 해도 좋다. Next, the edge detection unit 107 performs edge detection processing on the contrast-corrected image corresponding to each of the plurality of reduced input images obtained in the contrast correction processing (step A11). In this embodiment, an edge in the contrast-corrected image is detected as a feature of the input image. Specifically, for example, as edge detection processing, edge detection is performed using a Laplace filter. However, instead of using a Laplace filter, a filter for edge detection such as a Sobel filter, a Roberts filter, a Forsen filter, or a range filter may be used. Further, the contrast-corrected image may be converted into a frequency domain by Fourier transform, and a low-frequency component may be removed to detect an edge that is a high-frequency component.

다음으로, 초점분리 판정부(109)가, 기억부(80)에 기억되어 있는 초점분리 판정 프로그램(811)에 따라서 초점분리 판정처리를 행한다(스텝 A13). Next, the focus separation determination unit 109 performs a focus separation determination process in accordance with the focus separation determination program 811 stored in the storage unit 80 (step A13).

도 6은, 초점분리 판정처리의 흐름을 나타내는 플로우차트이다. 6 is a flowchart showing the flow of the focus separation determination processing.

우선, 초점분리 판정부(109)는, 엣지화상간의 상관값을 산출한다(스텝 B1). 상관값은, 2개의 엣지화상을 구성하는 모든 화소에 대해서, 모든 화소끼리의 컨벌루션(convolution) 연산을 행하는 상관연산을 행함으로써 산출할 수 있다. 그리고, 초점분리 판정부(109)는, 각 엣지화상에 대해서, 엣지강도가 소정의 임계값 강도를 초과하는 화소수를 산출한다(스텝 B3). First, the focus separation judgment unit 109 calculates a correlation value between edge images (step B1). The correlation value can be calculated by performing a correlation calculation for all the pixels constituting the two edge images to perform a convolution operation on all the pixels. Then, the focus separation judgment unit 109 calculates the number of pixels whose edge strength exceeds a predetermined threshold value strength for each edge image (step B3).

그 후, 초점분리 판정부(109)는, 소정의 초점분리 조건을 만족하는 엣지화상을 판정한다(스텝 B5). 초점분리 조건은, 예컨대, 스텝 B1에서 산출한 상관값이 제1의 임계값에 도달하지 않고(제1의 임계값 조건), 또한, 스텝 B3에서 산출한 화소수가 제2의 임계값에 도달하고 있는(제2의 임계값 조건) 것으로서 정해 둘 수 있다. 즉, 상관값이 소정의 낮은 임계값 조건을 만족하고, 또한, 화소수가 소정의 높은 임계값을 만족하는 것을, 초점분리 조건으로서 정해 둔다. Thereafter, the focus separation judgment section 109 judges an edge image satisfying a predetermined focus separation condition (step B5). The focus separation condition is set such that, for example, the correlation value calculated in step B1 does not reach the first threshold value (first threshold value condition), and the number of pixels calculated in step B3 reaches the second threshold value (The second threshold condition). That is, the fact that the correlation value satisfies the predetermined low threshold value condition and the pixel number satisfies the predetermined high threshold value is set as the focus separation condition.

다만, 엣지강도가 소정의 임계값 강도를 초과하는 화소수 대신에, 엣지강도가 소정의 임계값 강도를 초과하는 화소의 비율을 산출함으로써 해도 좋다. 이 경우는, 상관값이 제1의 임계값에 도달하지 않고(제1의 임계값 조건), 또한, 엣지강도가 소정의 임계값 강도를 초과하는 화소의 비율이 소정의 임계값에 도달하고 있는(제2의 임계값 조건) 것을 초점분리 조건으로서 정함으로써 하면 좋다. 즉, 상관값이 소정의 낮은 임계값 조건을 만족하고, 또한, 화소의 비율이 소정의 높은 임계값을 만족하는 것을, 초점분리 조건으로서 정해 두는 것으로 해도 좋다. However, instead of the number of pixels whose edge strength exceeds a predetermined threshold value strength, the ratio of pixels whose edge strength exceeds a predetermined threshold value strength may be calculated. In this case, when the correlation value does not reach the first threshold value (the first threshold value condition) and the ratio of the pixels whose edge strength exceeds the predetermined threshold intensity reaches a predetermined threshold value (The second threshold value condition) as the focus separation condition. That is, it may be determined that the correlation value satisfies a predetermined low threshold value condition and that the ratio of pixels satisfies a predetermined high threshold value as the focus separation condition.

다음으로, 초점분리 판정부(109)는, 초점분리 조건을 만족한다고 판정한 엣지화상에 대응하는 입력화상을 심도추정에 이용할 입력화상으로 결정한다(스텝 B7). 그리고, 초점분리 판정부(109)는, 초점분리 조건을 만족하지 않는 입력화상을 소거한 후(스텝 B9), 초점분리 판정처리를 종료한다. Next, the focus separation determination unit 109 determines the input image corresponding to the edge image determined to satisfy the focus separation condition as an input image to be used for depth estimation (step B7). Then, the focus separation determination unit 109 erases the input image that does not satisfy the focus separation condition (step B9), and ends the focus separation determination processing.

다만, 상기에 있어서, 초점분리 조건을 만족하지 않는 입력화상이 존재한 경우에 에러통지를 행하는 것으로 하고, 유저에게 다시 촬영을 재촉하도록 해도 좋다. 즉, 촬상부(50)에 초점거리를 변경하여, 동일 씬의 촬상을 다시 행하도록 해도 좋다. However, in the above case, it is also possible to make an error notification when there is an input image that does not satisfy the focus separation condition, and prompt the user to take the image again. That is, the focal distance may be changed to the image pickup section 50, and the image pickup of the same scene may be performed again.

도 4로 돌아와서, 초점분리 판정처리를 행한 후, 심도추정부(111)가, 기억부(80)에 기억되어 있는 심도추정 프로그램(813)에 따라서 심도추정처리를 행한다(스텝 A15). Returning to Fig. 4, after performing the focus separation determination processing, the depth estimation unit 111 performs depth estimation processing according to the depth estimation program 813 stored in the storage unit 80 (step A15).

도 7은, 심도추정처리의 흐름을 나타내는 플로우차트이다. 7 is a flowchart showing the flow of the depth estimation processing.

심도추정부(111)는, 축소 입력화상을 구성하는 각 라인에 대해서 루프 A의 처리를 행한다(스텝 C1 ~ C9). 루프 A의 처리에서는, 심도추정부(111)는, 상기 라인에 포함되는 화소에 대해서 에너지함수에 근거하는 적절해 연산처리를 실행한다(스텝 C3). The depth estimation unit 111 performs processing of the loop A for each line constituting the reduced input image (steps C1 to C9). In the processing of the loop A, the depth estimating unit 111 executes an appropriate arithmetic processing based on the energy function on the pixels included in the line (step C3).

적절해 연산처리에서는, 복수의 입력화상별의 스코어값을, 상기 입력화상을 구성하는 화소에 대해서 연산하는 스코어값 연산처리를 실행한다. 구체적으로는, 에너지함수에 근거하여, 입력화상을 구성하는 화소별의 스코어값을 산출한다. 스코어값은, 대상화소에 대해서, 상기 대상화소의 대응하는 심도의 입력화상의 엣지강도에 대응하여 정해지는 코스트값과, 상기 대상화소에 대해서 포커싱되어 있다고 하는 제1의 입력화상과 상기 대상화소의 근방화소에 대해서 포커싱되어 있다고 하는 제2의 입력화상이 다른 경우의 패널티로서 정해지는 패널티값을 이용하여, 입력화상별의 스코어값을 연산한다. 그리고, 연산한 스코어값이 소정의 높은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 추정한다. In an appropriate arithmetic processing, a score value arithmetic processing for calculating a score value for each of a plurality of input images with respect to pixels constituting the input image is executed. Specifically, based on the energy function, the score value of each pixel constituting the input image is calculated. The score value includes a cost value determined for the target pixel corresponding to the edge intensity of the input image of the corresponding depth of the target pixel, a first input image that is focused on the target pixel, The score value for each input image is calculated by using the penalty value determined as the penalty for the case where the second input image that is focused on the neighboring pixels is different. Then, the input image in which the calculated score value satisfies the predetermined high value condition is estimated as the focused input image.

본 실시형태에서 이용하는 에너지함수에 대해서 설명한다. The energy function used in the present embodiment will be described.

본원발명자의 발견에 의하면, 엣지화상으로부터 구해지는 엣지의 강도(엣지강도)는, 그 초점거리에 있어서의 포커싱 정도와 상관이 있다. 그리고, 복수의 입력화상 중, 그 화소에 있어서 엣지가 가장 강한 입력화상이, 그 화소에 있어서의 가장 포커싱된 입력화상으로 말할 수 있다고 생각된다. 이 논리로부터, 엣지정보에 근거하여, 각 화소에 있어서의 깊이 적절해를 도출하고, 그 집합인 깊이 맵을 생성한다. 엣지화상으로부터 깊이 맵을 생성하는 것에 있어서는, 예컨대 다음 식 (1)에 나타내는 에너지함수를 이용한다. According to the discovery of the present inventor, the intensity (edge intensity) of an edge obtained from an edge image has a correlation with the degree of focusing at the focal length. It is considered that an input image having the strongest edge among the plurality of input images can be said to be the most focused input image in the pixel. From this logic, based on the edge information, a depth appropriate solution for each pixel is derived, and a depth map is generated as the set. For generating the depth map from the edge image, for example, the energy function shown in the following equation (1) is used.

Figure pat00001
Figure pat00001

식 (1)에 있어서, 「p」 및 「q」는 화소(화소의 좌표값)이며, 「Np」는 화소 p의 근방의 소정범위를 나타낸다. 화소 q는, 화소 p의 근방의 소정범위 Np에 포함되는 화소이며, 화소 p의 근방화소이다. In Equation (1), "p" and "q" are pixels (coordinate values of pixels), and "N p " represents a predetermined range in the vicinity of the pixel p. The pixel q is a pixel included in a predetermined range N p in the vicinity of the pixel p and is a pixel near the pixel p.

「Rx」는 화소 x에 있어서의 심도이며, 예컨대 입력화상의 화상번호(833b)와 1대1로 대응한다. 화상번호(833b)는, 상술한 바와 같이, 소정의 룰(예컨대, 촬영시각이 나중이 될수록 초점거리가 길어지는 또는 짧아지는 룰)에 근거하여 1에서 차례로 할당된다. 이 경우, 화상번호(833b)는 초점거리의 오름차순 또는 내림차순으로 되어 있기 때문에, 입력화상의 깊이를 나타내고 있다고 말할 수 있다. &Quot; R x &quot; is the depth in the pixel x and corresponds, for example, to the image number 833b of the input image on a one-to-one basis. As described above, the image number 833b is assigned in order of 1 based on a predetermined rule (for example, a rule that the focal length becomes longer or shorter as the photographing time becomes later). In this case, since the image number 833b is in ascending or descending order of the focal length, it can be said that it represents the depth of the input image.

「C(p, Rx)」는 심도 Rx에 있어서의 화소 p의 코스트값이며, 이 코스트값은, 엣지강도의 역수(逆數)로서 산출된다. 즉, 엣지강도가 강할수록 코스트값은 작아진다. T[ ]는 괄호내의 조건이 만족되는 경우에 「1」, 만족되지 않는 경우에 「0」을 취하는 함수이다. "C (p, R x )" is the cost value of the pixel p at the depth R x , and this cost value is calculated as the reciprocal of the edge intensity. That is, the higher the edge strength, the smaller the cost value. T [] is a function that takes "1" when the condition in the parentheses is satisfied, and "0" when it is not satisfied.

「P(p)」는 화소 p에 있어서의 패널티값이다. 「P1」는 심도가 1 변경된 경우의 패널티값인 제1의 패널티값이며, 「P2」는 심도가 2 이상 변경된 경우의 패널티값인 제2의 패널티값이다. 이 제1의 패널티값 및 제2의 패널티값은, 패널티값 테이블(89)의 「통상시」에 정해진 패널티값이다. 상술한 바와 같이, 「P1 < P2」이다. Quot; P (p) &quot; is the penalty value in the pixel p. "P 1 " is a first penalty value that is a penalty value when the depth is changed by one, and "P 2 " is a second penalty value that is a penalty value when the depth is changed by two or more. The first penalty value and the second penalty value are penalty values determined in the "normal time" of the penalty value table 89. Quot; P 1 &lt; P 2 & quot ;, as described above.

식 (1)의 에너지함수는, 대상화소 p에 대해서, 복수의 입력화상 중 가장 포커싱된 입력화상의 정보를 가능한 한 선택하면서, 대상화소 p의 근방화소 q에 대해서는 가능한 한 초점이 가까운 입력화상이 선택되도록, 각 화소에 대하여, 복수의 입력화상 중 어느 입력화상의 화소값을 이용하면 좋은지를 선택하기 위한 적절해를 도출하는 것이다. 적절해인 경우에는 이 에너지함수의 값인 스코어값은 최대값을 취한다. 또한, 이 에너지함수의 내부에 있어서는, 엣지화상에 있어서의 화소값(휘도값)에 대응하여 그 스코어값이 결정되고, 최대의 화소값을 취하는 입력화상을 순차 선택해 나가면 에너지함수의 출력이 최대가 되도록 설계되어 있다. 이를 나타내고 있는 것이 식 (1)의 우변 제1항의 코스트값이다. The energy function of the equation (1) is a function for selecting the information of the most focused input image among the plurality of input images as much as possible for the target pixel p, A suitable solution for selecting which of the plurality of input images to use the pixel value of the input image is derived for each pixel. If appropriate, the score value, which is the value of this energy function, takes the maximum value. In this energy function, the score value is determined corresponding to the pixel value (luminance value) in the edge image. When the input image having the maximum pixel value is sequentially selected, the output of the energy function becomes maximum Respectively. This is the cost value of the first term on the right side of equation (1).

한편으로, 대상화소 p의 근방화소 q에 있어서 선택하는 입력화상을 변화시키는 경우는, 패널티값이 과해지는, 즉 소정의 값을 빼는 설정으로 되어 있다. 이를 나타내고 있는 것이, 식 (1)의 우변 제2항 및 제3항의 패널티항이다. 구체적으로는, 대상화소 p에 대해서 포커싱되어 있다고 하는 제1의 입력화상과 근방화소 q에 대해서 포커싱되어 있다고 하는 제2의 입력화상이 다른 경우에는, 소정의 패널티값(제1의 패널티값 및 제2의 패널티값)을 스코어값으로부터 감산한다. On the other hand, when the input image to be selected is changed in the vicinity pixel q of the target pixel p, the penalty value is exceeded, that is, the predetermined value is subtracted. This is the penalty term of paragraphs 2 and 3 on the right side of equation (1). Specifically, when the first input image to be focused on the target pixel p is different from the second input image to be focused on the neighboring pixel q, a predetermined penalty value (a first penalty value and a second penalty value 2) is subtracted from the score value.

또한, 상기와 같이, 제2의 패널티값이 제1의 패널티값보다도 큰 값이 정해져 있다(P1 < P2). 이는, 대상화소 p에 대해서 추정되는 심도 「Rp」과, 근방화소 q에 대해서 추정되는 심도 「Rq」의 차가 클수록, 보다 큰 패널티값을 스코어값으로부터 감산하는 것을 의미한다. Further, as described above, the second penalty value is determined to be larger than the first penalty value (P 1 <P 2 ). This is because the greater the difference between the depth "R q" which is estimated with respect to the depth "R p", and the neighboring pixel q that is estimated for the target pixel p, means for subtracting a value from greater penalty score value.

이상으로부터, 식 (1)의 에너지함수는, 가능한 한 최대의 화소값을 취하는 입력화상을 선택하면서, 근방의 화소에서는 가능한 한 입력화상을 변화시키지 않도록 하기 위하여, 억제가 가해지도록 구성되어 있다. 코스트값을 이용함으로써, 각 화소에 대해서 엣지가 강한 입력화상이 포커싱되어 있는 입력화상으로서 선택되기 쉬워지도록 하여, 엣지의 강도를 반영한 깊이 맵을 얻을 수 있다. 또한, 패널티값을 이용함으로써, 추정되는 심도에 요철이 생기지 않도록 제약하고, 매끄럽게 심도가 변화하는 평활적으로 된 깊이 맵을 얻을 수 있다. From the above, the energy function of Equation (1) is configured such that suppression is applied so as not to change the input image as much as possible in neighboring pixels while selecting the input image that takes the maximum possible pixel value. By using the cost value, it is possible to easily select an input image having a strong edge with respect to each pixel as a focused image, thereby obtaining a depth map reflecting the strength of the edge. In addition, by using the penalty value, it is possible to obtain a smooth depth map in which the estimated depth is prevented from being uneven, and the depth of field is smoothly changed.

다만, 촬상부(50)가 촬상한 입력화상은, 원칙적으로 초점거리를 변경하여 촬상된 다른 촬영화상이지만, 동일한 초점거리의 화상이 입력화상 중에 포함되어 있어도 문제는 없다. 이 경우, 동일한 초점거리의 입력화상에 대해서는, 패널티값을 「0」으로 하여 상기의 적절해 연산처리를 행하면 좋다. However, the input image captured by the image pickup section 50 is, in principle, another captured image obtained by changing the focal distance, but there is no problem even if an image having the same focal length is included in the input image. In this case, for the input image of the same focal distance, the penalty value may be set to &quot; 0 &quot;

본 실시형태에서는, 상기의 적절해 연산처리에 있어서의 스코어값의 연산을 용이화하기 위해서, 식 (1)의 에너지함수를 일차원화하고, 입력화상을 구성하는 라인마다, 스코어값을 연산하여, 깊이 적절해를 산출한다. 식 (1)을 일차원화하면, 다음 식 (2)와 같이 된다. In this embodiment, in order to facilitate the calculation of the score value in the above-mentioned appropriate arithmetic processing, the energy function of the equation (1) is one-dimensionalized, the score value is computed for each line constituting the input image, Calculate the depth appropriate solution. If the equation (1) is linearized, the following equation (2) is obtained.

Figure pat00002
Figure pat00002

식 (2)에 있어서, 「Lr」는 라인 r에 있어서의 패널티 함수이다. 「Lr(p, d)」는, 라인 r에 있어서의 화소 p에 있어서의 코스트값이다. 또한, 「C(p, r)」는, 화소 p에 있어서 심도가 r인 경우의 코스트값이다. In equation (2), &quot; L r &quot; is a penalty function in line r. &Quot; Lr (p, d) &quot; is the cost value in the pixel p in the line r. Further, &quot; C (p, r) &quot; is a cost value when the depth of pixel p is r.

스텝 C3에서는, 식 (2)의 에너지함수에 근거하여 스코어값 산출처리를 실행하고, 상기 라인을 구성하는 화소 각각에 대해서 스코어값을 산출한다. 그리고, 심도추정부(111)는, 상기 라인에 포함되는 화소 각각에 대해서, 상기 화소 x에 대해서 스코어값이 최대가 된 심도 Rx를 판정한다(스텝 C5). 그리고, 심도추정부(111)는, 판정한 심도 Rx에 대응하는 화상번호(833b)의 입력화상을 상기 화소 x에 있어서의 포커싱되어 있는 입력화상으로 판정한 후(스텝 C7), 다음의 라인으로 처리를 이행한다. In step C3, a score value calculating process is executed based on the energy function of equation (2), and a score value is calculated for each pixel constituting the line. Then, the depth estimation unit 111 determines a depth R x at which the score value becomes the maximum for the pixel x for each of the pixels included in the line (step C 5). The depth estimating unit 111 then judges the input image of the image number 833b corresponding to the determined depth R x as the focused image of the pixel x (step C7) .

입력화상을 구성하는 모든 라인에 대해서 스텝 C3 ~ C7의 처리를 행했다면, 심도추정부(111)는, 루프 A의 처리를 종료하고(스텝 C9), 심도추정처리를 종료한다. If the processing of steps C3 to C7 is performed on all the lines constituting the input image, the depth estimating unit 111 ends the processing of the loop A (step C9) and terminates the depth estimation processing.

도 4의 화상처리로 돌아와서, 심도추정처리를 행했다면, 깊이 맵 생성부(113)가, 축소 깊이 맵 생성처리를 행한다(스텝 A17). 구체적으로는, 심도추정처리의 결과에 근거하여, 축소 입력화상을 구성하는 각 화소에 대해서 추정된 심도에 대응한 비트값을 할당한 맵을 생성하고, 이를 축소 깊이 맵이라 한다. 다만, 생성하는 축소 깊이 맵은, 심도추정처리에서 이용한 입력화상의 수에 대응하여 비트수를 설정하면 좋다. 예컨대, 입력화상이 3 ~ 4매이면 2비트, 5 ~ 8매이면 3비트로 깊이 맵을 표현하면 좋다. 생성된 축소 깊이 맵은, 기억부(80)의 화상데이터 세트(83)에 복수의 입력화상과 대응시켜서 기억된다. Returning to the image processing of Fig. 4 and performing the depth estimation processing, the depth map generation unit 113 performs the reduced depth map generation processing (step A17). Specifically, based on the result of the depth estimation processing, a map in which a bit value corresponding to the estimated depth is assigned to each pixel constituting the reduced input image is called a reduced depth map. However, the number of bits may be set corresponding to the number of input images used in the depth estimation processing, for the generated reduced depth map. For example, if the number of input images is 3 to 4, the depth map may be represented by 2 bits, and if the number of input images is 5 to 8, the depth map may be expressed by 3 bits. The generated reduced depth map is stored in the image data set 83 of the storage unit 80 in association with the plurality of input images.

다음으로, 깊이 맵 복원부(115)가, 축소 깊이 맵 복원처리를 행한다(스텝 A19). 구체적으로는, 축소 깊이 맵을 소정의 복원방법을 이용하여 원래의 크기로 확대하고, 이를 복원 깊이 맵이라 한다. Next, the depth map restoration unit 115 performs a reduced depth map restoration process (step A19). Specifically, the reduced depth map is enlarged to an original size using a predetermined restoration method, and this is referred to as a restoration depth map.

다음으로, 깊이 맵 수정부(117)가, 깊이 맵 수정처리를 행한다(스텝 A21). 구체적으로는, 깊이 맵 수정부(117)는, 복수의 입력화상 중에서 선택한 하나의 입력화상을 수정용 화상으로서 이용하여 복원 깊이 맵을 수정한다. 이 경우는, 예컨대, 복수의 입력화상 중, 초점거리가 중간값에 가장 가까운 입력화상을 수정용 화상으로 하여 선택할 수 있다. Next, the depth map correcting unit 117 performs a depth map correcting process (step A21). Specifically, the depth map correcting unit 117 corrects the restoration depth map by using one input image selected from a plurality of input images as a correction image. In this case, for example, among the plurality of input images, the input image whose focal distance is closest to the intermediate value can be selected as the correction image.

다만, 복수의 입력화상 중에서 선택한 2 이상의 입력화상을 합성한 합성화상을 수정용 화상으로서 이용하는 것으로 해도 좋다.However, a synthesized image obtained by synthesizing two or more input images selected from a plurality of input images may be used as a correction image.

깊이 맵의 수정은, 수정용 화상의 화소값을 이용한 가중평균화 처리를 행함으로써 실현할 수 있다. 이 가중평균화 처리는, 다음 식 (3)으로 주어진다. The correction of the depth map can be realized by performing weighted averaging processing using the pixel value of the correction image. This weighted average processing is given by the following equation (3).

Figure pat00003
Figure pat00003

식 (3)에 있어서, 「p」는 수정 대상화소이며, 「q」는 수정 대상화소의 근방에 위치하는 근방화소이다. 「G(p, q)」는 수정 대상화소 p와 근방화소 q의 사이의 거리가 가까울수록 값이 커지는 함수이며, 예컨대 가우스 함수로 주어진다. 또한, 「I(p)」는 수정용 화상의 수정 대상화소 p에 있어서의 휘도값이며, 「I(q)」는 수정용 화상의 근방화소 q에 있어서의 휘도값이다. 그리고, 「W(I(p), I(q))」는, 휘도값 「I(p)」와 「I(q)」가 가까운 값일수록 값이 커지는 함수이다. 「D(q)」는 깊이 맵에 있어서의 근방화소 q에 있어서의 값이며, 「D'(p)」는 가중평균화로 얻어지는 깊이 맵의 수정 대상화소 p에 있어서의 수정값을 나타낸다. 이와 같이 하여 얻어진 수정 깊이 맵을, 이후의 처리에 있어서 깊이 맵으로서 이용한다. In Equation (3), "p" is a correction target pixel and "q" is a neighboring pixel located in the vicinity of the correction target pixel. "G (p, q)" is a function that increases as the distance between the pixel p to be corrected and the neighboring pixel q becomes closer, and is given by, for example, a Gaussian function. "I (p)" is the luminance value in the pixel p to be corrected in the correction image, and "I (q)" is the luminance value in the pixel q in the vicinity of the correction image. I (p) and I (q) are functions whose values become larger as the luminance values I (p) and I (q) become closer to each other. "D (q)" is a value at a nearby pixel q in the depth map, and "D '(p)" represents a correction value at the pixel p to be corrected in the depth map obtained by weighted averaging. The correction depth map thus obtained is used as a depth map in subsequent processing.

여기서, 식 (3)의 가중평균화 처리의 처리부하를 경감하기 위하여, 상세한 원리 설명은 생략하지만, 양자화 코드를 이용하여 다음 식 (4)에 따라서 가중평균화 처리를 행하도록 해도 좋다. Here, in order to reduce the processing load of the weighted averaging process of the equation (3), the explanation of the principle principle is omitted, but the weighted averaging process may be performed using the quantization code according to the following equation (4).

Figure pat00004
Figure pat00004

다음으로, 전(全) 초점화상 생성부(119)가, 전 초점화상 생성처리를 행한다(스텝 A23). 구체적으로는, 스텝 A21에서 수정된 깊이 맵에 근거하여, 복수의 입력화상 중에서 선택해야 할 화소값을 추출하고, 모든 화소에 있어서 포커싱도가 높은 입력화상의 화소값으로 구성되는 전 초점화상을 생성한다. 생성된 전 초점화상 데이터(837)는, 기억부(80)의 화상데이터 세트(83)에 입력화상 데이터(833) 및 축소 깊이 맵(835)과 대응시켜서 기억된다. Next, the full-focus image generation unit 119 performs a foreground image generation process (step A23). Specifically, on the basis of the depth map corrected in step A21, a pixel value to be selected from among a plurality of input images is extracted, and a foreground image composed of pixel values of an input image having a high degree of focusing in all the pixels is generated do. The generated front focus image data 837 is stored in correspondence with the input image data 833 and the reduction depth map 835 in the image data set 83 of the storage unit 80.

도 5로 이동하여, 표시제어부(127)는, 전 초점화상을 표시부(30)에 표시시키도록 제어한다(스텝 A25). 그 후, 처리부(10)는, 유저에 의해서 입력부(20)를 통하여 「강조화상 생성모드」가 선택되었는지 아닌지를 판정하고(스텝 A27), 선택되었다고 판정했다면(스텝 A27; Yes), 강조화상 생성부(123)가, 기억부(80)에 기억되어 있는 강조화상 생성 프로그램(815)에 따라서 강조화상 생성처리를 행한다(스텝 A29). 5, the display control unit 127 controls the display unit 30 to display a foreground image (step A25). Thereafter, the processing unit 10 determines whether or not the user has selected the &quot; enhanced image generation mode &quot; through the input unit 20 (step A27) The unit 123 performs emphasis image generation processing in accordance with the emphasis image generation program 815 stored in the storage unit 80 (step A29).

도 8은, 강조화상 생성처리의 흐름을 나타내는 플로우차트이다. 8 is a flowchart showing the flow of the enhanced image generation processing.

강조화상 생성부(123)는, 유저 조작에 따라서 지정영역을 판정한다(스텝 D1). 구체적으로는, 터치패널(21) 중 탭 된 영역을 인식하고, 탭 된 영역을 지정영역으로 판정한다. 그 후, 강조화상 생성부(123)는, 지정영역 중에서 대표화소를 선택한다(스텝 D3). The emphasized image generating section 123 judges the designated area according to the user operation (step D1). Specifically, the tapped area of the touch panel 21 is recognized, and the tapped area is determined as the designated area. Thereafter, the emphasized-image generating unit 123 selects representative pixels among the designated areas (step D3).

유저의 손가락에 의해서 탭 되는 개소는 면적이 있기 때문에, 대응하는 좌표는 하나로 한정되지 않고, 복수의 좌표에 걸쳐지는 것이 된다. 이로 인하여, 복수의 화소값이 추출되게 되고, 강조하고 싶은(포커싱을 유지하는) 초점거리를 일의적으로 결정할 수 없다. 이로 인하여, 본 실시예에서는, 추출된 복수의 화소값으로 이루어지는 지정영역 중에서 하나의 화소를 대표화소로서 선택한다. Since the points tapped by the user's fingers have an area, the corresponding coordinates are not limited to one but span a plurality of coordinates. As a result, a plurality of pixel values are extracted, and it is impossible to uniquely determine a focal distance (to maintain focusing) to be emphasized. Thus, in the present embodiment, one pixel is selected as a representative pixel from among the designated areas constituted by a plurality of extracted pixel values.

이 경우에 있어서의 대표화소의 선택방법으로서는, 예컨대, (1) 지정영역의 중심위치에 가장 가까운 화소, (2) 지정영역에 포함되는 화소 중 깊이 맵에 있어서 가장 심도가 깊은 또는 얕은 화소에 대응하는 심도, (3) 지정영역에 포함되는 화소의 화소값의 평균값에 화소값이 가장 가까운 화소, 중 어느 일방의 화소를 대표화소로서 선택하도록 할 수 있다. In this case, the representative pixels may be selected by, for example, (1) a pixel nearest to the center of the designated area, and (2) a pixel included in the designated area corresponding to the deepest or shallowest pixel in the depth map , And (3) a pixel having the closest pixel value to the average value of the pixel values of the pixels included in the designated area, as the representative pixel.

그 후, 강조화상 생성부(123)는, 깊이 맵에 근거하여 대표화소의 심도를 선택한다(스텝 D5). 즉, 대표화소로서 선택한 화소가 깊이 맵에 있어서 어느 쪽의 심도에 대응시킬 수 있는지를 판정하고, 판정한 심도를 선택한다. Thereafter, the enhanced image generation unit 123 selects the depth of representative pixels based on the depth map (step D5). That is, it is determined which depth of the pixel selected as the representative pixel corresponds to which depth, and the determined depth is selected.

다만, 대표화소를 선택하여 그 대표화소의 심도를 선택하도록 하는 것이 아니라, 대표화소의 선택을 행하지 않고, 깊이 맵을 이용하여 하나의 심도를 선택하도록 하는 것도 가능하다. 구체적으로는, 스텝 D3를 생략하여, 스텝 D5에 있어서, 예컨대, (4) 지정영역 중 깊이 맵 상에 있어서 대응하는 심도의 화소가 차지하는 면적이 가장 큰 심도를 선택하도록 해도 좋다. However, instead of selecting the representative pixel and selecting the depth of the representative pixel, it is also possible to select one depth using the depth map without selecting the representative pixel. More specifically, the step D3 may be omitted, and in step D5, for example, (4) the depth of the area of the depth map which corresponds to the largest area occupied by the corresponding depth pixel may be selected.

다음에, 강조화상 생성부(123)는, 깊이 맵에 근거하여, 스텝 D5에서 선택된 심도에 대응하는 화소를 특정한다(스텝 D7). 즉, 깊이 맵의 각 화소의 심도를 나타내는 비트값에 근거하여, 스텝 D5에서 판정된 심도의 화소가 어느 화소에 상당하는지를 판정한다. Next, based on the depth map, the emphasized-image generating unit 123 specifies a pixel corresponding to the depth selected in step D5 (step D7). That is, based on the bit value indicating the depth of each pixel of the depth map, it is determined which pixel corresponds to the pixel of the depth determined in step D5.

그 후, 강조화상 생성부(123)는, 강조화상을 생성한다(스텝 D9). 구체적으로는, 셰이딩 필터를 이용하여, 소정의 셰이딩 정도로 전 초점화상의 전체를 셰이딩하는 처리를 행한다. 이 경우의 셰이딩 필터로서는, 예컨대, 가우시안 필터 등의 공지의 필터를 적용할 수 있다. 그리고, 셰이딩 처리의 결과로서 얻어지는 셰이딩 화상에, 스텝 D7에서 특정한 화소의 화소값을 합성하고, 그 처리결과를 강조화상(합성화상)으로 한다. 그리고, 표시제어부(127)는, 생성한 강조화상으로 표시부(30)의 표시를 갱신한다(스텝 D11). Thereafter, the enhanced image generation unit 123 generates an enhanced image (step D9). Specifically, a process of shading the entire foreground image with a predetermined degree of shading is performed using a shading filter. As the shading filter in this case, for example, a known filter such as a Gaussian filter can be applied. Then, the pixel value of the pixel specified in step D7 is synthesized with the shading image obtained as a result of the shading processing, and the processing result is regarded as an enhanced image (synthesized image). Then, the display control unit 127 updates the display of the display unit 30 with the generated enhanced image (step D11).

전 초점화상에 대하여 일정하게 셰이딩 필터를 적용한 것에 강조해야 할 초점거리에 있는 화소를 합성한 경우, 포커싱과 비포커싱의 경계부근에 있어서 윤곽같은 부자연스러운 화소값이 되어 버리는 영역이 발생하는 현상이 생길 수 있다. 이 현상은, 촬영 씬 중의 물체의 경계부근에 있어서는, 강조 표시해야 할 초점거리가 아닌 화소임에도 불구하고, 강조 표시해야 할 초점거리에 있는 화소의 영향을 받게 되는 것으로부터 발생하는 것에 의한다. 이 현상을 회피하기 위해서, 강조 표시해야 할 화소가 아닌 부분에 가중치 부여를 하여 전 초점화상에 셰이딩 필터를 걸어서, 합성을 행한다. 구체적으로는, 전 초점화상 중, 스텝 D7에서 특정된 화소 이외의 화상부분에 대해서 셰이딩 정도를 상기의 소정의 셰이딩 정도보다 크게 하여 셰이딩 처리를 행한다. When a pixel having a focal distance to be emphasized is combined with a shading filter applied to a fore-focus image constantly, there arises a phenomenon that an area that becomes an unnatural pixel value such as a contour near the boundary between focusing and non-focusing occurs . This phenomenon is caused by the influence of the pixel at the focal distance to be emphasized even though the pixel is not the focal distance to be emphasized but near the boundary of the object in the shooting scene. In order to avoid this phenomenon, a weighting is given to a portion which is not a pixel to be emphasized, and a shading filter is applied to a fore-focus image to perform synthesis. More specifically, shading processing is performed with respect to an image portion other than the pixel specified in Step D7, among the full-focus image, by making the degree of shading larger than the predetermined degree of shading.

다만, 상기 대신에, 스텝 D7에서 특정된 화소에 대해서는 셰이딩 정도를 상기의 소정의 셰이딩 정도보다 작게 하여 셰이딩 처리를 행함으로써 해도 좋다. However, instead of the above, the shading process may be performed with the shading degree smaller than the predetermined shading degree for the pixel specified in step D7.

다음으로, 강조화상 생성부(123)는, 계속하여 유저 조작이 있었는지 아닌지를 판정한다(스텝 D13). 계속하여 유저 조작이 있었다고 판정했다면(스텝 D13; Yes), 강조화상 생성부(123)는, 스텝 D1로 처리를 되돌린다. 이는, 유저가 전혀 다른 위치를 탭 한 경우 외에, 유저가 한 번 탭 한 위치로부터 드래그 조작을 행한 경우도 포함한다. 즉, 유저에 의해 드래그 조작이 이루어진 경우는, 드래그 조작에 의해 지정영역이 순차 변화하는 것에 따라서 대표화소를 동적으로 선택하고, 깊이 맵에 근거하여 대표화소의 심도를 동적으로 판정한다. 그리고, 강조화상 생성부(123)는, 드래그 조작에 의해 지정영역이 변화하는 것에 따라서 동적으로 판정되는 심도에 근거하여, 상기 대표화소에 대응한 합성화상을 동적으로 생성하고, 표시제어부(129)가, 동적으로 생성되는 합성화상을 드래그 조작에 맞춰서 표시부(30)에 동적으로 표시시키는 제어를 행한다. Next, the emphasized-image generating unit 123 determines whether there has been a user operation continuously (step D13). If it is determined that there is a user operation subsequently (step D13; Yes), the enhanced image generating unit 123 returns the process to step D1. This includes a case where the user performs a drag operation from a position once tapped by the user, in addition to the case where the user taps a completely different position. That is, when the drag operation is performed by the user, the representative pixels are dynamically selected according to the sequential change of the designated area by the drag operation, and the depth of representative pixels is dynamically determined based on the depth map. The emphasized image generating unit 123 dynamically generates a composite image corresponding to the representative pixel based on the depth dynamically determined as the designated area is changed by the drag operation, Controls to dynamically display the composite image dynamically generated on the display unit 30 in accordance with the drag operation.

스텝 D13에 있어서 계속하여 유저 조작이 없었다고 판정했다면(스텝 D13; No), 강조화상 생성부(123)는, 유저 조작에 따라서 강조화상 생성모드를 종료할지 아닐지를 판정하고(스텝 D15), 종료하지 않는다고 판정한 경우는(스텝 D15; No), 스텝 D13로 처리를 되돌린다. 한편, 종료한다고 판정한 경우는(스텝 D15; Yes), 강조화상 생성처리를 종료한다. If it is determined in step D13 that there is no user operation (step D13; No), the enhanced image generation unit 123 determines whether or not the enhanced image generation mode is to be terminated according to the user operation (step D15) (Step D15; No), the process returns to Step D13. On the other hand, if it is determined that the process has ended (step D15; Yes), the process of generating the enhanced image is terminated.

도 5로 돌아와서, 강조화상 생성처리를 행한 후, 처리부(10)는, 강조화상이 표시부(30)에 표시중인지 아닌지를 판정하고(스텝 A31), 표시중이라고 판정했다면(스텝 A31; Yes), 유저에 의해서 입력부(20)를 통하여 「강조화상 수정모드」가 선택되었는지 아닌지를 판정한다(스텝 A33). 그리고, 선택되었다고 판정했다면(스텝 A33; Yes), 강조화상 수정부(125)가, 기억부(80)에 기억되어 있는 강조화상 수정 프로그램(817)에 따라서 강조화상 수정처리를 행한다(스텝 A35). 5, the processing unit 10 determines whether the emphasized image is being displayed on the display unit 30 (step A31). If it is determined that the emphasized image is being displayed (step A31; Yes) Whether or not the &quot; enhanced image correction mode &quot; is selected through the input unit 20 (step A33). If it is judged that the selected image has been selected (step A33; Yes), the enhanced image correction unit 125 performs the enhanced image correction process according to the enhanced image modification program 817 stored in the storage unit 80 (step A35) .

도 9는, 강조화상 수정처리의 흐름을 나타내는 플로우차트이다. 9 is a flowchart showing the flow of the enhanced image modification processing.

강조화상 수정부(125)는, 터치패널(21)을 통하여 유저에 의해 드래그된 영역을 지정영역으로 한다(스텝 E1). 그리고, 강조화상 수정부(125)는, 지정영역 중에서 대표화소를 선택한다(스텝 E3). 대표화소는, 도 8의 강조화상 생성처리의 스텝 D3에서 대표화소를 선택할 때와 동일한 수법으로 선택할 수 있다. The emphasized image correction unit 125 sets the area dragged by the user through the touch panel 21 as a designated area (step E1). Then, the emphasized-image correcting unit 125 selects a representative pixel in the designated area (step E3). The representative pixel can be selected by the same method as in the case of selecting representative pixels in step D3 of the enhanced image generation processing in Fig.

다음에, 강조화상 수정부(125)는, 깊이 맵에 근거하여 대표화소의 심도를 선택한다(스텝 E5). 즉, 대표화소로서 선택한 화소가 깊이 맵에 있어서 어느 쪽의 심도에 대응시킬 수 있는지를 판정하고, 판정한 심도를 선택한다. Next, the enhanced image correction unit 125 selects the depth of representative pixels based on the depth map (step E5). That is, it is determined which depth of the pixel selected as the representative pixel corresponds to which depth, and the determined depth is selected.

그 후, 강조화상 수정부(125)는, 유저에 의한 드래그방향과, 스텝 E5에서 선택한 심도의 입력화상 중의 지정영역에 포함되는 엣지의 방향과의 상대관계를 나타내는 지표값으로서 코사인 유사도를 산출한다(스텝 E6). 코사인 유사도는, 벡터 공간모델에 있어서의 유사도 계산수법의 하나이며, 벡터끼리가 이루는 각도와 가까움을 표현하는 지표값이다. 코사인 유사도는, 「1」에 가까우면 벡터끼리가 유사하고, 「0」에 가까우면 벡터끼리는 유사하지 않은 것을 의미한다. 다만, 코사인 유사도 대신에, 드래그방향과 엣지방향과의 코사인 거리를 산출하도록 해도 좋다. Thereafter, the emphasized image correction unit 125 calculates the cosine similarity as an index value indicating the relative relationship between the drag direction by the user and the direction of the edge included in the designated area in the input image of the depth selected at step E5 (Step E6). The cosine similarity is one of the similarity calculation methods in the vector space model, and is an index value expressing the angle formed by the vectors and the closeness. The similarity of the cosines means that the vectors are similar when they are close to "1", and the vectors are not similar when they are close to "0". However, instead of the cosine similarity, the cosine distance between the drag direction and the edge direction may be calculated.

강조화상 수정부(125)는, 스텝 E5에서 산출한 코사인 유사도에 근거하여, 지정영역 내의 화소에 대한 패널티값을 설정한다. 구체적으로는, 코사인 유사도가 소정의 임계값(예컨대 0.7)을 넘고 있는 경우에는, 드래그방향과 엣지방향이 근사조건을 만족하는 것으로 하여, 패널티값 테이블(89)에 정해진 패널티값(제1의 패널티값을 「P1-α」, 제2의 패널티값 「P2-α」)를 설정한다. 또한, 코사인 유사도가 임계값 이하인 경우에는, 드래그방향과 엣지방향이 괴리조건을 만족하는 것으로 하여, 패널티값 테이블(89)에 정해진 패널티값(제1의 패널티값을 「P1+α」, 제2의 패널티값을 「P2+α」)를 설정한다. The emphasized image correction unit 125 sets a penalty value for a pixel in the designated area based on the cosine similarity calculated in step E5. Specifically, when the cosine similarity degree exceeds a predetermined threshold value (e.g., 0.7), it is determined that the drag direction and the edge direction satisfy the approximate condition, and the penalty value set in the penalty value table 89 Quot; P 1 - alpha &quot; and the second penalty value &quot; P 2 - alpha &quot;). When the cosine similarity degree is equal to or less than the threshold value, it is determined that the drag direction and the edge direction satisfy the divergence condition, and the penalty value set in the penalty value table 89 (the first penalty value is "P 1 + 2 &quot; is set to &quot; P 2 + alpha &quot;).

그 결과, 드래그방향과 엣지방향이 근사조건을 만족하는 경우(예컨대, 드래그방향과 엣지방향이 평행한 경우)에는, 패널티값이 통상시와 비교해서 작아지기 때문에, 대상화소와 상기 대상화소의 근방의 화소의 심도차에 대한 패널티가 약해진다. 그 결과, 지정영역에 포함되는 화소에 대해서, 포커싱되어 있는 것으로 하여 선택하는 입력화상의 허용도가 커지고, 보다 넓은 깊이의 폭으로 입력화상이 선택될 가능성이 높아지기 때문에, 엣지 부분을 상대적으로 강하게 하는(강조하는) 작용이 생긴다. As a result, when the drag direction and the edge direction satisfy the approximate condition (for example, when the drag direction and the edge direction are parallel), the penalty value becomes smaller as compared with the normal case, The penalty for the depth difference of the pixels of the pixel is weak. As a result, with respect to the pixels included in the designated area, the tolerance of the input image to be selected as being focused is increased, and the likelihood that the input image is selected with a wider depth width increases. Therefore, (Emphasizing) action occurs.

한편, 드래그방향과 엣지방향이 괴리조건을 만족하는 경우(예컨대, 드래그방향과 엣지방향이 직교하는 경우)에는, 패널티값이 통상시와 비교해서 커지기 때문에, 대상화소와 상기 대상화소의 근방의 화소의 심도차에 대한 패널티가 강해진다. 그 결과, 지정영역에 포함되는 화소에 대해서, 포커싱되어 있는 것으로 하여 선택하는 입력화상에 대한 허용도가 작아지고, 입력화상을 선택하는 깊이의 폭에 강한 제약이 걸리는 것으로, 엣지 부분을 상대적으로 약하게 하는(소거하는) 작용이 생긴다. On the other hand, when the drag direction and the edge direction satisfy the disparity condition (for example, when the drag direction and the edge direction are orthogonal to each other), the penalty value becomes larger as compared with the normal case, The penalty for the difference in the depth of view becomes strong. As a result, with respect to the pixels included in the designated area, the tolerance for the input image to be selected as being focussed is reduced, and a strong restriction is imposed on the width of the depth for selecting the input image. Thus, (Erase) action occurs.

다만, 상기에서는, 드래그방향과 엣지방향이 근사조건을 만족하는 경우에, 패널티값을 통상시와 비교해서 작게 했지만, 이에 비하여, 드래그방향과 엣지방향이 근사조건을 만족하는 경우에, 패널티값을 통상시와 동일한 값으로 하는 것으로 해도 좋다. 이 경우는, 통상시에 생성된 깊이 맵이 보존되고, 드래그방향과 근사하는 엣지정보가 보존되게 된다. However, when the drag direction and the edge direction satisfy the approximate condition, the penalty value is set to be smaller than the penalty value in the case where the drag direction and the edge direction satisfy the approximate condition. It may be set to the same value as the normal time. In this case, the depth map generated at the normal time is saved, and edge information approximate to the drag direction is stored.

다음으로, 강조화상 수정부(125)는, 지정영역 내의 화소에 대해서 식 (1)의 에너지함수에 근거하는 스코어값 산출처리를 실행한다(스텝 E9). 그리고, 강조화상 수정부(125)는, 지정영역 내의 화소에 대해서 스코어값이 최대가 된 입력화상을 포커싱되어 있는 입력화상으로 판정한다(스텝 E11). Next, the emphasized image correction unit 125 executes a score value calculation process based on the energy function of the equation (1) for pixels in the designated area (step E9). Then, the emphasized image correcting unit 125 judges the input image having the maximum score value for the pixels in the designated area as the focused input image (step E11).

그 후, 강조화상 수정부(125)는, 수정 깊이 맵 생성처리를 행한다(스텝 E13). 구체적으로는, 스텝 E11의 판정결과에 근거하여, 입력화상을 구성하는 각 화소에 대해서 포커싱되어 있다고 판정된 입력화상에 대응한 비트값을 할당한 깊이 맵을 생성하고, 이를 수정 깊이 맵이라 한다. Thereafter, the emphasized-image correcting unit 125 performs a modified-depth-map generating process (step E13). Specifically, based on the determination result in step E11, a depth map is generated in which a bit value corresponding to an input image determined to be focused on each pixel constituting the input image is assigned, and this is called a correction depth map.

그 후, 강조화상 수정부(125)는, 수정 강조화상 생성처리를 행한다(스텝 E15). 구체적으로는, 스텝 E13에서 생성된 수정 깊이 맵을 이용하여, 지정영역의 화소값을 수정한 강조화상을 생성한다. Thereafter, the emphasized-image correction unit 125 performs a corrected-emphasized-image generation process (step E15). More specifically, an enhanced image obtained by modifying the pixel value of the designated area is generated using the modified depth map generated in step E13.

다음으로, 강조화상 수정부(125)는, 유저에 의해 계속하여 드래그 조작이 이루어졌는지 아닌지를 판정하고(스텝 E17), 이루어졌다고 판정했다면(스텝 E17; Yes), 스텝 E1로 처리를 되돌린다. 한편, 이루어지지 않았다고 판정했다면(스텝 E17; No), 강조화상 수정부(125)는, 유저에 의해 강조화상 수정모드를 종료하는 조작이 이루어졌는지 아닌지를 판정한다(스텝 E19). Next, the emphasized image correction unit 125 determines whether or not the drag operation has been continuously performed by the user (step E17). If it is determined that the drag operation has been performed (step E17; Yes), the process returns to step E1. On the other hand, if it is determined that the enhancement image correction mode has not been reached (step E17; No), the enhanced image modification unit 125 determines whether or not the user has performed an operation to end the enhanced image modification mode (step E19).

강조화상 수정모드를 종료하는 조작이 이루어지지 않았다고 판정했다면(스텝 E19; No), 강조화상 수정부(125)는, 스텝 E17로 처리를 되돌린다. 한편, 강조화상 수정모드를 종료하는 조작이 이루어졌다고 판정한 경우는(스텝 E19; Yes), 강조화상 수정처리를 종료한다. If it is determined that the operation for ending the enhanced image modification mode has not been performed (step E19; No), the enhanced image modification unit 125 returns the process to step E17. On the other hand, if it is determined that the operation for ending the enhanced image modification mode has been performed (step E19; Yes), the enhanced image modification processing is terminated.

도 5로 돌아와서, 강조화상 수정처리를 행했다면, 처리부(10)는, 입력부(20)를 통하여 유저에 의해 촬영모드 또는 화상열람모드가 선택되었는지 아닌지를 판정하고(스텝 A37), 선택되었다고 판정했다면(스텝 A37; Yes), 스텝 A1로 처리를 되돌린다. 한편, 선택되지 않았다고 판정했다면(스텝 A37; Yes), 처리부(10)는, 입력부(20)를 통하여 유저에 의해 카메라기능의 종료 조작이 이루어졌는지 아닌지를 판정한다(스텝 A39). 5, if the enhanced image correction process has been performed, the processing unit 10 determines whether the user has selected a shooting mode or an image viewing mode through the input unit 20 (step A37). If it is determined that the shooting mode or the image viewing mode has been selected (Step A37; Yes), the process returns to step A1. On the other hand, if it is determined that the camera function is not selected (step A37; Yes), the processing unit 10 determines whether or not the user has performed the ending operation of the camera function through the input unit 20 (step A39).

카메라기능의 종료 조작이 이루어지지 않았다고 판정했다면(스텝 A39; No), 처리부(10)는, 스텝 A27로 처리를 되돌린다. 한편, 카메라기능의 종료 조작이 이루어졌다고 판정했다면(스텝 A39; Yes), 처리부(10)는, 화상처리를 종료한다. If it is determined that the ending operation of the camera function has not been performed (step A39; No), the processing section 10 returns the processing to step A27. On the other hand, if it is determined that the ending operation of the camera function has been performed (step A39; Yes), the processing unit 10 ends the image processing.

한편, 스텝 A1에 있어서 유저에 의해 「화상열람모드」가 선택되었다고 판정했다면(스텝 A1; 화상열람모드), 표시제어부(127)는, 기억부(80)의 화상데이터 세트(83)에 기억되어 있는 전 초점화상의 일람을 표시부(30)에 표시시키도록 제어한다(스텝 A41). 그리고, 처리부(10)는, 입력부(20)로부터의 유저 조작에 따라서, 일람표시시킨 전 초점화상 중에서 하나의 전 초점화상을 선택한다(스텝 A43). On the other hand, the display control unit 127 is stored in the image data set 83 of the storage unit 80 (step A1) Focus image is displayed on the display unit 30 (step A41). Then, in accordance with the user's operation from the input unit 20, the processing unit 10 selects one fore-focus image among the foreground images displayed in the list (step A43).

다음으로, 처리부(10)는, 스텝 A43에서 선택한 전 초점화상에 대응시켜서 화상데이터 세트(83)에 기억되어 있는 축소 깊이 맵을 추출한다(스텝 A45). 그리고, 깊이 맵 복원부(115)가, 추출된 축소 깊이 맵을 복원하는 축소 깊이 맵 복원처리를 행한다(스텝 A47). 화상데이터 세트(83)에 기억된 축소 깊이 맵은, 축소되어 있는 것에 의해 그대로는 깊이 맵으로서 이용할 수 없기 때문에, 원래의 사이즈로 되돌리기 위하여 복원을 행한다. Next, the processing section 10 extracts the reduced depth map stored in the image data set 83 in correspondence with the fore-focus image selected in step A43 (step A45). Then, the depth map restoration unit 115 performs reduction depth map restoration processing for restoring the extracted reduction depth map (step A47). The reduced depth map stored in the image data set 83 is restored in order to return it to its original size since it is not available as a depth map as it is reduced.

여기서, 축소 깊이 맵을 복원하여 얻어진 복원 깊이 맵은, 그 복원에 의해, 전 초점화상에 있어서의 엣지 부분과의 어긋남이 생겨 버린다는 문제가 발생한다. 이 상태에서 상술한 강조화상 생성처리를 행하면, 강조 표시하고 싶은 피사체를 정확하게 반영할 수 없고, 배경의 일부를 포커싱 영역에 포함해 버리거나, 반대로 목적의 피사체의 일부를 비포커싱 영역으로 해버리거나 하게 된다. 따라서, 복원하여 얻어진 복원 깊이 맵 그대로는 깊이 맵으로서 이용하는 것은 부적절하다. 여기서, 깊이 맵 수정부(117)가, 복원 깊이 맵을 수정하는 복원 깊이 맵 수정처리를 행한다(스텝 A49). Here, the restoration depth map obtained by restoring the reduced depth map has a problem that the restoration depth map deviates from the edge portion in the foreground image. If the emphasized image generation process described above is performed in this state, the subject to be emphasized can not be accurately reflected, and a part of the background is included in the focusing area, or conversely, a part of the subject is made the non-focusing area . Therefore, it is inappropriate to use the reconstruction depth map obtained by reconstruction as a depth map as it is. Here, the depth map correction unit 117 performs a restoration depth map correction process for correcting the restoration depth map (step A49).

구체적으로는, 깊이 맵 수정부(117)는, 스텝 A39에서 추출한 축소 깊이 맵에 대응시켜서 기억되어 있는 전 초점화상을 읽어내고, 이 전 초점화상을 수정용 화상으로서 이용한 가중평균화 처리를 행하여, 복원 깊이 맵을 수정한다. 이 경우의 가중평균화 처리는, 상술한 식 (3)과 동일한 식을 이용하여 실현할 수 있다. Specifically, the depth map correcting unit 117 reads a fore-focus image stored in association with the reduction depth map extracted in step A39, performs a weighted averaging process using the foreground image as a correction image, Modify the depth map. The weighted averaging process in this case can be realized by using the same equation as the above-mentioned equation (3).

이 경우, 식 (3)에 있어서, 「p」는 수정 대상화소이며, 「q」는 수정 대상화소의 근방에 위치하는 근방화소이다. 「G(p, q)」는 수정 대상화소 p와 근방화소 q의 사이의 거리가 가까울수록 값이 커지는 함수이며, 예컨대 가우스 함수로 주어진다. 또한, 「I(p)」는 전 초점화상의 수정 대상화소 p에 있어서의 휘도값이며, 「I(q)」는 전 초점화상의 근방화소 q에 있어서의 휘도값이다. 그리고, 「W(I(p), I(q))」는, 휘도값 「I(p)」와 「I(q)」가 가까운 값일수록 값이 커지는 함수이다. 「D(q)」는 깊이 맵에 있어서의 근방화소 q에 있어서의 값이며, 「D'(p)」는 가중평균화로 얻어지는 깊이 맵의 수정 대상화소 p에 있어서의 수정값을 나타낸다. 이와 같이 하여 얻어진 수정 깊이 맵을, 이후의 처리에 있어서 깊이 맵으로서 이용한다. In this case, in the equation (3), "p" is the pixel to be corrected and "q" is the neighboring pixel located in the vicinity of the pixel to be corrected. "G (p, q)" is a function that increases as the distance between the pixel p to be corrected and the neighboring pixel q becomes closer, and is given by, for example, a Gaussian function. "I (p)" is the luminance value in the pixel p to be corrected of the foreground image, and "I (q)" is the luminance value in the pixel q in the vicinity of the foreground image. I (p) and I (q) are functions whose values become larger as the luminance values I (p) and I (q) become closer to each other. "D (q)" is a value at a nearby pixel q in the depth map, and "D '(p)" represents a correction value at the pixel p to be corrected in the depth map obtained by weighted averaging. The correction depth map thus obtained is used as a depth map in subsequent processing.

다만, 전 초점화상을 수정용 화상으로서 이용하여 복원 깊이 맵을 수정하는 대신에, 복수의 입력화상 중에서 선택한 입력화상을 수정용 화상으로서 이용하여 복원 깊이 맵을 수정하는 것도 가능하다. 이 경우도, 예컨대, 복수의 입력화상 중, 초점거리가 중간값에 가장 가까운 입력화상을 수정용 화상으로서 선택할 수 있다. 또한, 복수의 입력화상 중에서 선택한 2 이상의 입력화상을 합성한 합성화상을 수정용 화상으로서 이용하여 복원 깊이 맵을 수정하는 것으로 해도 좋다. However, instead of using the foreground image as the correction image to correct the reconstruction depth map, it is also possible to modify the reconstruction depth map by using the input image selected from the plurality of input images as the correction image. Also in this case, for example, among the plurality of input images, an input image whose focal distance is closest to the intermediate value can be selected as the correction image. Further, the reconstruction depth map may be modified using a synthesized image obtained by synthesizing two or more input images selected from a plurality of input images as a correction image.

스텝 A49에 있어서 복원 깊이 맵 수정처리를 행했다면, 처리부(10)는, 스텝 A25로 처리를 이행한다. 즉, 표시제어부(127)가, 스텝 A43에서 선택한 전 초점화상을 표시부(30)에 표시시키도록 제어한다. 이후의 처리는 동일하다. If the restoration depth map correction processing is performed in step A49, the processing section 10 shifts the processing to step A25. That is, the display control section 127 controls the display section 30 to display the foreground image selected in step A43. The subsequent processing is the same.

2-1-2. 실험 결과2-1-2. Experiment result

다음으로, 상기의 처리에 대해서, 실제로 화상을 이용하여 실험을 행한 결과를 나타낸다. Next, with respect to the above-mentioned processing, the results of actually performing experiments using images are shown.

도 10은, 동일 씬에 대해서, 초점거리를 변경하여 촬상된 2매의 화상을 나타낸다. Fig. 10 shows two images captured by changing the focal distance for the same scene.

도 10의 (1)은, 근경인 토끼의 인형 부분에 초점을 맞추어 촬상된 입력화상이며, 도 10의 (2)은, 배경인 나무 부분에 초점을 맞추어 촬상된 입력화상이다. Fig. 10 (1) is an input image focused on a puppet portion of a rabbit having a root end, and Fig. 10 (2) is an input image focused on a tree portion as a background.

이들 입력화상에 대해서 위치맞춤 처리 및 콘트라스트 보정처리를 행하고, 그 후에 엣지검출처리를 행함으로써 얻어진 엣지화상이, 각각 도 10의 (3) 및 도 10의 (4)이다. 도 10의 (3)은, 도 10의 (1)의 입력화상에 대해서 엣지검출처리를 행함으로써 얻어진 엣지화상이며, 토끼의 인형 부분에 초점을 맞추고 촬상을 행했기 때문에, 토끼의 인형의 윤곽이 엣지로서 검출되고 있다. 이에 비하여, 도 10의 (4)는, 도 10의 (2)의 입력화상에 대해서 엣지검출처리를 행함으로써 얻어진 엣지화상이며, 배경의 나무 부분에 초점을 맞추고 촬상을 행했기 때문에, 배경인 나무의 부분의 엣지가 검출되고 있다. The edge images obtained by performing the alignment processing and the contrast correction processing on these input images and then performing the edge detection processing are shown in Figs. 10 (3) and 10 (4), respectively. Fig. 10 (3) is an edge image obtained by performing edge detection processing on the input image of Fig. 10 (1). Since the image is focused while focusing on the doll portion of the rabbit, And is detected as an edge. On the other hand, FIG. 10 (4) is an edge image obtained by performing the edge detection processing on the input image of FIG. 10 (2) and focuses on the background part of the tree, Is detected.

도 11의 (1)은, 도 10의 (3), (4)에 나타낸 2매의 엣지화상을 이용하여 적절해 연산처리를 행하여 생성한 깊이 맵을 나타낸다. 입력화상이 2매이기 때문에, 1비트로 깊이 맵을 표현하고 있다. 이를 보면, 근경인 토끼의 인형의 부분과, 배경인 나무의 부분이 적절히 분리되어 있는 것을 알 수 있다. Fig. 11 (1) shows a depth map generated by appropriately performing arithmetic processing using the two edge images shown in Figs. 10 (3) and (4). Since the number of input images is two, the depth map is represented by one bit. It can be seen that the dolphin part of the rhizome and the background part of the tree are properly separated.

도 11의 (2)은, 도 11의 (1)의 깊이 맵과 2매의 입력화상을 이용하여 생성한 전 초점화상을 나타낸다. 이를 보면, 근경인 토끼의 인형의 부분과, 배경인 나무의 부분과의 양쪽 모두가 포커싱된 상태의 전 초점화상이 생성되어 있는 것을 알 수 있다. Fig. 11 (2) shows a foreground image generated using the depth map of Fig. 11 (1) and two input images. In this case, it can be seen that a fore-focus image in a state in which both the pupil part of the rabbit and the part of the background tree are focused is generated.

도 12의 (1)는, 깊이 맵 복원처리에서 복원된 깊이 맵을 나타내고 있고, 도 12의 (2)는, 깊이 맵 수정처리에서 생성된 수정 깊이 맵을 나타내고 있다. 이를 보면, 복원 깊이 맵을, 선택 입력화상을 이용하여 가중평균화 처리함으로써, 근경인 토끼의 인형 부분과, 배경인 나무의 부분과의 경계가 확실해진 수정 깊이 맵이 얻어지고 있는 것을 알 수 있다. FIG. 12A shows a depth map reconstructed by the depth map reconstruction process, and FIG. 12B shows a modification depth map generated by the depth map modification process. It can be seen from this that the reconstruction depth map is subjected to the weighted averaging processing using the selection input image to obtain a reconstruction depth map in which the border between the dolphin part of the rabbit and the part of the background tree is confirmed.

도 13은, 강조화상 생성처리에 있어서 강조화상을 생성한 결과를 나타내는 도이다. 도 13의 (1)은, 전 초점화상에 대해서 일정하게 셰이딩 처리를 실시한 결과를 나타내고, 도 13의 (2)는, 도 13의 (1)의 셰이딩 화상에 전경인 토끼의 인형 부분을 강조하기 위하여 합성한 결과를 나타낸다. 13 is a diagram showing a result of generating an enhanced image in the enhanced image generation processing. 13 (1) shows the result of constant shading processing on the foreground image, and FIG. 13 (2) shows the shading image of FIG. 13 (1) The results are shown in Fig.

도 13의 (2)를 보면, 토끼의 인형의 주변에 윤곽같은 부자연스러운 표시가 된 영역이 발생하고 있다. 이 현상은, 토끼의 인형 부분과 배경의 나무의 부분과의 경계부근에 있어서는, 강조 표시해야 할 심도가 아닌 화소임에도 불구하고, 강조 표시해야 할 심도에 있는 화소의 영향을 받게 되는 것에 의한다. 여기서, 근경인 토끼의 인형의 부분에 대한 가중치를 작게 하여 전 초점화상에 셰이딩 처리를 행한 결과가 도 13의 (3)이다. 그리고, 이 도 13의 (3)의 셰이딩 화상에 전경인 토끼의 인형 부분을 강조하기 위하여 합성한 결과가, 도 13의 (4)이다. 이를 보면, 도 13의 (2)에서 볼 수 있는 토끼의 인형의 주변에 생기고 있던 윤곽같은 부자연스러운 표시가 해소되어 있는 것을 알 수 있다. In Fig. 13 (2), an area with an unnatural marking such as a contour appears around the doll of the rabbit. This phenomenon is caused by the influence of a pixel at a depth to be emphasized even though it is a pixel not a depth to be emphasized in the vicinity of a boundary between a doll portion of a rabbit and a part of a background tree. Fig. 13 (3) shows the result of shading processing on a foreground image by reducing the weight of the pupil portion of the rabbit, which is the root of the rabbit. 13 (4) shows the result of synthesizing the shading image of FIG. 13 (3) in order to emphasize the doll portion of the rabbit as the foreground. It can be seen from this that the unnatural display such as the outline which occurred in the vicinity of the doll of the rabbit, which can be seen in FIG. 13 (2), is eliminated.

도 14의 (1)는, 강조화상 생성처리에 있어서 생성한 강조화상을 모식화하여 전경인 토끼의 인형 부분만을 도시한 것을 나타내고 있다. 토끼의 인형 부분이 유저에 의해 탭 됨으로써, 토끼의 인형 부분이 강조된 강조화상이 표시부(30)에 표시되어 있다. 이 도를 보면, 토끼의 오른쪽 귀의 일부가 내측으로 결손된 형상이 되고 있는 것을 알 수 있다. 이는, 도 12에 나타낸 깊이 맵에 있어서, 토끼의 인형의 오른쪽 귀의 부분에 있어서 적절히 심도가 추정되지 않고, 일부 정확하지 않은 깊이 맵이 생성되어 버린 것에 의한다. Fig. 14 (1) shows that the emphasized image generated in the emphasized image generation processing is modeled to show only the doll portion of the foreground rabbit. The doll portion of the rabbit is tapped by the user, whereby an emphasized image in which the doll portion of the rabbit is emphasized is displayed on the display section 30. [ In this figure, it can be seen that a part of the right ear of the rabbit is inwardly deformed. This is because, in the depth map shown in Fig. 12, the depth of the right ear of the rabbit doll is not appropriately estimated, and some inaccurate depth maps are generated.

상술의 에너지함수를 이용하여 포커싱도가 높은 입력화상을 선택하는 경우, 에너지함수에 있어서의 계수의 설정에 따라서는, 적절한 입력화상을 선택할 수 없는 경우가 있고, 그 결과, 표시된 화상 중에 대상의 초점거리에 있는 피사체 부분 이외의 화소가 셰이딩되지 않고 표시되어 버리는 경우가 있다. When an input image having a high focusing degree is selected by using the above-described energy function, an appropriate input image may not be selected depending on the setting of the coefficient in the energy function. As a result, The pixels other than the object portion in the distance may be displayed without being shaded.

여기서, 표시된 강조화상 중, 대상의 초점거리에 있는 피사체 부분 이외의 화소가 셰이딩되지 않고 표시되고 있는 것을 열람한 유저는, 강조화상 수정모드를 선택한다. 그리고, 강조화상 수정모드에 있어서, 수정하고 싶은 부분을 따라가도록 드래그 조작한다. 구체적으로는, 도 14의 (1)에 있어서 화상 중의 영역(R1)의 부분을 유저가 따라가도록 드래그 조작한다. 그러면, 처리부(10)는, 영역(R1)을 지정영역(R1)으로 하고, 지정영역(R1) 내의 화소에 대해서 에너지함수의 계수(보다 구체적으로는 패널티값)를 변화시켜서 재계산을 행하고, 재계산에 의해서 강조화상을 수정한다. Here, among the displayed emphasized images, the user who has viewed the pixels other than the subject portion at the object focal length without being shaded selects the emphasized image correction mode. Then, in the emphasized image modification mode, a drag operation is performed so as to follow the portion to be corrected. Specifically, in FIG. 14 (1), a portion of the region R1 in the image is dragged to follow the user. Then, the processing section 10 performs the re-calculation by changing the coefficient of the energy function (more specifically, the penalty value) for the pixel in the designated area R1 with the area R1 as the designated area R1, Correct the emphasized image by recalculation.

구체적으로는, 드래그방향과 엣지방향과의 코사인 유사도를 산출하고, 그 값에 대응하여 패널티값을 설정한다. 여기에서는, 코사인 유사도가 소정의 임계값 이하라고 판정되고, 드래그방향과 엣지방향이 근사조건을 만족한다고 판정된 결과, 제1의 패널티값을 「P1-α」로 하고, 제2의 패널티값을 「P2-α」로 하여 재계산을 한다. 즉, 패널티값을 통상시와 비교해서 낮게 설정하여 재계산을 한다. 그 결과, 상술한 바와 같이, 드래그방향에 대해서 상대적으로 엣지를 강조하는 작용이 생기고, 지정영역(R1)에 대해서, 통상시에 생성된 깊이 맵에 대해서 심도의 분포가 크게 수정된 깊이 맵이 얻어진다. 이 수정된 깊이 맵에 근거하여 합성화상을 수정함으로써, 결손된 토끼의 오른쪽 귀의 엣지 부분이 강조·보완되고, 도 14의 (2)에 나타내는 바와 같이, 지정영역(R1)에 있어서 토끼의 인형의 오른쪽 귀의 형상이 적절히 수정된 수정 강조화상이 표시화면에 표시된다. Specifically, the degree of similarity between the drag direction and the edge direction is calculated, and the penalty value is set corresponding to the calculated value. Here, it is determined that the cosine similarity is less than or equal to the predetermined threshold value, and when it is determined that the drag direction and the edge direction satisfy the approximate condition, the first penalty value is set to &quot; P 1 - Is recalculated as &quot; P 2 - alpha &quot;. That is, the penalty value is re-calculated by setting the penalty value lower than normal. As a result, as described above, an effect of emphasizing the edge relative to the drag direction is generated, and a depth map in which the distribution of the depths is largely modified with respect to the depth map generated at the normal time is obtained for the designated region R1 Loses. By modifying the synthesized image based on the modified depth map, the edge portion of the right ear of the deficient rabbit is emphasized and supplemented. As shown in Fig. 14 (2), in the designated region R1, A corrected emphasis image in which the shape of the right ear is appropriately modified is displayed on the display screen.

2-1-3. 작용 효과2-1-3. Action effect

제1 실시예에 의하면, 스마트폰(1)에 있어서, 엣지검출수단(107)은, 복수의 입력화상으로부터 특징으로서 엣지를 검출하고, 검출된 엣지의 강도를 특징량으로서 검출한다. 그리고, 심도추정부(111)는, 엣지검출수단(107)에 의해 검출된 엣지의 강도를 이용하여, 대상화소에 대해서, 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 정보인 심도를 추정한다. 그리고, 깊이 맵 생성부(113)는, 심도추정부(111)의 추정결과에 근거하여 깊이 맵을 생성한다. According to the first embodiment, in the smartphone 1, the edge detection means 107 detects an edge as a feature from a plurality of input images, and detects the intensity of the detected edge as a feature amount. The depth estimating unit 111 uses the intensity of the edge detected by the edge detecting unit 107 to determine whether the target pixel is focused on which input image among the plurality of input images Estimate the depth of field. The depth map generator 113 generates a depth map based on the estimation result of the depth estimator 111. [

보다 구체적으로는, 입력화상 축소부(101)가, 복수의 입력화상을 각각 축소하고, 축소한 입력화상으로부터 엣지를 검출한다. 그리고, 검출된 엣지의 강도를 이용한 적절해 연산처리를 행하여, 대상화소에 대해서 심도를 추정하고, 그 추정결과에 근거하여 깊이 맵을 생성한다. More specifically, the input image reduction unit 101 reduces the plurality of input images, respectively, and detects the edges from the reduced input image. Then, an appropriate calculation process is performed using the intensity of the detected edge to estimate the depth of the target pixel, and a depth map is generated based on the estimation result.

심도의 추정에서는, 엣지검출부(107)의 검출결과로서 얻어지는 복수의 입력화상 각각에 대응하는 엣지검출 화상의 엣지강도에 근거하는 소정의 적절해 연산처리를 행하여 심도를 추정한다. 적절해 연산처리에서는, 스코어값 연산처리를 행한다. 이 스코어값 연산처리에서는, 대상화소에 대해서, 엣지강도를 이용하여 코스트값이 산출되어서 스코어값에 가산되고, 상기 대상화소의 근방화소에 대해서 선택하는 입력화상을 변화시키는 경우는, 패널티값이 스코어값으로부터 감산된다. 즉, 대상화소에 대해서는 가능한 한 강한 엣지강도의 입력화상을 선택하면서, 근방화소에서는 가능한 한 초점이 가까운 입력화상이 선택되도록 하기 위하여, 억제가 가해지도록 되어 있다. 이러한 스코어값 연산처리를 행하고, 스코어값이 소정의 높은값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정함으로써, 심도를 바르게 추정하는 것이 가능해진다. In the estimation of the depth, a predetermined appropriate calculation process based on the edge intensity of the edge detection image corresponding to each of the plurality of input images obtained as the detection result of the edge detection unit 107 is performed to estimate the depth. In an appropriate arithmetic process, a score value arithmetic process is performed. In this score value calculation process, when the cost value is calculated using the edge intensity for the target pixel and added to the score value, and the input image to be selected is changed with respect to the pixel near the target pixel, &Lt; / RTI &gt; In other words, suppression is applied so as to select an input image having the strongest possible edge strength for the target pixel while selecting an input image whose focus is as close as possible in the nearby pixels. It is possible to correctly estimate the depth by performing such a score value calculation process and determining an input image whose score value satisfies a predetermined high value condition as the focused image.

깊이 맵은, 각 좌표의 화소에 대해서, 어느 입력화상에서 포커싱되어 있는지(즉 심도)를 특정 가능하게 하는 정보임과 함께, 각 입력화상에 대해서 포커싱되어 있는 화소의 좌표(즉 포커싱되어 있는 영역)를 특정 가능하게 하는 정보이다. 본 실시형태에서는, 이와 같이 하여 생성한 깊이 맵과 복수의 입력화상을 이용하여 전 초점화상을 생성하고, 표시부(30)에 표시시킨다. The depth map is information for specifying which input image is focused (i.e., depth) with respect to the pixels of each coordinate, and coordinates of the focused pixel (i.e., focused area) Quot ;. In this embodiment, a fore-focus image is generated using the depth map generated in this way and a plurality of input images, and displayed on the display unit 30. [

표시부(30)에 표시된 전 초점화상은, 유저 조작에 따라서 강조화상의 생성에 이용된다. 구체적으로는, 터치패널(21)에 대한 유저의 탭 조작이나 드래그 조작에 대응하여 하나의 심도를 선택한다. 그리고, 깊이 맵에 근거하여 선택한 심도의 화소를 특정하고, 강조화상을 생성한다. 구체적으로는, 전 초점화상에 대해서 소정의 셰이딩 정도로 셰이딩 처리를 행하고, 그 처리결과의 화상에, 특정된 화소의 대응하는 심도의 입력화상의 화소값을 합성한 강조화상을 생성하여, 표시부(30)에 표시한다. 이로써, 유저에 의해 지정된 부분에 초점이 맞은 강조화상을 생성하여, 유저에게 열람시키는 것이 가능해진다. A fore-focus image displayed on the display unit 30 is used for generating an enhanced image in accordance with a user operation. Specifically, one depth is selected corresponding to the user's tap operation or drag operation with respect to the touch panel 21. [ Then, the pixels of the selected depth are specified based on the depth map, and an enhanced image is generated. Specifically, a shading process is performed on a foreground image with a predetermined degree of shading, and an enhanced image obtained by synthesizing the pixel value of the input image having the corresponding depth of the specified pixel with the image of the process result is generated and displayed on the display unit 30 ). This makes it possible to generate an emphasized image focused on a part designated by the user and to view the emphasized image to the user.

또한, 강조화상은, 유저 조작에 따라서 수정된다. 구체적으로는, 심도추정부(111)는, 유저 조작이 검지된 경우에, 유저에 의해 지정된 지정영역에 포함되는 화소에 대해 심도를 재추정한다. 그리고, 깊이 맵 생성부(113)는, 심도의 재추정의 결과에 근거하여 깊이 맵을 재생성하고, 이 재생성한 깊이 맵에 근거하여 수정 강조화상을 생성한다. 이로써, 강조화상 중의 유저에 의해 지정된 부분을 수정하여, 유저의 요구에 대응한 수정 강조화상을 제공하는 것이 가능해진다. Further, the emphasized image is modified according to a user operation. Specifically, the depth estimating unit 111 re-estimates the depth of a pixel included in the designated area designated by the user when the user operation is detected. Then, the depth map generating unit 113 regenerates the depth map based on the result of the re-estimation of the depth, and generates a corrected high-intensity image based on the regenerated depth map. Thereby, it becomes possible to correct a portion designated by the user in the emphasized image, and to provide a corrected emphasized image corresponding to the request of the user.

2-2. 제2 실시예2-2. Second Embodiment

제1 실시예는, 초점거리를 변경하여 촬상된 복수의 입력화상을 축소하고, 그 축소한 입력화상에 대해서 심도추정처리를 행하여 축소 깊이 맵을 생성했다. 제2 실시예는, 복수의 입력화상을 축소하지 않고 그대로의 크기로 하고, 이 복수의 입력화상에 대해서 제1 실시예와 동일한 화상처리를 행하여, 깊이 맵을 생성하는 실시예이다. In the first embodiment, a plurality of input images that have been picked up by changing the focal distance are reduced, and a depth estimation process is performed on the reduced input image to generate a reduced depth map. The second embodiment is an embodiment in which a plurality of input images are made as they are without reduction, and the same image processing as that of the first embodiment is performed on the plurality of input images to generate a depth map.

도 15는, 처리부(10)가 도 4 및 도 5의 화상처리 대신에 실행하는 제2 화상처리 중, 화상처리의 도 4에 상당하는 부분을 나타낸 플로우차트이다. 다만, 화상처리와 동일한 스텝에 대해서는 동일한 부호를 부여하고 있다. Fig. 15 is a flowchart showing a portion corresponding to Fig. 4 of the image processing in the second image processing executed by the processing section 10 instead of the image processing in Fig. 4 and Fig. However, the same reference numerals are given to the same steps as in the image processing.

맨 처음에, 처리부(10)는, 유저에 의해 입력부(20)를 통하여 선택된 모드를 판정한다(스텝 A1). 선택된 모드가 「촬영모드」인 경우는, 처리부(10)는, 유저의 셔터조작에 따라서, 동일 씬에 대해서 초점거리를 변경하여 복수 매의 화상의 촬상을 촬상부(50)에 행하게 하도록 제어한다(스텝 A3). 복수의 입력화상은 화상데이터 세트(83)에 기억된다. First, the processing unit 10 determines the mode selected by the user through the input unit 20 (step A1). When the selected mode is the &quot; photographing mode &quot;, the processing unit 10 controls the imaging unit 50 to take an image of a plurality of images by changing the focal distance for the same scene in accordance with the shutter operation of the user (Step A3). A plurality of input images are stored in the image data set 83.

그 후, 콘트라스트 보정부(105)는, 화상데이터 세트(83)에 기억된 심도가 다른 복수의 입력화상 각각에 대하여 위치맞춤 처리(스텝 A7) 및 콘트라스트 보정처리를 행한다(스텝 A9). 그리고, 엣지검출부(107)가, 콘트라스트 보정처리에서 보정된 복수의 입력화상 각각에 대하여 엣지검출처리를 행한다(스텝 A11). Thereafter, the contrast correction unit 105 performs the alignment processing (step A7) and the contrast correction processing (step A9) on each of the plurality of input images having different depths stored in the image data set 83. Then, the edge detection unit 107 performs edge detection processing on each of the plurality of input images corrected by the contrast correction processing (step A11).

그 후, 초점분리 판정부(109)가, 엣지검출처리에서 얻어진 엣지화상 각각에 대하여 초점분리 판정처리를 행한다(스텝 A13). 그리고, 심도추정처리가, 초점분리 판정부(109)에 의해서 초점이 적절히 분리되어 있다고 판정한 엣지화상을 이용하여 심도추정처리를 행한다(스텝 A15). Thereafter, the focus separation judgment unit 109 performs a focus separation judgment process on each of the edge images obtained in the edge detection process (step A13). Then, the depth estimation processing performs the depth estimation processing using the edge image determined that the focus is properly separated by the focus separation determination unit 109 (step A15).

그 후, 깊이 맵 생성부(113)가, 깊이 맵 생성처리를 행한다(스텝 F17). 구체적으로는, 심도추정처리의 결과에 근거하여, 입력화상을 구성하는 각 화소에 대해서 포커싱되어 있는 것으로 추정된 심도에 대응한 비트값을 할당한 맵을 생성하고, 이를 깊이 맵으로 한다. 다만, 생성하는 깊이 맵은, 심도추정처리에서 이용한 입력화상의 수에 대응하여 비트수를 설정하면 좋다. 예컨대, 입력화상이 3 ~ 4매이면 2비트, 5 ~ 8매이면 3비트로 깊이 맵을 표현하면 좋다. Thereafter, the depth map generation unit 113 performs depth map generation processing (step F17). Specifically, based on the result of the depth estimation processing, a map is generated in which a bit value corresponding to a depth estimated to be focused on each pixel constituting the input image is allocated, and this is used as a depth map. However, the depth map to be generated may be set to the number of bits corresponding to the number of input images used in the depth estimation processing. For example, if the number of input images is 3 to 4, the depth map may be represented by 2 bits, and if the number of input images is 5 to 8, the depth map may be expressed by 3 bits.

그 후, 전 초점화상 생성부(119)가, 전 초점화상 생성처리를 행한다(스텝 F19). 구체적으로는, 깊이 맵 생성처리에서 얻어진 깊이 맵에 근거하여, 복수의 입력화상 중에서 선택해야 할 화소값을 추출하고, 모든 화소에 있어서 포커싱도가 높은 입력화상의 화소값으로 구성되는 전 초점화상을 생성한다. 생성된 전 초점화상은, 기억부(80)의 화상데이터 세트(83)에 복수의 입력화상과 대응시켜서 기억된다. Thereafter, the forehead image generation unit 119 performs a forehead image generation process (step F19). Specifically, on the basis of the depth map obtained in the depth map generation processing, a pixel value to be selected from a plurality of input images is extracted, and a fore-focus image composed of pixel values of an input image having a high degree of focusing . The generated fore-focus image is stored in association with a plurality of input images in the image data set 83 of the storage unit 80. [

그 후, 깊이 맵 축소부(121)가, 깊이 맵 축소처리를 행한다(스텝 F21). 구체적으로는, 스텝 F17에서 생성된 깊이 맵을 소정의 축소방법을 이용하여 축소한다. 이 경우, 깊이 맵을 원래의 크기에 복원했을 때에 가능한 한 원래의 깊이 맵의 화상정보를 잃어버리지 않도록, 예컨대 가로 세로를 1/2n (n는 1 이상의 정수)로 축소한다. 입력화상의 축소는, 다운 샘플링 등의 공지의 수법에 의해서 실현할 수 있다. 생성된 축소 깊이 맵은, 기억부(80)의 화상데이터 세트(83)에 복수의 입력화상 및 전 초점화상과 대응시켜서 기억된다. Thereafter, the depth map reducing section 121 performs a depth map reducing process (step F21). Specifically, the depth map generated in step F17 is reduced using a predetermined reduction method. In this case, for example, when the depth map is restored to its original size, the image is reduced to 1/2 n (n is an integer of 1 or more) so that the image information of the original depth map is not lost as much as possible. The reduction of the input image can be realized by a known technique such as downsampling. The generated reduced depth map is stored in the image data set 83 of the storage unit 80 in association with a plurality of input images and a foreground image.

3. 제3 실시예3. Third Embodiment

제3 실시예는, 상기의 제1 실시예 및 제2 실시예에서 설명한 수법과는 다른 수법으로 깊이 맵을 생성하는 실시예이다. 본 실시예에서는, 시차(視差)가 발생하도록 카메라의 위치를 변화시켜서 다른 시점(視点)에서 촬상된 복수의 촬영화상을 이용하여 깊이 맵을 생성한다. 이 시차가 발생한다. 이 시차가 발생하도록 카메라의 위치를 변화시켜서 다른 시점에서 화상을 촬상하는 방식을 「시차방식」으로 칭하여 설명한다. The third embodiment is an embodiment in which a depth map is generated by a technique different from the technique described in the first and second embodiments. In the present embodiment, the position of the camera is changed so that a parallax is generated, and a depth map is generated using a plurality of shot images picked up at different viewpoints (viewpoints). This time lag occurs. And a method of changing the position of the camera so that the parallax is generated to pick up an image at another point of time will be referred to as &quot; parallax system &quot;.

3-1. 깊이 맵의 생성의 흐름3-1. Flow of creation of depth map

도 19는, 제3 실시예에 있어서, 처리부(10)가, 도 4 및 도 5의 화상처리 대신에 실행하는 제3의 화상처리 중, 도 4에 상당하는 부분을 발췌한 플로우차트이다. 다만, 화상처리와 동일한 스텝에 대해서는 동일한 부호를 부여하여, 반복된 설명을 생략한다. Fig. 19 is a flowchart showing a portion corresponding to Fig. 4 among the third image processing executed by the processing section 10 in place of the image processing of Figs. 4 and 5 in the third embodiment. However, the same steps as those of the image processing are denoted by the same reference numerals, and repeated description thereof will be omitted.

스텝 A1에 있어서 모드가 촬영모드라고 판정했다면(스텝 A1; 촬영모드), 처리부(10)는, 카메라의 위치를 변경하여 다른 시점에서의 복수 매의 화상을 촬상부(50)에 촬상시키도록 제어한다(스텝 J3). 본 실시예의 수법에서는, 깊이 맵을 생성하기 위하여, 목적의 피사체를 촬상한 촬영화상에 시차가 발생하고 있는 것이 필요하다. 여기서, 유저에 대하여, 카메라의 위치를 변경하여, 복수의 시점으로부터 목적의 피사체를 촬영하는 것을 재촉하는 알림을 행하도록 하면 바람직하다. If it is determined in step A1 that the mode is the photographing mode (step A1: photographing mode), the processing section 10 changes the position of the camera so as to control the image sensing section 50 to capture a plurality of images at different points of time (Step J3). In the method of this embodiment, in order to generate the depth map, it is necessary that a parallax is generated in the photographed image of the image of the target object. Here, it is preferable that the position of the camera is changed with respect to the user so that the user is prompted to take a desired object from a plurality of viewpoints.

다음으로, 처리부(10)는, 최초에 촬상된 촬영화상을 기준 입력화상으로서 입력한다(스텝 J5). 그리고, 처리부(10)는, 상기 기준 입력화상에 대해서 복수의 특징점을 검출하는 특징점 검출처리를 행한다(스텝 J7). 특징점의 검출 방법으로서는 여러 가지의 수법을 적용할 수 있는데, 예컨대, Harris, Stephens, Plessey의 코너 검출 알고리즘 등을 이용한 수법이나, 입력화상에 대해서 아핀 변환(affine transformation)을 실시하여 SIFT 특징을 검출하는 수법 등의 공지의 수법을 적용할 수 있다. Next, the processing section 10 inputs the first picked-up image as a reference input image (step J5). Then, the processing section 10 performs a feature point detecting process for detecting a plurality of feature points with respect to the reference input image (step J7). As a method of detecting a feature point, various methods can be applied. For example, a method using a corner detection algorithm of Harris, Stephens, Plessey or the like, or an affine transformation on an input image to detect a SIFT feature A known method such as a method can be applied.

도 20의 (1)은, 기준 입력화상에 대해서 특징점을 검출한 결과를 나타내는 도이다. Fig. 20 (1) is a diagram showing the result of detection of a feature point with respect to a reference input image. Fig.

이 기준 입력화상은, 테이블에 피사체로 하는 상자를 두고, 이 상자를 카메라로 정면 시점에서 촬상한 촬영화상이며, 화상 중에 나타나는 다수의 사각형의 마커가, 특징점 검출처리를 행함으로써 검출된 특징점을 나타내고 있다. 이를 보면, 기준 입력화상 속에서 다수의 특징점이 검출되고 있는 것을 알 수 있다. This reference input image shows a feature point detected by performing a feature point detection process on a box having a subject on a table and a plurality of rectangular markers that are images taken by the camera at the front viewpoint and captured in the image have. It can be seen that a plurality of feature points are detected in the reference input image.

다음으로, 처리부(10)는, 다음의 촬영화상을 입력화상으로서 입력한다(스텝 J9). 그리고, 처리부(10)는, 특징점 추적처리를 행한다(스텝 J11). 특징점의 추적은, 예컨대, 다중 해상도 해석을 이용한 수법을 적용할 수 있다. 구체적으로는, 기준 입력화상에 대해서 작성한 다중 해상도 화상과, 상기 입력화상에 대해서 작성한 다중 해상도 화상을 이용하여, 예컨대, 거친 해상도로부터 차례로 동일한 해상도 사이에서 특징점의 추적처리를 행한다. 그리고, 입력화상을 복수의 블록으로 분할한 블록 단위로 특징점의 이동량을 전파(傳搬)시킴으로써, 보다 안정적으로 특징점을 추적한다. 이때, 기준 입력화상에 있어서 검출된 각 특징점이, 상기 입력화상에 있어서, 어느 방향으로 어느 정도 이동했는지, 즉 특징점의 이동방향 및 이동량을 산출한다. Next, the processing section 10 inputs the next captured image as an input image (step J9). Then, the processing section 10 performs minutiae tracking processing (step J11). For tracking of feature points, for example, a technique using multiple resolution analysis can be applied. More specifically, the feature point tracking process is performed in the same resolution sequentially from the coarse resolution, for example, by using the multi-resolution image created for the reference input image and the multi-resolution image created for the input image. Then, by tracing the amount of movement of the feature points in units of blocks obtained by dividing the input image into a plurality of blocks, the feature points are tracked more stably. At this time, the movement direction and the movement amount of the minutiae are calculated in which direction the respective minutiae detected in the reference input image have moved in which direction in the input image.

도 20의 (2)는, 입력화상에 대해서 특징점을 검출한 결과를 나타내는 도이다. FIG. 20 (2) is a diagram showing the result of detection of a minutiae point on the input image.

이 입력화상은, 도 20의 (1)과 동일하게, 테이블에 놓여진 피사체를 좌(左)시점에서 촬상한 촬영화상이다. 이 입력화상에 대해서 특징점의 추적을 행한 결과가 도 20의 (3)이다. 도 20의 (3)에 있어서, 각 선의 시작점과 종점이 각 화상에 있어서의 특징점의 위치를 나타내고, 선의 색은 각 특징점의 이동방향을 나타내고, 선의 길이는 각 특징점의 이동량을 나타낸다. 이 도를 보면, 다른 시점에서 촬상한 촬영화상에 대해서 대응하는 각 특징점이 이동하고 있는 상태를 알 수 있다. This input image is a picked-up image obtained by picking up an image of a subject placed on a table at the left (left) point, as in (1) of Fig. The result of tracking the minutiae with respect to this input image is (3) in Fig. In (3) of Fig. 20, the starting point and the end point of each line represent the positions of the minutiae points in each image, the line color represents the moving directions of the minutiae points, and the line length represents the moving amount of each minutiae point. In this figure, it can be seen that each corresponding feature point is moving with respect to the captured image picked up at another point in time.

다음으로, 처리부(10)는, 상기 입력화상을 기점(基点) 입력화상(키 프레임)으로서 추출할지 아닌지를 판정한다(스텝 J13). 기점 입력화상이란, 특징점의 추적에 성공한 화상이며, 예컨대, 상기 입력화상에 있어서 특징점의 이동량을 전파시킨 결과, 특징점의 총체적인 이동량이, 소정의 임계값인 제1의 임계값 이상(또는 제1의 임계값 초과)인 경우에, 상기 입력화상을 기점 입력화상으로서 추출한다. Next, the processing unit 10 determines whether or not to extract the input image as a starting point input image (key frame) (step J13). The starting point input image is an image that succeeds in tracing the characteristic points. For example, when the total amount of movement of the characteristic points is equal to or larger than a first threshold value (or a first threshold value) Threshold value is exceeded), the input image is extracted as the initial input image.

상기 입력화상을 기점 입력화상으로서 추출한다고 판정했다면(스텝 J13; Yes), 처리부(10)는, 상기 기점 입력화상에 있어서의 특징점의 좌표값을 기억부(80)에 기억시킨다(스텝 J15). 또한, 상기 입력화상을 기점 입력화상으로서 추출하지 않는다고 판정했다면(스텝 J13; No), 처리부(10)는, 스텝 J17로 처리를 이행한다. (Step J13; Yes), the processing section 10 stores the coordinate values of the minutiae points in the starting point input image in the storage section 80 (step J15). If it is determined that the input image is not extracted as the initial input image (Step J13; No), the processing unit 10 proceeds to Step J17.

다음으로, 처리부(10)는, 기점 입력화상의 추출을 종료할지 아닐지를 판정한다(스텝 J17). 예컨대, 스텝 J13에 있어서, 특징점의 총체적인 이동량이, 제1의 임계값보다 큰 임계값인 제2의 임계값 이상(또는 제2의 임계값 초과)이 된 경우에, 기점 입력화상의 추출을 종료한다고 판정한다. 즉, 특징점의 총체적인 이동량이 어느 정도 커진 시점(時点)에서, 기점 입력화상의 추출을 종료한다. 기점 입력화상의 추출을 종료하지 않는다고 판정했다면(스텝 J17; No), 처리부(10)는, 스텝 J9로 처리를 되돌린다. 이로써, 복수의 입력화상이 기점 입력화상으로서 추출되게 된다. Next, the processing section 10 determines whether extraction of the starting point input image is to be terminated (step J17). For example, in step J13, when the total amount of movement of the minutiae becomes equal to or larger than a second threshold value (or a second threshold value) that is a threshold value larger than the first threshold value, extraction of the starting point input image ends . That is, the extraction of the starting point input image ends at the point (time point) at which the overall movement amount of the minutiae point is increased to some extent. If it is determined that the extraction of the starting point input image is not to be terminated (step J17; No), the processing section 10 returns the processing to step J9. Thereby, a plurality of input images are extracted as the starting point input image.

기점 입력화상의 추출을 종료한다고 판정했다면(스텝 J17; Yes), 처리부(10)는, 기점 입력화상에 대해 스텝 J15에서 기억부(80)에 기억된 특징점의 좌표값을 이용하여, 기초행렬(Fundamental Matrix) F를 추정한다(스텝 J19). 기초행렬 F는, 에피폴라 기하(epipolar geometry)에 근거하여, 2개의 화상에 있어서의 투영점의 정규화 화상 좌표의 사이에서의 관계를 정의하는 기본행렬(Essential Matrix) E를 화상의 좌표계에 상사 변환(similarity transformation)한 행렬이다. 다만, 기초행렬 F 및 기본행렬 E 그 자체는 공지이기 때문에, 행렬의 요소에 대해서는 설명을 생략한다. (Step J17; Yes), the processing unit 10 uses the coordinate values of the minutiae points stored in the storage unit 80 in the step J15 with respect to the starting point input image, Fundamental Matrix) F (Step J19). The basic matrix F is a transformation matrix that transforms a basic matrix (Essential Matrix) E defining a relationship between normalized image coordinates of projection points in two images based on an epipolar geometry into an image coordinate system is a matrix of similarity transformation. However, since the basic matrix F and the basic matrix E are known, the description of the elements of the matrix is omitted.

기초행렬 F는 3×3의 행렬로 나타내어지고, 그 요소의 수는 9개인데, 기초행렬 F의 프로베니우스놈(frobenius norm)을 "1"로 함으로써, 실질적인 미지수의 수는 8개가 된다. 따라서, 최저 8세트의 특징점의 대응점의 좌표값이 얻어지면, 기초행렬 F를 구할 수 있다. 여기서, 기점 입력화상의 조합에 대해서, 스텝 J15에서 기억부(80)에 기억된 8세트 이상의 특징점의 대응점의 좌표값을 이용하여, 기초행렬 F를 추정한다. 그리고, 예컨대, RANSAC(RANdom Sampling Consensus)의 알고리즘을 이용하여, 탈락값을 제외하면서, 적절한 기초행렬 F를 추정한다. 또한, RANSAC를 적용한 후, 일정 오차 이내의 특징점 모두를 샘플 데이터로 하고, 최소이승법을 이용하여, 보다 적절한 기초행렬 F를 추정한다. The basic matrix F is represented by a matrix of 3 × 3, and the number of elements is nine. By setting the frobenius norm of the base matrix F to "1", the number of substantial unknowns becomes eight. Therefore, if the coordinate values of the corresponding points of the minutiae of the lowest 8 sets are obtained, the base matrix F can be obtained. Here, for the combination of the starting point input image, the base matrix F is estimated by using the coordinate values of the corresponding points of the eight or more sets of feature points stored in the storage unit 80 in step J15. Then, by using an algorithm of RANSAC (Random Sampling Consensus), for example, an appropriate basis matrix F is estimated while excluding the dropout values. Further, after RANSAC is applied, all of the minutiae within a certain error are taken as sample data, and a more appropriate basis matrix F is estimated using the minimum multiplying method.

다음으로, 처리부(10)는, 스텝 J19에서 추정한 기초행렬 F를 기본행렬 E로 변환한다(스텝 J21). 기본행렬 E는, 기초행렬 F에 대해서 카메라의 내부 파라미터를 작용시킴으로써 구할 수 있다. 다만, 본 실시예에서는, 카메라의 내부 파라미터는 이미 알려진 것으로 한다. Next, the processing section 10 converts the basic matrix F estimated in step J19 into a basic matrix E (step J21). The basic matrix E can be obtained by operating an internal parameter of the camera with respect to the basic matrix F. [ However, in the present embodiment, the internal parameters of the camera are already known.

그 후, 처리부(10)는, 스텝 J21에서 구한 기본행렬 E를 이용하여, 카메라행렬을 산출한다(스텝 J23). 카메라행렬은, 기점 입력화상의 시점(視点)의 상대적인 위치관계를 나타내는 행렬이며, 카메라의 이동을 나타내는 회전행렬 및 병진이동벡터를 포함하는 행렬이다. 카메라행렬의 산출은, 기점 입력화상의 시점의 상대적인 위치관계의 산출이라고 말할 수 있다. Thereafter, the processing section 10 calculates the camera matrix using the basic matrix E obtained in step J21 (step J23). The camera matrix is a matrix indicating the relative positional relationship of the starting point (viewpoint) of the starting point input image, and is a matrix including a rotation matrix and a translational motion vector indicating camera movement. The calculation of the camera matrix can be said to be the calculation of the relative positional relationship of the starting point of the starting point input image.

다음으로, 처리부(10)는, 번들조정처리를 행한다(스텝 J25). 번들조정이란, 입력화상으로부터, 기하학적인 3차원의 모델 파라미터를 추정하기 위한 수법이다. 번들조정처리에서는, 입력화상 사이의 각 특징점의 대응 관계에 근거하여, 각 특징점의 3차원 좌표를 산출한다. 그리고, 산출한 각 특징점의 3차원 좌표를 화상면에 재투영하고, 재투영점과 특징점과의 거리로서 산출되는 재투영 오차를 반복적으로 재추정해 나감으로써, 보다 정확한 특징점의 3차원 좌표값을 추정한다. 또한, 번들조정처리에서는, 스텝 J23에서 산출한 카메라행렬을 구성하는 파라미터값을, 상기와 동일한 처리를 행하여 추정함으로써, 카메라행렬을 구성하는 파라미터값을 조정한다. Next, the processing section 10 performs bundle adjustment processing (step J25). Bundle adjustment is a technique for estimating a geometrical three-dimensional model parameter from an input image. In the bundle adjustment processing, the three-dimensional coordinates of each of the minutiae points are calculated based on the correspondence relationship between the minutiae points between the input images. Then, the three-dimensional coordinates of each calculated feature point are re-projected onto the image plane, and the re-projection error calculated as the distance between the re-projected point and the feature point is repeatedly re-estimated, . In the bundle adjustment processing, the parameter values constituting the camera matrix calculated in step J23 are estimated by performing the same processing as described above to adjust the parameter values constituting the camera matrix.

도 21은, 특징점의 3차원 좌표를 추정하여, 동일한 특징점 군을 다른 시점에서 본 경우의 샘플 화상이다. 21 is a sample image when estimating the three-dimensional coordinates of the minutiae and viewing the same set of minutiae at different time points.

도 21의 (1)은, 정면 시점에서 특징점 군을 본 경우의 샘플 화상을, 도 21의 (2)는, 상(上)시점에서 특징점 군을 본 경우의 샘플 화상을, 도 21의 (3)은, 좌(左)시점에서 특징점 군을 본 경우의 샘플 화상을 각각 나타내고 있다. 이들의 샘플 화상을 보면, 특징점의 3차원 좌표가 바르게 추정되고, 그 특징점 군이 각각의 시점에 대응하여 다른 분포를 나타내고 있는 것을 알 수 있다. 21 (1) shows a sample image when a group of minutiae are viewed at a frontal view, and FIG. 21 (2) shows a sample image when a group of minutiae are viewed at an upper ) Represents a sample image when the group of feature points is viewed at the left (left) view. From these sample images, it can be seen that the three-dimensional coordinates of the minutiae are correctly estimated, and that the minutiae point groups exhibit different distributions corresponding to the respective time points.

그 후, 처리부(10)는, 스텝 J25의 번들조정처리의 결과를 이용하여, 깊이 맵을 생성한다(스텝 J27). 깊이 맵을 생성하기 위해서는, 각 화소 각각에 대해서, 3차원 공간에 있어서의 화소의 위치 좌표를 산출하는 것이 필요해진다. 여기서, 대상으로 하는 화소(이하, 「대상화소」라 함)에 대해서, 그 대상화소의 3차원 공간에 있어서의 위치(이하, 「대상화소위치」라 함)를 기점 입력화상 상에 투영한 위치(이하, 「투영 화소위치」라 함)와, 기점 입력화상을 촬상했을 때의 카메라 위치를 이용하여, 대상화소위치를 추정한다. Thereafter, the processing section 10 generates a depth map using the result of the bundle adjustment processing in step J25 (step J27). In order to generate the depth map, it is necessary to calculate the position coordinates of the pixel in the three-dimensional space for each pixel. Here, a position (hereinafter, referred to as &quot; target pixel position &quot;) of a target pixel (hereinafter, referred to as a "target pixel" (Hereinafter, referred to as &quot; projection pixel position &quot;) and the camera position at the time of imaging the starting point input image.

맨 먼저, 번들조정처리에서 파라미터값을 조정한 카메라행렬과, 기억부(80)에 미리 기억되어 있는 카메라의 초기위치를 이용하여, 각 기점 입력화상이 촬상된 카메라 위치를 추정한다. 초기위치는, 임의의 위치라도 좋고, 미리 정해진 3차원 좌표값이 초기위치의 좌표값으로서 기억부(80)에 기억되어 있다. 이 초기위치와 카메라행렬(회전행렬 및 병진이동벡터)을 이용하여, 초기위치를 기준으로 하여 각 기점 입력화상이 촬상된 카메라 위치를 산출한다. First, the camera position at which each initial input image is captured is estimated using the camera matrix in which the parameter value is adjusted in the bundle adjustment process and the initial position of the camera stored in advance in the storage unit 80. The initial position may be an arbitrary position, and a predetermined three-dimensional coordinate value is stored in the storage section 80 as the coordinate value of the initial position. Using this initial position and the camera matrix (rotation matrix and translation movement vector), the camera position at which each initial input image is captured is calculated with reference to the initial position.

다만, 초기위치는, 미리 소정위치를 기억부(80)에 기억하게 하는 것이 가능하지만, 이와 같이 하는 것이 아니라, GPS(Global Positioning System) 등의 측위(測位)용 신호를 이용하여 측위연산을 행하여 산출한 위치를 초기위치로 하여, 상기의 연산을 행함으로써 해도 좋다. However, it is possible to store the predetermined position in the storage unit 80 in advance, but the positioning calculation is performed by using a positioning (positioning) signal such as GPS (Global Positioning System) The calculated position may be used as the initial position to perform the above calculation.

또한, 기점 입력화상의 조합에 대해서, 화소단위로 대응 관계를 산출한다. 구체적으로는, 기본행렬 E를 이용하여, 기점 입력화상 사이에서, 화상 상의 한 라인 상에만 대해서 대응점의 탐색을 행한다. 보다 구체적으로는, 기점 입력화상 사이에서, 기본적으로 색이 가깝고, 또한, 근방화소의 대응관계와 가깝게 되는 대상화소의 대응점의 위치를, 준광역 최적화(semi-global optimization)의 수법을 이용하여 산출한다. Further, for the combination of the starting point input image, a corresponding relationship is calculated on a pixel basis. More specifically, using the basic matrix E, the corresponding points are searched for only one line on the image between the starting point input images. More specifically, the position of the corresponding point of the target pixel, which is basically close to the color and close to the corresponding relationship of the neighboring pixels, is calculated using the method of semi-global optimization do.

이와 같이 하여 기점 입력화상의 조합에 대해서 산출한 대상화소의 대응점의 위치를 투영 화소위치로 한다. 그리고, 기점 입력화상의 조합에 대해서, 산출한 2개의 카메라 위치와, 산출한 2개의 투영 화소위치를 이용하여 대상화소위치를 추정하고, 시점에서 대상화소위치까지의 거리를 산출한다. 모든 화소를 대상화소로 하여 상기의 처리를 행하고, 각 화소 각각에 대해서 산출한 거리를 심도로 하는 깊이 맵을 생성한다. Thus, the position of the corresponding point of the target pixel calculated with respect to the combination of the starting point input image is set as the projection pixel position. Then, for the combination of the starting point input image, the target pixel position is estimated using the two calculated camera positions and the two projected pixel positions thus calculated, and the distance from the starting point to the target pixel position is calculated. The above processing is performed with all the pixels as target pixels, and a depth map is generated in which the distance calculated for each pixel is a depth.

도 31은, 깊이 맵의 생성의 원리의 설명도이다. 31 is an explanatory diagram of the principle of generation of a depth map.

도 31에는, 기점 입력화상 A와 기점 입력화상 B와의 조합에 대해서, 각각의 기점 입력화상을 촬상했을 때의 카메라의 위치를 카메라 위치 A 및 카메라 위치 B로 하여, 각각 검은 동그라미로 나타내고 있다. 또한, 하나의 화소를 대상화소로 하고, 대상화소위치를 기점 입력화상 A에 투영한 위치를 투영 화소위치 A로 하고, 대상화소위치를 기점 입력화상 B에 투영한 위치를 투영 화소위치 B로 하여 각각 하얀 동그라미로 나타내고 있다. 31, the positions of the cameras at the time of picking up the respective initial input images with respect to the combination of the initial input image A and the initial input image B are indicated by black circles with the camera position A and the camera position B, respectively. A position where the target pixel position is projected on the initial input image A is referred to as a projection pixel position A and a position where the target pixel position is projected on the initial input image B is referred to as a projection pixel position B And are represented by white circles, respectively.

도 31에 있어서, 카메라 위치 A 및 투영 화소위치 A를 연결하는 직선과, 카메라 위치 B 및 투영 화소위치 B를 연결하는 직선과의 교점을, 대상화소위치로서 추정한다. 대상화소위치가 구해지면, 시점에서 대상화소위치까지의 거리를 산출할 수 있기 때문에, 대상화소에 대한 심도가 구해진다. 모든 화소를 대상화소로 하여 상기와 같이 대상화소위치를 산출하고, 시점(視点)에서 대상화소위치까지의 거리를 산출하고, 이를 심도로 하는 깊이 맵을 생성한다. 31, an intersection between a straight line connecting the camera position A and the projected pixel position A and a straight line connecting the camera position B and the projected pixel position B is estimated as the target pixel position. When the target pixel position is obtained, the distance from the viewpoint to the target pixel position can be calculated, so that the depth of the target pixel is obtained. The target pixel position is calculated using all the pixels as target pixels as described above, the distance from the viewpoint to the target pixel position is calculated, and a depth map is generated with the depth.

상기와 같이 하여 깊이 맵을 생성한 후의 다음의 처리는, 상술한 제1 실시예 및 제2 실시예와 동일하다. The following processing after generating the depth map in the above-described manner is the same as the first embodiment and the second embodiment described above.

3-2. 가이드표시3-2. Show Guide

상기의 깊이 맵의 생성 방법에서는, 시차(視差)를 얻기 위해서, 유저가 카메라를 이동시켜서 복수의 시점에서 화상을 촬상시키는 것이 필요하다. 이때, 단순하게 카메라를 이동시키는 것을 유저에게 시사하는 것만으로는, 어떻게 카메라를 작동시키면 좋은지 유저가 모르는 경우가 많고, 불편하다는 문제가 있다. 예컨대, 카메라를 1 개소에서 회전시키는 것만이라면, 시차가 발생하지 않고, 거리 정보를 얻을 수 없기 때문에, 이러한 조작을 하지 않도록 유저에게 촉구하는 것이 필요하다. 여기서, 다음과 같은 처리를 행하도록 해도 좋다. In the depth map generation method described above, it is necessary for the user to move the camera to capture an image at a plurality of viewpoints in order to obtain parallax. At this time, there is a problem that the user simply does not know how to operate the camera by simply suggesting the user to move the camera, which is inconvenient. For example, if the camera is only rotated at one place, no parallax occurs and distance information can not be obtained, so it is necessary to urge the user not to perform such an operation. Here, the following processing may be performed.

처리부(10)는, 1매째의 촬영화상의 촬상 후에, 카메라의 표시화면에 있어서 목적의 피사체가 나타난 부분을 유저에게 탭 시키는 등 하여 피사체를 지정시킨다. 그리고, 처리부(10)는, 사람 검출이나 물건 검출을 행하여 피사체 영역을 검출하고, 검출한 피사체 영역을 시사한다. 예컨대, 피사체 영역을 포함하는 상기 피사체 영역보다 약간 큰 도형(이하, 「피사체 지정도형」이라 함)을 1매째의 촬영화상 상에 표시시킨다. 예컨대, 점선이나 파선의 사각형의 도형을 피사체 지정도형으로서 표시시키면 좋다. After capturing the first photographed image, the processing section 10 specifies the photographed subject by, for example, tapping the portion of the camera on which the intended subject appears on the display screen of the camera. Then, the processing section 10 detects a person by performing person detection or object detection, and indicates the detected subject area. For example, a figure (hereinafter referred to as &quot; subject designation figure &quot;) slightly larger than the subject area including the subject area is displayed on the first shot image. For example, a figure of a quadrangle of a dotted line or a broken line may be displayed as a subject designation figure.

다음으로, 표시제어부(127)는, 유저가 자기장치(카메라)를 이동시킬 방향(우방향, 좌방향, 상방향, 하방향의 어느 쪽으로 이동시킬지)이나, 유저가 자기장치를 이동시키는 거리(자기장치를 어느 정도 이동시키면 좋을지)를 가이드하기 위한 가이드표시를 표시부(30)에 표시시킨다. 구체적으로는, 어느 방향으로 자기장치를 이동시키면 좋은가를 나타내는 가이드용의 화살표(이하, 「가이드 화살표」라 함)나, 목적의 촬영위치에 유저를 유도하기 위한 가이드용의 도형(이하, 「가이드 도형」이라 함)을, 가이드표시로서 표시부(30)에 표시시킨다. 예컨대, 가이드 도형은, 확인화면과 공통의 형상 및 사이즈이며, 유저는 프리뷰 화면과 가이드 도형이 합치하도록 카메라를 이동시키는 조작이 필요한 것을 파악할 수 있다. Next, the display control unit 127 determines whether the user should move the direction of the magnetic device (camera) (rightward, leftward, upward, or downward) or the distance the user moves the magnetic device A guide display for guiding the magnetic device to some extent). Concretely, a guide arrow (hereinafter, referred to as a "guide arrow") indicating a direction in which the magnetic device is to be moved in a certain direction, a figure for guiding a user to a desired photographing position Graphic form &quot;) is displayed on the display unit 30 as a guide display. For example, the guide figure has a shape and size common to the confirmation screen, and the user can grasp that it is necessary to perform an operation of moving the camera so that the preview screen and the guide figure coincide with each other.

여기서, 확인화면이란, 카메라를 촬영모드로 기동했을 때에, 촬상부(50)(촬상 디바이스)로부터 출력되는 신호에 근거하여 표시부(30)에 나타나는 화면이며, 확인화면의 화상은 촬상 디바이스로부터의 출력신호에 대응하여 갱신된다. 즉, 확인화면에는 촬상대상의 화상이 표시되고, 실시간으로 갱신되고 있다. 촬영자는, 확인화면을 봄으로써, 피사체의 촬상 상태를 확인 가능하고, 촬영을 행할 때에, 목적의 피사체가 나타나고 있는지 어떤지를 확인하거나, 어느 위치나 어느 각도에서 촬영을 행할지를 결정할 수 있다. Here, the confirmation screen is a screen that appears on the display unit 30 based on a signal output from the imaging unit 50 (imaging device) when the camera is activated in the imaging mode, and the image of the confirmation screen is output from the imaging device Signal. That is, on the confirmation screen, an image to be captured is displayed and updated in real time. The photographer can check the imaging state of the subject by looking at the confirmation screen, check whether the object of interest is displayed when shooting, or determine from which position or angle the shooting is to be performed.

여기서, 피사체를 움직여야 할 방향은, 시차(視差)를 발생하게 하는 방향이면 좋고, 예컨대, 수직 방향 혹은 수평 방향의 어느 쪽이라도 좋다. 그러나, 수직 방향으로 한 경우에는, 특히 피사체까지의 거리가 긴 경우(초점거리가 긴 경우)에, 적절히 시차를 발생하게 하는 것이 곤란하기 때문에, 일반적으로는 수평 방향으로 하는 것이 바람직하다. 또한, 초점거리가 소정 거리 이상인 경우에는, 수직 방향으로 이동시킬지 또는 수평 방향으로 이동시킬지를 유저가 선택 가능하게 하고, 초점거리가 소정 거리 미만인 경우에는, 수평 방향으로 이동시키도록 가이드를 행하도록 해도 좋다. 또한, 처리부(10)에 있어서의 수평 방향의 검출은, 관성센서(75)에 의한 중력 방향의 검출에 근거하여 가능하기 때문에, 카메라의 촬영 각도(확인화면의 표시 방향)에 의하지 않고, 수평 방향으로의 이동을 가이드할 수 있다. Here, the direction in which the subject is to be moved may be a direction for generating parallax, and may be, for example, either vertical or horizontal. However, in the case of the vertical direction, it is generally preferable to make the horizontal direction because it is difficult to appropriately generate the parallax when the distance to the subject is long (the focal length is long). If the focal length is greater than or equal to a predetermined distance, the user can select whether to move the camera in the vertical direction or the horizontal direction. If the focal length is less than the predetermined distance, the camera may be guided to move in the horizontal direction good. Since the detection of the horizontal direction in the processing section 10 can be performed based on the detection of the gravity direction by the inertial sensor 75, the horizontal direction can be detected without depending on the photographing angle of the camera (display direction of the confirmation screen) As shown in Fig.

1매째의 촬영화상 기억 후에, 처리부(10)는, 검출된 피사체 영역을 트래킹하여 피사체 지정도형을 상기 피사체 영역에 추종시킴과 함께, 자기장치의 이동에 대응하여 가이드표시의 표시를 변화시킨다. 여기서 자기장치의 이동에 대응하여, 당초의 촬영위치로부터의 자기장치의 이동거리 및 이동방향이 변화한다. 여기서, 자기장치의 이동 제량으로서, 예컨대 자기장치의 이동거리 및 이동방향을 검출하고, 그 검출결과에 근거하여, 표시부(30)의 가이드표시의 표시를 변화시킨다. After storing the first shot image, the processing unit 10 tracks the detected subject area to follow the subject designation figure in the subject area, and changes the display of the guide display in accordance with the movement of the magnetic device. Here, corresponding to the movement of the magnetic device, the moving distance and the moving direction of the magnetic device from the original photographing position are changed. Here, as a moving amount of the magnetic device, for example, the moving distance and the moving direction of the magnetic device are detected, and the display of the guide display of the display section 30 is changed based on the detection result.

관성센서(75)에는, 3축의 가속도센서 및 3축의 자이로센서가 포함되고, 센서를 기준으로 하는 로컬 좌표계에 있어서의 3축의 가속도 벡터 및 3축의 각속도 벡터가 처리부(10)에 출력된다. 처리부(10)는, 관성센서(75)로부터 출력되는 3축의 각속도 벡터를 적분하여 카메라의 자세를 산출하고, 산출한 자세에 근거하여, 로컬 좌표계에 있어서의 3축의 가속도 벡터를, 예컨대 지구를 기준으로 하는 절대 좌표계에 있어서의 3축의 가속도 벡터로 좌표 변환한다. 그리고, 처리부(10)는, 좌표 변환한 3축의 가속도 벡터를 적분하여 3축의 속도 벡터를 산출한다. 처리부(10)는, 이 처리를 소정의 시간 간격으로 행하고, 상기 시간 간격에 있어서 산출된 3축의 속도 벡터에 근거하여, 각 시간 간격에 있어서의 자기장치의 이동거리 및 이동방향을 산출한다. The inertial sensor 75 includes a three-axis acceleration sensor and a three-axis gyro sensor, and three-axis acceleration vectors and three-axis angular velocity vectors in the local coordinate system based on the sensor are output to the processing unit 10. The processing unit 10 calculates the posture of the camera by integrating the three-axis angular velocity vectors output from the inertial sensor 75 and calculates the three-axis acceleration vector in the local coordinate system based on the calculated posture, Axis acceleration vector in the absolute coordinate system. Then, the processing unit 10 integrates the three-axis acceleration vectors subjected to coordinate conversion to calculate three-axis velocity vectors. The processing section 10 performs this processing at predetermined time intervals, and calculates a moving distance and a moving direction of the magnetic device at each time interval based on the three-axis velocity vectors calculated in the time interval.

처리부(10)는, 산출한 카메라의 이동방향에 근거하여, 표시화면의 가이드 도형을 어느 방향으로 이동시킬지(가이드 도형의 이동방향)를 판정한다. 또한, 처리부(10)는, 산출한 카메라의 이동거리에 근거하여, 표시화면의 가이드 도형을 얼마나 이동시킬지(가이드 도형의 이동량)를 판정한다. 그리고, 판정한 이동방향 및 이동량에 근거하여 가이드 도형의 표시를 변화시킨다. The processing section 10 determines in which direction the guide figure on the display screen is to be moved (the direction of movement of the guide figure) based on the calculated moving direction of the camera. Further, the processing section 10 determines how to move the guide figure on the display screen (movement amount of the guide figure) based on the calculated movement distance of the camera. Then, the display of the guide figure is changed based on the determined movement direction and movement amount.

여기서, 피사체상의 특정의 특징점을 대상으로 한 경우, 그 특징점에 대해서 일정한 시차를 발생하게 하기 위해서 필요한 이동거리는, 피사체까지의 거리(예컨대 초점거리)에 대응하여 길어진다. 이로 인하여, 피사체까지의 거리에 대응하여 가이드 도형의 갱신 조건을 다르게 하면 좋다. 예컨대, 초점거리가 소정 거리 이상인 경우에 있어서의 일정 거리 X의 이동에 근거하는 가이드 도형의 화면 상에서의 이동폭 A와, 초점거리가 소정 거리 미만인 경우에 있어서의 일정 거리 X의 이동에 근거하는 가이드 도형의 화면 상에서의 이동폭 B와의 관계에 있어서, A < B가 되도록, 가이드 도형의 이동폭을 다르게 하면 좋다. Here, when a specific feature point on a subject is targeted, a travel distance required to cause a constant parallax to the feature point becomes longer corresponding to a distance (for example, a focal distance) to the subject. Therefore, the update condition of the guide figure may be different according to the distance to the subject. For example, the movement width A on the screen of the guide figure based on the movement of the constant distance X when the focal length is equal to or larger than the predetermined distance and the movement width A on the screen based on the movement of the constant distance X when the focal distance is less than the predetermined distance The moving width of the guide figure may be made different so that A < B in relation to the moving width B on the screen of the figure.

도 22는, 이 경우에 있어서의 가이드표시의 일례를 나타내는 도이다. 22 is a diagram showing an example of a guide display in this case.

도 22에는, 화상처리장치를 구비한 전자기기의 일례인 스마트폰(1)의 표시화면을 나타내고 있다. 외측 테두리로 둘러싸이는 영역 전체가 스마트폰(1)의 표시화면을 나타내고 있고, 표시화면의 중앙부에, 상술한 확인화면이 표시되어 있다. Fig. 22 shows a display screen of the smartphone 1, which is an example of an electronic apparatus having an image processing apparatus. The entire area surrounded by the outer frame represents the display screen of the smartphone 1, and the aforementioned confirmation screen is displayed at the center of the display screen.

도 22의 (1)은, 정면 시점에서 피사체가 촬상된 촬영화상을 나타내고 있다. 촬상부(50)에 의한 촬상이 종료하여 1매째의 촬영화상이 보존되면, 확인화면이 다시 표시된다. 이 확인화면에 있어서 유저가 피사체인 아이의 표시 부분을 탭 하면, 도 22의 (1)에 나타낸 바와 같이, 2명의 아이를 둘러싸는 파선의 사각형의 도형의 피사체 지정도형이 표시된다. 22 (1) shows a picked-up image in which a subject is picked up at the front view. When the image pickup by the image pickup section 50 is completed and the first shot image is stored, the confirmation screen is displayed again. When the user taps the display portion of the eye as the subject on the confirmation screen, the subject designation figure of the dotted quadrangle surrounded by the two eyes is displayed as shown in (1) of FIG.

계속하여, 가이드표시로서, 예컨대 수평 방향(여기에서는 우측방향)으로 카메라를 이동시키는 것을 나타내는 사각형의 도형이 표시된 상태가 도 22의 (2)이다. 이 도를 보면, 유저가 봐서 우방향으로 카메라를 이동시키는 것을 나타내는 우측방향의 가이드 화살표가 표시되어 있다. 또한, 확인화면과 동일한 사이즈인 사각형의 가이드 도형이, 확인화면의 오른쪽 테두리 바깥에 삐져나오는 형태로 표시되어 있다. 유저는, 이 가이드 화살표 및 가이드 도형에 따라서, 피사체가 확인화면의 중앙에 유지되도록 주의하면서, 카메라를 가지고 우방향으로 이동한다. 22 (2) shows a state in which a rectangular figure indicating that the camera is moved in the horizontal direction (here, rightward direction) is displayed as the guide display. In this figure, a guide arrow in the right direction indicating that the user moves the camera in the right direction is displayed. Further, a rectangular guide figure of the same size as the confirmation screen is displayed in the form of protruding out of the right border of the confirmation screen. The user moves with the camera in the right direction, taking care that the subject is kept at the center of the confirmation screen, in accordance with the guide arrow and the guide figure.

그 후, 우방향으로 이동하면, 상기와 같이 처리부(10)에 의해서 가이드표시의 이동방향 및 이동량이 판정되고, 스마트폰(1)의 이동방향과는 반대 방향으로, 스마트폰(1)의 이동거리에 대응한 이동량만큼, 가이드 도형의 표시위치가 변경된다. 구체적으로는, 도 22의 (3)에 나타내는 바와 같이, 유저가 우방향으로 이동하는데 수반하여, 표시중의 가이드 도형이 화면 좌방향으로 이동해 간다. Then, the movement direction and the movement amount of the guide display are determined by the processing section 10 as described above, and the movement of the smartphone 1 is performed in the direction opposite to the moving direction of the smartphone 1 The display position of the guide figure is changed by the amount of movement corresponding to the distance. More specifically, as shown in (3) of FIG. 22, as the user moves in the right direction, the guide figure in the display moves to the left side of the screen.

최종적으로, 도 22의 (4)에 나타내는 바와 같이, 유저의 이동에 의해서 가이드 도형이 확인화면과 합치하면(가이드 화상의 윤곽이 확인화면의 윤곽과 합치했다고 판정되면), 처리부(10)는 유저의 이동이 완료되었다고 인식하고, 그 위치에서 자동적으로 촬상부(50)에 의해서 촬상이 행해지고, 1매째의 촬영화상과의 관계에서 시차를 가지는 2매째의 촬영화상이 취득된다. Finally, as shown in (4) of FIG. 22, when the guide figure coincides with the confirmation screen by the movement of the user (when it is judged that the outline of the guide image matches the outline of the confirmation screen) The image pickup section 50 automatically picks up the image at that position and acquires a second picked-up image having a time difference in relation to the first picked-up image.

다만, 도 1의 관성센서에 포함되는 가속도센서 및 자이로센서는, 가속도센서 및 자이로센서가 패키지화된 관성계측유닛(IMU)(Inertial Measurement Unit)이라도 좋다. However, the acceleration sensor and the gyro sensor included in the inertial sensor of Fig. 1 may be an inertial measurement unit (IMU) in which an acceleration sensor and a gyro sensor are packaged.

또한, 상기에서는, 관성센서나 관성계측유닛에 의해서 검출되는 가속도 벡터나 각속도 벡터에 근거하여 자기장치의 이동 제량을 검출했지만, 이 외에도, 예컨대 GPS 유닛 등의 측위용 위성으로부터 발신되는 측위용 신호를 이용하여 측위 연산을 행하는 유닛을 화상처리장치에 내장하고, 이 센서의 검출결과에 근거하여, 이동 제량을 검출해도 좋다. GPS에서는, GPS 위성으로부터 발신되는 GPS 위성 신호에 근거하여, 의사 거리(pseudo-range)나 도플러 주파수를 이용한 측위 연산(의사 거리 측위, 도플러 측위)을 행하여, 자기장치의 위치를 산출할 수 있다. 이 측위 연산으로 구한 측위 위치의 차분에 근거하여 자기장치의 이동 속도나 이동방향을 검출해도 좋다. 또한, GPS에서는, 도플러 주파수를 이용한 속도 벡터 연산을 행하여, 자기장치의 속도 벡터를 산출할 수도 있다. 이와 같이 하여 산출한 속도 벡터로부터, 자기장치의 이동거리 및 이동방향을 검출해도 좋다. In the above description, the movement amount of the magnetic device is detected based on the acceleration vector or the angular velocity vector detected by the inertial sensor or the inertial measurement unit. Alternatively, a positioning signal transmitted from a positioning satellite, such as a GPS unit, A unit for carrying out a positioning calculation may be incorporated in an image processing apparatus and the moving amount may be detected based on the detection result of the sensor. In GPS, positioning calculation (pseudorange positioning, Doppler positioning) using a pseudo-range or Doppler frequency is performed based on a GPS satellite signal transmitted from a GPS satellite, and the position of the magnetic device can be calculated. The moving speed and the moving direction of the magnetic device may be detected based on the difference of the positioning position obtained by the positioning calculation. In the GPS, a velocity vector calculation using the Doppler frequency may be performed to calculate the velocity vector of the magnetic device. From the velocity vector thus calculated, the moving distance and the moving direction of the magnetic device may be detected.

또한, 관성센서(75) 대신에, 관성항법 연산을 행하여 자립적으로 이동거리 및 이동방향을 검출하는 관성항법장치(INS)(Inertial Navigation System)를 화상처리장치에 구비해 두고, 이 관성항법장치에 의해서 화상처리장치의 이동거리 및 이동방향을 검출해도 좋다. In place of the inertial sensor 75, an inertial navigation system (INS) (Inertial Navigation System) that performs an inertial navigation operation and detects the moving distance and the moving direction independently is provided in the image processing apparatus, The moving distance and the moving direction of the image processing apparatus may be detected.

또한, 상기와 같이, 자기장치의 이동 제량(이동방향이나 이동거리)을 검출하고, 그 검출결과에 근거하여, 가이드표시의 표시를 변화시키는 것 외에, 예컨대, 제3의 화상처리(도 19 참조)의 스텝 J11에 있어서의 특징점 추적처리에서 특징점을 추적한 결과에 근거하여, 가이드표시의 표시를 변화시켜도 좋다. 즉, 특징점 추적처리에 있어서 특징점을 추적한 결과, 특징점이 어느 방향으로 얼마나 이동했는지(특징점의 이동방향 및 이동거리)를 판정하고, 그 판정결과에 근거하여, 표시화면의 가이드 도형을 어느 방향으로 얼마나 이동시킬지(가이드 도형의 이동방향 및 이동량)를 결정하고, 가이드 도형의 표시를 변화시켜도 좋다. In addition to detecting the movement amount (movement direction or movement distance) of the magnetic device and changing the display of the guide display based on the detection result as described above, for example, the third image processing The display of the guide display may be changed on the basis of the result of tracking the feature point in the feature point tracking process in step J11 of Fig. That is, as a result of tracing the feature points in the feature point tracking process, it is judged as to which direction the feature point has moved (the direction of movement and distance of movement of the feature points) as a result of the tracing of the feature points, (Movement direction and amount of movement of the guide figure) may be determined, and the display of the guide figure may be changed.

4. 제4 실시예4. Fourth Embodiment

4-1. 유저 조작에 의한 디폴트 포커싱 위치의 설정4-1. Setting the default focusing position by user operation

상기의 실시예에서는, 전 초점화상이 생성된 후에, 강조화상 생성모드에 있어서 실행되는 강조화상 생성처리에 있어서, 유저가 전 초점화상 중에서 강조시키는 영역을 지정하고, 그 지정영역에 포함되는 화소가 포커싱된 강조화상을 생성하는 것으로 하여 설명했다. 그러나, 이 방법에서는, 유저가 소망의 화상을 생성하기 위해서, 촬상부(50)에 의한 촬상 후에 유저가 그때마다, 강조시키고 싶은 영역을 지정하는 것이 필요하게 되어, 불편하다는 문제가 있다. In the above embodiment, in the emphasized image generation processing executed in the emphasized image generation mode after the foreground image is generated, the user designates an area to be emphasized in the foreground image, and a pixel included in the designated area And a focused emphasized image is generated. However, in this method, there is a problem in that, in order for the user to generate a desired image, it is necessary for the user to designate the area to be emphasized each time after the image pickup by the image pickup section 50, which is inconvenient.

여기서, 촬상부(50)에 의한 촬상전에, 유저가 디폴트로 하는 포커싱 위치(이하, 「디폴트 포커싱 위치」라 함)를 지정 가능하게 해도 좋다. 구체적으로는, 확인화면에 있어서, 유저가, 표시화면을 탭 하는 탭 조작을 실시하는 등 하여, 디폴트 포커싱 위치를 지정하는 것을 가능하게 해도 좋다. Here, before the image pickup by the image pickup section 50, the user may specify a default focusing position (hereinafter referred to as &quot; default focusing position &quot;). Specifically, it is possible to allow the user to designate a default focusing position by, for example, performing a tapping operation for tapping the display screen on the confirmation screen.

도 23은, 이 경우에, 처리부(10)가, 도 4 및 도 5의 화상처리 대신에 실행하는 제4의 화상처리 중, 화상처리의 도 4에 대응하는 부분을 취한 플로우차트이다. 또한, 화상처리와 동일한 스텝에 대해서는 동일한 부호를 부여하여, 반복 설명을 생략한다. 23 is a flowchart in which the processing section 10 takes a portion corresponding to Fig. 4 of the image processing in the fourth image processing executed in place of the image processing in Figs. 4 and 5 in this case. The same steps as those of the image processing are denoted by the same reference numerals, and repetitive description will be omitted.

처리부(10)는, 모드가 촬영모드라고 판정했다면(스텝 A1), 탭 조작을 검지했는지 아닌지를 판정한다(스텝 G3). 탭 조작을 검지했다고 판정했다면(스텝 G3; Yes), 처리부(10)는, 지정영역에 근거하여 대표화소를 결정한다(스텝 G5). 지정영역은, 유저에 의해 탭 된 영역이며, 처리부(10)는, 상기의 실시예와 동일하게, 이 지정영역 중에서 하나의 화소를 대표화소로서 선택한다. 이 경우에 있어서의 대표화소의 선택 방법으로서는, 예컨대, 지정영역의 중심위치에 가장 가까운 화소나, 지정영역에 포함되는 화소의 화소값의 평균값에 화소값이 가장 가까운 화소를 대표화소로서 선택할 수 있다. 그리고, 처리부(10)는, 결정한 대표화소를 기억부(80)에 기억시킨다(스텝 G7). If the processing unit 10 determines that the mode is the shooting mode (step A1), the processing unit 10 determines whether or not the tap operation has been detected (step G3). If it is determined that the tap operation is detected (step G3; Yes), the processing unit 10 determines representative pixels based on the designation area (step G5). The designation area is a region tapped by the user, and the processing section 10 selects one of the designation areas as a representative pixel, as in the above embodiment. As a representative pixel selection method in this case, for example, a pixel closest to the center position of the designated area or a pixel having the closest pixel value to the average value of the pixel values of the pixels included in the designated area can be selected as the representative pixel . Then, the processing section 10 stores the determined representative pixel in the storage section 80 (step G7).

다음으로, 처리부(10)는, 촬상조건이 성립했는지 아닌지를 판정한다(스텝 G9). 구체적으로는, (1) 스텝 G3에 있어서의 탭 조작을 검지한 것, (2) 스텝 G3에 있어서의 탭 조작을 검지한 후, 촬영버튼의 누름조작을 검지한 것, (3) 스텝 G3에 있어서의 탭 조작을 검지한 후, 그 탭 위치로부터 손가락을 떼지 않고 일정시간(예컨대 5초) 이상의 시간이 경과한 것(긴 누름조작의 검지), (4) 스텝 G3에 있어서의 탭 조작을 검지한 후, 동일 위치를 다시 탭 하는 조작을 검지한 것(더블 탭 조작의 검지) 등의 조건을 촬상조건으로 하고, 이들 촬상조건 중 어느 일방의 조건이 성립한 경우에, 촬상부(50)에 촬상을 실행시킨다. Next, the processing section 10 judges whether or not the imaging condition is established (step G9). More specifically, (1) the tap operation is detected in step G3, (2) the tapping operation of the photographing button is detected after the tap operation in step G3 is detected, and (3) (For example, 5 seconds) elapsed without detaching the finger from the tap position (detection of a long pressing operation), (4) detection of the tap operation in step G3, (Detection of a double-tap operation) is detected as an imaging condition, and when any one of these imaging conditions is satisfied, the imaging unit 50 And executes imaging.

촬상조건이 성립하지 않았다고 판정했다면(스텝 G9; No), 처리부(10)는, 스텝 G3로 처리를 되돌린다. 촬상조건이 성립했다고 판정했다면(스텝 G9; Yes), 처리부(10)는, 촬상부(50)에 초점거리를 변경하여 복수 매의 화상을 촬상시키는 촬상처리를 행한다(스텝 G11). 그리고, 처리부(10)는, 스텝 A5로 처리를 이행한다. If it is determined that the imaging condition is not satisfied (step G9; No), the processing unit 10 returns the processing to step G3. If it is determined that the imaging conditions have been satisfied (step G9; Yes), the processing section 10 performs imaging processing for changing the focal length of the imaging section 50 to pick up a plurality of images (step G11). Then, the processing section 10 shifts the processing to step A5.

도 24는, 제4의 화상처리에 있어서, 처리부(10)가, 도 8의 강조화상 생성처리 대신에 실행하는 제3의 강조화상 생성처리의 흐름의 일례를 나타내는 플로우차트이다. 다만, 강조화상 생성처리와 동일한 스텝에 대해서는 동일한 부호를 부여하여, 반복 설명을 생략한다. Fig. 24 is a flowchart showing an example of the flow of the third enhanced image generation processing executed by the processing section 10 in place of the enhanced image generation processing of Fig. 8 in the fourth image processing. However, the same steps as those of the emphasized image generating process are denoted by the same reference numerals and repeated explanation is omitted.

처리부(10)는, 스텝 G7에 있어서 기억시킨 대표화소를 기억부(80)으로부터 읽어낸다(스텝 J1). 그리고, 처리부(10)는, 기억부(80)에 기억되어 있는 깊이 맵에 근거하여, 읽어낸 대표화소의 심도를 판정한다(스텝 J3). 그리고, 처리부(10)는, 스텝 D7로 처리를 이행한다. The processing section 10 reads the representative pixel stored in step G7 from the storage section 80 (step J1). Then, the processing unit 10 determines the depth of the representative pixel read based on the depth map stored in the storage unit 80 (step J3). Then, the processing section 10 shifts the processing to step D7.

다만, 상기의 제4의 화상처리에 있어서, 유저가, 디폴트 포커싱 위치를 지정하는 경우에 있어서, 커서 등을 이용하여 화소단위로의 포커싱 위치의 지정을 행하는 것을 가능하게 해도 좋다. 또한, 유저가 손가락으로 피사체 전체를 둘러싸는 조작을 행함으로써, 피사체 단위로의 포커싱 위치의 지정을 가능하게 해도 좋다. However, in the fourth image processing described above, when the user designates the default focusing position, it may be possible to designate the focusing position in units of pixels using a cursor or the like. In addition, the user may designate a focusing position in units of a subject by performing an operation to surround the entire subject with a finger.

또한, 스텝 G5에 있어서 대표화소를 결정하는 처리를 행하는 것이 아니라, 예컨대, 최초에 유저 조작(예컨대 터치패널에 대한 탭 조작)에 따라서 지정영역을 결정하고 그 후에 촬상부(50)에 촬상을 행하게 하고, 촬상 후에, 최초에 결정해 둔 지정영역에 포함되는 화소(및 대응하는 심도)에 있어서, 가장 많이 포함되는 심도의 화소를 특정하고, 상기 심도에 대해서 특정한 화소를 포커싱으로 하는 강조화상을 생성함으로써 해도 좋다. 즉, 대표화소를 결정하지 않고, 유저에 의해서 지정된 지정영역으로부터 포커싱되는 심도를 결정함으로써 해도 좋다. Instead of performing the process of determining representative pixels in step G5, for example, a designation area is first determined according to a user operation (for example, a tap operation on a touch panel), and then an image is captured by the imaging section 50 (And corresponding depth) included in the designation area which has been initially determined after the image pickup, and generates an emphasized image in which focusing is performed on a specific pixel with respect to the depth of field . That is, the depth to be focused may be determined from the designated area designated by the user without determining the representative pixel.

또한, 스텝 G11에 있어서의 촬상처리는, 제3 실시예에서 설명한 제3의 화상처리의 스텝 J3에 있어서의 촬상과 동일하게, 유저에게 카메라의 위치를 변화시켜서, 복수의 시점에서 목적의 피사체를 촬상부(50)에 촬상시키는 처리로 해도 좋다. In the imaging process in step G11, as in the imaging in step J3 of the third image processing described in the third embodiment, the position of the camera is changed to the user so that the target object And the image pickup section 50 picks up the image.

4-2. 얼굴 검출/인물 검출에 의한 디폴트 포커싱 위치의 설정4-2. Setting the default focusing position by face detection / portrait detection

상기의 처리에 있어서, 디폴트 포커싱 위치를 설정할 때에, 확인화면에 있어서, 피사체로서 찍혀있는 인물이나 그 인물의 얼굴을 검출하고, 검출한 인물이나 얼굴을 디폴트의 포커싱 위치로 하여, 상기와 동일한 처리를 행하여, 강조화상을 생성하도록 해도 좋다. 또한, 화상의 촬상 후에 입력화상을 표시하는 입력화상 표시화면에 있어서, 피사체로서 찍혀있는 인물이나 그 인물의 얼굴을 검출하고, 검출한 인물이나 얼굴을 디폴트의 포커싱 위치로 하여, 상기와 동일한 처리를 행하여, 강조화상을 생성하도록 해도 좋다. In the above processing, when setting the default focusing position, a person who is photographed as a subject or a face of the person is detected on the confirmation screen, and the detected person or face is set as a default focusing position, So as to generate an emphasized image. It is also possible to detect a person who is photographed as an object or a face of the person on the input image display screen on which an input image is displayed after the image is picked up and sets the detected person or face as the default focusing position So as to generate an emphasized image.

5. 제5 실시예5. Fifth Embodiment

5-1. 도형에 의한 영역의 지정5-1. Specification of area by graphic

상기의 실시예에서는, 목적의 피사체에 핀트를 맞추려고 한 경우에, 그 목적의 피사체와 동일 정도의 깊이 거리에 다른 피사체가 존재하면, 상기 피사체에 대해서도 핀트가 맞은 화상이 생성되어 버린다. 따라서, 목적의 피사체와 동일한 정도의 깊이 거리에 유저가 의도하지 않은 피사체의 혼입 촬상이 발생된 경우, 목적의 피사체에만 핀트를 맞추고 의도치 않게 혼입 촬상된 피사체에 대해서 셰이딩 처리로 셰이딩할 수 없게 된다는 문제가 있다. In the above embodiment, if a subject is aimed at a target and there is another subject at the same depth distance as that of the subject, an image with a focused focus is also generated with respect to the subject. Therefore, when a mixed image of a subject unintended by the user is generated at a depth distance equal to that of a target subject, it is impossible to shade the subject photographed by unintentionally mixing the subject by focusing the subject only on the target there is a problem.

여기서, 예컨대, 촬상 후의 입력화상을 프리뷰 표시한 표시화면에 있어서, 유저에 의해 탭 된 점을 중심으로 하는 원형이나 타원형, 사각형의 도형(이하, 「영역지정용 도형」라 함)을 표시하고, 이 영역지정용 도형의 크기를 동적으로 변화시킴으로써, 셰이딩 처리에 의해서 셰이딩되는 것을 희망하지 않는 영역을 유저가 지정 가능하게 해도 좋다. Here, for example, a circular, elliptical, or quadrangular figure (hereinafter, referred to as &quot; area designing figure &quot;) centered on a point tapped by the user is displayed on the display screen in which the input image after the image capture is preview- By dynamically changing the size of the area designating area, it is possible to allow the user to specify an area which is not desired to be shaded by the shading process.

도 25는, 이 경우에 있어서의 영역지정용 도형의 일례를 나타내는 도이다. 25 is a diagram showing an example of a figure designating area in this case.

도 25에는, 입력화상으로서, 중앙부에 목적의 피사체인 머그컵이 표시된 화상을 나타내고 있다. 이 입력화상에는, 화상의 오른쪽 경계부에, 유저가 의도하지 않은 피사체인 종이컵의 일부가 찍혀있다. 유저는, 목적의 피사체인 머그컵의 화상부분을 강조시키고, 의도하지 않은 피사체인 종이컵의 화상부분을 셰이딩하기 위해서, 영역지정용 도형을 조작하여 머그컵의 화상부분을 지정한다. Fig. 25 shows, as an input image, an image in which a mug, which is the object of interest, is displayed at the center. In this input image, a part of the paper cup, which is a subject unintended by the user, is displayed at the right border of the image. The user specifies the image portion of the mug by manipulating the area designating figure to emphasize the image portion of the mug which is the object of interest and to shade the image portion of the paper cup as the unintended subject.

구체적으로는, 도 25의 (1)에 나타내는 바와 같이, 유저에 의해 목적의 피사체인 머그컵의 화상부분이 탭 된 것을 검지하면, 표시제어부(127)는, 예컨대 타원형의 영역지정용 도형을 탭 위치에 표시시킨다. 이 경우에 표시시키는 영역지정용 도형의 사이즈는, 미리 규정된 사이즈로 하면 좋고, 도 25의 (1)에서는, 머그컵의 중앙부에 비교적 작은 사이즈의 영역지정용 도형이 표시된 상태를 나타내고 있다. 영역지정용 도형은, 2개의 손가락을 이용한 핀치조작에 의해서 그 사이즈를 변경 가능하게 하고, 핀치아웃 조작에 의해서 영역지정용 도형의 사이즈를 확대시키고, 핀치인 조작에 의해서 영역지정용 도형의 사이즈를 축소시킨다. More specifically, as shown in (1) in FIG. 25, when the user detects that the image portion of the mug, which is the object of interest, has been tapped, the display control unit 127 displays, for example, . The size of the area designating figure to be displayed in this case may be a predetermined size, and (1) in FIG. 25 shows a state in which a region designating figure of a relatively small size is displayed at the center of the mug. The area designating figure allows the size to be changed by a pinch operation using two fingers, and the size of the area designating area is enlarged by the pinch-out operation, and the size of the area designating area is increased .

도 25의 (2)에 나타내는 바와 같이, 유저가 영역지정용 도형에 대해서 2개의 손가락으로 핀치아웃 조작을 행하면, 영역지정용 도형의 사이즈가 확대된다. 그리고, 유저는, 영역지정용 도형에 의해서 머그컵의 전체를 덮도록, 핀치아웃 조작에 의해서 영역지정용 도형의 사이즈나 형상을 조정한다. 그리고, 유저는, 확정버튼을 누르는 등의 확정조작을 행하여, 강조 표시시키는 영역을 확정시킨다. As shown in (2) of FIG. 25, when the user performs pinch-out operation with two fingers on the area designating figure, the size of the area designating figure is enlarged. Then, the user adjusts the size and shape of the area designating figure by pinching-out operation so as to cover the entire mug by the area designating figure. Then, the user performs a confirmation operation, such as pressing a confirmation button, and confirms the highlighted area.

이 경우, 처리부(10)는, 강조화상 생성처리에 있어서, 확정조작을 검지한 후, 영역지정용 도형으로 둘러싸인 영역을 지정영역으로 한다. 그리고, 상기 지정영역에 대해서, 예컨대, 상기 지정영역에 포함되는 각 화소의 심도 중, 가장 많은 화소가 속한 심도를 특정하고, 깊이 맵 상에 있어서 상기 특정한 심도(또는 상기 특정한 심도와 소정범위 내의 심도)에 속하는 화소에 대해서는 포커싱으로 하고, 다른 화소에 대해서는 셰이딩 처리를 행하여 비포커싱으로 한다. 또한, 지정영역에 포함되지 않는 영역에 대해서도, 동일하게 셰이딩 처리를 행하여 비포커싱으로 한다. 이 경우의 셰이딩 처리에서는, 예컨대, 셰이딩 처리를 실시하는 영역에 피사체가 혼입 촬상되어 있는 경우에는, 상기 피사체와 그 주위의 배경 영역의 깊이 거리가 거의 동일해지도록 깊이 맵의 심도를 다시 쓰고, 다시 쓴 깊이 맵에 근거하여, 셰이딩 처리를 실시하는 등 하면 좋다. In this case, the processing unit 10, after detecting the confirmation operation in the enhanced image generation processing, sets the area surrounded by the area designation figure as the designation area. Then, for the specified area, for example, the depth to which the largest number of pixels belongs among the depths of the pixels included in the specified area is specified, and the specific depth (or the specific depth and the depth within a predetermined range ), And shading processing is performed on the other pixels to perform non-focusing. In addition, shading processing is similarly performed on an area not included in the designation area to perform non-focusing. In the shading process in this case, for example, when the subject is mixed in the area where the shading process is performed, the depth of the depth map is rewritten so that the depth distance between the subject and the background area around the subject is almost the same, Shading processing may be performed based on the written depth map.

다만, 셰이딩 처리를 행하는 영역에 대해서, 상기의 포커싱 영역의 심도로부터의 심도의 차나, 유저에 의해 탭 된 위치로부터의 거리에 대응하여, 셰이딩 정도를 변경해도 좋다. 예컨대, 지정영역에 포함되지 않는 영역 중, 포커싱 영역으로부터 심도의 차가 큰 영역일수록, 셰이딩 정도를 높게 하여 셰이딩 처리를 행하도록 해도 좋다. 또한, 지정영역에 포함되지 않는 영역 중, 탭 위치로부터의 거리가 멀어진 영역일수록, 셰이딩 정도를 높게 하여 셰이딩 처리를 행하도록 해도 좋다. 이 경우, 포커싱 영역으로부터의 심도가 동일한 영역이나, 탭 위치의 중심위치로부터의 거리가 동일한 영역에 대해서는, 셰이딩 정도를 동일한 값으로 하여, 셰이딩 처리를 행하도록 해도 좋다. However, the degree of shading may be changed in accordance with the difference in depth from the depth of the focusing area or the distance from the position tapped by the user, with respect to the area subjected to the shading processing. For example, among the areas not included in the designated area, the shading processing may be performed with a higher degree of shading in an area having a larger depth difference from the focusing area. Further, among the areas not included in the designated area, the shading processing may be performed with a higher degree of shading in the area where the distance from the tab position is larger. In this case, shading processing may be performed with the same degree of shading for the area having the same depth from the focusing area or the area having the same distance from the center position of the tab position.

또한, 영역지정용 도형의 조작방법은 상기에 한정되지 않고, 예컨대, 1회째의 탭 조작에서 영역지정용 도형을 표시시키고, 표시시킨 영역지정용 도형을 탭 하는 조작을 반복함으로써, 단계적으로 영역지정용 도형의 크기가 확대되도록 해도 좋다. 또한, 탭 조작을 행하고 나서 손가락을 떼지 않고 탭 조작이 계속하여 행해진 시간에 근거하여, 그 시간이 길어질수록, 영역지정용 도형의 크기가 확대되도록 해도 좋다. The operation method of the area designating figure is not limited to the above. For example, the region designating figure is displayed in the first tap operation, and the operation of tapping the displayed area designating figure is repeated, The size of the used figure may be enlarged. Further, the size of the area designation figure may be enlarged as the time is lengthened, based on the time that the tab operation is continuously performed without releasing the finger after performing the tap operation.

또한, 유저에 의한 핀치조작(핀치아웃 조작/핀치인 조작)에 의해서, 영역지정용 도형의 사이즈를 확대/축소하는 것 외에, 예컨대, 유저에 의한 지정용 도형의 바깥 가장자리 부분을 탭 하고, 바깥 가장자리를 외측으로 넓히거나, 내측으로 좁히는 조작을 행함으로써, 영역지정용 도형의 형상을 변화시키는 것을 가능하게 해도 좋다. Further, in addition to enlarging / reducing the size of the area designating figure by a pinching operation (pinch-out operation / pinch-in operation) by the user, for example, the outer edge portion of the figure for designation by the user is tapped, It may be possible to change the shape of the area designation figure by performing the operation of widening the edge to the outside or narrowing it to the inside.

또한, 영역지정용 도형의 중심으로부터의 거리나 면적에 대응하여, 셰이딩 처리에 있어서의 셰이딩 정도를 변경해도 좋다. 구체적으로는, 영역지정용 도형의 중심으로부터의 거리가 길어질수록, 또는, 영역지정용 도형의 면적이 커질수록, 셰이딩 정도를 크게 해도 좋다. The degree of shading in the shading processing may be changed corresponding to the distance or area from the center of the area designating figure. More specifically, the greater the distance from the center of the area designating figure, or the larger the area of the area designating area, the greater the degree of shading.

또한, 상기와 같이, 영역지정용 도형을 이용하여 강조하고 싶은 영역을 지정하는 것이 아니라, 도시는 생략하지만, 유저가 드래그 조작 & 드롭 조작에 의해서 소망의 영역을 채워넣기(fill in)하는 조작을 행하여, 셰이딩하고 싶지 않은 영역을 지정하도록 해도 좋다. In addition, as described above, the area to be emphasized is not specified by using the area designating figure but the operation of filling the desired area by the drag operation and drop operation And specify an area which is not desired to be shaded.

5-2. 유저 조작에 의한 셰이딩 정도의 변경5-2. Change the degree of shading by user operation

또한, 상기와 같이 강조하고 싶은 영역 이외의 영역에 대해서 셰이딩 처리를 실시하는 경우에 있어서, 대상으로 하는 영역을 셰이딩하는 정도가 유저 조작에 의해서 조정 가능하게 해도 좋다. 구체적으로는, 예컨대, 표시화면에 대한 핀치조작에 대응하여, 셰이딩 처리에 있어서의 셰이딩 정도를 변경하여, 셰이딩 처리를 실시하도록 해도 좋다. In addition, in the case where shading processing is performed on an area other than the area to be emphasized as described above, the degree of shading of the area to be subjected to the shading may be adjustable by a user operation. Specifically, for example, the degree of shading in the shading process may be changed corresponding to the pinch operation on the display screen, and the shading process may be performed.

구체적으로는, 예컨대, 전 초점화상이 표시된 표시화면에 있어서, 유저에게 강조 표시시킬 영역을 핀치조작에 의해서 지정시킨다. 이 경우, 예컨대, 핀치조작에 의해서 접촉한 2개의 손가락의 중심위치를 산출하고, 산출한 중심위치의 화소와 깊이 맵 상에 있어서 동일한 심도가 되는 화소로 이루어지는 영역을 포커싱 대상영역으로서 설정하고, 포커싱 대상영역 이외의 영역에는 셰이딩 처리의 대상으로 하는 셰이딩 대상영역으로서 설정하여, 상기 셰이딩 대상영역에 대해서 셰이딩 처리를 행하도록 해도 좋다. More specifically, for example, on a display screen displaying a foreground image, an area to be emphatically displayed to the user is designated by a pinch operation. In this case, for example, the center position of the two fingers contacted by the pinch operation is calculated, and an area including the calculated center position pixel and pixels having the same depth on the depth map is set as the focusing area, The shading processing may be performed on an area other than the target area as a shading target area to be subjected to the shading processing.

이 경우, 유저의 핀치조작에 대응하여, 셰이딩 처리에 있어서의 셰이딩 정도를 변경하여, 셰이딩 대상영역에 대한 셰이딩 처리를 행한다. 구체적으로는, 핀치아웃 조작이 이루어진 경우는, 셰이딩 정도를 단계적으로 높게 하여, 셰이딩 대상영역에 대한 셰이딩 처리를 행한다. 또한, 핀치인 조작이 이루어진 경우에는, 그 핀치인 조작에 대응하여, 셰이딩 정도를 단계적으로 낮게 하여, 셰이딩 대상영역에 대한 셰이딩 처리를 행한다. In this case, the degree of shading in the shading process is changed corresponding to the user's pinching operation, and the shading process is performed on the shading area. Specifically, when the pinch-out operation is performed, the degree of shading is increased stepwise, and shading processing is performed on the shading target area. When the pinch-in operation is performed, the degree of shading is gradually lowered in response to the pinch-in operation, and the shading processing is performed on the shading target area.

도 26은, 이 경우에 있어서의 셰이딩 처리의 일례를 나타내는 도이다. 26 is a diagram showing an example of shading processing in this case.

도 26에는, 미니카나 인형을 포함하는 복수의 피사체가 찍힌 전 초점화상을 나타내고 있다. 이 화상에 있어서, 미니카를 목적의 피사체로 하고, 그 외의 피사체나 배경을 셰이딩하는 경우를 생각한다. 이 경우, 도 26의 (1)에 나타내는 바와 같이, 유저가 미니카의 화상 영역을 탭 하고, 2개의 손가락으로 핀치아웃 조작을 행하면, 처리부(10)는, 2개의 손가락의 간격(2개의 손가락이 접촉하고 있는 2점의 좌표 간격)이 넓어짐에 대응하여, 셰이딩 정도를 단계적으로 높게 하여, 미니카의 화상부분 이외의 화상 영역에 대한 셰이딩 처리를 행한다. 그 결과, 도 26의 (2)에 나타내는 바와 같이, 미니카의 화상 영역이 명료하게 표시되고, 그 외의 화상 영역이 셰이딩된 화상이 생성된다. Fig. 26 shows a fore-focus image in which a plurality of subjects including a mini-car and a doll are photographed. In this image, it is assumed that the mini-car is set as a target object and other objects or backgrounds are shaded. 26 (1), when the user taps the image area of the minicar and performs a pinch-out operation with two fingers, the processing section 10 determines the interval between two fingers (two fingers The shading degree is stepped up in accordance with the widening of the coordinates of the two points that are in contact with each other, and shading processing is performed on image areas other than the image portion of the minicar. As a result, as shown in Fig. 26 (2), the image area of the minicar is clearly displayed and an image in which other image areas are shaded is generated.

한편, 도 26의 (2)에 있어서, 유저가 미니카의 화상 영역에 대해서 2개의 손가락으로 핀치인 조작을 행하면, 처리부(10)는, 2개의 손가락의 간격(2개의 손가락이 접촉하고 있는 2점의 좌표 간격)의 좁아짐에 대응하여, 셰이딩 정도를 단계적으로 낮게 하여, 미니카 이외의 화상 영역에 대한 셰이딩 처리를 행한다. 그 결과, 서서히 도 26의 (1)의 표시상태로 돌아온다. On the other hand, in (2) of Fig. 26, when the user performs pinch-in operation with two fingers on the image area of the mini-car, the processing unit 10 determines the distance between the two fingers Shading degree is gradually lowered in response to the narrowing of the coordinate distance of the point, and the shading process is performed on the image area other than the minicar. As a result, the display state of FIG. 26 (1) is gradually returned.

또한, 상기의 셰이딩 정도를 변경하는 경우에 있어서, 깊이 맵 상에서 동일한 심도에 있는 화소로 이루어지는 영역 단위로, 셰이딩 정도를 개별적으로 설정하여, 셰이딩 처리를 행하도록 해도 좋다. 구체적으로는, 핀치조작에서 화면에 접촉하고 있는 2개의 손가락의 중심위치의 심도를 기준심도로 하고, 기준심도에 있는 화소로 이루어지는 영역에 대해서는, 소정의 기준 셰이딩 정도로 셰이딩 처리를 행하거나, 또는, 상기 영역에 대해서는 셰이딩 처리를 행하지 않게 한다. 또한, 기준심도로부터 심도가 가까운 순서대로 영역을 설정하고, 기준심도로부터 멀어진 심도의 화소로 이루어지는 영역일수록, 상기의 기준 셰이딩 정도로부터 셰이딩 정도를 단계적으로 높게 하는 등 해도 좋다. Further, in the case of changing the degree of shading, the degree of shading may be set individually for each area made up of pixels at the same depth on the depth map, and shading processing may be performed. Specifically, the depth of the center position of the two fingers touching the screen in the pinch operation is set as the reference depth, the shading processing is performed on the area made up of the pixels at the reference depth with a predetermined reference shading degree, The shading processing is not performed on the area. The region may be set in the descending order of depth from the reference depth, and the degree of shading may be increased stepwise from the reference shading degree as the area is made up of pixels at depths away from the reference depth.

예컨대, 핀치아웃 조작에 의해서 셰이딩 정도를 높게 하는 경우에 있어서, 심도가 동일한 화소로 이루어지는 영역을, 초점거리가 가까운 순서대로, 영역 A ~ 영역 D로 한다. 이 경우, 핀치조작에서 화면에 접촉하고 있는 2개의 손가락의 중심위치의 화소가 영역 B에 포함되는 경우, 영역 B에 대해서는 셰이딩 정도를 20%로 설정하고, 영역 A 및 영역 C에 대해서는 셰이딩 정도를 50%로 설정하고, 영역 D에 대해서는 셰이딩 정도를 80%로 설정하여, 각 영역 각각에 대해서, 상기 영역에 포함되는 전(全) 화소에 대해서, 대응하는 셰이딩 정도로 셰이딩 처리를 행하도록 해도 좋다. For example, in the case of increasing the degree of shading by the pinch-out operation, the regions consisting of pixels having the same depth are defined as regions A to D in the order of closest focal distance. In this case, when the pixel at the center position of the two fingers touching the screen in the pinch operation is included in the area B, the degree of shading is set to 20% for the area B and the degree of shading is set for the area A and the area C. 50%, the shading degree for the area D is set to 80%, and shading processing is performed with respect to all the pixels included in the area for each area, to the degree of corresponding shading.

이는, 환언하면, 핀치아웃 조작에 의해서 셰이딩 정도를 약하게 하는 효과를 부여하고 있다고도 말할 수 있다. 예컨대, 디폴트로서 각 영역의 셰이딩 정도를 100%로 설정해 두는 경우, 상기의 경우, 영역 B에 대해서는 셰이딩 정도를 100%→20%로 함으로써 셰이딩의 정도를 크게 약하게 하고, 영역 A 및 영역 C에 대해서는 셰이딩 정도를 100%→50%로 함으로써 셰이딩의 정도를 절반으로 약하게 하고, 영역 D에 대해서는 셰이딩 정도를 100%→80%로 함으로써 셰이딩의 정도를 약간 약하게 하는 것이 되기 때문이다. 다만, 이 경우에 있어서, 영역 D에 대해서는 셰이딩 정도를 낮추지 않고 100%로 함으로써, 생성되는 강조화상에 콘트라스트가 나타나도록 해도 좋다. In other words, it can be said that the effect of weakening the shading degree by the pinch-out operation is also given. For example, when the degree of shading of each area is set to 100% as a default, the degree of shading is largely reduced by setting the shading degree from 100% to 20% for the area B in the above case, and for the area A and the area C This is because the degree of shading is reduced to half by reducing the degree of shading from 100% to 50%, and by reducing the degree of shading from 100% to 80% for the region D, the degree of shading is slightly weakened. However, in this case, the area D may be set to 100% without lowering the degree of shading, so that the contrast may appear in the generated emphasized image.

다만, 상기와 같이, 목적의 피사체가 나타난 영역에 있어서 핀치인 조작이 행해진 경우에 셰이딩 정도를 단계적으로 낮게 하여 셰이딩 처리를 행하는 것에 한정하지 않고, 화상 중의 임의의 영역에 있어서 핀치인 조작이 이루어진 경우에, 셰이딩 정도를 단계적으로 낮게 하여 셰이딩 처리를 행하도록 해도 좋다. 또한, 화상 중의 임의의 영역에 있어서 핀치인 조작이 아니라 핀치아웃 조작이 이루어진 경우에, 셰이딩 정도를 단계적으로 낮게 하여 셰이딩 처리를 행하도록 해도 좋다. However, as described above, when the pinching operation is performed in an area where the object of interest is displayed, the shading processing is not limited to the shading processing in which the degree of shading is lowered stepwise, The degree of shading may be lowered stepwise to perform shading processing. Further, in a case where a pinch-out operation is performed instead of a pinch-in operation in an arbitrary area in the image, the shading process may be performed with the degree of shading stepped down.

6. 제6 실시예6. Sixth Embodiment

임의의 초점거리 범위에 대해서 포커싱으로서 화상을 자유롭게 생성 가능하게 하기 위해서, 출력화상의 생성시 또는 출력화상의 생성 후의 편집화면에 있어서, 초점거리 범위를 유저가 지정하기 위한 초점거리 슬라이더를 출력화상 또는 출력화상의 외측에 표시시켜서, 유저가 임의의 초점거리 범위를 지정 가능하게 해도 좋다. 다만, 본 실시예에 있어서, 초점거리와 심도는 1대1로 대응하고 있다. A focal length slider for specifying the focal length range at the time of generation of the output image or after the generation of the output image in order to freely generate an image as focusing for an arbitrary focal length range is referred to as an output image or It may be displayed outside the output image so that the user can specify an arbitrary focal length range. However, in this embodiment, the focal length and the depth correspond to each other on a one-to-one basis.

도 27은, 초점거리 슬라이더의 일례를 나타내는 도이다. 27 is a diagram showing an example of a focal length slider.

도 27에는, 토끼의 인형이 중심부에 전경으로서, 나무나 건물이 배경으로서 표시된 출력화상의 일례를 나타내고 있다. 또한, 출력화상의 좌하부에는, 횡방향의 바(bar)로 나타내는 초점거리 슬라이더(S1)가 표시되어 있다. 초점거리 슬라이더(S1)는, 좌측으로 갈수록 초점거리가 가깝고(near), 우측으로 갈수록 초점거리가 먼(far) 것을 의미하고 있다. Fig. 27 shows an example of an output image in which a doll of a rabbit is displayed as a foreground at the center and a tree or a building as a background. A focal length slider S1 indicated by a bar in the lateral direction is displayed at the lower left corner of the output image. The focal length slider S1 means that the focal distance is closer to the left and focal distance is farther toward the right.

초점거리 슬라이더(S1)에는, 유저가 초점거리의 하한을 지정하기 위한 우향의 삼각형 형상의 하한지정용 아이콘과, 유저가 초점거리의 상한을 지정하기 위한 좌향의 삼각형 형상의 상한지정용 아이콘이 초점거리 슬라이더(S1)의 바 상에 표시되어 있고, 이들의 아이콘을 유저가 드래그 조작에 의해서 좌우에 이동시킴으로써, 유저는 임의의 초점거리 범위를 지정하는 것이 가능하게 구성되어 있다. The focal length slider S1 is provided with an icon for specifying the lower limit of the right triangular shape for the user to designate the lower limit of the focal length and a icon for specifying the upper limit of the left triangular shape for the user to designate the upper limit of the focal distance, Are displayed on the bars of the distance slider S1, and the user can designate an arbitrary focal distance range by moving the icons to the left and right by the drag operation.

초점거리 범위를 변화시키면, 처리부(10)는, 기억부(80)에 기억되어 있는 깊이 맵을 참조하여, 지정된 초점거리 범위에 대응하는 심도의 화소를 특정한다. 그리고, 특정한 화소에 대해서는 포커싱으로 하고, 그 외의 화소에 대해서는 비포커싱으로 한 화상을 생성한다. 다만, 비포커싱으로 하는 화소에 대해서는, 상기 화소의 초점거리가 지정된 초점거리 범위로부터 멀수록, 셰이딩 정도를 높게 하여 셰이딩 처리를 행하는 등 하면 바람직하다. 이와 같이 함으로써, 지정된 초점거리 범위에 포함되지 않는 화소로 이루어지는 영역에 대해서는, 지정된 초점거리 범위로부터 초점거리가 멀어짐에 따라서 셰이딩의 정도가 강해진, 위화감이 없는 자연스러운 화상이 생성되게 된다. When the focal length range is changed, the processing unit 10 refers to the depth map stored in the storage unit 80 and specifies a pixel at a depth corresponding to the specified focal length range. Then, focusing is performed for a specific pixel, and non-focusing is performed for other pixels. However, for a pixel to be non-focused, it is preferable that the shading process is performed by increasing the degree of shading as the focal length of the pixel is away from the specified focal length range. By doing so, with respect to an area made up of pixels not included in the designated focal length range, the degree of shading becomes stronger as the focal length becomes farther away from the specified focal length range, and a natural image free from discomfort is generated.

도 27의 (1)에 나타내는 바와 같이, 초점거리 슬라이더(S1)의 초점거리 범위를 초점거리가 가까운 쪽(전경측)으로 변화시키면, 전경인 토끼의 인형이 강조되고, 배경인 나무나 건물이 셰이딩된 화상이 생성된다. 한편, 도 27의 (2)에 나타내는 바와 같이, 초점거리 슬라이더(S1)의 초점거리 범위를 초점거리가 먼 쪽(배경측)으로 변화시키면, 배경인 나무나 건물이 강조되고, 전경인 토끼의 인형이 셰이딩된 화상이 생성된다. As shown in Fig. 27 (1), when the focal length range of the focal distance slider S1 is changed to the near side (front side), the dolls of the foreground rabbit are emphasized, A shaded image is generated. On the other hand, when the focal length range of the focal length slider S1 is changed to the far side (background side) as shown in Fig. 27 (2), the background tree or building is emphasized, An image in which the doll is shaded is generated.

또한, 유저의 탭 조작을 검지한 경우에, 깊이 맵에 근거하여, 탭 위치의 근방의 소정범위에 포함되는 화소의 초점거리에 대응하는 심도를 판정하고, 판정한 심도를 초점거리 슬라이더(S1)에 있어서의 초점거리 범위에 반영시키는 것으로 해도 좋다. When the user's tap operation is detected, a depth corresponding to the focal length of the pixel included in the predetermined range near the tap position is determined based on the depth map, and the determined depth is set as the focal length slider S1. May be reflected in the range of the focal length of the lens.

예컨대, 도 27의 (3)에 나타내는 바와 같이, 유저에 의해서 배경인 나무의 부분이 탭 된 경우, 그 탭 위치를 중심으로 하는 소정의 반경의 원에 포함되는 화소를 근방범위 화소로 하고, 이 근방범위 화소의 심도 중 최소심도 및 최대심도를 판정한다. 그리고, 판정한 최소심도 및 최대심도에 대응시키도록, 초점거리 슬라이더(S1) 상의 하한지정용 아이콘 및 상한지정용 아이콘의 표시위치를 자동적으로 이동시키도록 해도 좋다. For example, as shown in FIG. 27 (3), when a part of the background tree is tapped by the user, a pixel included in a circle having a predetermined radius centering on the tab position is set as a neighborhood range pixel, The minimum depth and the maximum depth among the depths of the neighboring range pixels are determined. The display position of the lower limit designation icon and the upper limit designation icon on the focal length slider S1 may be automatically shifted so as to correspond to the determined minimum depth and maximum depth.

또한, 강조화상 생성처리에 있어서, 유저가 화상 상의 임의의 위치를 탭 하여 그 위치와 동일한 초점거리에 있는 화소를 포커싱으로 하고, 다른 초점거리에 있는 화소를 비포커싱으로 한 강조화상을 생성할 때에, 어느 화소가 포커싱이 되는지(또는 비포커싱이 되는지)를 유저에게 나타낼 수 있도록, 탭 위치와 동일 초점거리에 있는 화소를, 다른 초점거리에 있는 화소와 구별하는 표시를 행함으로써 해도 좋다. Further, in the emphasized image generation processing, when the user taps an arbitrary position on the image and focuses a pixel at the same focal distance as the position, and generates an emphasized image in which pixels at different focal distances are not focused , A display may be performed to distinguish a pixel at the same focal distance from a pixel at a different focal distance so that a pixel can be focused (or non-focused) to the user.

구체적으로는, 처리부(10)는, 유저에 의한 탭 위치에 포함되는 화소를 판정한다. 이 경우, 예컨대, 처리부(10)는, 탭 위치의 중심에 위치하는 화소를 특정하고, 이를 처리대상화소로 한다. 그리고, 처리부(10)는, 깊이 맵을 참조하여, 처리대상화소와 동일한 초점거리의 화소를 특정하고, 이들 화소를 플래시 표시하는 등 하여, 유저가 다른 화소와 구별할 수 있도록 한다. Specifically, the processing section 10 determines pixels included in the tab position by the user. In this case, for example, the processing section 10 specifies a pixel located at the center of the tap position, and sets the pixel as a processing target pixel. Then, the processing section 10 refers to the depth map, specifies the pixels having the same focal distance as the pixel to be processed, flash-displays the pixels, and makes the user distinguishable from other pixels.

도 28은, 이 경우에 있어서의 화상의 구별표시의 일례를 나타내는 도이며, 토끼의 인형이 중심부에 전경으로서, 나무나 건물이 배경으로서 표시된 출력화상의 일례를 나타내고 있다. Fig. 28 is a diagram showing an example of an image distinguishing display in this case, and shows an example of an output image in which a doll of a rabbit is displayed as a foreground in the center and a tree or a building as a background.

도 28의 (1)에 나타내는 바와 같이, 유저가 전경인 토끼의 인형의 동체 부분을 탭 하면, 탭 위치에 대응하는 화소가 판정되고, 동일한 초점거리에 있는 화소가 플래시 표시된다. 설명의 간명화를 위하여, 토끼의 인형을 구성하는 화소의 초점거리가 모두 동일하다고 하면, 도 28의 (1)에 나타내는 바와 같이, 토끼의 인형을 구성하는 화소가 구별표시의 대상이 되고, 토끼의 인형의 화상부분이 플래시 표시된다. As shown in Fig. 28 (1), when the user taps the fuselage portion of the puppet of the rabbit as the foreground, the pixel corresponding to the tab position is judged, and the pixel at the same focal distance is displayed in flash. Assuming that the focal lengths of the pixels constituting the puppet of the rabbit are all the same in order to simplify the explanation, as shown in (1) of Fig. 28, the pixels constituting the puppet of the rabbit become objects of discrimination display, The image portion of the doll of FIG.

또한, 도 28의 (2)에 나타내는 바와 같이, 유저가 배경인 나무의 부분을 탭 하면, 탭 위치에 대응하는 화소가 판정되고, 동일한 초점거리에 있는 화소가 플래시 표시된다. 설명의 간명화를 위하여, 배경인 나무나 건물을 구성하는 화소의 초점거리가 모두 동일하다고 하면, 도 28의 (2)에 나타내는 바와 같이, 배경인 나무를 구성하는 화소가 구별표시의 대상이 되고, 배경의 화상부분이 플래시 표시된다. 28 (2), when the user taps a part of the background tree, the pixel corresponding to the tab position is judged, and the pixels at the same focal distance are displayed in flash. Assuming that the focal lengths of the pixels constituting the background or the pixels constituting the background are all the same for the sake of simplicity of explanation, pixels constituting the background tree are the objects of discrimination display, as shown in Fig. 28 (2) , The image portion of the background is displayed in flash.

다만, 상기의 구별표시로서, 동일한 초점거리에 있는 화소를, 그 외의 화소와는 다른 색으로 반투명으로 표시시키거나, 다른 색으로 채워넣기하여 표시시키거나, 소정의 모양이나 해칭을 실시하는 등 하여, 동일한 초점거리에 있는 화소의 구별표시를 실현해도 좋다. However, as the above distinguishing display, pixels having the same focal distance may be displayed in a translucent manner in a color different from that of the other pixels, or may be filled in with different colors, or may be displayed in a predetermined shape or hatching , It is also possible to realize display of distinction of pixels at the same focal distance.

7. 제7 실시예7. Seventh Embodiment

상기의 실시예에 있어서, 촬상부(50)에 의해서 촬상이 행해진 후, 강조화상 생성처리에 있어서 강조화상이 생성될 때까지는 일정한 시간을 필요로 한다. 그 사이, 유저를 단지 기다리게 하는 것은 비효율적이기 때문에, 강조화상 생성처리에 있어서, 어느 화상부분을 포커싱/비포커싱으로 할지를 유저에게 지정시키는 처리를 사이에 두어도 좋다. In the above embodiment, a certain time is required until an emphasized image is generated in the emphasized image generation processing after the imaging by the imaging section 50 is performed. In the meantime, since it is inefficient to simply wait for the user, in the emphasized image generation processing, a process of designating which image portion is focused / unfocused to the user may be interposed.

구체적으로는, 다른 초점거리에서 촬상된 복수의 촬영화상을 입력화상으로 하고, 이들의 입력화상의 특징으로서, 예컨대 엣지를 검출하는 처리를 행한다. 그리고, 각 입력화상 각각에 대하여, 상기 입력화상과 상기 입력화상에 대해서 생성된 엣지화상을 화소단위로 승산(乘算; 곱셈연산)함으로써 얻어지는 화상(이하, 「적 화상(積畵像)」이라 함)을 생성하고, 이 적 화상을 참조용 화상으로 하여 초점거리가 가까운 순서(또는 먼 순서)대로 순차적으로 표시한다. 일순(一巡) 했다면, 그 표시를 반복한다. Specifically, a plurality of photographed images photographed at different focal lengths are set as input images, and processing for detecting, for example, an edge is performed as a feature of the input image. Then, for each of the input images, an image obtained by multiplying the input image and the edge image generated for the input image by a pixel unit (hereinafter, referred to as &quot; ), And displays the images as a reference image in a sequential order (or in a far order) in which the focal distances are close to each other. Repeat the display if it has been done one time.

유저는, 순차적으로 표시되는 적 화상을 열람하고, 포커싱시키고 싶은 피사체가 명료하게 표시되고 있는 적 화상이 표시되었을 때에, 그 화상을 선택하기 위한 선택조작(예컨대 탭 조작)을 행한다. 이 경우, 유저의 선택조작에 의해서 선택된 적 화상에 대응하는 입력화상을 특정하고, 상기 입력화상의 초점거리에 있는 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 화상을 생성하여 표시한다. The user browses an enemy image sequentially displayed and performs a selection operation (e.g., tap operation) for selecting the image when an enemy image in which the subject to be focused is clearly displayed is displayed. In this case, an input image corresponding to the selected image is specified by the user's selection operation, an image in which the pixel at the focal distance of the input image is focused, and other pixels are not focused is generated and displayed.

도 29는, 이 경우에, 처리부(10)가, 도 8의 강조화상 생성처리 대신에 실행하는 제4의 강조화상 생성처리의 흐름의 일례를 나타내는 플로우차트이다. Fig. 29 is a flowchart showing an example of the flow of the fourth enhanced image generation processing executed by the processing section 10 in place of the enhanced image generation processing of Fig. 8 in this case.

맨 먼저, 처리부(10)는, 적 화상 생성처리를 행한다(스텝 K1). 구체적으로는, 복수의 입력화상 각각에 대하여, 상기 입력화상과, 스텝 A11의 엣지검출처리에 있어서 상기 입력화상에 대해서 얻어진 엣지화상과의 곱을 산출한 적 화상을 생성한다. First, the processing section 10 performs an enemy image generation process (step K1). Specifically, for each of a plurality of input images, a product image is calculated by calculating a product of the input image and an edge image obtained for the input image in the edge detection process of step A11.

다만, 입력화상과 엣지화상과의 적 화상은 명도가 낮아지는 경우가 있기 때문에, 생성한 적 화상에 대해서 명도를 올리는 처리를 행하도록 하면 바람직하다. However, since the brightness of an image of an input image and an edge image may be lowered, it is preferable to perform a process of raising the brightness of the generated red image.

다음으로, 표시제어부(127)는, 최초의 적 화상을 표시부(30)에 표시시키는 제어를 행한다(스텝 K3). 구체적으로는, 예컨대, 초점거리가 가장 짧은 입력화상에 대응하는 적 화상, 또는, 초점거리가 가장 긴 입력화상에 대응하는 적 화상을 표시부(30)에 표시시킨다. Next, the display control section 127 performs control to display the first enemy image on the display section 30 (step K3). Specifically, for example, an enemy image corresponding to the input image having the shortest focal distance or an enemy image corresponding to the input image having the longest focal distance is displayed on the display section 30. [

그 후, 처리부(10)는, 터치패널(21)에 대한 탭 조작이 이루어졌는지 아닌지를 판정하고(스텝 K5), 이루어지지 않았다고 판정했다면(스텝 K5; No), 최초의 적 화상의 표시를 개시하고 나서 소정시간(예컨대 1분)이 경과했는지 아닌지를 판정한다(스텝 K7). Then, the processing section 10 judges whether or not a tap operation has been performed on the touch panel 21 (step K5). If it is determined that the tap operation has not been performed (step K5; No) It is determined whether or not a predetermined time (for example, one minute) has elapsed (step K7).

소정시간이 경과하고 있지 않다고 판정했다면(스텝 K7; No), 표시제어부(127)는, 다음의 적 화상을 표시부(30)에 표시시키도록 제어한다(스텝 K9). 그리고, 처리부(10)는, 스텝 K5로 처리를 되돌린다. If it is determined that the predetermined time has not elapsed (step K7; No), the display control section 127 controls the display section 30 to display the next enemy image (step K9). Then, the processing section 10 returns the process to step K5.

한편, 탭 조작이 이루어졌다고 판정했다면(스텝 K5; Yes), 처리부(10)는, 상기 적 화상에 대응하는 입력화상의 초점거리를 특정한다(스텝 K11). 그리고, 강조화상 생성부(123)가, 강조화상을 생성한다(스텝 K13). 구체적으로는, 깊이 맵이 생성된 기억부(80)에 기억이 완료된 상태인 경우는, 기억부(80)에 기억되어 있는 깊이 맵에 근거하여, 스텝 K11에서 특정한 초점거리에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소에 대해서는 셰이딩 처리를 실시하여 비포커싱으로 한 강조화상을 생성한다. 깊이 맵이 생성이 완료된 상태가 아닌 경우에는, 깊이 맵이 생성될 때까지 대기한다. On the other hand, if it is determined that the tap operation has been performed (step K5; Yes), the processing section 10 specifies the focal length of the input image corresponding to the red image (step K11). Then, the enhanced image generation unit 123 generates an enhanced image (step K13). Specifically, when the depth map is stored in the storage unit 80 in which the depth map has been generated, based on the depth map stored in the storage unit 80, the pixel at the depth corresponding to the focal distance specified in Step K11 And other pixels are subjected to shading processing to generate an emphasized image in a non-focused state. If the depth map is not in a state in which the generation of the depth map is completed, the process waits until the depth map is generated.

다음으로, 표시제어부(127)는, 생성된 강조화상을 표시부(30)에 표시시키도록 제어한다(스텝 K15). 그리고, 처리부(10)는, 제4의 강조화상 생성처리를 종료한다. Next, the display control section 127 controls the display section 30 to display the generated enhanced image (step K15). Then, the processing unit 10 ends the fourth enhanced image generation processing.

한편, 스텝 K7에 있어서 소정시간이 경과했다고 판정했다면(스텝 K7; Yes), 처리부(10)는, 디폴트 입력화상의 초점거리를 특정한다(스텝 K17). 여기서, 디폴트 입력화상은, 예컨대, 초점거리가 가장 짧은 입력화상이나, 초점거리가 가장 긴 입력화상으로 할 수 있다. 그리고, 처리부(10)는, 스텝 K13로 처리를 이행한다. On the other hand, if it is determined in step K7 that the predetermined time has elapsed (step K7; Yes), the processing section 10 specifies the focal distance of the default input image (step K17). Here, the default input image may be, for example, an input image having the shortest focal length or an input image having the longest focal length. Then, the processing section 10 shifts the processing to step K13.

상기의 처리에 의하면, 어느 초점거리를 포커싱시킬지는 유저의 취향에 의하기 때문에, 포커싱시키는 위치를 자동적으로 결정하는 것은 곤란하지만, 강조화상 생성처리의 실행 중에 유저에게 포커싱시키는 위치를 지정시킴으로써, 이 문제를 해소할 수 있다. 또한, 강조화상 생성처리의 실행 중에 단순하게 유저를 기다리게 한다고 하는 비효율도 해소할 수 있다. According to the above processing, it is difficult to automatically determine the position to focus on because of the user's preference of which focal distance is to be focussed. However, by specifying the position to focus on the user during execution of the enhanced image generation processing, Can be solved. In addition, it is possible to solve the inefficiency of simply waiting for the user during execution of the enhanced image generation processing.

다만, 스텝 K1의 적 화상 생성처리를 생략하고, 스텝 K3에 있어서, 표시제어부(127)가, 예컨대, 촬상부(50)에 의해서 촬상된 복수의 입력화상을, 참조용 화상으로서 순차적으로 표시시키도록 해도 좋다. 또한, 촬상부(50)에 의해서 촬상된 복수의 입력화상에 대해서 각각 특징(예컨대 엣지)을 검출한 특징검출 화상이나, 복수의 입력화상에 대해서 각각 콘트라스트 보정을 행한 콘트라스트 보정화상 등의 화상을, 참조용 화상으로서 순차적으로 표시시키도록 해도 좋다. In step K3, the display control unit 127 sequentially displays a plurality of input images picked up by the image pickup unit 50 as reference images, for example, . In addition, an image such as a feature detection image in which a feature (e.g., an edge) is detected for each of a plurality of input images picked up by the image pickup section 50, or a contrast-corrected image in which contrast correction is performed for each of a plurality of input images, And may be sequentially displayed as a reference image.

8. 제8 실시예8. Eighth Embodiment

제8 실시예는, 입력화상에 하이라이트 클리핑(시로토비)이 발생하고 있는 경우를 상정하고, 하이라이트 클리핑영역에 대해서 효과를 발휘하는 셰이딩 처리(이하, 「하이라이트 클리핑효과 셰이딩 처리」라 함)에 관한 실시예이다. 하이라이트 클리핑을 포함하는 영역에 있어서는, 광의 세기에 응하여 팽창하도록 셰이딩을 실시하는 것이 바람직하다. 그러나, 단순한 컨벌루션 연산(공간적인 가중평균)을 행하는 필터를 이용하여, 하이라이트 클리핑영역을 포함하는 입력화상에 대한 셰이딩 처리를 행한 경우, 현실의 세계와 괴리된 부자연스러운 셰이딩 결과의 화상이 얻어져버린다. The eighth embodiment assumes a case where highlight clipping occurs in the input image and a shading process (hereinafter referred to as &quot; highlight clipping effect shading process &quot;) for effecting the highlight clipping area Fig. In the area including the highlight clipping, it is preferable to perform the shading so as to expand in response to the light intensity. However, when a shading process is performed on an input image including a highlight clipping area using a filter that performs a simple convolution operation (spatially weighted average), an image of an unnatural shading result that is different from the real world is obtained .

여기서, 통상의 셰이딩 처리는, 다음 식 (5)로 주어진다. Here, the normal shading processing is given by the following equation (5).

Figure pat00005
Figure pat00005

단, "x"는 화소를, "I(x)"는 셰이딩 대상 화상의 화소 x의 화소값을, "I'(x)"는 셰이딩 화상의 화소 x의 화소값을, "w(n)"은 공간적인 가중치(셰이딩 커널)을, "n"은 화소 x의 근방화소를 나타낸다. (X) is the pixel value of the pixel x of the shading object image, "I (x)" is the pixel value of the pixel x of the shading image, "Denotes a spatial weight (shading kernel), and" n "denotes a pixel near the pixel x.

하이라이트 클리핑영역에 대해서는, 본래의 광의 세기가 불명료하게 되어 버리고 있는 것이 문제이다. 8비트로 나타낸 해조값이 포화되어 버리는 것에 의해, 본래 해조값이 256 이상인 화소의 해조값이 255로 보정되어 버린다. 즉, "L(x)"를 화소 x에 있어서의 광의 강도로 한 경우, 「I(x) = min(L(x), 255)」로서 화소값이 산출되어 버린다. 이로 인하여, 식 (5)을 이용하여 셰이딩 처리를 행한 경우, 부당하게 낮게 가중평균되어 버린다. 그 결과, 하이라이트 클리핑영역에 팽창이 발생하지 않게 된다. For the highlight clipping area, the intensity of the original light becomes unclear. The seaweed value represented by 8 bits is saturated and the seawater value of the pixel whose original seawater value is 256 or more is corrected to 255. [ That is, when the intensity of the light in the pixel x is taken as "L (x)", the pixel value is calculated as "I (x) = min (L (x), 255)". Due to this, when the shading process is performed using the equation (5), the weighted average is unduly low. As a result, no expansion occurs in the highlight clipping area.

여기서, 본 실시예에서는, 다음 식 (6) 및 (7)에 따라서 셰이딩 처리를 행한다. Here, in the present embodiment, shading processing is performed according to the following expressions (6) and (7).

Figure pat00006
Figure pat00006

Figure pat00007
Figure pat00007

즉, 포화된 화소값을 이용하여 가중평균을 행하는 것이 아니라, 광의 강도에 대한 가중평균을 행하고, 이 가중평균으로 구해진 광의 강도를 이용하여 입력화상의 화소값을 수정함으로써, 셰이딩 결과의 화상의 화소값을 얻는다. That is, instead of performing the weighted average using the saturated pixel values, a weighted average of the light intensity is performed, and the pixel value of the input image is corrected using the intensity of the light obtained by the weighted average, Get the value.

또한, 상기의 문제를 회피하기 위한 다른 수법으로서, 하이라이트 클리핑영역에 대해서 큰 가중치를 설정하여 화소값을 가중평균하는 것을 생각할 수 있다. 구체적으로는, 예컨대, 다음 식 (8)에 따라서 가중평균을 행한다. As another technique for avoiding the above problem, it is possible to consider weighted averaging of pixel values by setting a large weight for the highlight clipping area. Specifically, for example, a weighted average is performed according to the following equation (8).

Figure pat00008
Figure pat00008

식 (8)에 있어서, "w2"는 하이라이트 클리핑영역에 대한 가중치이며, 하이라이트 클리핑영역에 포함되는 화소값만큼(클수록) 커지는 값을 설정해 둘 수 있다. 구체적으로는, 예컨대, 다음 식 (9) ~ (11)의 어느 일방에 따라서 가중치 "w2"를 산출하여 설정할 수 있다. In Equation (8), "w2" is a weight for the highlight clipping area, and a value that is larger as the pixel value included in the highlight clipping area can be set. Specifically, for example, the weight "w2" can be calculated and set according to either one of the following equations (9) to (11).

Figure pat00009
Figure pat00009

Figure pat00010
Figure pat00010

Figure pat00011
Figure pat00011

단, 식 (11)에 있어서의 "s"는 적당한 파라미터값이다. However, "s" in the expression (11) is an appropriate parameter value.

도 32는, 이 경우에, 처리부(10)가 실행하는 하이라이트 클리핑효과 셰이딩 처리의 흐름의 일례를 나타내는 플로우차트이다. 32 is a flowchart showing an example of the flow of the highlight clipping effect shading processing executed by the processing section 10 in this case.

맨 먼저, 처리부(10)는, 처리대상으로 하는 화상인 처리대상 화상을 입력한다(스텝 L1). 그리고, 처리부(10)는, 입력한 처리대상 화상으로부터 하이라이트 클리핑영역을 검출하는 하이라이트 클리핑영역 검출처리를 행한다(스텝 L3). First, the processing section 10 inputs an image to be processed which is an image to be processed (step L1). Then, the processing unit 10 performs a highlight clipping area detecting process for detecting a highlight clipping area from the input image to be processed (step L3).

다음으로, 처리부(10)는, 하이라이트 클리핑영역용의 가중치 "w2"를 화소단위로 설정한다(스텝 L5). 구체적으로는, 식 (9) ~ (11)의 어느 일방에 따라서, 각 화소 각각에 대해서, 하이라이트 클리핑영역용의 가중치 "w2"를 산출하여 설정한다. Next, the processing unit 10 sets the weight "w2" for the highlight clipping area on a pixel-by-pixel basis (step L5). More specifically, the weight "w2" for the highlight clipping area is calculated and set for each pixel according to either one of the expressions (9) to (11).

다음으로, 처리부(10)는, 스텝 L5에서 설정한 하이라이트 클리핑영역용의 가중치 "w2"와, 처리대상화소의 화소값 "I"를 이용하여, 식 (8)에 따라서, 처리대상 화상의 화소값 "I"에 대한 가중평균 연산을 행하여, 수정된 화소값 "I′"로 구성되는 셰이딩 결과의 화상을 취득한다(스텝 L7). 그리고, 처리부(10)는, 하이라이트 클리핑효과 셰이딩 처리를 종료한다. Next, the processing section 10 uses the weight "w2" for the highlight clipping area set in step L5 and the pixel value "I" of the pixel to be processed, Weighted average calculation is performed for the value "I" to acquire an image of the shading result composed of the modified pixel value "I" (step L7). Then, the processing unit 10 ends the highlight clipping effect shading process.

다만, 상기의 하이라이트 클리핑효과 셰이딩 처리에 있어서, 보다 현실적인 셰이딩을 행하기 위해서, 하이라이트 클리핑영역의 중앙만큼(가까울수록) 광의 강도가 커진다는 가정에 근거하는 모델을 적용하여, 셰이딩 처리를 행하도록 해도 좋다. 예컨대, 하이라이트 클리핑영역과 비하이라이트 클리핑영역과의 경계로부터의 거리에 대응하여, 하이라이트 클리핑영역용의 가중치 "w2"를 크게 설정해도 좋다. 구체적으로는, 공지의 경계 검출수법을 이용하여, 하이라이트 클리핑영역과 비하이라이트 클리핑영역과의 경계를 검출하는 처리를 행하고, 상기 하이라이트 클리핑영역에 포함되는 화소에 대해서, 검출한 경계로부터의 거리가 긴 위치에 존재하는 화소일수록, 하이라이트 클리핑영역용의 가중치 "w2"에 큰 값을 설정하여, 화소값 "I"에 대한 가중평균 연산을 행하도록 해도 좋다. However, in order to perform more realistic shading in the highlight clipping effect shading process, a model based on the assumption that the intensity of light becomes larger (closer to the center) of the highlight clipping area is applied to perform the shading process good. For example, the weight "w2" for the highlight clipping area may be set large corresponding to the distance from the boundary between the highlight clipping area and the non-highlight clipping area. More specifically, a process of detecting a boundary between a highlight clipping area and a non-highlight clipping area is performed by using a known boundary detection method, and a distance from the detected boundary to a pixel included in the highlight clipping area is long W2 "for the highlight clipping area may be set to a larger value and the weighted average calculation for the pixel value" I " may be performed.

또한, 상기의 하이라이트 클리핑효과 셰이딩 처리 외에, 예컨대, 기준화상과 동일한 화각(angle of view)의 저노출 화상을 이용하여 하이라이트 클리핑영역의 진짜 화소값을 추정하고, 이 추정한 화소값 이용하여 셰이딩 처리를 행하도록 해도 좋다. In addition to the above highlight clipping effect shading processing, for example, a real pixel value of the highlight clipping area is estimated using a low-exposure image of the same angle of view as the reference image, and the shading processing .

하이라이트 클리핑영역의 진짜 화소값의 추정에는, 여러 가지의 수법을 이용할 수 있다. 구체적으로는, 예컨대, 셰이딩의 기준으로 하는 기준화상과 저노광 화상의 2매의 화상의 대응하는 2점(단, 하이라이트 클리핑영역을 제외함)의 화소값을, 상술한 「y = a·xb」로 나타내는 노출변환 함수에 적용시키고, 최소이승법에 의해서, 노출변환 함수에 포함되는 (a, b)의 노출변환 파라미터의 값을 산출한다. 그리고, 산출한 노출변환 파라미터 (a, b)의 값을 이용하여, 저노광 화상의 화소값을 변환함으로써, 하이라이트 클리핑영역의 진짜 화소값을 추정한다. For estimating the real pixel value of the highlight clipping area, various techniques can be used. Specifically, for example, the pixel values of two corresponding points (except for the highlight clipping area) of two images of the reference image and the low exposure image on the basis of the shading are defined as "y = a x quot ; b & quot ;, and the value of the exposure conversion parameter (a, b) included in the exposure conversion function is calculated by the minimum multiplying method. Then, by using the calculated values of the exposure conversion parameters (a, b), the pixel value of the low-exposure image is converted to estimate the real pixel value of the highlight clipping area.

상기의 하이라이트 클리핑을 고려한 각종 셰이딩 처리는, 예컨대, 제1 실시예나 제2 실시예에서 설명한 바와 같은 핀트 위치를 어긋나게 하여 복수 매의 화상을 취득하는 포커스 브래킷 방식에 의해서 촬상된 복수의 촬영화상(입력화상)이나, 제3 실시예에서 설명한 바와 같은 시차(視差) 방식에 의해서 촬상된 복수의 촬영화상(입력화상)을 처리대상 화상으로 하여 적용하는 것이 가능하다. The various shading processes in consideration of highlight clipping may be performed by, for example, a plurality of shot images (input images) picked up by a focus bracket method for obtaining a plurality of images by shifting the focus positions as described in the first or second embodiment Image) or a plurality of captured images (input images) captured by a parallax method as described in the third embodiment can be applied as an image to be processed.

즉, 상기의 각종 실시예에서 설명한 화상처리를 실행하기 위한 화상처리 프로그램의 서브루틴으로서, 상기의 하이라이트 클리핑효과 셰이딩 처리를 실행하기 위한 하이라이트 클리핑효과 셰이딩 처리 프로그램을 기억부(80)에 기억하게 해두고, 처리부(10)가, 화상처리 프로그램에 따라서 실행하는 화상처리에 있어서, 하이라이트 클리핑효과 셰이딩 처리 프로그램을 읽어내서 실행함으로써, 각각의 방식으로 촬상된 화상에 대해서, 하이라이트 클리핑을 고려한 효과적인 셰이딩을 실현하는 것이 가능해진다. That is, as the subroutine of the image processing program for executing the image processing described in the above various embodiments, let the storage section 80 store the highlight clipping effect shading processing program for executing the highlight clipping effect shading processing And the processing section 10 reads and executes the highlight clipping effect shading processing program in the image processing executed in accordance with the image processing program, thereby realizing effective shading considering the highlight clipping with respect to the image picked up by each method .

9. 변형예9. Variations

본 발명을 적용 가능한 실시예는, 상기의 실시예에 한정되지 않고, 본 발명의 취지를 일탈하지 않는 범위에서 적절하게 변경 가능하다는 것은 물론이다. 이하, 변형예에 대해서 설명하는데, 상기의 실시예와 동일한 구성에 대해서는 동일한 부호를 부여하고, 반복 설명을 생략한다. It is needless to say that the embodiments to which the present invention is applicable are not limited to the above-described embodiments, but can be appropriately changed within a range not departing from the gist of the present invention. Hereinafter, modified examples will be described, and the same reference numerals are assigned to the same components as those of the above-described embodiment, and repetitive description thereof will be omitted.

9-1. 화상처리장치9-1. Image processing apparatus

상기의 실시형태에서는, 화상처리장치를 스마트폰으로 한 경우의 실시형태에 대해서 설명했지만, 화상처리장치로서 적용 가능한 전자기기는 스마트폰에 한정되는 것은 아니다. 예컨대, 카메라나 디지털카메라, 타블렛 단말, PDA 등의 전자기기를 화상처리장치로 하여 적용해도 좋은 것은 물론이다. 촬상부를 구비한 전자기기이면, 여러 가지의 전자기기에 본 발명의 화상처리장치를 적용하는 것이 가능하다. In the above-described embodiment, the embodiments in which the image processing apparatus is a smart phone have been described. However, the electronic apparatuses applicable to the image processing apparatus are not limited to smart phones. For example, an electronic apparatus such as a camera, a digital camera, a tablet terminal, or a PDA may be applied as an image processing apparatus. In the case of an electronic apparatus having an image pickup section, it is possible to apply the image processing apparatus of the present invention to various electronic apparatuses.

또한, 예컨대, 화상처리장치에 있어서 표시부에 표시된 깊이 맵이나 전 초점화상에 근거하여 유저가 심도를 선택하고, 선택된 심도에 근거하여 생성한 강조화상을, 소정의 정보처리장치의 표시부에 표시시키도록 해도 좋다. 구체적으로는, 예컨대, 유저는, 손에 가지고 있는 스마트폰과 퍼스널컴퓨터를 통신 접속한다. 그리고, 유저는, 스마트폰의 디스플레이에 표시된 깊이 맵이나 전 초점화상에 근거하여 심도를 선택한다. 스마트폰은, 유저에 의해 선택된 심도에 근거하여 강조화상을 생성하고, 상기 강조화상을 퍼스널컴퓨터에 송신한다. 퍼스널컴퓨터는, 스마트폰으로부터 수신한 강조화상을 디스플레이에 표시시키고, 유저는 퍼스널컴퓨터의 표시화면에서 강조화상을 확인한다. Further, for example, in the image processing apparatus, the user selects the depth based on the depth map or the foreground image displayed on the display unit, and displays the enhanced image generated based on the selected depth on the display unit of the predetermined information processing apparatus Maybe. More specifically, for example, the user communicates with a personal computer held in his or her hand with a personal computer. Then, the user selects the depth based on the depth map or the foreground image displayed on the display of the smartphone. The smart phone generates an emphasized image based on the depth selected by the user, and transmits the emphasized image to the personal computer. The personal computer displays the emphasized image received from the smart phone on the display, and the user confirms the emphasized image on the display screen of the personal computer.

다만, 이 경우에 있어서, 스마트폰으로부터 화상데이터 일체를 퍼스널컴퓨터에 송신하도록 하고, 스마트폰 대신에 퍼스널컴퓨터가 강조화상을 생성하여, 퍼스널컴퓨터의 디스플레이에 표시시키도록 해도 좋다. 이 경우는, 스마트폰 및 퍼스널컴퓨터가, 본 발명에 있어서의 화상처리장치가 된다. In this case, however, the image data may be transmitted from the smart phone to the personal computer, and the personal computer may generate the enhanced image instead of the smart phone and display the enhanced image on the display of the personal computer. In this case, a smart phone and a personal computer become the image processing apparatus of the present invention.

9-2. 특징량9-2. Feature quantity

상기의 실시형태에서는, 초점거리를 변경하여 촬상된 심도가 다른 복수의 입력화상으로부터 특징으로서 엣지를 검출하고, 그 엣지강도를 특징량으로서 이용하여 심도를 추정하는 경우를 예로 들어 설명했지만, 이에 한정되는 것은 아니다. In the above-described embodiment, the description has been given taking as an example the case where an edge is detected as a feature from a plurality of input images having different depths of focus by changing the focal length, and the depth is estimated using the edge intensity as a feature amount. However, It is not.

예컨대, 엣지강도와 동일하게 포커싱도와 정(플러스)의 상관이 있는 특징량으로서, 가우스 함수의 차로 나타내는 DoG(Difference of Gaussian)값을 특징량으로서 검출하는 것으로 해도 좋다. 이 경우는, 복수의 입력화상 각각에 대하여, 예컨대, 표준편차 σ(분산 σ2)가 다른 2개의 가우시안 필터를 이용한 필터처리를 실시함으로써, 표준편차 σ가 다른 2매의 평활화 화상을 얻는다. 그리고, 복수의 입력화상 각각에 대하여, 2매의 평활화 화상의 차분을 산출함으로써, DoG 화상을 얻는다. 이와 같이 하여 얻어진 DoG 화상의 각 화소의 화소값(DoG값)을 특징량으로서 이용하여, 상기의 실시형태와 동일한 적절해 연산처리를 행하여, 각 화소에 대해서 심도를 추정한다. 이 경우도, 각 화소에 대해서 포커싱도가 반영된 깊이 맵을 생성할 수 있다. For example, a DoG (Difference of Gaussian) value indicated by the difference of the Gaussian function may be detected as a feature amount having a correlation of focusing and positive (positive) in the same manner as the edge intensity. In this case, for each of the plurality of input images, for example, filter processing using two Gaussian filters having different standard deviations? (Variance? 2 ) is performed to obtain two smoothed images having different standard deviations?. Then, a DoG image is obtained by calculating the difference between the two smoothed images for each of the plurality of input images. The pixel value (DoG value) of each pixel of the DoG image thus obtained is used as a feature amount, and an appropriate arithmetic operation process is performed as in the above embodiment to estimate the depth of each pixel. In this case as well, a depth map reflecting the focusing degree can be generated for each pixel.

또한, 포커싱도 이외의 평가지표로서, 예컨대, 화상의 배경 정도를 특징량으로서 검출하고, 검출한 배경 정도를 특징량으로서 이용하여, 상기의 실시형태와 동일한 적절해 연산처리를 행하여, 각 화소에 대해 배경 정도가 반영된 맵을 얻는 것으로 해도 좋다. 이 경우는, 복수의 입력화상 중 배경이 나타나 있는 입력화상이 우선적으로 선택되고, 각 화소에 대해 배경 정도가 반영된 맵이 생성된다. Further, as the evaluation indexes other than the focusing degree, for example, the background degree of the image is detected as the feature amount, and the detected background degree is used as the feature amount to perform the appropriate arithmetic operation processing as in the above embodiment, A map reflecting the background degree may be obtained. In this case, an input image in which a background is displayed among a plurality of input images is preferentially selected, and a map reflecting the background degree is generated for each pixel.

이들 외에는, 예컨대, 화상 중에서 사용되고 있는 대표색과 그 색의 비율, 색 분포 등의 색 특징을 특징량으로서 검출해도 좋다. 또한, 화상 중에 포함되는 규칙적인 패턴인 텍스쳐를 특징량으로서 검출해도 좋다. 또한, 화상 중의 오브젝트의 형상을 특징량으로서 검출해도 좋다. 또한, 방위선택성 필터를 이용하여 특정의 방위정보를 특징량으로서 검출해도 좋다. 어느 쪽이든, 특징량이 포커싱도의 지표라면, 포커싱도를 반영한 맵이 얻어지고, 특징량이 다른 평가지표이면, 상기 평가지표를 반영한 맵이 얻어지게 된다. Other than these, color characteristics such as the ratio of the representative color and the color used in the image, the color distribution, and the like may be detected as the characteristic quantities. Further, the texture, which is a regular pattern included in the image, may be detected as the feature amount. Further, the shape of the object in the image may be detected as the feature amount. Further, specific azimuth information may be detected as a feature amount by using the orientation selectivity filter. Either way, if the feature amount is an index of the focusing degree, a map reflecting the focusing degree is obtained, and if the feature amount is another evaluation index, a map reflecting the evaluation index is obtained.

9-3. 적절해 연산처리9-3. Appropriate arithmetic processing

상기의 실시형태에서는, 적절해 연산처리로서, 식 (1)의 에너지함수를 이용하여 스코어값을 산출하고, 스코어값이 최대가 된 입력화상을 포커싱되어 있는 입력화상으로 판정함으로써 하여 설명했지만, 식 (1) 대신에 다음 식 (12)의 에너지함수를 이용하여 스코어값을 산출하고, 스코어값이 최소가 된 입력화상을 포커싱되어 있는 입력화상으로 판정함으로써 해도 좋다. In the above-described embodiment, as the appropriate arithmetic processing, the score value is calculated using the energy function of Equation (1), and the input image having the maximum score value is determined as the focused input image. (12), instead of (1), the score value may be calculated and the input image with the smallest score value may be determined as the focused input image.

Figure pat00012
Figure pat00012

식 (12)에서는, 식 (1)의 우변의 각 항이 마이너스가 아니라 플러스로 되어 있다. 이 식은, 대상화소에 대해서, 상기 대상화소의 대응하는 엣지화상의 엣지강도에 대응한 코스트값을 스코어값에 가산함과 함께, 상기 대상화소에 대해서 포커싱되어 있다고 하는 제1의 입력화상과 상기 대상화소의 근방화소에 대해서 포커싱되어 있다고 하는 제2의 입력화상이 다른 경우에는 패널티값을 스코어값에 가산하는 것을 의미하고 있다. 그리고, 스코어값이 소정의 낮은 값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정한다. In Expression (12), each term on the right side of Expression (1) is not a minus but a plus. In this formula, a cost value corresponding to the edge intensity of the corresponding edge image of the target pixel is added to the target pixel, and a first input image that is focused on the target pixel, The penalty value is added to the score value when the second input image that is focused on the pixel near the pixel is different. Then, an input image whose score value satisfies a predetermined low value condition is determined as the focused image.

식 (12)의 에너지함수를 1 차원으로 확장한 식 (2)에 대응하는 식은, 다음 식 (13)과 같이 나타낸다. The equation corresponding to the equation (2) in which the energy function of the equation (12) is extended in one dimension is expressed by the following equation (13).

Figure pat00013
Figure pat00013

또한, 식 (1)의 에너지함수를 이용하는 경우는, 스코어값이 최대가 되는 입력화상을 포커싱되어 있는 입력화상으로 판정했지만, 이 수법은 일례에 지나지 않는다. 예컨대, 입력화상의 수가 N개인 경우는, 예컨대, 스코어값이 큰 순서대로 소정비율(예컨대 3할)의 수의 스코어값을 특정하고, 그 중에서 스코어값을 하나 선택하여, 포커싱되어 있는 입력화상을 판정함으로써 해도 좋다. 즉, 스코어값이 최대인 것을 선택할 필요는 없고, 2번째나 3번째로 큰 스코어값을 선택하도록 해도 좋다. 이는, 스코어값이 소정의 높은 값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정하는 것을 나타내는 일례이다. When the energy function of the equation (1) is used, the input image having the maximum score value is determined as the focused input image. However, this technique is merely an example. For example, when the number of input images is N, for example, a score value of a predetermined number (for example, 3%) is specified in ascending order of the score value, and one of the score values is selected, It may be determined. That is, it is not necessary to select the maximum score value, and the second or third largest score value may be selected. This is an example showing that an input image whose score value satisfies a predetermined high value condition is determined as an input image that is focused.

동일하게 식 (12)의 에너지함수를 이용하는 경우에는, 스코어값이 작은 순서대로 소정비율(예컨대 3할)의 수의 스코어값을 특정하고, 그 중에서 스코어값을 하나 선택하도록 해도 좋다. 이는, 스코어값이 소정의 낮은 값 조건을 만족하는 입력화상을 포커싱되어 있는 입력화상으로 판정하는 것을 나타내는 일례이다. Similarly, when the energy function of the equation (12) is used, a score value of a predetermined number (for example, 3) may be specified in the order of smaller score values, and one score value may be selected from among them. This is an example showing that an input image whose score value satisfies a predetermined low value condition is determined as an input image that is focused.

9-4. 표시용 화상9-4. Display image

상기의 실시형태에서는, 깊이 맵에 근거하여 생성한 전 초점화상을 표시용 화상으로서 표시부(30)에 표시시키는 것으로 하여 설명했지만, 반드시 전 초점화상을 표시부(30)에 표시시키지 않으면 안 되는 것은 아니다. In the above-described embodiment, the foreground image generated based on the depth map is displayed on the display unit 30 as the display image. However, the foreground image must be displayed on the display unit 30 .

구체적으로는, 전 초점화상 대신에, 복수의 입력화상 중에서 선택한 대표화상을 표시용 화상으로서 표시부(30)에 표시하는 것으로 해도 좋다. 이 경우는, 예컨대, 가장 최초에 촬상된 입력화상이나, 가장 마지막에 촬상된 입력화상, 초점거리가 중간값에 가장 가까운 입력화상을 대표화상으로서 선택할 수 있다. More specifically, instead of the fore-focus image, a representative image selected from a plurality of input images may be displayed on the display unit 30 as a display image. In this case, for example, the input image picked up at the earliest time, the input image picked up last, and the input image whose focal distance is the closest to the middle value can be selected as representative images.

또한, 이 외에도, 깊이 맵을 표시용 화상으로서 표시부(30)에 표시시켜도 좋고, 복수의 입력화상 중 임의의 입력화상을 합성한 합성화상을 표시용 화상으로서 표시부(30)에 표시시키는 것으로 해도 좋다. Alternatively, the depth map may be displayed on the display unit 30 as a display image, or a synthesized image obtained by synthesizing an arbitrary input image among a plurality of input images may be displayed on the display unit 30 as a display image .

어느 쪽이든, 유저는, 표시부(30)에 표시된 상기의 표시용 화상을 열람하면서, 조작부(20)를 조작하여, 화상 중의 수정하고 싶은 부분을 선택하게 된다. Either way, the user operates the operation unit 20 while viewing the above-mentioned display image displayed on the display unit 30, and selects a portion to be corrected in the image.

9-5. 심도선택창의 표시9-5. Display of depth selection window

표시제어부(127)가, 표시부(30)에 소정의 표시용 화상을 표시시키도록 제어하고, 그 표시화면의 소정위치에, 심도를 유저에게 선택시키기 위한 심도선택용 조작창을 표시시키는 제어를 행하는 것으로 해도 좋다. 이 경우, 유저는, 입력부(20)를 통하여 심도선택용 조작창으로부터 심도를 선택한다. The display control unit 127 controls the display unit 30 to display a predetermined display image and controls to display a depth selection operation window for allowing the user to select the depth at a predetermined position of the display screen . In this case, the user selects the depth from the depth selection operation window through the input unit 20.

도 17은, 이 경우의 표시화면의 일례를 나타내는 도이며, 전 초점화상이 표시부(30)에 표시된 상태를 나타내고 있다. 다만, 전경인 토끼의 인형 부분만을 도시하고, 배경인 나무의 부분에 대해서는 도시를 생략하고 있다. 이 도를 보면, 표시화면의 좌하부에, 유저가 심도를 선택하기 위한 심도선택용 조작창(W1)이 표시되어 있다. 심도선택용 조작창(W1)은, 심도별로 나눠진 세로로 긴 게이지로 나타내고 있고, 유저는 게이지의 중앙부에 나타난 심도선택용 바 BAR를 탭 조작에 의해 상하로 움직여서, 심도를 선택 가능하게 구성되어 있다. Fig. 17 is a diagram showing an example of a display screen in this case, and shows a state in which a foreground image is displayed on the display unit 30. Fig. However, only the puppet part of the rabbit is shown in the foreground, and the part of the background tree is omitted. In this figure, a depth selection operation window W1 for the user to select the depth is displayed at the lower left corner of the display screen. The depth selection operation window W1 is represented by a vertically long gauge divided by the depth and the user is able to select the depth by moving the depth selection bar BAR displayed at the center of the gauge by the tab operation .

도 18은, 이 경우에 강조화상 생성부(123)가 실행하는 제2의 강조화상 생성처리의 흐름을 나타내는 플로우차트이다. 다만, 도 8에 나타낸 강조화상 생성처리와 동일한 스텝에 대해서는 동일한 부호를 부여하고, 반복 설명을 생략한다. 18 is a flowchart showing the flow of a second enhanced image generation process executed by the enhanced image generation unit 123 in this case. It should be noted that the same steps as those in the emphasized image generating process shown in Fig. 8 are denoted by the same reference numerals and repeated explanation is omitted.

강조화상 생성부(123)는, 최초에 유저 조작을 판정한다(스텝 H1). 유저 조작이 표시화면 중의 화상의 탭 조작이라고 판정했다면(스텝 H1; 화상의 탭 조작), 강조화상 생성부(123)는, 탭 된 영역(탭 영역)을 지정영역으로 판정한다(스텝 H2). 그리고, 강조화상 생성부(123)는, 스텝 D3로 처리를 이행한다. The emphasis-image generating unit 123 first determines a user operation (step H1). If it is determined that the user operation is a tap operation of an image on the display screen (step H1; tap operation of the image), the enhanced image generation unit 123 determines the tapped area (tap area) as the designated area (step H2). Then, the emphasized image generating unit 123 shifts the processing to step D3.

한편, 유저 조작이 심도선택용 조작창의 아이콘에 대한 조작이라고 판정했다면(스텝 H1; 심도선택용 조작창의 아이콘 조작), 강조화상 생성부(123)는, 아이콘의 이동목적지(移動先)의 심도(아이콘에 의해 선택된 심도)를 판정한다(스텝 H3). 그리고, 강조화상 생성부(123)는, 깊이 맵을 참조하여, 판정한 심도에 대응하는 화소를 특정한다(스텝 H5). 그리고, 강조화상 생성부(123)는, 특정한 화소에 근거하여 강조화상을 생성한다(스텝 H7). 구체적으로는, 셰이딩 필터를 이용하여, 제1의 셰이딩 정도로 전 초점화상의 전체를 셰이딩하는 처리를 행한다. 그리고, 셰이딩 처리의 결과로서 얻어지는 셰이딩 화상에, 스텝 H5에서 특정한 화소의 화소값을 합성함으로써, 강조화상을 생성한다. On the other hand, if the user operation is determined to be an operation on the icon of the depth selection operation window (step H1; icon operation of the depth selection operation window), the enhanced image generation unit 123 sets the depth of the moving destination Depth selected by the icon) (step H3). Then, the emphasized-image generating unit 123 refers to the depth map to specify a pixel corresponding to the determined depth (step H5). Then, the enhanced image generation unit 123 generates an enhanced image based on the specific pixel (step H7). More specifically, a process of shading the entire foreground image with the degree of the first shading is performed using a shading filter. Then, in step H5, the pixel value of a specific pixel is synthesized with the shading image obtained as a result of the shading processing to generate an enhanced image.

9-6. 다시 셰이딩 처리9-6. Handling shading again

상기의 실시형태에서 설명한 강조화상 생성처리에 있어서, 유저 조작이 검지된 경우에, 유저에 의해 지정된 화상 상의 영역이 셰이딩 처리가 행해진 영역인지 아닌지를 판정하고, 그 판정결과가 긍정 판정인 경우에, 상기 영역의 셰이딩 정도를 소정의 셰이딩 정도와는 다른 셰이딩 정도로 하여 강조화상에 대해서 다시 셰이딩 처리를 행하도록 해도 좋다. In the emphasized image generation processing described in the above embodiment, it is determined whether or not the area on the image designated by the user is a shaded area in the case where the user operation is detected. If the determination result is affirmative, The degree of shading of the area may be set to a degree of shading different from that of the predetermined degree of shading, and the enhanced image may be shaded again.

구체적으로는, 강조화상 생성처리에 있어서 셰이딩 처리가 된 부분 중, 소정의 부분을 유저가 터치패널(21)을 통하여 탭 하면, 처리부(10)는, 그 부분이 이미 셰이딩 처리가 행해진 부분(이하, 「셰이딩 완료부분」이라 칭함)인지 아닌지를 판정한다. 그리고, 셰이딩 완료부분이라고 판정했다면, 처리부(10)는, 그 셰이딩이 완료된 부분의 셰이딩 정도를 강하게 하거나, 아니면 약하게 하거나를 유저에게 확인하는 확인알림을 행한다. 셰이딩 정도를 약하게 하는 것이 유저에 의해 선택된 경우는, 처리부(10)는, 셰이딩이 완료된 부분에 대해서, 셰이딩 정도를 규정의 셰이딩 정도보다 작게 하여, 셰이딩 처리를 행한다. 한편, 셰이딩 정도를 강하게 하는 것이 유저에 의해 선택된 경우는, 처리부(10)는, 셰이딩이 완료된 부분에 대해서, 셰이딩 정도를 규정의 셰이딩 정도보다 크게 하여, 셰이딩 처리를 행한다. 그리고, 셰이딩 처리를 행한 결과의 강조화상을 표시부(20)에 표시시키도록 제어한다. Specifically, when the user taps a predetermined portion of the shaded portion in the emphasized image generation processing through the touch panel 21, the processing portion 10 determines whether the portion is already shaded , &Quot; shading completion portion &quot;). If it is determined that the shading is completed, the processing unit 10 makes a confirmation notification to confirm the user whether the degree of shading of the shaded portion is strong or weak. When it is selected by the user to weaken the degree of shading, the processing unit 10 performs the shading processing with respect to the portion where the shading is completed by making the degree of shading smaller than the specified degree of shading. On the other hand, when it is selected by the user to intensify the degree of shading, the processing section 10 performs the shading processing with respect to the portion where the shading is completed by making the degree of shading larger than the degree of the specified shading. Then, control is performed so that the emphasized image resulting from the shading processing is displayed on the display unit 20. [

9-7. 유저 조작9-7. User manipulation

상기의 실시형태에서는, 유저가 강조화상의 생성이나 강조화상의 수정을 행할 때의 조작을, 터치패널(21)에 대한 탭 조작이나 드래그 조작으로서 설명했지만, 반드시 터치패널(21)에 대한 유저 조작에 따라서 강조화상의 생성이나 강조화상의 수정을 행하지 않으면 안 되는 것은 아니다. In the above-described embodiment, the operation when the user creates the enhanced image or the modification of the enhanced image is described as the tap operation or the drag operation with respect to the touch panel 21, but the user operation to the touch panel 21 It is not necessary that the generation of the emphasized image and the correction of the emphasized image are performed in accordance with the above.

예컨대, 화상처리장치가 조작버튼(십자키를 포함함)을 구비하는 경우에는, 이 조작버튼의 조작에 따라서, 강조화상의 생성이나 강조화상의 수정을 행하는 것으로 해도 좋다. 이 경우는, 예컨대, 표시부(30)에 전 초점화상이 표시되고 있는 상태에서 화상 상의 위치를 지정시키기 위한 지정용 아이콘(예컨대 화살표의 아이콘)을 표시시키고, 유저가 조작버튼을 이용하여 이 지정용 아이콘을 움직여서, 표시용 화상 중의 강조하고 싶은 부분을 지정하도록 해도 좋다. 또한, 표시부(30)에 강조화상이 표시되고 있는 상태에서 화상 상의 위치를 지정시키기 위한 상기의 지정용 아이콘을 표시시키고, 유저가 조작버튼을 이용하여 이 지정용 아이콘을 움직여서, 강조화상 중의 수정하고 싶은 부분을 지정하도록 해도 좋다. For example, when the image processing apparatus includes an operation button (including a cross key), an emphasized image may be generated or an emphasized image may be corrected in accordance with the operation of the operation button. In this case, for example, a designation icon (e.g., an icon of an arrow) for designating the position on the image in a state in which the front-focus image is displayed on the display unit 30 is displayed, The icon may be moved to designate the portion to be emphasized in the display image. In addition, in the state in which the emphasized image is displayed on the display unit 30, the designation icon for designating the position on the image is displayed, and the user moves the designation icon by using the operation button, You may specify the part you want.

9-8. 강조화상의 생성9-8. Creation of a highlight image

상기의 실시형태에서는, 전 초점화상에 근거하여 강조화상을 생성하는 것으로 하여 설명했다. 구체적으로는, 전 초점화상에 대해서 셰이딩 처리를 실시한 화상에, 강조하고 싶은 부분의 심도의 입력화상의 화소값을 합성함으로써 강조화상을 생성했다. 그러나, 전 초점화상을 생성하지 않고, 입력화상만을 이용하여 강조화상을 생성하는 것도 가능하다. In the above-described embodiment, the emphasis image is generated based on the fore-focus image. Specifically, an enhanced image is generated by combining pixel values of an input image having a depth of a portion to be emphasized with an image obtained by performing shading processing on a foreground image. However, it is also possible to generate an enhanced image using only the input image, without generating a foreground image.

구체적으로는, 예컨대, 유저에 의해 조작입력이 이루어진 경우에, 깊이 맵에 근거하여, 그 조작입력에 의한 강조해야 할 심도에 있는 입력화상 중의 대상화소의 화소값에, 그 심도 이외의 입력화상에 있어서의 대상화소 이외의 화소에 대해서 셰이딩 처리를 행한 것을 합성하여, 강조화상을 생성하도록 해도 좋다. 또한, 유저 조작에 의해 지정된 지정영역 중에서 선택한 화소의 대응하는 심도의 입력화상의 화소값에, 그 외의 심도의 입력화상의 화소값을 합성하여, 강조화상을 생성함으로써 해도 좋다. 즉, 유저의 조작입력에 의한 강조해야 할 심도에 있는 입력화상 중의 대상화소의 화소값을, 그 심도 이외의 심도에 상당하는 입력화상에 합성하여, 강조화상을 생성함으로써 해도 좋다. More specifically, for example, when an operation input is made by the user, the pixel value of the target pixel in the input image at the depth to be emphasized by the operation input is added to the input image other than that depth The shading processing may be performed on pixels other than the target pixel in the original image to generate an enhanced image. It is also possible to combine the pixel values of the input image of other depths with the pixel value of the input image of the corresponding depth of the selected pixel in the designated area designated by the user operation to generate the enhanced image. That is, the pixel value of the target pixel in the input image at a depth to be emphasized by the operation input of the user may be combined with the input image corresponding to the depth other than the depth to generate the enhanced image.

9-9. 강조화상 생성 타이밍9-9. Emphasis image generation timing

유저가 탭 조작이나 드래그 조작을 행한 경우에 강조화상을 생성하는 것이 아니라, 다른 어떠한 액션을 트리거로 하여, 강조화상을 생성하도록 해도 좋다. 구체적으로는, 예컨대, 표시부(30)에 강조화상 생성의 지시를 행하게 하기 위한 버튼을 표시시키고, 터치패널(21)을 통하여 이 버튼이 눌러진 것을 검지한 경우에, 강조화상을 생성하도록 해도 좋다. 또한, 조작버튼을 구비하는 화상처리장치라면, 이 조작버튼의 누름을 검지하여, 강조화상을 생성하도록 해도 좋다. Instead of generating the emphasized image when the user performs the tab operation or the drag operation, the emphasized image may be generated by triggering any other action. Specifically, for example, a button for instructing generation of an emphasized image is displayed on the display section 30, and an emphasized image may be generated when the push button is pressed through the touch panel 21 . Further, in the case of an image processing apparatus having an operation button, it is also possible to detect the depression of the operation button and generate an enhanced image.

또한, 화상처리장치에 진동을 검지하기 위한 센서(예컨대 가속도센서나 자이로센서 등의 관성센서)를 내장하고, 유저에 의해 화상처리장치를 흔드는 조작이 이루어진 것을 검지한 경우에, 강조화상을 생성하는 것으로 해도 좋다. Further, when a sensor (for example, an inertial sensor such as an acceleration sensor or a gyro sensor) for detecting vibration is incorporated in the image processing apparatus and an operation of shaking the image processing apparatus by the user is detected, .

또한, 화상처리장치에 집음부(集音部)로서 마이크를 마련하고, 이 마이크에 대해서 소정의 음성이 입력된 것을 검지한 경우에, 강조화상을 생성하도록 해도 좋다. 이 경우는, 강조화상 생성의 트리거로 하는 수 종류의 음성을 디지털화한 음성데이터를 화상처리장치에 기억하게 하고, 마이크로부터 입력된 음성과 기억하고 있는 음성데이터를 대조하는 음성인식 처리를 행하여, 강조화상의 생성이 유저에 의해 지시되었는지 아닌지를 판정하는 등 하면 좋다. 이들 경우는, 예컨대, 강조 표시하는 심도를, 입력화상의 심도가 얕은 쪽으로부터 깊은 쪽으로, 혹은, 입력화상의 심도의 깊은 쪽으로부터 얕은 쪽으로 차례로 변화시켜서, 순차적으로 강조화상을 생성하고, 생성한 강조화상을 차례로 표시시키는 등 할 수 있다. Further, a microphone may be provided in the image processing apparatus as a sound collecting section, and an emphasized image may be generated when a predetermined voice is input to the microphone. In this case, the image processing device stores the audio data obtained by digitizing several kinds of voices triggered by the generation of the enhanced image, and executes a speech recognition process of collating the audio inputted from the microcomputer with the stored audio data, It may be determined whether or not the generation of the image is instructed by the user. In these cases, for example, depths to be emphasized are sequentially changed from shallow depths of an input image to a shallow depth or from a deep depth of an input image to a shallow depth, sequentially generating an emphasized image, Images can be sequentially displayed, and the like.

9-10. 핀치조작9-10. Pinch manipulation

유저가 터치패널(21)에 대한 핀치조작을 행한 경우에, 그 핀치조작에 따라서 표시화상의 확대·축소나 회전을 행하는 것으로 해도 좋다. 구체적으로는, 유저가 2개의 손가락으로 터치패널(21)을 탭 하고, 그 탭 한 2점 사이의 거리를 크게 하는/작게 하는 조작이 이루어진 것을 검지한 경우에, 예컨대 그 탭 된 2점 사이의 중심좌표에 대응하는 깊이 맵 상의 화소를 특정하고, 그 특정한 화소를 기준으로 하여 표시화상의 전체를 확대/축소함으로써 해도 좋다. 또한, 유저에 의해 2점 사이를 연결하는 직선의 각도를 변화시키도록 손가락을 돌리는 조작이 이루어진 것을 검지한 경우에, 예컨대 그 탭 된 2점 사이의 중심좌표에 대응하는 깊이 맵 상의 화소를 특정하고, 그 특정한 화소를 기준으로 하여 표시화상의 전체를 회전시키는 것으로 해도 좋다. When the user performs a pinch operation on the touch panel 21, the display image may be enlarged or reduced or rotated in accordance with the operation of the pinch. Specifically, when it is detected that the user has touched the touch panel 21 with two fingers and an operation of increasing / decreasing the distance between the two points of the taps is detected, for example, A pixel on the depth map corresponding to the center coordinate may be specified and the entire display image may be enlarged / reduced based on the specified pixel. Further, when it is detected by the user that an operation of turning a finger to change the angle of a straight line connecting two points is performed, a pixel on the depth map corresponding to the center coordinate between the tapped two points is specified , The whole of the display image may be rotated on the basis of the specific pixel.

9-11. 심도의 재추정9-11. Re-estimation of depth

상기의 실시형태에서는, 도 9의 강조화상 수정처리에 있어서, 드래그방향과 엣지방향과의 코사인 유사도에 근거하여 패널티값을 변경하고, 지정영역 내의 화소에 대해서 스코어값 연산처리를 실행하여, 심도를 재추정했다. 즉, 지정영역 내의 화소에 대해서 제2종 파라미터값을 변경하여 스코어값 연산처리를 실행했다. 그러나, 이에 비하여, 지정영역 내의 화소에 대해 코스트값을 변경하여, 스코어값 연산처리를 실행해도 좋다. 즉, 지정영역 내의 화소에 대해서 제1종 파라미터값을 변경하여 스코어값 연산처리를 실행하는 것으로 해도 좋다. 9, the penalty value is changed based on the degree of cosine similarity between the drag direction and the edge direction, the score value calculation process is performed on the pixels in the designated area, and the depth Re-estimated. That is, the second-type parameter value is changed for the pixels in the designated area, and the score value calculation process is executed. On the other hand, however, the cost value calculation processing may be performed by changing the cost value for the pixels within the designated area. That is, the first-type parameter value may be changed for the pixels in the designated area to execute the score value calculation process.

강조화상 수정처리에서는, 유저에 의해 지정된 지정영역에 있어서 엣지를 강조한 수정화상을 생성할 필요가 있다. 엣지를 강조하기 위해서는, 지정영역 내의 대표화소의 심도에 가까운 깊이의 입력화상으로부터 엣지에 상당하는 화소가 선택되도록 할 필요가 있다. 코스트값은 엣지강도의 역수(逆數)로서 산출되기 때문에, 엣지강도가 강할수록 코스트값은 작아진다. 즉, 엣지강도가 강한 화상일수록, 코스트값은 작아진다. 따라서, 가까운 깊이의 입력화상으로부터 엣지에 상당하는 화소를 선택하기 위해서는, 지정영역 내의 대표화소의 심도에 가까운 깊이의 입력화상에 대한 코스트값을 작게 하면 좋다. 코스트값은 입력화상마다 독립적으로 변경할 수 있다. 이로 인하여, 한 입력화상만 코스트값을 작게 함으로써 상기 입력화상이 선택되기 쉬워지도록 하거나, 반대로, 한 입력화상만 코스트값을 크게 함으로써 상기 입력화상이 선택되기 어렵게 하는 것이 가능해진다. In the enhanced image modification processing, it is necessary to generate a modified image in which the edge is emphasized in the designated area designated by the user. In order to emphasize an edge, it is necessary to select a pixel corresponding to an edge from an input image having a depth close to the depth of a representative pixel in the designated area. Since the cost value is calculated as the inverse number of the edge strength, the cost value becomes smaller as the edge strength becomes stronger. That is, an image with a strong edge strength has a smaller cost value. Therefore, in order to select a pixel corresponding to an edge from an input image having a near depth, it is preferable to reduce a cost value for an input image having a depth close to the depth of a representative pixel in the designated area. The cost value can be independently changed for each input image. As a result, it is possible to make the input image easier to select by reducing the cost value of only one input image, or conversely, it is possible to make it difficult to select the input image by increasing the cost value of only one input image.

또한, 코스트값과 패널티값의 어느 일방만을 변경하여 심도의 재추정을 행하는 것으로 해도 좋지만, 코스트값과 패널티값의 양쪽 모두를 변경하여 심도의 재추정을 행하는 것도 당연히 가능하다. 즉, 제1종 파라미터값 및 제2종 파라미터값의 적어도 일방을 변경하여 스코어값 연산처리를 행하여, 심도의 재추정을 행하는 것이 가능하다. It is also possible to re-estimate the depth by changing only one of the cost value and the penalty value. However, it is also possible to re-estimate the depth by changing both the cost value and the penalty value. That is, it is possible to re-estimate the depth by changing the at least one of the first-type parameter value and the second-type parameter value and performing the score value calculation process.

9-12. 패널티값9-12. Penalty value

패널티값으로서 설정 가능한 값은, 제1의 패널티값과 제2의 패널티값의 2개로 한정되는 것은 아니다. 예컨대, 도 16의 패널티값 테이블(89)에 나타내는 바와 같이, 제1의 패널티값(893) 및 제2의 패널티값(895)에 더하여, 제3의 패널티값(897)을 설정하는 것으로 해도 좋다. 구체적으로는, 대상화소와 근방화소에서, 포커싱되어 있다고 하는 입력화상을 화상번호(833b)에서 「3 이상」 변화시키는 경우의 패널티값으로서, 제3의 패널티값(897)을 정해 두는 것으로 해도 좋다. 도 16의 패널티값 테이블(895)에서는, 종별(891)의 「통상시」에, 제3의 패널티값(897)으로서 「P3」이 정해져 있다. 단, 「P1 < P2 < P3」이다. The value that can be set as the penalty value is not limited to two, the first penalty value and the second penalty value. For example, the third penalty value 897 may be set in addition to the first penalty value 893 and the second penalty value 895 as shown in the penalty value table 89 in Fig. 16 . More specifically, the third penalty value 897 may be set as the penalty value when the input image that is focused on the target pixel and the neighboring pixels is changed to "3 or more" in the image number 833b . The penalty value table 895 of Fig. 16, the "normal time" of the type 891, the can is "P 3" defined as a penalty value (897) of the three. &Quot; P 1 &lt; P 2 &lt; P 3 & quot ;.

또한, 종별(891)의 「강조화상 수정시」에는, 유저에 의한 드래그방향과 엣지방향이 소정의 근사조건을 만족하는 경우와, 유저에 의한 드래그방향과 엣지방향이 소정의 괴리조건을 만족하는 경우에서, 다른 패널티값이 정해져 있다. 구체적으로는, 전자에 대해서는, 제3의 패널티값(897)으로서 「P3-β」가 정해져 있다. 또한, 후자에 대해서는, 제3의 패널티값(897)으로서 「P3+β」가 정해져 있다. 다만, 「β」의 값은 적절하게 설정 가능하고, 예컨대 「β = 1」이다. In addition, in the case of &quot; correcting the emphasized image &quot; of the category 891, there is a case where the drag direction and the edge direction by the user satisfy a predetermined approximation condition and the case where the drag direction by the user and the edge direction satisfy a predetermined divergence condition In the case, another penalty value is fixed. Specifically, for the former, "P 3 -β" is defined as the third penalty value 897. In the latter case, "P 3 + β" is determined as the third penalty value 897. However, the value of &quot;?&Quot; can be appropriately set, for example, &quot;? = 1 &quot;.

또한, 유저의 드래그방향과 화상 중의 엣지방향과의 상대관계에 대응하여 패널티값을 변경하도록 해도 좋다. 구체적으로는, 예컨대, 드래그방향과 엣지방향과의 유사도에 대응하여 개별적으로 패널티값을 정해 두고(이하, 「방향 유사도별 패널티값」이라 함), 이 방향 유사도별 패널티값을 이용하여 적절해 연산처리를 행하도록 해도 좋다. 드래그방향과 엣지방향과의 유사도를 나타내는 지표값으로서는, 상기의 실시형태와 동일하게, 코사인 유사도나 코사인 거리를 적용할 수 있다. Further, the penalty value may be changed corresponding to the relative relationship between the drag direction of the user and the edge direction in the image. More specifically, for example, a penalty value is individually determined corresponding to the degree of similarity between the drag direction and the edge direction (hereinafter, referred to as &quot; penalty value by direction similarity degree &quot;), Processing may be performed. As an index value indicating the degree of similarity between the drag direction and the edge direction, similar to the above-described embodiment, a cosine similarity degree or a cosine distance can be applied.

구체적으로는, 상기의 실시형태에서 정의한 패널티값 P(p) 대신에, 방향 유사도별 패널티값 Pdir(p)를 정해 둔다. 예컨대, 코사인 유사도가 「1」(드래그방향과 엣지방향이 평행)인 경우의 방향 유사도별 패널티값으로서, 통상시의 패널티값과 동일한 값을 정해 둔다. 또한, 코사인 유사도가 작아짐에 따라서(드래그방향과 엣지방향이 괴리됨에 따라서), 통상시의 패널티값으로부터 값이 서서히 커지도록 패널티값을 정하고, 코사인 유사도가 「0」(드래그방향과 엣지방향이 직교)인 경우의 패널티값으로서 소정의 최대값을 정해 둔다. 그리고, 유저의 드래그방향과 엣지방향과의 코사인 유사도를 산출하고, 산출한 코사인 유사도에 대해서 정해진 방향 유사도별 패널티값을 이용하여 적절해 연산처리를 행한다. Specifically, instead of the penalty value P (p) defined in the above embodiment, a penalty value P dir (p) by direction similarity degree is set. For example, a value that is the same as the penalty value at the normal time is set as the penalty value by direction similarity degree when the cosine similarity degree is "1" (parallel between the drag direction and the edge direction). In addition, the penalty value is determined so that the value gradually increases from the penalty value at the normal time as the cosine similarity becomes smaller (as the drag direction and the edge direction become distant from each other), and the cosine similarity is set to "0" (the drag direction and the edge direction are orthogonal ), A predetermined maximum value is set as the penalty value. Then, the cosine similarity degree between the drag direction and the edge direction of the user is calculated, and the arithmetic processing is appropriately performed using the penalty value by the determined direction similarity degree with respect to the calculated cosine similarity degree.

이 방향 유사도별 패널티값은, 상기의 실시형태에서 설명한 심도의 재추정을 행할 때에 유용하다. 상술한 바와 같이, 본원발명은, 드래그방향과 엣지방향이 근사하고 있을수록 패널티값을 작게 하고, 반대로, 드래그방향과 엣지방향이 괴리되어 있을수록 패널티값을 크게 하는 것이 특징이다. 유저가 표시화상 중에 표시의 결함, 즉 심도의 연산 미스가 발생하고 있는 것을 발견한 경우는, 연산 미스가 발생하고 있는 개소를 드래그 조작으로 특정하여, 강조화상의 수정 요구를 행한다. The penalty value for each direction similarity degree is useful when re-estimating the depth described in the above embodiments. As described above, in the present invention, the closer the drag direction and the edge direction are, the smaller the penalty value. On the contrary, the penalty value increases as the drag direction and the edge direction become different from each other. When the user finds that a display defect, that is, a calculation error of depth, is occurring in the display image, a point where a calculation error occurs is specified by a drag operation, and a correction request for the emphasized image is made.

유저가 바르게 표시되어 있는 물체의 엣지방향을 따라가도록 드래그한 경우, 드래그방향과 엣지방향과의 코사인 유사도는 「1」에 가까운 값이 된다. 이 경우는, 코사인 유사도를 「1」로 하는 방향 유사도별 패널티값을 이용하여 적절해 연산처리를 행하는데, 이 경우의 패널티값은 통상시의 패널티값과 동일한 값이기 때문에, 바르게 표시되고 있는 물체에 대해서는, 통상시에 생성된 깊이 맵을 보존할 수 있다. When the user drags the object so that it follows the edge direction of the object correctly displayed, the cosine similarity degree between the drag direction and the edge direction becomes a value close to &quot; 1 &quot;. In this case, the arithmetic processing is appropriately performed using the penalty value for each direction similarity degree in which the cosine similarity is set to &quot; 1 &quot;. Since the penalty value in this case is the same value as the normal penalty value, The depth map generated at the normal time can be saved.

한편, 유저가 연산 미스가 생기고 있는 부분을 따라가도록 드래그한 경우, 연산 미스가 생기고 있는 부분의 엣지방향과 바르게 표시되고 있는 부분의 엣지방향이 동일하지 않은 한, 드래그방향과 엣지방향의 사이에 방향차가 생기고, 코사인 유사도는 「1」보다 작아진다. 예컨대, 드래그방향과 엣지방향이 직교하는 경우는, 코사인 유사도는 「0」이 된다. 이 경우는, 코사인 유사도가 「0」인 경우의 방향 유사도별 패널티값을 이용하여 적절해 연산처리를 행하는데, 이 경우의 패널티값으로서는 최대값이 정해져 있기 때문에, 패널티가 가장 강해진다. 그 결과, 연산 미스가 생기고 있는 부분에 대해서 심도를 보다 정확하게 나타낸 깊이 맵이 재생성된다. 이와 같이 하여 재생성된 깊이 맵을 이용하여 강조화상을 수정함으로써, 연산 미스가 생기고 있는 부분을 적절히 수정할 수 있다. On the other hand, in the case where the user has dragged to follow a portion where a calculation error has occurred, as long as the edge direction of the portion where the calculation error occurs is not the same as the edge direction of the portion correctly displayed, A difference is generated, and the cosine similarity degree becomes smaller than "1". For example, when the drag direction and the edge direction are orthogonal, the cosine similarity becomes &quot; 0 &quot;. In this case, the arithmetic processing is appropriately performed using the penalty value by direction similarity degree when the cosine similarity degree is &quot; 0 &quot;. Since the maximum value is set as the penalty value in this case, the penalty becomes strongest. As a result, the depth map showing the depth more accurately with respect to the portion where the calculation error occurs is regenerated. By modifying the emphasized image using the depth map thus reproduced, it is possible to appropriately correct the portion where the calculation error occurs.

또한, 하나의 입력화상으로부터 다른 입력화상으로의 패널티값을 개별적으로 정하는 것으로 해도 좋다. 구체적으로는, 상기의 실시형태에서 정의한 패널티값 P(p) 대신에, 화상간 패널티값 Pij(p)를 설정하는 것으로 해도 좋다. 단, 「i」 및 「j」는 화상의 번호이다. Further, the penalty value from one input image to another input image may be determined individually. Specifically, instead of the penalty value P (p) defined in the above embodiment, the inter-image penalty value P ij (p) may be set. Note that &quot; i &quot; and &quot; j &quot;

예컨대, 입력화상의 초점거리가 「f1 ~ f4」의 4개이며, 그 대소관계가 「f1<f2<<<<<f3<f4」이라고 한다. 이 경우, 「f1」와 「f2」는 그렇게 크게 괴리되어 있지 않기 때문에, 「f1」의 입력화상과 「f2」의 입력화상의 사이의 화상간 패널티값 P12(p)를 크게 하여, 「f1」의 입력화상과 「f2」의 입력화상이 포커싱되어 있는 입력화상으로서 상호 선택되기 쉬워지도록 한다. 동일하게 「f3」와 「f4」는 그렇게 크게 괴리되어 있지 않기 때문에, 「f3」의 입력화상과 「f4」의 입력화상의 사이의 화상간 패널티값 P34(p)를 크게 하여, 「f3」의 입력화상과 「f4」의 입력화상이 포커싱되어 있는 입력화상으로서 상호 선택되기 쉬워지도록 한다. For example, it is assumed that the focal length of the input image is "f1 to f4", and the magnitude relation is "f1 <f2 <<<<< f3 <f4". In this case, since "f1" and "f2" are not so different from each other, the inter-image penalty value P 12 (p) between the input image of "f1" and the input image of "f2"Quot; f2 &quot; and the input image of &quot; f2 &quot; are focussed. The inter-image penalty value P 34 (p) between the input image of "f3" and the input image of "f4" is made larger so that "f3" And the input image of &quot; f4 &quot; are focussed.

한편, 「f2」와 「f3」는 크게 괴리되어 있기 때문에, 「f2」의 입력화상과 「f3」의 입력화상의 사이의 화상간 패널티값 P23(p)를 작게 하여, 「f2」의 입력화상과 「f3」의 입력화상이 포커싱되어 있는 입력화상으로서 상호 선택되기 어려워지도록 한다. 이로써, 「f1」의 입력화상으로부터 「f2」의 입력화상이나, 「f3」의 입력화상으로부터 「f4」의 입력화상에 대해서는, 패널티를 높게 하여, 초점거리가 가까운 화상으로서 선택되기 쉽게 할 수 있고, 「f2」의 입력화상으로부터 「f3」의 입력화상에 대해서는, 패널티를 낮게 하여, 초점거리가 먼 화상으로서 선택되기 어려워지도록 할 수 있다. Since the inter-image penalty value P 23 (p) between the input image of "f2" and the input image of "f3" is made small, the input of "f2"Quot; f3 &quot; becomes difficult to be mutually selected as an input image in which the image and the input image of &quot; f3 &quot; are focused. This makes it possible to increase the penalty for the input image of "f2" from the input image of "f1" or the input image of "f4" of the input image of "f3"Quot; f3 &quot; from the input image of &quot; f2 &quot;, it is possible to lower the penalty and make it difficult for the input image to be selected as an image far away from the focal length.

9-13. 피사체 흔들림 대책9-13. Anti-shake measures

입력화상 중의 피사체 흔들림의 영역(이하, 「피사체 흔들림 영역」이라 함)을 검출하고, 상기 피사체 흔들림 영역에서는 추정되는 심도(포커싱되어 있는 것으로서 선택되는 입력화상)가 변경되기 어려워지도록, 코스트값 및 패널티값의 적어도 일방을 변경하도록 해도 좋다. 피사체 흔들림이란, 촬상시에 피사체가 움직이고, 그 움직임의 속도가 카메라의 셔터 스피드보다 빠른 것이어서, 화상 중의 피사체가 흔들려 버리는 것을 말한다. 피사체 흔들림 영역의 검출은, 종래 공지의 수법을 이용하여 실현할 수 있다. (Hereinafter, referred to as &quot; subject shake area &quot;) in the input image and to make it difficult for the estimated depth (the input image selected as being focused) to change in the subject shake area, Or at least one of the values may be changed. A subject shake is a phenomenon in which a subject moves during shooting and a moving speed thereof is faster than a shutter speed of the camera, thereby causing a subject in the image to shake. Detection of a subject shake area can be realized by a conventionally known technique.

피사체 흔들림 영역이 검출되었다면, 상기 피사체 흔들림 영역에 있어서의 패널티값 P(p)를 통상시의 패널티값보다도 큰 값으로 변경하여 스코어값 연산처리를 행하거나, 또는, 코스트값 C(p, Rp)를, 엣지강도를 이용하여 산출되는 코스트값보다도 작은 값으로 변경하여 스코어값 연산처리를 행한다. 이로써, 피사체 흔들림 영역에 대해서 적절히 심도가 추정된 깊이 맵을 생성할 수 있다. If the subject shake area is detected, the score value calculation process is performed by changing the penalty value P (p) in the subject shake area to a value larger than the normal penalty value, or the score value C (p, Rp ) To a value smaller than the cost value calculated by using the edge strength, and performs the score value calculation processing. This makes it possible to generate a depth map with an appropriate depth for the subject shake area.

9-14. 기록매체9-14. Recording medium

상기의 실시예에서는, 화상처리에 대한 각종의 프로그램이나 데이터가, 화상처리장치의 기억부(80)에 기억되어 있고, 처리부(10)가 이들 프로그램을 읽어내서 실행함으로써, 상기의 각 실시예에 있어서의 화상처리를 실현하는 것으로 하여 설명했다. 이 경우, 기억부(80)는, ROM나 플래시ROM, 하드디스크, RAM 등의 내부 기억장치 외에, 메모리카드나 컴팩트플래시(CF) 카드, 메모리스틱, USB메모리, CD-RW(광학 디스크), MO(광학 자기 디스크) 등의 기록매체(기록미디어, 외부 기억장치)를 가지고 있어도 좋고, 이들 기록매체에 상기의 각종 프로그램이나 데이터를 기억시키는 것으로 해도 좋다. In the above embodiment, various programs and data for image processing are stored in the storage unit 80 of the image processing apparatus, and the processing unit 10 reads and executes these programs, The image processing in the first embodiment is realized. In this case, the storage unit 80 may be a memory card, a compact flash (CF) card, a memory stick, a USB memory, a CD-RW (optical disk), a hard disk, (Recording medium, external storage device) such as an MO (magneto-optical disk), or the like, and the various programs and data described above may be stored in these recording media.

도 30은, 이 경우에 있어서의 기록매체의 일례를 나타내는 도이다. 30 is a diagram showing an example of a recording medium in this case.

화상처리장치에는, 메모리카드(7)를 삽입하기 위한 카드슬롯(710)이 마련되어 있고, 카드슬롯(710)에 삽입된 메모리카드(7)에 기억된 정보를 읽어내는 또는 메모리카드(7)에 정보를 기입하기 위한 카드리더 라이터(R/W)(720)가 마련되어 있다. 카드리더 라이터(720)는, 처리부(10)의 제어에 따라서, 기억부(80)에 기록된 프로그램이나 데이터를 메모리카드(7)에 기입하는 동작을 행한다. 메모리카드(7)에 기록된 프로그램이나 데이터는, 화상처리장치 이외의 정보처리장치(예컨대 퍼스널컴퓨터)에서 읽어냄으로써, 상기 정보처리장치에 있어서, 상기의 실시예에 있어서의 화상처리를 실현하는 것이 가능하다. The image processing apparatus is provided with a card slot 710 for inserting the memory card 7 and reads the information stored in the memory card 7 inserted in the card slot 710 or reads the information stored in the memory card 7 And a card reader / writer (R / W) 720 for writing information. The card reader writer 720 performs an operation of writing the program and data recorded in the storage unit 80 to the memory card 7 under the control of the processing unit 10. [ By reading the program or data recorded in the memory card 7 from an information processing apparatus (for example, a personal computer) other than the image processing apparatus, it is possible to realize the image processing in the above- It is possible.

1: 스마트폰
7: 메모리카드
10: 처리부
20: 입력부
21: 터치패널
30: 표시부
40: 통신부
50: 촬상부
55: 휴대전화용 안테나
60: 휴대전화용 무선통신회로부
70: 시계부
75: 관성센서
80: 기억부
1: Smartphone
7: Memory card
10:
20:
21: Touch panel
30:
40:
50:
55: Antenna for mobile phone
60: Wireless communication circuit for mobile phone
70: Watch section
75: inertia sensor
80:

Claims (18)

복수의 입력화상으로부터 소정의 특징을 검출하는 특징검출수단과,
상기 특징검출수단의 검출결과에 근거하여 깊이 맵(depth map)을 생성하는 깊이 맵 생성수단
을 구비한 화상처리장치.
Feature detecting means for detecting a predetermined feature from a plurality of input images;
And a depth map generating means for generating a depth map based on the detection result of the feature detecting means
And the image processing apparatus.
청구항 1에 있어서,
상기 특징검출수단은, 상기 복수의 입력화상으로부터 소정의 특징량을 검출하는 특징량 검출수단을 가지고,
상기 특징량 검출수단에 의해 검출된 특징량을 이용하여, 대상화소에 대해서, 상기 복수의 입력화상 중 어느 쪽의 입력화상에서 포커싱되어 있는지를 나타내는 정보인 심도를 추정하는 심도추정수단을 더 구비하고,
상기 깊이 맵 생성수단은, 상기 심도추정수단의 추정결과에 근거하여 상기 깊이 맵을 생성하는, 화상처리장치.
The method according to claim 1,
Characterized in that the feature detecting means includes a feature amount detecting means for detecting a predetermined feature amount from the plurality of input images,
And depth estimation means for estimating a depth, which is information indicating which of the plurality of input images is focused on the target pixel, using the feature amount detected by the feature amount detection means ,
Wherein the depth map generating means generates the depth map based on the estimation result of the depth estimation means.
청구항 2에 있어서,
상기 심도추정수단은, 상기 특징량 검출수단에 의해 검출된 상기 복수의 입력화상 각각의 특징량을 이용하여, 상기 대상화소에 대해서, 상기 대상화소의 특징량에 대응하여 정해지는 제1종 파라미터값과, 상기 대상화소에 대해서 포커싱되어 있다고 하는 제1의 입력화상과 상기 대상화소의 근방화소에 대해서 포커싱되어 있다고 하는 제2의 입력화상이 다른 경우의 패널티로서 정해지는 제2종 파라미터값을 이용한 소정의 적절해(適切解) 연산처리를 행하여, 상기 대상화소에 대해서 포커싱되어 있는 입력화상을 판정하는, 화상처리장치.
The method of claim 2,
Wherein the depth estimation means calculates a depth parameter value for each of the plurality of input images detected by the feature amount detection means by using a feature amount of each of the plurality of input images, Using a second type parameter value determined as a penalty in the case where a first input image that is focused on the target pixel and a second input image that is focused on a neighboring pixel of the target pixel are different from each other, And determines an input image that has been focused on the target pixel.
청구항 2 또는 청구항 3에 있어서,
상기 특징량 검출수단은, 상기 복수의 입력화상 또는 상기 복수의 입력화상을 축소한 축소 입력화상으로부터 상기 특징량을 검출하고,
상기 깊이 맵 생성수단은, 상기 심도추정수단의 추정결과에 근거하여, 축소된 깊이 맵을 생성하고,
상기 축소된 깊이 맵을 소정의 복원방법을 이용하여 복원하는 복원수단과,
상기 복원수단에 의해 복원된 깊이 맵을, 소정의 수정용 화상을 이용하여 수정한 깊이 맵을 생성하는 수정수단을 더 구비한, 화상처리장치.
The method according to claim 2 or 3,
Wherein the feature amount detection means detects the feature amount from a plurality of input images or a reduced input image obtained by reducing the plurality of input images,
Wherein the depth map generation means generates a reduced depth map based on the estimation result of the depth estimation means,
Restoration means for restoring the reduced depth map using a predetermined restoration method,
And correction means for generating a depth map corrected by using the predetermined correction image with the depth map restored by the restoration means.
청구항 1에 있어서,
상기 특징검출수단은, 시차(視差)가 발생하는 복수의 시점(視点)에서 촬상된 촬영화상을 상기 복수의 입력화상으로 하여, 상기 입력화상으로부터 특징점을 검출하는 특징점 검출수단을 가지고,
상기 특징점 검출수단에 의해서 검출된 특징점에 근거하여, 상기 복수의 입력화상 각각의 시점의 상대적인 위치관계를 추정하는 시점 위치관계 추정수단과,
소정의 추정연산을 행하여, 상기 복수의 입력화상을 구성하는 화소의 3차원의 위치를 추정하는 화소위치 추정수단
을 더 구비하고,
상기 깊이 맵 생성수단은, 상기 시점 위치관계 추정수단의 추정결과와 상기 화소위치 추정수단의 추정결과에 근거하여, 상기 깊이 맵을 생성하는, 화상처리장치.
The method according to claim 1,
Characterized in that the feature detection means has a feature point detection means for detecting a feature point from the input image by using the captured images captured at a plurality of viewpoints (viewpoints) at which parallax occurs,
A viewpoint positional relationship estimation unit that estimates a relative positional relationship between viewpoints of the plurality of input images based on the feature points detected by the feature point detection unit;
A pixel position estimation means for estimating a three-dimensional position of a pixel constituting the plurality of input images by performing a predetermined estimation operation,
Further comprising:
Wherein the depth map generation means generates the depth map based on the estimation result of the viewpoint position relation estimation means and the estimation result of the pixel position estimation means.
청구항 5에 있어서,
표시수단과,
상기 복수의 촬영화상에 시차를 발생시키기 위한 자기장치(自裝置)의 이동방법을 상기 유저에게 가이드하기 위한 가이드표시를 상기 표시수단에 표시시키는 제어를 행하는 표시제어수단과,
자기장치의 이동 제량(諸量, amount)을 검출하는 이동 제량 검출수단
을 더 구비하고,
상기 표시제어수단은, 상기 이동 제량 검출수단의 검출결과에 근거하여, 상기 가이드표시의 표시를 변화시키는, 화상처리장치.
The method of claim 5,
Display means,
Display control means for performing control to display, on the display means, a guide display for guiding the user to a method of moving a magnetic device for generating parallax in the plurality of shot images;
A movement amount detecting means for detecting a movement amount (amount)
Further comprising:
Wherein the display control means changes the display of the guide display based on the detection result of the movement amount detecting means.
청구항 1 내지 청구항 6 중 어느 한 항에 있어서,
표시수단과,
유저 조작을 접수하는 입력수단과,
상기 입력수단에 대한 유저 조작에 대응하여, 상기 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을, 상기 특정 심도 이외의 심도에 상당하는 입력화상에 합성한 합성화상을 생성하는 합성화상 생성수단
을 더 구비하고,
상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치.
The method according to any one of claims 1 to 6,
Display means,
An input means for accepting a user operation,
A composite image obtained by synthesizing a pixel value of a pixel in an input image corresponding to a specific depth to an input image corresponding to a depth other than the specific depth is generated based on the depth map in correspondence with a user operation to the input means Synthesized image generating means
Further comprising:
Wherein the display means displays the composite image generated by the composite image generation means.
청구항 1에 있어서,
표시수단과,
유저 조작을 접수하는 입력수단과,
상기 깊이 맵과 상기 복수의 입력화상을 이용하여 전(全) 초점화상을 생성하는 전 초점화상 생성수단과,
상기 전 초점화상에 대해서 셰이딩 처리를 행하는 셰이딩 처리수단을 가지고, 상기 입력수단에 대한 유저 조작에 대응하여, 상기 깊이 맵에 근거하여, 특정 심도에 상당하는 입력화상 중의 화소의 화소값을 상기 셰이딩 처리의 결과의 화상에 합성한 합성화상을 생성하는 합성화상 생성수단
을 더 구비하고,
상기 표시수단은, 상기 합성화상 생성수단에 의해 생성된 합성화상을 표시하는, 화상처리장치.
The method according to claim 1,
Display means,
An input means for accepting a user operation,
Focus image generating means for generating a full focus image using the depth map and the plurality of input images;
And a shading processing means for performing a shading process on the foreground image so that a pixel value of a pixel in an input image corresponding to a specific depth based on the depth map corresponding to a user operation on the input means is subjected to the shading processing And a synthesized image generation means
Further comprising:
Wherein the display means displays the composite image generated by the composite image generation means.
청구항 8에 있어서,
상기 입력수단에 대한 유저 조작에 대응하여, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 상기 유저가 지정하기 위한 지정용 도형을 상기 표시수단에 표시시키는 표시제어수단을 더 구비하고,
상기 합성화상 생성수단은, 상기 깊이 맵에 근거하여, 상기 입력화상 중 상기 지정용 도형에 포함되는 화소의 심도를 상기 특정 심도로 하여, 상기 합성화상을 생성하는, 화상처리장치.
The method of claim 8,
Further comprising display control means for causing the display means to display a designation figure for designating the focusing target area, which is an area to be focused, corresponding to the user operation on the input means,
Wherein the synthesized image generating means generates the synthesized image with the depth of the pixel included in the designation figure among the input images set to the specific depth based on the depth map.
청구항 7 또는 청구항 8에 있어서,
상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널을 가지고,
상기 표시수단은, 촬상대상을 확인 가능한 확인화면을 표시하고,
상기 확인화면에 있어서의 상기 터치패널에 대한 탭 조작에 대응하여, 포커싱 대상으로 하는 확인화면 상의 위치인 포커싱 대상위치를 기억하는 기억수단과,
상기 기억수단에 포커싱 대상위치가 기억된 후, 소정의 촬상조건의 성립에 대응하여 촬상을 행하는 촬상수단
을 더 구비하고,
상기 특징검출수단은, 상기 촬상수단에 의해서 촬상된 복수의 촬영화상을 상기 복수의 입력화상으로 하여 상기 특징을 검출하고,
상기 합성화상 생성수단은, 상기 기억수단에 기억된 포커싱 대상위치에 대응하는 심도를 상기 특정 심도로 하여, 상기 합성화상을 생성하는, 화상처리장치.
The method according to claim 7 or 8,
Wherein the input means has a touch panel integrally formed with the display means,
Wherein the display means displays a confirmation screen enabling confirmation of an image pickup object,
Storage means for storing a focusing target position, which is a position on a confirmation screen to be focused, corresponding to a tap operation on the touch panel on the confirmation screen;
An image pickup means for picking up an image corresponding to a predetermined image pickup condition after the focusing target position is stored in the storage means,
Further comprising:
The feature detecting means detects the feature by using a plurality of captured images captured by the image capturing means as the plurality of input images,
Wherein the composite image generating means generates the composite image with the depth corresponding to the focusing target position stored in the storage means at the specific depth.
청구항 7 또는 청구항 8 항에 있어서,
상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널을 가지고,
상기 표시수단은, 소정의 표시용 화상을 표시하고,
상기 표시용 화상이 표시된 표시화면에 있어서의 상기 터치패널에 대한 핀치조작에 대응하여, 포커싱 대상으로 하는 영역인 포커싱 대상영역을 설정하는 포커싱 대상영역 설정수단과,
상기 포커싱 대상영역 설정수단에 의해서 설정된 포커싱 대상영역 이외의 영역에 대해서 소정의 셰이딩 정도로 셰이딩 처리를 행하는 셰이딩 처리수단
을 더 구비하고,
상기 셰이딩 처리수단은, 상기 포커싱 대상영역 설정수단에 의해서 설정된 포커싱 대상영역에 대한 핀치조작에 대응하여, 상기 셰이딩 정도를 변경하는 셰이딩 정도 변경수단을 가지는, 화상처리장치.
The method according to claim 7 or 8,
Wherein the input means has a touch panel integrally formed with the display means,
Wherein the display means displays a predetermined display image,
Focusing area setting means for setting a focusing subject area that is an area to be focused, corresponding to a pinch operation on the touch panel on the display screen on which the display image is displayed;
Shading processing means for performing shading processing on a region other than a focusing target region set by the focusing target region setting means to a predetermined degree of shading
Further comprising:
Wherein the shading processing means includes shading degree changing means for changing the shading degree in accordance with a pinch operation on the focusing target area set by the focusing target area setting means.
청구항 1 내지 청구항 6 중 어느 한 항에 있어서,
상기 복수의 입력화상은, 다른 초점거리에서 촬상된 복수의 촬영화상이며,
표시수단과,
유저 조작을 접수하는 입력수단과,
상기 표시수단의 소정위치에, 초점거리 범위를 유저가 지정하기 위한 초점거리 범위지정용 화상을 표시시키는 제어를 행하는 표시제어수단과,
상기 깊이 맵에 근거하여, 상기 초점거리 범위지정용 화상에 대한 유저 조작에 의해서 지정된 초점거리 범위에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성하는 합성화상 생성수단
을 더 구비하고,
상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치.
The method according to any one of claims 1 to 6,
Wherein the plurality of input images are a plurality of captured images captured at different focal lengths,
Display means,
An input means for accepting a user operation,
Display control means for performing control to display a focal length range designation image for designating a focal length range by a user at a predetermined position of the display means;
A synthesizing unit configured to focus a pixel of a depth corresponding to a focal length range specified by a user operation on the image for specifying the focal length range and to generate a composite image in which other pixels are non- Generating means
Further comprising:
Wherein the display means displays the composite image generated by the composite image generation means.
청구항 1 내지 청구항 6 중 어느 한 항에 있어서,
상기 복수의 입력화상은, 다른 초점거리에서 촬상된 복수의 촬영화상이며,
표시수단과,
유저 조작을 접수하는 입력수단과,
상기 복수의 입력화상에 근거하는 복수의 참조용 화상을 상기 표시수단에 순차적으로 표시시키는 제어를 행하는 표시제어수단과,
상기 깊이 맵에 근거하여, 상기 참조용 화상 중, 유저에 의해서 지정된 참조용 화상에 대응하는 입력화상의 초점거리에 대응하는 심도의 화소를 포커싱으로 하고, 그 외의 화소를 비포커싱으로 한 합성화상을 생성하는 합성화상 생성수단
을 더 구비하고,
상기 표시수단은, 상기 합성화상 생성수단에 의해서 생성된 합성화상을 표시하는, 화상처리장치.
The method according to any one of claims 1 to 6,
Wherein the plurality of input images are a plurality of captured images captured at different focal lengths,
Display means,
An input means for accepting a user operation,
Display control means for performing control to sequentially display a plurality of reference images based on the plurality of input images on the display means,
And a synthesizing unit configured to perform, on the basis of the depth map, a pixel having a depth corresponding to the focal length of the input image corresponding to the reference image designated by the user, The synthesized image generating means
Further comprising:
Wherein the display means displays the composite image generated by the composite image generation means.
청구항 7 또는 청구항 8에 있어서,
상기 입력수단은, 상기 표시수단과 일체적으로 구성된 터치패널을 가지고,
상기 합성화상 생성수단은, 상기 터치패널에 대한 드래그 조작에 근거하여, 상기 특정 심도를 동적으로 변경하여 상기 합성화상을 동적으로 생성하고,
상기 표시수단은, 상기 합성화상 생성수단에 의해 동적으로 생성되는 합성화상을 상기 드래그 조작에 맞춰서 표시하는, 화상처리장치.
The method according to claim 7 or 8,
Wherein the input means has a touch panel integrally formed with the display means,
Wherein the synthesized image generating means dynamically changes the specific depth based on a drag operation on the touch panel to dynamically generate the synthesized image,
Wherein the display means displays the composite image dynamically generated by the composite image generation means in accordance with the drag operation.
청구항 2 내지 청구항 4 중 어느 한 항에 있어서,
유저 조작을 접수하는 입력수단을 더 구비하고,
상기 심도추정수단은, 상기 유저 조작에 의해 지정된 지정영역에 포함되는 화소에 대해서 상기 심도를 재추정하는 심도 재추정수단을 가지고,
상기 깊이 맵 생성수단은, 상기 심도 재추정수단에 의한 심도의 재추정의 결과에 근거하여 깊이 맵을 재생성하는 깊이 맵 재생성수단을 가지는, 화상처리장치.
The method according to any one of claims 2 to 4,
Further comprising input means for accepting a user operation,
The depth estimating means has depth re-estimating means for re-estimating the depth with respect to pixels included in the designated region specified by the user operation,
Wherein the depth map generating means includes depth map regenerating means for regenerating a depth map based on a result of re-estimation of the depth by the depth re-estimating means.
청구항 3에 있어서,
유저 조작을 접수하는 입력수단을 더 구비하고,
상기 심도추정수단은, 상기 유저 조작에 의해 지정된 지정영역에 포함되는 화소에 대해서 상기 심도를 재추정하는 심도 재추정수단을 가지고,
상기 깊이 맵 생성수단은, 상기 심도 재추정수단에 의한 심도의 재추정의 결과에 근거하여 깊이 맵을 재생성하는 깊이 맵 재생성수단을 가지고,
상기 심도 재추정수단은, 상기 지정영역에 포함되는 화소에 대해서, 상기 제1종 파라미터값 및 상기 제2종 파라미터값의 적어도 일방을, 상기 심도추정수단이 당초의 심도추정에서 이용한 파라미터값과는 다른 값으로 변경하여 상기 적절해 연산처리를 행하여, 상기 심도를 재추정하는, 화상처리장치.
The method of claim 3,
Further comprising input means for accepting a user operation,
The depth estimating means has depth re-estimating means for re-estimating the depth with respect to pixels included in the designated region specified by the user operation,
The depth map generating means has depth map regenerating means for regenerating the depth map based on the result of re-estimation of the depth by the depth estimator,
Wherein the depth estimating means estimates at least one of the first type parameter value and the second type parameter value with respect to the pixels included in the designation region from a parameter value used in the original depth estimation by the depth estimation means And changing the value to a different value to appropriately perform the arithmetic processing to re-estimate the depth.
복수의 입력화상으로부터 소정의 특징을 검출하는 것과,
상기 특징의 검출결과에 근거하여 깊이 맵을 생성하는 것을 포함하는 화상처리방법.
Detecting a predetermined characteristic from a plurality of input images,
And generating a depth map based on the detection result of the feature.
컴퓨터에,
복수의 입력화상으로부터 소정의 특징을 검출하는 특징검출 스텝과,
상기 특징검출 스텝의 검출결과에 근거하여 깊이 맵을 생성하는 깊이 맵 생성 스텝을 실행시키기 위한 프로그램.
On the computer,
A feature detecting step of detecting a predetermined feature from a plurality of input images;
And a depth map generation step of generating a depth map based on the detection result of the feature detection step.
KR1020140149293A 2013-10-30 2014-10-30 Image processing apparatus, image processing method and program thereof KR101709380B1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JPJP-P-2013-226045 2013-10-30
JP2013226045 2013-10-30

Publications (2)

Publication Number Publication Date
KR20150050486A true KR20150050486A (en) 2015-05-08
KR101709380B1 KR101709380B1 (en) 2017-02-22

Family

ID=52994878

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020140149293A KR101709380B1 (en) 2013-10-30 2014-10-30 Image processing apparatus, image processing method and program thereof

Country Status (5)

Country Link
US (2) US9508173B2 (en)
JP (1) JP6511247B2 (en)
KR (1) KR101709380B1 (en)
CN (2) CN104660900B (en)
TW (1) TWI554936B (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180032989A (en) * 2016-09-23 2018-04-02 삼성전자주식회사 ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof
KR20180111224A (en) * 2017-03-31 2018-10-11 엘지전자 주식회사 Terminal and method for controlling the same
KR20200039420A (en) * 2018-10-05 2020-04-16 엘지이노텍 주식회사 Method and camera module for acquiring depth information
KR20210120222A (en) * 2020-03-26 2021-10-07 박재현 Method for generating a dynamic image using partial optical blocking

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014129683A1 (en) * 2013-02-21 2014-08-28 엘지전자 주식회사 Remote pointing method
JP6179224B2 (en) * 2013-07-02 2017-08-16 富士通株式会社 Image processing filter creation apparatus and method
US9734551B1 (en) * 2013-12-01 2017-08-15 Google Inc. Providing depth-of-field renderings
US9594893B2 (en) * 2014-01-15 2017-03-14 Lenovo (Singapore) Pte. Ltd. Multi-touch local device authentication
KR102326275B1 (en) * 2014-02-25 2021-11-16 삼성전자주식회사 Image displaying method and apparatus
KR102271853B1 (en) * 2014-03-21 2021-07-01 삼성전자주식회사 Electronic apparatus, image processing method, and computer-readable recording medium
JP6399437B2 (en) * 2014-06-04 2018-10-03 パナソニックIpマネジメント株式会社 Control device and work management system using the same
CN104038699B (en) * 2014-06-27 2016-04-06 努比亚技术有限公司 The reminding method of focusing state and filming apparatus
EP3958557B1 (en) 2015-04-23 2024-09-25 Apple Inc. Digital viewfinder user interface for multiple cameras
US10298905B2 (en) 2015-06-16 2019-05-21 Koninklijke Philips N.V. Method and apparatus for determining a depth map for an angle
WO2016203282A1 (en) 2015-06-18 2016-12-22 The Nielsen Company (Us), Llc Methods and apparatus to capture photographs using mobile devices
JP6614824B2 (en) * 2015-06-26 2019-12-04 キヤノン株式会社 Image processing apparatus, image processing system, imaging apparatus, image processing method, and program
US20180225831A1 (en) * 2015-08-07 2018-08-09 Nec Corporation Image processing device, image restoring device, and image processing method
US10237473B2 (en) * 2015-09-04 2019-03-19 Apple Inc. Depth map calculation in a stereo camera system
US20170091905A1 (en) * 2015-09-24 2017-03-30 Dell Products L.P. Information Handling System Defocus Tracking Video
US10389804B2 (en) 2015-11-11 2019-08-20 Adobe Inc. Integration of content creation and sharing
US10249061B2 (en) 2015-11-11 2019-04-02 Adobe Inc. Integration of content creation and sharing
US10783431B2 (en) 2015-11-11 2020-09-22 Adobe Inc. Image search using emotions
US10198590B2 (en) * 2015-11-11 2019-02-05 Adobe Inc. Content sharing collections and navigation
CN106997582A (en) * 2016-01-22 2017-08-01 北京三星通信技术研究有限公司 The motion blur removing method and equipment of flight time three-dimension sensor
US10516875B2 (en) * 2016-01-22 2019-12-24 Samsung Electronics Co., Ltd. Method and apparatus for obtaining depth image by using time-of-flight sensor
KR102510821B1 (en) * 2016-02-05 2023-03-16 삼성전자주식회사 Method and apparatus for processing image and recording medium thereof
JP6482130B2 (en) * 2016-02-25 2019-03-13 Kddi株式会社 Geometric verification apparatus, program and method
JP6765057B2 (en) * 2016-03-18 2020-10-07 パナソニックIpマネジメント株式会社 Image generator, image generation method and program
US9716825B1 (en) 2016-06-12 2017-07-25 Apple Inc. User interface for camera effects
JP6684168B2 (en) * 2016-06-28 2020-04-22 キヤノン株式会社 Image processing apparatus and image processing method
US10574947B2 (en) * 2016-07-15 2020-02-25 Qualcomm Incorporated Object reconstruction in disparity maps using displaced shadow outlines
US10096097B2 (en) * 2016-08-01 2018-10-09 The United States Of America As Represented By The Secretary Of The Navy Content-aware bidirectional image edge highlighting
WO2018030386A1 (en) * 2016-08-09 2018-02-15 シャープ株式会社 Position designation device and position designation method
EP3500822A4 (en) * 2016-08-18 2019-08-28 SZ DJI Technology Co., Ltd. Systems and methods for augmented stereoscopic display
TWI604417B (en) * 2016-08-31 2017-11-01 國立交通大學 Method and system for estimating epipolar geometry model
CN106570821A (en) * 2016-10-29 2017-04-19 深圳市金立通信设备有限公司 Image processing method and terminal
US10965861B2 (en) * 2016-11-08 2021-03-30 Sony Corporation Image processing device, image processing method, and program
KR101871937B1 (en) * 2016-11-15 2018-07-02 주식회사 스트로크플레이 Device and Method for measuring flight data of flying objects using high speed video camera and computer readable recording medium having program the same
JP6948787B2 (en) * 2016-12-09 2021-10-13 キヤノン株式会社 Information processing equipment, methods and programs
WO2018112764A1 (en) * 2016-12-20 2018-06-28 广东欧珀移动通信有限公司 Image processing method and apparatus, control method and apparatus, imaging apparatus, and electronic apparatus
US10389936B2 (en) * 2017-03-03 2019-08-20 Danylo Kozub Focus stacking of captured images
JP6911435B2 (en) * 2017-03-23 2021-07-28 富士フイルムビジネスイノベーション株式会社 Information processing equipment, display systems, and programs
CN107170001A (en) * 2017-04-25 2017-09-15 北京海致网聚信息技术有限公司 Method and apparatus for carrying out registration to image
CN107368184B (en) 2017-05-12 2020-04-14 阿里巴巴集团控股有限公司 Password input method and device in virtual reality scene
CN110663246B (en) * 2017-05-24 2021-08-06 深圳市大疆创新科技有限公司 Method and system for processing images
CN107038681B (en) * 2017-05-31 2020-01-10 Oppo广东移动通信有限公司 Image blurring method and device, computer readable storage medium and computer device
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
KR102434574B1 (en) 2017-08-14 2022-08-22 삼성전자주식회사 Method and apparatus for recognizing a subject existed in an image based on temporal movement or spatial movement of a feature point of the image
WO2019058487A1 (en) 2017-09-21 2019-03-28 オリンパス株式会社 Three-dimensional reconstructed image processing device, three-dimensional reconstructed image processing method, and computer-readable storage medium having three-dimensional reconstructed image processing program stored thereon
US10372298B2 (en) 2017-09-29 2019-08-06 Apple Inc. User interface for multi-user communication session
JP6590899B2 (en) * 2017-12-07 2019-10-16 キヤノン株式会社 Imaging apparatus, imaging method, and program
CN108227919B (en) * 2017-12-22 2021-07-09 潍坊歌尔电子有限公司 Method and device for determining finger position information of user, projector and projection system
US10733706B2 (en) 2018-01-07 2020-08-04 Htc Corporation Mobile device, and image processing method for mobile device
US11893755B2 (en) 2018-01-19 2024-02-06 Interdigital Vc Holdings, Inc. Multi-focal planes with varying positions
WO2019146122A1 (en) 2018-01-29 2019-08-01 Eizo株式会社 Image processing device, image processing method, and image processing program
WO2019150668A1 (en) 2018-01-30 2019-08-08 ソニー株式会社 Image processing device, image processing method, and program
CN108279287B (en) * 2018-02-01 2020-12-18 嘉兴市丰成五金材料股份有限公司 Smoke rapid emission system based on communication technology
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11380000B2 (en) * 2018-02-19 2022-07-05 Murakami Corporation Operation detection device and operation detection method
CN108550182B (en) * 2018-03-15 2022-10-18 维沃移动通信有限公司 Three-dimensional modeling method and terminal
MX2020009791A (en) 2018-03-23 2020-11-11 Pcms Holdings Inc Multifocal plane based method to produce stereoscopic viewpoints in a dibr system (mfp-dibr).
WO2019197718A1 (en) * 2018-04-11 2019-10-17 Nokia Technologies Oy Method and apparatus for signaling and storing grouping types in an image container file
DK180130B1 (en) 2018-05-07 2020-06-02 Apple Inc. Multi-participant live communication user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
EP4440104A3 (en) 2018-07-05 2024-10-23 InterDigital VC Holdings, Inc. Method and system for near-eye focal plane overlays for 3d perception of content on 2d displays
JP7262940B2 (en) * 2018-07-30 2023-04-24 キヤノン株式会社 IMAGE PROCESSING DEVICE, IMAGING DEVICE, CONTROL METHOD AND PROGRAM FOR IMAGE PROCESSING DEVICE
DE102018213052A1 (en) * 2018-08-03 2020-02-06 Robert Bosch Gmbh Method and device for determining an explanation card
CN109246354B (en) * 2018-09-07 2020-04-24 Oppo广东移动通信有限公司 Image processing method and device, electronic equipment and computer readable storage medium
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. User interfaces for simulated depth effects
US10783649B2 (en) * 2018-09-17 2020-09-22 Adobe Inc. Aligning digital images by selectively applying pixel-adjusted-gyroscope alignment and feature-based alignment models
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11128792B2 (en) * 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
CN111275657B (en) * 2018-11-20 2024-07-26 华为技术有限公司 Virtual focus detection method, device and computer readable medium
CN109151329A (en) * 2018-11-22 2019-01-04 Oppo广东移动通信有限公司 Photographic method, device, terminal and computer readable storage medium
CN110008802B (en) 2018-12-04 2023-08-29 创新先进技术有限公司 Method and device for selecting target face from multiple faces and comparing face recognition
TWI678546B (en) * 2018-12-12 2019-12-01 緯創資通股份有限公司 Distance detection method, distance detection system and computer program product
US10917516B1 (en) * 2018-12-18 2021-02-09 United Services Automobile Association (Usaa) Data access system for representatives
CN109767466B (en) * 2019-01-10 2021-07-13 深圳看到科技有限公司 Picture rendering method and device, terminal and corresponding storage medium
US11405547B2 (en) * 2019-02-01 2022-08-02 Electronics And Telecommunications Research Institute Method and apparatus for generating all-in-focus image using multi-focus image
US10554890B1 (en) 2019-02-18 2020-02-04 Samsung Electronics Co., Ltd. Apparatus and method for generating low-light images with improved bokeh using mobile electronic device
KR102597518B1 (en) * 2019-02-20 2023-11-03 삼성전자주식회사 An electronic dievice applying bokeh effect to image and controlling method thereof
WO2020174588A1 (en) * 2019-02-26 2020-09-03 株式会社ソシオネクスト Information processing device and information processing method
CN109902695B (en) * 2019-03-01 2022-12-20 辽宁工程技术大学 Line feature correction and purification method for image pair linear feature matching
US12088400B2 (en) * 2019-03-29 2024-09-10 Nokia Technologies Oy Apparatus for doppler shift compensation, corresponding method and computer program
CN112868224B (en) * 2019-04-01 2023-08-29 谷歌有限责任公司 Method, apparatus and storage medium for capturing and editing dynamic depth image
CN111901477B (en) * 2019-05-06 2021-05-25 苹果公司 User interface for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11062436B2 (en) 2019-05-10 2021-07-13 Samsung Electronics Co., Ltd. Techniques for combining image frames captured using different exposure settings into blended images
CN110567437B (en) * 2019-06-28 2021-05-18 武汉理工大学 Photographic measuring method for port hoisting machinery
CN110324532B (en) * 2019-07-05 2021-06-18 Oppo广东移动通信有限公司 Image blurring method and device, storage medium and electronic equipment
CN112446946B (en) * 2019-08-28 2024-07-09 深圳市光鉴科技有限公司 Depth reconstruction method, system, equipment and medium based on sparse depth and boundary
CN112446251A (en) * 2019-08-30 2021-03-05 深圳云天励飞技术有限公司 Image processing method and related device
CN110796649B (en) * 2019-10-29 2022-08-30 北京市商汤科技开发有限公司 Target detection method and device, electronic equipment and storage medium
CN111140103A (en) * 2019-12-28 2020-05-12 王体 Office cabinet keyhole sealing platform
TWI784482B (en) * 2020-04-16 2022-11-21 鈺立微電子股份有限公司 Processing method and processing system for multiple depth information
US11513667B2 (en) 2020-05-11 2022-11-29 Apple Inc. User interface for audio message
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
CN111724381B (en) * 2020-06-24 2022-11-01 武汉互创联合科技有限公司 Microscopic image cell counting and posture identification method based on multi-view cross validation
US20220005226A1 (en) * 2020-07-05 2022-01-06 Asensus Surgical Us, Inc. Camera calibration using measured motion
RU2745010C1 (en) * 2020-08-25 2021-03-18 Самсунг Электроникс Ко., Лтд. Methods for reconstruction of depth map and electronic computer device for their implementation
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US20220104887A1 (en) * 2020-10-06 2022-04-07 Asensus Surgical Us, Inc. Surgical record creation using computer recognition of surgical events
US11431891B2 (en) 2021-01-31 2022-08-30 Apple Inc. User interfaces for wide angle video conference
CN113076685B (en) * 2021-03-04 2024-09-10 华为技术有限公司 Training method of image reconstruction model, image reconstruction method and device thereof
US11893668B2 (en) 2021-03-31 2024-02-06 Leica Camera Ag Imaging system and method for generating a final digital image via applying a profile to image information
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US20220368548A1 (en) 2021-05-15 2022-11-17 Apple Inc. Shared-content session user interfaces
US11907605B2 (en) 2021-05-15 2024-02-20 Apple Inc. Shared-content session user interfaces
US11893214B2 (en) 2021-05-15 2024-02-06 Apple Inc. Real-time communication user interface
US12112024B2 (en) 2021-06-01 2024-10-08 Apple Inc. User interfaces for managing media styles
JP7113327B1 (en) * 2021-07-12 2022-08-05 パナソニックIpマネジメント株式会社 Imaging device
US11812135B2 (en) 2021-09-24 2023-11-07 Apple Inc. Wide angle video conference
CN115063789B (en) * 2022-05-24 2023-08-04 中国科学院自动化研究所 3D target detection method and device based on key point matching
US20240031540A1 (en) * 2022-07-21 2024-01-25 Apple Inc. Foveated down sampling of image data
CN115409845B (en) * 2022-11-03 2023-02-03 成都新西旺自动化科技有限公司 Special-shaped high-precision balanced alignment method and system
US20240169494A1 (en) * 2022-11-21 2024-05-23 Varjo Technologies Oy Extended depth-of-field correction using reconstructed depth map
CN116679080B (en) * 2023-05-30 2024-10-01 广州伏羲智能科技有限公司 River surface flow velocity determining method and device and electronic equipment
CN116740158B (en) * 2023-08-14 2023-12-05 小米汽车科技有限公司 Image depth determining method, device and storage medium

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008966A (en) 2001-06-19 2003-01-10 Casio Comput Co Ltd Image pickup device and soft focus image photographing method
JP2007013914A (en) * 2005-06-30 2007-01-18 Samsung Sdi Co Ltd Stereoscopic image display apparatus and mobile communication terminal apparatus using the same
KR20070119961A (en) * 2006-06-16 2007-12-21 삼성전자주식회사 Apparatus and method for composing of depth information map, apparatus and method for displaying images by using depth information map
JP2011029763A (en) * 2009-07-22 2011-02-10 Casio Computer Co Ltd Unit and method for processing image
KR20110100653A (en) * 2008-12-19 2011-09-14 코닌클리케 필립스 일렉트로닉스 엔.브이. Creation of depth maps from images

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4692878A (en) * 1985-03-29 1987-09-08 Ampower Technologies, Inc. Three-dimensional spatial image system
JP2001183133A (en) * 1999-12-22 2001-07-06 Sony Corp Three-dimensional shape masuring device and method and recording medium
JP4230128B2 (en) 2001-06-20 2009-02-25 富士フイルム株式会社 Imaging apparatus and control method thereof
EP1804112B1 (en) * 2004-09-08 2016-11-30 Nippon Telegraph And Telephone Corporation Three-dimensional display method, apparatus and program
JP2006146455A (en) * 2004-11-18 2006-06-08 Konica Minolta Photo Imaging Inc Electronic equipment and display method for image with index
JP2008039491A (en) * 2006-08-02 2008-02-21 Fuji Heavy Ind Ltd Stereo image processing apparatus
US8213711B2 (en) * 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
US8497920B2 (en) 2008-06-11 2013-07-30 Nokia Corporation Method, apparatus, and computer program product for presenting burst images
US8279325B2 (en) * 2008-11-25 2012-10-02 Lytro, Inc. System and method for acquiring, editing, generating and outputting video data
KR101506926B1 (en) * 2008-12-04 2015-03-30 삼성전자주식회사 Method and appratus for estimating depth, and method and apparatus for converting 2d video to 3d video
JP2010166247A (en) * 2009-01-14 2010-07-29 Olympus Corp Image processor, image processing program, and image processing method
JP2011010194A (en) * 2009-06-29 2011-01-13 Nikon Corp Blurred image forming apparatus and camera provided with the same
CN101930606A (en) * 2010-05-14 2010-12-29 深圳市海量精密仪器设备有限公司 Field depth extending method for image edge detection
WO2011158508A1 (en) * 2010-06-17 2011-12-22 パナソニック株式会社 Image processing device and image processing method
US8705801B2 (en) * 2010-06-17 2014-04-22 Panasonic Corporation Distance estimation device, distance estimation method, integrated circuit, and computer program
JP5682203B2 (en) * 2010-09-29 2015-03-11 オムロンヘルスケア株式会社 Safety nursing system and method for controlling safety nursing system
WO2012070208A1 (en) * 2010-11-24 2012-05-31 パナソニック株式会社 Image capturing device, image capturing method, program and integrated circuit
KR101733131B1 (en) * 2010-12-14 2017-05-10 한국전자통신연구원 3D motion recognition method and apparatus
JP6011862B2 (en) * 2011-01-27 2016-10-19 パナソニックIpマネジメント株式会社 3D image capturing apparatus and 3D image capturing method
JP5818514B2 (en) * 2011-05-27 2015-11-18 キヤノン株式会社 Image processing apparatus, image processing method, and program
JP5907368B2 (en) * 2011-07-12 2016-04-26 ソニー株式会社 Image processing apparatus and method, and program
JP5720488B2 (en) 2011-08-16 2015-05-20 リコーイメージング株式会社 Imaging apparatus and distance information acquisition method
JP2014210670A (en) * 2011-09-01 2014-11-13 旭硝子株式会社 Production method of tempered glass panel
CN103168462B (en) 2011-10-14 2016-09-28 株式会社摩如富 Image synthesizer and image combining method
US20130176458A1 (en) 2012-01-11 2013-07-11 Edwin Van Dalen Flexible Burst Image Capture System
JP2015522959A (en) 2012-04-26 2015-08-06 ザ・トラスティーズ・オブ・コロンビア・ユニバーシティ・イン・ザ・シティ・オブ・ニューヨーク Systems, methods, and media for providing interactive refocusing in images
TWI489326B (en) * 2012-06-05 2015-06-21 Wistron Corp Operating area determination method and system
US9632574B2 (en) * 2012-10-31 2017-04-25 Sony Corporation Device and method for authenticating a user
US8760500B1 (en) * 2013-10-23 2014-06-24 Google Inc. Depth map generation

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003008966A (en) 2001-06-19 2003-01-10 Casio Comput Co Ltd Image pickup device and soft focus image photographing method
JP2007013914A (en) * 2005-06-30 2007-01-18 Samsung Sdi Co Ltd Stereoscopic image display apparatus and mobile communication terminal apparatus using the same
KR20070119961A (en) * 2006-06-16 2007-12-21 삼성전자주식회사 Apparatus and method for composing of depth information map, apparatus and method for displaying images by using depth information map
KR20110100653A (en) * 2008-12-19 2011-09-14 코닌클리케 필립스 일렉트로닉스 엔.브이. Creation of depth maps from images
JP2011029763A (en) * 2009-07-22 2011-02-10 Casio Computer Co Ltd Unit and method for processing image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20180032989A (en) * 2016-09-23 2018-04-02 삼성전자주식회사 ToF(time of flight) capturing apparatus and method for reducing of depth distortion caused by multiple reflection thereof
KR20180111224A (en) * 2017-03-31 2018-10-11 엘지전자 주식회사 Terminal and method for controlling the same
KR20200039420A (en) * 2018-10-05 2020-04-16 엘지이노텍 주식회사 Method and camera module for acquiring depth information
KR20210120222A (en) * 2020-03-26 2021-10-07 박재현 Method for generating a dynamic image using partial optical blocking

Also Published As

Publication number Publication date
US20150116353A1 (en) 2015-04-30
US9508173B2 (en) 2016-11-29
US20170039686A1 (en) 2017-02-09
JP6511247B2 (en) 2019-05-15
TWI554936B (en) 2016-10-21
CN104660900A (en) 2015-05-27
TW201516829A (en) 2015-05-01
KR101709380B1 (en) 2017-02-22
US10127639B2 (en) 2018-11-13
CN108107571B (en) 2021-06-01
CN104660900B (en) 2018-03-02
JP2015111822A (en) 2015-06-18
CN108107571A (en) 2018-06-01

Similar Documents

Publication Publication Date Title
KR101709380B1 (en) Image processing apparatus, image processing method and program thereof
EP3457683B1 (en) Dynamic generation of image of a scene based on removal of undesired object present in the scene
US9516214B2 (en) Information processing device and information processing method
CN105323425B (en) Scene motion correction in blending image system
US11783443B2 (en) Extraction of standardized images from a single view or multi-view capture
KR102407190B1 (en) Image capture apparatus and method for operating the image capture apparatus
JP6610535B2 (en) Image processing apparatus and image processing method
CN114071010B (en) Shooting method and equipment
CN110324532A (en) A kind of image weakening method, device, storage medium and electronic equipment
US9171357B2 (en) Method, apparatus and computer-readable recording medium for refocusing photographed image
JP6068895B2 (en) Image processing apparatus and program
US20230290061A1 (en) Efficient texture mapping of a 3-d mesh
JP6068896B2 (en) Image processing apparatus and program
CN114071009A (en) Shooting method and equipment
CN111223192B (en) Image processing method, application method, device and equipment thereof
CN112188085B (en) Image processing method and handheld pan-tilt camera
CN110941974B (en) Control method and device of virtual object
JP6150419B2 (en) Camera and program
JP2016103807A (en) Image processing device, image processing method, and program
JP6300547B2 (en) Imaging device
JP2003289436A (en) Image processor, and program
CN118488305A (en) Photographing method, photographing device, photographing equipment, photographing storage medium and photographing product
KR20200029120A (en) Method and computer program for photographing picture without background using digital dual-camera

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E90F Notification of reason for final refusal
E90F Notification of reason for final refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20200115

Year of fee payment: 4