KR101513931B1 - Auto-correction method of composition and image apparatus with the same technique - Google Patents
Auto-correction method of composition and image apparatus with the same technique Download PDFInfo
- Publication number
- KR101513931B1 KR101513931B1 KR1020140011117A KR20140011117A KR101513931B1 KR 101513931 B1 KR101513931 B1 KR 101513931B1 KR 1020140011117 A KR1020140011117 A KR 1020140011117A KR 20140011117 A KR20140011117 A KR 20140011117A KR 101513931 B1 KR101513931 B1 KR 101513931B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- region
- interest
- input image
- roi
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/69—Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20112—Image segmentation details
- G06T2207/20132—Image cropping
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
본 발명의 일 구현예는 구도의 자동보정 방법 및 이러한 기능이 탑재된 영상 장치에 관한 것이다.One embodiment of the present invention relates to a method of automatically correcting a composition and a video apparatus equipped with such a function.
최근 디지털 카메라가 보편화되면서 일반적인 모바일 기기에까지 다양한 기능을 가진 카메라가 탑재되어 활용되고 있다. 그러나, 사용자들은 카메라에 내장되어 있는 기능들 중에서 구도 보정을 유도하는 가이드라인의 사용법이나 얼굴인식을 자동으로 해주는 기능에 대하여 알고 있는 경우가 드물다.Recently, as digital cameras become popular, cameras with various functions are mounted on general mobile devices. However, users often do not know how to use the guideline that guides the composition correction among the functions built in the camera or the function that automatically performs face recognition.
일반적인 경치나 사물을 눈으로 보았을 때 멋진 풍경이었으나 막상 카메라에 담고 보면 이와는 사뭇 다른 느낌이 든다. 이는 사람의 눈으로 넓은 각도에서 눈앞에 펼쳐진 거의 모든 것을 볼 수 있지만 카메라에서는 사진이라는 형태의 사각형 테두리 안에 피사체를 담아야 하기 때문이다. 이러한 사각형 영역 안에 피사체를 얼마나 안정적으로 담느냐에 따라 사진을 보는 사람의 느낌도 달라질 수 있다. It was a wonderful scenery when I looked at ordinary scenery or things, but when I put it in the camera, it feels like something different. This is because you can see almost everything that has been spread out in front of you from a wide angle with the human eye, but you have to put the subject in a rectangular frame of the form of a photograph in the camera. Depending on how stable the subject is in this rectangular area, the person who views the picture may change.
이를 테면, 선이나 형태, 색채의 명암, 질감, 주 피사체와 주변 소재의 비중, 원근감, 방향, 운동의 상태 등 사진을 찍는 사람의 의도가 구도를 통해 전달된다. 일례로, 연못 속의 한 마리의 잉어를 찍을 때, 화면의 어느 부분에 어느 정도의 크기를 찍을 것인가 하는 배열 또는 배치의 문제가 있으며, 잉어의 수가 늘어나는 경우 같은 크기로 형태가 복잡해지는 패턴(Pattern)의 문제가 있다. 그리고, 형태와 크기가 다른 어류나 주변의 사람 등 공간의 배열, 원근감 등이 가미되었을 때 의도적으로 구도를 구성을 하게 된다. For example, the intention of the photographer is conveyed through the composition, such as line or shape, contrast and texture of the color, the weight of the main subject and surrounding material, perspective, direction, and state of motion. For example, when a carp in a pond is photographed, there is a problem of arranging or arranging a certain size on a certain portion of the screen. When the number of carp is increased, There is a problem of. And, when the arrangement of the space such as the fish of the different form and size and the person of the surroundings, and the perspective of the viewer are added, the composition is intentionally made.
실제, 구도를 잡을 때에는 간단하게 화면을 셋으로 나누어 황금분할(Golden Section)과 비슷한 점 및 선을 쉽게 이용하는 구도법을 이용한다. 이러한 편안함을 주는 황금비를 사진 촬영에 적용하기 위하여, 화면을 가로와 세로로 3등분하면 두 개의 수직선과 수평선이 나오고, 네 개의 교차점이 생기게 되는데 이 교차점 중 한 곳에 피사체를 배치하면 황금분할에 가까운 3등 분할의 화면이 구성된다. 이러한 구도의 사진은 보는 사람들에게 집중력을 높일 수 있으며, 전체적인 사진의 구도에서 편안함을 줄 수 있다.Actually, when composing a picture, simply divide the screen into sets and use a composition method that easily uses points and lines similar to the Golden Section. In order to apply this comforting golden ratio to photography, three halves of the picture horizontally and vertically produce two vertical lines and a horizontal line, and four intersections are created. When one of these intersections is placed, The screen of the equal division is constituted. The photographs of this composition can enhance the concentration of the viewer, and can provide comfort in the overall picture composition.
그러나, 사진에서 구도가 올바르지 못하면 불안정한 느낌을 받는다. 이에 이미지 또는/및 영상을 3분할 기법에 맞춰 재구성하려는 노력이 지속되고 있다.However, if the composition in the picture is not correct, it will give an unstable feeling. Therefore, efforts are being made to reconstruct images and / or images in accordance with the three-segment technique.
본 발명이 해결하고자 하는 과제는 이미지 내에서 3분할 기법에 맞춰 재구성하여 이미지 내에서 적합한 구도의 자동보정 방법 및 이러한 기능이 탑재된 영상 장치를 제공하는 것이다.A problem to be solved by the present invention is to provide a method of automatically correcting an appropriate composition in an image by reconstructing the image in accordance with a three-division technique, and a video device equipped with such a function.
또한, 본 발명의 일 구현예는 심미성을 높이는 것과 함께 구도를 안정적이고 세련되게 보정할 수 있는 구도의 자동보정 방법 및 이러한 기능이 탑재된 영상 장치를 제공하는 것이다.In addition, one embodiment of the present invention is to provide an automatic correction method of a composition that can enhance aesthetics and correct a composition stably and sophistically, and a video apparatus equipped with such a function.
본 발명의 일 구현예는, 이미지를 입력받는 입력단계, 상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계, 상기 입력된 이미지의 가로와 세로를 각각 3분할한 격자를 구성하고, 상기 이미지 내에서 중요 피사체를 선정하여, 상기 격자의 교차점에 위치시키는 단계, 선정된 피사체의 좌표를 설정하는 단계, 및 설정된 좌표를 이용하여 상기 추출된 관심영역을 크로핑(cropping)하는 단계를 포함하되, 상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계는, 상기 입력된 이미지에서 특징을 추출하여 낮은 레벨의 특징 맵(low-level Feature Map)을 하나 이상 생성하는 단계; 상기 하나 이상의 특징 맵들로부터 관심영역 맵(Saliency Map)을 생성하는 단계; 및 상기 관심영역 맵(Saliency Map)으로부터 제1관심영역을 추출하는 단계를 포함한다. An embodiment of the present invention includes an input step of inputting an image, a step of extracting a region of interest (ROI) from the input image, a step of dividing the input image into three parts, Selecting an important object in the image and positioning it at an intersection of the grid, setting coordinates of the selected object, and cropping the extracted region of interest using the set coordinates Wherein extracting the region of interest (ROI) from the input image comprises: extracting features from the input image to generate at least one low-level Feature Map step; Generating a Saliency Map from the one or more feature maps; And extracting a first region of interest from the Saliency Map.
삭제delete
또한, 상기 특징 맵의 특징 요소는 색상, 밝기 및 방향 중 적어도 하나일 수 있다.In addition, the feature element of the feature map may be at least one of color, brightness and direction.
또한, 상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계는, 상기 입력된 이미지로부터 상기 제1관심영역을 검출하고, 색상 분할(Color Segmentation) 기법을 이용하여 결과 이미지를 생성하는 단계, 상기 결과 이미지를 이진 영상으로 변환하는 단계, 및 상기 이진 영상을 에지 검출 기술을 이용하여 상기 입력된 이미지와 통합하고, 유사도가 낮은 영역을 제거함으로써 제2관심영역을 추출하는 단계를 더 포함할 수 있다.The step of extracting a region of interest (ROI) from the input image may include: detecting the first ROI from the input image; generating a result image using a color segmentation technique; Extracting a second region of interest by merging the binary image with the input image using an edge detection technique and eliminating regions of low similarity; .
또한, 상기 색상 분할(Color Segmentation) 기법은 색상 간의 밀집도 및 집합도를 이용하여 유사한 색상들을 단일 그룹으로 모아줌으로써 영상의 영역을 분할하는 것일 수 있다.In addition, the color segmentation technique may divide a region of an image by collecting similar colors into a single group using density and degree of aggregation between colors.
또한, 상기 크로핑은 상기 입력된 이미지의 종류에 부합하는 시나리오를 적용하여 수행할 수 있다.In addition, the cropping may be performed by applying a scenario corresponding to the type of the input image.
또한, 상기 입력된 이미지의 종류가 사람인 경우, 신체 영역을 포함하도록 시나리오를 적용할 수 있다.In addition, if the type of the input image is a person, the scenario may be applied to include a body region.
한편, 본 발명의 다른 구현예는, 전술한 구도의 자동보정 기능이 탑재된 영상 장치를 제공한다. According to another embodiment of the present invention, there is provided a video apparatus equipped with the above-described automatic correction function of the composition.
본 발명의 일 구현예에 따르면, 이미지 내에서 3분할 기법에 맞춰 재구성하여 이미지 내에서 적합한 구도의 자동보정 방법 및 이러한 기능이 탑재된 영상 장치를 제공할 수 있는 효과가 있다.According to an embodiment of the present invention, there is provided an automatic correction method of a suitable composition within an image by reconstructing the image in accordance with a three-division technique in the image, and an image device equipped with such a function.
또한, 본 발명의 일 구현예에 따르면, 심미성을 높이는 것과 함께 구도를 안정적이고 세련되게 보정할 수 있는 구도의 자동보정 방법 및 이러한 기능이 탑재된 영상 장치를 제공할 수 있는 효과도 있다.According to an embodiment of the present invention, there is also provided an automatic correction method of a composition that can enhance aesthetics and correct a composition stably and sophistically, and a video apparatus equipped with such a function.
도 1a는 3분할법(Rule of Thirds)의 일례를 나타낸 도면이다.
도 1b는 3분할법(Rule of Thirds)의 다른 예를 나타낸 도면이다.
도 2a는 피사체를 사진의 정중앙에 위치되도록 한 사진이다.
도 2b는 3분할법을 적용한 구도 보정을 통해 피사체를 재 위치시킨 사진이다.
도 3a은 크로핑(Cropping)에 의해 영상을 재구성하기 전을 나타낸 도면이다.
도 3b는 크로핑(Cropping)에 의해 도 3a를 재구성하여 나타낸 도면이다.
도 4는 본 발명의 일 구현예에서 중요 피사체와 격자의 교차점 사이의 거리를 구하여 가장 가까운 교차점을 구하는 과정을 나타낸 도면이다.
도 5는 본 발명의 일 구현예에 따른 구도의 자동 보정이 가능한 카메라의 제어 방법을 나타낸 흐름도이다.
도 6은 본 발명의 일 구현예에 따른 구도의 자동보정 방법에서 관심영역 맵(Saliency Map)을 추출하는 일례를 나타낸 도면이다.
도 7 및 도 8은 LUV 색 공간으로 변환하여 평균 차(mean difference)를 통해 관심영역 맵(Saliency Map)을 도출한 결과를 나타낸 도면이다.
도 9는 본 발명의 일 구현예에서 상수 k값이 각각 2일 때에 따른 영상의 결과를 나타낸 것이다.
도 10은 본 발명의 일 구현예에서 상수 k값이 각각 5일 때에 따른 영상의 결과를 나타낸 것이다.
도 11은 본 발명의 일 구현예에서 색상 분할(Color Segmentation)을 수행한 결과를 관심영역 맵(Saliency Map)과 결합하여 최적의 ROI를 찾게 되는 결과를 나타낸 도면이다.
도 12는 본 발명의 일 구현에에 따라 시나리오를 적용한 일례를 나타낸 도면이다.
도 13 및 도 14는 상기의 실험예를 통해 구도가 자동 보정된 이미지를 나타낸 것이다.1A is a diagram showing an example of a Rule of Thirds.
1B is a diagram showing another example of a Rule of Thirds.
2A is a photograph showing the subject to be positioned in the center of the photograph.
FIG. 2B is a photograph in which a subject is repositioned through composition correction using a three-division method.
3A is a diagram showing an image before reconstruction by cropping.
FIG. 3B is a view showing reconstruction of FIG. 3A by cropping.
FIG. 4 is a diagram illustrating a process of finding a closest intersection point by finding a distance between an intersection of an important object and a grid in an embodiment of the present invention.
5 is a flowchart illustrating a method of controlling a camera capable of automatically correcting a composition according to an embodiment of the present invention.
FIG. 6 is a diagram illustrating an example of extracting a region map of interest (ROI) in the automatic correction method of a composition according to an embodiment of the present invention.
FIG. 7 and FIG. 8 are diagrams showing results of deriving a region of interest map (Saliency Map) through an LUV color space and a mean difference.
FIG. 9 shows the result of an image according to an embodiment of the present invention when the constants k are 2, respectively.
FIG. 10 shows the result of an image according to an embodiment of the present invention when the constants k are 5, respectively.
11 is a diagram illustrating a result of finding an optimal ROI by combining a result of performing color segmentation with a saliency map in an embodiment of the present invention.
12 is a diagram illustrating an example of applying a scenario according to an embodiment of the present invention.
FIGS. 13 and 14 illustrate an image of which the composition is automatically corrected through the above experimental example.
이하, 본 발명의 구현예를 상세히 설명하기로 한다. 다만, 이는 예시로서 제시되는 것으로, 이에 의해 본 발명이 제한되지는 않으며 본 발명은 후술할 청구항의 범주에 의해 정의될 뿐이다.Hereinafter, embodiments of the present invention will be described in detail. However, the present invention is not limited thereto, and the present invention is only defined by the scope of the following claims.
디지털 카메라 혹은 모바일 기기에 탑재되어 있는 카메라를 이용하여 찍은 사진을 보면 안정적이지 못한 경우가 대부분이다. 이는 사람의 눈으로 보는 피사체를 사진이라는 사각형 영역 안에 담는 과정에서 피사체의 위치를 안정적인 느낌이 들도록 구도를 보정하여 촬영을 해야 하지만, 비전문가가 이를 일일이 구도를 잡아서 촬영을 하는 일은 쉽지 않기 때문이다. Most of the photos taken using a digital camera or a camera mounted on a mobile device are not stable. This is because it is not easy for a non-specialist to take a picture of a subject by taking a picture of the subject in a rectangular area of a photograph, so that the position of the subject can be stabilized.
사진을 좀 더 전문가들과 비슷하게 찍기 위한 기법으로서, 3분할법(Rule of Thirds), 크로핑(Cropping), Viewpoint, Experimentation, Balancing Elements, Leading Lines, Symmetry and Patterns, Background, Depth, Framing 등과 같은 사진 구도법이 있다. 이러한 방법들은 사진을 구성할 때에 매우 중요하며, 사람의 눈을 통해 사진을 보는 과정에서 큰 영향력을 가지는 구성요소이다. It is a technique for taking photographs more similar to professionals, and it can be used to create photographic compositions such as Rule of Thirds, Cropping, Viewpoint, Experimentation, Balancing Elements, Leading Lines, Symmetry and Patterns, Background, Depth, There is law. These methods are very important when composing a picture, and they are components that have great influence in the process of viewing pictures through human eyes.
그러나, 사진을 촬영하는 순간에 디지털 카메라 또는 모바일 기기 등에서 이와 같은 요소들을 가미하여 이미지를 보정하기에는 연산능력과 메모리의 제한으로 인해 한계가 있다. However, there is a limitation in the ability to correct images by adding such factors in a digital camera or a mobile device at the moment of photographing due to limitations of computation ability and memory.
이에, 본 발명에서는 촬영을 통해 이미지를 획득한 다음, 전술한 사진 구도법 중, 3분할법(Rule of Thirds)과 크로핑(Cropping)을 이용하여 후처리로 영상을 처리함으로써 심미성을 높일 수 있도록 한다.Accordingly, in the present invention, an image is acquired through photographing, and the image is processed by post-processing using Rule of Thirds and Cropping in the above-described photographic composition method, thereby enhancing esthetics .
이하 3분할법(Rule of Thirds)과 크로핑(Cropping)에 관하여 간략히 설명하도록 한다.The Rule of Thirds and Cropping are briefly described below.
도 1a는 3분할법(Rule of Thirds)의 일례를 나타낸 도면이다. 도 1b는 3분할법(Rule of Thirds)의 다른 예를 나타낸 도면이다.1A is a diagram showing an example of a Rule of Thirds. 1B is a diagram showing another example of a Rule of Thirds.
도 1a 및 도 1b를 참조하면, 사진이 가로와 세로를 각각 3분할로 나누는 두 개의 수직선 및 수평선으로 나뉘어져 있어 피사체가 어디에 위치하고 있는지를 용이하게 파악할 수 있다. Referring to FIGS. 1A and 1B, a photograph is divided into two vertical lines and horizontal lines dividing horizontal and vertical portions into three divisions, respectively, so that it is easy to see where a subject is located.
특히, 도 1b에서는 두 개의 수직선 및 수평선이 교차되어 생기는 네 개의 교차점 중에서 피사체가 놓여야 할 교차점이 표시되었다. 이러한 구도의 사진은 보는 이로 하여금 집중력을 높일 수 있으며, 전체적인 구도에서 편안함을 줄 수 있다.Particularly, in FIG. 1B, the intersection point where the subject should be located is displayed among the four intersection points resulting from intersection of two vertical lines and a horizontal line. Photographs of this composition can increase the concentration of viewers and provide comfort in the overall composition.
도 2a는 피사체를 사진의 정중앙에 위치되도록 한 사진이다. 도 2b는 3분할법을 적용한 구도 보정을 통해 피사체를 재 위치시킨 사진이다. 2A is a photograph showing the subject to be positioned in the center of the photograph. FIG. 2B is a photograph in which a subject is repositioned through composition correction using a three-division method.
도 2a 및 도 2b를 참조하면, 촬영자가 강조하고자 하는 것이 피사체일 경우, 구도 보정을 통해 피사체를 재 위치시킨 도 2b의 사진에 시선이 더 머물게 된다.Referring to FIGS. 2A and 2B, when the subject to be emphasized by the photographer is a subject, the gaze is further observed in the photograph of FIG. 2B in which the subject is repositioned through composition correction.
전술한 3분할법(Rule of Third)과 함께 적용될 크로핑(Cropping)은 영상에서 관심이 높은 영역을 잘라서, 해당 영역으로 영상을 구성하도록 하는 전형적인 방법이다. 일반적으로 관심영역(Region Of Interest, ROI)에 대한 처리기법으로 널리 사용되어 왔다.Cropping to be applied together with the above-described Rule of Third is a typical method of cutting out a region of interest in an image and composing the image into the region. And has been widely used as a processing technique for a region of interest (ROI) in general.
도 3a와 도 3b에는 각각 크로핑(Cropping)에 의해 영상을 재구성하기 전과 후가 각각 나타나있다.3A and 3B show before and after reconstruction of an image by cropping, respectively.
전술된 바와 같이, 구도가 올바르지 못하면 이미지가 전체적으로 불안정한 느낌을 받는다. As described above, if the composition is not correct, the image has an overall unstable feel.
이에, 본 발명에서는 이미지 또는/및 영상을 3분할법(Rule of Thirds)과 크로핑(Cropping)을 이용하여 재구성함으로써 심미성을 높이는 것과 동시에 구도를 보다 안정적이고 세련되게 자동으로 보정할 수 있도록 안출되었다.Accordingly, in the present invention, the image or / and the image are reconstructed using Rule of Thirds and Cropping, thereby enhancing the esthetics and automatically correcting the composition more stably and sophisticatedly.
이하, 본 발명의 바람직한 구현예에 대하여 보다 상세하게 설명하도록 한다.Hereinafter, preferred embodiments of the present invention will be described in more detail.
본 발명의 일 구현예에서는, 피사체를 선정하는 단계, 선정된 피사체의 좌표를 설정하는 단계, 및 설정된 좌표를 이용하여 상기 피사체를 포함하는 관심영역(ROI, Region Of Interest)을 크로핑(cropping)하는 단계를 포함하는, 구도의 자동 보정이 가능한 카메라의 제어 방법을 제공한다.According to an embodiment of the present invention, there is provided an image processing method comprising the steps of: selecting a subject; setting coordinates of a predetermined subject; and cropping a region of interest (ROI) The method comprising the steps of: (a) controlling the camera to automatically correct the composition;
보다 상세하게, 먼저, 입력 영상의 가로와 세로를 각각 1/3의 비율로 나누어 격자를 구성하고, 중요 피사체를 선정하여, 가상의 선이 이루는 4개의 교차점으로 피사체를 이동하여 보정한다. More specifically, first, a grid is formed by dividing the width and height of the input image by 1/3, respectively, and an important subject is selected, and the subject is moved and corrected by the four intersections formed by the imaginary line.
이 때, 구성한 3분할 격자에서 해당 교차점으로 피사체를 이동시켜야 하는데, 인물사진을 예로 하면 상기 피사체에서의 중심은 사람의 얼굴이다. 이를 위해, 입력 영상에 대한 얼굴 인식(face detection) 과정을 거친 후, 얼굴의 좌표(x, y)를 추출한다. At this time, it is necessary to move the subject to the intersection from the three-segment grid constructed. In the case of a portrait photograph, the center of the subject is the face of a person. To do this, face detection is performed on the input image, and the coordinates (x, y) of the face are extracted.
피사체의 얼굴 좌표가 검출되면 앞에서 구한 4개의 교차점 중에 어떤 좌표가 가장 가까운지를 계산해야 한다. 이는 영상을 후술되는 크로핑(Cropping) 시, 최소한의 영역만을 크로핑하기 위함이다. When the face coordinates of the subject are detected, it is necessary to calculate which coordinates are closest among the four intersections obtained previously. This is for cropping only the minimum area when cropping the image, which will be described later.
도 4는 본 발명의 일 구현예에서 중요 피사체와 격자의 교차점 사이의 거리를 구하여 가장 가까운 교차점을 구하는 과정을 나타낸 도면이다.FIG. 4 is a diagram illustrating a process of finding a closest intersection point by finding a distance between an intersection of an important object and a grid in an embodiment of the present invention.
도 4를 참조하면, 중요 피사체인 얼굴 좌표가 4개의 격자 교차점 중에 우측 상단에 위치한 좌표와 가장 가깝게 나타나는 것을 알 수 있다. 얼굴 좌표와 교차점의 거리를 구하는 방법은 각 좌표의 유클리디언 거리(Euclidean Distance)를 계산함으로써 알아낼 수 있다.Referring to FIG. 4, it can be seen that the face coordinate, which is an important subject, is closest to the coordinate located at the right upper end among the four grid intersections. The method of finding the face coordinates and the distance of the intersection can be found by calculating the Euclidean distance of each coordinate.
얼굴 좌표와 이동해야 할 교차점이 결정되면 조건검사를 위해 각 축에 대한 변수를 지정해준다. 도 4에서, 영상의 가로를 width, 세로를 height라고 할 때, 피사체의 좌표로부터 긴 쪽을 x1, y1, 짧은 쪽을 x2, y2로 설정한다. When the face coordinates and the intersection to be moved are determined, the variables for each axis are specified for the condition check. In Fig. 4, when the width of a video image is height and the height is height, a long side is set as x1 and a long side is set as x1 and a short side is set as x2 and y2 from the coordinates of the subject.
또한, 크로핑(Cropping)하고자 하는 x축, y축을 구하기 위해 다음과 같은 조건을 만족하는 x1, x2, y1, y2를 구한다.In order to obtain the x-axis and y-axis to be cropped, x1, x2, y1, and y2 satisfying the following condition are obtained.
x1 + x2 ≥ width -----(1)x1 + x2? width ----- (1)
y1 + y2 ≥ height -----(2)y1 + y2? height ----- (2)
x1 = 2*x2 && y1 = 2*y2 -----(3)x1 = 2 * x2 && y1 = 2 * y2 ----- (3)
상기 (1), (2), (3)과 같은 조건을 만족하는 x1, x2, y1, y2를 구함으로써 피사체를 중심으로 얼마만큼의 영상 영역이 사용되었는지를 알 수 있다. X1, x2, y1, and y2 satisfying the conditions (1), (2), and (3) described above can be obtained to know how much image area is used centering on the subject.
입력 영상에 대한 얼굴 인식의 결과는 가중치로 사용되어 관심영역 맵(Saliency Map)을 구성하고, 색 분할(Color Segmentation)을 통해 영상 내에서 주요한 관심영역(ROI)을 찾는다.The result of face recognition on the input image is used as a weight to construct a saliency map, and a primary ROI is searched in the image through color segmentation.
그리고, 상기의 방법으로 찾아진 관심영역(ROI)는 본 발명의 시나리오(Scenario)를 적용시켜 각 시나리오에 맞도록 3분할법을 적용하여 크로핑(Cropping)됨으로써, 각 영상의 성격에 따라 각기 다른 구도 보정이 가능하며, 이를 통해 안정성을 극대화시킨 영상을 얻을 수 있다. The region of interest (ROI) found by the above method is cropped by applying the scenario of the present invention and applying the three-division method to each scenario, It is possible to obtain the image with maximized stability.
도 5는 본 발명의 일 구현예에 따른 구도의 자동 보정이 가능한 카메라의 제어 방법을 나타낸 흐름도이다.5 is a flowchart illustrating a method of controlling a camera capable of automatically correcting a composition according to an embodiment of the present invention.
도 5를 참조하면, 먼저, 관심영역 맵(Saliency Map)을 구성하는 방법은 영상을 관찰하는 관찰자가 관심을 가진 영역을 찾는 하향식 접근 방법과 영상에 대한 사전지식 없이 주어지는 시각자극의 특징을 기반으로 관심영역을 추출하는 상향식 접근 방법이 있다.Referring to FIG. 5, first, a method of constructing a saliency map is based on a top-down approach for finding an area of interest by an observer observing an image, and a visual stimulus given without prior knowledge of the image There is a bottom-up approach to extract regions of interest.
본 발명의 일 구현예에서는 색(Color), 휘도(Luminance), 움직임(Motion), 텍스쳐(Texture), 방향(Orientation) 등 영상에 영향을 주는 다양한 요소들을 사용하여 관심영역 맵(Saliency Map)을 도출한다. In one embodiment of the present invention, a saliency map is created using various factors that affect the image such as color, luminance, motion, texture, and orientation. .
여기에서, 본 발명의 일 구현예에서 관심영역 맵(Saliency Map)을 구하는 방법은 다음과 같이 세 단계로 나뉜다. Here, in one embodiment of the present invention, a method of obtaining a region map of interest (Saliency Map) is divided into three steps as follows.
먼저, 특징을 추출하여 낮은 레벨의 특징 맵(low-level Feature Map)을 하나 이상 구성한다. 다음 단계는 상기 특징 맵들로 부터 관심영역 맵(Saliency Map)을 구성한다. 마지막으로 상기 관심영역 맵(Saliency Map)의 핵심적인 영역이 관심영역으로 설정된다. First, one or more low-level feature maps are extracted by extracting features. The next step is to construct a Saliency Map from the feature maps. Finally, a core region of the Saliency Map is set as a region of interest.
보다 상세하게, 일례로, 퍼지 성장(fuzzy growing)에 기초한 방법을 일반화하여 관심영역 맵(Saliency Map)을 계산한다. 먼저, 입력된 영상에 대하여 색상 양자화(color quantization)를 수행하고, 특징 맵(Feature Map)을 생성하여 fuzzy growing을 적용한다. More specifically, for example, a method based on fuzzy growing is generalized to calculate a Saliency Map. First, color quantization is performed on an input image, and a feature map is generated to apply fuzzy growing.
다른 예로써, 특징(Feature), 카테고리(Category), 객체의 사전지식에 대해 독립적으로 수행된다. 입력 영상의 Log-Spectrum 분석에 의하여 스펙트럼 영역에서 영상의 스펙트럼 잔상(spectral residual)을 추출하여 공간 영역의 관심영역 맵(Saliency Map)과 대응함으로써 대조하는 방법이 있다. As another example, features, categories, and prior knowledge of objects are performed independently. There is a method of extracting the spectral residual of the image in the spectral region by log-spectrum analysis of the input image, and comparing the spectral residual with the saliency map of the spatial region.
대부분의 관심영역 맵(Saliency Map)을 구하는 방법들은 필터의 크기 변환에 의해서 원래의 입력 영상의 크기가 낮은 해상도를 가진다. 어떤 관심영역 맵들은 잘 추출이 되지 않는 결과가 나오며, 다른 관심영역 맵들은 좋은 경계를 가지나 일정한 결과를 얻을 수 없는 문제를 안고 있다. Most of the methods for obtaining the Saliency Map have a resolution of the original input image of a small size due to the size change of the filter. Some interest area maps are not well extracted, and other interest area maps have good boundaries but can not get a certain result.
따라서, 이러한 문제점을 해결하기 위해 다양한 특징 요소들에 대하여 다중 피라미드 영상을 구성하고, 영상의 상호간의 차이(Center Surround Difference)를 구하면 특징 값들이 나타내는 영상의 값을 확인할 수 있다. 이 값들은 영상에 존재하는 특징 요소에 따라 다양한 값으로 나타나므로, 하나의 값 만을 이용하기 보다는 다중으로 결합하여 최적의 관심영역 맵을 도출하여야 한다. Accordingly, in order to solve such a problem, it is possible to construct a multi-pyramid image for various feature elements and obtain a center sur- round difference between the images. Since these values are represented by various values according to the feature elements existing in the image, an optimal ROI map should be derived by combining multiple values rather than using only one value.
도 6은 본 발명의 일 구현예에 따른 구도의 자동보정 방법에서 관심영역 맵(Saliency Map)을 추출하는 일례를 나타낸 도면이다.FIG. 6 is a diagram illustrating an example of extracting a region map of interest (ROI) in the automatic correction method of a composition according to an embodiment of the present invention.
본 발명에서는 복합적인 특징 요소를 사용하여 각각의 특징을 반영한 맵을 생성하며, 구도의 자동보정 알고리즘에 가장 적절한 관심영역 맵(Saliency Map)을 이끌어낸다. In the present invention, a map reflecting each characteristic is generated by using a complex feature element, and a saliency map which is most suitable for the automatic correction algorithm of the composition is derived.
이를 테면, 사람의 시각에 가장 영향을 주는 요소인 밝기 값은 관심영역 맵(Saliency Map)을 구성하는데 주요기준이 되므로, 아래의 식 (4)에 의하여 명암도 영상을 만들고 색상 특징 맵(Feature Map)으로 사용한다.For example, the brightness value, which is the most influential factor in human vision, is the main criterion for constructing the saliency map. Therefore, the intensity map is created according to the following equation (4) .
I = (r+g+b)/3 ----- (4)I = (r + g + b) / 3 ----- (4)
색상정보를 뇌로 전달해 주는 인간의 신경회로는 3가지 추상체들에 의한 정보를 '적/녹', '황/청'의 반대 쌍의 색상정보로 바꾸어 전달한다. 입력영상에서 색상 특징 맵(Feature Map)을 얻기 위해 RGB 컬러 모델의 적색, 녹색, 청색을 r, g, b라고 할 때 아래의 식 (5)에 의해 4개의 색상 채널을 만든다.The human neural circuit that transmits color information to the brain converts the information by the three cones into the color information of the opposite pair of 'red / green' and 'yellow / blue'. In order to obtain a feature map from the input image, let r, g, and b be the red, green, and blue colors of the RGB color model.
R = r-(g+b)/2, G = g-(r+b)/2,R = r- (g + b) / 2, G = g- (r + b) / 2,
B = b-(r+g)/2, Y = r+g-2(|r-g|+2) ----- (5)(5): B = b- (r + g) / 2, Y = r + g-
R은 적색 채널, G는 녹색 채널, B는 청색 채널, Y는 황색 채널을 나타낸다. 본 발명에서는 상기 4개의 채널을 사용하여 두 개의 색상 Feature Map을 아래의 식 (6)을 통해 만든다.R denotes a red channel, G denotes a green channel, B denotes a blue channel, and Y denotes an yellow channel. In the present invention, the two color feature maps are created using the four channels by the following equation (6).
RG(x,y) = R(x,y)-G(x,y),RG (x, y) = R (x, y) -G (x, y)
BY(x,y) = B(x,y)-Y(x,y) ----- (6)BY (x, y) = B (x, y) -Y (x, y)
여기에서, RG와 BY는 '적/녹', '황/청'의 반대 쌍의 색상 정보를 의미한다. 각각의 Feature Map은 주변으로부터 가장 두드러지게 드러나는 부분이 강조되는 특징을 가지게 되는 현격함 맵(Conspicuity Map)으로 변환된다. 아래의 식(7)은 conspicuity map을 얻기 위한 가우시안 피라미드(Gaussian Pyramid)를 수행하는 과정을 보여준다.Here, RG and BY are color information of the opposite pair of 'red / green' and 'yellow / blue'. Each Feature Map is transformed into a Conspicuity Map, which has a feature that emphasizes the most prominent part from the periphery. The following equation (7) shows the process of performing the Gaussian pyramid to obtain the conspicuity map.
Pj(0) = Fj,P j (0) = F j ,
Pj(i) = Fj(i-1)×G ----- (7)P j (i) = F j (i-1) x G ---- - (7)
상기에서, 각각의 특징을 F라 하면, 9개의 크기 가우시안 피라미드 P는 특징 맵(Feature Map) F에 Gaussian Filter G를 사용하여 점진적으로 이단 추출(subsampling)하고, 저주파 필터링(low pass filtering)하여 얻을 수 있다. In the above description, if each feature is represented by F, the nine-dimensional Gaussian pyramid P is obtained by gradually subdividing the feature map F by a Gaussian filter G and performing low-pass filtering .
각각의 특징 P에 대해서는, 6개의 중간 다중 크기 현격함 맵(Conspicuity Map)들을 아래의 식 (8)에 의해서 구한다.For each feature P, six intermediate multi-size magnitude map (Conspicuity Maps) are obtained by the following equation (8).
M,1 = |P(2)-P(5)|, M,2 = |P(2)-P(5)|, M, 1 = | P (2 ) -P (5) |, M, 2 = | P (2) -P (5) |,
M,3 = |P(3)-P(6)|, M,4 = |P(3)-P(7)|,M , 3 = | P (3) -P (6) |, M , 4 =
M,5 = |P(4)-P(7)|, M,6 = |P(4)-P(8)| ----- (8)M , 5 = | P (4) -P (7) |, M , 6 = | P (4) ----- (8)
6개의 중간 다중 크기 Conspicuity Map들은 정규화된 합을 통해 하나의 Conspicuity Map을 아래의 식 (9)으로 얻는다.Six Convergence Mismatch Conspicuity Maps are obtained by normalizing the sum of one Conspicuity Map using the following equation (9).
----- (9) ----- (9)
시각적 주의 모델은 각각의 Conspicuity Map에 대한 가중치를 결정하고 조합하여 관심영역 맵(Saliency Map)을 구성한다. The visual attention model constructs a saliency map by determining and combining weights for each Conspicuity Map.
-----(10) ----- (10)
여기에서, n은 conspicuity map의 수이다. Where n is the number of conspicuity maps.
본 발명에서는 관심영역 맵(Saliency Map)을 구성하기 위해 사용되는 Conspicuity Map의 중요성에 따라 동적 가중치인 W를 동적으로 결정할 수 있다. In the present invention, the dynamic weighting value W can be determined dynamically according to the importance of the Conspicuity Map used to construct the saliency map.
도 7 및 도 8은 LUV 색 공간으로 변환하여 평균 차(mean difference)를 통해 관심영역 맵(Saliency Map)을 도출한 결과를 나타낸 도면이다.FIG. 7 and FIG. 8 are diagrams showing results of deriving a region of interest map (Saliency Map) through an LUV color space and a mean difference.
도 7 및 도 8을 참조하면, 배경과 객체가 뚜렷한 색상의 차이를 보일 때에 성능이 우수하다.Referring to FIGS. 7 and 8, when the background and the object show distinct colors, the performance is excellent.
전술된 바와 같이, 사진영상에서 나타나는 관심영역 중에 가장 중요한 관심영역은 바로 사람의 얼굴이다. 따라서 사람의 얼굴은 무엇보다도 관심영역들 중에서 높은 값을 가져야 한다. As described above, the most important region of interest in the photographic image is the human face. Therefore, the human face must have a high value among the areas of interest above all.
이에, 별도로 얼굴 인식(face detection)을 수행하여 사람의 얼굴 영역을 검출한다. 이미지에서 사람의 피부색을 검출하는 기술은 얼굴 영역 검출하는 기법에 있어서 매우 중요하고 유용한 방법이다. Accordingly, face detection is separately performed to detect a face region of a person. The technique of detecting a person's skin color in an image is a very important and useful method for detecting a face region.
이러한 피부색을 추출하기 위해 입력 영상이 RGB 방식일 경우, YCbCr 색상 모델로 변환하여 사용한다. RGB 색상 모델의 경우 빛 상태가 변함에 따라 피부색을 검출하는 과정에서 오류가 발생할 확률이 높기 때문이다. RGB 색상 모델은 아래의 식 (11)을 통해 YCbCr 방식으로 변환시킬 수 있다.In order to extract such skin color, when the input image is an RGB method, it is converted into a YCbCr color model and used. In the case of the RGB color model, there is a high probability that an error occurs in the process of detecting the skin color as the light state changes. The RGB color model can be converted to the YCbCr method through the following equation (11).
Y = 0.299R+0.587G+0.114B, Y = 0.299R + 0.587G + 0.114B,
Cb = -0.169R-0.332G+0.5B,Cb = -0.169R-0.332G + 0.5B,
Cr = 0.5R-0.419G-0.081B ----- (11)Cr = 0.5R-0.419G-0.081B (11)
검출된 피부색 픽셀의 분산형태와 Cb, Cr의 히스토그램의 분산형태를 도 8에 나타내었다.FIG. 8 shows the scattering form of the detected skin color pixels and the histogram of Cb and Cr.
얼굴영역을 검출하여 색상 분할(Color Segmentation)을 통해 결과 이미지를 얻어내고, 이렇게 얻은 결과 이미지의 작은 영역들을 제거하여 만들어진 이진 영상을 에지 검출 기술을 이용하여 기존에 얻은 이미지와 통합하는 과정을 거치면 에지 영역에 속하지 않은 작은 영역을 제거할 수 있다. After the facial region is detected and the resultant image is obtained through color segmentation, and the resultant binary image is removed by removing the small regions of the resulting image, the process of integrating the generated binary image with the previously obtained image using the edge detection technology, A small area not belonging to the area can be removed.
작은 영역의 부분을 제거한 결과 이미지를 이용하여 피부색으로 판단되는 위치의 좌표를 선택하고 색상 기반의 분할(Color-based Segmentation) 기법을 이용하여 직사각형의 형태의 영역을 지정한다. 이 때, 각 선택영역은 고유의 윈도우 크기를 가진다.After removing the small area, the coordinates of the location determined by skin color are selected using the image, and the area of the rectangle shape is designated using a color-based segmentation technique. At this time, each selection region has a unique window size.
피부색으로 검출된 영역 중 얼굴아래에 위치한 목이나 팔, 손과 같은 영역의 경우 병합 알고리즘(Merge Algorithm)을 이용하여 인접한 박스 영역의 경우 큰 박스 영역으로 병합하는 과정을 거친다. 이렇게 해서 검출된 얼굴 영역에서 이미지 매칭 알고리즘(Image Matching Algorithm)을 적용하여 각 영역에 순위를 부여하고, 거리와 윈도우 크기를 감안하여 순위 값이 다른 영역의 순위에 비해 유사성이 떨어지는 영역을 제거하여 결과적으로 얼굴영역을 검출할 수 있다. In the case of areas such as the neck, arms, and hands located below the face detected by the skin color, the merge algorithm is used to merge the adjacent box areas into a large box area. The image matching algorithm (Image Matching Algorithm) is applied to the detected face regions, and the regions are ranked in order, and the region having the similarity is compared with the ranking of the regions having different ranking values in consideration of the distance and the window size, The face area can be detected.
그러나, 관심영역 맵(Saliency Map)을 이용하여 영상에서 관심영역을 찾고, 일정 영역 크기의 블록에 대해 극대값(local maximum)을 찾았지만, 실제적으로 관심영역이 얼마나 되는지를 판단할 기준이 없다. However, we found a local maximum in a block of a certain size area, but there is no criterion to judge the extent of the ROI actually.
따라서, 올바른 관심영역(ROI)를 설정하기 위해서는 Saliency Map에서 ROI를 도출하는 방법이 필요하다. 본 발명에서는 색상 분할(Color Segmentation) 기법을 사용하여 두 가지의 결과를 융합하여 ROI를 검출하도록 한다. Therefore, in order to set the correct ROI, it is necessary to derive the ROI from the Saliency Map. In the present invention, the ROI is detected by fusing two results using a color segmentation technique.
색상 분할(Color Segmentation)은 색상 간의 밀집도와 집합도 정도를 이용하여 유사한 색상들을 하나의 그룹으로 모아주어 영상의 영역을 분할하는 방법이다. 본 발명의 일 구현예에서는 K-Means Clustering Algorithm을 적용하였다.Color segmentation is a method of dividing a region of an image by grouping similar colors into a group using density and degree of aggregation between colors. In one embodiment of the present invention, the K-Means Clustering Algorithm is applied.
여기에서, K-Means Clustering Algorithm이란, 거리에 기반하여 n개의 객체들의 집합을 k개의 군집으로 분해하는 Clustering 기법으로서, 알고리즘의 수행과정은 아래와 같다. Here, the K-Means Clustering Algorithm is a clustering method that divides a set of n objects into k clusters based on distance, and the algorithm is executed as follows.
먼저, 임의의 k개의 군집수를 결정하고, 각 군집에 초기치 또는 군집 중심을 1개씩 할당하여 위치를 설정한다. 그리고, 각각의 데이터에 대해 k개의 위치까지의 거리를 구하고, 가장 가까운 군집에 소속시킨다. 여기에서, 거리는 전술한 유클리드 거리를 이용하여 구할 수 있다.First, the number of arbitrary k clusters is determined, and an initial value or a cluster center is assigned to each cluster to set a position. Then, the distance to k positions is obtained for each data, and belongs to the closest cluster. Here, the distance can be obtained by using the Euclidean distance described above.
군집으로 나누어진 데이터를 기준으로 새로운 군집 중앙의 위치를 최솟값을 갖도록 재설정한다. 그리고, 새롭게 구한 군집 중앙의 위치가 기존과 동일하면 알고리즘을 종료하고 다르면, 상기 각각의 데이터에 대해 k개의 위치까지의 거리를 구하고, 가장 가까운 군집에 소속시키는 과정부터 재 수행한다.Reset the location of the center of the new cluster to the minimum based on the data divided into clusters. If the position of the center of the newly obtained cluster is the same as that of the existing cluster, the algorithm is terminated. Otherwise, the distance to k positions is obtained for each of the data, and the cluster is reattached to the closest cluster.
이러한 알고리즘에 의한 영상은 cluster 개수 값인 k에 의해 결과가 상이하게 나타날 수 있다. 즉, 자동 구도 보정에서 사용하기 위해서 적절한 상수의 값을 선택하여야 하며, 관심영역 맵(Saliency Map)과 결합하여 최적의 ROI를 도출할 수 있는 값을 이끌어내야 한다. The image by this algorithm can show different results depending on the cluster number value k. That is, a suitable constant value should be selected for use in the automatic composition correction, and it is necessary to combine with a saliency map to derive an optimal ROI value.
도 9 및 도 10은 본 발명의 일 구현예에서 상수 k값이 각각 2와 5일 때에 따른 영상의 결과를 나타낸 것이다.FIGS. 9 and 10 show the result of an image according to an embodiment of the present invention when the constants k are 2 and 5, respectively.
도 9 및 도 10을 참조하면, Cluster의 개수가 2개일 때 이미지의 에지를 구별할 수 있도록 확연하게 식별할 수 있었기 때문에, 본 발명에서는 자동 구도보정에 사용하기 위한 적절한 값으로 k=2로 설정하여 수행하도록 한다. 9 and 10, since the edge of the image can be clearly distinguished when the number of clusters is two, in the present invention, k = 2 is set to an appropriate value for use in automatic composition correction .
그리고, 색상 분할(Color Segmentation)을 수행한 결과를 관심영역 맵(Saliency Map)과 결합하여 최적의 ROI를 찾게 되는 결과를 도 11에 나타내었다.FIG. 11 shows a result of finding an optimal ROI by combining the result of performing color segmentation with a saliency map.
영상에서 ROI를 구한 결과를 이용하여 3분할법(rule of Thirds)의 기준에 적합하도록 크로핑(Cropping) 과정을 거치게 된다. The result of the ROI obtained from the image is subjected to a cropping process so as to conform to the rule of the Thirds standard.
이 때, 단순히 ROI의 위치에 가장 가까운 교차점 만을 찾아서 크로핑 하였을 경우, 의도하지 않았던 구도의 영상을 얻는 경우가 있다. 따라서, 영상이 본질적으로 가지는 요소들을 최대한 보존하기 위해 각 영상의 특성에 맞는 시나리오를 적용하여 크로핑을 진행하여야 한다. In this case, if only the intersection closest to the position of the ROI is searched and cropped, the image of the unintended composition may be obtained. Therefore, in order to preserve the elements inherent in the image, it is necessary to perform cropping by applying a scenario suitable for each image characteristic.
또한, ROI에 대해 영상의 가로와 세로의 비율을 측정하여 영상이 가질 수 있는 안정성과 심미성을 최대한 고려하여 3분할법(Rule of Thirds)을 적용한다. In addition, we measure the ratio of the horizontal and vertical of the image to the ROI, and apply the Rule of Thirds method to maximize the stability and aesthetics of the image.
그러나, 영상은 객체의 종류, ROI의 크기, 사람의 얼굴 인식 영역 등 다양한 요소에 의존적이다. 이에, 다양한 영상의 적절한 구성을 갖는 결과영상을 가져오기 위하여 여러 가지 시나리오를 작성한다. However, image depends on various factors such as object type, ROI size, and human face recognition area. Therefore, various scenarios are created to bring out the resultant image with proper configuration of various images.
일례로, 얼굴 인식의 경우 3분할법에 맞게 크로핑하되, 신체 영역을 보호하여 사진의 안정성을 높이는 방법을 사용한다. For example, in the case of face recognition, cropping is performed according to the three-division method, but the method of enhancing the stability of the image by protecting the body region is used.
영상 내에서 주요하게 작용하는 지평선과 같은 선분을 검출하였을 경우 선분을 3분할법으로 분할된 선분에 위치시킴으로써 영상이 가지는 심미성과 안정성을 극대화 한다. 이 방법의 경우, 영상 내에 주요하게 나타내는 선분을 찾아 영상을 최대한 보존하면서 보정하는 과정을 적용하여야 한다. If a line segment such as a horizon is detected in the image, it is maximized by placing the segment on the segment line segmented by the triple method. In this method, it is necessary to search for a line segment that is mainly represented in the image and apply a correction process while preserving the image as much as possible.
도 12는 본 발명의 일 구현에에 따라 시나리오를 적용한 일례를 나타낸 도면이다.12 is a diagram illustrating an example of applying a scenario according to an embodiment of the present invention.
도 12에는, 수평선의 선분을 검출하여 입력된 이미지와 시나리오를 적용시킨 결과 이미지가 나타나있다.12 shows a resultant image in which a line segment of a horizontal line is detected and an input image and a scenario are applied.
전술한 바와 같이, 입력된 이미지가 사람인 경우, 사람의 얼굴이 가장 중요한 ROI이지만 사람의 얼굴이 영상의 전반적인 영역을 차지하고 있을 경우에는 영상을 ROI에만 맞춰서 크로핑하게 되면 부자연스러운 영상 결과를 얻을 수 있다.As described above, when the input image is a person, if the face of the person is the most important ROI but the face of the person occupies the entire area of the image, an unnatural image result can be obtained if the image is cropped only in accordance with the ROI .
따라서, 이와 같은 경우에는 영상을 그대로 유지하는 방법을 사용하여 영상의 안정성을 도모할 수도 있다.
Therefore, in such a case, the method of maintaining the image as it is may be used to improve the stability of the image.
실험예Experimental Example
본 발명에서 제안하는 자동 구도보정의 평가를 위하여 다수의 영상에 제안하는 기법을 적용하여 실험결과를 도출하였다. Experimental results are derived by applying the proposed method to multiple images for the evaluation of the automatic composition correction proposed in the present invention.
실험 방법으로는 색상 분할(Color Segmentation)과 관심영역 맵(Saliency Map)을 사용하여 입력된 이미지에 극대값을 갖는 관심영역을 도출한 후, 구도 보정을 수행하였다. As an experimental method, a color space segmentation and a saliency map were used to derive a region of interest having a maximum value in the input image, and then the composition correction was performed.
영상 내에서 관심영역은 황금분할을 구성하는 4개의 교차점에 놓일 수 있으며, 거리를 측정하는 연산을 통해 가장 가까운 곳의 황금분할 교차점에 관심영역이 위치하도록 하여 자동 구도 보정된 영상을 도출하였다. In the image, the region of interest can be located at four intersections constituting the golden partition, and the image is corrected by arranging the region of interest in the nearest golden partitioning intersection through the distance measuring operation.
도 13 및 도 14는 상기의 실험예를 통해 구도가 자동 보정된 이미지를 나타낸 것이다.FIGS. 13 and 14 illustrate an image of which the composition is automatically corrected through the above experimental example.
도 13 및 도 14를 참조하면, 입력된 이미지에서 피사체가 가지는 구도보다 실험결과에 의해 구도가 자동 보정된 영상에서의 피사체 구도가 시각적으로 안정적인 것을 알 수 있다.13 and 14, it can be seen that the subject composition in the image in which the composition is automatically corrected by the experimental result is visually more stable than the composition of the subject in the input image.
본 발명은 상기 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 제조될 수 있으며, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자는 본 발명의 기술적 사상이나 필수적인 특징을 변경하지 않고서 다른 구체적인 형태로 실시될 수 있다는 것을 이해할 수 있을 것이다. 그러므로 이상에서 기술한 실시예들은 모든 면에서 예시적인 것이며 한정적이 아닌 것으로 이해해야만 한다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the present invention as defined by the following claims. As will be understood by those skilled in the art. It is therefore to be understood that the above-described embodiments are illustrative in all aspects and not restrictive.
Claims (8)
상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계;
상기 입력된 이미지의 가로와 세로를 각각 3분할한 격자를 구성하고, 상기 이미지 내에서 중요 피사체를 선정하여, 상기 격자의 교차점에 위치시키는 단계;
선정된 피사체의 좌표를 설정하는 단계; 및
설정된 좌표를 이용하여 상기 추출된 관심영역을 크로핑(cropping)하는 단계;를 포함하되,
상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계는,
상기 입력된 이미지에서 특징을 추출하여 낮은 레벨의 특징 맵(low-level Feature Map)을 하나 이상 생성하는 단계;
상기 하나 이상의 특징 맵들로부터 관심영역 맵(Saliency Map)을 생성하는 단계; 및
상기 관심영역 맵(Saliency Map)으로부터 제1관심영역을 추출하는 단계;를 포함하는 것을 특징으로 하는 구도의 자동보정 방법.An input step of inputting an image;
Extracting a region of interest (ROI) from the input image;
Forming a grid in which the width and height of the input image are divided into three, respectively, selecting an important subject in the image and placing the selected object at an intersection of the grid;
Setting coordinates of the selected subject; And
And cropping the extracted region of interest using the set coordinates,
The step of extracting a region of interest (ROI) from the input image may include:
Extracting a feature from the input image to generate at least one low-level Feature Map;
Generating a Saliency Map from the one or more feature maps; And
And extracting a first region of interest from the Saliency Map. ≪ Desc / Clms Page number 19 >
상기 특징 맵의 특징 요소는 색상, 밝기 및 방향 중 적어도 하나인 것을 특징으로 하는 구도의 자동보정 방법.The method according to claim 1,
Wherein the characteristic elements of the feature map are at least one of color, brightness, and direction.
상기 입력된 이미지로부터 관심영역(ROI, Region Of Interest)을 추출하는 단계는,
상기 입력된 이미지로부터 상기 제1관심영역을 검출하고, 색상 분할(Color Segmentation) 기법을 이용하여 결과 이미지를 생성하는 단계;
상기 결과 이미지를 이진 영상으로 변환하는 단계; 및
상기 이진 영상을 에지 검출 기술을 이용하여 상기 입력된 이미지와 통합하고, 유사도가 낮은 영역을 제거함으로써 제2관심영역을 추출하는 단계;를 더 포함하는 것을 특징으로 하는 구도의 자동보정 방법.The method of claim 3,
The step of extracting a region of interest (ROI) from the input image may include:
Detecting the first region of interest from the input image, and generating a resultant image using a color segmentation technique;
Converting the resultant image into a binary image; And
Integrating the binary image with the input image using an edge detection technique, and extracting a second region of interest by removing a region having a low degree of similarity.
상기 색상 분할(Color Segmentation) 기법은 색상 간의 밀집도 및 집합도를 이용하여 유사한 색상들을 단일 그룹으로 모아줌으로써 영상의 영역을 분할하는 것인 것을 특징으로 하는 구도의 자동보정 방법.The method of claim 4,
Wherein the color segmentation technique divides a region of an image by grouping similar colors into a single group using density and degree of aggregation between colors.
상기 크로핑은 상기 입력된 이미지의 종류에 부합하는 시나리오를 적용하여 수행하는 것을 특징으로 하는 구도의 자동보정 방법.The method according to claim 1,
Wherein the cropping is performed by applying a scenario corresponding to the type of the input image.
상기 입력된 이미지의 종류가 사람인 경우, 신체 영역을 포함하도록 시나리오를 적용하는 것을 특징으로 하는 구도의 자동보정 방법.The method of claim 6,
And if the type of the input image is a person, a scenario is applied so as to include a body region.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140011117A KR101513931B1 (en) | 2014-01-29 | 2014-01-29 | Auto-correction method of composition and image apparatus with the same technique |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140011117A KR101513931B1 (en) | 2014-01-29 | 2014-01-29 | Auto-correction method of composition and image apparatus with the same technique |
Publications (1)
Publication Number | Publication Date |
---|---|
KR101513931B1 true KR101513931B1 (en) | 2015-04-21 |
Family
ID=53053739
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140011117A KR101513931B1 (en) | 2014-01-29 | 2014-01-29 | Auto-correction method of composition and image apparatus with the same technique |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101513931B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019221551A1 (en) * | 2018-05-18 | 2019-11-21 | 오드컨셉 주식회사 | Method, apparatus, and computer program for extracting representative characteristics of object in image |
WO2020116789A1 (en) * | 2018-12-07 | 2020-06-11 | 삼성전자 주식회사 | Method for processing image, and electronic device therefor |
US11741617B2 (en) | 2021-05-26 | 2023-08-29 | Samsung Electronics Co., Ltd. | Method and apparatus with object tracking |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100926133B1 (en) * | 2007-12-15 | 2009-11-11 | 한국전자통신연구원 | Method and apparatus for producing and taking digital contents |
KR20110004083A (en) * | 2009-07-07 | 2011-01-13 | 삼성전자주식회사 | Apparatus and method for processing digital image |
KR20110089655A (en) * | 2010-02-01 | 2011-08-09 | 삼성전자주식회사 | Apparatus and method for capturing digital image for guiding photo composition |
JP2012073422A (en) * | 2010-09-29 | 2012-04-12 | Casio Comput Co Ltd | Image display device and program |
-
2014
- 2014-01-29 KR KR1020140011117A patent/KR101513931B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100926133B1 (en) * | 2007-12-15 | 2009-11-11 | 한국전자통신연구원 | Method and apparatus for producing and taking digital contents |
KR20110004083A (en) * | 2009-07-07 | 2011-01-13 | 삼성전자주식회사 | Apparatus and method for processing digital image |
KR20110089655A (en) * | 2010-02-01 | 2011-08-09 | 삼성전자주식회사 | Apparatus and method for capturing digital image for guiding photo composition |
JP2012073422A (en) * | 2010-09-29 | 2012-04-12 | Casio Comput Co Ltd | Image display device and program |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019221551A1 (en) * | 2018-05-18 | 2019-11-21 | 오드컨셉 주식회사 | Method, apparatus, and computer program for extracting representative characteristics of object in image |
KR20190134933A (en) * | 2018-05-18 | 2019-12-05 | 오드컨셉 주식회사 | Method, apparatus and computer program for extracting representative feature of object in image |
KR102102161B1 (en) * | 2018-05-18 | 2020-04-20 | 오드컨셉 주식회사 | Method, apparatus and computer program for extracting representative feature of object in image |
WO2020116789A1 (en) * | 2018-12-07 | 2020-06-11 | 삼성전자 주식회사 | Method for processing image, and electronic device therefor |
US11741617B2 (en) | 2021-05-26 | 2023-08-29 | Samsung Electronics Co., Ltd. | Method and apparatus with object tracking |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11455516B2 (en) | Image lighting methods and apparatuses, electronic devices, and storage media | |
CN111445564B (en) | Face texture image generation method, device, computer equipment and storage medium | |
CN105825494B (en) | A kind of image processing method and mobile terminal | |
CN103914699B (en) | A kind of method of the image enhaucament of the automatic lip gloss based on color space | |
CN108537782B (en) | Building image matching and fusing method based on contour extraction | |
US9691136B2 (en) | Eye beautification under inaccurate localization | |
EP1810245B1 (en) | Detecting irises and pupils in human images | |
CN104811684B (en) | A kind of three-dimensional U.S. face method and device of image | |
US10839496B2 (en) | Multiple exposure method, terminal, system, and computer readable storage medium | |
US20130170755A1 (en) | Smile detection systems and methods | |
JP4519681B2 (en) | Method and apparatus for creating human lip area mask data | |
DE112008003959T5 (en) | Perceptual segmentation of images | |
CA2424963A1 (en) | Method and system for enhancing portrait images | |
WO2023273111A1 (en) | Image processing method and apparatus, and computer device and storage medium | |
CN109919030A (en) | Black eye kind identification method, device, computer equipment and storage medium | |
CN106875371A (en) | Image interfusion method and image fusion device based on Bayer format | |
KR101744141B1 (en) | Method for reconstructing a photograph by object retargeting and the apparatus thereof | |
KR101513931B1 (en) | Auto-correction method of composition and image apparatus with the same technique | |
CN111275804B (en) | Image illumination removing method and device, storage medium and computer equipment | |
CN115239885A (en) | Face reconstruction method and device based on key point recognition | |
JP2004240622A (en) | Image processing method, image processor and image processing program | |
KR101315464B1 (en) | Image processing method | |
CN110730303A (en) | Image hair dyeing processing method, device, terminal and storage medium | |
CN108305235B (en) | Method and device for fusing multiple pictures | |
CN113781330B (en) | Image processing method, device and electronic system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180410 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190321 Year of fee payment: 5 |