Nothing Special   »   [go: up one dir, main page]

KR102498870B1 - Camera system and method for processing image thereof - Google Patents

Camera system and method for processing image thereof Download PDF

Info

Publication number
KR102498870B1
KR102498870B1 KR1020180041246A KR20180041246A KR102498870B1 KR 102498870 B1 KR102498870 B1 KR 102498870B1 KR 1020180041246 A KR1020180041246 A KR 1020180041246A KR 20180041246 A KR20180041246 A KR 20180041246A KR 102498870 B1 KR102498870 B1 KR 102498870B1
Authority
KR
South Korea
Prior art keywords
image
dewarping
event
algorithm
fisheye
Prior art date
Application number
KR1020180041246A
Other languages
Korean (ko)
Other versions
KR20190118076A (en
Inventor
정경전
김대환
Original Assignee
한화테크윈 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한화테크윈 주식회사 filed Critical 한화테크윈 주식회사
Priority to KR1020180041246A priority Critical patent/KR102498870B1/en
Publication of KR20190118076A publication Critical patent/KR20190118076A/en
Application granted granted Critical
Publication of KR102498870B1 publication Critical patent/KR102498870B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • G06T3/0093
    • G06T3/0018
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • G06T3/047Fisheye or wide-angle transformations

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

본 발명의 실시예는 카메라 시스템 및 그의 영상처리방법을 개시한다.
본 발명의 일 실시예에 따른 카메라 시스템의 영상처리방법은, 어안 영상으로부터 디워핑 영상을 생성하는 영상처리 요청을 포함하는 이벤트를 수신하는 단계; 및 상기 이벤트의 수신에 응답하여 제1 디워핑 알고리즘 또는 상기 제1 디워핑 알고리즘과 상이한 제2 디워핑 알고리즘을 상기 어안 영상에 적용함으로써 상기 디워핑 영상을 생성하는 단계;를 포함한다.
An embodiment of the present invention discloses a camera system and an image processing method thereof.
An image processing method of a camera system according to an embodiment of the present invention includes receiving an event including an image processing request for generating a dewarped image from a fisheye image; and generating the dewarped image by applying a first dewarping algorithm or a second dewarping algorithm different from the first dewarping algorithm to the fisheye image in response to receiving the event.

Description

카메라 시스템 및 그의 영상처리방법{CAMERA SYSTEM AND METHOD FOR PROCESSING IMAGE THEREOF}Camera system and its image processing method {CAMERA SYSTEM AND METHOD FOR PROCESSING IMAGE THEREOF}

본 발명의 실시예는 카메라 시스템 및 그의 영상처리방법으로서, 구체적으로 어안 영상을 획득하는 카메라 시스템 및 그의 영상처리방법에 관한 것이다. Embodiments of the present invention relate to a camera system and an image processing method thereof, and specifically, to a camera system for acquiring a fisheye image and an image processing method thereof.

오늘날 복수의 감시카메라가 도처에 설치되어 있고, 감시카메라가 획득한 영상을 녹화, 저장, 전송하는 기술들이 개발되고 있다. 특히 감시카메라의 설치 대수가 증가함에 따라, 복수의 감시카메라를 포함하는 시스템에 갈음하여 하나의 어안 카메라로 복수의 뷰(View)를 제공하는 시스템을 설치하는 빈도가 증가하고 있다.Today, a plurality of surveillance cameras are installed everywhere, and technologies for recording, storing, and transmitting images acquired by the surveillance cameras are being developed. In particular, as the number of installed surveillance cameras increases, the frequency of installing a system providing a plurality of views with a single fisheye camera is increasing instead of a system including a plurality of surveillance cameras.

본 발명의 실시예들은 어안 영상의 왜곡을 보정한 디워핑된 영상을 상황에 따라 적응적으로 제공할 수 있는 카메라 시스템 및 그의 영상처리방법을 제공하고자 한다.Embodiments of the present invention are intended to provide a camera system capable of adaptively providing a dewarped image obtained by correcting distortion of a fisheye image according to circumstances and an image processing method thereof.

본 발명의 일 실시예에 따른 카메라 시스템의 영상처리방법은, 어안 영상으로부터 디워핑 영상을 생성하는 영상처리 요청을 포함하는 이벤트를 수신하는 단계; 및 상기 이벤트의 수신에 응답하여 제1 디워핑 알고리즘 또는 상기 제1 디워핑 알고리즘과 상이한 제2 디워핑 알고리즘을 상기 어안 영상에 적용함으로써 상기 디워핑 영상을 생성하는 단계;를 포함한다. An image processing method of a camera system according to an embodiment of the present invention includes receiving an event including an image processing request for generating a dewarped image from a fisheye image; and generating the dewarped image by applying a first dewarping algorithm or a second dewarping algorithm different from the first dewarping algorithm to the fisheye image in response to receiving the event.

상기 제1 디워핑 알고리즘을 적용한 디워핑 영상 생성 단계는, 픽셀 단위로, 3차원 공간에서 상기 디워핑 영상의 픽셀에 대응하는 상기 어안 영상의 픽셀의 2차원 좌표를 획득하는 단계; 및 상기 어안 영상의 픽셀의 픽셀 값에 대응하여 상기 디워핑 영상의 픽셀의 픽셀 값을 산출하는 단계;를 포함할 수 있다. The generating of the dewarping image by applying the first dewarping algorithm may include: obtaining 2D coordinates of pixels of the fisheye image corresponding to pixels of the dewarped image in a 3D space in a pixel unit; and calculating pixel values of pixels of the dewarped image corresponding to pixel values of pixels of the fisheye image.

상기 제2 디워핑 알고리즘을 적용한 디워핑 영상 생성 단계는, 상기 어안 영상을 복수의 블록들로 블록화하는 단계; 상기 어안 영상의 블록과 상기 디워핑 영상의 대응블록 간의 특징점 매칭을 통해 블록 단위의 변환함수를 추정하는 단계; 상기 변환함수를 기초로 상기 어안 영상의 블록 내 픽셀들에 대응하는 상기 디워핑 영상의 대응블록 내 픽셀들의 2차원 좌표를 획득하는 단계; 및 상기 어안 영상의 픽셀의 픽셀 값에 대응하여 상기 디워핑 영상의 픽셀의 픽셀 값을 산출하는 단계;를 포함할 수 있다. The generating of the dewarping image by applying the second dewarping algorithm may include: blocking the fisheye image into a plurality of blocks; estimating a transform function in units of blocks through feature point matching between a block of the fisheye image and a corresponding block of the dewarped image; acquiring 2D coordinates of pixels in a corresponding block of the dewarped image corresponding to pixels in a block of the fisheye image based on the transform function; and calculating pixel values of pixels of the dewarped image corresponding to pixel values of pixels of the fisheye image.

상기 방법은, 이전 이벤트의 종료 후 다음 이벤트가 수신될 때까지의 경과 시간을 기초로 상기 제2 디워핑 알고리즘의 블록 사이즈를 결정하는 단계;를 더 포함할 수 있다. The method may further include determining a block size of the second dewarping algorithm based on an elapsed time from an end of a previous event until a next event is received.

상기 디워핑 영상 생성 단계는, 최초 이벤트 수신시 상기 제2 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계; 및 상기 최초 이벤트 종료 후 다음 이벤트가 수신될 때까지의 경과 시간이 임계시간보다 길면 상기 제1 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계;를 포함할 수 있다. The generating of the dewarping image may include generating a dewarping image by using the second dewarping algorithm when receiving an initial event; and generating a dewarping image using the first dewarping algorithm when an elapsed time from the end of the first event to reception of the next event is longer than a threshold time.

상기 디워핑 영상 생성 단계는, 이전 이벤트의 종료 후 다음 이벤트가 수신될 때까지의 경과 시간이 제2 임계시간보다 길면 상기 제2 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계; 및 상기 경과 시간이 제2 임계시간보다 긴 제1 임계시간보다 길면 상기 제1 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계;를 포함할 수 있다.The generating of the dewarping image may include: generating a dewarping image using the second dewarping algorithm when an elapsed time from the end of a previous event to reception of a next event is longer than a second threshold time; and generating a dewarping image using the first dewarping algorithm when the elapsed time is longer than a first threshold time that is longer than a second threshold time.

본 발명의 실시예들은 상황에 따라 영상 처리 속도 또는 영상 품질을 선택적으로 고려하여 어안 영상의 왜곡을 보정한 디워핑된 영상을 제공할 수 있는 카메라 시스템 및 그의 영상처리방법을 제공할 수 있다.Embodiments of the present invention may provide a camera system capable of providing a dewarped image in which distortion of a fisheye image is corrected by selectively considering image processing speed or image quality according to circumstances and an image processing method thereof.

도 1 및 도 2는 본 발명의 일 실시예에 따른 카메라 시스템을 개략적으로 나타낸 도면이다.
도 3은 본 발명의 일 실시예에 따른 디워핑 알고리즘을 적용하여 어안 영상을 변환한 보정 영상을 생성하는 과정을 개략적으로 나타낸 도면이다.
도 4 내지 도 7은 본 발명의 일 실시예에 따른 제1 디워핑 알고리즘을 개략적으로 설명하는 도면이다.
도 8 및 도 9는 본 발명의 일 실시예에 따른 제2 디워핑 알고리즘을 개략적으로 설명하는 도면이다.
도 10은 제2 디워핑 알고리즘에서 블록 사이즈와 왜곡 보정의 관계를 나타내는 도면이다.
도 11은 본 발명의 일 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다.
도 12는 도 11에 도시된 실시예에 따른 영상획득장치의 적응적 디워핑 방법의 예이다.
도 13은 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다.
도 14는 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다.
도 15는 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법의 예이다.
1 and 2 are views schematically showing a camera system according to an embodiment of the present invention.
3 is a diagram schematically illustrating a process of generating a corrected image obtained by converting a fisheye image by applying a dewarping algorithm according to an embodiment of the present invention.
4 to 7 are views schematically illustrating a first dewarping algorithm according to an embodiment of the present invention.
8 and 9 are views schematically illustrating a second dewarping algorithm according to an embodiment of the present invention.
10 is a diagram showing the relationship between block size and distortion correction in the second dewarping algorithm.
11 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to an embodiment of the present invention.
FIG. 12 is an example of an adaptive dewarping method of the image capture device according to the embodiment shown in FIG. 11 .
13 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to another embodiment of the present invention.
14 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to another embodiment of the present invention.
15 is an example of an adaptive dewarping method of an image capture device according to another embodiment of the present invention.

본 발명은 다양한 변환을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세한 설명에 상세하게 설명하고자 한다. 본 발명의 효과 및 특징, 그리고 그것들을 달성하는 방법은 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있다. Since the present invention can apply various transformations and have various embodiments, specific embodiments will be illustrated in the drawings and described in detail in the detailed description. Effects and features of the present invention, and methods for achieving them will become clear with reference to the embodiments described later in detail together with the drawings. However, the present invention is not limited to the embodiments disclosed below and may be implemented in various forms.

이하, 첨부된 도면을 참조하여 본 발명의 실시예들을 상세히 설명하기로 하며, 도면을 참조하여 설명할 때 동일하거나 대응하는 구성 요소는 동일한 도면부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings, and when describing with reference to the drawings, the same or corresponding components are assigned the same reference numerals, and overlapping descriptions thereof will be omitted. .

이하의 실시예에서, 제1, 제2 등의 용어는 한정적인 의미가 아니라 하나의 구성 요소를 다른 구성 요소와 구별하는 목적으로 사용되었다. 이하의 실시예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 이하의 실시예에서, 포함하다 또는 가지다 등의 용어는 명세서상에 기재된 특징, 또는 구성요소가 존재함을 의미하는 것이고, 하나 이상의 다른 특징들 또는 구성요소가 부가될 가능성을 미리 배제하는 것은 아니다. 도면에서는 설명의 편의를 위하여 구성 요소들이 그 크기가 과장 또는 축소될 수 있다. 예컨대, 도면에서 나타난 각 구성의 크기 및 형태는 설명의 편의를 위해 임의로 나타내었으므로, 본 발명이 반드시 도시된 바에 한정되지 않는다. In the following embodiments, terms such as first and second are used for the purpose of distinguishing one component from another component without limiting meaning. In the following examples, expressions in the singular number include plural expressions unless the context clearly dictates otherwise. In the following embodiments, terms such as include or have mean that features or components described in the specification exist, and do not preclude the possibility that one or more other features or components may be added. In the drawings, the size of components may be exaggerated or reduced for convenience of description. For example, since the size and shape of each component shown in the drawings are arbitrarily shown for convenience of description, the present invention is not necessarily limited to those shown.

도 1 및 도 2는 본 발명의 일 실시예에 따른 카메라 시스템을 개략적으로 나타낸 도면이다. 1 and 2 are views schematically showing a camera system according to an embodiment of the present invention.

도 1을 참조하면, 일 실시예에 따른 카메라 시스템은 영상획득장치(100) 및 모니터링 장치(200)를 포함할 수 있다. Referring to FIG. 1 , a camera system according to an embodiment may include an image acquisition device 100 and a monitoring device 200.

영상획득장치(100)는 감시 영역을 촬영하여 감시 영역에 대한 원본 영상(original image)을 획득한다. 영상획득장치(100)는 감시 또는 보안의 목적으로 감시 영역을 실시간으로 촬영할 수 있다. 영상획득장치(100)는 촬영 대상 공간에 대한 RGB로 구성된 원본 영상, 특히 촬영 대상 공간에 대한 어안 영상을 제공하는 카메라일 수 있다. The image capture device 100 acquires an original image of the surveillance region by capturing the surveillance region. The image capture device 100 may capture a monitoring area in real time for the purpose of monitoring or security. The image acquisition device 100 may be a camera that provides an original image composed of RGB for a target space to be captured, in particular a fisheye image of the target space to be captured.

이하에서는 영상획득장치(100)가 180도 이상의 화각을 가지는 어안 카메라(Fisheye camera)로, 촬영 대상 공간에 대한 어안 영상을 제공하는 것을 전제로 설명하지만, 본 발명의 사상이 이에 제한되는 것은 아니다. 본 발명에서 기술하는 '어안 영상(Fisheye image)'은 어안 카메라가 획득한 원본 영상을 의미할 수도 있고, 그 외에 광각의 영상, 왜곡된 영상 등을 의미할 수도 있다.Hereinafter, the image capture device 100 is a fisheye camera having an angle of view of 180 degrees or more, and will be described on the premise that it provides a fisheye image of a space to be photographed, but the spirit of the present invention is not limited thereto. A 'fisheye image' described in the present invention may mean an original image acquired by a fisheye camera, or may mean a wide-angle image, a distorted image, and the like.

영상획득장치(100)는 원본 영상인 어안 영상을 보정한 디워핑 영상(이하, '보정 영상'이라 함)을 생성할 수 있다. 어안 영상의 왜곡을 보정하는 것을 '왜곡 보정(Distortion Calibration)' 또는 '디워핑(Dewarping)'이라고 한다. 영상획득장치(100)는 설정에 따라 원본 영상의 전체 또는 원본 영상에서 관심영역으로 설정된 적어도 하나의 영역에 대해 보정 영상을 생성할 수 있다. The image capture device 100 may generate a dewarped image (hereinafter, referred to as 'corrected image') obtained by correcting a fisheye image, which is an original image. Correcting the distortion of a fisheye image is called 'Distortion Calibration' or 'Dewarping'. The image capture device 100 may generate a corrected image for the entire original image or at least one region set as a region of interest in the original image according to settings.

영상획득장치(100)는 네트워크(300)를 통해 모니터링 장치(200)와 통신할 수 있다. The image acquisition device 100 may communicate with the monitoring device 200 through the network 300 .

네트워크(300)는 무선 네트워크, 유선 네트워크, 인터넷과 같은 공용 네트워크, 사설 네트워크, 모바일 통신 네트워크용 광역 시스템(global system for mobile communications, GSM) 네트워크, 범용 패킷 무선 네트워크(general packet radio network, GPRS), 근거리 네트워크(local area network, LAN), 광역 네트워크(wide area network, WAN), 거대도시 네트워크(metropolitan area network, MAN), 셀룰러 네트워크, 공중 전화 교환 네트워크(public switched telephone network, PSTN), 개인 네트워크(personal area network), 블루투스(bluetooth), Wi-Fi 다이렉트(Wi-Fi Direct), 근거리장 통신(Near Field communication), 초 광 대역(Ultra Wide band), 이들의 조합, 또는 임의의 다른 네트워크일 수 있지만, 이에 한정되지 않는다. The network 300 may include a wireless network, a wired network, a public network such as the Internet, a private network, a global system for mobile communications (GSM) network, a general packet radio network (GPRS), local area network (LAN), wide area network (WAN), metropolitan area network (MAN), cellular network, public switched telephone network (PSTN), private network ( personal area network), Bluetooth, Wi-Fi Direct, Near Field communication, Ultra Wide band, a combination thereof, or any other network. However, it is not limited thereto.

모니터링 장치(200)는 어안 영상 및/또는 보정 영상을 영상획득장치(100)로부터 수신할 수 있다. 모니터링 장치(200)는 어안 영상 및/또는 보정 영상 중 적어도 하나를 디스플레이할 수 있다. 모니터링 장치(200)는 어안 영상 및/또는 보정 영상을 디스플레이하기 위한 다양한 뷰 모드(view mode)를 제공할 수 있다. 뷰 모드는 복수의 영상들을 디스플레이할 수 있는 방식을 말하며, 사용자는 여러 뷰 모드 가운데 하나를 선택하여 원본 영상 또는 보정 영상을 시청할 수 있다.The monitoring device 200 may receive a fisheye image and/or a corrected image from the image capture device 100 . The monitoring device 200 may display at least one of a fisheye image and/or a corrected image. The monitoring device 200 may provide various view modes for displaying a fisheye image and/or a corrected image. A view mode refers to a method capable of displaying a plurality of images, and a user can view an original image or a corrected image by selecting one of several view modes.

모니터링 장치(200)는 디스플레이에 그래픽 사용자 인터페이스를 제공할 수 있다. 사용자는 입력장치를 이용하여 그래픽 사용자 인터페이스를 통해 뷰 모드, 시간 구간, 관심영역(ROI), 이벤트 조건 등을 입력하여 영상획득장치(100) 및/또는 모니터링 장치(200)의 기능을 설정할 수 있다. 모니터링 장치(200)는 영상획득장치(100)의 기능을 설정하는 사용자 입력을 영상획득장치(100)로 전송할 수 있다. The monitoring device 200 may provide a graphical user interface on the display. A user may set the functions of the image capture device 100 and/or the monitoring device 200 by inputting a view mode, a time interval, a region of interest (ROI), event conditions, etc. through a graphic user interface using an input device. . The monitoring device 200 may transmit a user input for setting functions of the image capture device 100 to the image capture device 100 .

모니터링 장치(200)는 개인용 컴퓨터, 스마트폰, 테블릿, 핸드헬드 장치 등의 단말 또는 클라우드 서버, 레코딩 서버, 업그레이드 서버, 알람 서버 등의 서버일 수 있다. The monitoring device 200 may be a terminal such as a personal computer, smart phone, tablet, or handheld device, or a server such as a cloud server, a recording server, an upgrade server, or an alarm server.

도 2를 참조하면, 영상획득장치(100)는 영상획득부(102), 제어부(104), 저장부(106) 및 통신부(108)를 포함할 수 있다. Referring to FIG. 2 , the image acquisition device 100 may include an image acquisition unit 102 , a control unit 104 , a storage unit 106 and a communication unit 108 .

영상획득부(102)는 어안 렌즈 및 영상센서를 포함할 수 있다. 어안 렌즈는 다양한 렌즈 요소들(볼록렌즈, 오목 렌즈, 구면, 비구면 렌즈 등)을 적게는 6매, 많게는 10매 이상 겹쳐서 제작함으로써, 180° 이상의 넓은 화각을 가질 수 있다. 영상센서는 CMOS(Complementary Metal Oxide Semiconductor) 소자 또는 CCD(Charge-Coupled Device) 소자 일 수 있다. The image acquisition unit 102 may include a fisheye lens and an image sensor. A fisheye lens can have a wide angle of view of 180° or more by overlapping various lens elements (convex lens, concave lens, spherical surface, aspherical lens, etc.) at a minimum of 6 sheets and at a maximum of 10 sheets or more. The image sensor may be a Complementary Metal Oxide Semiconductor (CMOS) device or a Charge-Coupled Device (CCD) device.

제어부(104)는 프로세서(processor)와 같이 데이터를 처리할 수 있는 모든 종류의 장치를 포함할 수 있다. 여기서, '프로세서(processor)'는, 예를 들어 프로그램 내에 포함된 코드 또는 명령으로 표현된 기능을 수행하기 위해 물리적으로 구조화된 회로를 갖는, 하드웨어에 내장된 데이터 처리 장치를 의미할 수 있다. 이와 같이 하드웨어에 내장된 데이터 처리 장치의 일 예로써, 마이크로프로세서(microprocessor), 중앙처리장치(central processing unit: CPU), 프로세서 코어(processor core), 멀티프로세서(multiprocessor), ASIC(application-specific integrated circuit), FPGA(field programmable gate array) 등의 처리 장치를 망라할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다.The controller 104 may include all types of devices capable of processing data, such as a processor. Here, a 'processor' may refer to a data processing device embedded in hardware having a physically structured circuit to perform functions expressed by codes or instructions included in a program, for example. As an example of such a data processing device built into hardware, a microprocessor, a central processing unit (CPU), a processor core, a multiprocessor, an application-specific integrated (ASIC) circuit), field programmable gate array (FPGA), etc., but the scope of the present invention is not limited thereto.

제어부(104)는 이벤트를 수신하고, 어안 영상에서 이벤트가 발생한 영역에 대해 디워핑 알고리즘을 적용하여 보정 영상을 생성할 수 있다. 여기서, 이벤트는 관심영역의 설정 및 변경, 뷰 모드 변경, 뷰어(Viewer)의 형태 변환 등 어안 영상으로부터 보정 영상을 생성 및/또는 재생성하는 영상처리 요청일 수 있다. 일 실시예에서, 이벤트는 어안 영상에서 어안 영상의 일부 영역인 관심영역을 설정하는 입력이고, 이벤트가 발생한 영역은 관심영역일 수 있다. 어안 영상에서 설정된 관심영역이 변환되어 보정 영상이 생성되므로, 관심영역의 영상데이터를 기초로 보정 영상의 영상데이터가 생성될 수 있다. The controller 104 may receive an event and generate a corrected image by applying a dewarping algorithm to a region where the event occurs in the fisheye image. Here, the event may be an image processing request for generating and/or regenerating a corrected image from a fisheye image, such as setting and changing a region of interest, changing a view mode, and changing a viewer's shape. In one embodiment, the event is an input for setting a region of interest, which is a partial region of the fisheye image, in a fisheye image, and the region where the event occurs may be the region of interest. Since the region of interest set in the fisheye image is converted to generate the corrected image, image data of the corrected image may be generated based on the image data of the region of interest.

관심영역은 어안 영상에서 도형으로 설정될 수 있다. 제어부(104)는 사용자에 의해 입력된 어안 영상의 관심영역을 설정하기 위한 설정 값을 수신하고, 이에 대응하는 관심영역을 어안 영상에 표시할 수 있다. 설정 값은 영상획득부(102)의 팬/틸트/줌 값을 기초로 하는 값일 수 있다. 설정된 관심영역은 도형으로 표시될 수 있다. 여기서 도형은 하나 이상의 점과 하나 이상의 점들을 서로 연결하는 선으로 구성된 다각형을 의미할 수 있다. 예를 들어, 도형은 원형, 타원형, 사각형, 삼각형 및 오각형 등의 다각형일 수 있다. The region of interest may be set as a figure in the fisheye image. The controller 104 may receive a setting value for setting a region of interest of the fisheye image input by the user, and display the region of interest corresponding thereto on the fisheye image. The setting value may be a value based on a pan/tilt/zoom value of the image acquisition unit 102 . The set region of interest may be displayed as a figure. Here, the figure may refer to a polygon composed of one or more points and lines connecting the one or more points to each other. For example, the figure may be a polygon such as a circle, an ellipse, a rectangle, a triangle, and a pentagon.

제어부(104)는 복수의 관심영역 설정을 입력받고, 관심영역에 대응하는 복수의 보정 영상을 생성할 수 있다. 제어부(104)는 원본 영상인 어안 영상에 디워핑 알고리즘을 적용하여 보정 영상을 생성할 수 있다. 제어부(104)는 이전 이벤트 종료 후부터 경과된 시간(이하, '이벤트 경과 시간'이라 함)의 장단에 따라, 후속하여 수신되는 이벤트에 응답하여 제1 디워핑 알고리즘 또는 제2 디워핑 알고리즘을 어안 영상에 선택적으로 적용하여 적응적으로(adaptively) 보정 영상을 생성할 수 있다. 제1 디워핑 알고리즘 및 제2 디워핑 알고리즘은 후술한다.The controller 104 may receive a plurality of settings for the region of interest and generate a plurality of corrected images corresponding to the region of interest. The controller 104 may generate a corrected image by applying a dewarping algorithm to a fisheye image, which is an original image. The control unit 104 uses the first dewarping algorithm or the second dewarping algorithm in response to a subsequently received event according to the length of the time elapsed from the end of the previous event (hereinafter referred to as 'elapsed event time'). It is possible to generate a correction image adaptively by selectively applying to . The first dewarping algorithm and the second dewarping algorithm will be described later.

원본 영상을 영상 처리한 보정 영상을 사용자에게 제공함에 따라, 사용자 단말 또는 모니터링 장치(200)는 다양한 뷰 모드(view mode)를 지원하거나, 사용자의 UI/UX 상호작용을 충족시키기 위한 이벤트들이 발생할 수 있다. 이벤트 발생 시 성능과 속도의 트래이드 오프(trade off) 관계를 고려할 필요가 있다. As the corrected image obtained by image processing of the original image is provided to the user, the user terminal or monitoring device 200 may support various view modes or generate events to satisfy the user's UI/UX interaction. there is. When an event occurs, it is necessary to consider the trade-off relationship between performance and speed.

본 발명의 실시예에 따른 영상획득장치(100)는 이벤트 빈도가 높은 상황에 응답하여 원본 영상에 제2 디워핑 알고리즘을 적용함으로써 신속하게 보정 영상을 사용자에게 제공하고, 이벤트 빈도가 낮은 상황에 응답하여 원본 영상에 제1 디워핑 알고리즘을 적용함으로써 고품질/고화질의 보정 영상을 사용자에게 제공할 수 있다. The image capture device 100 according to an embodiment of the present invention applies a second dewarping algorithm to an original image in response to a situation with a high event frequency, thereby quickly providing a corrected image to a user and responding to a situation with a low event frequency. By applying the first dewarping algorithm to the original video, it is possible to provide a high-quality/high-definition corrected video to the user.

저장부(106)는 영상획득장치(100)가 처리하는 데이터를 일시적 또는 영구적으로 저장하는 기능을 수행한다. 저장부(106)는 자기 저장 매체(magnetic storage media) 또는 플래시 저장 매체(flash storage media)를 포함할 수 있으나, 본 발명의 범위가 이에 한정되는 것은 아니다. 저장부(106)는 디지털 비디오 레코더(DVR: digital video recorder) 또는 네트워크 비디오 레코더(NVR: network video recorder)를 포함할 수 있다. 저장부(106)는 원본 영상 및/또는 보정 영상을 저장할 수 있다. The storage unit 106 performs a function of temporarily or permanently storing data processed by the image capture device 100 . The storage unit 106 may include magnetic storage media or flash storage media, but the scope of the present invention is not limited thereto. The storage unit 106 may include a digital video recorder (DVR) or a network video recorder (NVR). The storage unit 106 may store an original image and/or a corrected image.

통신부(108)는 영상획득장치(100)가 모니터링 장치(200) 및/또는 서버(미도시)와 같은 다른 네트워크 장치와 유무선 연결을 통해 제어 신호 또는 데이터 신호와 같은 신호를 송수신하기 위해 필요한 하드웨어 및 소프트웨어를 포함하는 장치일 수 있다. The communication unit 108 includes hardware necessary for the image capture device 100 to transmit/receive signals such as control signals or data signals to and from other network devices such as the monitoring device 200 and/or a server (not shown) through a wired or wireless connection. It may be a device containing software.

도 3은 본 발명의 일 실시예에 따른 디워핑 알고리즘을 적용하여 어안 영상을 변환한 보정 영상을 생성하는 과정을 개략적으로 나타낸 도면이다. 3 is a diagram schematically illustrating a process of generating a corrected image obtained by converting a fisheye image by applying a dewarping algorithm according to an embodiment of the present invention.

도 3을 참조하면, 원본 영상인 어안 영상(FI)에서 관심영역(ROI)의 영상 데이터가 디워핑 알고리즘에 의해 보정 영상(CI)의 영상 데이터로 변환될 수 있다. 디워핑 알고리즘은 어안 영상(FI)의 픽셀(Ps)의 위치를 보정 영상(CI)의 픽셀(P)의 위치로 변경하는 기하학 변환(Geometric Transformations)을 수행할 수 있다. Referring to FIG. 3 , image data of a region of interest (ROI) in a fisheye image (FI), which is an original image, may be converted into image data of a corrected image (CI) by a dewarping algorithm. The dewarping algorithm may perform geometric transformations to change the position of the pixel Ps of the fisheye image FI to the position of the pixel P of the corrected image CI.

디워핑 알고리즘은 어안 영상(FI)으로부터 보정 영상(CI)을 생성하기 위해 디워핑 맵을 생성하는 과정을 포함할 수 있다. 보정 영상(CI)의 픽셀(P)의 픽셀 값을 구하기 위해서는 픽셀(P)의 좌표에 대응하는 어안 영상(FI)의 픽셀(Ps)의 좌표를 획득하여야 한다. 디워핑 맵은 보정 영상의 픽셀(P)의 좌표와 이에 대응하는 어안 영상의 픽셀(Ps)의 좌표가 매칭된 정보를 갖는다. 즉, 디워핑 맵의 크기는 보정 영상의 크기에 비례할 수 있다. The dewarping algorithm may include a process of generating a dewarping map to generate a corrected image CI from the fisheye image FI. In order to obtain a pixel value of the pixel P of the corrected image CI, the coordinates of the pixel Ps of the fisheye image FI corresponding to the coordinates of the pixel P must be obtained. The dewarping map has information in which the coordinates of the pixels P of the corrected image and the coordinates of the pixels Ps of the fisheye image corresponding thereto are matched. That is, the size of the dewarping map may be proportional to the size of the corrected image.

도 4 내지 도 7은 본 발명의 일 실시예에 따른 제1 디워핑 알고리즘을 개략적으로 설명하는 도면이다. 4 to 7 are views schematically illustrating a first dewarping algorithm according to an embodiment of the present invention.

도 4 및 도 5를 참조하면, 어안 영상(FI)은 렌즈에 대응하는 가상의 반구(S)의 반구면 상에 결상된 피사체를 영상센서에 대응하는 반구(S)의 바닥면인 평면상에 전개한 영상일 수 있다. 반구(S)에 대해, 어안 영상(FI)의 원점(O)에서 직교하는 방향인 X축 및 Y축과 원점(O)에서 반구(S)의 정점으로 연장되는 방향인 Z축으로 정의되는 3차원 좌표계가 설정될 수 있다. R은 원점(O)에서 반구면까지의 거리, 즉 반구의 반지름이다. Referring to FIGS. 4 and 5 , the fisheye image FI is a picture of a subject imaged on a hemispherical surface of a virtual hemisphere S corresponding to a lens on a plane that is the bottom surface of the hemisphere S corresponding to an image sensor. It may be a developed video. For the hemisphere (S), 3 defined by the X-axis and Y-axis, which are orthogonal directions from the origin (O) of the fisheye image (FI), and the Z-axis, which is a direction extending from the origin (O) to the vertex of the hemisphere (S) A dimensional coordinate system may be set. R is the distance from the origin (O) to the surface of the hemisphere, i.e. the radius of the hemisphere.

원점(O)에서 본 시선 방향(B)과 직교하고, 원점(O')이 반구면과 접하는 평면(A)에서 임의의 위치는 x축과 y축의 2차원 좌표계의 좌표 P(x, y)로 표현될 수 있다. 평면(A)은 사용자가 보고자 하는 실세계 영역으로서, 도 3의 보정 영상(CI)에 대응할 수 있다. 디워핑 알고리즘은 원본 영상인 어안 영상(FI)으로부터 사용자가 보고자 하는 영역을 보정 영상(CI)으로 재구성하는 과정일 수 있다. Any position on the plane (A) perpendicular to the line of sight direction (B) as seen from the origin (O) and where the origin (O') is in contact with the hemisphere is the coordinate P (x, y) of the two-dimensional coordinate system of the x-axis and y-axis can be expressed as The plane A is a real world area that the user wants to see, and may correspond to the corrected image CI of FIG. 3 . The dewarping algorithm may be a process of reconstructing a region that a user wants to see from a fisheye image FI, which is an original image, into a corrected image CI.

사용자의 팬(Pan)/틸트(Tilt)/줌(Zoom) 설정에서, 줌은 평면(A)의 크기 변화(a), 즉 화각(FOV, Field of View) 변화를 의미하고, 틸트는 평면(A)의 원점(O')이 반구(S)의 정점에서 반구면을 따라 Z축으로부터 각(α)만큼 회전 이동(b)함을 의미하고, 팬은 평면(A)의 원점(O')이 반구면을 따라 Z축을 중심으로 각(β)만큼 회전 이동(c)함을 의미할 수 있다. In the user's Pan/Tilt/Zoom settings, zoom means change in size (a) of plane (A), that is, change in field of view (FOV), and tilt means change in plane ( It means that the origin (O') of A) rotates (b) by an angle (α) from the Z axis along the hemisphere at the apex of the hemisphere (S), and the fan is the origin (O') of the plane (A) It may mean rotational movement (c) by an angle (β) about the Z-axis along the hemisphere.

도 6을 참조하면, 평면(A) 내 임의의 위치의 2차원 좌표 P(x, y)는 회전각(ψ)만큼의 X축 회전, 회전각(φ)만큼의 Y축 회전, 회전각(θ)만큼의 Z축 회전에 의한 변환 행렬을 적용하여 3차원 좌표 P(X', Y', Z')로 변환될 수 있다. Referring to FIG. 6, the two-dimensional coordinates P (x, y) at any position in the plane A are X-axis rotation by the rotation angle ψ, Y-axis rotation by the rotation angle ϕ, and rotation angle ( It can be converted into three-dimensional coordinates P(X', Y', Z') by applying a transformation matrix by Z-axis rotation by θ).

회전각(φ)만큼 Z축이 회전되고, Z축이 회전된 상태에서 회전각(θ)만큼 Y축이 회전되고, Z축과 Y축이 회전된 상태에서 회전각(ψ)만큼 X축이 회전하는 경우, Z->Y->X축 회전에 따른 좌표 변환 행렬, 예를 들어, 아핀 변환(Affine Transformation)의 변환행렬은 하기 식 (1)과 같다. Affine Transformation은 공지이므로 상세한 설명은 생략한다. The Z-axis is rotated by the rotation angle (φ), the Y-axis is rotated by the rotation angle (θ) while the Z-axis is rotated, and the X-axis is rotated by the rotation angle (ψ) while the Z-axis and Y-axis are rotated. In the case of rotation, the coordinate transformation matrix according to the rotation of the Z->Y->X axis, for example, the transformation matrix of the affine transformation is as shown in Equation (1) below. Since Affine Transformation is well known, a detailed description thereof will be omitted.

Figure 112018035330670-pat00001
Figure 112018035330670-pat00001

Figure 112018035330670-pat00002
Figure 112018035330670-pat00002

Figure 112018035330670-pat00003
Figure 112018035330670-pat00003

Figure 112018035330670-pat00004
...(1)
Figure 112018035330670-pat00004
...(One)

즉, Affine Transformation을 적용한 평면(A) 내 임의의 위치의 3차원 좌표 P(X', Y', Z')는 하기 식 (2)와 같이 표현될 수 있다. That is, the 3D coordinates P(X', Y', Z') of an arbitrary position in the plane A to which Affine Transformation is applied can be expressed as in Equation (2) below.

X' = M00 * x + M01 * y + M02 * RX' = M00 * x + M01 * y + M02 * R

Y' = M10 * x + M11 * y + M12 * RY' = M10 * x + M11 * y + M12 * R

Z' = M20 * x + M21 * y + M22 * R ... (2)Z' = M20 * x + M21 * y + M22 * R... (2)

다음으로, 평면(A) 내 임의의 위치를 반구면에 사영(Projection)시킨 위치의 3차원 좌표 P'(x", y", z")는 하기 식 (3)과 같이 표현될 수 있다. Next, the three-dimensional coordinate P' (x", y", z") of a position obtained by projecting an arbitrary position in the plane A onto a hemispherical surface can be expressed as Equation (3) below.

PO = sqrt(X'2+ Y'2 + Z'2)PO = sqrt(X' 2 + Y' 2 + Z' 2 )

P'O = RP'O = R

x" = (P'O / PO) * X’ = (sqrt(X'2 + Y'2 + Z'2) / R) * X'x" = (P'O / PO) * X' = (sqrt(X' 2 + Y' 2 + Z' 2 ) / R) * X'

y" = (P'O / PO) * Y’ = (sqrt(X'2 + Y'2 + Z'2) / R) * Y'y" = (P'O / PO) * Y' = (sqrt(X' 2 + Y' 2 + Z' 2 ) / R) * Y'

z" = (P'O / PO) * Z’ = (sqrt(X'2 + Y'2 + Z'2) / R) * Z'z" = (P'O / PO) * Z' = (sqrt(X' 2 + Y' 2 + Z' 2 ) / R) * Z'

도 7을 참조하면, 반구면으로 사영된 위치를 반구(S)의 바닥면으로 사영시킨 위치의 2차원 좌표 Ps(Sx, Sy)는 하기 식 (4)와 같이 표현될 수 있다. Ps의 위치는 렌즈에 따라 달라질 수 있다. Referring to FIG. 7 , the two-dimensional coordinates Ps(Sx, Sy) of the position projected onto the hemisphere S onto the bottom surface of the hemisphere S can be expressed as Equation (4) below. The position of Ps may vary depending on the lens.

α = arccos(z"/R)α = arccos(z"/R)

temp1 = sqrt(R2 - z"2)temp1 = sqrt(R 2 - z" 2 )

Sx = pp * x"Sx = pp * x"

Sy = pp * y" ... (4)Sy = pp * y" ... (4)

여기서, α는 Z축으로부터 반구면 상의 P'(x", y", z")까지의 각이고, pp는 반구면 상의 위치를 바닥면의 위치로 사영하기 위한 비선형 함수일 수 있다. 비선형 함수 pp는 카메라의 렌즈마다 상이할 수 있다. 일 실시예에서, 비선형 함수 pp는 입체 사영(Stereographic Projection) 공식을 이용할 수 있다. Here, α is an angle from the Z axis to P' (x", y", z") on the hemispherical surface, and pp may be a nonlinear function for projecting a position on the hemispherical surface to a position on the bottom surface. Nonlinear function pp may be different for each lens of the camera In one embodiment, the nonlinear function pp may use a stereographic projection formula.

제어부(104)는 제1 디워핑 알고리즘의 Affine Transformation을 이용하여 2회의 사영을 진행함으로써, 픽셀 단위로, 평면(A)의 임의의 픽셀(P)에 대응하는 어안 영상(FI)의 픽셀(Ps)의 XY 좌표계의 좌표를 구할 수 있다. 평면(A)의 픽셀(P)의 픽셀 값은 대응하는 어안 영상(FI)의 픽셀(Ps)의 픽셀 값으로 매칭될 수 있다. The control unit 104 performs projection twice using the Affine Transformation of the first dewarping algorithm, so that the pixel Ps of the fisheye image FI corresponding to an arbitrary pixel P of the plane A is pixel-by-pixel. ), the coordinates of the XY coordinate system can be obtained. The pixel value of the pixel P of the plane A may be matched with the pixel value of the pixel Ps of the corresponding fisheye image FI.

제1 디워핑 알고리즘은 어안 영상으로부터 임의의 시선 방향의 평면에 왜곡이 보정된 보정 영상을 표시하는 비선형 변환 처리로서, 3차원 공간에서 보정 영상의 픽셀에 대응하는 어안 영상의 픽셀의 2차원 좌표를 찾는 과정을 포함할 수 있다. The first dewarping algorithm is a nonlinear transformation process for displaying a corrected image in which distortion is corrected on a plane in an arbitrary viewing direction from a fisheye image. The 2D coordinates of pixels of the fisheye image corresponding to pixels of the corrected image in a 3D space are It may include a search process.

도 8 및 도 9는 본 발명의 일 실시예에 따른 제2 디워핑 알고리즘을 개략적으로 설명하는 도면이다. 8 and 9 are views schematically illustrating a second dewarping algorithm according to an embodiment of the present invention.

도 8 및 도 9를 참조하면, 제어부(104)는 어안 영상(FI)을 복수의 블록들로 블록화하고, 호모그래피 사영 변환(Homography Projective Transformation)을 이용하여 블록 단위로 어안 영상(FI)의 픽셀에 대응하는 보정 영상(CI)의 대응 픽셀을 구할 수 있다. Referring to FIGS. 8 and 9 , the controller 104 blocks the fisheye image FI into a plurality of blocks and uses a homography projective transformation to block each pixel of the fisheye image FI. A corresponding pixel of the corrected image CI corresponding to can be obtained.

제어부(104)는 어안 영상(FI)의 복수의 블록들에 대응하게 뷰어에 표시되는 보정 영상(CI)을 복수의 블록들로 블록화할 수 있다. 제어부(104)는 어안 영상(FI)과 보정 영상(CI)의 대응 블록들의 대응 특징점들, 예를 들어, 4쌍의 꼭지점 쌍들로부터 변환함수(H)를 획득할 수 있다. 변환함수(H)는 대응 블록들 간의 기하학적 변환 관계를 나타내는 행렬일 수 있다. 예를 들어, 변환함수(H)는 3차원 공간에 존재하는 두 개의 2차원 평면의 대응 픽셀들의 위치 변환 관계를 n x m 행렬로 표현하는 2차원 호모그래피(2D Homography) 행렬일 수 있다. The controller 104 may block the corrected image CI displayed on the viewer into a plurality of blocks corresponding to the plurality of blocks of the fisheye image FI. The controller 104 may obtain a conversion function H from corresponding feature points of corresponding blocks of the fisheye image FI and the corrected image CI, for example, 4 pairs of vertices. The transformation function H may be a matrix representing a geometric transformation relationship between corresponding blocks. For example, the transformation function H may be a 2D homography matrix expressing a position transformation relationship between corresponding pixels of two 2D planes existing in a 3D space as an n x m matrix.

하기 식 (5)는 한 쌍의 대응 픽셀들 간의 기하학적 변환 관계를 나타내는 3x3 변환함수(H)의 예인 변환행렬이다. Equation (5) below is a transformation matrix that is an example of a 3x3 transformation function (H) representing a geometric transformation relationship between a pair of corresponding pixels.

Figure 112018035330670-pat00005
... (5)
Figure 112018035330670-pat00005
... (5)

변환행렬의 각 요소(h11 내지 h33)는 어떤 회전각으로 회전할지를 나타내는 회전(rotation) 정보, x, y, z 방향으로 얼마만큼 이동할지를 나타내는 평행이동(translation) 정보, 및 x, y, z 방향으로 얼마만큼 크기를 변화시킬지를 나타내는 크기 변환(scaling) 정보를 포함한다. Each element (h11 to h33) of the transformation matrix includes rotation information indicating at which rotation angle to rotate, translation information indicating how much to move in the x, y, and z directions, and x, y, and z directions It includes scaling information indicating how much to change the size of .

4쌍의 대응 픽셀들 간의 변환행렬의 크기 및 요소 개수는 식 (5)의 한 쌍의 대응 픽셀에 대한 변환행렬의 크기 및 요소 개수보다 커질 수 있다. The size and number of elements of the transformation matrix between the four pairs of corresponding pixels may be greater than the size and number of elements of the transformation matrix for the pair of corresponding pixels in Equation (5).

제어부(104)는 도 9(a)에 도시된 바와 같이, 어안 영상(FI)의 제1 블록(B1)과 보정 영상(CI)의 제1 대응블록(B1')의 대응하는 4쌍의 꼭지점 쌍들로부터 제1 변환함수(H1)를 획득하고, 제1 변환함수(H1)를 이용하여 제1 블록(B1) 내의 픽셀들에 대응하는 제1 대응블록(B1')의 대응픽셀들의 위치를 획득할 수 있다. As shown in FIG. 9(a), the control unit 104 controls four pairs of vertices corresponding to the first block B1 of the fisheye image FI and the first corresponding block B1' of the corrected image CI. A first transform function H1 is obtained from the pairs, and positions of corresponding pixels of the first corresponding block B1' corresponding to pixels in the first block B1 are obtained using the first transform function H1. can do.

제어부(104)는 도 9(b)에 도시된 바와 같이, 어안 영상(FI)의 제2 블록(B2)과 보정 영상(CI)의 제2 대응블록(B2')의 대응하는 4쌍의 꼭지점 쌍들로부터 제2 변환함수(H2)를 획득하고, 제2 변환함수(H2)를 이용하여 제2 블록(B2) 내의 픽셀들에 대응하는 제2 대응블록(B2')의 대응픽셀들의 위치를 획득할 수 있다. As shown in FIG. 9(b), the control unit 104 controls four pairs of vertices corresponding to the second block B2 of the fisheye image FI and the second corresponding block B2' of the corrected image CI. A second transform function H2 is obtained from the pairs, and positions of corresponding pixels of the second corresponding block B2' corresponding to pixels in the second block B2 are obtained using the second transform function H2. can do.

제어부(104)는 나머지 각 블록들에 대해, 블록 단위로 어안 영상(FI)의 블록과 보정 영상(CI)의 대응블록의 변환함수를 획득하고, 블록 단위로 변환함수를 이용하여 어안 영상(FI)의 픽셀들에 대응하는 보정 영상(CI)의 대응픽셀들의 위치를 획득할 수 있다. The control unit 104 obtains the transform function of the block of the fisheye image FI and the corresponding block of the corrected image CI in block units for each of the remaining blocks, and uses the transform function in block units to obtain the fisheye image FI. The positions of corresponding pixels of the corrected image CI corresponding to the pixels of ) may be obtained.

제어부(104)는 제2 디워핑 알고리즘에 의해 Homography Projective Transformation을 이용하여 블록 단위로 변환함수를 획득하고, 블록별 변환함수를 이용하여 블록 단위로 어안 영상(FI)의 픽셀(Ps)에 대응하는 보정 영상(CI)의 픽셀(P) 위치를 구할 수 있다. 어안 영상(FI)의 픽셀의 픽셀 값이 보정 영상(CI)의 대응픽셀의 픽셀 값으로 매칭될 수 있다. The control unit 104 obtains a transform function in block units using the Homography Projective Transformation by the second dewarping algorithm, and obtains a transform function corresponding to the pixel Ps of the fisheye image FI in block units using the block-specific transform function. The position of the pixel P of the corrected image CI may be obtained. A pixel value of a pixel of the fisheye image FI may be matched with a pixel value of a corresponding pixel of the corrected image CI.

제어부(104)는 블록 사이즈 및/또는 블록 개수에 따라 각 블록의 변환함수를 미리 산출하고, 이를 테이블화하여 저장할 수 있다. 이에 따라 디워핑 연산 속도가 증가할 수 있다. The control unit 104 may pre-calculate the transform function of each block according to the block size and/or the number of blocks, convert them into a table, and store them. Accordingly, the dewarping operation speed may be increased.

도 10은 제2 디워핑 알고리즘에서 블록 사이즈와 왜곡 보정의 관계를 나타내는 도면이다. 10 is a diagram showing the relationship between block size and distortion correction in the second dewarping algorithm.

도 10(a)는 왜곡이 없는 피사체(a) 영상이다. 도 10(b)의 보정 영상의 블록 사이즈는 도 10(c)의 보정 영상의 블록 사이즈보다 크다. 블록 사이즈가 작을수록, 즉 블록 개수가 많을수록 피사체의 왜곡 보정이 우수함을 알 수 있다. 한편, 블록 사이즈가 클수록 연산량 및 연산시간이 줄어 연산속도가 빠르다. 10(a) is an image of a subject (a) without distortion. The block size of the corrected image of FIG. 10(b) is larger than the block size of the corrected image of FIG. 10(c). It can be seen that the smaller the block size, that is, the greater the number of blocks, the better distortion correction of the subject. On the other hand, as the block size increases, the calculation amount and calculation time decrease, and the calculation speed increases.

제1 디워핑 알고리즘은 Affine Transformation을 이용하여 보정 영상(CI)의 픽셀(Ps)의 위치를 반구면 상의 위치로의 1차 투영(projection) 및 반구면 상의 위치를 반구의 바닥면 상의 위치로의 2차 투영을 진행함으로써 픽셀 대 픽셀로 대응시키므로, 보정 영상은 실제 장면과 유사하다. 즉, 제1 디워핑 알고리즘이 적용된 보정 영상은 왜곡이 최소화된 고품질의 영상일 수 있다. 반면, 제1 디워핑 알고리즘은 두 번의 아핀 변환을 위한 벡터 연산에 의해 연산량이 증가하므로 영상획득장치(100)의 성능에 큰 영향을 준다. 해상도가 증가할수록 그리고 하드웨어 스펙이 부족할수록 성능 이슈는 더 커진다. The first dewarping algorithm uses Affine Transformation to perform primary projection of the position of the pixel Ps of the corrected image CI to a position on the hemispherical surface and to convert the position on the hemispherical surface to the position on the bottom surface of the hemisphere. Corresponding pixel by pixel by performing secondary projection, the corrected image is similar to the actual scene. That is, the corrected image to which the first dewarping algorithm is applied may be a high-quality image with minimized distortion. On the other hand, the first dewarping algorithm greatly affects the performance of the image capture device 100 because the amount of calculation increases due to vector calculation for affine transformation twice. The higher the resolution and the lower the hardware specifications, the bigger the performance issue.

제2 디워핑 알고리즘은 블록 단위로 특징점들에 대해서만 변환함수를 획득하고, 이를 이용하여 간단하게 나머지 픽셀들을 연산하므로 연산량 및 연산시간이 줄어 연산속도를 높일 수 있다. 반면, 제2 디워핑 알고리즘을 이용하여 생성된 보정 영상은 제1 디워핑 알고리즘을 이용하여 생성된 보정 영상에 비해 왜곡이 클 수 있다. The second dewarping algorithm acquires a conversion function only for feature points in block units and simply calculates the remaining pixels using this, thereby reducing the amount of calculation and calculation time, thereby increasing the calculation speed. On the other hand, the corrected image generated using the second dewarping algorithm may have greater distortion than the corrected image generated using the first dewarping algorithm.

본 발명의 실시예는 이벤트 빈도에 따라 적응적으로 디워핑 알고리즘을 달리 적용함으로써 이벤트 응답 속도를 제어할 수 있다. An embodiment of the present invention can control the event response speed by adaptively applying different dewarping algorithms according to the event frequency.

도 11은 본 발명의 일 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다. 11 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to an embodiment of the present invention.

도 11을 참조하면, 영상획득장치(100)의 제어부(104)는 사용자로부터 뷰 모드 설정 등을 수신하고, 어안 영상으로부터 보정 영상의 생성을 위한 영상 처리를 개시하고, 이벤트가 수신되면(S11), 이벤트 경과 시간을 제1 임계시간과 비교할 수 있다(S13). 제어부(104)는 이벤트 경과 시간이 제1 임계시간보다 길면, 수신된 이벤트에 응답하여 제1 디워핑 알고리즘을 이용하여 어안 영상에 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S15). 제어부(104)는 이벤트 경과 시간이 제1 임계시간보다 짧으면 제2 디워핑 알고리즘을 이용하여 어안 영상에 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S17). Referring to FIG. 11 , the controller 104 of the image capture device 100 receives a view mode setting from a user, starts image processing for generating a correction image from a fisheye image, and when an event is received (S11) , the elapsed time of the event may be compared with the first threshold time (S13). If the event elapsed time is longer than the first threshold time, the controller 104 may generate a corrected image by performing dewarping on the fisheye image using a first dewarping algorithm in response to the received event (S15). If the event elapsed time is shorter than the first threshold time, the controller 104 may generate a corrected image by performing dewarping on the fisheye image using the second dewarping algorithm (S17).

제어부(104)는 사용자의 설정에 따라 최초 이벤트 수신시에는 제2 디워핑 알고리즘을 이용할 수 있다. 제어부(104)는 최초 이벤트 종료 후부터 이벤트 경과 시간을 카운팅하여 제1 임계시간과 비교하고, 비교 결과에 따라 두 번째 이후 수신되는 이벤트부터 제1 디워핑 알고리즘 또는 제2 디워핑 알고리즘을 선택적으로 이용할 수 있다. The controller 104 may use the second dewarping algorithm when receiving an initial event according to a user's setting. The control unit 104 counts the elapsed time of the event from the end of the first event, compares it with the first threshold time, and selectively uses the first dewarping algorithm or the second dewarping algorithm from the second or later received event according to the comparison result. there is.

도 12는 도 11에 도시된 실시예에 따른 영상획득장치의 적응적 디워핑 방법의 예이다. FIG. 12 is an example of an adaptive dewarping method of the image capture device according to the embodiment shown in FIG. 11 .

도 12를 참조하면, 제어부(104)는 사용자로부터 뷰 모드 설정 등을 수신하고(S21), 어안 영상으로부터 보정 영상의 생성을 위한 영상 처리를 개시할 수 있다. 제어부(104)는 최초 이벤트를 수신하면(S23), 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S25). 제어부(104)는 최초 이벤트 종료 후부터 이벤트 경과 시간을 카운팅하여 제1 임계시간과 비교하고(S27), 제1 임계시간 이상 이벤트가 수신되지 않으면, 이후 수신되는 이벤트에 응답하여 제1 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S29). 제어부(104)는 제1 임계시간 이내에 이벤트가 수신되면, 제2 디워핑 알고리즘을 유지하고, 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S25). Referring to FIG. 12 , the controller 104 may receive a view mode setting or the like from a user (S21), and start image processing for generating a correction image from a fisheye image. Upon receiving the first event (S23), the controller 104 may generate a corrected image by performing dewarping using the second dewarping algorithm (S25). The control unit 104 counts the elapsed time of the event from the end of the first event and compares it with the first threshold time (S27), and if no event is received for the first threshold time or longer, the first dewarping algorithm is performed in response to the event received thereafter. A corrected image may be generated by performing dewarping using the image (S29). When an event is received within the first threshold time, the control unit 104 may generate a corrected image by maintaining the second dewarping algorithm and performing dewarping using the second dewarping algorithm (S25).

본 실시예는, 블록 개념을 적용한 제2 디워핑 알고리즘을 이용하여 빠르게 디워핑 맵을 생성하여 디워핑 영상을 사용자에게 제공한 후, 일정 기간 사용자로부터의 이벤트가 발생하지 않는 경우 제1 디워핑 알고리즘을 이용하여 디워핑 맵을 생성하여 왜곡이 최소화된 디워핑 영상을 사용자에게 제공할 수 있다. In this embodiment, after quickly generating a dewarping map using the second dewarping algorithm to which the block concept is applied and providing the dewarping image to the user, the first dewarping algorithm when no event from the user occurs for a certain period of time. A dewarping map can be created using , and a dewarping image with minimized distortion can be provided to the user.

도 13은 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다. 13 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to another embodiment of the present invention.

도 13을 참조하면, 영상획득장치(100)의 제어부(104)는 사용자로부터 뷰 모드 설정 등을 수신하고, 어안 영상으로부터 보정 영상의 생성을 위한 영상 처리를 개시하고, 이벤트가 수신되면(S31), 이벤트 경과 시간을 기초로 제2 디워핑 알고리즘의 블록 사이즈를 결정할 수 있다(S33). 제어부(104)는 결정된 블록 사이즈로 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S35). Referring to FIG. 13 , the control unit 104 of the image capture device 100 receives a view mode setting from a user, starts image processing for generating a correction image from a fisheye image, and when an event is received (S31) , the block size of the second dewarping algorithm can be determined based on the elapsed time of the event (S33). The control unit 104 may generate a corrected image by performing dewarping using the second dewarping algorithm with the determined block size (S35).

구체적으로 단계 33은, 제어부(104)가 사용자의 설정에 따라 이벤트 경과 시간에 대해 적어도 하나의 제2 임계시간을 설정하고, 제2 임계시간마다 제2 디워핑 알고리즘의 블록 사이즈를 설정할 수 있다. 제2 임계시간이 길수록 블록 사이즈는 작게 설정될 수 있다. Specifically, in step 33, the controller 104 may set at least one second threshold time for the event elapsed time according to the user's setting, and set the block size of the second dewarping algorithm for each second threshold time. The block size may be set to be smaller as the second threshold time is longer.

예를 들어, 제어부(104)는 제2-1 임계시간 내지 제2-n 임계시간을 설정하고, n 개의 제2 임계시간마다 제2 디워핑 알고리즘의 블록 사이즈를 설정할 수 있다. 여기서, n이 클수록 시간이 길고, 블록 사이즈는 작을 수 있다. For example, the control unit 104 may set the 2-1st threshold time to the 2-nth threshold time, and set the block size of the second dewarping algorithm for every n second threshold times. Here, the larger n is, the longer the time, and the smaller the block size.

제어부(104)는 첫번째 수신되는 이벤트(제1 이벤트)의 경우 동작 개시 후부터 이벤트 경과 시간을 카운팅하고, 두번째 수신되는 이벤트(제2 이벤트)부터는 이전 이벤트 종료 후 이벤트 경과 시간을 카운팅할 수 있다. In the case of a first received event (first event), the controller 104 may count the elapsed time of the event from the start of the operation, and count the elapsed time of the event after the end of the previous event from the second received event (second event).

제어부(104)는 이벤트 경과 시간을 n 개의 제2 임계시간과 비교하여 제2 디워핑 알고리즘의 블록 사이즈를 결정할 수 있다. 예를 들어, 제어부(104)는 제1 이벤트 종료 후부터 제2 이벤트가 수신될 때까지의 이벤트 경과 시간을 n개의 제2-1 임계시간 내지 제2-n 임계시간과 비교하고, (이벤트 경과 시간 > 제2-n 임계시간)의 조건을 만족하는 n을 구할 수 있다. 제어부(104)는 조건을 만족하는 제2 임계시간에 대응하는 블록 사이즈를 결정할 수 있다. The control unit 104 may determine the block size of the second dewarping algorithm by comparing the event elapsed time with n second threshold times. For example, the control unit 104 compares the event elapsed time from the end of the first event until the second event is received with n 2-1 threshold times to 2-n threshold times, (event elapsed time > 2-n critical time) can be obtained that satisfies the condition. The control unit 104 may determine the block size corresponding to the second threshold time that satisfies the condition.

본 실시예에 따라, 제2 디워핑 알고리즘을 이용하여 이벤트에 신속 대응하여 사용자에게 보정 영상을 제공하면서, 일정 시간 이상 이벤트가 발생하지 않는 경우에는 블록 사이즈를 줄이면서 제2 디워핑 알고리즘을 이용함으로써 왜곡이 감소한 보정 영상을 사용자에게 제공할 수 있다. According to the present embodiment, while using the second dewarping algorithm to quickly respond to an event and provide a corrected image to the user, and when an event does not occur for a certain period of time or longer, the block size is reduced and the second dewarping algorithm is used. A corrected image with reduced distortion may be provided to the user.

도 14는 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법을 개략적으로 설명하는 흐름도이다. 14 is a flowchart schematically illustrating an adaptive dewarping method of an image capture device according to another embodiment of the present invention.

도 14의 실시예는 제2 임계시간 및 제1 임계시간을 모두 고려하여, 제2 디워핑 알고리즘 또는 제1 디워핑 알고리즘을 적응적으로 선택하는 점에서 도 13의 실시예와 차이가 있다. The embodiment of FIG. 14 is different from the embodiment of FIG. 13 in that the second dewarping algorithm or the first dewarping algorithm is adaptively selected by considering both the second threshold time and the first threshold time.

도 14를 참조하면, 영상획득장치(100)의 제어부(104)는 사용자로부터 뷰 모드 설정 등을 수신하고, 어안 영상으로부터 보정 영상의 생성을 위한 영상 처리를 개시하고, 이벤트가 수신되면(S41), 이벤트 경과 시간을 기초로 제2 디워핑 알고리즘의 블록 사이즈를 결정할 수 있다(S43). 제어부(104)는 이벤트에 응답하여 결정된 블록 사이즈로 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S45). 단계 43은 도 13의 실시예에서 단계 33과 동일하므로 상세한 설명은 생략한다. Referring to FIG. 14 , the controller 104 of the image capture device 100 receives a view mode setting from a user, starts image processing for generating a correction image from a fisheye image, and when an event is received (S41) , the block size of the second dewarping algorithm can be determined based on the elapsed time of the event (S43). The control unit 104 may generate a corrected image by performing dewarping using the second dewarping algorithm with the block size determined in response to the event (S45). Since step 43 is the same as step 33 in the embodiment of FIG. 13, a detailed description thereof will be omitted.

제어부(104)는 이벤트 경과 시간을 제1 임계시간과 비교하고(S47), 이벤트 경과 시간이 제1 임계시간 이상으로 길면, 이후 수신되는 이벤트에 응답하여 제1 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S49). 제1 임계시간은 제2 임계시간보다 길 수 있다. The control unit 104 compares the elapsed event time with a first threshold time (S47), and if the elapsed event time is longer than the first threshold time, the controller 104 performs dewarping using a first dewarping algorithm in response to an event received thereafter. By doing so, a corrected image can be generated (S49). The first threshold time may be longer than the second threshold time.

본 실시예는, 이벤트 경과 시간에 따라 적응적으로 블록 사이즈를 변경하며 디워핑 맵을 생성하여 왜곡이 최소화된 디워핑 영상을 사용자에게 제공할 수 있다. According to the present embodiment, a dewarping image with minimized distortion may be provided to a user by generating a dewarping map while adaptively changing a block size according to an event elapsed time.

도 15는 본 발명의 다른 실시예에 따른 영상획득장치의 적응적 디워핑 방법의 예이다. 15 is an example of an adaptive dewarping method of an image capture device according to another embodiment of the present invention.

도 15를 참조하면, 제어부(104)는 뷰 모드 설정 등을 수신하고(S51), 어안 영상으로부터 보정 영상의 생성을 위한 영상 처리를 개시할 수 있다. 제어부(104)는 최초 이벤트(제1 이벤트)를 수신하면(S52), 제1 블록 사이즈의 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S53). Referring to FIG. 15 , the controller 104 may receive a view mode setting, etc. (S51), and start image processing for generating a correction image from a fisheye image. Upon receiving the initial event (first event) (S52), the controller 104 may generate a corrected image by performing dewarping using a second dewarping algorithm of the first block size (S53).

제어부(104)는 이벤트 경과 시간에 대해 적어도 하나의 제2 임계시간, 예를 들어, 제2-1 임계시간 내지 제2-n 임계시간을 설정하고, n 개의 제2 임계시간마다 제2 디워핑 알고리즘의 블록 사이즈를 설정할 수 있다. 여기서, n이 클수록 시간이 길고, 블록 사이즈는 작을 수 있다. The controller 104 sets at least one second threshold time, for example, a 2-1st threshold time to a 2-nth threshold time with respect to the elapsed time of the event, and performs second dewarping for every n second threshold times. You can set the block size of the algorithm. Here, the larger n is, the longer the time, and the smaller the block size.

제어부(104)는 제1 이벤트 종료 후 단계적으로 이벤트 경과 시간을 n 개의 제2 임계시간과 비교하여 제2 디워핑 알고리즘의 블록 사이즈를 결정할 수 있다. After the first event ends, the control unit 104 may determine the block size of the second dewarping algorithm by comparing the event elapsed time step by step with n second threshold times.

제어부(104)는 제1 이벤트 종료 후부터 이벤트 경과 시간을 제2-1 임계시간과 비교하고(S54), 제2-1 임계시간 이상 이벤트가 수신되지 않으면, 이후 수신되는 제2 이벤트에 응답하여 제2 블록 사이즈의 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S55). 제2 블록 사이즈는 제1 블록 사이즈보다 작을 수 있다. The control unit 104 compares the elapsed time of the event from the end of the first event with the 2-1 threshold time (S54), and if the event is not received for the 2-1 threshold time or longer, the control unit 104 responds to the second event received thereafter. A corrected image may be generated by performing dewarping using a second dewarping algorithm having a size of 2 blocks (S55). The second block size may be smaller than the first block size.

제어부(104)는 제2 이벤트 종료 후 이벤트 경과 시간을 제2-2 임계시간과 비교하고(S56), 제2-2 임계시간 이상 이벤트가 수신되지 않으면, 이후 수신되는 제3 이벤트에 응답하여 제3 블록 사이즈의 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S57). 제3 블록 사이즈는 제2 블록 사이즈보다 작을 수 있다. 제2-2 임계시간은 제2-1 임계시간보다 길 수 있다. 단계 57과 단계 58 사이에서, 제어부(104)는 이벤트 경과 시간을 제2-3 임계시간부터 제2-n 임계시간과 비교하여 제2 디워핑 알고리즘의 블록 사이즈를 단계적으로 줄일 수 있다. n은 사용자 설정에 따라 결정될 수 있다. The control unit 104 compares the elapsed time of the event after the second event ends with the 2-2 threshold time (S56), and if the event is not received for the 2-2 threshold time or longer, the control unit 104 responds to the third event received thereafter. A corrected image may be generated by performing dewarping using a second dewarping algorithm having a size of 3 blocks (S57). The third block size may be smaller than the second block size. The 2-2 threshold time may be longer than the 2-1 threshold time. Between steps 57 and 58, the control unit 104 may reduce the block size of the second dewarping algorithm step by step by comparing the elapsed time of the event with the 2-3 threshold time to the 2-n threshold time. n may be determined according to user settings.

제어부(104)는 이벤트 경과 시간을 제1 임계시간과 비교하고(S58), 제1 임계시간 이상 이벤트가 발생하지 않으면, 제1 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S59). 제어부(104)는 제1 임계시간 이내에 이벤트가 발생하면, 제2 디워핑 알고리즘을 이용하여 디워핑을 수행함으로써 보정 영상을 생성할 수 있다(S53).The control unit 104 compares the elapsed time of the event with a first threshold time (S58), and if no event occurs for the first threshold time or more, dewarping is performed using the first dewarping algorithm to generate a corrected image. Yes (S59). When an event occurs within the first threshold time, the controller 104 may generate a corrected image by performing dewarping using a second dewarping algorithm (S53).

본 실시예는, 블록 개념을 적용하여 제2 디워핑 알고리즘의 큰 사이즈의 블록을 이용하여 빠르게 디워핑 맵을 생성하여 디워핑 영상을 사용자에게 제공한 후, 일정 기간 사용자로부터의 이벤트가 발생하지 않는 경우 블록 사이즈를 점진적으로 줄이며 디워핑 맵을 생성하여 왜곡이 최소화된 디워핑 영상을 사용자에게 제공할 수 있다. In this embodiment, a dewarping map is rapidly generated using a large-sized block of the second dewarping algorithm by applying the block concept and a dewarping image is provided to the user, and then an event from the user does not occur for a certain period of time. In this case, a dewarping image with minimized distortion may be provided to a user by generating a dewarping map while gradually reducing a block size.

전술된 실시예에서, 도 3 내지 도 15는 영상획득장치(100)에서의 디워핑으로 설명하였으나, 본 발명의 실시예는 이에 한정되지 않고, 영상획득장치(100)의 어안 영상을 수신한 모니터링 장치(200)에서의 디워핑에도 동일하게 적용할 수 있음은 물론이다. In the above-described embodiment, FIGS. 3 to 15 have been described as dewarping in the image acquisition device 100, but the embodiment of the present invention is not limited thereto, and the fisheye image of the image acquisition device 100 is received and monitored. Of course, the same can be applied to dewarping in the apparatus 200.

본 발명의 실시예들은, 네트워크 상황, 사용자 단말의 상황에 따라 적응적으로 제1 디워핑 알고리즘을 이용하여 디워핑 맵을 생성함으로써 디워핑 영상을 사용자에게 제공하거나, 제2 디워핑 알고리즘의 블록 사이즈를 변경하며 디워핑 맵을 생성하여 디워핑 영상을 사용자에게 제공할 수 있다. Embodiments of the present invention provide a dewarping image to the user by generating a dewarping map using the first dewarping algorithm adaptively according to network conditions and user terminal conditions, or block size of the second dewarping algorithm. It is possible to provide a dewarping image to a user by creating a dewarping map while changing the .

본 발명의 실시예들은, 다채널 환경에서 새로운 디워핑 맵을 생성하는 디워핑 프로세스가 필요한 상황(예를 들어, 사용자 이벤트, 뷰어의 변화 등)에서 해당 채널의 영상에만 제2 디워핑 알고리즘을 이용하고 나머지 채널에는 제1 디워핑 알고리즘을 이용하여 디워핑 맵을 재생성하여 디워핑 영상을 제공할 수 있다. Embodiments of the present invention use the second dewarping algorithm only for an image of a corresponding channel in a situation where a dewarping process for generating a new dewarping map is required in a multi-channel environment (eg, user event, change of viewer, etc.) Then, a dewarping image may be provided to the remaining channels by regenerating a dewarping map using the first dewarping algorithm.

본 발명에 따른 카메라 시스템의 영상처리방법은 컴퓨터로 읽을 수 있는 기록매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 시스템에 의해 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 기록매체의 예로는 ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광데이터 저장장치 등이 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 네트워크로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 컴퓨터가 읽을 수 있는 코드가 저장되고 실행될 수 있다. 그리고, 본 발명을 구현하기 위한 기능적인(functional) 프로그램, 코드 및 코드 세그먼트들은 본 발명이 속하는 기술분야의 프로그래머들에 의해 용이하게 추론될 수 있다.The image processing method of the camera system according to the present invention can be implemented as computer readable code on a computer readable recording medium. A computer-readable recording medium includes all types of recording devices in which data that can be read by a computer system is stored. Examples of computer-readable recording media include ROM, RAM, CD-ROM, magnetic tape, floppy disk, and optical data storage devices. In addition, the computer-readable recording medium is distributed in computer systems connected through a network, so that computer-readable codes can be stored and executed in a distributed manner. In addition, functional programs, codes, and code segments for implementing the present invention can be easily inferred by programmers in the technical field to which the present invention belongs.

본 발명은 첨부된 도면에 도시된 일 실시예를 참고로 설명되었으나, 이는 예시적인 것에 불과하며, 당해 기술분야에서 통상의 지식을 가진 자라면 이로부터 다양한 변형 및 균등한 타 실시예가 가능하다는 점을 이해할 수 있을 것이다. 따라서, 본 발명의 진정한 보호 범위는 첨부된 청구 범위에 의해서만 정해져야 할 것이다.The present invention has been described with reference to an embodiment shown in the accompanying drawings, but this is only exemplary, and those skilled in the art can make various modifications and equivalent other embodiments therefrom. You will understand. Therefore, the true protection scope of the present invention should be defined only by the appended claims.

Claims (8)

삭제delete 삭제delete 어안 영상으로부터 디워핑 영상을 생성하는 영상처리 요청을 포함하는 이벤트를 수신하는 단계; 및
상기 이벤트의 수신에 응답하여 디워핑 알고리즘을 상기 어안 영상에 적용함으로써 상기 디워핑 영상을 생성하는 단계;를 포함하고,
상기 디워핑 알고리즘을 적용한 디워핑 영상 생성 단계는,
상기 어안 영상을 복수의 블록들로 블록화하는 단계;
상기 어안 영상의 블록과 상기 디워핑 영상의 대응블록 간의 특징점 매칭을 통해 블록 단위의 변환함수를 추정하는 단계;
상기 변환함수를 기초로 상기 어안 영상의 블록 내 픽셀들에 대응하는 상기 디워핑 영상의 대응블록 내 픽셀들의 2차원 좌표를 획득하는 단계; 및
상기 어안 영상의 픽셀의 픽셀 값에 대응하여 상기 디워핑 영상의 픽셀의 픽셀 값을 산출하는 단계;를 포함하고,
이전 이벤트의 종료 후 다음 이벤트가 수신될 때까지의 경과 시간을 기초로 상기 디워핑 알고리즘의 블록 사이즈가 결정되는, 카메라 시스템의 영상처리방법.
Receiving an event including an image processing request for generating a dewarped image from a fisheye image; and
In response to receiving the event, generating the dewarping image by applying a dewarping algorithm to the fisheye image;
In the step of generating a dewarping image by applying the dewarping algorithm,
Blocking the fisheye image into a plurality of blocks;
estimating a transform function in units of blocks through feature point matching between a block of the fisheye image and a corresponding block of the dewarped image;
acquiring 2D coordinates of pixels in a corresponding block of the dewarped image corresponding to pixels in a block of the fisheye image based on the transform function; and
Calculating pixel values of pixels of the dewarped image corresponding to pixel values of pixels of the fisheye image;
The image processing method of the camera system, wherein the block size of the dewarping algorithm is determined based on the elapsed time from the end of the previous event to the reception of the next event.
제3항에 있어서,
적어도 하나의 임계시간에 블록 사이즈를 설정하고, 상기 경과 시간과 상기 적어도 하나의 임계시간을 각각 비교하고, 상기 경과 시간이 상기 임계시간보다 큰 조건을 만족하는 임계시간을 기초로 상기 디워핑 알고리즘의 블록 사이즈를 결정하는 단계;를 더 포함하는 카메라 시스템의 영상처리방법.
According to claim 3,
The block size is set at at least one threshold time, the elapsed time is compared with the at least one threshold time, and the dewarping algorithm is based on a threshold time that satisfies a condition in which the elapsed time is greater than the threshold time. An image processing method of a camera system further comprising determining a block size.
어안 영상으로부터 디워핑 영상을 생성하는 영상처리 요청을 포함하는 이벤트를 수신하는 단계; 및
상기 이벤트의 수신에 응답하여 제1 디워핑 알고리즘 또는 상기 제1 디워핑 알고리즘과 상이한 제2 디워핑 알고리즘을 상기 어안 영상에 적용함으로써 상기 디워핑 영상을 생성하는 단계;를 포함하고,
상기 디워핑 영상 생성 단계는,
최초 이벤트 수신시 상기 제2 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계; 및
상기 최초 이벤트 종료 후 다음 이벤트가 수신될 때까지의 경과 시간이 임계시간보다 길면 상기 제1 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계;를 포함하는 카메라 시스템의 영상처리방법.
Receiving an event including an image processing request for generating a dewarped image from a fisheye image; and
In response to receiving the event, generating the dewarping image by applying a first dewarping algorithm or a second dewarping algorithm different from the first dewarping algorithm to the fisheye image,
The dewarping image generation step,
generating a dewarping image using the second dewarping algorithm when receiving an initial event; and
and generating a dewarping image using the first dewarping algorithm when an elapsed time from the end of the first event to reception of the next event is longer than a threshold time.
어안 영상으로부터 디워핑 영상을 생성하는 영상처리 요청을 포함하는 이벤트를 수신하는 단계; 및
상기 이벤트의 수신에 응답하여 제1 디워핑 알고리즘 또는 상기 제1 디워핑 알고리즘과 상이한 제2 디워핑 알고리즘을 상기 어안 영상에 적용함으로써 상기 디워핑 영상을 생성하는 단계;를 포함하고,
상기 디워핑 영상 생성 단계는,
이전 이벤트의 종료 후 다음 이벤트가 수신될 때까지의 경과 시간이 제1 임계시간보다 길면 상기 제1 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계; 및
상기 경과 시간이 상기 제1 임계시간보다 짧으면 상기 제2 디워핑 알고리즘을 이용하여 디워핑 영상을 생성하는 단계;를 포함하는 카메라 시스템의 영상처리방법.
Receiving an event including an image processing request for generating a dewarped image from a fisheye image; and
In response to receiving the event, generating the dewarping image by applying a first dewarping algorithm or a second dewarping algorithm different from the first dewarping algorithm to the fisheye image,
The dewarping image generation step,
generating a dewarping image using the first dewarping algorithm when an elapsed time from the end of a previous event to reception of a next event is longer than a first threshold time; and
and generating a dewarping image using the second dewarping algorithm when the elapsed time is shorter than the first threshold time.
제5항 또는 제6항에 있어서,
상기 제1 디워핑 알고리즘을 적용한 디워핑 영상 생성 단계는,
픽셀 단위로, 3차원 공간에서 상기 디워핑 영상의 픽셀에 대응하는 상기 어안 영상의 픽셀의 2차원 좌표를 획득하는 단계; 및
상기 어안 영상의 픽셀의 픽셀 값에 대응하여 상기 디워핑 영상의 픽셀의 픽셀 값을 산출하는 단계;를 포함하는 카메라 시스템의 영상처리방법.
According to claim 5 or 6,
In the step of generating a dewarping image by applying the first dewarping algorithm,
obtaining 2-dimensional coordinates of pixels of the fisheye image corresponding to pixels of the dewarped image in a 3-dimensional space in units of pixels; and
and calculating pixel values of pixels of the dewarped image corresponding to pixel values of pixels of the fisheye image.
제5항 또는 제6항에 있어서,
상기 제2 디워핑 알고리즘을 적용한 디워핑 영상 생성 단계는,
상기 어안 영상을 복수의 블록들로 블록화하는 단계;
상기 어안 영상의 블록과 상기 디워핑 영상의 대응블록 간의 특징점 매칭을 통해 블록 단위의 변환함수를 추정하는 단계;
상기 변환함수를 기초로 상기 어안 영상의 블록 내 픽셀들에 대응하는 상기 디워핑 영상의 대응블록 내 픽셀들의 2차원 좌표를 획득하는 단계; 및
상기 어안 영상의 픽셀의 픽셀 값에 대응하여 상기 디워핑 영상의 픽셀의 픽셀 값을 산출하는 단계;를 포함하는 카메라 시스템의 영상처리방법.

According to claim 5 or 6,
In the step of generating a dewarping image by applying the second dewarping algorithm,
Blocking the fisheye image into a plurality of blocks;
estimating a transform function in units of blocks through feature point matching between a block of the fisheye image and a corresponding block of the dewarped image;
obtaining 2D coordinates of pixels in a corresponding block of the dewarped image corresponding to pixels in a block of the fisheye image based on the transform function; and
and calculating a pixel value of a pixel of the dewarped image corresponding to a pixel value of a pixel of the fisheye image.

KR1020180041246A 2018-04-09 2018-04-09 Camera system and method for processing image thereof KR102498870B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180041246A KR102498870B1 (en) 2018-04-09 2018-04-09 Camera system and method for processing image thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180041246A KR102498870B1 (en) 2018-04-09 2018-04-09 Camera system and method for processing image thereof

Publications (2)

Publication Number Publication Date
KR20190118076A KR20190118076A (en) 2019-10-17
KR102498870B1 true KR102498870B1 (en) 2023-02-10

Family

ID=68424422

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180041246A KR102498870B1 (en) 2018-04-09 2018-04-09 Camera system and method for processing image thereof

Country Status (1)

Country Link
KR (1) KR102498870B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4102449B1 (en) * 2021-06-10 2023-08-16 Axis AB Method and device for dewarping a region of a fisheye view image

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100914211B1 (en) * 2008-01-15 2009-08-26 주식회사 이미지넥스트 Distorted image correction apparatus and method
KR101521008B1 (en) * 2013-01-10 2015-05-19 염철희 Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
KR102317820B1 (en) * 2015-08-12 2021-10-26 삼성전자주식회사 Method for processing image and electronic device supporting the same

Also Published As

Publication number Publication date
KR20190118076A (en) 2019-10-17

Similar Documents

Publication Publication Date Title
CN106803884B (en) Image processing apparatus
CN109194923B (en) Video image processing device, system and method based on local non-uniform resolution
TWI535285B (en) Conference system, surveillance system, image processing device, image processing method and image processing program, etc.
JP5906028B2 (en) Image processing apparatus and image processing method
US20130058589A1 (en) Method and apparatus for transforming a non-linear lens-distorted image
EP3016065B1 (en) Coordinate computation device and method, and image processing device and method
US20190295216A1 (en) Image processing apparatus, image processing system, image capturing system, image processing method
CN109409147B (en) Bar code recognition method and device
CN103839227B (en) Fisheye image correcting method and device
KR101521008B1 (en) Correction method of distortion image obtained by using fisheye lens and image display system implementing thereof
KR101583646B1 (en) Method and apparatus for generating omnidirectional plane image
CN112399033B (en) Camera assembly and monitoring camera
JP5743016B2 (en) Apparatus and method for generating images
EP3451649B1 (en) Method and apparatus for generating indoor panoramic video
CN111246080B (en) Control apparatus, control method, image pickup apparatus, and storage medium
WO2021017532A1 (en) Image fusion method and apparatus, storage medium, and terminal
TW201410016A (en) Linking-up photographing system and control method for cameras thereof
US10362231B2 (en) Head down warning system
US20200007794A1 (en) Image transmission method, apparatus, and device
JP2016085380A (en) Controller, control method, and program
TWI554107B (en) Imaging adjusting method capable of varing scaling ratios and related camera and image processing system
KR102498870B1 (en) Camera system and method for processing image thereof
JP2019009508A (en) Image processing apparatus, control method thereof, imaging apparatus, and monitoring system
JP6394682B2 (en) Method and image processing apparatus
CN110786017B (en) Distributed image generation method

Legal Events

Date Code Title Description
N231 Notification of change of applicant
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant