KR101609303B1 - Method to calibrate camera and apparatus therefor - Google Patents
Method to calibrate camera and apparatus therefor Download PDFInfo
- Publication number
- KR101609303B1 KR101609303B1 KR1020140037235A KR20140037235A KR101609303B1 KR 101609303 B1 KR101609303 B1 KR 101609303B1 KR 1020140037235 A KR1020140037235 A KR 1020140037235A KR 20140037235 A KR20140037235 A KR 20140037235A KR 101609303 B1 KR101609303 B1 KR 101609303B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- determining
- image
- lane
- area
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/10—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
Abstract
본 명세서는 캘리브레이션(calibration) 장치가 차량 전방을 촬영한 영상에서 차량 및 차선 영역을 결정하는 방법을 개시한다. 상기 방법은 차량 전방을 촬영한 영상을 수신하는 단계; 상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 단계; 상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 단계; 상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 단계를 포함할 수 있다.This specification discloses a method for a calibration device to determine a vehicle and a lane area on an image taken in front of the vehicle. The method includes: receiving an image of a vehicle taken in front of the vehicle; A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, Step through the horizon; The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is above a threshold value Determining; And detecting a lane on an image taken in front of the vehicle, and then determining a lane width through the detected lane.
Description
본 명세서는 캘리브레이션 장치 및 그 동작 방법에 관한 것으로서, 더욱 상세하게는 입력 영상에서 차선인식, 차량검출 및/또는 차간거리 추정을 위한 처리 영역을 정의하는 방법 및 그에 사용되는 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a calibration apparatus and an operation method thereof, and more particularly to a method of defining a processing region for lane recognition, vehicle detection and / or inter-vehicle distance estimation in an input image, and an apparatus used therein.
오늘날 자동차가 널리 보급되면서 운전자의 편의를 위한 관련기술이 급속도로 발전하고 있다. 특히, 내비게이션, 차량용 블랙박스와 같이 운전자의 운전을 보조하는 ADAS(Advanced Driver Assistance System) 기술이 증가하고 있다. 또한, 영상 기반의 운전자 보조장치가 그 범용성과 경제성으로 인해 점차 수요가 증가하고 있다.BACKGROUND OF THE INVENTION With the widespread use of automobiles today, related technologies for the convenience of drivers are rapidly developing. In particular, ADAS (Advanced Driver Assistance System) technology that assists drivers in driving, such as navigation and a vehicle black box, is increasing. In addition, demand for video-based driver assistance devices is increasing due to its versatility and economy.
특히, 차량에 장착된 카메라로 촬영된 전방 영상을 처리하여 차선이나 차량을 검출하는 기술도 제안되고 있는데, 종래의 차선 검출 방법으로 모바일 기기를 기반으로 빠르고 간단한 에지(Edge) 추출과 허프 변환(Hough transform)을 이용한 직선 차선 검출 방법 등이 있다. 한편, 에지(edge)의 방향성을 고려하는 스티어러블 필터(steerable filter)와 레이저 센서(laser sensor)의 전방 스캔(scan) 정보를 사용하여 차선의 검색 영역 최소화 및 장애물로 인한 차선 가림을 해결하는 방법도 있다.Particularly, a technique of detecting a lane or a vehicle by processing a forward image photographed by a camera mounted on a vehicle has been proposed. In the conventional lane detecting method, based on a mobile device, fast and simple edge extraction and Hough and a linear lane detection method using a transform. On the other hand, a method of minimizing a search area of a lane and solving a lane blur due to an obstacle by using forward scan information of a steerable filter and a laser sensor considering the directionality of an edge There is also.
차선의 종류 인식에 관하여서는, 차선 위의 후보점의 분포를 샘플링하여 후보점 간격을 보고 점선과 실선을 판단하는 방법도 제안되고 있다.As for the recognition of the type of lane, a method of determining the dotted line and the solid line by sampling the distribution of the candidate points on the lane and looking at the candidate point intervals is also proposed.
블랙박스 또는 차량에 장착된 카메라로부터 입력되는 카메라 입력영상을 통하여 차선인식 및 차량검출을 할 때 카메라 입력영상 전체를 처리하게 되면, 계산시간이 매우 오래 걸리고, 처리영역이 클수록 차선인식 및 차량검출의 정확도도 낮아지는 문제점이 있다.When the entire input image of the camera is processed when the lane recognition and the vehicle detection are performed through the camera input image input from the black box or the camera mounted on the vehicle, the calculation time becomes very long, and as the processing area becomes larger, There is a problem that accuracy is lowered.
그러므로 카메라가 설치되는 장소 및 블랙박스의 카메라 설치각도에 맞추어 전체 영상에서 차선과 차량이 위치한 영역만을 찾아내는 것은 반드시 필요한 과정이다.Therefore, it is a necessary process to find only the lane and the area where the vehicle is located in the entire image according to the place where the camera is installed and the angle of camera installation of the black box.
본 명세서는 차량검출 및/또는 차간거리 추정을 위한 카메라 캘리브레이션 장치 및 그 동작 방법을 제공하는 데에 그 목적이 있다. 보다 구체적으로는 입력 영상에서 차선인식, 차량검출 및/또는 차간거리 추정을 위한 입력영상의 처리 영역을 정의하는 방법 및 그에 사용되는 장치를 제공하는 것에 목적이 있다.SUMMARY OF THE INVENTION It is an object of the present invention to provide a camera calibration apparatus and an operation method thereof for vehicle detection and / or inter-vehicle distance estimation. More specifically, it is an object of the present invention to provide a method for defining a processing region of an input image for lane recognition, vehicle detection and / or inter-vehicle distance estimation in an input image, and an apparatus used therefor.
본 명세서의 일 실시 예에 따라 캘리브레이션 장치가 제공된다. 상기 장치는 차량 전방을 촬영한 영상을 수신하는 영상 수신부; 상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 지평선 결정부; 상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 보닛 영역 결정부; 상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 차선폭 추정부;를 포함할 수 있다.A calibration apparatus is provided in accordance with one embodiment herein. The apparatus includes: an image receiving unit that receives an image of a front of a vehicle; A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, A horizon determining part determining the horizon through; The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is above a threshold value A bonnet area determination unit for determining the bonnet area; And a lane width estimator configured to determine a lane width through the detected lane after detecting a lane on an image taken in front of the vehicle.
본 명세서의 다른 실시 예에 따라 캘리브레이션(calibration) 장치가 차량 전방을 촬영한 영상에서 차량 및 차선 영역을 결정하는 방법이 제공된다. 상기 방법은 차량 전방을 촬영한 영상을 수신하는 단계; 상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 단계; 상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 단계; 상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 단계를 포함할 수 있다.There is provided a method of determining a vehicle and a lane area in an image taken by a calibration device in front of a vehicle according to another embodiment of the present disclosure. The method includes: receiving an image of a vehicle taken in front of the vehicle; A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, Step through the horizon; The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is above a threshold value Determining; And detecting a lane on an image taken in front of the vehicle, and then determining a lane width through the detected lane.
본 명세서의 실시 예들은 입력 영상에서 차선인식, 차량검출 및/또는 차간거리 추정을 위한 처리 영역을 정확히 지정할 수 있는 효과가 있다. 이를 통하여 카메라 설치 위치나 각도에 적응하여 영상처리 성능을 향상시킬 수 있다.The embodiments of the present invention have the effect of accurately specifying a processing region for lane recognition, vehicle detection, and / or inter-vehicle distance estimation in an input image. Thus, the image processing performance can be improved by adapting to the installation position or angle of the camera.
도 1은 본 명세서의 일 실시 예에 따른 캘리브레이션(calibration) 장치를 나타낸 블록도이다.
도 2는 본 명세서의 실시 예에 따른 차선 및 차량 영역 설정을 나타낸 예시도이다.
도 3은 본 명세서의 실시 예에 따른 소실점 검출을 나타낸 예시도이다.
도 4는 본 명세서의 실시 예에 따른 소실점 신뢰도 측정을 나타낸 예시도이다.
도 5는 본 명세서의 일 실시 예에 따른 차량 보닛(bonnet) 영역 결정을 나타낸 예시도이다.
도 6은 본 명세서의 일 실시 예에 따른 차선 폭 결정을 나타낸 도면이다.
도 7은 본 명세서의 일 실시 예에 따른 캘리브레이션 방법을 나타낸 흐름도이다.1 is a block diagram illustrating a calibration apparatus in accordance with one embodiment of the present disclosure.
2 is an exemplary view showing lane and vehicle area settings according to an embodiment of the present invention;
3 is an exemplary diagram illustrating vanishing point detection according to an embodiment of the present invention.
4 is an exemplary view illustrating the measurement of the vanishing point reliability according to the embodiment of the present invention.
FIG. 5 is an exemplary diagram illustrating vehicle bonnet area determination in accordance with one embodiment of the present disclosure. FIG.
6 is a diagram illustrating lane width determination in accordance with one embodiment of the present disclosure.
7 is a flowchart illustrating a calibration method according to one embodiment of the present disclosure.
본 명세서에서 사용되는 기술적 용어는 단지 특정한 실시 예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아님을 유의해야 한다. 또한, 본 명세서에서 사용되는 기술적 용어는 본 명세서에서 특별히 다른 의미로 정의되지 않는 한, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 의미로 해석되어야 하며, 과도하게 포괄적인 의미로 해석되거나, 과도하게 축소된 의미로 해석되지 않아야 한다. 또한, 본 명세서에서 사용되는 기술적인 용어가 본 발명의 사상을 정확하게 표현하지 못하는 잘못된 기술적 용어일 때에는, 당업자가 올바르게 이해할 수 있는 기술적 용어로 대체되어 이해되어야 할 것이다. 또한, 본 발명에서 사용되는 일반적인 용어는 사전에 정의되어 있는 바에 따라, 또는 전후 문맥상에 따라 해석되어야 하며, 과도하게 축소된 의미로 해석되지 않아야 한다.It is noted that the technical terms used herein are used only to describe specific embodiments and are not intended to limit the invention. It is also to be understood that the technical terms used herein are to be interpreted in a sense generally understood by a person skilled in the art to which the present invention belongs, Should not be construed to mean, or be interpreted in an excessively reduced sense. Further, when a technical term used herein is an erroneous technical term that does not accurately express the spirit of the present invention, it should be understood that technical terms that can be understood by a person skilled in the art are replaced. In addition, the general terms used in the present invention should be interpreted according to a predefined or prior context, and should not be construed as being excessively reduced.
이하, 첨부된 도면을 참조하여 본 발명에 따른 바람직한 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성 요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 또한, 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 발명의 사상을 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 발명의 사상이 제한되는 것으로 해석되어서는 아니됨을 유의해야 한다. 본 발명의 사상은 첨부된 도면 외에 모든 변경, 균등물 내지 대체물에 까지도 확장되는 것으로 해석되어야 한다.Hereinafter, exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings, wherein like reference numerals refer to like or similar elements throughout the several views, and redundant description thereof will be omitted. In the following description, well-known functions or constructions are not described in detail since they would obscure the invention in unnecessary detail. It is to be noted that the accompanying drawings are only for the purpose of facilitating understanding of the present invention, and should not be construed as limiting the scope of the present invention with reference to the accompanying drawings. The spirit of the present invention should be construed as extending to all modifications, equivalents, and alternatives in addition to the appended drawings.
도 1은 본 명세서의 일 실시 예에 따른 캘리브레이션(calibration) 장치를 나타낸 블록도이다.1 is a block diagram illustrating a calibration apparatus in accordance with one embodiment of the present disclosure.
본 명세서의 캘리브레이션 장치(100)가 적용될 수 있는 차선인식 및 차간 거리 측정 장치는, 운행 중인 차량의 전방을 촬영하고 해당 영상을 분석하여 현재 차선에서 주행하는 전방 차량을 검출하고, 전방 차량과의 거리를 계산할 수 있다. The lane recognition and inter-vehicle distance measuring apparatus to which the
상기 차간 거리 측정 장치는 수신한 영상에서 차간 거리 측정에 필요한 물체(object)를 검출(추출)할 수 있다. 상기 물체(object)는 차량, 차선(실선, 파선 등), 기타 물체일 수 있다. 예컨대 상기 차간 거리 측정 장치는 수신한 영상에 포함된 대상이 차량인지 아닌지를 판단하기 위해 전방 차량에 의해 나타나는 그림자 특성, 뒷바퀴의 명암 특징 등을 이용할 수 있고, 또는 방향성 엣지를 활용하여 전방 차량에 관한 영상에 가로 방향의 엣지가 많은지 세로 방향의 엣지가 많은지를 판별하여 대상이 차량인지 여부 및 차량의 후면부인지 여부를 판단할 수도 있다. 이외에도 상기 차간 거리 측정 장치는 영상의 일정 검색 영역에서 차량임을 나타내는 특징점들을 추출하고, 상기 추출된 특징점들을 차량 일부의 특징 데이터와 비교하여 상기 판단을 할 수도 있다. 이때 차량 특징 데이터는 미리 학습된 차량 특징 데이터 중에서 선택된 차량 일부의 특징 데이터일 수 있으며, 여기에서 상기 선택된 차량 일부의 특징 데이터는, 차량의 상단 부분의 텍스쳐 또는 윤곽을 나타내는 특징일 수 있다.The inter-vehicle distance measuring apparatus can detect (extract) an object necessary for the measurement of the inter-vehicle distance from the received image. The object may be a vehicle, a lane (solid line, broken line, etc.), or other object. For example, the inter-vehicle distance measuring device may use a shadow characteristic indicated by a preceding vehicle, a contrast characteristic of a rear wheel, or the like to determine whether an object included in the received image is a vehicle or not, It is possible to judge whether the object is a vehicle or whether it is a rear part of the vehicle by discriminating whether the image has many edge in the horizontal direction or edge in the vertical direction. In addition, the inter-vehicle distance measuring apparatus may extract feature points indicating that the vehicle is a certain search area of the image, and compare the extracted feature points with the feature data of the vehicle. In this case, the vehicle characteristic data may be characteristic data of a part of the vehicle selected from among the learned vehicle characteristic data, wherein the characteristic data of the selected part of the vehicle may be a characteristic indicative of a texture or an outline of the upper part of the vehicle.
상기 차간 거리 측정 장치는 여러 모델링 기법들을 이용하여 다양한 차량의 특징점들을 학습할 수 있다. 상기 학습 후, 특정 검색 영역(또는 차량 후보 영역)들을 검색하여 상기 차량 특징점들이 어느 정도 발견되는지에 따라 영상의 물체가 차량인지 여부를 판단하게 된다.The inter-vehicle distance measuring apparatus can learn minutiae points of various vehicles by using various modeling techniques. After the learning, a specific search area (or a candidate area for a vehicle) is searched to determine whether the object of the image is a vehicle according to how much the vehicle feature points are found.
이때 상기 캘리브레이션 장치(100)는 상기 차간 거리 측정 장치에서 차량을 검출하고 차간 거리를 추정하기 위한 “영상처리 영역”을 결정할 수 있다. 즉, 블랙박스 또는 카메라 영상에서 카메라 설치각도나 카메라 화각에 따라서 달라지는 비전(vision) 처리 영역(차선인식, 차량검출 및/또는 차간거리를 추정하기 위한 영역)을 추출할 수 있다. 상기 캘리브레이션 장치(100)는 네비게이션, 블랙박스 등의 차량 장치에 포함되어 동작하거나, 상기 차량 장치와 연동하여 동작할 수 있다.At this time, the
상술한 바와 같이, 카메라 캘리브레이션은 차선인식, 차량검출 및/또는 차간거리 추정을 위한 비전처리 영역을 정의하는 과정을 의미하고, 차선인식, 차량검출 및 차간거리 추정의 정확도는 카메라 캘리브레이션의 정확도에 따라서 크게 좌우된다.As described above, the camera calibration means a process of defining a non-processing region for lane recognition, vehicle detection and / or inter-vehicle distance estimation, and the accuracy of lane recognition, vehicle detection, and inter-vehicle distance estimation depends on the accuracy of the camera calibration Is greatly influenced.
블랙박스 또는 차량에 장착된 카메라로부터 입력되는 카메라 입력영상을 통하여 차선인식 및 차량검출을 할 때 카메라 입력영상 전체를 처리하게 되면, 계산시간이 매우 오래 걸리고, 처리영역이 클수록 차선인식 및 차량검출의 정확도도 낮아지는 문제점이 있다. 그러므로 카메라가 설치되는 장소 및 블랙박스의 카메라 설치각도에 맞추어 전체 영상에서 차선과 차량이 위치한 영역(ROI, Region Of Interest)만을 찾아내는 것은 반드시 필요한 과정이다. When the entire input image of the camera is processed when the lane recognition and the vehicle detection are performed through the camera input image input from the black box or the camera mounted on the vehicle, the calculation time becomes very long, and as the processing area becomes larger, There is a problem that accuracy is lowered. Therefore, it is a necessary process to find only the lane and the region of interest (ROI) in the entire image in accordance with the installation location of the camera and the angle of camera installation of the black box.
캘리브레이션을 시작하는 입력영상에 따라서 차량 또는 차선 검출 성능이 달라질 수 있기 때문에, 이하에서는 정확하게 캘리브레이션을 수행하는 장치 및 방법을 제안한다.Since the vehicle or lane detection performance may vary depending on the input image from which the calibration is started, the following describes an apparatus and method for accurately performing calibration.
본 명세서의 캘리브레이션 장치(100)는 영상 수신부(101), 지평선 결정부(102), 보닛 영역 결정부(103), 차선폭 추정부(104)을 포함하여 구성될 수 있다.The
상기 캘리브레이션 장치(100)는 입력 영상에서 지평선(h1)을 결정하고, 차량 보닛(bonnet) 영역(h2 하단)을 결정하며, 차선 폭(W)을 추정하는 과정을 수행하여 캘리브레이션을 완료한다. 도 2를 참조하여 보면, 임의의 입력 영상(차량전방 촬영영상)에서 h1이 지평선이고, h2는 카메라가 장착된 차량의 상부, 즉 보닛 상단이며, W는검출된 차선의 폭이다. The
상기 영상 수신부(101)는 차량의 일 부분에 설치된 카메라 모듈로부터 차량 전방을 촬영한 영상을 수신한다. 상기 촬영 영상은 다수의 시간에 촬영된 복수 개의 영상일 수 있다.The
상기 지평선 결정부(102)는 상기 차량 전방을 촬영한 영상에서 지평선을 결정한다. 지평선 결정의 일 실시 예로서, 상기 지평선 결정부(102)는 상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프 변환(hough transform)하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정할 수 있다. 에지(edge) 성분을 검출할 때, 상기 지평선 결정부(102)는 영상을 캐니 에지(canny edge) 이진화(binarization)하여 에지 성분을 검출할 수 있다. 그 후 검출된 에지 성분들을 허프 변환하여 직선을 추출한다. 다음으로 상기 지평선 결정부(102)는 도 3과 같이 추출한 직선들 중에 소정의 기울기를 가진 선들을 모은다. 그 결과 왼쪽과 오른쪽 직선이 각각 일정 개수 이상 모이면 상기 지평선 결정부(102)는 이들로부터 소실점을 계산(검출)하고, 소실점의 위치정보를 누적(저장)한다. 상기 지평선 결정부(102)는 다수의 프레임에서 계산된 소실점들의 누적된 위치정보가 기 정의된 신뢰도 이상 쌓일 때까지 새로운 영상(프레임)에서 이 과정을 반복할 수 있다. 최종적으로 기 정의된 신뢰도 이상으로 소실점들이 존재하는 영역 또는 신뢰도가 가장 큰 영역의 중심점이 소실점의 위치가 되고, 소실점이 위치한 수평선이 지평선(h1)으로 결정된다.The horizon
소실점 신뢰도는 이하와 같이 측정될 수 있다. 허프 변환을 통해 추출된 좌-우 차선은 소실점을 형성하게 되며, 다수의 입력 영상에서 계산된 소실점 수가 최대가 되는 영역에서 하기 수학식 1에 의하여 그 소실점의 신뢰도를 측정할 수 있다.The vanishing point reliability can be measured as follows. The left-right lane extracted through the Hough transform forms a vanishing point, and the reliability of the vanishing point can be measured by Equation (1) below in a region where the number of vanishing points calculated in a plurality of input images becomes maximum.
상기 수학식 1에서 그 값이 클수록, 즉 도 4의 제1 영역(A 영역)에 소실점이 많이 모일수록 소실점의 신뢰도는 높아진다. 여기서 제1 영역(A 영역)은 소정의 크기(예: 20x20 픽셀)로 정의된 영역으로서, 다수의 영상에서 계산된 소실점들이 특정 기준(제1 기준) 이상으로 밀집한 영역이다. 한편, 제2 영역(B 영역)은 상기 제1 영역(A 영역)과 동일한 중심 위치를 가지면서 제1 영역(A 영역)을 포함하는 크기(예: 40x40 픽셀)로 정의된 영역으로서, 다수의 영상에서 계산된 소실점들이 제2 기준 이상으로 밀집한 영역이다. 이때 다수의 소실점들이 제1 영역(A 영역)에 더 많이 존재한다면 소실점 신뢰도 값이 크게 계산된다. 다시 말해, 다수 영상에서 소실점을 검출하여 모아 보았을 때, 최대한 한 지점(영역)에 밀집되어 있다면, 그 소실점들은 믿을 만한 것으로 판단하는 것이다.The reliability of the vanishing point increases as the value of Equation (1) becomes larger, that is, the more vanishing points become in the first region (A region) of FIG. Here, the first area (area A) is an area defined by a predetermined size (for example, 20x20 pixels), and the vanishing points calculated from a plurality of images are areas denser than a specific reference (first reference). On the other hand, the second area (area B) is defined as a size (for example, 40x40 pixels) including the first area (area A) with the same center position as the first area (area A) The vanishing points calculated from the image are regions denser than the second reference. At this time, if more vanishing points exist in the first region (region A), the vanishing point reliability value is calculated to be larger. In other words, when a vanishing point is detected and collected in a plurality of images, it is judged that the vanishing points are reliable if they are concentrated at one point (area) as much as possible.
상기 보닛 영역 결정부(103)는 상기 차량 전방을 촬영한 영상에서 차량 앞 부분(bonnet 또는 hood)을 결정한다. 보닛 영역 결정의 일 실시 예로서, 상기 보닛 영역 결정부(103)는 도 5와 같이 차량 전방 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램(histogram)을 산출한 후, 상기 산출된 히스토그램이 특정 임계값(threshold) 이상으로 나타나는 위치의 하단을 차량 보닛(bonnet) 영역으로 결정할 수 있다.The bonnet
만약 노이즈 성분으로 인하여 잘못된 본네트 영역이 검출된다면, 상기 보닛 영역 결정부(103)는 새로운 입력 영상에서 신뢰도 높은 본네트 영역이 검출될 때까지 반복해서 보닛 영역을 검출한다.If a false bonnet area is detected due to a noise component, the bonnet
상기 보닛 영역 결정을 수식으로 나타내면 아래 수학식 2와 같다.The determination of the bonnet area can be expressed by the following equation (2).
여기서, h2(i)는 i번째 프레임에서의 프로젝션 히스토그램을 통해 검출된 보닛 영역 h2를 의미하고, n은 보닛 영역을 결정하기 위한 반복된 프레임 수를 의미한다. 즉 연속해서 들어오는 입력 영상(n개의 프레임)에서 특정 기준 이상으로 검출되는 보닛 영역(h2)이 일정하게 검출된다면, 그 보닛 영역 h2는 정확하다고 판단할 수 있고, 최종적인 h2는 n번 동안 검출된 보닛 영역의 평균으로 결정하게 된다.Here, h2 (i) denotes the bonnet area h2 detected through the projection histogram in the i-th frame, and n denotes the number of repeated frames for determining the bonnet area. That is, if the bonnet area h2 detected at a predetermined reference or more in a continuously incoming input image (n frames) is constantly detected, the bonnet area h2 can be determined to be correct, and the final h2 is detected for n It is determined as an average of the bonnet area.
상기 차선폭 추정부(104)는 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정한다. 이때 상기 차선폭 추정부(104)는 RANSAC(RANdom SAmple Consensus) 알고리즘을 사용하여 차선을 검출할 수 있다.The lane
RANSAC 알고리즘은 모델 피팅(model fitting)에서 아웃라이어(outlier)를 효과적으로 제거하는 방법인데, 추출된 좌우 차선 후보점 각각에 대하여 차선 쌍곡선(hyperbolar) 방정식을 피팅 모델(fitting model)로 하여 인라이어(inlier)만 선택한다. 이때, RANSAC 알고리즘에서 사용된 인라이어(inlier) 임계치는 차선 하나의 폭인 20cm(행렬(PT)을 이용하여 영상 좌표에서의 거리로 환산해야 함)가 이용될 수 있으며, 반복 횟수는 미리 설정될 수 있다. 예컨대 반복 횟수를 시스템 부하 등을 고려하여 100번으로 설정할 수 있다. 아래는 RANSAC 알고리즘으로 유효 차선 후보점에 해당하는 인라이너(inlier)를 선택하는 과정이다.The RANSAC algorithm is a method for effectively removing outliers from the model fitting. For each of the extracted left and right lane candidate points, a lane hyperbolar equation is used as a fitting model, and an inlier ). At this time, the inlier threshold used in the RANSAC algorithm may be 20 cm, which is a width of one lane (the matrix PT must be converted into the distance in the image coordinates), and the number of repetitions may be preset have. For example, the number of iterations can be set to 100 in consideration of the system load and the like. The following is the process of selecting an inlier corresponding to a valid lane candidate point with the RANSAC algorithm.
1) 추출된 왼쪽 차선 후보점에서 3개의 서로 다른 점을 무작위로 선택한다.1) Randomly select three different points in the extracted left lane candidate point.
2) 선택된 차선 후보점으로 최소 자승 에러(least squares error)를 가지는 왼쪽 차선 방정식 계수(k, bL, c)를 구한다.2) Find the left lane equation coefficient (k, bL, c) with the least squares error as the selected lane candidate point.
3) 계산된 차선 방정식으로부터 u 좌표의 거리 차이가 일정 거리 이하인 점들을 인라이너(inlier)로 선택한다.3) From the calculated lane equations, select points whose distance difference of the u coordinate is less than a certain distance as an inlier.
4) 인라이너(inlier)의 개수가 이전 결과보다 많으면 인라이너(inlier)를 저장하고, 과정 1) ~ 3)을 반복한다. 과정 1) ~ 3)을 미리 정해진 횟수만큼 반복했거나, 인라이너(inlier)의 개수가 후보점 전체와 같아지면 반복을 중단하고 그 때까지 선택된 인라이너(inlier)를 유효 차선 후보점으로 선택한다.4) If the number of inliers is larger than the previous result, store the inliers and repeat steps 1) to 3). If the processes 1) to 3) are repeated a predetermined number of times, or when the number of inliers becomes equal to the whole of the candidate points, the repetition is stopped and the selected inliers are selected as the valid lane candidate points up to that point.
5) 추출된 오른쪽 차선 후보점에 대해서도 과정 1) ~ 4) 를 반복하여, 유효 차선 후보점을 선택한다.5) Repeat steps 1) to 4) for the extracted right lane candidate point to select a valid lane candidate point.
도 6을 참조하여 보면, 상기 차선폭 추정부(104)는 입력 영상에서 차선 픽셀을 검출하고, 각 Y축에 해당하는 폭을 검출하고, RANSAC 알고리즘으로 Y축에 따른 기울기 검출하고, Positive 데이터의 비율에 기초하여 차선 폭을 결정한다. 추정된 차선 폭은, 어느 시점에서 차선 검출에 실패하였을 때 차선을 추정하는 용도로 사용될 수 있다.
Referring to FIG. 6, the
도 7은 본 명세서의 일 실시 예에 따른 캘리브레이션(calibration) 방법을 나타낸 흐름도이다.7 is a flow chart illustrating a calibration method in accordance with one embodiment of the present disclosure.
상기 캘리브레이션 방법은 도 1 내지 도 6에서 설명한 캘리브레이션 장치에 의해 수행될 수 있다. 상기 캘리브레이션 장치는 차간 거리 측정 장치에서 차량을 검출하고 차간 거리를 추정하기 위한 “영상처리 영역”을 결정할 수 있다. 즉, 블랙박스 또는 카메라 영상에서 카메라 설치각도나 카메라 화각에 따라서 달라지는 비전(vision) 처리 영역(차선인식, 차량검출 및 차간거리를 추정하기 위한 영역)을 추출할 수 있다. 상기 캘리브레이션 장치(100)는 네비게이션, 블랙박스 등의 차량 장치에 포함되어 동작하거나, 상기 차량 장치와 연동하여 동작할 수 있다.The calibration method may be performed by the calibration apparatus described in FIGS. 1 to 6. FIG. The calibration apparatus can determine the " image processing area " for detecting the vehicle and estimating the inter-vehicle distance in the inter-vehicle distance measuring apparatus. That is, a vision processing area (area for estimating lane recognition, vehicle detection, and inter-vehicle distance) that varies depending on the camera installation angle or camera angle of view can be extracted from the black box or camera image. The
상술한 바와 같이, 카메라 캘리브레이션은 차선인식, 차량검출 및/또는 차간거리 추정을 위한 비전처리 영역을 정의하는 과정을 의미하고, 차선인식, 차량검출 및 차간거리 추정의 정확도는 카메라 캘리브레이션의 정확도에 따라서 크게 좌우된다.As described above, the camera calibration means a process of defining a non-processing region for lane recognition, vehicle detection and / or inter-vehicle distance estimation, and the accuracy of lane recognition, vehicle detection, and inter-vehicle distance estimation depends on the accuracy of the camera calibration Is greatly influenced.
일 실시 예로서, 상기 캘리브레이션 장치는 차량 전방을 촬영한 영상을 수신할 수 있다(S110). In one embodiment, the calibration device may receive an image of the front of the vehicle (S110).
상기 캘리브레이션 장치는 상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 단계를 수행할 수 있다(S120). 예를 들어, 상기 지평선을 결정하는 단계는, 상기 차량 전방을 촬영한 영상을 캐니 에지(canny edge) 이진화하여 에지 성분을 검출하는 단계를 포함할 수 있다.Wherein the calibration device detects an edge component in an image taken in front of the vehicle, extracts a straight line by hough-transforming the detected edge component, determines a vanishing point based on the extracted straight line, A step of determining a horizon through a location of the vanishing point may be performed (S120). For example, the step of determining the horizon may include detecting an edge component by binarizing a canny edge of the image photographed in front of the vehicle.
또한 상기 지평선을 결정하는 단계는 다수의 영상으로부터 추출한 소실점들의 위치정보를 누적하는 단계와, 상기 누적된 소실점들의 위치정보가 기 정의된 신뢰도 이상인 영역의 중심 위치를 소실점으로 결정하는 단계를 포함할 수 있다.The step of determining the horizon may include accumulating position information of the vanishing points extracted from the plurality of images and determining the center position of the region where the position information of the accumulated vanishing points is more than the defined reliability as the vanishing point have.
이때 상기 신뢰도는 하기 수학식에 의해 계산되며,At this time, the reliability is calculated by the following equation,
여기서 제1 영역(A 영역)은 소정의 크기(예: 20x20 픽셀)로 정의된 영역으로서, 다수의 영상에서 계산된 소실점들이 특정 기준(제1 기준) 이상으로 밀집한 영역이다. 한편, 제2 영역(B 영역)은 상기 제1 영역(A 영역)과 동일한 중심 위치를 가지면서 제1 영역(A 영역)을 포함하는 크기(예: 40x40 픽셀)로 정의된 영역으로서, 다수의 영상에서 계산된 소실점들이 제2 기준 이상으로 밀집한 영역이다. 이때 다수의 소실점들이 제1 영역(A 영역)에 더 많이 존재한다면 소실점 신뢰도 값이 크게 계산된다. 다시 말해, 다수 영상에서 소실점을 검출하여 모아 보았을 때, 최대한 한 지점(영역)에 밀집되어 있다면, 그 소실점들은 믿을 만한 것으로 판단하는 것이다.Here, the first area (area A) is an area defined by a predetermined size (for example, 20x20 pixels), and the vanishing points calculated from a plurality of images are areas denser than a specific reference (first reference). On the other hand, the second area (area B) is defined as a size (for example, 40x40 pixels) including the first area (area A) with the same center position as the first area (area A) The vanishing points calculated from the image are regions denser than the second reference. At this time, if more vanishing points exist in the first region (region A), the vanishing point reliability value is calculated to be larger. In other words, when a vanishing point is detected and collected in a plurality of images, it is judged that the vanishing points are reliable if they are concentrated at one point (area) as much as possible.
상기 캘리브레이션 장치는 상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 단계를 수행할 수 있다(S130). 이때 상기 차량 보닛(bonnet) 영역을 결정하는 단계는, 하기 수학식을 사용하여 차량 보닛 영역의 최상단을 판정하는 단계를 포함하며,The calibration apparatus binarizes an image photographed in front of the vehicle and accumulates a predetermined number of frames or more, calculates a horizontal axis projection histogram from the accumulated image, and outputs the horizontal axis projection histogram to a vehicle bonnet bonnet region may be determined (S130). Wherein determining the bonnet area of the vehicle comprises determining the top of the vehicle bonnet area using the following equation:
여기서, h2(i)는 i번째 프레임에서의 프로젝션 히스토그램을 통해 검출된 보닛 영역 h2를 의미하고, n은 보닛 영역을 결정하기 위한 반복된 프레임 수를 의미한다. 즉 연속해서 들어오는 입력영상(n개의 프레임)에서 특정 기준 이상으로 검출되는 보닛 영역(h2)이 일정하게 검출된다면, 그 보닛 영역 h2는 정확하다고 판단할 수 있고, 최종적인 h2는 n번 동안 검출된 보닛 영역의 평균으로 결정하게 된다.Here, h2 (i) denotes the bonnet area h2 detected through the projection histogram in the i-th frame, and n denotes the number of repeated frames for determining the bonnet area. That is, if the bonnet area h2 detected at a predetermined reference or more in a continuously incoming input image (n frames) is constantly detected, the bonnet area h2 can be determined to be correct, and the final h2 is detected for n It is determined as an average of the bonnet area.
상기 캘리브레이션 장치는 상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 단계를 수행할 수 있다(S140). 예를 들어 상기 캘리브레이션 장치는 상기 차량 전방을 촬영한 영상에서 RANSAC(Random Sample Consensus) 알고리즘으로 차선을 검출할 수 있다.The calibration apparatus may perform a step of determining a lane width through the detected lane after detecting a lane on an image of the front of the vehicle (S140). For example, the calibration device may detect a lane by a Random Sample Consensus (RANSAC) algorithm on an image of the front of the vehicle.
본 발명의 실시 예는 다양한 컴퓨터로 구현되는 동작을 수행하기 위한 프로그램 명령을 포함하는 컴퓨터로 읽을 수 있는 매체를 포함한다. 이 매체는 앞서 설명한 차선 검출 방법을 실행시키기 위한 프로그램을 기록한다. 이 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 이러한 매체의 예에는 하드디스크, 플로피디스크 및 자기 테이프와 같은 자기 매체, CD 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 자기-광 매체, 롬, 램, 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 구성된 하드웨어 장치 등이 있다. 또는 이러한 매체는 프로그램 명령, 데이터 구조 등을 지정하는 신호를 전송하는 반송파를 포함하는 광 또는 금속선, 도파관 등의 전송 매체일 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Embodiments of the present invention include a computer-readable medium having program instructions for performing various computer-implemented operations. This medium records a program for executing the above-described lane detection method. The medium may include program instructions, data files, data structures, etc., alone or in combination. Examples of such media include magnetic media such as hard disks, floppy disks and magnetic tape, optical recording media such as CD and DVD, programmed instructions such as floptical disk and magneto-optical media, ROM, RAM, And a hardware device configured to store and execute the program. Or such medium may be a transmission medium, such as optical or metal lines, waveguides, etc., including a carrier wave that transmits a signal specifying a program command, data structure, or the like. Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
이상, 본 발명의 실시 예에 대하여 설명하였으나, 해당 기술 분야에서 통상의 지식을 가진 자라면 특허청구범위에 기재된 본 발명의 사상으로부터 벗어나지 않는 범위 내에서, 구성 요소의 부가, 변경, 삭제 또는 추가 등에 의해 본 발명을 다양하게 수정 및 변경시킬 수 있을 것이며, 이 또한 본 발명의 권리범위 내에 포함된다고 할 것이다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed embodiments, but, on the contrary, It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims.
100 : 캘리브레이션 장치
101 : 영상 수신부
102 : 지평선 결정부
103 : 보닛 영역 결정부
104 : 차선폭 추정부100: Calibration device
101:
102: Horizon Line Decision Unit
103: Bonnet area determination unit
104: Lane width estimation unit
Claims (10)
상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 지평선 결정부;
상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 보닛 영역 결정부;
상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 차선폭 추정부를 포함하며,
상기 영상처리 영역은,
상기 지평선 결정부, 상기 보닛 영역 결정부 및 상기 차선폭 추정부 중 적어도 하나를 통해 상기 지평선, 상기 차량 보닛(bonnet) 영역 및 상기 차선 폭 중 적어도 하나가 결정되는 것에 의해 정의되며,
상기 지평선 결정부는,
다수의 영상으로부터 추출한 소실점들의 위치정보를 누적하고,
상기 누적된 소실점들의 위치정보가 기 정의된 신뢰도 이상인 영역의 중심 위치를 소실점으로 결정하며,
상기 신뢰도는 하기 수학식에 의해 계산되며,
여기서, 상기 제1 영역은 다수의 영상에서 계산된 소실점들이 제1 기준 이상으로 존재하는 소정의 크기로 정의된 영역이고, 상기 제2 영역은 상기 제1 영역과 동일한 중심 위치를 가지면서 상기 제1 영역을 포함하는 크기로 정의된 영역으로서 상기 다수의 영상에서 계산된 소실점들이 제2 기준 이상으로 존재하는 영역인 것을 특징으로 하는 캘리브레이션 장치.An image receiving unit for receiving an image of the front of the vehicle so that an image processing region can be defined through calibration;
A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, A horizon determining part determining the horizon through;
The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is above a threshold value A bonnet area determination unit for determining the bonnet area;
And a lane width estimator for detecting a lane on an image taken in front of the vehicle and then determining a lane width through the detected lane,
Wherein the image processing area comprises:
Wherein at least one of the horizon line, the bonnet area, and the lane width is determined through at least one of the horizon line determination unit, the bonnet area determination unit, and the lane width estimation unit,
Wherein the horizon-
Accumulating position information of vanishing points extracted from a plurality of images,
The center position of the region where the accumulated position information of the vanishing points is greater than the predetermined reliability is determined as the vanishing point,
The reliability is calculated by the following equation,
Here, the first region may be a region defined by a predetermined size in which vanishing points calculated from a plurality of images exist above a first reference, the second region has the same center position as the first region, Wherein the region is defined as a region including a region, and the vanishing points calculated in the plurality of images are regions existing above a second reference.
상기 지평선 결정부는, 상기 차량 전방을 촬영한 영상을 캐니 에지(canny edge) 이진화하여 에지 성분을 검출하는 것을 특징으로 하는 캘리브레이션 장치.The method according to claim 1,
Wherein the horizon line determination unit detects an edge component by binarizing an image of the front of the vehicle taken as a canny edge.
상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 지평선 결정부;
상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 보닛 영역 결정부;
상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 차선폭 추정부를 포함하며,
상기 영상처리 영역은,
상기 지평선 결정부, 상기 보닛 영역 결정부 및 상기 차선폭 추정부 중 적어도 하나를 통해 상기 지평선, 상기 차량 보닛(bonnet) 영역 및 상기 차선 폭 중 적어도 하나가 결정되는 것에 의해 정의되며,
상기 보닛 영역 결정부는,
하기 수학식을 사용하여 차량 보닛 영역의 최상단을 판정하며,
여기서, 상기 h2(i)는 i번째 프레임에서 프로젝션 히스토그램을 통해 검출된 보닛 영역이고, 상기 n은 보닛 영역을 결정하기 위한 반복된 프레임 수인 것을 특징으로 하는 캘리브레이션 장치.An image receiving unit for receiving an image of the front of the vehicle so that an image processing region can be defined through calibration;
A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, A horizon determining part determining the horizon through;
The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is greater than or equal to a threshold value A bonnet area determination unit for determining the bonnet area;
And a lane width estimator for detecting a lane on an image taken in front of the vehicle and then determining a lane width through the detected lane,
Wherein the image processing area comprises:
Wherein at least one of the horizon line, the bonnet area, and the lane width is determined through at least one of the horizon line determination unit, the bonnet area determination unit, and the lane width estimation unit,
Wherein the bonnet area determination unit
The upper end of the vehicle bonnet area is determined using the following equation,
Wherein the h2 (i) is a bonnet area detected through a projection histogram in an i-th frame, and n is a number of repeated frames for determining a bonnet area.
상기 차선폭 추정부는, 상기 차량 전방을 촬영한 영상에서 RANSAC(Random Sample Consensus) 알고리즘으로 차선을 검출하는 것을 특징으로 하는 캘리브레이션 장치.6. The method of claim 5,
Wherein the lane width estimator detects a lane by a Random Sample Consensus (RANSAC) algorithm on an image taken in front of the vehicle.
차량 전방을 촬영한 영상을 수신하는 단계;
상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 단계;
상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 단계;
상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 단계를 포함하며,
상기 지평선을 결정하는 단계는,
다수의 영상으로부터 추출한 소실점들의 위치정보를 누적하는 단계;
상기 누적된 소실점들의 위치정보가 기 정의된 신뢰도 이상인 영역의 중심 위치를 소실점으로 결정하는 단계를 포함하고,
상기 신뢰도는 하기 수학식에 의해 계산되며,
여기서, 상기 제1 영역은 다수의 영상에서 계산된 소실점들이 제1 기준 이상으로 존재하는 소정의 크기로 정의된 영역이고, 상기 제2 영역은 상기 제1 영역과 동일한 중심 위치를 가지면서 상기 제1 영역을 포함하는 크기로 정의된 영역으로서 상기 다수의 영상에서 계산된 소실점들이 제2 기준 이상으로 존재하는 영역인 것을 특징으로 하는 방법.A method of determining a vehicle and a lane area on an image of a front of a vehicle taken by a calibration apparatus,
Receiving an image of the front of the vehicle;
A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, Step through the horizon;
The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is above a threshold value Determining;
Determining a lane width through the detected lane after detecting a lane on an image taken in front of the vehicle,
The step of determining the horizon comprises:
Accumulating location information of vanishing points extracted from a plurality of images;
Determining a center position of a region where the positional information of the accumulated vanishing points is more than a predetermined reliability as a vanishing point,
The reliability is calculated by the following equation,
Here, the first region may be a region defined by a predetermined size in which vanishing points calculated from a plurality of images exist above a first reference, the second region has the same center position as the first region, Wherein the image is a region defined by a size including a region, and the vanishing points calculated in the plurality of images are regions existing above a second reference.
상기 지평선을 결정하는 단계는,
상기 차량 전방을 촬영한 영상을 캐니 에지(canny edge) 이진화하여 에지 성분을 검출하는 단계를 포함하는 것을 특징으로 하는 방법.8. The method of claim 7,
The step of determining the horizon comprises:
And binarizing canny edges of the image photographed in front of the vehicle to detect edge components.
차량 전방을 촬영한 영상을 수신하는 단계;
상기 차량 전방을 촬영한 영상에서 에지(edge) 성분을 검출하고, 상기 검출된 에지 성분을 허프(hough) 변환하여 직선을 추출한 후, 상기 추출한 직선을 기초로 소실점을 결정하고, 상기 소실점의 위치를 통해 지평선을 결정하는 단계;
상기 차량 전방을 촬영한 영상을 이진화하여 소정 프레임 이상 누적하고, 상기 누적된 영상에서 가로 축 프로젝션 히스토그램을 산출한 후, 상기 산출된 히스토그램이 임계값 이상으로 나타나는 위치를 통해 차량 보닛(bonnet) 영역을 결정하는 단계;
상기 차량 전방을 촬영한 영상에서 차선을 검출한 후, 상기 검출된 차선을 통해 차선 폭을 결정하는 단계를 포함하며,
상기 차량 보닛(bonnet) 영역을 결정하는 단계는,
하기 수학식을 사용하여 차량 보닛 영역의 최상단을 판정하는 단계를 포함하며,
여기서, 상기 h2(i)는 i번째 프레임에서 프로젝션 히스토그램을 통해 검출된 보닛 영역이고, 상기 n은 보닛 영역을 결정하기 위한 반복된 프레임 수인 것을 특징으로 하는 방법.A method of determining a vehicle and a lane area on an image of a front of a vehicle taken by a calibration apparatus,
Receiving an image of the front of the vehicle;
A method of detecting an edge component in an image taken in front of the vehicle, extracting a straight line by houghing the detected edge component, determining a vanishing point based on the extracted straight line, Step through the horizon;
The method includes the steps of: binarizing an image photographed in front of the vehicle to accumulate a predetermined number of frames or more; calculating a horizontal axis projection histogram from the accumulated image; and determining a bonnet area through a position where the calculated histogram is greater than or equal to a threshold value Determining;
Determining a lane width through the detected lane after detecting a lane on an image taken in front of the vehicle,
Wherein determining the bonnet area of the vehicle comprises:
Determining a top end of the vehicle bonnet area using the following equation,
Where h2 (i) is the bonnet area detected through the projection histogram in the i-th frame, and n is the number of repeated frames for determining the bonnet area.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140037235A KR101609303B1 (en) | 2014-03-28 | 2014-03-28 | Method to calibrate camera and apparatus therefor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020140037235A KR101609303B1 (en) | 2014-03-28 | 2014-03-28 | Method to calibrate camera and apparatus therefor |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150112656A KR20150112656A (en) | 2015-10-07 |
KR101609303B1 true KR101609303B1 (en) | 2016-04-20 |
Family
ID=54343880
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020140037235A KR101609303B1 (en) | 2014-03-28 | 2014-03-28 | Method to calibrate camera and apparatus therefor |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101609303B1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101869266B1 (en) | 2017-05-08 | 2018-06-21 | 경북대학교 산학협력단 | Lane detection system based on extream learning convolutional neural network and method thereof |
WO2018117538A1 (en) * | 2016-12-23 | 2018-06-28 | 삼성전자 주식회사 | Method for estimating lane information, and electronic device |
WO2018226825A1 (en) | 2017-06-08 | 2018-12-13 | Gentex Corporation | Display device with level correction |
WO2021132803A1 (en) | 2019-12-24 | 2021-07-01 | Lg Electronics Inc. | Xr device and method for controlling the same |
US11436744B2 (en) | 2016-12-23 | 2022-09-06 | Samsung Electronics Co., Ltd. | Method for estimating lane information, and electronic device |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102543523B1 (en) * | 2016-09-09 | 2023-06-15 | 현대모비스 주식회사 | System and method for correcting error of camera |
KR101890612B1 (en) * | 2016-12-28 | 2018-08-23 | (주)에이다스원 | Method and apparatus for detecting object using adaptive roi and classifier |
KR102356259B1 (en) * | 2017-03-03 | 2022-01-27 | 삼성전자 주식회사 | Electronic apparatus and controlling method thereof |
CN107103627B (en) * | 2017-04-27 | 2020-12-11 | 深圳市天双科技有限公司 | Method for calibrating external parameters of automobile panoramic camera based on lane line |
CN109086650B (en) * | 2017-06-14 | 2022-04-12 | 现代摩比斯株式会社 | Calibration method and calibration apparatus |
KR102022402B1 (en) * | 2017-10-12 | 2019-09-19 | 현대모비스 주식회사 | Calibration method and apparatus thereof |
KR101969030B1 (en) | 2017-09-13 | 2019-04-16 | (주)베이다스 | Method and apparatus for providing camera calibration for vehicles |
KR102024834B1 (en) * | 2018-04-23 | 2019-09-24 | 주식회사 이알랩 | Tolerance compensating apparatus and method for automatic vehicle-mounted camera |
KR101991626B1 (en) * | 2018-05-25 | 2019-06-20 | 가천대학교 산학협력단 | Method and system for detecting vanishing point for intelligent vehicles |
KR102677513B1 (en) | 2018-10-23 | 2024-06-21 | 삼성전자주식회사 | Learning method of detecting vanishing point, method and apparatus of detecting vanishing point |
WO2024139957A1 (en) * | 2022-12-30 | 2024-07-04 | 博泰车联网科技(上海)股份有限公司 | Ar navigation display error calibration method, navigation display calibration method, and related device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222673A (en) * | 1999-01-29 | 2000-08-11 | Mitsubishi Electric Corp | Vehicle color discriminating device |
JP2002074340A (en) * | 2000-08-29 | 2002-03-15 | Toshiba Corp | Picture processor for monitoring road traffic and method for automatically setting picture processing parameter for the processor |
-
2014
- 2014-03-28 KR KR1020140037235A patent/KR101609303B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000222673A (en) * | 1999-01-29 | 2000-08-11 | Mitsubishi Electric Corp | Vehicle color discriminating device |
JP2002074340A (en) * | 2000-08-29 | 2002-03-15 | Toshiba Corp | Picture processor for monitoring road traffic and method for automatically setting picture processing parameter for the processor |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018117538A1 (en) * | 2016-12-23 | 2018-06-28 | 삼성전자 주식회사 | Method for estimating lane information, and electronic device |
US11436744B2 (en) | 2016-12-23 | 2022-09-06 | Samsung Electronics Co., Ltd. | Method for estimating lane information, and electronic device |
KR101869266B1 (en) | 2017-05-08 | 2018-06-21 | 경북대학교 산학협력단 | Lane detection system based on extream learning convolutional neural network and method thereof |
WO2018226825A1 (en) | 2017-06-08 | 2018-12-13 | Gentex Corporation | Display device with level correction |
EP3634809A4 (en) * | 2017-06-08 | 2020-04-15 | Gentex Corporation | Display device with level correction |
US10668883B2 (en) | 2017-06-08 | 2020-06-02 | Gentex Corporation | Display device with level correction |
WO2021132803A1 (en) | 2019-12-24 | 2021-07-01 | Lg Electronics Inc. | Xr device and method for controlling the same |
EP4081434A4 (en) * | 2019-12-24 | 2024-01-17 | LG Electronics Inc. | Xr device and method for controlling the same |
Also Published As
Publication number | Publication date |
---|---|
KR20150112656A (en) | 2015-10-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101609303B1 (en) | Method to calibrate camera and apparatus therefor | |
Wu et al. | Lane-mark extraction for automobiles under complex conditions | |
CN106096525B (en) | A kind of compound lane recognition system and method | |
US9846812B2 (en) | Image recognition system for a vehicle and corresponding method | |
US9818301B2 (en) | Lane correction system, lane correction apparatus and method of correcting lane | |
JP6349742B2 (en) | Multi-lane detection method and detection system | |
EP2573708B1 (en) | Method and System for Detecting Vehicle Position by Employing Polarization Image | |
KR101281260B1 (en) | Method and Apparatus for Recognizing Vehicle | |
KR101176693B1 (en) | Method and System for Detecting Lane by Using Distance Sensor | |
WO2014002692A1 (en) | Stereo camera | |
CN112598743B (en) | Pose estimation method and related device for monocular vision image | |
US20180165815A1 (en) | Distance measurement device and distance measurement method | |
CN108629225B (en) | Vehicle detection method based on multiple sub-images and image significance analysis | |
KR101584907B1 (en) | Method and Apparatus for recognizing lane using region of interest | |
Satzoda et al. | On performance evaluation metrics for lane estimation | |
KR102100047B1 (en) | Method for position recognition of vehicle using lane-end-point detection algorithm and method for evaluating performance of the same | |
CN109101874B (en) | Library robot obstacle identification method based on depth image | |
CN103337080A (en) | Registration technology of infrared image and visible image based on Hausdorff distance in gradient direction | |
KR101910256B1 (en) | Lane Detection Method and System for Camera-based Road Curvature Estimation | |
KR101976952B1 (en) | System and method for detecting object using motion vector | |
Gu et al. | Robust road lane detection using extremal-region enhancement | |
Wang et al. | A robust vehicle model construction and identification system using local feature alignment | |
JP2006078261A (en) | Object detector | |
WO2023068034A1 (en) | Image processing device | |
CN113658252B (en) | Method, medium, device for estimating elevation angle of camera and camera |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
FPAY | Annual fee payment |
Payment date: 20190220 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20191202 Year of fee payment: 5 |