Nothing Special   »   [go: up one dir, main page]

KR102733090B1 - Apparatus and method for obtaining lane information - Google Patents

Apparatus and method for obtaining lane information Download PDF

Info

Publication number
KR102733090B1
KR102733090B1 KR1020190068972A KR20190068972A KR102733090B1 KR 102733090 B1 KR102733090 B1 KR 102733090B1 KR 1020190068972 A KR1020190068972 A KR 1020190068972A KR 20190068972 A KR20190068972 A KR 20190068972A KR 102733090 B1 KR102733090 B1 KR 102733090B1
Authority
KR
South Korea
Prior art keywords
lane
valid
vehicle
polynomial function
information
Prior art date
Application number
KR1020190068972A
Other languages
Korean (ko)
Other versions
KR20200141871A (en
Inventor
이성수
Original Assignee
에스케이텔레콤 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 에스케이텔레콤 주식회사 filed Critical 에스케이텔레콤 주식회사
Priority to KR1020190068972A priority Critical patent/KR102733090B1/en
Publication of KR20200141871A publication Critical patent/KR20200141871A/en
Application granted granted Critical
Publication of KR102733090B1 publication Critical patent/KR102733090B1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/10Path keeping
    • B60W30/12Lane keeping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명의 일 실시예에 따른 차선 정보 획득 방법은, 차량의 주변 영상을 기초로 상기 차량의 위치를 추정하는 단계; 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하는 단계; 상기 차선의 매칭 정보를 이용하여 상기 매칭된 차선을 유효 차선으로 결정하는 단계; 상기 결정된 유효 차선을 피팅(Fitting)하는 단계; 차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 단계; 및 상기 주변 영상 내 상기 피팅된 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하는 단계를 포함한다.A method for obtaining lane information according to one embodiment of the present invention includes: a step of estimating a position of a vehicle based on an image of the surroundings of the vehicle; a step of matching a lane corresponding to the estimated position of the vehicle in a precise map to a lane in the image of the surroundings; a step of determining the matched lane as a valid lane using matching information of the lane; a step of fitting the determined valid lane; a step of obtaining polynomial function coefficients for the fitted valid lane as correct data of the valid lane used for learning for generating a model for obtaining lane information; and a step of labeling the polynomial function coefficients for the fitted valid lane in the image of the surroundings.

Description

차선 정보 획득 장치 및 방법{APPARATUS AND METHOD FOR OBTAINING LANE INFORMATION} {APPARATUS AND METHOD FOR OBTAINING LANE INFORMATION}

본 발명은 차량이 주행하는 도로 상의 차선에 대한 정보를 획득하는 차선 정보 획득 장치 및 방법에 관한 것이다.The present invention relates to a lane information acquisition device and method for acquiring information on a lane on a road on which a vehicle is driving.

일반적으로 차량은 화석 연료, 전기 등을 동력원으로 하여 도로 또는 선로를 주행하는 운송 장치를 의미한다.In general, a vehicle refers to a transportation device that runs on roads or tracks using fossil fuels, electricity, etc. as a power source.

차량은 기술의 발달에 따라 운전자에게 다양한 기능을 제공할 수 있도록 발전해왔다. 특히, 차량의 전장화 추세에 따라, 사고 직전 또는 사고 순간에 사고를 방지하기 위해 동작하는 능동형 안전 시스템(ASS: Active Safety System)을 구비하는 차량이 등장하였다.Vehicles have evolved to provide drivers with a variety of functions as technology has developed. In particular, with the trend toward electrification of vehicles, vehicles equipped with active safety systems (ASS: Active Safety Systems) that operate to prevent accidents immediately before or at the moment of an accident have emerged.

나아가, 최근에는 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위하여 차량 상태, 운전자 상태, 및 주변 환경과 같은 주행 환경에 대한 정보를 능동적으로 제공하는 첨단 운전자 지원 시스템(ADAS: Advanced Driver Assist System)이 탑재된 차량에 대한 연구가 활발히 진행되고 있다. Furthermore, research is being actively conducted on vehicles equipped with advanced driver assistance systems (ADAS) that actively provide information on the driving environment, such as vehicle status, driver status, and surrounding environment, to reduce the burden on drivers and increase convenience.

첨단 운전자 지원 시스템 중 차선 이탈 경보 시스템(LDWS: Lane Departure Warning System)과 차선 유지 지원 시스템(LKAS: Lane Keeping Assist System)은 차량의 주변 영상을 기초로 차선 정보를 획득하고, 획득된 주행 차선 정보를 이용하여 차량의 주행을 제어할 수 있다. Among advanced driver assistance systems, the Lane Departure Warning System (LDWS) and the Lane Keeping Assist System (LKAS) obtain lane information based on images of the vehicle's surroundings and control the vehicle's driving using the obtained driving lane information.

한국공개특허공보, 제 10-2017-0097435호 (2017.08.28. 공개)Korean Patent Publication, No. 10-2017-0097435 (Published on August 28, 2017)

본 발명이 해결하고자 하는 과제는, 차량의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과를 학습하여 차선 정보 획득 모델을 생성하는 차선 정보 획득 장치 및 방법을 제공하는 것이다. The problem to be solved by the present invention is to provide a lane information acquisition device and method that generates a lane information acquisition model by learning a polynomial function fitting result of an effective lane determined based on a matching result of a vehicle's surrounding image and a lane in a precise map.

다만, 본 발명이 해결하고자 하는 과제는 이상에서 언급한 것으로 제한되지 않으며, 언급되지 않은 또 다른 해결하고자 하는 과제는 아래의 기재로부터 본 발명이 속하는 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.However, the problems to be solved by the present invention are not limited to those mentioned above, and other problems to be solved that are not mentioned will be clearly understood by a person having ordinary skill in the art to which the present invention pertains from the description below.

본 발명의 일 실시예에 따른 차선 정보 획득 방법은, 차량의 주변 영상을 기초로 상기 차량의 위치를 추정하는 단계; 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하는 단계; 상기 차선의 매칭 정보를 이용하여 상기 매칭된 차선을 유효 차선으로 결정하는 단계; 상기 결정된 유효 차선을 피팅(Fitting)하는 단계; 차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 단계; 및 상기 주변 영상 내 상기 피팅된 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하는 단계를 포함한다. A method for obtaining lane information according to one embodiment of the present invention includes: a step of estimating a position of a vehicle based on an image of the surroundings of the vehicle; a step of matching a lane corresponding to the estimated position of the vehicle in a precise map to a lane in the image of the surroundings; a step of determining the matched lane as a valid lane using matching information of the lane; a step of fitting the determined valid lane; a step of obtaining polynomial function coefficients for the fitted valid lane as correct data of the valid lane used for learning for generating a model for obtaining lane information; and a step of labeling the polynomial function coefficients for the fitted valid lane in the image of the surroundings.

또한, 상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는, 상기 매칭된 차선 중 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인 후보 차선으로부터 상기 평균 픽셀 좌표 오차가 최소인 상기 유효 차선을 결정할 수 있다.In addition, the step of determining the matched lane as the valid lane may determine the valid lane having the minimum average pixel coordinate error from candidate lanes in which the average pixel coordinate error between the lane corresponding to the estimated vehicle location in the precision map and the lane in the surrounding image among the matched lanes is less than or equal to a first threshold value.

또한, 상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는, 상기 평균 픽셀 좌표 오차가 최소인 상기 후보 차선으로부터 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 상기 유효 차선을 결정할 수 있다.In addition, the step of determining the matched lane as the valid lane may determine the valid lane in which the number of pixels in which the coordinate error between the lane corresponding to the estimated vehicle location in the precision map and the lane in the surrounding image is greater than or equal to a second threshold value is less than or equal to a third threshold value from the candidate lane with the minimum average pixel coordinate error.

또한, 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는, 상기 피팅된 다항함수에 대한 평균 피팅 오차가 제 4 임계값 이하인 경우, 상기 다항함수 계수를 획득할 수 있다.In addition, the step of obtaining the polynomial function coefficients for the fitted valid lane as the correct answer data of the valid lane may obtain the polynomial function coefficients when the average fitting error for the fitted polynomial function is less than or equal to a fourth threshold value.

또한, 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는, 상기 평균 피팅 오차가 상기 제 4 임계값 이하인 상기 피팅된 다항함수 중 피팅 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 상기 다항함수의 계수를 획득할 수 있다.In addition, the step of obtaining the coefficients of the polynomial function for the fitted valid lane as the correct data of the valid lane may obtain the coefficients of the polynomial function in which the number of pixels having a fitting error greater than or equal to a fifth threshold value among the fitted polynomial functions in which the average fitting error is less than or equal to the fourth threshold value is less than or equal to a sixth threshold value.

또한, 상기 레이블링된 상기 유효 차선을 학습하여 상기 차선 정보 획득 모델을 생성하는 단계를 더 포함하고, 상기 차선 정보 획득 모델을 생성하는 단계는, 상기 유효 차선이 입력된 상기 차선 정보 획득 모델에 의해 출력된 출력 데이터와 상기 유효 차선에 레이블링된 상기 다항함수 계수 사이의 오차가 작아지도록 상기 유효 차선을 학습할 수 있다.In addition, the method further includes a step of learning the labeled valid lane to generate the lane information acquisition model, and the step of generating the lane information acquisition model can learn the valid lane so that an error between output data output by the lane information acquisition model into which the valid lane is input and the polynomial function coefficient labeled to the valid lane is reduced.

또한, 상기 유효 차선에 상기 다항함수 계수를 레이블링하는 단계는, 제 1 시점에 획득된 상기 주변 영상 내 상기 유효 차선을 상기 제 1 시점 이전의 제 2 시점에 획득된 상기 주변 영상 내 상기 유효 차선 및 상기 제 1 시점 이후의 제 3 시점에 획득된 상기 주변 영상 내 상기 유효 차선 중 적어도 하나를 병합하여 상기 다항함수 계수를 레이블링할 수 있다.In addition, the step of labeling the polynomial function coefficients in the valid lanes may include labeling the polynomial function coefficients by merging at least one of the valid lanes in the surrounding image acquired at a first time point, the valid lanes in the surrounding image acquired at a second time point before the first time point, and the valid lanes in the surrounding image acquired at a third time point after the first time point.

또한, 상기 차선 정보 획득 모델을 생성하는 단계는, 상기 레이블링된 상기 유효 차선과 함께 상기 차량의 위치 정보를 학습하여 상기 차선 정보 획득 모델을 생성할 수 있다.In addition, the step of generating the lane information acquisition model can generate the lane information acquisition model by learning the location information of the vehicle together with the labeled valid lane.

또한, 상기 차량의 위치를 추정하는 단계는, GPS 기반 상기 차량의 초기 위치 정보에 대응되는 상기 정밀 지도의 랜드마크를 상기 차량의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 상기 카메라의 초기 위치 정보를 획득하는 단계; 상기 카메라의 초기 위치 정보 및 상기 차량의 주행 정보를 기초로 샘플링된 복수의 후보 위치 정보 각각에 대응되는 상기 정밀 지도의 랜드마크와 상기 영상 간 매칭 정보에 기초하여 상기 카메라의 위치를 추정하는 단계; 및 상기 추정된 카메라의 위치를 기초로 상기 차량의 위치를 추정하는 단계를 포함할 수 있다.In addition, the step of estimating the position of the vehicle may include the step of obtaining initial position information of the camera by matching a landmark of the precision map corresponding to the initial position information of the vehicle based on GPS to the surrounding image captured by the camera of the vehicle; the step of estimating the position of the camera based on matching information between the landmark of the precision map and the image corresponding to each of a plurality of candidate position information sampled based on the initial position information of the camera and the driving information of the vehicle; and the step of estimating the position of the vehicle based on the estimated position of the camera.

또한, 주변 영상으로부터 상기 타겟 차선을 추출하는 단계; 및 상기 추출된 타겟 차선을 상기 차선 정보 획득 모델에 입력하여 상기 다항함수 계수를 획득하는 단계를 더 포함할 수 있다.In addition, the method may further include a step of extracting the target lane from a surrounding image; and a step of inputting the extracted target lane into the lane information acquisition model to obtain the polynomial function coefficients.

본 발명의 다른 실시예에 따른 차선 정보 획득 방법은, 차량의 타겟 주변 영상으로부터 타겟 차선을 추출하는 단계; 및 상기 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 상기 타겟 차선의 피팅 결과로서의 다항함수 계수를 획득하는 단계를 포함하고, 상기 차선 정보 획득 모델은, 상기 차량의 주변 영상 내 차선과 정밀 지도 내 상기 차량의 위치에 대응되는 차선 간 매칭 정보에 따라 결정된 유효 차선의 피팅 결과를 학습함으로써 생성된다.A lane information acquisition method according to another embodiment of the present invention includes the steps of extracting a target lane from a target surrounding image of a vehicle; and the step of inputting the extracted target lane into a lane information acquisition model to acquire polynomial function coefficients as a fitting result of the target lane, wherein the lane information acquisition model is generated by learning a fitting result of an effective lane determined according to matching information between lanes in the surrounding image of the vehicle and lanes corresponding to the location of the vehicle in a detailed map.

본 발명의 일 실시예에 따른 차선 정보 획득 장치는, 차량의 주변 영상을 기초로 상기 차량의 위치를 추정하고, 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하고, 상기 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅(Fitting)하여, 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 피팅부; 및 상기 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하고, 상기 레이블링된 상기 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성하는 모델 생성부를 포함한다.According to one embodiment of the present invention, a lane information acquisition device includes a fitting unit which estimates a position of a vehicle based on an image of the surroundings of the vehicle, matches a lane corresponding to the estimated position of the vehicle in a precise map with a lane in the image of the surroundings, and fits an effective lane determined based on matching information of the lane to acquire polynomial function coefficients for the fitted effective lane; and a model generation unit which labels the effective lane with the polynomial function coefficients and generates a lane information acquisition model which learns the labeled effective lane and outputs polynomial function coefficients for a target lane.

본 발명의 실시예에 의하면, 차선의 피팅 시 사용자의 경험 또는 직관을 배제함으로써 보다 정확한 차선 정보를 획득할 수 있다. 특히, 기계 학습을 통해 차선 정보 획득 모델을 생성하여 이용하므로, 학습 DB가 많아질수록 출력하는 차선 정보의 정확도가 높아질 수 있다. According to an embodiment of the present invention, more accurate lane information can be obtained by excluding the user's experience or intuition when fitting lanes. In particular, since a lane information acquisition model is created and used through machine learning, the accuracy of the output lane information can be increased as the learning DB increases.

또한, 검출된 주행 차선 정보를 차선 이탈 경보 시스템과 차선 유지 지원 시스템의 입력 값으로서 이용함으로써, 보다 정밀한 차량의 제어가 가능할 수 있다.In addition, by using the detected driving lane information as an input value for the lane departure warning system and the lane keeping assistance system, more precise vehicle control may be possible.

도 1 및 2 는 여러 가지 실시예에 따른 차선 정보 획득 시스템의 제어 블록도이다.
도 3은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 유효 차선에 대한 다항함수의 계수 획득 방법의 흐름도이다.
도 4는 본 발명의 일 실시예에 따른 정밀 지도로부터 추출되는 차선의 범위와 주변 영상으로부터 추출되는 차선의 범위를 설명하기 위한 도면이다.
도 5는 본 발명의 일 실시예에 따른 주변 영상으로부터 추출된 차선을 예시하는 도면이다.
도 6는 도 5의 주변 영상에 정밀 지도로부터 추출된 차선을 매칭하는 경우를 예시하는 도면이다.
도 7은 도 6의 매칭에 따른 매칭 오차를 설명하기 위한 도면이다.
도 8은 본 발명의 일 실시예에 따른 차량으로부터의 거리를 기준으로 피팅 범위를 결정하는 방법을 설명하기 위한 도면이다.
도 9는 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 차선 정보 획득 모델을 생성하는 방법을 설명하기 위한 도면이다.
도 10은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명하기 위한 도면이다.
Figures 1 and 2 are control block diagrams of a lane information acquisition system according to various embodiments.
FIG. 3 is a flowchart of a method for obtaining coefficients of a polynomial function for an effective lane among lane information obtaining methods according to one embodiment of the present invention.
FIG. 4 is a drawing for explaining the range of lanes extracted from a precision map and the range of lanes extracted from a surrounding image according to one embodiment of the present invention.
FIG. 5 is a drawing illustrating a lane extracted from a surrounding image according to one embodiment of the present invention.
Figure 6 is a diagram illustrating a case where a lane extracted from a precision map is matched to a surrounding image of Figure 5.
Figure 7 is a drawing for explaining the matching error according to the matching of Figure 6.
FIG. 8 is a drawing for explaining a method for determining a fitting range based on a distance from a vehicle according to one embodiment of the present invention.
FIG. 9 is a drawing for explaining a method for generating a lane information acquisition model among lane information acquisition methods according to one embodiment of the present invention.
FIG. 10 is a drawing for explaining a method for obtaining coefficients of a polynomial function for a target lane among lane information obtaining methods according to one embodiment of the present invention.

본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다.The advantages and features of the present invention, and the methods for achieving them, will become clear with reference to the embodiments described in detail below together with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and these embodiments are provided only to make the disclosure of the present invention complete and to fully inform those skilled in the art of the scope of the invention, and the present invention is defined only by the scope of the claims.

본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명을 생략할 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, if it is judged that a detailed description of a known function or configuration may unnecessarily obscure the gist of the present invention, the detailed description will be omitted. In addition, the terms described below are terms defined in consideration of functions in the embodiments of the present invention, and these may vary depending on the intention or custom of the user or operator. Therefore, the definitions should be made based on the contents throughout this specification.

도 1 및 2 는 여러 가지 실시예에 따른 차선 정보 획득 시스템의 제어 블록도이다. Figures 1 and 2 are control block diagrams of a lane information acquisition system according to various embodiments.

도 1을 참조하면, 일 실시예에 따른 차선 정보 획득 시스템(1)은 차량(V) 및 차선 정보 획득 장치(100)로 구성될 수 있다.Referring to FIG. 1, a lane information acquisition system (1) according to one embodiment may be composed of a vehicle (V) and a lane information acquisition device (100).

차량(V)은 도로나 선로를 따라 주행하면서 인간, 물건 또는 동물 등을 하나의 위치에서 다른 위치로 이동시킬 수 있는 운송 수단을 의미할 수 있다. 일 실시예에 따른 차량(V)은 삼륜 또는 사륜 자동차, 모터사이클 등의 이륜 자동차, 건설 기계, 원동기장치자전거, 자전거 및 선로를 주행하는 열차 등을 포함할 수 있다.A vehicle (V) may refer to a means of transportation that can move people, objects, or animals from one location to another while running along a road or track. According to one embodiment, a vehicle (V) may include a three-wheeled or four-wheeled vehicle, a two-wheeled vehicle such as a motorcycle, construction equipment, a motor-driven bicycle, a bicycle, and a train running on a track.

도 1의 차량(V)은 GPS 모듈을 구비하여, 적어도 하나의 GPS(Global Position System) 위성으로부터 항법 데이터(Navigation Data)를 포함하는 위성 신호를 수신할 수 있다. 차량(V)은 위성 신호에 기초하여 GPS 기반 차량(V)의 현재 위치 및 차량(V)의 진행 방향 등을 획득할 수 있다. 이 때, GPS 모듈은 복수의 GPS 위성 각각으로부터 복수의 위성 신호를 수신할 수 있다.The vehicle (V) of Fig. 1 is equipped with a GPS module and can receive satellite signals including navigation data from at least one GPS (Global Position System) satellite. Based on the satellite signals, the vehicle (V) can obtain the current location of the GPS-based vehicle (V) and the direction of travel of the vehicle (V). At this time, the GPS module can receive multiple satellite signals from each of multiple GPS satellites.

또한, 도 1의 차량(V)은 일반 지도 및/또는 정밀 지도를 미리 저장할 수 있다. 여기서, 일반 지도는 링크와 노드로 표현되는 도로 정보를 포함하는 지도를 의미할 수 있다. 또한, 정밀 지도는 일반 지도보다 더 많은 정보를 포함하는 지도로서, 안전하고 정밀한 차량(V)제어를 위해 높은 정확도를 가지며, 도로의 평면 위치뿐만 아니라 고도, 경사, 곡률 등에 대한 정보를 포함하는 지도를 의미할 수 있다. 또한, 정밀 지도는 차선, 표지판, 신호등, 가드레일과 같은 도로 시설물에 대한 정보를 더 포함하는 지도를 의미할 수 있다. In addition, the vehicle (V) of FIG. 1 may store a general map and/or a precise map in advance. Here, the general map may mean a map including road information expressed by links and nodes. In addition, the precise map may mean a map including more information than the general map, has high accuracy for safe and precise vehicle (V) control, and includes information on not only the flat position of the road but also the elevation, slope, curvature, etc. In addition, the precise map may mean a map including more information on road facilities such as lanes, signs, traffic lights, and guardrails.

아울러, 도 1의 차량(V)은 첨단 운전자 보조 시스템(ADAS: Advanced Driver Assistance System)이 탑재될 수 있다. 여기서, 첨단 운전자 보조 시스템이란 운전자의 부담을 경감시켜주고 편의를 증진시켜주기 위해 차량(V) 상태, 운전자 상태, 주변 환경 정보와 같은 주행 환경 정보를 제공하거나 능동적으로 차량(V)을 제어하는 시스템을 의미할 수 있다.In addition, the vehicle (V) of Fig. 1 may be equipped with an Advanced Driver Assistance System (ADAS). Here, the advanced driver assistance system may mean a system that provides driving environment information such as vehicle (V) status, driver status, and surrounding environment information, or actively controls the vehicle (V) to reduce the burden on the driver and increase convenience.

예를 들어, 차량(V)은 차선 이탈 경보 시스템(LDWS: Lane Departure Warning System) 및 차선 유지 지원 시스템(LKAS: Lane Keeping Assist System) 중 적어도 하나가 탑재될 수 있다. 다만, 차량(V)에 탑재되는 첨단 운전자 보조 시스템이 상술한 예에 한정되지는 않는다.For example, the vehicle (V) may be equipped with at least one of a Lane Departure Warning System (LDWS) and a Lane Keeping Assist System (LKAS). However, the advanced driver assistance system equipped in the vehicle (V) is not limited to the examples described above.

차량(V)에 탑재된 첨단 운전자 보조 시스템은 차량(V)의 주행 환경을 감지하기 위한 감지 수단을 포함할 수 있다. 일 실시예에 따른 감지 수단은 차량(V) 주변으로 펄스를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 펄스를 수신하여 주행 환경을 감지하는 레이더(Radar), 차량(V) 주변으로 레이저를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 레이저를 수신하는 라이다(LiDAR), 및/또는 차량(V) 주변으로 초음파를 조사하고, 해당 방향에 위치하는 물체로부터 반사되는 에코 초음파를 수신하는 초음파 센서 등을 포함할 수 있다. An advanced driver assistance system mounted on a vehicle (V) may include a detection means for detecting a driving environment of the vehicle (V). According to one embodiment, the detection means may include a radar that irradiates a pulse around the vehicle (V) and receives an echo pulse reflected from an object located in a corresponding direction to detect the driving environment, a LiDAR that irradiates a laser around the vehicle (V) and receives a laser reflected from an object located in a corresponding direction, and/or an ultrasonic sensor that irradiates an ultrasonic wave around the vehicle (V) and receives an echo ultrasonic wave reflected from an object located in a corresponding direction.

또한, 첨단 운전자 보조 시스템은 감지 수단으로서 카메라를 포함할 수 있다. 카메라는 차량(V)의 전방, 측방, 및/또는 후방을 향하도록 마련되어, 해당 방향으로의 주변 영상을 촬영할 수 있다. 촬영된 주변 영상은 영상처리 과정을 통해 차량(V) 주변의 물체뿐만 아니라 차선이나 표지판 등의 정보를 획득하는 기초가 될 수 있다. In addition, the advanced driver assistance system may include a camera as a sensing means. The camera may be installed to face the front, side, and/or rear of the vehicle (V) and may capture surrounding images in the corresponding direction. The captured surrounding images may be used as a basis for obtaining information on objects around the vehicle (V) as well as lanes and signs through an image processing process.

한편, 상술한 차선 이탈 경보 시스템 및/또는 차선 유지 지원 시스템은 차량 주변의 차선 정보를 기초로 차량(V)의 주행을 제어할 수 있다. 이 때, 차량(V)의 주행 제어에 이용되는 차선 정보는 차량(V)에 탑재된 카메라에 의해 촬영되는 차량(V)의 주변 영상으로부터 획득될 수 있다.Meanwhile, the above-described lane departure warning system and/or lane keeping assistance system can control the driving of the vehicle (V) based on lane information around the vehicle. At this time, the lane information used for driving control of the vehicle (V) can be obtained from an image of the vehicle (V)'s surroundings captured by a camera mounted on the vehicle (V).

이와 같은 방법 중 하나로 전방 영상으로부터 딥러닝과 같은 기계학습을 통해 차선을 검출하고, 차량 주변 영역을 평지로 가정한 후, 차량 좌표계로 차선 좌표를 변환하고, 피팅된 차선에 대한 다항함수 계수를 계산하는 방법이 있다. 이 때, 다항함수 계수의 정확도를 높이기 위해 복수 개의 연속 영상에서 검출된 차선 결과를 병합할 수 있다. One such method is to detect lanes from the front image using machine learning such as deep learning, assume the area around the vehicle as flat ground, convert the lane coordinates to the vehicle coordinate system, and calculate the polynomial function coefficients for the fitted lanes. At this time, the lane results detected from multiple consecutive images can be merged to increase the accuracy of the polynomial function coefficients.

그러나, 지면 상태에 따라 차체가 떨리면서 카메라 자세각이 실시간으로 변하게 되어, 각각의 연속 영상에 대하여 온라인 카메라 캘리브레이션과 같은 복잡한 과정을 수행해야 하는 번거로움이 있다.However, since the body shakes depending on the ground condition and the camera attitude angle changes in real time, there is the inconvenience of having to perform a complex process such as online camera calibration for each continuous image.

또한, 주변 영상 학습을 통한 차선 검출 모델의 생성을 위해 학습 데이터에 레이블링(Labeling)되는 정답 데이터를 생성할 필요가 있는데, 이러한 정답 데이터는 사람이 주변 영상을 직접 육안으로 확인하여 차선 영역을 마킹할 수 있다. 이 경우, 획득되는 차선 정보의 정확도 및 신뢰도가 낮아질 수 있다. In addition, in order to create a lane detection model through learning of surrounding images, it is necessary to create correct answer data that is labeled in the learning data. This correct answer data can be used by a person to mark the lane area by directly checking the surrounding images with the naked eye. In this case, the accuracy and reliability of the acquired lane information may be reduced.

이를 해결하기 위해, 본 발명의 일 실시예에 따른 차선 정보 획득 시스템(1)은 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭(Matching) 결과에 따라 결정되는 유효 차선의 다항함수 피팅(Fitting) 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다.To solve this problem, a lane information acquisition system (1) according to one embodiment of the present invention can generate a lane information acquisition model by learning the polynomial function fitting result of an effective lane determined based on the matching result of the surrounding image of the vehicle (V) and the lane in the precision map.

구체적으로, 차선 정보 획득 장치(100)는 차량(V)으로부터 수신한 정보를 이용하여 차선 정보를 획득할 수 있다. 여기서, 차선 정보는 주변 영상 내의 차선을 다항함수로 피팅한 결과를 의미하며, 피팅된 다항함수의 계수를 포함할 수 있다. Specifically, the lane information acquisition device (100) can acquire lane information using information received from the vehicle (V). Here, the lane information means the result of fitting a lane in a surrounding image with a polynomial function, and may include coefficients of the fitted polynomial function.

차선 정보 획득을 위해, 차선 정보 획득 장치(100)는 공지된 여러 가지 통신 방법으로 차량(V)과 통신함으로써 정보를 교환할 수 있다. 일 실시예에 따른 차량(V)의 추정 위치 획득 장치(100)는 CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC 등의 공지된 통신 방법을 채택하여 기지국을 거쳐 차량(V)과 통신할 수 있다. 이와는 달리, 다른 실시예에 따른 차량(V)의 추정 위치 획득 장치(100)는 무선 랜(Wireless LAN), 와이파이(Wi-Fi), 블루투스(Bluetooth), 지그비(Zigbee), WFD(Wi-Fi Direct), UWB(Ultra wideband), 적외선 통신(IrDA; Infrared Data Association), BLE (Bluetooth Low Energy), NFC(Near Field Communication)와 같은 통신 방법을 채택하여 소정 거리 이내에서 차량(V)과 통신할 수도 있다. 다만, 차선 정보 획득 장치(100)가 차량(V)과 통신하는 방법은 상술한 실시예에 한정되지 않는다.In order to obtain lane information, the lane information obtaining device (100) can exchange information by communicating with the vehicle (V) using various known communication methods. The estimated position obtaining device (100) of the vehicle (V) according to one embodiment can communicate with the vehicle (V) via a base station by adopting a known communication method such as CDMA, GSM, W-CDMA, TD-SCDMA, WiBro, LTE, EPC, etc. In contrast, the estimated position obtaining device (100) of the vehicle (V) according to another embodiment can communicate with the vehicle (V) within a predetermined distance by adopting a communication method such as Wireless LAN, Wi-Fi, Bluetooth, Zigbee, WFD (Wi-Fi Direct), UWB (Ultra wideband), Infrared Data Association (IrDA), BLE (Bluetooth Low Energy), NFC (Near Field Communication). However, the method by which the lane information acquisition device (100) communicates with the vehicle (V) is not limited to the above-described embodiment.

차선 정보 획득 장치(100)는 차량(V)의 주변 영상 내 차선과 정밀 지도 내 차선을 매칭하고, 매칭 결과에 따라 결정되는 유효 차선을 다항함수 피팅한 후, 피팅된 다항함수 계수를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 또한, 차선 정보 획득 장치(100)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다.A lane information acquisition device (100) can match lanes in a surrounding image of a vehicle (V) with lanes in a detailed map, fit a polynomial function to an effective lane determined based on the matching result, and then learn the fitted polynomial function coefficients to generate a lane information acquisition model. In addition, the lane information acquisition device (100) can input a target lane extracted from a surrounding image into the generated lane information acquisition model to obtain polynomial function coefficients for the target lane.

이를 위해, 차선 정보 획득 장치(100)는 학습부(110) 및 추론부(120)를 포함할 수 있다. To this end, the lane information acquisition device (100) may include a learning unit (110) and an inference unit (120).

학습부(110)는 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 도 1을 참조하면, 학습부(110)는 피팅부(111)와 모델 생성부(112)를 포함할 수 있다.The learning unit (110) can generate a lane information acquisition model by learning the polynomial function fitting result of the valid lane determined based on the matching result of the surrounding image of the vehicle (V) and the lane in the precision map. Referring to Fig. 1, the learning unit (110) can include a fitting unit (111) and a model generation unit (112).

피팅부(111)는 차량(V)의 주변 영상과 정밀 지도 내 차선의 매칭 결과에 따라 결정되는 유효 차선의 다항함수 피팅 결과로부터 다항함수 계수를 획득할 수 있다. 구체적으로, 피팅부(111)는 차량(V)의 주변 영상을 기초로 차량(V)의 위치를 추정하고, 정밀 지도 내 추정된 차량(V)의 위치에 대응되는 차선을 주변 영상 내 차선에 매칭하고, 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅하여, 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득할 수 있다.The fitting unit (111) can obtain polynomial function coefficients from the polynomial function fitting result of the valid lane determined based on the matching result of the surrounding image of the vehicle (V) and the lane in the precision map. Specifically, the fitting unit (111) estimates the position of the vehicle (V) based on the surrounding image of the vehicle (V), matches the lane corresponding to the estimated position of the vehicle (V) in the precision map to the lane in the surrounding image, and fits the determined valid lane based on the matching information of the lane, thereby obtaining polynomial function coefficients for the fitted valid lane.

모델 생성부(112)는 피팅 결과를 학습하여 차선 정보 획득 모델을 생성할 수 있다. 유효 차선에 다항함수 계수를 레이블링하고, 레이블링된 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다.The model generation unit (112) can learn the fitting result to generate a lane information acquisition model. It can label polynomial function coefficients for valid lanes, learn the labeled valid lanes, and generate a lane information acquisition model that outputs polynomial function coefficients for target lanes.

추론부(120)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다. 도 1을 참조하면, 추론부(120)는 차선 추출부(121)와 계수 획득부(122)를 포함할 수 있다.The inference unit (120) can input a target lane extracted from a surrounding image into the generated lane information acquisition model to obtain a polynomial function coefficient for the target lane. Referring to Fig. 1, the inference unit (120) can include a lane extraction unit (121) and a coefficient acquisition unit (122).

차선 추출부(121)는 외부로부터 입력된 주변 영상으로부터 타겟 차선을 추출할 수 있다. 또한, 계수 획득부(122)는 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 다항함수 계수를 획득할 수 있다.The lane extraction unit (121) can extract a target lane from a surrounding image input from the outside. In addition, the coefficient acquisition unit (122) can input the extracted target lane into a lane information acquisition model to obtain a polynomial function coefficient.

상술한 실시예에 따른 차선 정보 획득 장치(100)의 각 구성은 마이크로프로세서(Microprocessor)를 포함하는 연산 장치로 구현될 수 있고, 예를 들어 중앙 처리 장치(Central Processing Unit, CPU), 그래픽 처리 장치(Graphic Processing Unit, GPU) 등으로 구현될 수 있다. 이와는 달리, 차선 정보 획득 장치(100)를 구성하는 복수의 구성이 하나의 SOC(System On Chip)으로 구현되는 것도 가능할 수 있다.Each component of the lane information acquisition device (100) according to the above-described embodiment may be implemented as a computational device including a microprocessor, and may be implemented as, for example, a central processing unit (CPU), a graphic processing unit (GPU), etc. Alternatively, it may be possible for a plurality of components constituting the lane information acquisition device (100) to be implemented as a single SOC (System On Chip).

한편, 도 1에서는 차선 정보 획득 장치(100)가 차량(V)과 별개로 마련되어 차선 정보 획득 시스템(1)을 구성하는 경우에 대하여 예시하고 있으나, 이와는 달리 차선 정보 획득 장치(100)가 차량(V) 내부에 마련되는 것도 가능할 수 있다.Meanwhile, in FIG. 1, a case is exemplified where a lane information acquisition device (100) is installed separately from a vehicle (V) to configure a lane information acquisition system (1), but, alternatively, it may also be possible for the lane information acquisition device (100) to be installed inside the vehicle (V).

도 2를 참조하면, 다른 실시예에 따른 차선 정보 획득 시스템(1)은 차선 정보 획득 장치(100)를 포함하는 차량(V)으로 구성될 수 있다. 다만, 차선 정보 획득 장치(100)가 마련되는 방식을 제외하고는, 도 2의 차선 정보 획득 시스템(1)과 도 2의 차량(V)의 차선 정보 획득 시스템(1)의 동작 방식을 동일하다.Referring to FIG. 2, a lane information acquisition system (1) according to another embodiment may be configured with a vehicle (V) including a lane information acquisition device (100). However, except for the method in which the lane information acquisition device (100) is provided, the operation method of the lane information acquisition system (1) of FIG. 2 and the lane information acquisition system (1) of the vehicle (V) of FIG. 2 is the same.

이하에서는 도 3 내지 10을 참조하여, 상술한 차선 정보 획득 장치(100)에 의해 수행되는 본 발명의 일 실시예에 따른 차선 정보 획득 방법을 설명한다. 먼저, 도 3 내지 8을 통해 상술한 피팅부(111)에 의해 수행되는 유효 차선에 대한 다항함수의 계수 획득 방법을 설명하고, 도 9를 통해 상술한 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명한 후, 도 10을 통해 상술한 추론부(120)에 의해 수행되는 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명한다.Hereinafter, a lane information acquisition method according to an embodiment of the present invention performed by the lane information acquisition device (100) described above will be described with reference to FIGS. 3 to 10. First, a method for obtaining coefficients of a polynomial function for an effective lane performed by the fitting unit (111) described above will be described with reference to FIGS. 3 to 8, and a method for generating a lane information acquisition model performed by the learning unit (110) described above will be described with reference to FIG. 9. Then, a method for obtaining coefficients of a polynomial function for a target lane performed by the inference unit (120) described above will be described with reference to FIG. 10.

도 3은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 유효 차선에 대한 다항함수의 계수 획득 방법의 흐름도이고, 도 4는 본 발명의 일 실시예에 따른 정밀 지도로부터 추출되는 차선의 범위와 주변 영상으로부터 추출되는 차선의 범위를 설명하기 위한 도면이고, 도 5는 본 발명의 일 실시예에 따른 주변 영상으로부터 추출된 차선을 예시하는 도면이고, 도 6는 도 5의 주변 영상에 정밀 지도로부터 추출된 차선을 매칭하는 경우를 예시하는 도면이고, 도 7은 도 6의 매칭에 따른 매칭 오차를 설명하기 위한 도면이며, 도 8은 본 발명의 일 실시예에 따른 차량으로부터의 거리를 기준으로 피팅 범위를 결정하는 방법을 설명하기 위한 도면이다.FIG. 3 is a flowchart of a method for obtaining coefficients of a polynomial function for an effective lane among lane information obtaining methods according to one embodiment of the present invention, FIG. 4 is a diagram for explaining a range of lanes extracted from a precision map and a range of lanes extracted from a surrounding image according to one embodiment of the present invention, FIG. 5 is a diagram exemplifying lanes extracted from a surrounding image according to one embodiment of the present invention, FIG. 6 is a diagram exemplifying a case of matching a lane extracted from a precision map to the surrounding image of FIG. 5, FIG. 7 is a diagram for explaining a matching error according to the matching of FIG. 6, and FIG. 8 is a diagram for explaining a method for determining a fitting range based on a distance from a vehicle according to one embodiment of the present invention.

상술한 바와 같이, 일 실시예에 따른 차선 정보 획득 장치(100)의 피팅부(111)는 차선 정보 획득 모델을 생성하기 위해, 유효 차선의 피팅에 따른 다항함수 계수를 획득할 수 있다.As described above, the fitting unit (111) of the lane information acquisition device (100) according to one embodiment can acquire polynomial function coefficients according to the fitting of effective lanes in order to generate a lane information acquisition model.

이를 위해, 피팅부(111)는 위성 신호 및 주변 영상을 기초로 차량(V)의 위치를 추정할 수 있다(S100). 차량(V)의 위치를 추정하기 위한 실시예로서, 피팅부(111)는 우선 GPS 기반 차량(V)의 초기 위치 정보에 대응되는 정밀 지도의 랜드마크를 차량(V)의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 카메라의 초기 위치 정보를 획득할 수 있다. To this end, the fitting unit (111) can estimate the location of the vehicle (V) based on satellite signals and surrounding images (S100). As an example for estimating the location of the vehicle (V), the fitting unit (111) can first match the landmark of the precise map corresponding to the initial location information of the vehicle (V) based on GPS to the surrounding images captured by the camera of the vehicle (V) to obtain the initial location information of the camera.

카메라의 초기 위치 정보를 획득하기 위해, 피팅부(111)는 차량(V)으로부터 수신된 GPS 기반 차량(V)의 초기 위치를 이용하여 차량(V)의 초기 자세각을 획득할 수 있다. 그 다음, 피팅부(111)는 정밀 지도에서 GPS 기반 차량(V)의 초기 위치 정보를 기초로 제 1 관심 영역을 결정할 수 있다. 제 1 관심 영역이 결정되면, 피팅부(111)는 제 1 관심 영역 내에 존재하는 차선에 대한 제 1 랜드마크를 카메라에 의해 촬영된 영상에 매칭하여 카메라의 초기 자세각에 대한 회전 행렬 R을 획득할 수 있다. 또한, 피팅부(111)는 정밀 지도에서 GPS 기반 차량(V)의 초기 위치 정보를 기초로 제 2 관심 영역을 결정하고, 제 2 관심 영역 내에 존재하는 차선 이외의 제 2 랜드마크를 카메라의 초기 자세각을 기준으로 영상에 매칭하여 카메라의 초기 위치에 대한 이동 행렬 T를 획득할 수 있다.In order to obtain the initial position information of the camera, the fitting unit (111) can obtain the initial attitude angle of the vehicle (V) by using the initial position of the GPS-based vehicle (V) received from the vehicle (V). Then, the fitting unit (111) can determine a first region of interest based on the initial position information of the GPS-based vehicle (V) in the precision map. Once the first region of interest is determined, the fitting unit (111) can match a first landmark for a lane existing in the first region of interest to an image captured by the camera to obtain a rotation matrix R for the initial attitude angle of the camera. In addition, the fitting unit (111) can determine a second region of interest based on the initial position information of the GPS-based vehicle (V) in the precision map, and match a second landmark other than a lane existing in the second region of interest to an image based on the initial attitude angle of the camera to obtain a translation matrix T for the initial position of the camera.

카메라의 초기 위치 정보를 획득한 후, 피팅부(111)는 카메라의 초기 위치를 입력값으로하여 카메라의 추정 위치 정보를 획득할 수 있다. 이를 위해, 피팅부(111)는 카메라의 초기 위치 정보 주변에 복수의 후보 위치 정보를 샘플링 하고, Particle Filter를 이용하여 카메라의 추정 위치 정보를 획득할 수 있다. 그 다음, 피팅부(111)는 복수의 후보 위치 정보 각각에 대응되는 정밀 지도의 랜드마크와 영상 간 매칭 오차에 기초하여 복수의 후보 위치 정보 각각에 가중치를 부여할 수 있다. 가중치 부여 후, 피팅부(111)는 가중치가 부여된 복수의 후보 위치 정보를 이용하여 복수의 후보 위치 정보를 새롭게 샘플링 하고, 새롭게 샘플링된 복수의 후보 위치 정보의 표준편차가 기준 표준편차 이하이면, 새롭게 샘플링된 복수의 후보 위치 정보의 평균값을 카메라의 추정 위치 정보로서 획득할 수 있다.After obtaining the initial position information of the camera, the fitting unit (111) can obtain the estimated position information of the camera by using the initial position of the camera as an input value. To this end, the fitting unit (111) can sample a plurality of candidate position information around the initial position information of the camera, and obtain the estimated position information of the camera by using a particle filter. Then, the fitting unit (111) can assign a weight to each of the plurality of candidate position information based on a matching error between a landmark of a precision map and an image corresponding to each of the plurality of candidate position information. After assigning the weight, the fitting unit (111) newly samples the plurality of candidate position information by using the plurality of candidate position information to which the weight has been assigned, and if the standard deviation of the newly sampled plurality of candidate position information is less than or equal to a reference standard deviation, the average value of the newly sampled plurality of candidate position information can be acquired as the estimated position information of the camera.

카메라의 추정 위치 정보가 획득되면, 피팅부(111)는 카메라의 추정 위치 정보의 유효성을 검증한 후, 유효한 카메라의 추정 위치 정보를 기초로 차량(V)의 추정 위치 정보를 획득할 수 있다. 이를 위해, 피팅부(111)는 먼저 카메라의 추정 위치 정보에 대응되는 정밀 지도의 랜드마크 중 차선 이외의 제 2 랜드마크를 확인하여, 제 2 랜드마크 각각의 매칭 오차에 대응되는 카메라 추정 위치 정보의 가중치를 획득할 수 있다. 제 2 랜드마크 각각의 매칭 오차에 대응되는 가중치가 획득되면, 피팅부(111)는 기준치 이상의 가중치의 수가 기준 개수 이상인지 판단하여 추정된 카메라의 위치 정보를 유효한 것으로 결정할 수 있다. 이를 통해, 피팅부(111)는 카메라 추정 위치 정보를 이용하여 차량(V)의 추정 위치 정보를 획득할 수 있다.When the estimated position information of the camera is acquired, the fitting unit (111) can verify the validity of the estimated position information of the camera, and then acquire the estimated position information of the vehicle (V) based on the valid estimated position information of the camera. To this end, the fitting unit (111) can first confirm a second landmark other than a lane among the landmarks of the precise map corresponding to the estimated position information of the camera, and acquire a weight of the estimated position information of the camera corresponding to the matching error of each of the second landmarks. When the weight corresponding to the matching error of each of the second landmarks is acquired, the fitting unit (111) can determine whether the number of weights greater than a reference value is greater than a reference number, and determine the estimated position information of the camera to be valid. Through this, the fitting unit (111) can acquire the estimated position information of the vehicle (V) using the estimated position information of the camera.

도 3에서는 위성 신호 및 주변 영상을 기초로 차량(V)의 위치를 추정하는 경우를 예시하였으나, 다른 실시예에 따른 차선 정보 획득 방법은 RTK/INS 장비를 이용하여 고정밀 지도에서 현재 차량(V)의 위치 정보를 추정할 수도 있다.In Fig. 3, a case in which the position of a vehicle (V) is estimated based on a satellite signal and surrounding images is exemplified, but a lane information acquisition method according to another embodiment can also estimate the position information of the current vehicle (V) on a high-precision map using RTK/INS equipment.

차량(V)의 추정 위치 정보에 따라 차량(V)의 위치가 추정되면, 피팅부(111)는 추정된 차량(V)의 위치에 대응되는 차선을 정밀 지도로부터 추출할 수 있다(S110). 도 4를 참조하면, 피팅부(111)는 차량(V)의 뒷범퍼를 포함하고, 차량(V)의 전륜으로부터 차량(V)의 전방, 즉 종축 방향으로 미리 정해진 최대 임계 거리까지의 제 1 관심 영역 SM을 설정하고, 제 1 관심 영역 SM 내 차선의 픽셀 좌표를 추출할 수 있다.When the position of the vehicle (V) is estimated based on the estimated position information of the vehicle (V), the fitting unit (111) can extract a lane corresponding to the estimated position of the vehicle (V) from a precise map (S110). Referring to FIG. 4, the fitting unit (111) can set a first region of interest S M including a rear bumper of the vehicle (V) and extending from the front wheel of the vehicle (V) to the front of the vehicle (V), that is, to a predetermined maximum threshold distance in the longitudinal direction, and extract pixel coordinates of a lane within the first region of interest S M.

그 다음, 피팅부(111)는 추출된 차선을 주변 영상에 매칭하여 차선을 피팅할 수 있다(S120). 이에 앞서, 피팅부(111)는 차량(V)에 탑재된 카메라에 의해 촬영된 주변 영상 내 차선을 추출할 수 있다. 일 실시예에 따른 피팅부(111)는 학습 영상에 차선 영역의 위치가 레이블링된 학습 데이터를 학습하여 생성된 차선 추출 모델을 이용하여 주변 영상으로부터 차선을 추출할 수 있다. 도 5는 피팅부(111)에 의해 주변 영상으로부터 추출된 4개의 차선을 예시한다.Next, the fitting unit (111) can fit the lane by matching the extracted lane to the surrounding image (S120). Prior to this, the fitting unit (111) can extract the lane in the surrounding image captured by the camera mounted on the vehicle (V). According to one embodiment, the fitting unit (111) can extract the lane from the surrounding image by using a lane extraction model generated by learning learning data in which the location of the lane area is labeled in the learning image. Fig. 5 illustrates four lanes extracted from the surrounding image by the fitting unit (111).

다시 도 4를 참조하면, 차량(V)에 탑재된 카메라는 화각에 의해 형성된는 제 2 관심 영역 SC에 대한 주변 영상을 획득하고, 피팅부(111)는 주변 영상으로부터 제 2 관심 영역 SC 내 차선의 픽셀 좌표를 추출할 수 있다. 이 때, 제 1 관심 영역 SM과 제 2 관심 영역 SC는 일부 중첩되는 영역이 존재하므로, 동일한 차선이 정밀 지도와 주변 영상 각각으로부터 추출된 것일 수 있다.Referring again to FIG. 4, the camera mounted on the vehicle (V) obtains a peripheral image for the second region of interest S C formed by the angle of view, and the fitting unit (111) can extract pixel coordinates of a lane within the second region of interest S C from the peripheral image. At this time, since the first region of interest S M and the second region of interest S C have a partially overlapping area, the same lane may be extracted from each of the precision map and the peripheral image.

따라서, 피팅부(111)는 정밀 지도로부터 추출된 차선을 주변 영상의 차선에 매칭할 수 있다. 구체적으로, 피팅부(111)는 수학식 1에 따라 정밀 지도로부터 추출된 차선의 픽셀 좌표를 주변 영상에 투영시켜 차선 매칭을 수행할 수 있다.Accordingly, the fitting unit (111) can match the lane extracted from the precision map to the lane of the surrounding image. Specifically, the fitting unit (111) can perform lane matching by projecting the pixel coordinates of the lane extracted from the precision map onto the surrounding image according to mathematical expression 1.

Figure 112019059678010-pat00001
Figure 112019059678010-pat00001

여기서, m은 주변 영상으로 투영된 차선의 픽셀 좌표 값이고, K는 카메라 내부 파라미터 행렬이고, R은 정밀 지도 상의 차선에 대한 3차원 픽셀 좌표를 카메라 좌표계로 변환시키는 회전 행렬이고, T는 정밀 지도 상의 차선에 대한 3차원 픽셀 좌표를 카메라 좌표계로 변환시키는 이동 행렬이다. 또한, R과 T는 단계 S100에서 수행된 차량(V)의 위치 추정 결과와, 카메라-차량(V) 좌표계 간 회전/이동 변환 행렬을 기초로 획득될 수 있다.Here, m is a pixel coordinate value of a lane projected onto a surrounding image, K is a camera internal parameter matrix, R is a rotation matrix that transforms a 3D pixel coordinate of a lane on a precision map into a camera coordinate system, and T is a translation matrix that transforms a 3D pixel coordinate of a lane on a precision map into a camera coordinate system. In addition, R and T can be obtained based on the position estimation result of the vehicle (V) performed in step S100 and the rotation/translation transformation matrix between the camera-vehicle (V) coordinate systems.

도 6에서는 주변 영상 내 추출된 4개의 차선 상에 정밀 지도로부터 추출된 복수의 차선이 매칭되는 경우를 예시한다. 이 때, 주변 영상 내 4번 차선에 대하여 정밀 지도 내 차선과의 매칭 결과 오차가 발생함을 확인할 수 있다. 매칭 오차가 존재할 경우, 매칭된 차선에 대하여 피팅 결과 역시 부정확할 수 있으므로, 피팅부(111)는 피팅에 앞서 매칭된 차선의 유효성을 판단할 수 있다.In Fig. 6, a case is exemplified where multiple lanes extracted from a precision map are matched to four lanes extracted from a surrounding image. At this time, it can be confirmed that an error occurs in the matching result between lane number 4 in the surrounding image and the lane in the precision map. If a matching error exists, the fitting result for the matched lane may also be inaccurate, so the fitting unit (111) can determine the validity of the matched lane prior to fitting.

구체적으로, 일 실시예에 따른 피팅부(111)는 매칭된 차선 중 정밀 지도 내 추정된 차량(V)의 위치에 대응되는 차선과 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인지 확인하여, 유효 차선을 결정할 수 있다. 도 7을 참조하면, 피팅부(111)는 정밀 지도로부터 추출된 차선의 어느 하나의 픽셀 PM과 주변 영상으로부터 추출된 차선의 대응 픽섹 PI 간의 매칭 오차 de를 확인할 수 있다. Specifically, the fitting unit (111) according to one embodiment can determine a valid lane by checking whether the average pixel coordinate error between the lane corresponding to the estimated location of the vehicle (V) in the precision map among the matched lanes and the lanes in the surrounding image is less than or equal to a first threshold value. Referring to FIG. 7, the fitting unit (111) can check the matching error d e between any one pixel P M of the lane extracted from the precision map and the corresponding pixel P I of the lane extracted from the surrounding image.

그 다음, 피팅부(111)는 정밀 지도로부터 추출된 차선의 나머지 픽셀과 주변 영상으로부터 추출된 차선의 대응 픽셀 각각의 매칭 오차를 확인한 후, 이들의 평균인 평균 픽셀 좌표 오차를 획득할 수 있다. 평균 픽셀 좌표 오차를 획득한 후, 피팅부(111)는 획득된 평균 픽셀 좌표 오차가 제 1 임계값 이하인지 확인하여, 평균 픽셀 좌표 오차가 제 1 임계값 이하인 매칭된 차선을 유효 차선으로 결정할 수 있다. 여기서, 제 1 임계값이란 유효 차선으로 결정할 수 있는 매칭된 차선에 대한 평균 픽셀 좌표 오차의 최대값을 의미할 수 있다.Next, the fitting unit (111) can check the matching error of each of the remaining pixels of the lane extracted from the precision map and the corresponding pixels of the lane extracted from the surrounding image, and then obtain an average pixel coordinate error, which is an average of them. After obtaining the average pixel coordinate error, the fitting unit (111) can check whether the obtained average pixel coordinate error is less than or equal to a first threshold value, and determine a matched lane whose average pixel coordinate error is less than or equal to the first threshold value as a valid lane. Here, the first threshold value can mean the maximum value of the average pixel coordinate error for the matched lane that can be determined as a valid lane.

상술한 과정에 부가하여, 다른 실시예에 따른 피팅부(111)는 평균 픽셀 좌표 오차가 최소인 후보 차선 각각에 대하여 정밀 지도로부터 추출된 차선과 주변 영상으로부터 추출된 차선 간 픽셀 좌표 오차가 제 2 임계값 이상인 픽셀의 개수를 확인할 수 있다. 여기서, 제 2 임계값은 차선의 픽셀 좌표를 유효하지 않은 것으로 결정할 수 있는 매칭된 차선에 대한 픽셀 좌표 오차의 최소값을 의미할 수 있다. In addition to the above-described process, the fitting unit (111) according to another embodiment can check the number of pixels in which the pixel coordinate error between the lane extracted from the precision map and the lane extracted from the surrounding image is greater than or equal to a second threshold value for each candidate lane with the minimum average pixel coordinate error. Here, the second threshold value can mean the minimum value of the pixel coordinate error for the matched lane that can determine the pixel coordinate of the lane as invalid.

그 다음, 피팅부(111)는 픽셀 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 매칭 차선을 유효 차선으로 결정할 수도 있다. 여기서, 제 3 임계값은 유효 차선으로 결정할 수 있는 매칭된 차선에 대한 유효하지 않은 픽셀 개수의 최대값을 의미할 수 있다.Next, the fitting unit (111) may determine a matching lane in which the number of pixels having a pixel coordinate error greater than or equal to a second threshold value is less than or equal to a third threshold value as a valid lane. Here, the third threshold value may mean the maximum number of invalid pixels for a matched lane that can be determined as a valid lane.

상술한 과정을 통해 유효 차선이 결정되면, 피팅부(111)는 유효 차선을 피팅할 수 있다(S120). 여기서, 유효 차선이란 유효한 것으로 판단되는 매칭 차선 중 정밀 지도로부터 추출된 차선을 의미할 수 있다. 추후 차선 피팅 결과로부터 획득되는 다항함수 계수는 딥러닝과 같은 기계학습에서의 정답 데이터로서 입력 데이터에 레이블링 되므로, 피팅부(111)는 주변 영상으로부터 추출된 차선 보다 정확도가 높은 정밀 지도로부터 추출된 차선을 유효 차선으로 선택할 수 있다.When a valid lane is determined through the above-described process, the fitting unit (111) can fit the valid lane (S120). Here, the valid lane may mean a lane extracted from a precision map among matching lanes judged to be valid. Since the polynomial function coefficients obtained from the lane fitting result are labeled as correct answer data in machine learning such as deep learning, the fitting unit (111) can select a lane extracted from a precision map with higher accuracy than a lane extracted from a surrounding image as a valid lane.

구체적으로, 피팅부(111)는 유효 차선을 구성하는 각각의 픽셀 좌표를 차량(V) 좌표계로 변환한 후 커브 피팅(Curve Fitting)을 수행할 수 있다. 구체적으로, 피팅부(111)는 수학식 2에 따라 유효 차선을 피팅할 수 있다.Specifically, the fitting unit (111) can perform curve fitting after converting each pixel coordinate constituting the valid lane into a vehicle (V) coordinate system. Specifically, the fitting unit (111) can fit the valid lane according to mathematical expression 2.

Figure 112019059678010-pat00002
Figure 112019059678010-pat00002

수학식 2에 따른 다항함수로 유효 차선을 피팅한 다음, 피팅부(111)는 피팅된 유효 차선에 대한 다항함수의 계수를 획득할 수 있다(S130). 구체적으로, 피팅부(111)는 수학식 2의 계수인 a, b, c, 및 d를 획득할 수 있다. 획득된 계수와 관련하여, 6a는 차선의 곡률 미분값을 의미하고, 2b는 곡률을 의미하고, arctan(c)는 방향값을 의미하고, d는 오프셋값을 의미할 수 있다. 그 결과, 획득된 다항함수 계수는 차선 이탈 경보 시스템(1), 차선 유지 지원 시스템(1) 등의 입력값으로 이용될 수 있다.After fitting the valid lane with a polynomial function according to mathematical expression 2, the fitting unit (111) can obtain coefficients of the polynomial function for the fitted valid lane (S130). Specifically, the fitting unit (111) can obtain coefficients a, b, c, and d of mathematical expression 2. With respect to the obtained coefficients, 6a may denote a curvature differential value of the lane, 2b may denote curvature, arctan(c) may denote a direction value, and d may denote an offset value. As a result, the obtained polynomial function coefficients may be used as input values for a lane departure warning system (1), a lane keeping assistance system (1), and the like.

또한, 일 실시예에 따른 피팅부(111)는 피팅된 다항함수의 유효성을 판단하고, 유효한 다항함수에 대하여만 계수를 획득할 수도 있다. 도 4에서 설명한 바와 같이, 피팅부(111)는 차량(V)의 전륜으로부터 차량(V)의 전방, 즉 종축 방향으로 미리 정해진 최대 임계 거리까지의 관심 영역을 설정하고, 관심 영역 내 차선 좌표를 추출할 수 있다. 피팅부(111)는 이렇게 추출된 차선 좌표를 주변 영상 내 차선에 매칭할 수 있다. In addition, the fitting unit (111) according to one embodiment may determine the validity of the fitted polynomial function and obtain coefficients only for valid polynomial functions. As described in FIG. 4, the fitting unit (111) may set a region of interest from the front wheel of the vehicle (V) to the front of the vehicle (V), i.e., a predetermined maximum threshold distance in the longitudinal direction, and extract lane coordinates within the region of interest. The fitting unit (111) may match the extracted lane coordinates to lanes within the surrounding image.

이 때, 피팅부(111)는 차량(V)으로부터 먼 차선의 픽셀일수록 매칭 오차가 증가할 수 있다. 도 8에서는 최대 임계 거리 d1 내에서 차선 Lf를 따라 배치되는 매칭된 차선의 픽셀 좌표 중 빗금 영역을 가지는 픽셀 좌표의 매칭 오차가 큰 경우를 예시한다. At this time, the fitting part (111) may have an increasing matching error as the pixel of the lane is farther from the vehicle (V). Fig. 8 illustrates a case where the matching error of the pixel coordinates having the hatched area among the pixel coordinates of the matched lanes arranged along the lane L f within the maximum critical distance d 1 is large.

이를 고려하여, 피팅부(111)는 먼저 최대 임계 거리 d1 내의 차선의 픽셀을 기초로 다항함수 피팅을 수행한 후, 실제 차선의 픽셀 좌표 각각으로부터 해당 다항함수의 출력값의 오차를 확인할 수 있다. 피팅부(111)는 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값 이하인 경우에 피팅된 다항함수를 유효한 것으로 판단할 수 있다. In consideration of this, the fitting unit (111) can first perform polynomial function fitting based on pixels of the lane within the maximum threshold distance d 1 , and then check the error of the output value of the polynomial function from each pixel coordinate of the actual lane. The fitting unit (111) can determine that the fitted polynomial function is valid if the average error for each pixel coordinate of the lane is less than or equal to the fourth threshold value.

반면, 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값보다 큰 경우, 피팅부(111)는 최대 임계 거리 이하의 범위 내 차선의 픽셀에 대해서만 다시 피팅을 수행하고, 피팅 결과의 유효성을 판단할 수 있다. 여기서, 제 4 임계값이란 피팅된 다항함수를 유효한 것으로 결정할 수 있는 실제 차선의 픽셀에 대한 평균 오차의 최대값을 의미할 수 있다.On the other hand, if the average error for each pixel coordinate of the lane is greater than the fourth threshold value, the fitting unit (111) can re-fit only for pixels of the lane within a range less than the maximum threshold distance, and determine the validity of the fitting result. Here, the fourth threshold value can mean the maximum value of the average error for pixels of the actual lane that can determine the fitted polynomial function as valid.

도 8에서는 피팅에 이용하는 차선의 픽셀 범위를 최대 임계 거리인 d1으로부터 d2로 제한하여 다항함수 피팅을 수행하는 경우를 예시한다.Figure 8 illustrates an example of performing polynomial function fitting by limiting the pixel range of the lane used for fitting from the maximum critical distance d 1 to d 2 .

상술한 과정에 부가하여, 다른 실시예에 따른 피팅부(111)는 차선의 픽셀 좌표 각각에 대한 평균 오차가 제 4 임계값 이하인 후보 다항함수에 대하여 각각의 차선의 픽셀 좌표에 대한 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 다항함수를 유효한 것으로 판단할 수도 있다. 여기서, 제 5 임계값은 다항함수를 유효하지 않은 것으로 결정할 수 있는 실제 차선의 픽셀 각각에 대한 오차의 최소값을 의미하고, 제 6 임계값은 다항함수를 유효한 것으로 결정할 수 있는 실제 차선의 픽셀 각각에 대한 유효하지 않은 픽셀 개수의 최대값을 의미할 수 있다.In addition to the above-described process, the fitting unit (111) according to another embodiment may determine as valid a polynomial function in which the number of pixels in which the error for each pixel coordinate of each lane is greater than or equal to a fifth threshold value is less than or equal to a sixth threshold value, among candidate polynomial functions in which the average error for each pixel coordinate of each lane is less than or equal to a fourth threshold value. Here, the fifth threshold value may mean the minimum value of the error for each pixel of the actual lane that can determine the polynomial function as invalid, and the sixth threshold value may mean the maximum value of the number of invalid pixels for each pixel of the actual lane that can determine the polynomial function as valid.

상술한 과정에 따라 피팅된 다항함수가 유효한 것으로 판단되면, 피팅부(111)는 해당 다항함수의 계수를 획득할 수 있다.If the fitted polynomial function is determined to be valid according to the above-described process, the fitting unit (111) can obtain the coefficients of the polynomial function.

지금까지는 피팅부(111)에 의해 수행되는 유효 차선에 대한 다항함수의 계수 획득 방법을 설명하였다. 이하에서는 도 9를 참조하여, 상술한 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명한다.So far, a method for obtaining coefficients of a polynomial function for a valid lane performed by the fitting unit (111) has been described. Hereinafter, a method for generating a lane information acquisition model performed by the learning unit (110) described above will be described with reference to FIG. 9.

도 9는 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 차선 정보 획득 모델을 생성하는 방법을 설명하기 위한 도면이다.FIG. 9 is a drawing for explaining a method for generating a lane information acquisition model among lane information acquisition methods according to one embodiment of the present invention.

상술한 바와 같이, 일 실시예에 따른 차선 정보 획득 장치(100)의 학습부(110)는 피팅부(111)에 의해 획득된 피팅에 따른 다항함수 계수를 기초로 유효 차선을 학습하여 차선 정보 획득 모델을 생성할 수 있다.As described above, the learning unit (110) of the lane information acquisition device (100) according to one embodiment can learn an effective lane based on the polynomial function coefficients according to the fitting acquired by the fitting unit (111) to generate a lane information acquisition model.

이를 위해, 학습부(110)는 제 1 시점에 획득한 주변 영상, 제 1 시점 이전의 제 2 시점에 획득한 주변 영상 및 제 1 시점 이후의 제 3 시점에 획득한 주변 영상으로부터 동일한 유효 차선을 추출할 수 있다(S200). 구체적으로, 일 실시예에 따른 학습부(110)는 제 1 시점에 획득한 주변 영상으로부터 유효 차선을 추출하고, 제 1 시점 이전의 제 2 시점에 획득한 주변 영상으로부터 앞서 추출한 유효 차선과 동일한 유효 차선을 추출하고, 제 1 시점 이후의 제 3 시점에 획득한 주변 영상으로부터 앞서 추출한 유효 차선과 동일한 유효 차선을 추출한 후, 서로 다른 시점에 획득된 주변 영상으로부터 추출된 유효 차선을 병합할 수 있다. To this end, the learning unit (110) can extract the same valid lane from the surrounding image acquired at the first point in time, the surrounding image acquired at the second point in time before the first point in time, and the surrounding image acquired at the third point in time after the first point in time (S200). Specifically, the learning unit (110) according to one embodiment can extract the valid lane from the surrounding image acquired at the first point in time, extract the same valid lane as the previously extracted valid lane from the surrounding image acquired at the second point in time before the first point in time, extract the same valid lane as the previously extracted valid lane from the surrounding image acquired at the third point in time after the first point in time, and then merge the valid lanes extracted from the surrounding images acquired at different points in time.

도 9에서는 제 1 시점에 대응되는 유효 차선을 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선과 병합하는 경우를 예시하였으나, 제 1 시점에 대응되는 유효 차선을 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선 중 적어도 하나와 병합하는 것도 가능할 수 있다.In Fig. 9, a case is exemplified where a valid lane corresponding to a first point in time is merged with a valid lane corresponding to a second point in time and a valid lane corresponding to a third point in time, but it may also be possible to merge a valid lane corresponding to a first point in time with at least one of a valid lane corresponding to a second point in time and a valid lane corresponding to a third point in time.

그 다음, 학습부(110)는 추출된 유효 차선에 다항함수 계수를 레이블링할 수 있다(S210). 구체적으로, 학습부(110)는 추출되어 병합된 유효 차선에 해당 유효 차선의 피팅에 따라 획득된 다항함수 계수를 레이블링 할 수 있다. 상술한 바와 같이, 유효 차선의 피팅에 따라 획득된 다항함수 계수는 정밀 지도로부터 획득된 값으로서 신뢰할 수 있으므로, 학습부(110)는 다항함수 계수를 정답 데이터로서 유효 차선에 레이블링할 수 있다.Next, the learning unit (110) can label the extracted valid lanes with polynomial function coefficients (S210). Specifically, the learning unit (110) can label the extracted and merged valid lanes with polynomial function coefficients obtained according to the fitting of the corresponding valid lanes. As described above, the polynomial function coefficients obtained according to the fitting of the valid lanes are reliable as values obtained from a precise map, so the learning unit (110) can label the polynomial function coefficients as correct data to the valid lanes.

만약, 학습부(110)가 지도 학습(Supervised Learning)을 따르는 경우, 학습부(110)는 추출된 유효 차선 전부에 다함함수 계수를 레이블링 할 수 있다. 이와는 달리, 학습부(110)가 반지도 학습(Semisupervised Learning)을 따르는 경우라면, 학습부(110)는 추출된 유효 차선 중 일부에 대해서만 다항함수 계수를 레이블링하고, 레이블링 된 유효 차선과 레이블링 되지 않은 유효 차선을 함께 이용하여 학습할 수도 있다.If the learning unit (110) follows supervised learning, the learning unit (110) can label polynomial function coefficients for all extracted valid lanes. On the other hand, if the learning unit (110) follows semisupervised learning, the learning unit (110) can label polynomial function coefficients for only some of the extracted valid lanes, and learn by using both labeled and unlabeled valid lanes.

마지막으로, 학습부(110)는 레이블링된 유효 차선을 학습하여 차선 정보 획득 모델을 생성할 수 있다(S220). 여기서, 차선 정보 획득 모델이란 주변 영상 내 타겟 차선이 입력되면 해당 차선의 다항함수 피팅에 따른 다항함수 계수를 출력하는 모델을 의미하고, 일 실시예에 따른 차선 정보 획득 모델은 신경망 기반의 모델일 수 있다. 신경망 기반의 차선 정보 획득 모델은 CNN(Convolution Neural Network), DNN(Deep Neural Network), RNN(Recurrent Neural Network), BRDNN(Bidirectional Recurrent Deep Neural Network)과 같은 신경망 모델로 구현될 수 있다.Finally, the learning unit (110) can learn the labeled valid lanes to generate a lane information acquisition model (S220). Here, the lane information acquisition model means a model that outputs polynomial function coefficients according to polynomial function fitting of a target lane in a surrounding image when the target lane is input, and the lane information acquisition model according to one embodiment may be a neural network-based model. The neural network-based lane information acquisition model may be implemented as a neural network model such as a CNN (Convolution Neural Network), a DNN (Deep Neural Network), an RNN (Recurrent Neural Network), or a BRDNN (Bidirectional Recurrent Deep Neural Network).

일 실시예에 따른 차선 정보 획득 모델은 유효 차선이 입력되는 입력층, 입력된 유효 차선에 대응되는 다항함수 계수가 출력되는 출력층, 및 입력층과 출력층 사이에 마련되는 복수의 은닉층으로 구성될 수 있다. 출력층은 복수의 은닉층 중 가장 마지막 은닉층과 완전 연결 네트워크(Fully Connected Network)를 형성할 수 있다. 이 때, 인공 신경망의 출력층은 N차 다항함수의 계수에 대한 노드로 구성되고, 각각의 노드는 다항함수 계수에서의 각각의 계수를 의미할 수 있다. A lane information acquisition model according to one embodiment may be composed of an input layer into which a valid lane is input, an output layer into which a polynomial function coefficient corresponding to the input valid lane is output, and a plurality of hidden layers provided between the input layer and the output layer. The output layer may form a fully connected network with the last hidden layer among the plurality of hidden layers. At this time, the output layer of the artificial neural network may be composed of nodes for coefficients of an Nth-order polynomial function, and each node may mean a respective coefficient in the polynomial function coefficients.

만약, 차선 정보 획득 모델이 CNN 모델로 구현되는 경우, 복수의 은닉층은 복수의 컨볼루션층(Convolution Layer)과 서브 샘플링층(Subsampling Layer)로 구성될 수 있다. 컨볼루션층은 입력되는 유효 차선에 다양한 컨볼루션 커널(Convolution Kunnel)을 적용하여, 유효 차선에 대한 특징화 벡터를 획득할 수 있다. 이처럼, 컨볼루션은 고차원의 유효 차선에 대해서 특징을 추출하는 일종의 템플릿과 같은 역할을 수행할 수 있다. 서브 샘플링층은 획득된 특징화 벡터의 차원을 축소하는 뉴런층으로서, 컨볼루션 층에 의해 생성된 특징화 벡터에 대한 공간적 해상도를 낮출 수 있다. 이와 같은 과정을 통해, 차선 정보 획득 모델은 문제의 복잡도를 줄일 수 있다. 은닉층에는 컨볼루션 층과 서브 샘플링 층은 반복하여 배치됨으로써 상술한 과정이 반복 수행될 수 있다. 학습부(110)는 출력과 정답 간의 오차를 최소화 하는 방향으로 Back Propagation을 이용하여 인공 신경망의 파라미터를 재조정하고, 출력이 정답에 수렴할 때까지 상술한 입력을 이용하여 인공 신경망을 반복 학습 시킬 수 있다. If the lane information acquisition model is implemented as a CNN model, multiple hidden layers can be composed of multiple convolution layers and subsampling layers. The convolution layer can obtain a feature vector for the effective lane by applying various convolution kernels to the input effective lane. In this way, the convolution can play a role like a template that extracts features for high-dimensional effective lanes. The subsampling layer is a neuron layer that reduces the dimension of the obtained feature vector, and can lower the spatial resolution for the feature vector generated by the convolution layer. Through this process, the lane information acquisition model can reduce the complexity of the problem. The convolution layer and the subsampling layer are repeatedly arranged in the hidden layer, so that the above-described process can be repeatedly performed. The learning unit (110) can readjust the parameters of the artificial neural network using back propagation in a direction that minimizes the error between the output and the correct answer, and repeatedly train the artificial neural network using the above-described input until the output converges to the correct answer.

예를 들어, 일 실시예에 따른 학습부(110)는 k번째 주변 영상에서 검출된 i번째 유효 차선과, i번째 유효 차선과 동일한 k번째 주변 영상의 이전 또는 이후 주변 영상 내 유효 차선을 입력 데이터로 하여, 인공 신경망을 학습시킬 수 있다. 또한, 다른 실시에에 따른 학습부(110)는 상술한 입력 데이터에 k번째 차량 좌표계 기준으로 k번째 주변 영상의 이전 또는 이후 주변 영상에 대응되는 차량의 위치/자세 정보를 부가하여, 인공 신경망을 학습시킬 수 있다.For example, the learning unit (110) according to one embodiment can train an artificial neural network by using as input data the i-th valid lane detected in the k-th surrounding image and the valid lane in the surrounding image before or after the k-th surrounding image that is identical to the i-th valid lane. In addition, the learning unit (110) according to another embodiment can train an artificial neural network by adding position/position information of a vehicle corresponding to the surrounding image before or after the k-th surrounding image based on the k-th vehicle coordinate system to the above-described input data.

또한, 또 다른 실시예에 따른 학습부(110)는 인공 신경망에 의해 출력되는 출력 데이터가 k번째 주변 영상에서 검출된 i 번째 유효 차선에 대한 다항함수 계수를 포함하도록, 인공 신경망을 학습시킬 수 있다. 뿐만 아니라, 또 다른 실시예에 따른 학습부(110)는 인공 신경망에 의해 상술한 출력 데이터에 부가하여 k번째 주변 영상의 이전 또는 이후 주변 영상에서 검출된 유효 차선에 대한 다항함수 계수를 출력하도록, 인공 신경망을 학습시킬 수 있다.In addition, the learning unit (110) according to another embodiment may train the artificial neural network so that the output data output by the artificial neural network includes the polynomial function coefficient for the ith valid lane detected in the kth surrounding image. In addition, the learning unit (110) according to another embodiment may train the artificial neural network so that, in addition to the output data described above, the artificial neural network outputs the polynomial function coefficient for the valid lane detected in the surrounding image before or after the kth surrounding image.

이 때, 학습부(110)는 수학식 3의 손실함수에 대하여 손실 loss를 최소로 하는 다항함수 계수를 획득할 수 있다.At this time, the learning unit (110) can obtain polynomial function coefficients that minimize loss for the loss function of mathematical expression 3.

여기서, ag, bg, cg, 및 dg는 다항함수 계수에 대한 정답 데이터를 의미하고, a, b, c, 및 d는 출력 데이터를 의미할 수 있다.Here, a g , b g , c g , and d g represent correct answer data for polynomial function coefficients, and a, b, c, and d may represent output data.

일 실시예에 따른 학습부(110)는 지도 학습 방법에 따라, 유효 차선을 입력으로 하고, 해당 유효 차선의 피팅 결과에 따른 다항함수 계수를 대응시킴으로써 유효 차선을 학습할 수 있다. 즉, 학습부(110)는 입력인 유효 차선과 정답인 다항함수 계수 사이의 관계를 학습함으로써, 입력되는 유효 차선의 피팅 결과에 따른 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다.According to one embodiment, the learning unit (110) can learn the valid lane by inputting the valid lane and corresponding the polynomial function coefficient according to the fitting result of the valid lane, according to the supervised learning method. That is, the learning unit (110) can learn the relationship between the input valid lane and the correct polynomial function coefficient, thereby generating a lane information acquisition model that outputs the polynomial function coefficient according to the fitting result of the input valid lane.

이와는 달리, 다른 실시예에 따른 학습부(110)는 레이블링이 된 일부 유효 차선과 레이블링이 되지 않은 나머지 유효 차선을 함께 이용하여 학습하는 In contrast, the learning unit (110) according to another embodiment learns by using some labeled valid lanes and the remaining unlabeled valid lanes together.

반지도 학습(Semisupervised Learning)에 의해 차선 정보 획득 모델을 생성할 수도 있다. 또는, 또 다른 실시예에 따른 학습부(110) 학습 결과가 올바른지에 대한 피드백을 이용하는 강화 학습(Reinforcement Learning)에 따라 차선 정보 생성 모델을 생성할 수도 있다.A lane information acquisition model may be generated by semi-supervised learning. Alternatively, a lane information generation model may be generated by reinforcement learning that utilizes feedback on whether the learning result of the learning unit (110) according to another embodiment is correct.

학습 완료 후, 학습부(110)는 추론 과정을 통해 학습 과정에서 이용된 입력 데이터의 형식과 동일하게 신경망에 After learning is completed, the learning unit (110) uses the inference process to input data in the same format as the data used in the learning process into the neural network.

또한, 학습부(110)는 유효 차선 이외에 입력으로서 추정된 차량(V)의 위치 정보를 함께 학습할 수도 있다. 즉, 학습부(110)는 추정된 차량(V)의 위치 정보, 및 해당 위치 정보에 대응되는 유효 차선을 입력으로 하고, 해당 유효 차선의 피팅 결과에 따른 다항함수 계수를 출력으로 하는 차선 정보 획득 모델을 생성할 수 있다.In addition, the learning unit (110) may learn the location information of the estimated vehicle (V) as input in addition to the valid lane. That is, the learning unit (110) may generate a lane information acquisition model that takes the location information of the estimated vehicle (V) and the valid lane corresponding to the location information as input, and outputs the polynomial function coefficients according to the fitting result of the corresponding valid lane.

또한, 제 1 시점에 대응되는 유효 차선이 제 2 시점에 대응되는 유효 차선 및 제 3 시점에 대응되는 유효 차선 중 적어도 하나와 병합되는 경우, 학습부(110)는 차선 정보 획득 모델이 제 1 시점뿐만 아니라, 제 2 시점 및 제 3 시점 중 적어도 하나에 대응되는 유효 차선에 대한 다항함수 계수를 출력할 수 있도록, 유효 차선을 학습할 수도 있다. 예를 들어, 제 1 시점에 대응되는 유효 차선이 제 2 시점에 대응되는 유효 차선과 병합되는 경우, 학습부(110)는 병합된 유효 차선을 학습하여, 제 1 시점에 대응되는 유효 차선에 대한 다항함수 계수 및 제 2 시점에 대응되는 유효 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수 있다. 이와는 달리, 제 1 시점에 대응되는 유효 차선이 제 3 시점에 대응되는 유효 차선과 병합되는 경우, 학습부(110)는 병합된 유효 차선을 학습하여, 제 1 시점에 대응되는 유효 차선에 대한 다항함수 계수 및 제 3 시점에 대응되는 유효 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성할 수도 있다.In addition, when a valid lane corresponding to a first time point is merged with at least one of a valid lane corresponding to a second time point and a valid lane corresponding to a third time point, the learning unit (110) may learn the valid lane so that the lane information acquisition model can output polynomial function coefficients for the valid lane corresponding to at least one of the second time point and the third time point as well as the first time point. For example, when a valid lane corresponding to a first time point is merged with a valid lane corresponding to a second time point, the learning unit (110) may learn the merged valid lane and generate a lane information acquisition model that outputs polynomial function coefficients for the valid lane corresponding to the first time point and polynomial function coefficients for the valid lane corresponding to the second time point. In contrast, when a valid lane corresponding to a first time point is merged with a valid lane corresponding to a third time point, the learning unit (110) may learn the merged valid lane and generate a lane information acquisition model that outputs polynomial function coefficients for the valid lane corresponding to the first time point and polynomial function coefficients for the valid lane corresponding to the third time point.

지금까지는 학습부(110)에 의해 수행되는 차선 정보 획득 모델을 생성하는 방법을 설명하였다. 이하에서는, 도 10을 참조하여, 상술한 추론부(120)에 의해 수행되는 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명한다.So far, a method for generating a lane information acquisition model performed by the learning unit (110) has been described. Hereinafter, a method for obtaining coefficients of a polynomial function for a target lane performed by the above-described inference unit (120) will be described with reference to FIG. 10.

도 10은 본 발명의 일 실시예에 따른 차선 정보 획득 방법 중 타겟 차선에 대한 다항함수의 계수 획득 방법을 설명하기 위한 도면이다.FIG. 10 is a drawing for explaining a method for obtaining coefficients of a polynomial function for a target lane among lane information obtaining methods according to one embodiment of the present invention.

상술한 바와 같이, 차선 정보 획득 장치(100)의 추론부(120)는 생성된 차선 정보 획득 모델에 주변 영상으로부터 추출된 타겟 차선을 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다.As described above, the inference unit (120) of the lane information acquisition device (100) can input the target lane extracted from the surrounding image into the generated lane information acquisition model to obtain polynomial function coefficients for the target lane.

이를 위해, 추론부(120)는 먼저 차량(V)의 주변 영상을 획득할 수 있다(S300). 차선 정보 획득 장치(100)가 차량(V)과 별개로 마련되는 경우, 추론부(120)는 차선 정보 획득 장치(100)의 통신 수단에 의해 수신된 차량(V)의 주변 영상을 획득할 수 있다. 이와는 달리, 차선 정보 획득 장치(100)가 차량(V)과 일체로 마련되는 경우, 추론부(120)는 차량(V)의 카메라로부터 직접 주변 영상을 획득하거나, 카메라에 의해 획득된 주변 영상을 차량(V) 내부 통신수단에 의해 획득할 수 있다.To this end, the inference unit (120) can first obtain a surrounding image of the vehicle (V) (S300). If the lane information acquisition device (100) is provided separately from the vehicle (V), the inference unit (120) can obtain a surrounding image of the vehicle (V) received by the communication means of the lane information acquisition device (100). In contrast, if the lane information acquisition device (100) is provided integrally with the vehicle (V), the inference unit (120) can obtain a surrounding image directly from the camera of the vehicle (V) or obtain a surrounding image obtained by the camera by the internal communication means of the vehicle (V).

주변 영상을 획득한 후, 추론부(120)는 획득된 주변 영상으로부터 타겟 차선을 추출할 수 있다(S310). 여기서, 타겟 차선이란 주변 영상 내 정보를 획득하고자 하는 차선을 의미할 수 있고, 일 실시예에 따른 타겟 차선은 단수 또는 복수 개 일 수 있다.After acquiring the surrounding image, the inference unit (120) can extract a target lane from the acquired surrounding image (S310). Here, the target lane may mean a lane for which information is to be acquired in the surrounding image, and according to one embodiment, there may be one or more target lanes.

구체적으로, 추론부(120)의 차선 추출부(121)는 학습 영상에 차선 영역의 위치가 레이블링된 학습 데이터를 학습하여 생성된 차선 추출 모델을 이용하여 주변 영상으로부터 타겟 차선을 추출할 수 있다. 이 때, 일 실시예에 따른 추론부(120)는 피팅부(111)와는 별개의 차선 추출 모델을 이용할 수 있다. 이와는 달리, 다른 실시예에 따른 추론부(120)는 피팅부(111)와 차선 추출 모델을 공유할 수 있고, 나아가 피팅부(111)와 일체로 구현될 수도 있다.Specifically, the lane extraction unit (121) of the inference unit (120) can extract a target lane from a surrounding image by using a lane extraction model generated by learning learning data in which the location of the lane area is labeled in the learning image. At this time, the inference unit (120) according to one embodiment can use a lane extraction model separate from the fitting unit (111). In contrast, the inference unit (120) according to another embodiment can share a lane extraction model with the fitting unit (111), and can further be implemented as an integral part with the fitting unit (111).

마지막으로, 추론부(120)는 타겟 차선을 차선 정보 획득 모델에 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다(S320). 구체적으로, 추론부(120)의 계수 획득부(122)는 주변 영상으로부터 추출된 타겟 차선을 학습부(110)에 의해 생성된 차선 정보 획득 모델에 입력하고, 차선 정보 획득 모델로부터 출력되는 다항함수 계수를 획득할 수 있다.Finally, the inference unit (120) can input the target lane into the lane information acquisition model to obtain polynomial function coefficients for the target lane (S320). Specifically, the coefficient acquisition unit (122) of the inference unit (120) can input the target lane extracted from the surrounding image into the lane information acquisition model generated by the learning unit (110) and obtain polynomial function coefficients output from the lane information acquisition model.

만약, 학습부(110)가 유효 차선뿐만 아니라 추정된 차량(V)의 위치 정보를 함께 학습하여 차선 정보 획득 모델을 생성한 경우, 계수 획득부(122)는 타겟 차선과 함께 현재 차량(V)의 위치 정보를 차선 정보 획득 모델에 입력하여 타겟 차선에 대한 다항함수 계수를 획득할 수 있다. 이렇게 획득된 다항함수 계수는 타겟 차선의 곡률 미분값, 타겟 차선의 곡률, 타겟 차선의 방향값, 및 오프셋값에 대한 정보를 포함하므로, 추후 차선 이탈 경보 시스템(1), 차선 유지 지원 시스템(1) 등의 입력값으로 이용될 수 있다.If the learning unit (110) learns not only the valid lane but also the location information of the estimated vehicle (V) to generate a lane information acquisition model, the coefficient acquisition unit (122) can input the location information of the current vehicle (V) along with the target lane into the lane information acquisition model to acquire polynomial function coefficients for the target lane. The polynomial function coefficients acquired in this way include information about the curvature differential value of the target lane, the curvature of the target lane, the direction value of the target lane, and the offset value, and thus can be used as input values for a lane departure warning system (1), a lane keeping assistance system (1), etc. in the future.

상술한 실시예에 따른 차선 정보 획득 장치 및 방법은, 차선의 피팅 시 사용자의 경험 또는 직관을 배제함으로써 보다 정확한 차선 정보를 획득할 수 있다. 특히, 기계 학습을 통해 차선 정보 획득 모델을 생성하여 이용하므로, 학습 DB가 많아질수록 출력하는 차선 정보의 정확도가 높아질 수 있다. The lane information acquisition device and method according to the above-described embodiment can acquire more accurate lane information by excluding the user's experience or intuition when fitting the lane. In particular, since a lane information acquisition model is created and used through machine learning, the accuracy of the output lane information can be increased as the learning DB increases.

또한, 검출된 주행 차선 정보를 차선 이탈 경보 시스템과 차선 유지 지원 시스템의 입력 값으로서 이용함으로써, 보다 정밀한 차량의 제어가 가능할 수 있다.In addition, by using the detected driving lane information as an input value for the lane departure warning system and the lane keeping assistance system, more precise vehicle control may be possible.

한편, 상술한 일 실시예에 따른 차선 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램을 기록하는 컴퓨터 판독가능한 기록매체에서 구현될 수 있다.Meanwhile, each step included in the lane information acquisition method according to the above-described embodiment can be implemented in a computer-readable recording medium that records a computer program programmed to perform these steps.

또한, 상술한 일 실시예에 따른 차선 정보 획득 방법에 포함된 각각의 단계는, 이러한 단계를 수행하도록 프로그램된 컴퓨터 프로그램으로 구현될 수도 있다.Additionally, each step included in the lane information acquisition method according to the above-described embodiment may be implemented as a computer program programmed to perform these steps.

이상의 설명은 본 발명의 기술 사상을 예시적으로 설명한 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 품질에서 벗어나지 않는 범위에서 다양한 수정 및 변형이 가능할 것이다. 따라서, 본 발명에 개시된 실시예들은 본 발명의 기술 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 본 발명의 기술 사상의 범위가 한정되는 것은 아니다. 본 발명의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 균등한 범위 내에 있는 모든 기술사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다.The above description is merely an illustrative description of the technical idea of the present invention, and those skilled in the art will appreciate that various modifications and variations may be made without departing from the essential quality of the present invention. Accordingly, the embodiments disclosed in the present invention are not intended to limit the technical idea of the present invention but to explain it, and the scope of the technical idea of the present invention is not limited by these embodiments. The protection scope of the present invention should be interpreted by the following claims, and all technical ideas within a scope equivalent thereto should be interpreted as being included in the scope of the rights of the present invention.

일 실시예에 따르면, 상술한 차선 정보 획득 장치 및 방법은 댁내 또는 산업 현장 등 다양한 분야에서 이용될 수 있으므로 산업상 이용 가능성이 있다.According to one embodiment, the lane information acquisition device and method described above can be used in various fields such as at home or at industrial sites, and thus has industrial applicability.

1: 차선 정보 획득 시스템
100: 차선 정보 획득 장치
V: 차량
1: Lane information acquisition system
100: Lane information acquisition device
V: vehicle

Claims (13)

차량의 주변 영상을 기초로 상기 차량의 위치를 추정하는 단계;
정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하는 단계;
상기 차선의 매칭 정보를 이용하여 상기 매칭된 차선을 유효 차선으로 결정하는 단계;
상기 결정된 유효 차선을 피팅(Fitting)하는 단계;
차량의 주변 영상으로부터 추출된 타겟 차선을 입력하면 상기 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 단계; 및
상기 주변 영상 내 상기 피팅된 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하는 단계를 포함하는
차선 정보 획득 방법.
A step of estimating the location of a vehicle based on an image of the surroundings of the vehicle;
A step of matching a lane corresponding to the estimated location of the vehicle within the precision map to a lane within the surrounding image;
A step of determining the matched lane as a valid lane by using the matching information of the lane;
A step of fitting the determined valid lane;
A step of obtaining polynomial function coefficients for the fitted valid lane as correct data of the valid lane used for learning to generate a lane information acquisition model that outputs polynomial function coefficients for the target lane by inputting a target lane extracted from an image surrounding the vehicle; and
A step of labeling the polynomial function coefficients in the fitted valid lanes within the surrounding image.
How to obtain lane information.
제 1 항에 있어서,
상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는,
상기 매칭된 차선 중 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 평균 픽셀 좌표 오차가 제 1 임계값 이하인 후보 차선으로부터 상기 평균 픽셀 좌표 오차가 최소인 상기 유효 차선을 결정하는
차선 정보 획득 방법.
In paragraph 1,
The step of determining the above-mentioned matched lane as the valid lane is:
Among the matched lanes, the candidate lanes in which the average pixel coordinate error between the lane corresponding to the estimated vehicle position in the precision map and the lanes in the surrounding image is less than or equal to a first threshold value are determined as the valid lane having the minimum average pixel coordinate error.
How to obtain lane information.
제 2 항에 있어서,
상기 매칭된 차선을 상기 유효 차선으로 결정하는 단계는,
상기 평균 픽셀 좌표 오차가 최소인 상기 후보 차선으로부터 상기 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선과 상기 주변 영상 내 차선 간 좌표 오차가 제 2 임계값 이상인 픽셀의 개수가 제 3 임계값 이하인 상기 유효 차선을 결정하는
차선 정보 획득 방법.
In the second paragraph,
The step of determining the above-mentioned matched lane as the valid lane is:
The valid lane is determined by determining the number of pixels in which the coordinate error between the lane corresponding to the estimated vehicle position in the precision map and the lane in the surrounding image is greater than or equal to a second threshold value from the candidate lane with the minimum average pixel coordinate error and is less than or equal to a third threshold value.
How to obtain lane information.
제 1 항에 있어서,
상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는,
상기 피팅된 다항함수에 대한 평균 피팅 오차가 제 4 임계값 이하인 경우, 상기 다항함수 계수를 획득하는
차선 정보 획득 방법.
In paragraph 1,
The step of obtaining the polynomial function coefficients for the fitted valid lane as the correct answer data of the above valid lane is:
If the average fitting error for the fitted polynomial function is less than or equal to the fourth threshold value, the polynomial function coefficient is obtained.
How to obtain lane information.
제 4 항에 있어서,
상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 상기 다항함수 계수를 획득하는 단계는,
상기 평균 피팅 오차가 상기 제 4 임계값 이하인 상기 피팅된 다항함수 중 피팅 오차가 제 5 임계값 이상인 픽셀의 개수가 제 6 임계값 이하인 상기 다항함수의 계수를 획득하는
차선 정보 획득 방법.
In paragraph 4,
The step of obtaining the polynomial function coefficients for the fitted valid lane as the correct answer data of the above valid lane is:
Obtain coefficients of the polynomial function in which the number of pixels having a fitting error greater than or equal to a fifth threshold among the fitted polynomial functions in which the average fitting error is less than or equal to the fourth threshold is less than or equal to a sixth threshold.
How to obtain lane information.
제 1 항에 있어서,
상기 레이블링된 상기 유효 차선을 학습하여 상기 차선 정보 획득 모델을 생성하는 단계를 더 포함하고,
상기 차선 정보 획득 모델을 생성하는 단계는,
상기 유효 차선이 입력된 상기 차선 정보 획득 모델에 의해 출력된 출력 데이터와 상기 유효 차선에 레이블링된 상기 다항함수 계수 사이의 오차가 작아지도록 상기 유효 차선을 학습하는
차선 정보 획득 방법.
In paragraph 1,
Further comprising a step of learning the labeled valid lane and generating the lane information acquisition model,
The step of generating the above lane information acquisition model is:
The valid lane is learned so that the error between the output data output by the lane information acquisition model into which the valid lane is input and the polynomial function coefficient labeled to the valid lane is reduced.
How to obtain lane information.
제 1 항에 있어서,
상기 유효 차선에 상기 다항함수 계수를 레이블링하는 단계는,
제 1 시점에 획득된 상기 주변 영상 내 상기 유효 차선을 상기 제 1 시점 이전의 제 2 시점에 획득된 상기 주변 영상 내 상기 유효 차선 및 상기 제 1 시점 이후의 제 3 시점에 획득된 상기 주변 영상 내 상기 유효 차선 중 적어도 하나를 병합하여 상기 다항함수 계수를 레이블링하는
차선 정보 획득 방법.
In paragraph 1,
The step of labeling the polynomial function coefficients in the above valid lanes is:
Labeling the polynomial function coefficients by merging at least one of the valid lanes in the surrounding image acquired at a first time point, the valid lanes in the surrounding image acquired at a second time point before the first time point, and the valid lanes in the surrounding image acquired at a third time point after the first time point.
How to obtain lane information.
제 1 항에 있어서,
상기 차선 정보 획득 모델을 생성하는 단계는,
상기 레이블링된 상기 유효 차선과 함께 상기 차량의 위치 정보를 학습하여 상기 차선 정보 획득 모델을 생성하는
차선 정보 획득 방법.
In paragraph 1,
The step of generating the above lane information acquisition model is:
The lane information acquisition model is created by learning the location information of the vehicle along with the labeled valid lane.
How to obtain lane information.
제 1 항에 있어서,
상기 차량의 위치를 추정하는 단계는,
GPS 기반 상기 차량의 초기 위치 정보에 대응되는 상기 정밀 지도의 랜드마크를 상기 차량의 카메라에 의해 촬영된 상기 주변 영상에 매칭하여 상기 카메라의 초기 위치 정보를 획득하는 단계;
상기 카메라의 초기 위치 정보 및 상기 차량의 주행 정보를 기초로 샘플링된 복수의 후보 위치 정보 각각에 대응되는 상기 정밀 지도의 랜드마크와 상기 영상 간 매칭 정보에 기초하여 상기 카메라의 위치를 추정하는 단계; 및
상기 추정된 카메라의 위치를 기초로 상기 차량의 위치를 추정하는 단계를 포함하는
차선 정보 획득 방법.
In paragraph 1,
The step of estimating the location of the above vehicle is:
A step of obtaining initial location information of the camera by matching a landmark of the precision map corresponding to the initial location information of the vehicle based on GPS to the surrounding image captured by the camera of the vehicle;
A step of estimating the position of the camera based on matching information between the landmark of the precision map and the image corresponding to each of a plurality of candidate position information sampled based on the initial position information of the camera and the driving information of the vehicle; and
A step of estimating the position of the vehicle based on the position of the estimated camera.
How to obtain lane information.
제 1 항에 있어서,
상기 레이블링된 상기 유효 차선을 기초로 상기 차선 정보 획득 모델의 학습 데이터를 생성하는 단계를 더 포함하는,
차선 정보 획득 방법.
In paragraph 1,
Further comprising a step of generating learning data of the lane information acquisition model based on the labeled valid lane.
How to obtain lane information.
차량의 타겟 주변 영상으로부터 타겟 차선을 추출하는 단계; 및
상기 추출된 타겟 차선을 차선 정보 획득 모델에 입력하여 상기 타겟 차선의 피팅 결과로서의 다항함수 계수를 획득하는 단계를 포함하고,
상기 차선 정보 획득 모델은,
상기 차량의 주변 영상 내 차선과 정밀 지도 내 상기 차량의 위치에 대응되는 차선 간 매칭 정보에 따라 결정된 유효 차선의 피팅 결과 획득한 다항함수 계수를 레이블링한 정답 데이터를 학습함으로써 생성되는
차선 정보 획득 방법.
A step of extracting a target lane from an image surrounding a target of a vehicle; and
It includes a step of inputting the extracted target lane into a lane information acquisition model to obtain polynomial function coefficients as a fitting result of the target lane.
The above lane information acquisition model is,
The correct answer data is generated by learning the polynomial function coefficients obtained by fitting the valid lanes determined based on the matching information between the lanes in the surrounding images of the vehicle and the lanes corresponding to the location of the vehicle in the detailed map.
How to obtain lane information.
차량의 주변 영상을 기초로 상기 차량의 위치를 추정하고, 정밀 지도 내 상기 추정된 차량의 위치에 대응되는 차선을 상기 주변 영상 내 차선에 매칭(Matching)하고, 상기 차선의 매칭 정보를 기초로 결정된 유효 차선을 피팅(Fitting)하여, 차량의 주변 영상으로부터 추출된 타겟 차선을 입력하면 상기 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델의 생성을 위한 학습에 이용되는 상기 유효 차선의 정답 데이터로서 상기 피팅된 유효 차선에 대한 다항함수 계수를 획득하는 피팅부; 및
상기 유효 차선에 상기 다항함수 계수를 레이블링(Labeling)하고, 상기 레이블링된 상기 유효 차선을 학습하여 타겟 차선에 대한 다항함수 계수를 출력하는 차선 정보 획득 모델을 생성하는 모델 생성부를 포함하는
차선 정보 획득 장치.
A fitting unit that estimates the location of the vehicle based on an image of the surroundings of the vehicle, matches a lane corresponding to the estimated location of the vehicle in a precision map to a lane in the image of the surroundings, and fits an effective lane determined based on the matching information of the lane, and obtains polynomial function coefficients for the fitted effective lane as correct data of the effective lane used for learning to generate a lane information acquisition model that outputs polynomial function coefficients for the target lane when a target lane extracted from the image of the surroundings of the vehicle is input; and
A model generation unit is included that labels the polynomial function coefficients on the above valid lanes and generates a lane information acquisition model that learns the labeled valid lanes and outputs polynomial function coefficients for the target lane.
Lane information acquisition device.
제 1 항 내지 제 11 항 중 어느 한 항에 기재된 방법에 따른 각각의 단계를 수행하도록 프로그램된 컴퓨터 판독 가능 기록매체에 저장된 프로그램. A program stored on a computer-readable recording medium programmed to perform each step according to any one of the methods described in claims 1 to 11.
KR1020190068972A 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information KR102733090B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020190068972A KR102733090B1 (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020190068972A KR102733090B1 (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Publications (2)

Publication Number Publication Date
KR20200141871A KR20200141871A (en) 2020-12-21
KR102733090B1 true KR102733090B1 (en) 2024-11-20

Family

ID=74090504

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020190068972A KR102733090B1 (en) 2019-06-11 2019-06-11 Apparatus and method for obtaining lane information

Country Status (1)

Country Link
KR (1) KR102733090B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112782661B (en) * 2021-01-05 2024-10-11 广州小鹏自动驾驶科技有限公司 Method and related device for detecting guard rail of motor vehicle lane
CN114526746B (en) * 2022-03-15 2024-09-06 智道网联科技(北京)有限公司 Method, device, equipment and storage medium for generating high-precision map lane lines
CN115824235B (en) * 2022-11-17 2024-08-16 腾讯科技(深圳)有限公司 Lane positioning method, device, computer equipment and readable storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101225626B1 (en) * 2010-07-19 2013-01-24 포항공과대학교 산학협력단 Vehicle Line Recognition System and Method
KR101558786B1 (en) * 2014-06-30 2015-10-07 현대자동차주식회사 Apparatus and method for recognizing driving lane of vehicle
KR20170097435A (en) 2016-02-18 2017-08-28 한국전자통신연구원 Apparatus and method for decision making for right turn in intersection for autonomous driving system
KR101910256B1 (en) * 2016-12-20 2018-10-22 전자부품연구원 Lane Detection Method and System for Camera-based Road Curvature Estimation
KR102499398B1 (en) * 2017-08-09 2023-02-13 삼성전자 주식회사 Lane detection method and apparatus

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
한국 공개특허공보 제10-2012-0009590호(2012.02.02.) 1부.*
한국 공개특허공보 제10-2018-0071552호(2018.06.28.) 1부.*
한국 공개특허공보 제10-2019-0016717호(2019.02.19.) 1부.*
한국 등록특허공보 제10-1558786호(2015.10.07.) 1부.*

Also Published As

Publication number Publication date
KR20200141871A (en) 2020-12-21

Similar Documents

Publication Publication Date Title
US10976741B2 (en) Safety and comfort constraints for navigation
CN109556615B (en) Driving map generation method based on multi-sensor fusion cognition of automatic driving
CN111291676B (en) Lane line detection method and device based on laser radar point cloud and camera image fusion and chip
KR102420476B1 (en) Apparatus and method for estimating location of vehicle and computer recordable medium storing computer program thereof
US11321950B2 (en) Apparatus and method for detecting lane information, and computer-readable recording medium storing computer program programmed to execute same method
KR102071418B1 (en) Apparatus and method for providing camera calibration for vehicle
US20230073897A1 (en) Aligning road information for navigation
US11460851B2 (en) Eccentricity image fusion
US12164037B2 (en) Safe traversable area estimation in unstructured free-space using deep convolutional neural network
US11954871B2 (en) Apparatus and method for acquiring coordinate conversion information
KR102733090B1 (en) Apparatus and method for obtaining lane information
KR20200120402A (en) Apparatus and method for obtaining estimated location of vehicle
KR102604821B1 (en) Apparatus and method for estimating location of vehicle
KR20200038140A (en) Apparatus and method for updating high definition map
US12188773B2 (en) Apparatus and method for determining of correction information of vehicle sensor
EP4047514B1 (en) Platform for perception system development for automated driving system
KR20210041969A (en) Apparatus and method for providing on-line camera calibration by using map matching
KR20210051030A (en) Apparatus and method for correcting bias in sensor
KR20200145410A (en) Apparatus and method for obtaining location information for camera of vehicle
US20230110391A1 (en) 3d sensing and visibility estimation
CN115946723A (en) Method and device for determining driving strategy, vehicle and storage medium
Tahir Development of an Autonomous Vehicle Platform
CN119413185A (en) Autonomous navigation and positioning system and method for autonomous driving vehicle

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20190611

PG1501 Laying open of application
A201 Request for examination
PA0201 Request for examination

Patent event code: PA02012R01D

Patent event date: 20220314

Comment text: Request for Examination of Application

Patent event code: PA02011R01I

Patent event date: 20190611

Comment text: Patent Application

E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20240115

Patent event code: PE09021S01D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20240925

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20241118

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20241118

End annual number: 3

Start annual number: 1

PG1601 Publication of registration