Nothing Special   »   [go: up one dir, main page]

KR101998584B1 - Lane detection apparatus and lane detection method - Google Patents

Lane detection apparatus and lane detection method Download PDF

Info

Publication number
KR101998584B1
KR101998584B1 KR1020170152560A KR20170152560A KR101998584B1 KR 101998584 B1 KR101998584 B1 KR 101998584B1 KR 1020170152560 A KR1020170152560 A KR 1020170152560A KR 20170152560 A KR20170152560 A KR 20170152560A KR 101998584 B1 KR101998584 B1 KR 101998584B1
Authority
KR
South Korea
Prior art keywords
lane
area
image
top view
pixels
Prior art date
Application number
KR1020170152560A
Other languages
Korean (ko)
Other versions
KR20190055634A (en
Inventor
최병호
황영배
윤주홍
박민규
허환
Original Assignee
전자부품연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 전자부품연구원 filed Critical 전자부품연구원
Priority to KR1020170152560A priority Critical patent/KR101998584B1/en
Publication of KR20190055634A publication Critical patent/KR20190055634A/en
Application granted granted Critical
Publication of KR101998584B1 publication Critical patent/KR101998584B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • G06K9/00798
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06K9/6202
    • G06K9/6267
    • G06T5/002
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)

Abstract

탑 뷰(Top View) 영상으로부터 추출된 복수의 차선 세그먼트(Segment)를 연결하여 차선 영역을 검출하는 차선 검출 장치 및 차선 검출 방법을 제공한다.
개시된 발명의 일 실시예에 따른 차선 검출 장치는, 전방 영상을 탑 뷰(Top View) 영상으로 변환하는 영상 변환부; 상기 탑 뷰 영상 내 각 픽셀 및 상기 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 필터링부; 상기 필터링된 영상으로부터 복수의 차선 세그먼트를 추출하고, 상기 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출하는 차선 영역 검출부; 및 상기 검출된 차선 영역을 상기 전방 영상에 매핑(Mapping)하는 매핑부를 포함할 수 있다.
A lane detecting apparatus and a lane detecting method for detecting a lane area by connecting a plurality of lane segments extracted from a top view image are provided.
According to another aspect of the present invention, there is provided a lane detecting apparatus including: an image converting unit for converting a forward image into a top view image; A filtering unit for filtering the top view image based on brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of the each pixel; A lane area detecting unit for extracting a plurality of lane segment from the filtered image and detecting a lane area based on the degree of similarity between the plurality of lane segment segments; And a mapping unit for mapping the detected lane area to the forward image.

Description

차선 검출 장치 및 차선 검출 방법{LANE DETECTION APPARATUS AND LANE DETECTION METHOD}TECHNICAL FIELD [0001] The present invention relates to a lane detecting apparatus and a lane detecting method,

전방 영상에서 차선을 검출하는 차선 검출 장치 및 차선 검출 방법에 관한 것이다.And more particularly to a lane detecting apparatus and a lane detecting method for detecting a lane in a forward image.

운전자 보조 시스템(Advanced Driver Assistance System; ADAS) 또는 자율주행 시스템(Autonomous Driving System; ADS)은 주행 중인 차량의 주변 환경에 따라 차량 제어를 수행하므로, 차량의 주변 환경 정보를 감지하는 것이 중요하다.It is important to detect the environment information of the vehicle because the ADS or the ADS performs the vehicle control according to the surrounding environment of the driving vehicle.

차량의 주변 환경 정보는 전방, 후방, 및/또는 측방 차량의 존재 정보, 속도 정보, 거리 정보와, 보행자, 교통신호 등과 같은 인접 차량 이외의 정보 등을 포함할 수 있다. 또한, 차량의 주변 환경 정보는 차선 정보를 포함하는 주행 도로 정보를 포함할 수도 있다.The environment information of the vehicle may include presence information of the front, rear, and / or side vehicles, speed information, distance information, and information other than adjacent vehicles such as a pedestrian, a traffic signal, and the like. Further, the environment information of the vehicle may include traveling road information including lane information.

다수의 운전자 보조 시스템이나 자율 주행 시스템은 전방 차선 정보에 기초해서 동작하도록 마련되므로, 운전자의 주행 편의성 및 주행 안전성을 높이기 위해서는 전방의 주행 도로 상의 차선을 사전에 검출하여 인지할 필요가 있다.Many driver assistance systems or autonomous driving systems are provided to operate based on the information of the front lane. Therefore, in order to improve the driving convenience and the driving stability of the driver, it is necessary to detect and recognize a lane on the road ahead.

종래의 차선 검출 알고리즘의 경우, 에지 영상에서 허프 변환이나 RANSAC 기반의 모델 맞춤(Model Fitting)을 이용하여 차선 정보를 추정하였다. 그 결과, 주행 도로 상의 숫자/글자 나 차선이 아닌 곳에서 발생하는 에지 정보에 의해 차선 오검출이 발생될 확률이 높다.In the case of the conventional lane detection algorithm, the lane information is estimated using the Huff transform or the RANSAC based model fitting in the edge image. As a result, there is a high probability that the lane-line detection will occur due to the edge information that occurs at a place other than a number / letter or a lane on the road.

또한, 기존 차선 검출 알고리즘은 차선의 위치를 하나의 직선 또는 곡선을 이용하여 표시하였으나, 실제 차선은 특정 크기를 갖는 영역이므로, 차선 검출 결과와 실제 차선 간의 차이가 발생할 수 있다.In addition, the existing lane detection algorithm displays the position of the lane using one straight line or a curved line, but the actual lane is an area having a specific size, so that a difference between the lane detection result and the actual lane may occur.

개시된 발명의 일 측면은 탑 뷰(Top View) 영상으로부터 추출된 복수의 차선 세그먼트(Segment)를 연결하여 차선 영역을 검출하는 차선 검출 장치 및 차선 검출 방법을 제공한다.One aspect of the disclosed invention provides a lane detecting device and a lane detecting method for detecting a lane area by connecting a plurality of lane segments extracted from a top view image.

개시된 발명의 일 실시예에 따른 차선 검출 장치는, 전방 영상을 탑 뷰(Top View) 영상으로 변환하는 영상 변환부; 상기 탑 뷰 영상 내 각 픽셀 및 상기 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 필터링부; 상기 필터링된 영상으로부터 복수의 차선 세그먼트를 추출하고, 상기 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출하는 차선 영역 검출부; 및 상기 검출된 차선 영역을 상기 전방 영상에 매핑(Mapping)하는 매핑부를 포함할 수 있다.According to another aspect of the present invention, there is provided a lane detecting apparatus including: an image converting unit for converting a forward image into a top view image; A filtering unit for filtering the top view image based on brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of the each pixel; A lane area detecting unit for extracting a plurality of lane segment from the filtered image and detecting a lane area based on the degree of similarity between the plurality of lane segment segments; And a mapping unit for mapping the detected lane area to the forward image.

또한, 상기 필터링부는, 상기 탑 뷰 영상 내 각 픽셀, 및 차선 폭에 의해 결정되는 상기 기준 거리만큼 상기 각 픽셀의 양측으로 이격된 상기 복수의 픽셀의 밝기 값, 및 밝기 분포 중 적어도 하나를 포함하는 상기 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링할 수 있다.The filtering unit may include at least one of a brightness value and a brightness value of each of the pixels in the top view image and the plurality of pixels spaced apart from each other by the reference distance determined by the lane width, And the top view image may be filtered based on the brightness information.

또한, 상기 차선 영역 검출부는, 상기 필터링된 영상 내 픽셀에 대해 방향성 테스트를 수행하여 픽셀을 군집화하고, 상기 군집된 픽셀을 차선 세그먼트로 추출할 수 있다.In addition, the lane area detecting unit may perform a directional test on the pixels in the filtered image to cluster the pixels, and extract the clustered pixels as lane segments.

또한, 상기 차선 영역 검출부는, 최소 자승법(Least Square)을 이용하여 상기 복수의 차선 세그먼트 각각의 선분 방정식을 추정하고, 상기 추정된 선분 방정식을 이용하여 상기 복수의 차선 세그먼트 중 어느 두 개를 외삽(Extrapolation)한 선분과 임계값을 비교하여 상기 차선 세그먼트 간 유사도를 산정할 수 있다.The lane area detecting unit estimates line segment equations of each of the plurality of lane segments using a Least Square method, and determines which of the plurality of lane segments is extrapolated using the estimated line segment equation The similarity between the lane segments can be calculated by comparing the extracted line segments with the threshold values.

또한, 상기 매핑부는, 상기 전방 영상을 구성하는 복수의 픽셀의 측방향 밝기 변화에 따라 검출된 에지 성분과 상기 차선 영역의 경계를 일치시킴으로써 상기 검출된 차선 영역을 매핑할 수 있다.In addition, the mapping unit may map the detected lane area by matching the boundary of the lane area with an edge component detected according to a lateral brightness change of a plurality of pixels constituting the forward image.

또한, 상기 매핑부는, 상기 전방 영상 중 미리 정해진 근거리 영역에서 직선 모델에 따라 상기 검출된 차선 영역을 매핑하고, 상기 전방 영상 중 상기 근거리 영역 이외의 원거리 영역에서 상기 직선 모델 및 쌍곡선 모델 중 어느 하나에 따라 상기 검출된 차선 영역을 매핑할 수 있다.The mapping unit may map the detected lane area according to a linear model in a predetermined short-range area of the forward image, and map the detected lane area to any one of the linear model and the hyperbolic model in a remote area other than the near- And may map the detected lane area.

개시된 발명의 일 실시 예에 따른 차선 검출 방법은, 전방 영상을 탑 뷰(Top View) 영상으로 변환하는 단계; 상기 탑 뷰 영상 내 각 픽셀 및 상기 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 단계; 상기 필터링된 영상으로부터 복수의 차선 세그먼트를 추출하는 단계; 상기 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출하는 단계; 및 상기 검출된 차선 영역을 상기 전방 영상에 매핑(Mapping)하는 단계; 를 포함할 수 있다.According to another aspect of the present invention, there is provided a lane detection method comprising: converting a forward image into a top view image; Filtering the top view image based on brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of each pixel; Extracting a plurality of lane segments from the filtered image; Detecting a lane area based on the degree of similarity between the plurality of lane segment segments; And mapping the detected lane area to the forward image; . ≪ / RTI >

또한, 상기 탑 뷰 영상을 필터링하는 단계는, 상기 탑 뷰 영상 내 각 픽셀, 및 차선 폭에 의해 결정되는 상기 기준 거리만큼 상기 각 픽셀의 양측으로 이격된 상기 복수의 픽셀의 밝기 값, 및 밝기 분포 중 적어도 하나를 포함하는 상기 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링할 수 있다.The step of filtering the top view image may further include the step of calculating a brightness value of each of the pixels in the top view image and the plurality of pixels spaced apart from each other by the reference distance determined by the lane width, The top view image may be filtered based on the brightness information.

또한, 상기 복수의 차선 세그먼트를 추출하는 단계는, 상기 필터링된 영상 내 픽셀에 대해 방향성 테스트를 수행하여 픽셀을 군집화하고, 상기 군집된 픽셀을 차선 세그먼트로 추출할 수 있다.The step of extracting the plurality of lane segments may include grouping pixels by performing a directional test on the pixels in the filtered image, and extracting the grouped pixels into lane segments.

또한, 상기 차선 영역을 검출하는 단계는, 최소 자승법(Least Square)을 이용하여 상기 복수의 차선 세그먼트 각각의 선분 방정식을 추정하고, 상기 추정된 선분 방정식을 이용하여 상기 복수의 차선 세그먼트 중 어느 두 개를 외삽(Extrapolation)한 선분과 임계값을 비교하여 상기 차선 세그먼트 간 유사도를 산정할 수 있다.The step of detecting the lane area may include estimating a line segment equation of each of the plurality of lane segments using Least Square and determining which one of the plurality of lane segments The degree of similarity between the lane segments can be calculated by comparing the extrapolated line segment with the threshold value.

또한, 상기 차선 영역을 매핑하는 단계는, 상기 전방 영상을 구성하는 복수의 픽셀의 측방향 밝기 변화에 따라 검출된 에지 성분과 상기 차선 영역의 경계를 일치시킴으로써 상기 검출된 차선 영역을 매핑할 수 있다.The mapping of the lane area may map the detected lane area by matching the boundary of the lane area with the edge component detected according to the lateral brightness change of the plurality of pixels constituting the forward image .

또한, 상기 차선 영역을 매핑하는 단계는, 상기 전방 영상 중 미리 정해진 근거리 영역에서 직선 모델에 따라 상기 검출된 차선 영역을 매핑하고, 상기 전방 영상 중 상기 근거리 영역 이외의 원거리 영역에서 상기 직선 모 및 쌍곡선 모델 중 어느 하나에 따라 상기 검출된 차선 영역을 매핑할 수 있다.The step of mapping the lane area may further include mapping the detected lane area according to a linear model in a predetermined short range area of the forward image and mapping the detected lane area to a rectilinear and hyperbolic area in a remote area other than the near area, And the detected lane area may be mapped according to any one of the models.

본 발명은 차선 세그먼트를 만들고 세그먼트 군집화 및 이상치 제거를 통해 모델 맞춤 과정없이 전방에 존재하는 차선을 유추 할 수 있으므로 종래 기술에 비비하여 차선 오검출을 줄일 수 있고, 중앙선과 같이 중첩된 형태의 차선에 대한 검출 (중앙선) 및 점선/실선의 분류도 동시에 수행할 수 있다. 또한, 본 발명은 하나의 선분을 이용해서 하나의 차선을 표현하지 않고, 차선의 좌우측 끝을 지역화 함으로써 영상에서의 차선의 너비를 동시에 추정할 수 있다. The present invention makes it possible to reduce the lane-finding error in comparison with the prior art technique by making a lane segment and classifying the lane existing in the front without model fitting through segment clustering and outlier removal, (Center line) and dotted / solid line can be simultaneously performed. In addition, the present invention can simultaneously estimate the width of a lane in an image by localizing the left and right ends of the lane without representing one lane using one line segment.

본 발명을 통해 검출된 차선 정보는 차량의 차선이탈경고(Lande Departure Warning), 차선유지보조시스템(Lane Keeping Assist System), 적응형순항제어(Adaptive Cruise Control)과 같은 자율주행차량의 핵심 기술을 위해 사용될 수 있다.The lane information detected by the present invention is used for the core technology of an autonomous vehicle such as a lane departure warning of a vehicle, a lane keeping assistance system, and an adaptive cruise control Can be used.

도 1은 개시된 발명의 일 실시 예에 따른 차선 검출 장치의 제어 블록도이다.
도 2 는 개시된 발명의 일 실시 예에 따른 촬영부에 의해 획득된 전방 영상을 나타내는 도면이다.
도 3은 개시된 발명의 일 실시 예에 따른 좌표계 변환부에 의해 획득된 탑 뷰(Top View) 영상을 나타내는 도면이다.
도 4는 개시된 발명의 일 실시 예에 따른 필터링부의 Step Row Filter에 의해 탑 뷰 영상이 필터링된 결과를 나타내는 도면이다.
도 5는 개시된 발명의 일 실시 예에 따른 필터링부에 의해 차선 세그먼트(Segment)가 추출된 영상을 나타내는 도면이다.
도 6은 개시된 발명의 일 실시 예에 따른 차선 영역 검출부에 의해 차선 영역이 검출된 영상을 나타내는 도면이다.
도 7은 개시된 발명의 일 실시 예에 따른 차선 영역 매핑부에 의해 차선 영역이 매핑된 전방 영상을 나타내는 도면이다.
도 8은 개시된 발명의 일 실시 예에 따른 차선 검출 방법의 흐름도이다.
1 is a control block diagram of a lane detecting apparatus according to an embodiment of the disclosed invention.
2 is a view showing a front image obtained by the photographing unit according to an embodiment of the disclosed invention.
3 is a view showing a top view image obtained by a coordinate system converting unit according to an embodiment of the present invention.
4 is a diagram illustrating a result of filtering a top view image by a step row filter of a filtering unit according to an embodiment of the present invention.
5 is a diagram showing an image in which a lane segment is extracted by the filtering unit according to an embodiment of the present invention.
6 is a diagram showing an image in which a lane area is detected by a lane area detecting unit according to an embodiment of the present invention.
7 is a diagram illustrating a forward image in which a lane area is mapped by a lane area mapping unit according to an embodiment of the present invention.
8 is a flowchart of a lane detection method according to an embodiment of the disclosed invention.

본 명세서에 기재된 실시 예와 도면에 도시된 구성은 개시된 발명의 바람직한 일 예에 불과할 뿐이며, 본 출원의 출원시점에 있어서 본 명세서의 실시 예와 도면을 대체할 수 있는 다양한 변형 예들이 있을 수 있다.It is to be understood that both the foregoing general description and the following detailed description of the present invention are exemplary and explanatory only and are not restrictive of the invention, as claimed, and it is to be understood that the invention is not limited to the disclosed embodiments.

본 명세서에서 사용한 용어는 실시 예를 설명하기 위해 사용된 것으로, 개시된 발명을 제한 및/또는 한정하려는 의도가 아니다. The terminology used herein is for the purpose of describing the embodiments only and is not intended to limit and / or to limit the disclosed invention.

예를 들어, 본 명세서에서 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함할 수 있다.For example, the phrase "a" or "an" in this specification may include a plurality of terms, unless the context clearly dictates otherwise.

또한, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합이 존재함을 표현하고자 하는 것이며, 하나 또는 그 이상의 다른 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들의 조합의 추가적인 존재 또는 부가 가능성을 배제하지 않는다.It is also to be understood that the terms " comprises "or" having "are intended to indicate that there are features, numbers, steps, operations, elements, But do not preclude the presence or addition of a number, a step, an operation, an element, a component, or a combination thereof.

또한, "제1", "제2" 등과 같이 서수를 포함하는 용어는 하나의 구성요소를 다른 구성요소로부터 구별하기 위하여 사용되며, 상기 하나의 구성요소들을 한정하지 않는다.Also, terms including ordinal numbers such as " first ", "second ", and the like are used to distinguish one element from another, and do not limit the one element.

또한, "~부", "~기", "~블록", "~부재", "~모듈" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미할 수 있다. 예를 들어, 상기 용어들은 FPGA (field-programmable gate array)/ ASIC (application specific integrated circuit) 등 적어도 하나의 하드웨어, 메모리에 저장된 적어도 하나의 소프트웨어 또는 프로세서에 의하여 처리되는 적어도 하나의 프로세스를 의미할 수 있다.In addition, terms such as "to part "," to ", "to block "," to absent ", "module ", and the like may denote a unit for processing at least one function or operation. For example, the terms may refer to at least one hardware, such as a field-programmable gate array (FPGA) / application specific integrated circuit (ASIC), at least one software stored in memory, have.

이하에서는 첨부한 도면을 참조하여 개시된 발명의 일 실시 예를 상세하게 설명한다. 첨부된 도면에서 제시된 동일한 참조번호 또는 부호는 실질적으로 동일한 기능을 수행하는 부품 또는 구성요소를 나타낼 수 있다.Hereinafter, an embodiment of the present invention will be described in detail with reference to the accompanying drawings. Like reference numbers or designations in the accompanying drawings may denote parts or components performing substantially the same function.

도 1은 개시된 발명의 일 실시예에 따른 차선 검출 장치의 제어 블록도이고,도 2 는 개시된 발명의 일 실시예에 따른 촬영부에 의해 획득된 전방 영상을 나타내고, 도 3은 개시된 발명의 일 실시예에 따른 좌표계 변환부에 의해 획득된 탑 뷰(Top View) 영상을 나타내고, 도 4는 개시된 발명의 일 실시예에 따른 필터링부의 Step Row Filter에 의해 탑 뷰 영상이 필터링된 결과를 나타내고, 도 5는 개시된 발명의 일 실시예에 따른 필터링부에 의해 차선 세그먼트(Segment)가 추출된 영상을 나타내고, 도 6은 개시된 발명의 일 실시예에 따른 차선 영역 검출부에 의해 차선 영역이 검출된 영상을 나타내고, 도 7은 개시된 발명의 일 실시예에 따른 차선 영역 매핑부에 의해 차선 영역이 매핑된 전방 영상을 나타내는 도면이다.FIG. 1 is a control block diagram of a lane detecting apparatus according to an embodiment of the disclosed invention. FIG. 2 shows a front image obtained by the photographing unit according to an embodiment of the disclosed invention. FIG. 4 shows a result obtained by filtering a top view image by a step row filter of a filtering unit according to an embodiment of the disclosed invention, and FIG. 5 FIG. 6 shows an image in which a lane area is detected by the lane area detecting unit according to an embodiment of the present invention, and FIG. 7 is a diagram illustrating a forward image in which a lane area is mapped by a lane area mapping unit according to an embodiment of the present invention.

도 1을 참조하면, 개시된 발명의 일 실시예에 따른 차선 검출 장치는 전방 영상을 획득하는 촬영부(100); 획득된 전방 영상으로부터 차선 영역을 검출하고, 검출된 차선 영역을 전방 영상에 매핑하는 영상 처리부(200); 및 차선 영역이 매핑된 전방 영상을 표시하는 디스플레이부(D); 를 포함할 수 있다.Referring to FIG. 1, a lane detecting apparatus according to an embodiment of the present invention includes a photographing unit 100 for obtaining a forward image; An image processor 200 for detecting a lane area from the obtained forward image and mapping the detected lane area to a forward image; A display unit (D) for displaying a forward image mapped with a lane area; . ≪ / RTI >

촬영부(100)는 전방 영상을 획득할 수 있다. 여기서, 전방 영상이란 차량의 진행 방향 상에 존재하는 주행 도로를 포함하는 영상을 의미할 수 있다. 도 2를 참조하면, 전방 영상은 주행 도로, 주행 도로를 주행하는 선행 차량, 주행 도로 외부에 존재하는 물체 등을 포함할 수 있고, 주행 도로 상의 차선을 포함할 수 있다. The photographing unit 100 can acquire a forward image. Here, the forward image may refer to an image including a traveling road existing in the traveling direction of the vehicle. Referring to FIG. 2, the forward image may include a traveling road, a preceding vehicle traveling on the traveling road, an object existing outside the traveling road, and the like, and may include a lane on the traveling road.

전방 영상을 획득하기 위해, 촬영부(100)는 차량의 전방을 향하도록 차량의 내부 또는 외부에 설치될 수 있다. 차량에 설치되는 촬영부(100)는 지면으로부터의 높이, 전방에 대하여 기울어진 각도(Pitch Angle) 등의 고유 값을 가질 수 있다.In order to acquire the forward image, the photographing section 100 may be installed inside or outside the vehicle so as to face the front of the vehicle. The photographing unit 100 mounted on the vehicle may have an inherent value such as a height from the ground surface, an angle with respect to the front (pitch angle), and the like.

또한, 촬영부(100)는 단안 카메라 또는 스테레오 카메라일 수 있으나, 이하에서는 단안 카메라를 전제로 설명한다.In addition, the photographing unit 100 may be a monocular camera or a stereo camera, but the monocular camera will be described below as a premise.

도 1에서는 촬영부(100)가 차선 검출 장치의 일 구성으로 마련되는 경우를 예시하나, 이와는 달리 촬영부(100)가 차선 검출 장치와 독립된 별개의 장치로 마련될 수도 있다.1, the photographing unit 100 may be provided as a separate device independent of the lane detecting device.

다시 도 1을 참조하면, 영상 처리부(200)는 촬영부(100)에 의해 획득된 전방 영상에서 차선 영역을 검출하고, 검출된 차선 영역을 전방 영상 상에 매핑할 수 있다. 이를 위해, 개시된 발명의 일 실시예에 따른 영상 처리부(200)는 전방 영상을 탑 뷰(Top View) 영상으로 변환하는 영상 변환부(210); 탑 뷰 영상을 필터링하는 필터링부(220); 필터링된 영상으로부터 추출된 복수의 차선 세그먼트를 연결하여 차선 영역을 검출하는 차선 영역 검출부(230); 및 검출된 차선 영역을 전방 영상에 매핑하는 매핑부(240); 를 포함할 수 있다.Referring again to FIG. 1, the image processing unit 200 may detect a lane area in the forward image acquired by the photographing unit 100 and map the detected lane area on the forward image. To this end, the image processing unit 200 according to an embodiment of the disclosed invention includes an image conversion unit 210 for converting a forward image into a top view image; A filtering unit 220 for filtering the top view image; A lane area detecting unit 230 for detecting a lane area by connecting a plurality of lane segments extracted from the filtered image; A mapping unit 240 for mapping the detected lane area to a forward image; . ≪ / RTI >

영상 변환부(210)는 입력 영상의 시점이 변경된 영상을 획득하도록 마련될 수 있다. 구체적으로, 영상 변환부(210)는 전방 영상을 탑 뷰(Top View) 영상으로 변환할 수 있다. 이를 위해, 영상 변환부(210)는 입력 영상의 좌표계를 변환함으로써, 변경된 좌표계에 따른 영상을 획득할 수 있다.The image converting unit 210 may be provided to acquire a changed image of the input image. Specifically, the image converting unit 210 may convert the forward image into a top view image. To this end, the image converting unit 210 can obtain an image according to the changed coordinate system by converting the coordinate system of the input image.

예를 들어, 영상 변환부(210)는 입력된 전방 영상의 좌표계를 변환하여 탑 뷰 영상을 획득하거나, 입력된 탑 뷰 영상의 좌표계를 변환하여 전방 영상을 획득할 수 있다.For example, the image conversion unit 210 may acquire a top view image by converting the coordinate system of the inputted forward image, or may convert the coordinate system of the inputted top view image to acquire the forward image.

만약, 차량이 존재하는 3차원 공간의 공간 좌표계가 차량의 진행 방향인 X축, 차량의 진행 방향에 수직이고, 지면에 평행한 방향인 Y축, 및 차량의 진행 방향에 수직이고, 지면에 수직인 방향을 Z축 으로 구성되는 경우, 전방 영상의 평면 좌표계는 X-Z 평면을 기준으로 설정될 수 있다. 구체적으로, 전방 영상의 평면 좌표계는 X-Z 평면을 기준으로 상술한 촬영부(100)의 설치 위치에 따른 고유 값인 지면으로부터의 높이, 전방에 대하여 기울어진 각도(Pitch Angle)와 촬영부(100) 내부의 파라미터 값을 고려하여 결정될 수 있다.If the spatial coordinate system of the three-dimensional space in which the vehicle exists is an X axis that is the traveling direction of the vehicle, a Y axis that is perpendicular to the traveling direction of the vehicle, a Y axis that is parallel to the ground, When the in-plane direction is constituted by the Z-axis, the plane coordinate system of the front image can be set with reference to the XZ plane. Specifically, the plane coordinate system of the front image has a height from the ground surface, which is an intrinsic value according to the installation position of the photographing unit 100 described above with respect to the XZ plane, an angle (pitch angle) Can be determined in consideration of the parameter value of < RTI ID = 0.0 >

영상 변환부(210)는 결정된 전방 영상의 평면 좌표계를 X-Y 평면 좌표계로 변환함으로써 X-Y 평면 상의 탑 뷰 영상을 획득할 수 있다. 도 3은 도 2의 전방 영상의 좌표계를 변경함으로써 획득된 탑 뷰 영상을 예시한다. 도 3을 참조하면, 탑 뷰 영상은 전방 영상이 나타내는 전방에 대한 시각적인 정보를 나타낼 수 있다. 예를 들어, 탑 뷰 영상은 주행 도로의 차선을 포함할 수 있고, 도로의 차선 폭(Width)이 w로 확인될 수 있다.The image converting unit 210 can obtain a top view image on the X-Y plane by converting the plane coordinate system of the determined forward image into the X-Y plane coordinate system. FIG. 3 illustrates a top view image obtained by changing the coordinate system of the forward image of FIG. Referring to FIG. 3, the top view image may represent visual information about the front of the front image. For example, the top view image may include a lane on the road, and the lane width of the road may be identified by w.

필터링부(220)는 탑 뷰 영상의 각 픽셀 및 각 픽셀 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 따라 탑 뷰 영상을 필터링 할 수 있다. 여기서 기준 거리는 차선 폭에 의해 결정될 수 있다.The filtering unit 220 may filter the top view image according to each pixel of the top view image and brightness information of a plurality of pixels spaced by a reference distance to both sides of each pixel. Here, the reference distance can be determined by the lane width.

구체적으로, 필터링부(220)는 탑 뷰 영상 내 각 픽셀, 및 차선 폭에 의해 결정되는 기준 거리만큼 각 픽셀의 양측으로 이격된 복수의 픽셀의 밝기 값, 및 밝기 분포 중 적어도 하나를 포함하는 밝기 정보에 기초하여 탑 뷰 영상을 필터링할 수 있다.Specifically, the filtering unit 220 calculates the brightness (brightness) including at least one of the brightness of each pixel in the top view image and the brightness values of a plurality of pixels spaced on both sides of each pixel by a reference distance determined by the lane width, The top view image can be filtered based on the information.

일 실시 예에 따른 필터링부(220)는 수학식 1에 따른 Step Row Filter 에 의해 탑 뷰 영상을 필터링 할 수 있다.The filtering unit 220 according to an exemplary embodiment may filter the top view image by a step row filter according to Equation (1).

[수학식 1][Equation 1]

E(x, y) = 2 * I(x, y) I(x-t, y) I(x+t, y) -|I(x-t, y)-I(x+t, y)|I (x-t, y) - I (x-t, y) - I (x, t)

여기서, I는 탑 뷰 영상을 나타내고, E는 Step Row Filter 에 의해 필터링 된 영상을 나타내고, x, 및 y는 X-Y 평면상의 영상을 구성하는 픽셀의 좌표를 나타내고, t는 기준 거리를 의미할 수 있다. 일 실시예에 따른 기준 거리는 탑 뷰 영상에서 차선 폭 w의 절반이상의 거리를 의미할 수 있다.수학식 1을 참조하면, Step Row Filter는 임의의 픽셀과 해당 픽셀로부터 기준 거리 만큼 이격된 두 픽셀 각각과의 밝기 차이, 및 해당 픽셀로부터 기준 거리 만큼 이격된 두 픽셀 간의 밝기 차이가 클수록, 해당 픽셀에 큰 밝기 값을 할당할 수 있다. Here, I represents the top view image, E represents the image filtered by the step row filter, x and y represent the coordinates of the pixels constituting the image on the XY plane, and t may represent the reference distance . The reference distance according to an embodiment may mean a distance of half or more of the lane width w in the top view image. Referring to Equation (1), the Step Row Filter includes a random pixel and two pixels spaced apart from the pixel by a reference distance And a larger brightness difference between two pixels spaced apart from the corresponding pixel by a reference distance, a larger brightness value can be assigned to the corresponding pixel.

도 4는 필터링된 탑 뷰 영상을 예시한다. 이처럼, 필터링부(220)는 Step Row Filter에 의해 탑 뷰 영상으로부터 차선에 대한 정보만을 추출할 수 있다.Figure 4 illustrates a filtered top view image. In this way, the filtering unit 220 can extract only information about the lane from the top view image by the step row filter.

다시 도 1을 참조하면, 차선 영역 검출부(230)는 필터링된 탑 뷰 영상에 대한 이진화(Binarization)를 수행할 수 있다. 구체적으로, 필터링부(220)는 필터링된 탑 뷰 영상을 구성하는 복수의 픽셀 각각의 밝기 값을 미리 정해진 임계값과 비교하여, 임계값 이상의 픽셀에 밝기 값1을 할당하고, 그 이외의 픽셀에 밝기 값 0을 할당할 수 있다.Referring again to FIG. 1, the lane area detecting unit 230 may perform binarization on the filtered top view image. Specifically, the filtering unit 220 compares the brightness value of each of the plurality of pixels constituting the filtered top view image with a predetermined threshold value, assigns a brightness value 1 to a pixel above a threshold value, Brightness value 0 can be assigned.

이진화를 수행한 후, 차선 영역 검출부(230)는 이진화된 영상에 대한 군집화(Clustering)를 수행할 수 있다. 구체적으로, 차선 영역 검출부(230)는 이진화된 영상을 구성하는 복수의 픽셀 각각에 대하여 인접한 4방향의 픽셀과의 1차 연결성 테스트를 수행할 수 있다. 만약, 인접한 픽셀 중 미리 정해진 임계값 이상의 연결성을 가지는 픽셀이 존재하는 경우, 차선 영역 검출부(230)는 해당 픽셀을 동일 영역으로 간주함으로써 군집화를 수행할 수 있다.After performing the binarization, the lane area detecting unit 230 may perform clustering on the binarized image. Specifically, the lane area detecting unit 230 may perform a first connectivity test with respect to four pixels in adjacent directions for each of a plurality of pixels constituting the binarized image. If there is a pixel having connectivity greater than or equal to a predetermined threshold value among adjacent pixels, the lane area detecting unit 230 may perform clustering by considering the pixel as the same area.

이를 통해, 차선 영역 검출부(230)는 복수의 차선 세그먼트를 추출할 수 있다. 여기서, 차선 세그먼트란 필터링 된 탑 뷰 영상의 군집화된 픽셀의 집합을 의미할 수 있다. 도 5는 군집화에 의해 차선 세그먼트가 추출된 탑 뷰 영상을 예시한다. 도 5는 도 4의 필터링된 탑뷰 영상을 이진화한 후, 군집화한 결과를 나타내며, 차선 세그먼트가 컬러 영역으로 예시되고 있다.Accordingly, the lane area detecting unit 230 can extract a plurality of lane segments. Here, the lane segment may mean a set of clustered pixels of the filtered top view image. FIG. 5 illustrates a top view image in which lane segments are extracted by clustering. FIG. 5 shows a result of clustering after binarizing the filtered top view image of FIG. 4, and the lane segment is illustrated as a color region.

그 다음, 차선 영역 검출부(230)는 추출된 복수의 차선 세그먼트를 연결하여 차선 영역을 검출할 수 있다. 구체적으로, 차선 영역 검출부(230)는 복수의 차선 세그먼트 간 유사도를 기초로 차선 세그먼트를 연결할 수 있다. 이를 위해, 차선 영역 검출부(230)는 복수의 차선 세그먼트 각각의 기준선을 구할 수 있다.Then, the lane area detecting unit 230 can detect the lane area by connecting the extracted lane segments. Specifically, the lane area detecting unit 230 can connect lane segments based on the similarity between a plurality of lane segment segments. To this end, the lane area detecting unit 230 may obtain a reference line of each of the plurality of lane segments.

여기서, 기준선이란 차선 세그먼트에 대하여 최소자승법(Method of Least Squares)를 적용하여 획득된 선분의 방정식을 의미할 수 있다. 복수의 차선 세그먼트 각각에 대한 복수의 기준선이 구해지면, 차선 영역 검출부(230)는 기준선을 이용하여 임의의 두 차선 세그먼트를 외삽(Extrapolation)하고, 외삽한 선분과 임계값을 비교하여 차선 세그먼트 간 유사도를 산정할 수 있다.Here, the reference line may mean a line segment equation obtained by applying the method of Least Squares to the lane segment. If a plurality of reference lines are obtained for each of the plurality of lane segment segments, the lane area detecting unit 230 extrapolates arbitrary two lane segments using a reference line, compares extrapolated segments with a threshold value, Can be calculated.

차선 영역 검출부(230)는 유사도가 높은 복수의 차선 세그먼트를 연결함으로써 차선 영역을 검출할 수 있다. 도 6은 도 5의 복수의 차선 세그먼트를 연결함으로써 차선 영역이 검출되는 경우를 예시하며, 차선이 직선이 아닌 영역으로 검출됨을 확인할 수 있다.The lane area detecting unit 230 can detect a lane area by connecting a plurality of lane segments having a high degree of similarity. FIG. 6 illustrates a case where a lane area is detected by connecting a plurality of lane segments in FIG. 5, and it can be confirmed that a lane is detected as an area that is not a straight line.

또한, 차선 영역 검출부(230)는 검출된 차선 영역과 미리 저장된 도로 정보를 비교하여 노이즈(Noise)를 제거할 수도 있다. 예를 들어, 차선 영역 검출부(230)는 검출된 차선 영역 중 미리 저장된 주행 도로의 차선 수, 차선 폭, 차선 간 거리, 차선의 형태 등의 조건을 만족하지 않는 차선 영역을 제거할 수 있다.In addition, the lane area detecting unit 230 may remove noise by comparing the detected lane area with previously stored road information. For example, the lane area detecting unit 230 can remove a lane area that does not satisfy the conditions such as the number of lanes of the previously stored lane, the lane width, the lane-to-lane distance, and the shape of the lane.

다시 도 1을 참조하면, 차선 검출이 완료된 후, 차선 영역 매핑부(240)는 검출된 차선 영역을 전방 영상에 매핑(Mapping)할 수 있다. 이를 위해, 검출된 차선 영역은 상술한 좌표계 변환부(210)에 의해 X-Y 좌표계로부터 전방 영상에 대한 평면 좌표계로 좌표계가 변환될 수 있다.Referring again to FIG. 1, after the lane detection is completed, the lane area mapping unit 240 may map the detected lane area to the forward image. To this end, the coordinate system of the detected lane area can be converted from the X-Y coordinate system to the plane coordinate system for the forward image by the coordinate system converter 210 described above.

차선 영역의 좌표계가 변환되면, 차선 영역 매핑부(240)는 전방 영상 상에 검출된 차선 영역을 매핑할 수 있다. 이 때, 차선 영역 매핑부(240)는 매핑된 차선 영역의 인접 영역 내에서 지역화(Localization)를 수행할 수 있다. 여기서 인접 영역이란 매핑된 차선 영역으로부터 일정 거리 내에 속하는 영역을 의미할 수 있고, 지역화란 매핑된 차선 영역의 양 측을 전방 영상 상의 차선 경계와 일치시키는 것을 의미할 수 있다.When the coordinate system of the lane area is converted, the lane area mapping unit 240 can map the detected lane area on the forward image. At this time, the lane area mapping unit 240 can perform localization in the adjacent area of the mapped lane area. Here, the adjacent area may mean an area belonging to a certain distance from the mapped lane area, and localization may mean that both sides of the mapped lane area coincide with the lane boundary on the forward image.

이를 위해, 차선 영역 매핑부(240)는 매핑된 차선 영역에 따라 결정되는 인접 영역 내에서 전방 영상의 측방향 밝기 변화를 기초로 차선으로 추정되는 영역을 설정할 수 있다. 예를 들어, 차선 영역 매핑부(240)는 인접 영역 내에서 측방향으로의 밝기가 급격하게 밝아지는 경계 및 측방향으로의 밝기가 급격하게 어두워지는 경계를 차선 경계로 추정할 수 있다. 이 때, 차선 영역 검출부(230)는 밝기가 급격하게 밝아지거나, 급격하게 어두워지는 것을 미리 정해진 임계값과의 비교를 통해 판단할 수 있다.For this purpose, the lane area mapping unit 240 can set an area estimated as a lane based on the lateral brightness change of the front image within the adjacent area determined according to the mapped lane area. For example, the lane area mapping unit 240 can estimate a boundary where the brightness in the lateral direction is abruptly increased in the adjacent region and a boundary in which the brightness in the lateral direction is abruptly darkened as the lane boundary. At this time, the lane area detecting unit 230 can determine whether the brightness is rapidly brightened or rapidly darkened by comparing with a predetermined threshold value.

차선 경계가 되면, 차선 영역 매핑부(240)는 전방 영상에서 매핑된 차선 영역의 양 측을 전방 영상에서 추정되는 차선 경계와 일치시킴으로써 지역화를 수행할 수 있다.When the lane boundary is reached, the lane area mapping unit 240 can perform localization by matching both sides of the lane area mapped in the forward image with the lane boundary estimated from the forward image.

이 때, 차선 영역 매핑부(240)는 시점으로부터의 거리에 따라 매핑 방법을 달리 적용할 수 있다. 구체적으로, 차선 영역 매핑부(240)는 전방 영상 중 시점으로부터 미리 결정되는 인접 거리 이내에 속하는 근거리 영역에서는 직선 모델에 따라 차선 영역을 매핑할 수 있다. 또한, 차선 영역 매핑부(240)는 전방 영상 중 시점으로부터 인접 거리를 초과하는 영역인 원거리 영역에서는 쌍곡선 모델에 따라 차선 영역을 매핑할 수 있다.At this time, the lane area mapping unit 240 may apply a different mapping method depending on the distance from the viewpoint. Specifically, the lane area mapping unit 240 can map the lane area according to the straight line model in a near area within a predetermined distance from the viewpoint of the forward image. In addition, the lane area mapping unit 240 can map the lane area according to the hyperbolic model in a remote area that is an area exceeding the adjacent distance from the viewpoint of the forward image.

도 7 은 도 6의 탑 뷰 영상에서 검출된 차선 영역을 전방 영상에 매핑한 결과를 나타내며, 녹색의 영역이 매핑된 차선 영역을 의미한다.FIG. 7 shows a result of mapping the lane area detected in the top view image of FIG. 6 to the forward image, and means a lane area mapped with a green area.

다시 도 1을 참조하면, 이렇게 차선 영역이 매핑된 전방 영상은 디스플레이부(D)에 의해 사용자에게 제공될 수 있다. 도 1에서는 차선 검출 장치가 디스플레이부(D)를 포함하는 경우를 예시하나, 디스플레이부(D)가 차선 검출 장치와 별개의 독립적인 장치로 마련될 수도 있다. Referring back to FIG. 1, the front image in which the lane area is mapped can be provided to the user by the display unit D. 1 illustrates a case where the lane detecting device includes the display portion D, but the display portion D may be provided as an independent device separate from the lane detecting device.

도 8은 개시된 발명의 일 실시 예에 따른 차선 검출 방법의 흐름도이다. 8 is a flowchart of a lane detection method according to an embodiment of the disclosed invention.

먼저, 영상 변환부(210)에 의해, 전방 영상을 탑 뷰(Top View) 영상으로 변환할 수 있다.(S100) 구체적으로, 영상 변환부(210)는 전방 영상의 좌표계를 변환함으로써 전방 영상을 탑 뷰 영상으로 변환할 수 있다. 전방 영상의 좌표계는 촬영부(100)의 지면으로부터의 높이, 전방에 대하여 기울어진 각도(Pitch Angle) 등의 고유 값과 촬영부(100) 내부에 설정된 파라미터 등을 고려하여 결정되므로, 이를 고려하여 탑 뷰 영상으로의 좌표계 변환이 이루어질 수 있다.First, the front image can be transformed into a top view image by the image transform unit 210. (S100) Specifically, the image transform unit 210 transforms a front image by transforming the coordinate system of the front image You can convert to top view video. Since the coordinate system of the forward image is determined in consideration of the eigenvalues such as the height from the ground of the photographing unit 100, the angle of inclination with respect to the front, and the parameters set in the photographing unit 100, The coordinate system conversion to the top view image can be performed.

탑 뷰 영상이 획득된 후, 필터링부(220)에 의해, 탑 뷰 영상 내 각 픽셀 및 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 탑 뷰 영상을 필터링할 수 있다.(S110) 예를 들어, 필터링부(220)는 수학식 1에 따른 Step Row Filter를 이용하여 탑 뷰 영상을 필터링함으로써 탑 뷰 영상의 각 픽셀, 각 픽셀의 양측으로 기준 거리만큼 이격된 두 픽셀 간의 밝기 차이가 큰 해당 픽셀의 밝기를 크게 설정할 수 있다. After the top view image is obtained, the filtering unit 220 may filter the top view image based on the brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of each pixel (S110). For example, the filtering unit 220 filters the top view image using the step row filter according to Equation (1), thereby obtaining the pixels of the top view image, two pixels spaced apart from each other by a reference distance It is possible to set the brightness of the corresponding pixel having a large difference in brightness between the pixels.

필터링이 완료되면, 차선 영역 검출부(230)는 필터링된 영상으로부터 복수의 차선 세그먼트(Segment)를 추출할 수 있다.(S120) 이를 위해, 차선 영역 검출부(230)에 의해, 필터링된 탑 뷰 영상을 이진화(Binarization)할 수 있다. 그 다음, 차선 영역 검출부(230)에 의해, 이진화된 영상의 복수의 픽셀에 대한 군집화를 통해 차선 세그먼트를 추출할 수 있다.When the filtering is completed, the lane area detecting unit 230 can extract a plurality of lane segments from the filtered image (S120). To this end, the lane area detecting unit 230 extracts the filtered top view image Binarization can be done. Then, the lane area detecting unit 230 can extract lane segments through clustering of a plurality of pixels of the binarized image.

차선 세그먼트가 추출되면, 차선 영역 검출부(230)에 의해, 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출할 수 있다.(S130) 구체적으로, 차선 영역 검출부(230)에 의해, 복수의 차선 세그먼트 각각에 대한 복수의 기준선을 구하고, 기준선을 이용하여 임의의 두 차선 세그먼트를 외삽한 선분과 임계값을 비교하여 두 개의 차선 세그먼트간 유사도를 산정할 수 있다. 산정된 유사도가 크면, 차선 영역 검출부(230)에 의해, 해당 두 차선 세그먼트를 연결함으로써 차선 영역을 검출할 수 있다.When the lane segment is extracted, the lane area detecting unit 230 can detect the lane area on the basis of the similarities among the plurality of lane segment segments. (S130) Specifically, the lane area detecting unit 230 detects, A plurality of reference lines for each segment can be obtained and a similarity between two lane segments can be calculated by comparing a line segment extrapolated from any two lane segments with a threshold value using a reference line. If the estimated degree of similarity is large, the lane area detecting unit 230 can detect the lane area by connecting the two lane segments.

마지막으로, 차선 영역 매핑부(240)에 의해, 검출된 차선 영역을 전방 영상에 매핑할 수 있다.(S140) 이 때, 차선 영역 매핑부(240)는 전방 영상의 측방향 밝기 변화에 따른 경계를 설정하고, 설정된 경계와 검출된 차선 영역을 일치시킴으로써 차선 영역을 전방 영상에 매핑할 수 있다.Lastly, the lane area mapping unit 240 may map the detected lane area to the forward image. (S140) At this time, the lane area mapping unit 240 may map the boundary between the front image and the front image And the lane area can be mapped to the forward image by matching the set boundary with the detected lane area.

개시된 바와 같이, 일 실시예에 따른 차선 검출 장치 및 차선 검출 방법에 따르면, 차선을 영역으로서 검출하므로, 도로 상의 차선이 아닌 숫자나 글자에 의해 발생하는 오검출을 줄일 수 있다. 또한, 중앙선과 같이 겹선 형태의 차선에 대한 검출 및 점선/실선의 분류도 함께 수행할 수 있다.As described above, according to the lane detecting device and the lane detecting method according to the embodiment, since the lane is detected as an area, erroneous detection caused by a number or characters other than the lane on the road can be reduced. Further, detection of a lane in the form of a double line like a center line and classification of a dotted line / a solid line can be performed at the same time.

다른 실시예에 따른 차선 검출 장치 및 차선 검출 방법에 따르면, 차선 영역의 매핑 시 양 측을 전방 영상 상에서 지역화 하므로, 영상에서의 차선 폭 추정이 가능할 수 있다.According to the lane detecting apparatus and the lane detecting method according to the other embodiments, since the both sides are localized on the forward image in the mapping of the lane area, it is possible to estimate the lane width in the image.

이상의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 개시된 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 개시된 발명의 등가적 범위 내에서의 모든 변경은 개시된 발명의 범위에 포함된다.The foregoing detailed description should not be construed in any way as being restrictive and should be considered illustrative. The scope of the disclosed invention should be determined by rational interpretation of the appended claims, and all changes within the equivalency range of the disclosed inventions are included in the scope of the disclosed invention.

100: 촬영부
200: 영상 처리부
210: 좌표계 변환부
220: 필터링부
230: 차선 영역 검출부
240: 차선 영역 매핑부
D: 디스플레이부
100:
200:
210: coordinate system conversion unit
220:
230: lane area detecting unit
240: lane area mapping unit
D:

Claims (12)

전방 영상을 탑 뷰(Top View) 영상으로 변환하는 영상 변환부;
상기 탑 뷰 영상 내 각 픽셀 및 상기 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 필터링부;
상기 기준 거리는 차선 폭에 의해 결정되고,
상기 필터링된 영상으로부터 군집화를 통해 복수의 차선 세그먼트를 추출하고, 상기 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출하는 차선 영역 검출부; 및
상기 검출된 차선 영역을 상기 전방 영상에 매핑(Mapping)하는 매핑부를 포함하는 차선 검출 장치.
An image converter for converting a forward image into a top view image;
A filtering unit for filtering the top view image based on brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of the each pixel;
The reference distance is determined by the lane width,
A lane area detecting unit for extracting a plurality of lane segments from the filtered image through clustering and detecting a lane area based on the similarity between the plurality of lane segment segments; And
And a mapping unit for mapping the detected lane area to the forward image.
제 1 항에 있어서,
상기 필터링부는,
상기 탑 뷰 영상 내 각 픽셀, 및 상기 기준 거리만큼 상기 각 픽셀의 양측으로 이격된 상기 복수의 픽셀의 밝기 값, 및 밝기 분포 중 적어도 하나를 포함하는 상기 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 차선 검출 장치.
The method according to claim 1,
Wherein the filtering unit comprises:
The top view image is filtered based on the brightness information including at least one of the brightness level of each of the pixels in the top view image and the brightness of the plurality of pixels spaced apart from each other by the reference distance, Of the lane detecting device.
제 1 항에 있어서,
상기 차선 영역 검출부는,
상기 필터링된 영상 내 픽셀에 대해 방향성 테스트를 수행하여 픽셀을 군집화하고, 상기 군집된 픽셀을 차선 세그먼트로 추출하는 차선 검출 장치.
The method according to claim 1,
Wherein the lane area detecting unit comprises:
Performing a directional test on pixels in the filtered image to cluster the pixels, and extracting the clustered pixels into lane segments.
제 1 항에 있어서,
상기 차선 영역 검출부는,
최소 자승법(Least Square)을 이용하여 상기 복수의 차선 세그먼트 각각의 선분 방정식을 추정하고, 상기 추정된 선분 방정식을 이용하여 상기 복수의 차선 세그먼트 중 어느 두 개를 외삽(Extrapolation)한 선분과 임계값을 비교하여 상기 차선 세그먼트 간 유사도를 산정하는 차선 검출 장치
The method according to claim 1,
Wherein the lane area detecting unit comprises:
Estimating a line segment equation of each of the plurality of lane segments using a Least Square method and calculating a line segment and a threshold value obtained by extrapolating any two of the plurality of lane segments using the estimated line segment equation A lane detecting device for calculating a degree of similarity between the lane segment
제 1 항에 있어서,
상기 매핑부는,
상기 전방 영상을 구성하는 복수의 픽셀의 측방향 밝기 변화에 따라 검출된 에지 성분과 상기 차선 영역의 경계를 일치시킴으로써 상기 검출된 차선 영역을 매핑하는 차선 검출 장치.
The method according to claim 1,
Wherein the mapping unit comprises:
And maps the detected lane area by matching the boundary of the lane area with the edge component detected according to the lateral brightness change of the plurality of pixels constituting the forward image.
제 1 항에 있어서,
상기 매핑부는,
상기 전방 영상 중 미리 정해진 근거리 영역에서 직선 모델에 따라 상기 검출된 차선 영역을 매핑하고,
상기 전방 영상 중 상기 근거리 영역 이외의 원거리 영역에서 상기 직선 모델 및 쌍곡선 모델 중 어느 하나에 따라 상기 검출된 차선 영역을 매핑하는 차선 검출 장치.
The method according to claim 1,
Wherein the mapping unit comprises:
Maps the detected lane area according to a straight line model in a predetermined short-range area of the forward image,
And maps the detected lane area according to any one of the straight line model and the hyperbolic model in a remote area other than the near area out of the front images.
전방 영상을 탑 뷰(Top View) 영상으로 변환하는 단계;
상기 탑 뷰 영상 내 각 픽셀 및 상기 각 픽셀의 양측으로 기준 거리 만큼 이격된 복수의 픽셀의 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 단계;
상기 기준 거리는 차선 폭에 의해 결정되고,
상기 필터링된 영상으로부터 군집화를 통해 복수의 차선 세그먼트를 추출하는 단계;
상기 복수의 차선 세그먼트 간 유사도를 기초로 차선 영역을 검출하는 단계; 및
상기 검출된 차선 영역을 상기 전방 영상에 매핑(Mapping)하는 단계; 를 포하는 차선 검출 방법.
Converting a forward image into a top view image;
Filtering the top view image based on brightness information of each pixel in the top view image and a plurality of pixels spaced by a reference distance to both sides of each pixel;
The reference distance is determined by the lane width,
Extracting a plurality of lane segments from the filtered image through clustering;
Detecting a lane area based on the degree of similarity between the plurality of lane segment segments; And
Mapping the detected lane area to the forward image; The lane detection method comprising:
제 7 항에 있어서,
상기 탑 뷰 영상을 필터링하는 단계는,
상기 탑 뷰 영상 내 각 픽셀, 및 상기 기준 거리만큼 상기 각 픽셀의 양측으로 이격된 상기 복수의 픽셀의 밝기 값, 및 밝기 분포 중 적어도 하나를 포함하는 상기 밝기 정보에 기초하여 상기 탑 뷰 영상을 필터링하는 차선 검출 방법.
8. The method of claim 7,
Wherein filtering the top view image comprises:
The top view image is filtered based on the brightness information including at least one of the brightness level of each of the pixels in the top view image and the brightness of the plurality of pixels spaced apart from each other by the reference distance, The lane detection method comprising:
제 7 항에 있어서,
상기 복수의 차선 세그먼트를 추출하는 단계는,
상기 필터링된 영상 내 픽셀에 대해 방향성 테스트를 수행하여 픽셀을 군집화하고, 상기 군집된 픽셀을 차선 세그먼트로 추출하는 차선 검출 방법.
8. The method of claim 7,
Wherein the step of extracting the plurality of lane segments comprises:
Performing a directional test on the pixels in the filtered image to cluster the pixels, and extracting the clustered pixels as lane segments.
제 7 항에 있어서,
상기 차선 영역을 검출하는 단계는,
최소 자승법(Least Square)을 이용하여 상기 복수의 차선 세그먼트 각각의 선분 방정식을 추정하고, 상기 추정된 선분 방정식을 이용하여 상기 복수의 차선 세그먼트 중 어느 두 개를 외삽(Extrapolation)한 선분과 임계값을 비교하여 상기 차선 세그먼트 간 유사도를 산정하는 차선 검출 방법.
8. The method of claim 7,
Wherein the detecting the lane area comprises:
Estimating a line segment equation of each of the plurality of lane segments using a Least Square method and calculating a line segment and a threshold value obtained by extrapolating any two of the plurality of lane segments using the estimated line segment equation And calculating the degree of similarity between the lane segments.
제 7 항에 있어서,
상기 차선 영역을 매핑하는 단계는,
상기 전방 영상을 구성하는 복수의 픽셀의 측방향 밝기 변화에 따라 검출된 에지 성분과 상기 차선 영역의 경계를 일치시킴으로써 상기 검출된 차선 영역을 매핑하는 차선 검출 방법.
8. The method of claim 7,
Wherein mapping the lane area comprises:
Wherein the detected lane area is mapped by matching edges detected in accordance with a lateral brightness change of a plurality of pixels constituting the forward image and the boundary of the lane area.
제 7 항에 있어서,
상기 차선 영역을 매핑하는 단계는,
상기 전방 영상 중 미리 정해진 근거리 영역에서 직선 모델에 따라 상기 검출된 차선 영역을 매핑하고,
상기 전방 영상 중 상기 근거리 영역 이외의 원거리 영역에서 상기 직선 모델 및 쌍곡선 모델 중 어느 하나에 따라 상기 검출된 차선 영역을 매핑하는 차선 검출 방법.
8. The method of claim 7,
Wherein mapping the lane area comprises:
Maps the detected lane area according to a straight line model in a predetermined short-range area of the forward image,
Wherein the detected lane area is mapped according to any one of the straight line model and the hyperbolic model in a remote area other than the near area of the forward image.
KR1020170152560A 2017-11-15 2017-11-15 Lane detection apparatus and lane detection method KR101998584B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170152560A KR101998584B1 (en) 2017-11-15 2017-11-15 Lane detection apparatus and lane detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170152560A KR101998584B1 (en) 2017-11-15 2017-11-15 Lane detection apparatus and lane detection method

Publications (2)

Publication Number Publication Date
KR20190055634A KR20190055634A (en) 2019-05-23
KR101998584B1 true KR101998584B1 (en) 2019-07-10

Family

ID=66681299

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170152560A KR101998584B1 (en) 2017-11-15 2017-11-15 Lane detection apparatus and lane detection method

Country Status (1)

Country Link
KR (1) KR101998584B1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102255924B1 (en) * 2019-09-27 2021-05-25 주식회사 서울로보틱스 Vehicle and method for detecting lane
CN112989991B (en) * 2021-03-09 2024-09-20 贵州京邦达供应链科技有限公司 Lane line detection method and device, electronic equipment and computer readable storage medium
CN114022863B (en) * 2021-10-28 2022-10-11 广东工业大学 Deep learning-based lane line detection method, system, computer and storage medium
CN117723043B (en) * 2023-12-13 2024-09-24 酷哇科技有限公司 Method and system for generating double yellow lane lines in high-precision map road

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101637535B1 (en) * 2015-04-14 2016-07-07 주식회사 와이즈오토모티브 Apparatus and method for correcting distortion in top view image

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101738034B1 (en) * 2015-07-09 2017-05-22 현대자동차주식회사 Improved method of lane recognition

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101637535B1 (en) * 2015-04-14 2016-07-07 주식회사 와이즈오토모티브 Apparatus and method for correcting distortion in top view image

Also Published As

Publication number Publication date
KR20190055634A (en) 2019-05-23

Similar Documents

Publication Publication Date Title
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
CN110443225B (en) Virtual and real lane line identification method and device based on feature pixel statistics
EP2728546B1 (en) Method and system for detecting object on a road
US9245188B2 (en) Lane detection system and method
JP5787024B2 (en) Three-dimensional object detection device
RU2568777C2 (en) Device to detect moving bodies and system to detect moving bodies
KR101998584B1 (en) Lane detection apparatus and lane detection method
KR101968349B1 (en) Method for detecting lane boundary by visual information
US20160232412A1 (en) Traveling road surface detection apparatus and traveling road surface detection method
KR101285106B1 (en) Obstacle detection method using image data fusion and apparatus
CN104916163A (en) Parking space detection method
US20190019044A1 (en) Image processing apparatus, imaging device, moving body device control system, image processing method, and program product
KR20110001427A (en) High speed road lane detection method based on extraction of roi-lb
Liu et al. Development of a vision-based driver assistance system with lane departure warning and forward collision warning functions
JP2014170540A (en) Road surface altitude shape estimation method and system
WO2020154990A1 (en) Target object motion state detection method and device, and storage medium
CN110197173B (en) Road edge detection method based on binocular vision
EP2833096B1 (en) Method for determining a current distance and/or a current speed of a target object based on a reference point in a camera image, camera system and motor vehicle
Petrovai et al. A stereovision based approach for detecting and tracking lane and forward obstacles on mobile devices
CN110659552A (en) Tramcar obstacle detection and alarm method
Yiruo et al. Complex ground plane detection based on v-disparity map in off-road environment
Oniga et al. A fast ransac based approach for computing the orientation of obstacles in traffic scenes
KR101289386B1 (en) Obstacle detection and division method using stereo vision and apparatus for performing the same
JP2019114150A (en) Extravehicular environment recognition device
Musleh et al. Real-time pedestrian recognition in urban environments

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant