KR102384971B1 - Apparatus and method for preprocessing of image recognition - Google Patents
Apparatus and method for preprocessing of image recognition Download PDFInfo
- Publication number
- KR102384971B1 KR102384971B1 KR1020150083199A KR20150083199A KR102384971B1 KR 102384971 B1 KR102384971 B1 KR 102384971B1 KR 1020150083199 A KR1020150083199 A KR 1020150083199A KR 20150083199 A KR20150083199 A KR 20150083199A KR 102384971 B1 KR102384971 B1 KR 102384971B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- channel
- channel image
- extracting
- vehicle
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/586—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
- H04N7/183—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Traffic Control Systems (AREA)
Abstract
본 발명은 영상 인식 수행 전에 좌우 평균 밝기차가 가장 높은 영상을 추출하여 영상 인식에 이용하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것이다.The present invention relates to a pre-processing apparatus for image recognition and a pre-processing method for image recognition by extracting an image with the highest left and right average brightness difference before image recognition and using it for image recognition.
Description
본 발명은 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것으로, 보다 상세하게는 영상 인식 수행 전에 가장 영상 인식 신뢰도가 높은 영상을 추출하여 영상 인식에 이용하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 관한 것이다.The present invention relates to a pre-processing apparatus for image recognition and a pre-processing method for image recognition, and more particularly, to a pre-processing apparatus for image recognition and pre-processing for image recognition by extracting an image with the highest image recognition reliability before performing image recognition and using it for image recognition it's about how
최근 영상 인식을 이용한 기술이 많은 차량에 적용되고 있다. 물체를 인식하여 차량의 주차 공간을 산출하고 차량을 산출된 주차 공간에 주차시키거나, 주행 시에 도로 면에서 차선을 인식하여 차량이 차선을 벗어나면 운전자에게 경고하여 주는 등의 기술이 그것이다. 그런데 주행 환경에 따라 영상에 특정 색상이 존재하는 경우가 있을 수 있다. 이러한 경우에는 영상 인식 과정에서 차량, 보행자, 차선 등 인식하려는 대상이 제대로 인식되지 않을 수 있다.Recently, a technology using image recognition has been applied to many vehicles. It is a technology such as recognizing an object to calculate a vehicle's parking space and parking the vehicle in the calculated parking space, or recognizing a lane on the road surface during driving to warn the driver if the vehicle deviates from the lane. However, depending on the driving environment, there may be cases where a specific color exists in the image. In this case, objects to be recognized, such as vehicles, pedestrians, and lanes, may not be properly recognized during the image recognition process.
이에 근래에 다양한 환경에서 영상 인식의 수행 시 정확한 인식 성능을 확보하는 기술이 연구 중에 있다.Accordingly, recently, research is being conducted on a technology for securing accurate recognition performance when performing image recognition in various environments.
본 발명이 해결하고자 하는 과제는 영상 인식 수행 전에 가장 영상 인식 신뢰도가 높은 영상을 추출하여 영상 인식에 이용되도록 하는 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법을 제공함에 있다.An object of the present invention is to provide an image recognition pre-processing apparatus and an image pre-processing method for extracting an image having the highest image recognition reliability before performing image recognition and using it for image recognition.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 인식 전 처리장치는 차량 주변 영상을 획득하는 카메라부; 상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부; 상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부; 상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부; 및 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부를 포함한다.In order to achieve the above object, an image recognition pre-processing apparatus according to an embodiment of the present invention includes: a camera unit for acquiring an image around a vehicle; a top-view image output unit for outputting a top-view image from the image around the vehicle; a YUV image extraction unit that converts the top-view image into a YUV method and extracts a Y-channel image; an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image; and from each of the Y-channel image, the R-channel image, and the B-channel image, extracting a feature point to recognize an object, and calculating the left and right average brightness differences on the basis of the feature point existing in the recognized object. , a control unit for extracting an image having the largest left and right average brightness difference.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 영상 인식 전 처리 방법은 차량 주변 영상을 획득하여 탑뷰 영상을 출력하는 단계; 상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 단계; 상기 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 단계; 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 특징점을 추출하여 물체를 인식하는 단계; 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 상기 인식된 물체에 존재하는 상기 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출하는 단계; 및 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 중, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 단계를 포함한다.In order to achieve the above object, the image recognition pre-processing method according to an embodiment of the present invention includes the steps of obtaining an image around a vehicle and outputting a top view image; extracting a Y-channel image by converting the top-view image into a YUV method; extracting an R-channel image and a B-channel image by converting the top-view image into an RGB method; recognizing an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image; calculating a left-right average brightness difference between left and right sides of the feature point present in the recognized object in each of the Y-channel image, the R-channel image, and the B-channel image; and extracting an image with the largest difference in left-right average brightness from among the Y-channel image, the R-channel image, and the B-channel image.
본 발명의 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the image recognition pre-processing apparatus and image pre-processing method of the present invention, there are one or more of the following effects.
본 발명의 일실시례에 따른 영상 인식 전 처리 장치 및 영상 인식 전 처리 방법은 물체 인식 전에 Y채널 영상, R채널 영상 및 B채널 영상 중에서 영상 인식 신뢰도가 가장 높은 영상을 영상 인식의 소스가 되도록 전 처리하여 바닥 색상에 따라 소스 영상을 달리하여 더욱 정확하게 물체를 인식하는 효과가 있다.The image recognition pre-processing apparatus and image pre-processing method according to an embodiment of the present invention preprocess the image having the highest image recognition reliability among Y-channel images, R-channel images, and B-channel images before object recognition so as to be a source of image recognition. It has the effect of recognizing objects more accurately by changing the source image according to the color of the floor by processing.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.Effects of the present invention are not limited to the effects mentioned above, and other effects not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 일실시례에 따른 영상 인식 전 처리 장치의 구성을 도시한 구성도이다.
도 2는 제어부가 이용하는 탑햇 필터와 탑햇 필터에 의하여 추출된 특징점을 도시한 것이다.
도 3은 제어부가 탑햇 필터를 이용하여 차선을 인식한 것을 도시한 탑뷰 영상도 및 그 확대도이다.
도 4는 도 1의 구성에 의한 일실시례에 따른 영상 인식 전 처리 방법의 흐름을 도시한 제어 흐름도이다.1 is a block diagram showing the configuration of an image recognition pre-processing apparatus according to an embodiment of the present invention.
2 shows the top hat filter used by the controller and the feature points extracted by the top hat filter.
3 is a top-view image diagram and an enlarged view illustrating that the control unit recognizes a lane using a top-hat filter.
FIG. 4 is a control flowchart illustrating a flow of an image recognition pre-processing method according to an embodiment according to the configuration of FIG. 1 .
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 서로 다른 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명은 청구항의 범주에 의해 정의될 뿐이다. 명세서 전체에 걸쳐 동일 참조 부호는 동일 구성 요소를 지칭한다.Advantages and features of the present invention and methods of achieving them will become apparent with reference to the embodiments described below in detail in conjunction with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below, but may be implemented in various different forms, and only these embodiments allow the disclosure of the present invention to be complete, and common knowledge in the art to which the present invention pertains It is provided to fully inform those who have the scope of the invention, and the present invention is only defined by the scope of the claims. Like reference numerals refer to like elements throughout.
이하, 본 발명의 실시예에 의하여 영상 인식 전 처리 장치를 설명하기 위한 도면들을 참고하여 본 발명에 대해 설명하도록 한다.Hereinafter, the present invention will be described with reference to the drawings for explaining an image recognition pre-processing apparatus according to an embodiment of the present invention.
도 1은 본 발명의 일실시례에 따른 영상 인식 전 처리 장치의 구성을 도시한 구성도이다. 도 1을 참고하면, 본 발명의 일실시례에 따른 영상 인식 전 처리 장치는 카메라부(100), 탑뷰 영상 출력부(200), YUV영상추출부(300), RGB영상추출부(400), 제어부(500), 주차 구획 추출부(600) 및 주차 지원부(700)를 포함한다.1 is a block diagram showing the configuration of an image recognition pre-processing apparatus according to an embodiment of the present invention. 1, the image recognition pre-processing apparatus according to an embodiment of the present invention includes a
카메라부(100)는 차량 주변 영상을 획득한다. 카메라부(100)는 차량의 전방, 후방 및 양 측방에 설치되어 차량 주변 영상을 획득한다.The
탑뷰 영상 출력부(200)는 차량 주변 영상으로부터 탑뷰 영상을 출력한다. 탑뷰 영상 출력부(200)는 차량의 전방, 후방 및 양 측방의 차량 주변 영상에 대해 영상 합성을 수행하여 탑뷰 영상을 출력한다.The top-view
YUV영상추출부(300)는 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출한다. YUV영상추출부(300)는 탑뷰 영상이 이미 YUV 방식인 경우에는 별도의 변환 과정 없이, Y채널 영상을 추출한다. YUV영상추출부(300)는 YUV 방식의 영상의 모든 화소에 대하여 Y채널의 성분을 추출하여 Y채널 영상을 추출한다. YUV영상추출부(300)는 탑뷰 영상이 RGB 방식인 경우에, 탑뷰 영상의 방식을 YUV방식으로 변환한다. YUV영상추출부(300)는 수학식 1을 이용하여 RGB 방식의 탑뷰 영상을 YUV 방식의 탑뷰 영상으로 변환한다.The YUV
[수학식 1][Equation 1]
Y = 0.257R + 0.504G + 0.098B + 16 Y = 0.257R + 0.504G + 0.098B + 16
U = -0.148R - 0.291G + 0.439B + 128 U = -0.148R - 0.291G + 0.439B + 128
V = 0.439R - 0.368G - 0.071B + 128 V = 0.439R - 0.368G - 0.071B + 128
여기서 R, G, B는 각각 R채널 성분, G채널 성분, B채널 성분을 뜻하고, Y, U V는 Y채널 성분, U채널 성분, V채널 성분을 뜻한다.Here, R, G, and B denote an R-channel component, a G-channel component, and a B-channel component, respectively, and Y and U V denote a Y-channel component, a U-channel component, and a V-channel component, respectively.
RGB영상추출부(400)는 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 탑뷰 영상이 이미 RGB 방식인 경우에는 별도의 변환 과정 없이, R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 RGB 방식의 영상의 모든 화소에 대하여 R채널 성분 및 B채널 성분을 추출하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)는 탑뷰 영상이 YUV 방식인 경우에, 탑뷰 영상의 방식을 RGB 방식으로 변환한다. RGB영상추출부(400)는 수학식 2를 이용하여 YUV 방식의 탑뷰 영상을 RGB 방식의 탑뷰 영상으로 변환한다.The RGB
[수학식 2][Equation 2]
R = Y + 1.4075(V -128) R = Y + 1.4075 (V -128)
G = Y - 0.3455(U -128) - 0.7169(V -128) G = Y - 0.3455 (U -128) - 0.7169 (V -128)
B = Y + 1.37790(U -128) B = Y + 1.37790 (U -128)
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식한다. 제어부(500)는 Y채널 영상, R채널 영상 및 상기 B채널 영상 각각에서 탑햇 필터(Top-hat filter)를 이용하여 특징점을 추출한다. 본 실시례에서 제어부(500)는 차선의 특징점을 추출한다. 제어부(500)는 탑햇 필터를 이용하여 특징점을 추출한다. 제어부(500)는 특징점에서 360도로 다른 특징점을 탐색하여, 복수의 특징점들이 한 방향으로 탐색될 때 복수의 특징점들을 차선으로 인식한다. 제어부(500)가 특징점을 탐색하여 차선을 인식하는 과정은 제어부(500)가 차선을 인식하는 것을 예로 하여 도 2 및 도 3에서 자세히 설명한다.The
제어부(500)는 인식된 물체에 존재하는 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 좌우 평균 밝기차가 가장 큰 영상을 추출한다. 제어부(500)가 산출하는 좌우 평균 밝기차는 영상 인식 신뢰도를 의미한다. 제어부(500)는 추출된 특징점 중, 인식된 차선 위에 존재하는 특징점(A)들을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상에서 각각의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중, 각각 산출된 좌우 평균 밝기차가 가장 큰 영상을 추출한다. 이에 대한 자세한 설명은 도 3에서 설명한다.The
기존에는 전 처리하지 않은 영상에서 물체를 인식할 경우 바닥의 색상에 따라 인식율이 저하된다. 이에 본 발명의 일실시례에 따른 영상 인식 전 처리 장치는 물체 인식 전에 Y채널 영상, R채널 영상 및 B채널 영상 중에서 영상 인식 신뢰도가 가장 높은 영상을 영상 인식의 소스가 되도록 전 처리하여 더욱 정확하게 물체를 인식하는 효과가 있다. 즉 본 발명은 바닥 색상에 따라 소스 영상이 바뀌게 함으로써 최적의 영상에서 물체를 인식하게 해준다.In the case of recognizing an object in an image that has not been pre-processed in the past, the recognition rate is lowered according to the color of the floor. Therefore, the image recognition pre-processing apparatus according to an embodiment of the present invention pre-processes the image having the highest image recognition reliability among the Y-channel image, the R-channel image, and the B-channel image before object recognition so as to be a source of image recognition, so that the object is more accurately has the effect of recognizing That is, the present invention allows an object to be recognized in an optimal image by changing the source image according to the color of the floor.
이 때 제어부(500)가 Y채널 성분, R채널 성분 및 B채널 성분만을 고려하는 이유는 G채널 성분은 이미 U채널 성분 및 V채널 성분이 혼합되어 표현되며, R채널 성분 및 B채널 성분을 반영할 때, 이미 U채널 성분 및 V채널 성분이 반영되기 때문이다. 그러므로 제어부(500)가 Y채널 성분, R채널 성분 및 B채널 성분을 고려함으로써 모든 채널의 성분을 반영하는 것이다.The reason that the
주차 구획 추출부(600)는 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 추출한다. 주차 구획 추출부(600)는 제어부(500)가 인식한 Y축 방향의 차선에 관심 영역(ROI, Region of interest)를 설정하여 주차선 간 교차점을 검출하고, 교차점 사이의 거리와 차량의 폭을 비교하여 주차가 유효한지 판단하여 주차 구획을 추출한다. 주차 구획 추출부(600)는 관심 영역에서 X축 방향으로 탑햇 필터를 적용함으로써 차선을 인식한다. 주차 구획 추출부(600)는 인식한 차선과 기 인식한 Y축 방향의 차선의 교차점을 추출한다. 주차 구획 추출부(600)는 추출된 교차점 사이의 거리와 차량의 Y방향 폭을 비교하여 차량의 주차 구획을 추출한다. 주차 구획 추출부(600)는 제어부(500)가 기 인식한 Y축 방향의 차선에서만 교차점 검출을 수행함으로써 알고리즘의 연산량을 감소시키는 장점이 있다.The parking
주차 지원부(700)는 차량을 추출된 주차 구획에 차량을 주차시킨다. 주차 지원부(700)는 차량을 주차시키기 위하여, MDPS(Motor-Driven Power Steering)와 가속 수단 및 제동 수단을 포함할 수 있다. 주차 지원부(700)가 차량을 주차 구획에 주차시키는 자세한 과정은 생략하기로 한다.The
도 2는 제어부(500)가 이용하는 탑햇 필터와 탑햇 필터에 의하여 추출된 특징점을 도시한 것이다. 도 2(a)를 참고하면, 어두운 부분(Da)과 밝은 부분(Br)의 밝기차가 3인 탑햇 필터(Top-hat filter)를 도시한 것이다. 탑햇 필터의 밝기차는 설정에 따라 변경될 수 있다. 제어부(500)는 탑햇 필터를 이용하여 영상에서 밝기가 밝은 부분을 찾아, 특징점을 추출한다.2 shows the top hat filter used by the
도 2(b)를 참고하면, 제어부(500)는 탑햇 필터를 통하여 어두운 부분(Da)과 밝은 부분(Br) 사이의 경계(P)를 추출한다. 이 때 도 3의 예시도 상에서는 추출된 특징점을 도 2(b)에 도시된 모양과 같이 표시한다. 제어부(500)는 어두운 부분(Da)과 밝은 부분(Br)의 밝기차를 계산한다. 제어부(500)는 탑뷰 영상에서 차선 위의 모든 특징점(A)에 대해 밝기차를 계산하여 좌우 평균 밝기차를 산출한다.Referring to FIG. 2B , the
도 3은 제어부(500)가 탑햇 필터를 이용하여 차선을 인식한 것을 도시한 탑뷰 영상도 및 그 확대도이다. 도 3(a)는 주행 중인 차량의 탑뷰 영상을 도시한 것이다. 이 때 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상으로 된 각각의 탑뷰 영상을 이용한다. 도 3(a)는 Y채널 영상, R채널 영상 및 B채널 영상 중 어느 하나인 것을 도시한 것이다.3 is a top view image showing that the
제어부(500)는 차량의 주행 방향을 X축으로 설정하고, X축에 수직인 방향을 Y축으로 설정한다. 제어부(500)는 Y축 방향으로 탑햇 필터를 이용하여 차선의 특징점을 추출한다. 제어부(500)는 차량 영역 이외의 영역에서 특징점을 추출한다. 탑햇 필터는 밝기를 기준으로 특징점을 추출하므로 도 3(a)에서와 같이 차선 위의 특징점(A)를 추출할 수 있고, 차선 위에 있지 않은 특징점(B)를 추출 할 수도 있다. 제어부(500)는 특징점에서 360도로 탐색하여 차선 성분을 탐색함으로써, 좌우 평균 밝기차 산출 시에 차선 위에 있지 않은 특징점(B)을 배제한다.The
도 3(b)는 차선 위의 특징점을 확대한 확대도이다. 도 3(b)의 특징점 모양은 도 2(b)의 아래에서 이미 도시한 바 있다. 도3(b)를 참고하면, 제어부(500)는 추출한 특징점에서 차선 후보를 검출하기 위하여 특징점의 어두운 부분(Da)과 밝은 부분(Br)의 경계(P)를 중심으로 반시계 방향 또는 시계 방향으로 360도를 탐색하여 다른 특징점을 추출한다. 제어부(500)는 추출한 복수의 특징점들이 차선인지 여부를 판단한다.3(b) is an enlarged view of an enlarged feature point on a lane. The shape of the feature point in FIG. 3(b) has already been shown below in FIG. 2(b). Referring to FIG. 3B , the
도 3(c)을 참고하면, 제어부(500)는 복수의 특징점을 추출하여 차선을 인식한다. 제어부(500)는 인식된 차선 위에 존재하는 복수의 특징점(A)을 기준으로 좌측 및 우측의 밝기차를 산출하고, 복수의 특징점(A)들의 좌우 평균 밝기차를 산출한다. 이 때 제어부(500)는 차선 위에 존재하지 않는 특징점(B)는 좌우 평균 밝기차 산출에 배제할 수 있다.Referring to FIG. 3C , the
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상에서 각각 특징점을 추출한다. 제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상으로부터 각각의 좌우 평균 밝기차를 산출한다. 제어부(500)는 Y채널 영상의 좌우 평균 밝기차, R채널 영상의 좌우 평균 밝기차 및 B채널 영상의 좌우 평균 밝기차를 산출한다.The
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중에서, 각각 산출된 좌우 평균 밝기차가 가장 큰 영상을 추출한다.The
본 실시례에서는 인식되는 물체를 차선으로 하여 설명하였으나, 인식 물체는 차량, 보행자, 헤드 램프 등이 될 수 있으며, 특정 물체에 한정되지 않는다.In this embodiment, the recognized object has been described as the lane, but the recognized object may be a vehicle, a pedestrian, a headlamp, etc., and is not limited to a specific object.
본 발명의 일실시례에 따른 영상 인식 전 처리 방법의 작용을 설명하면 다음과 같다. 도 4는 도 1의 구성에 의한 일실시례에 따른 영상 인식 전 처리 방법의 흐름을 도시한 제어 흐름도이다. 도 4를 참고하면, 카메라부(100)는 차량 주변 영상을 획득한다(S110). 탑뷰 영상 출력부(200)는 차량 주변 영상으로부터 탑뷰 영상을 출력한다(S110).The operation of the image recognition pre-processing method according to an embodiment of the present invention will be described as follows. FIG. 4 is a control flowchart illustrating a flow of an image recognition pre-processing method according to an embodiment according to the configuration of FIG. 1 . Referring to FIG. 4 , the
YUV영상추출부(300)는 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출한다(S120). YUV영상추출부(300)는 RGB 방식의 탑뷰 영상을 수학식 1을 이용하여 YUV 방식으로 변환하며, 탑뷰 영상의 변환 과정은 도 1에서 설명하였다.The YUV
RGB영상추출부(400)는 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출한다. RGB영상추출부(400)가 탑뷰 영상을 수학식 2를 이용하여 RGB 방식으로 변환하며, 변환 과정은 도 1에서 설명하였다. 이때 YUV영상추출부(300)의 Y채널 영상 추출과 RGB영상추출부(400)의 R채널 영상 및 B채널 영상의 추출은 동시에 수행될 수 있다.The RGB
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서 특징점을 추출하여 물체를 인식한다(S140). 본 실시례에서는 제어부(500)가 차선을 인식하는 것을 예로 든다. 제어부(500)는 탑햇 필터를 이용하여 특징점을 추출한다. 제어부(500)는 특징점에서 360도로 다른 특징점을 탐색하여, 복수의 특징점들이 한 방향으로 탐색될 때 복수의 특징점들을 차선으로 인식한다. 이에 대한 자세한 것은 도 2 및 도 3에서 설명하였다.The
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 각각에서, 인식된 물체에 존재하는 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출한다(S150). 제어부(500)는 인식된 차선 위의 특징점(A)에서 좌우 평균 밝기차를 산출한다. 제어부(500)는 추출된 특징점 중, 인식된 차선 위에 존재하는 특징점(A)들을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출한다. 제어부(500)가 좌우 평균 밝기차를 산출하는 과정은 도 3에서 설명하였다.The
제어부(500)는 Y채널 영상, R채널 영상 및 B채널 영상 중, 좌우 평균 밝기차가 가장 큰 영상을 추출한다(S160).The
주차 구획 추출부(600)는 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 산출한다(S170). 주차 구획 추출부(600)는 제어부(500)가 인식한 차선에 관심 영역(ROI, Region Of Interest)을 설정하여 주차선 간 교차점을 검출하고, 교차점 사이의 거리와 차량의 폭을 비교하여 주차가 유효한지 판단하여 주차 구획을 추출한다.The
주차 지원부(700)는 차량을 산출된 주차 구획에 차량을 주차시킨다(S180). 주차 지원부(700)는 차량을 주차시키기 위하여, MDPS(Motor-Driven Power Steering)와 가속 수단 및 제동 수단을 포함할 수 있다.The
이상에서는 본 발명의 바람직한 실시예에 대하여 도시하고 설명하였지만, 본 발명은 상술한 특정의 실시예에 한정되지 아니하며, 특허청구범위에서 청구하는 본 발명의 요지를 벗어남이 없이 당해 발명이 속하는 기술분야에서 통상의 지식을 가진 자에 의해 다양한 변형실시가 가능한 것은 물론이고, 이러한 변형실시들은 본 발명의 기술적 사상이나 전망으로부터 개별적으로 이해되어서는 안될 것이다.In the above, preferred embodiments of the present invention have been illustrated and described, but the present invention is not limited to the specific embodiments described above, and in the technical field to which the present invention belongs, without departing from the gist of the present invention as claimed in the claims Various modifications may be made by those of ordinary skill in the art, and these modifications should not be individually understood from the technical spirit or perspective of the present invention.
100 : 카메라부
200 : 탑뷰 영상 출력부
300 : YUV영상추출부
400 : RGB영상추출부
500 : 제어부
600 : 주차 구획 추출부
700 : 주차 지원부100: camera unit
200: top view image output unit
300: YUV image extraction unit
400: RGB image extraction unit
500: control unit
600: parking compartment extraction unit
700: parking support department
Claims (5)
상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부;
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부;
상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부; 및
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체 위에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부를 포함하는 영상 인식 전 처리 장치.a camera unit for acquiring an image around the vehicle;
a top-view image output unit for outputting a top-view image from the image around the vehicle;
a YUV image extraction unit for extracting a Y-channel image by converting the top-view image into a YUV method;
an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image; and
From each of the Y-channel image, the R-channel image, and the B-channel image, a feature point is extracted to recognize an object, and the left and right average brightness differences are calculated based on the feature point existing on the recognized object, and a controller for extracting an image with the largest difference in the average brightness between the left and right.
상기 제어부는 상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 탑햇 필터를 이용하여 상기 특징점을 추출하는 영상 인식 전 처리 장치.2. The method of claim 1
The control unit extracts the feature points from each of the Y-channel image, the R-channel image, and the B-channel image by using a top-hat filter.
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 단계;
상기 탑뷰 영상을 RGB 방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 단계;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서 특징점을 추출하여 물체를 인식하는 단계;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 상기 인식된 물체 위에 존재하는 상기 특징점의 좌측 및 우측의 좌우 평균 밝기차를 산출하는 단계; 및
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 중, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 단계를 포함하는 영상 인식 전 처리 방법.outputting a top-view image by acquiring an image around the vehicle;
extracting a Y-channel image by converting the top-view image to a YUV method;
extracting an R-channel image and a B-channel image by converting the top-view image into an RGB method;
recognizing an object by extracting feature points from each of the Y-channel image, the R-channel image, and the B-channel image;
calculating a left and right average brightness difference between the left and right sides of the feature point present on the recognized object in each of the Y-channel image, the R-channel image, and the B-channel image; and
and extracting an image with the largest difference in left-right average brightness from among the Y-channel image, the R-channel image, and the B-channel image.
상기 물체 인식 단계에서, 탑햇 필터를 이용하여 상기 특징점을 추출하는 영상 인식 전 처리 방법.4. The method of claim 3
In the object recognition step, an image recognition pre-processing method of extracting the feature point using a top-hat filter.
상기 차량 주변 영상으로부터 탑뷰 영상을 출력하는 탑뷰 영상 출력부;
상기 탑뷰 영상을 YUV 방식으로 변환하여 Y채널 영상을 추출하는 YUV영상추출부;
상기 탑뷰 영상을 RGB방식으로 변환하여 R채널 영상 및 B채널 영상을 추출하는 RGB영상추출부;
상기 Y채널 영상, 상기 R채널 영상 및 상기 B채널 영상 각각에서, 특징점을 추출하여 물체를 인식하고, 상기 인식된 물체 위에 존재하는 상기 특징점을 기준으로 좌측 및 우측의 좌우 평균 밝기차를 산출하여, 상기 좌우 평균 밝기차가 가장 큰 영상을 추출하는 제어부;
상기 좌우 평균 밝기차가 가장 큰 영상에서 주차 구획을 추출하는 주차 구획 추출부 및
상기 차량을 엠디피에스(MDPS, Motor-Driven Power Steering)를 이용하여 상기 주차 구획에 주차시키는 주차 지원부를 포함하는 자동차.a camera unit for acquiring an image around the vehicle;
a top-view image output unit for outputting a top-view image from the image around the vehicle;
a YUV image extraction unit for extracting a Y-channel image by converting the top-view image into a YUV method;
an RGB image extraction unit that converts the top-view image into an RGB method and extracts an R-channel image and a B-channel image;
From each of the Y-channel image, the R-channel image, and the B-channel image, a feature point is extracted to recognize an object, and the left and right average brightness differences are calculated based on the feature point existing on the recognized object, a control unit for extracting an image with the largest difference in average brightness between the left and right;
A parking section extracting unit for extracting a parking section from the image with the largest left and right average brightness difference; and
A vehicle comprising a parking support unit for parking the vehicle in the parking compartment using a motor-driven power steering (MDPS).
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150083199A KR102384971B1 (en) | 2015-06-12 | 2015-06-12 | Apparatus and method for preprocessing of image recognition |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020150083199A KR102384971B1 (en) | 2015-06-12 | 2015-06-12 | Apparatus and method for preprocessing of image recognition |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20160146231A KR20160146231A (en) | 2016-12-21 |
KR102384971B1 true KR102384971B1 (en) | 2022-04-11 |
Family
ID=57734861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020150083199A KR102384971B1 (en) | 2015-06-12 | 2015-06-12 | Apparatus and method for preprocessing of image recognition |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102384971B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112468792B (en) * | 2020-11-05 | 2023-03-28 | Oppo广东移动通信有限公司 | Image recognition method and device, electronic equipment and storage medium |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003274393A (en) * | 2002-03-12 | 2003-09-26 | Matsushita Electric Ind Co Ltd | Vehicle periphery monitor device |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100816377B1 (en) * | 2006-09-14 | 2008-03-25 | 주식회사 만도 | Method and Apparatus for Recognizing Parking Slot Marking by Using Hough Transformation and Parking Assist System Using Same |
KR20140147904A (en) * | 2013-06-19 | 2014-12-31 | 현대모비스 주식회사 | Vehicle Controlling Method and Apparatus therefor |
-
2015
- 2015-06-12 KR KR1020150083199A patent/KR102384971B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003274393A (en) * | 2002-03-12 | 2003-09-26 | Matsushita Electric Ind Co Ltd | Vehicle periphery monitor device |
Also Published As
Publication number | Publication date |
---|---|
KR20160146231A (en) | 2016-12-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP2879109B1 (en) | Vehicle-mounted surrounding environment recognition device | |
CN109409186B (en) | Driver assistance system and method for object detection and notification | |
US10565438B2 (en) | Vehicle periphery monitor device | |
EP2928178B1 (en) | On-board control device | |
KR101498975B1 (en) | Lane Departure Warning System | |
KR101738129B1 (en) | Apparatus and method for recognizing automatic number plate on long distance image using one camera | |
US20150235090A1 (en) | Lane-line recognition apparatus | |
CN101369312B (en) | Method and equipment for detecting intersection in image | |
US9824449B2 (en) | Object recognition and pedestrian alert apparatus for a vehicle | |
KR20170055738A (en) | Apparatus and method for recognize driving lane on image | |
KR20140022197A (en) | Lane detection method and lane departure warning system using same | |
KR102384971B1 (en) | Apparatus and method for preprocessing of image recognition | |
Boonsim et al. | An algorithm for accurate taillight detection at night | |
KR101511586B1 (en) | Apparatus and method for controlling vehicle by detection of tunnel | |
KR20190016195A (en) | Driving assistant system and method thereof | |
KR20140087622A (en) | Method of extracting traffic lanes from captured image using brightness | |
CN109923586B (en) | Parking frame recognition device | |
KR101502088B1 (en) | Method for detecting the failure of rear combination lamp of vehicle by using camera image and system thereof | |
TWI498831B (en) | System of adaptive variable shape region of interest determination and its control method | |
JP6677142B2 (en) | Parking frame recognition device | |
KR20180069282A (en) | Method of detecting traffic lane for automated driving | |
JP5724473B2 (en) | Vehicular image recognition apparatus, vehicular image recognition method, program, and medium | |
JP6273156B2 (en) | Pedestrian recognition device | |
JP6820403B2 (en) | Automotive visual systems and methods | |
Solus et al. | Signal processing-object detection methods with usage of optical correlator |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |