KR101484170B1 - Assessment system and method for image projected from head up display - Google Patents
Assessment system and method for image projected from head up display Download PDFInfo
- Publication number
- KR101484170B1 KR101484170B1 KR20130050893A KR20130050893A KR101484170B1 KR 101484170 B1 KR101484170 B1 KR 101484170B1 KR 20130050893 A KR20130050893 A KR 20130050893A KR 20130050893 A KR20130050893 A KR 20130050893A KR 101484170 B1 KR101484170 B1 KR 101484170B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- virtual image
- roi
- double
- unit
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/10—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
- H04N19/134—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
- H04N19/167—Position within a video image, e.g. region of interest [ROI]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R2300/00—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
- B60R2300/20—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
- B60R2300/205—Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Geometry (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
Abstract
본 발명은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 촬영하는 카메라와, 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부와, 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부와, 각 객체를 스캔하여 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부와, 템플릿 저장부로부터 인출된 기준 이미지의 객체와, 가상 이미지의 객체를 비교하여 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부를 포함한다. 이에 의해, 평가를 통해 왜곡과 이중상을 방지할 수 있으므로, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있어 HUD 시스템의 품질을 향상시킬 수 있을 뿐만 아니라, 사용자의 만족을 도모할 수 있다. A coordinate setting unit for setting a coordinate system for each object, which is an individual element included in the virtual image, and a reference value for determining whether or not the virtual image is deformed, A template storing unit for storing information about each object included in the reference image, and a dual image is determined according to whether the edges of the objects are overlapped with each other by scanning each object. In case of a double image, And a distortion determining unit for determining whether the virtual image is distorted or distorted by comparing the object of the reference image drawn from the template storing unit with the object of the virtual image. As a result, it is possible to prevent distortions and double images through evaluation, so that it is possible to generate a clear virtual image of the image transmitted from the HUD system, thereby improving not only the quality of the HUD system but also the user's satisfaction have.
Description
본 발명은 HUD 영상 평가시스템 및 그 평가방법에 관한 것으로서, 보다 상세하게는, 정량적 검증 툴을 생성함으로써, 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 수 있도록 하는 HUD 영상 평가시스템 및 그 평가방법에 관한 것이다. The present invention relates to an HUD image evaluation system and an evaluation method thereof, and more particularly, to a HUD image evaluation system and an evaluation method thereof that enable evaluation of whether a virtual image is generated without distortion by generating a quantitative verification tool .
HUD(Head Up Display) 시스템은, 초기에는 비행기에 도입된 시스템으로서, 비행 중의 안전을 위해 비행기의 창문이나 헬멧에 비행정보에 관련된 이미지를 표시하면서 시작되었다. The Head Up Display (HUD) system was originally introduced on airplanes and started by displaying images related to flight information on the windows and helmets of an airplane for safety during flight.
최근에는, 국내 특허공개 1020070049990호 "차량용 운전 조작 보조 장치 및 차량용 운전 조작 보조장치를 구비한 차량"을 비롯한 다수의 특허에서 볼 수 있듯이, 차량에 적용하는 차량용 HUD 시스템이 개발되었고, 실제 차량에 장착되어 사용되고 있다. 차량용 HUD 시스템은 차량의 운전에 관련된 다양한 정보를 차량의 앞유리창에 반사시켜 표시하게 되며, 차량용 HUD 시스템에서 제공하는 정보로는, 차량속도계, 차량 주행속도, 네비게이션, 크루즈컨트롤, 차선이탈 경보장치, 도로정보, 후측방 경고 등을 포함할 수 있다. Recently, a HUD system for a vehicle applied to a vehicle has been developed, as shown in many patents including domestic patent publication No. 1020070049990 "Vehicle Driving Aid Device and Vehicle Having Vehicle Driving Aid Device" Has been used. The vehicle HUD system reflects various information related to the driving of the vehicle on the windshield of the vehicle. The information provided by the vehicle HUD system includes a vehicle speedometer, vehicle speed, navigation, cruise control, Road information, back side warnings, and the like.
차량용 HUD 시스템(100)은, 도 1에 도시된 바와 같이, 차량의 대시보드에 이미지를 송출하는 HUD 본체(101)가 설치되고, HUD 본체(101)에서 송출되는 이미지는 반사경(102)을 통해 앞유리창으로 반사된다. 실제 이미지는 앞유리창에 맺히게 되나, 운전자는 이미지가 앞유리창으로부터 일정 거리 전방에 떠있는 것으로 보이게 되고, 이를 가상 이미지라 한다. 앞유리창에는 반사율이 유리와 다른 산화물 코팅(TiO2/SiO2 복합층)을 하거나 쐐기 형태의 PVB 필름을 삽입함으로써, 가상 이미지가 선명하게 표시되도록 한다. 1, the
이러한 HUD 시스템(100)에서는 앞유리의 두께 및 굴절율에 따라 운전자측 초점이 정해지며, 운전자측 초점에 운전자의 눈이 위치하고 있을 때, 이미지의 초점이 맞아 정확한 가상 이미지를 볼 수 있다. 이때, 운전자측 초점은 운전자의 좌석을 이동시킬 수 있는 일정한 범위내에서 형성되어야 하므로, 반사경(102)을 이동시켜 가상 이미지가 표시되는 상거리와 위치를 조정함으로써, 초점을 맞출 수 있다.In this
HUD 시스템(100)에서는 앞유리에 이미지가 반사된 후, 차량의 전방으로부터 일정 거리에 가상 이미지가 생성되기 때문에, 이미지의 반사를 위한 하드웨어, 이미지를 생성하는 소프트웨어 중 어느 쪽에 사소한 문제가 생겨도 가상 이미지가 변형될 수 있다. 또한, 차량이 정지하고 있을 때와 주행 중, 차량속도, 떨림, 하드웨어 또는 소프트웨어 오작동 등에 의해 가상 이미지의 변형이 일어날 수 있다. 이렇게 변형된 이미지가 차량의 전방에 디스플레이되면, 운전자는 명확하지 못한 가상 이미지 때문에 운전에 도움을 받기는커녕 운전자에게 거슬릴 수 있다. In the
이에 따라, HUD 시스템(100)에서 생성된 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 필요가 있다. HUD 시스템(100)에서 생성된 가상 이미지를 평가함으로써, HUD 시스템(100)의 차량 정지 및 주행시 품질을 검사할 수 있으며, HUD 시스템(100)의 하드웨어 및 소프트웨어 개발을 제안할 수도 있다. Accordingly, it is necessary to evaluate whether or not the virtual image generated in the
본 발명의 목적은, 정량적 검증 툴을 생성함으로써, 가상 이미지가 변형없이 선명하게 생성되는지를 평가할 수 있는 HUD 영상 평가시스템 및 그 평가방법을 제공하는 것이다. It is an object of the present invention to provide a HUD image evaluation system and an evaluation method thereof, which can evaluate whether a virtual image is clearly generated without deformation by generating a quantitative verification tool.
본 발명의 다른 목적은, 가상 이미지의 왜곡, 이중상, 회전을 해소할 수 있는 카메라의 위치를 제안함으로써, 선명한 이미지를 공급할 수 있게 되어 사용자의 만족을 도모할 수 있는 HUD 영상 평가시스템 및 그 평가방법을 제공하는 것이다. It is another object of the present invention to provide a HUD image evaluation system and a method of evaluating the HUD image that can provide a clear image by proposing a position of a camera capable of eliminating distortion, .
상기 목적은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 촬영하는 카메라; 상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부; 상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부; 상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 상기 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부; 및 상기 템플릿 저장부로부터 인출된 상기 기준 이미지의 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부;를 포함하는 것을 특징으로 하는 HUD 영상 평가시스템에 의해 달성될 수 있다.The object is achieved by a camera for photographing a virtual image formed from a HUD system mounted on a vehicle; A coordinate setting unit for setting a coordinate system for each object that is an individual element included in the virtual image; A template storage unit for storing information on each object included in a reference image that is a reference for determining whether the virtual image is deformed; A dual phase determiner for determining a double phase according to whether the edges of the objects are overlapped or not by scanning each of the objects and for measuring the degree of displacement using the coordinate system set by the coordinate setting unit when the double phase is detected; And a distortion determination unit for determining whether the virtual image is distorted or distorted by comparing an object of the reference image drawn from the template storage unit with an object of the virtual image, Lt; / RTI >
상기 목적은, 차량에 장착된 HUD 시스템으로부터 형성된 가상 이미지를 입력받는 단계; 상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정 단계; 상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 상기 가상 이미지의 이중상을 판단하는 이중상 판단 단계; 판단 결과, 상기 가상 이미지가 이중상인 경우 상기 좌표계를 이용하여 그 변위정도를 측정하는 변위 측정 단계; 및, 상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단 단계;를 포함하는 것을 특징으로 하는 HUD 영상 평가방법에 의해서도 달성될 수 있다. The above object may be achieved by a method comprising: receiving a virtual image formed from a HUD system mounted on a vehicle; A coordinate setting step of setting a coordinate system for each object that is an individual element included in the virtual image; A dual image determining step of scanning each of the objects and determining a double image of the virtual image according to whether the edges of the objects overlap each other; A displacement measuring step of measuring a degree of displacement of the virtual image using the coordinate system when the virtual image is a double phase; And a distortion judging step of judging whether the virtual image is distorted or distorted by comparing each object included in the reference image, which is a reference for judging whether or not the virtual image is deformed, with the object of the virtual image, The HUD image evaluation method according to the present invention can be also achieved by the HUD image evaluation method.
본 발명에 따르면, HUD 시스템으로부터 송출되는 이미지의 왜곡, 이중상, 회전 여부 및 그 변위량을 측정할 수 있는 툴을 제공함으로써, 왜곡과 이중상을 방지할 수 있는 카메라의 위치를 설정할 수 있다. 뿐만 아니라, 회전 여부에 대한 결과를 외부로 표시함에 따라, 운영자가 가상 이미지의 변형을 제거할 수 있는 다양한 방법을 모색할 기회를 줄 수 있다. 따라서, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있으므로, HUD 시스템의 품질을 향상시키고, 이로 인해, 사용자의 만족을 도모할 수 있다.According to the present invention, it is possible to set a position of a camera that can prevent distortion and a double image by providing a tool for measuring the distortion, the double phase, the rotation, and the displacement amount of an image transmitted from the HUD system. In addition, by displaying the results of the rotations externally, the operator can give an opportunity to explore various ways to eliminate the deformation of the virtual image. Therefore, a clear virtual image can be generated for the image transmitted from the HUD system, so that the quality of the HUD system can be improved and the user can be satisfied thereby.
도 1은 차량용 HUD 시스템의 개략적 구성도,
도 2는 본 발명에 따른 HUD 영상 평가시스템의 구성블럭도,
도 3(a) 및 도 3(b)는 ROI가 형성된 가상 이미지의 예시도,
도 4(a)는 왜곡 판단을 위한 기준 이미지의 객체의 예시도,
도 4(b)는 왜곡 판단을 위한 평가대상 이미지의 객체의 예시도,
도 4(c)는 도 4(a)의 객체와 도 4(b)의 객체가 오버랩 상태의 예시도,
도 5는 이중상 판단을 위한 평가대상 이미지의 예시도,
도 6은 본 발명의 HUD 영상 평가시스템에서 템플릿을 생성하는 과정을 보인 흐름도,
도 7은 본 발명의 HUD 영상 평가시스템에서 왜곡과 이중상을 판단하여 상거리를 산출하는 과정을 보인 흐름도이다. BRIEF DESCRIPTION OF DRAWINGS FIG. 1 is a schematic block diagram of a vehicular HUD system;
FIG. 2 is a block diagram of a system for evaluating an HUD image according to the present invention.
3 (a) and 3 (b) are diagrams showing an example of a virtual image in which an ROI is formed,
4 (a) is an illustration of an object of a reference image for distortion determination,
4 (b) is an illustration of an object of an evaluation target image for distortion determination,
Fig. 4 (c) is an example of an overlapping state between the object of Fig. 4 (a) and the object of Fig. 4 (b)
5 is an illustration of an evaluation target image for double-phase determination,
6 is a flowchart illustrating a process of generating a template in the HUD image evaluation system of the present invention.
FIG. 7 is a flowchart illustrating a process of calculating distances by determining distortions and dual images in the HUD image evaluation system of the present invention.
이하, 첨부된 도면들을 참조하여 본 발명의 실시예들에 따른 에 대하여 상세하게 설명한다.Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.
도 2는 본 발명에 따른 HUD 영상 평가시스템의 구성블럭도이다. 2 is a block diagram of a system for evaluating an HUD image according to the present invention.
본 발명에 따른 HUD 영상 평가시스템(1)은, HUD 시스템에서 송출되어 차량의 앞유리창에 반사된 후 생성되는 가상 이미지가 변형되었는지 여부를 판단할 수 있다. HUD 영상 평가시스템(1)은 카메라(10), ROI 설정부(15), 좌표 설정부(30), 바이너리 영상 처리부(20), 컬러 영상 처리부(25), 회전 판단부(35), 객체 검출부(40), 왜곡 판단부(55), 이중상 판단부(45), 좌표 변환부(50), 상거리 산출부(60), 템플릿 저장부(65)를 포함할 수 있다. The HUD
카메라(10)는, HUD 시스템에서 송출되어 형성된 가상 이미지를 촬영하며, 촬영된 이미지를 좌표 설정부(30)로 전달할 수 있다. 카메라(10)는 가상 이미지가 운전자의 눈에 보이는 대로 촬영하기 위해 운전자의 눈에 해당하는 위치에 설치되어야 한다. 예를 들어, 카메라(10)는 천장에 운전자의 머리를 향해 돌출한 상태로 설치되거나, 카메라(10)를 운전자 좌석의 헤드레스트로부터 전방으로 돌출되도록 설치될 수도 있다. The
ROI 설정부(15)는, 카메라(10)로부터 촬영된 가상 이미지 또는 HUD 시스템으로부터 직접 이미지를 제공받을 수 있으며, 이미지내에 포함된 복수의 객체에 대한 ROI(Region of Interest)를 형성할 수 있다.The
여기서, 객체는, HUD 시스템에서 송출한 영상에 포함된 형상, 문자, 숫자 등 HUD 영상을 구성하는 요소로서, HUD 영상의 변형을 판단하기 위해 사용될 수 있다. 객체로는, 차량속도계, 차량 주행속도, 네비게이션, 크루즈컨트롤, 차선이탈 경보장치, 도로정보, 후측방 경고 등을 포함할 수 있다. ROI는 각각의 객체를 둘러싸는 사각 테두리 형상으로 형성되며, HUD 영상의 변형을 판단하기 위해 필요한 좌표축 및 중심좌표를 형성하기 위한 기준이 된다.Here, an object is an element constituting a HUD image such as a shape, a character, and a number included in an image transmitted from the HUD system, and can be used to judge deformation of the HUD image. The object may include a vehicle speedometer, vehicle speed, navigation, cruise control, lane departure warning, road information, backward warning, and the like. The ROI is formed in a rectangular frame shape surrounding each object and is a reference for forming coordinate axes and center coordinates necessary for judging deformation of the HUD image.
ROI 설정부(15)에서는 두 가지 종류의 이미지에 대해 ROI를 설정할 수 있다.The
하나는 HUD 시스템의 가상 이미지의 변형을 측정할 수 있도록 비교대상이 되는 기준 정보로서, 변형되지 않은 기준 이미지에 대한 ROI를 설정할 수 있다. 기준 이미지에 포함된 각 객체에 대한 정보, ROI의 좌표축 및 중심좌표 등이 템플릿 정보로서 템플릿 저장부(65)에 저장된다. 이때, 템플릿을 형성하기 위해서는 변형되지 않은 가상 이미지가 필요하며, 이 가상 이미지는 HUD 시스템으로부터 송출된 이미지 중 변형되지 않은 가상 이미지를 카메라(10)로 촬영하여 사용할 수도 있고, HUD 시스템으로부터 직접 이미지를 제공받아 사용할 수도 있다.One is the reference information to be compared so that the deformation of the virtual image of the HUD system can be measured, and the ROI for the unmodified reference image can be set. Information about each object included in the reference image, the coordinate axis of the ROI, and the center coordinate are stored in the
다른 하나는 HUD 시스템에서 송출되어 차량의 앞유리창에 형성된 가상 이미지를 촬영한 영상으로서, 변형이 있는지 없는지 여부를 평가하는 대상이 되며, 이하에서는 평가대상 이미지라고 칭한다. The other is an image taken from a HUD system and photographed with a virtual image formed on a windshield of a vehicle, and is evaluated as to whether or not there is deformation. Hereinafter, it is referred to as an evaluation target image.
ROI 설정부(15)는, 기준 이미지와, 평가대상 이미지 각각에 대한 ROI를 형성하며, 기준 이미지의 각 ROI와 평가대상 이미지의 각 ROI는 일대일로 매칭되어 비교됨으로써, 평가대상 이미지의 변형여부를 판단할 수 있다. 즉, 각 ROI는 가상 이미지의 변형여부를 판단하기 위해, 비교되는 영역들이다. The
도 3(a)에는 기준 이미지가 도시되어 있고, 도 3(b)에는 평가대상 이미지가 도시되어 있으며, 도 3(a)와 도 3(b)를 이용하여 ROI 설정부(15)의 동작을 설명하면 다음과 같다. FIG. 3A shows a reference image, FIG. 3B shows an image to be evaluated, and FIG. 3A and FIG. 3B show an operation of the
ROI 설정부(15)에서는 기준 이미지와 평가대상 이미지의 ROI를 형성하기 위해, 먼저, 각 객체의 형태와 문자 등을 정의할 수 있다. 예를 들어, 도 3(a)에서와 같이, 객체가 원형과 타원형을 연결시킨 형태로 형성된 경우, ROI 설정부(15)는 객체가 원형을 포함한 도형이라는 내용과, 객체의 색상 정보 등을 이용하여 객체를 정의할 수도 있고, 객체의 이미지를 파일로 저장하여 객체를 정의할 수도 있다. 다른 예로서, 객체가 차량속도와 같은 숫자일 때, 좌표 설정부(30)는 객체가 숫자라고 정의할 수 있으며, 이 외에 폰트크기, 폰트타입, 색상 정보 등의 정보를 포함시켜 객체를 정의할 수 있다. 색상 정보는, 빨강, 녹색, 파랑, 색조(Hue), 채도(Saturation), 선명도(Intensity), 색상 값(Value), 광도(Luminance) 등을 포함할 수 있다. 여기서, 컬러 영상에서 빨강, 녹색, 파랑 등의 여러 색상에 대한 정보를 추출하는 이유는, 평가대상 이미지의 각 객체는 서로 상이한 색상을 가질 수 있으므로, 여러 색상에 대한 정보를 추출함으로써, 각 객체를 모두 감지할 수 있도록 하기 위한 것이다. 또한, 각 객체는 다른 색상을 가질 수 있을 뿐만 아니라 다른 채도, 명도, 색조, 광도 등을 가질 수 있으며, 이러한 모든 색상 정보는 추후에 각 ROI를 판단하는데 사용될 수 있다. 기준 이미지의 각 객체를 정의한 내용은 템플릿 저장부(65)에 저장될 수 있다. In order to form the ROI of the reference image and the evaluation target image, the
이렇게 객체가 정의되면, ROI 설정부(15)에서는 각 객체에 대해 ROI를 형성할 수 있다. ROI를 형성하기 위해, ROI 설정부(15)는 모서리 감지 알고리즘(Edge Detection Algorithm)을 사용하여 객체를 감지하게 된다. 모서리 감지 알고리즘으로는 Laplacian알고리즘, Differentiation 알고리즘, Prewitt 알고리즘, Sobel 알고리즘 등이 있으며, 이 중 어느 알고리즘을 사용하더라도 무방하다. 모서리 감지 알고리즘은 현재 널리 사용되고 있으며, 당업자라면 별도의 자세한 설명 없이도 구현이 가능하므로, 본 상세한 설명에서는 모서리 감지 알고리즘에 대한 구체적인 설명은 생략하기로 한다. When the object is defined as described above, the
모서리 감지 알고리즘에 의해 각 객체의 모서리가 감지되면, ROI 설정부(15)에서는 각 객체의 모서리를 기준으로 객체의 외곽을 둘러싸는 사각 테두리인 ROI를 형성할 수 있다. When the edge of each object is detected by the edge detection algorithm, the
ROI 설정부(15)에서 ROI가 설정되면, ROI 설정부(15)는 ROI를 포함하는 기준 이미지는 좌표 설정부(30)로 전달하고, 평가대상 이미지는 바이너리 영상 처리부(20)와 컬러 영상 처리부(25)로 전달할 수 있다. When the ROI is set in the
바이너리 영상 처리부(20)에서는 평가대상 이미지를 바이너리 영상으로 변환시키기 위해, 먼저, 평가대상 이미지에서 ROI 영역을 선택하고, 각 ROI 영역을 그레이스케일(Gray scale) 이미지로 변환시킨다. 그런 다음, 바이너리 영상 처리부(20)에서는 그레이스케일 이미지의 ROI 영역을 바이너리 이미지로 변환시킨다. 바이너리 영상 처리부(20)에서는, 바이너리 이미지로 변환된 평가대상 이미지를 좌표 설정부(30)로 전달할 수 있다. In order to convert an evaluation target image into a binary image, the binary
컬러 영상 처리부(25)에서는, 컬러인 평가대상 이미지의 각 객체에 대해 색상 정보를 추출할 수 있다. 컬러 영상 처리부(25)에서 추출하는 정보로는, 빨강, 녹색, 파랑, 색조, 채도, 명도, 색상 값, 광도 등을 포함할 수 있다. 각 객체에 대한 색상 정보가 추출되면, 컬러 영상 처리부(25)는 평가대상 이미지를 좌표 설정부(30)로 전달할 수 있다. In the color
좌표 설정부(30)는, 기준 이미지와 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정할 수 있다. 좌표 설정부(30)에서 기준 이미지의 객체에 대해 좌표축과 중심좌표를 설정하는 과정과, 평가대상 이미지의 객체에 대해 좌표축과 중심좌표를 설정하는 과정은 동일하므로, 두 과정을 한꺼번에 설명하기로 한다. 다만, 좌표 설정부(30)에서는, 기준 이미지인지 평가대상 이미지 인지에 따라, 각 객체에 대해 설정된 좌표축과 중심좌표에 대한 정보를 다르게 처리한다. The coordinate setting
먼저, 좌표 설정부(30)에서 기준 이미지와 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정하는 과정은 다음과 같다. First, a process of setting coordinate axes and center coordinates for each object of the reference image and the evaluation target image in the coordinate setting
좌표 설정부(30)에서는 기준 이미지와 평가대상 이미지를 제공받으면, 각 ROI의 세로변과 가로변을 이용하여 좌표계를 형성할 수 있다. 즉, 좌표 설정부(30)는 각 ROI의 세로변과 가로변에 평행한 세로축과 가로축을 갖는 좌표계를 형성할 수 있다. 좌표계를 설정하는 방법은 다양하게 선택될 수 있으며, 그 중 대표 객체를 이용하는 방법과, 기준 이미지 또는 평가대상 이미지 전체에 대한 좌표계를 이용하는 방법을 살펴보면 다음과 같다. When the reference image and the evaluation target image are provided, the coordinate setting
대표 객체를 사용하는 방법은, 객체 중 하나를 선택하여 대표 객체로 설정하고, 대표 객체에 대해 좌표계를 설정한 후, 다른 객체들의 좌표계는 대표 객체의 좌표계에 대한 상대적인 위치를 이용하여 설정하는 것이다. 기준 이미지 또는 평가대상 이미지 전체에 대한 대표 좌표계를 이용하는 방법은, 전체 이미지에 대한 좌표계를 먼저 설정하고, 해당 좌표계를 대표 좌표계로 하고, 각 객체들은 대표 좌표계에 대해 상대적인 위치를 이용하여 좌표계를 설정하는 것이다. In the method of using the representative object, one of the objects is selected as the representative object, the coordinate system is set for the representative object, and the coordinate system of the other objects is set by using the position relative to the coordinate system of the representative object. In the method of using the representative coordinate system for the reference image or the whole image to be evaluated, a coordinate system for the entire image is set first, a coordinate system is set as a representative coordinate system, and each object is set to a coordinate system using a position relative to the representative coordinate system will be.
어떠한 방법으로 각 객체들의 좌표계를 설정하든, 각 좌표계의 중심을 중심좌표로 설정할 수 있다. 이에 따라, 각 객체는 중심좌표를 갖는 고유의 좌표계를 가질 수 있다.Whichever way you set the coordinate system of each object, you can set the center of each coordinate system as the center coordinate. Thus, each object may have its own coordinate system with center coordinates.
좌표 설정부(30)에서는 기준 이미지에 대한 각 객체의 좌표계 및 중심좌표가 형성되면, 해당 정보를 템플릿 저장부(65)로 전달하여 각 객체의 정의와 함께 저장되도록 한다. 템플릿 저장부(65)에 저장된 각 객체의 좌표계 및 중심좌표는 기준 좌표계와 기준 중심좌표로서, 평가대상 이미지의 각 객체의 좌표계 및 중심좌표와 비교됨으로써, 평가대상 이미지의 변형 여부를 평가할 수 있도록 한다. When the coordinate system and the center coordinates of each object for the reference image are formed, the coordinate setting
반면, 좌표 설정부(30)에서는 평가대상 이미지에 대한 각 객체의 좌표계 및 중심좌표가 형성되면, 각 객체의 좌표계 및 중심좌표에 대한 정보를 회전 판단부(35) 또는 객체 검출부(40)로 전달하게 된다. 평가대상 이미지는 컬러 이미지와 바이너리 이미지를 포함하며, 좌표 설정부(30)는, 바이너리 영상 처리부(20)로부터의 바이너리 이미지에 대한 각 객체의 좌표계 및 중심좌표는 바이너리 이미지와 함께 회전 판단부(35)로 전달하고, 컬러 영상 처리부(25)로부터의 컬러 이미지에 대한 각 객체의 좌표계 및 중심좌표는 컬러 이미지와 함께 객체 검출부(40)로 전달한다. On the other hand, when the coordinate system and the center coordinates of each object are formed with respect to the evaluation target image, the coordinate setting
템플릿 저장부(65)에는 ROI 설정부(15)에서 설정된 기준 이미지의 각 객체에 대한 이미지 및 각 객체의 정의와, 좌표 설정부(30)에서 설정된 각 객체의 좌표계 및 중심좌표에 대한 정보가 템플릿 정보로서 저장된다. In the
회전 판단부(35)에서는 좌표 설정부(30)로부터 평가대상 이미지인 바이너리 이미지의 각 객체의 좌표계 및 중심좌표를 제공받는다. 회전 판단부(35)는 제공받은 각 객체의 좌표계 및 중심좌표를 이용하여 각 객체의 회전여부를 판단할 수 있다. 이를 위해, 회전 판단부(35)는 템플릿 저장부(65)로부터 기본 이미지에 대한 각 객체의 좌표계 및/또는 중심좌표를 인출하고, 기본 이미지의 각 객체의 좌표계 및/또는 중심좌표와 바이너리 이미지의 각 객체의 좌표계 및 중심좌표를 비교한다. 이때, 회전 판단부(35)는 기본 이미지와 바이너리 이미지의 각 객체에 대해 세로축과 가로축을 비교할 수도 있고, 기본 이미지와 바이너리 이미지의 각 객체에 대해 중심좌표를 비교할 수도 있다. 세로축과 가로축을 비교하든, 중심좌표를 비교하든, 회전 판단부(35)는 바이너리 이미지의 회전각도를 구할 수 있다. The
예를 들어, 도 3(a)에 도시된 기본 이미지의 객체의 경우에는 회전되어 있지 않지만, 도 3(b)에 도시된 평가대상 이미지의 객체는 일측으로 회전되어 있다. 회전 판단부(35)는 기본 이미지와 바이너리 이미지의 각 객체에 대해 좌표계 또는 중심좌표를 비교함으로써, 용이하게 바이너리 이미지의 회전여부를 판단할 수 있다. For example, in the case of the object of the basic image shown in Fig. 3A, the object of the evaluation object image shown in Fig. 3B is not rotated but the object of the evaluation object is rotated to one side. The
한편, 도 3(a)와 도 3(b)를 비교해보면, 평가대상 이미지의 객체가 회전만 한 것이 아니라, 기본 이미지의 객체에 대해 평가대상 이미지가 일측으로 이동하였음을 알 수 있다. 이는 평가대상 이미지가 해당 객체를 중심으로 회전한 것이 아니라, 다른 회전축을 중심으로 회전하였기 때문이다. 이 경우, 회전 판단부(35)는 평가대상 이미지의 객체에 매칭되는 기본 이미지의 객체를 찾아내야 한다. 이를 위해, 회전 판단부(35)는, 템플릿 저장부(65)로부터 평가대상 이미지의 객체 정의와 동일하거나 매우 유사한 객체 정의를 갖는 기본 이미지의 객체를 검색하여 인출한다. 그런 다음, 회전 판단부(35)는 인출된 기본 이미지의 객체의 좌표계 또는 중심좌표와, 평가대상 이미지의 객체의 좌표계 또는 중심좌표를 비교함으로써, 평가대상 이미지의 회전각도를 구할 수 있다. 회전 판단부(35)에서 구해진 평가대상 이미지의 각 객체에 대한 회전각도는 상거리 산출부(60)로 제공된다. 3 (a) and FIG. 3 (b), it can be seen that the object to be evaluated has moved to one side with respect to the object of the basic image, not just with the object of the evaluation object rotated. This is because the image to be evaluated is not rotated about the object but rotated around another axis of rotation. In this case, the
객체 검출부(40)는, 좌표 설정부(30)로부터 컬러인 평가대상 이미지를 제공받으며, 객체 감지 알고리즘(Object Detection Algorithm)을 이용하여 각 ROI의 객체를 검출하고, 검출된 결과를 각각 이중상 판단부(45)와 왜곡 판단부(55)로 제공한다. The
객체 감지 알고리즘의 처리과정을 보면, 먼저, 이미지 윤곽처리 알고리즘(Image Smoothing Algorithm)을 이용하여 이미지의 노이즈를 제거함으로써, 영상 처리가 용이하도록 한다. 이미지 윤곽처리 알고리즘으로는 저역 필터(Low pass), Local Average, 가우시안(Gaussian), 미디안(Median) 등을 사용할 수 있다. 그런 다음, 위에서도 언급한 바 있는 모서리 감지 알고리즘을 이용하여 각 객체의 모서리를 감지하여 객체를 파악할 수 있다. In the process of the object detection algorithm, image processing is facilitated by first removing an image noise using an image contour processing algorithm (Image Smoothing Algorithm). As an image contour processing algorithm, a low pass filter, a local average filter, a Gaussian filter, a Median filter, or the like can be used. Then, by using the edge detection algorithm mentioned above, it is possible to grasp the object by detecting the edge of each object.
한편, 객체 검출부(40)에서는 컬러 분할 알고리즘(Color Segmentation Algorithm)을 사용할 수도 있다. 컬러 분할 알고리즘은 평가대상 이미지에서 특정 색상만을 검출하는 알고리즘으로서, 객체 검출부(40)는 컬러 분할 알고리즘을 이용하여 평가대상 이미지의 각 객체에 대해 각 색상 정보에 대한 임계치를 설정하고, 각 객체의 색상을 검출한다. 이때, 여러 색상을 검출하는 이유는, 다양한 색상을 가지는 각 객체들의 검출확률을 높이기 위한 것이다. 객체 검출부(40)는, 컬러 영상 처리부(25)에서 검출된 각 객체의 색상 정보와, 템플릿 저장부(65)에 저장된 기본 이미지의 각 객체의 색상 정보를 비교하여, 동일한 색상과 동일하거나 유사한 정도의 조도, 채도, 명도 등을 갖는 객체를 검출할 수 있다. Meanwhile, the
이렇게 각 객체가 파악되면, 왜곡 판단부(55)는 객체 검출부(40)에서 검출된 해당 객체를 기본 이미지의 객체와 비교함으로써, 평가대상 이미지의 왜곡을 판단할 수 있다. When each object is identified, the
왜곡 판단부(55)는 모서리 기반 기하학적 패턴 매칭(Geometric Pattern Matching) 알고리즘을 이용하여 기본 이미지의 객체 이미지와, 평가대상 이미지의 객체 이미지를 비교하여 평가대상 이미지의 왜곡 및 왜곡량을 파악할 수 있다.The
도 4(a)에는 템플릿 저장부(65)에 저장된 기본 이미지의 객체가 도시되어 있고, 도 4(b)에는 평가대상 이미지의 객체가 도시되어 있다. 왜곡 판단부(55)에서는 도 4(b)의 평가대상 이미지의 객체를 기본 이미지의 객체와 비교하거나 오버랩시킨다. FIG. 4A shows an object of the basic image stored in the
이때, 평가대상 이미지의 객체가 왜곡된 경우, 도 4(c)에 도시된 바와 같이, 기본 이미지의 객체와 평가대상 이미지의 객체가 일치하지 아니한다. 도 4(c)에서 회색 부분은 기본 이미지의 객체와 평가대상 이미지의 객체가 일치하는 부분이고, 초록색 부분은 기본 이미지의 객체만 남은 부분이고, 빨간색 부분은 평가대상 이미지의 객체만 남은 부분이다. 도 4(c)의 도면을 보면 평가대상 이미지의 객체가 왜곡되었음을 알 수 있다. 즉, 평가대상 이미지가 왜곡되었음을 알 수 있다. 왜곡 판단부(55)는 초록색 부분과 빨간색 부분의 면적 또는 폭 등을 이용하여 왜곡량을 산출할 수 있다. At this time, when the object of the evaluation target image is distorted, the object of the basic image and the object of the evaluation target image do not match as shown in Fig. 4 (c). In Figure 4 (c), the gray part is the part where the object of the base image matches the object of the evaluation object, the green part is the remaining part of the basic image, and the red part is the remaining part of the object to be evaluated. 4 (c), it can be seen that the object of the evaluation target image is distorted. That is, it can be seen that the evaluation target image is distorted. The
이중상 판단부(45)는, 객체 검출부(40)에서 검출된 각 객체의 가로 모서리 및 세로 모서리, 원형 모서리 및 동심원 모서리를 이용하여 이중상 여부를 판단하고 변위정도를 산출할 수 있다. The double
먼저, 도 5의 상부에 도시된 객체와 같이, 각 객체가 삼각형, 사각형 등의 다각형인 경우, 이중상 판단부(45)는 각 객체의 가로 모서리와 세로 모서리에 각각 선을 그어 가로선(502)과 세로선(501)을 형성한다. 그런 다음, 이중상 판단부(45)는, 객체의 중심으로부터 가로선(502)을 기준으로 수직방향으로 스캔하여 모서리가 검출되면 해당 위치의 좌표를 기록하게 된다. 이때, 이중상이 형성된 경우, 두 번의 모서리가 검출되며, 이중상 판단부(45)는 두번째 검출되는 모서리의 좌표도 기록하게 된다. 이와 같이, 모서리가 두 번 검출됨에 따라, 이중상 판단부(45)는, 수직방향으로 이중상이 형성되었다고 판단하며, 좌표의 차이값을 이용하여 수직방향으로 이중상이 발생한 정도를 측정할 수 있다. 5, when each object is a polygon such as a triangle, a rectangle, etc., the double-
마찬가지로, 이중상 판단부(45)는, 객체의 중심으로부터 세로선(501)을 기준으로 수평방향으로 스캔하여 모서리가 검출되면 해당 위치의 좌표를 기록하게 된다. 모서리가 두 번 검출되면, 이중상 판단부(45)는 수평방향으로 이중상이 형성되었다고 판단할 수 있다. 또한, 이중상 판단부(45)는, 두 세로 모서리의 좌표값의 차이를 이용하여 수평방향으로 이중상이 발생한 정도를 측정할 수 있다. Likewise, the double-
이중상 판단부(45)는, 가로방향과 세로방향으로 모두 스캔하므로, 이중상이 한 방향으로만 형성되었는지 가로방향과 세로방향 모두에 형성되었는지 판단할 수 있다. Since the dual
또한, 이중상 판단부(45)는, 도 5의 좌측 하부에 도시된 객체와 같이, 원형이나 동심원 형태의 객체에 대해서는 원형 모서리 및/또는 동심원 모서리(503)를 감지하고, 원형의 중심과 동심원의 중심에 대해 외부로 진행하는 방향을 따라 스캔하여 원형 또는 동심원 모서리(503)를 감지하도록 하고 감지되는 모서리의 좌표를 기록한다. 이때, 원형의 경우에는 두 개 이상의 원형 모서리가 감지되는 경우, 동심원의 경우에는 동심원의 개수보다 많은 수의 원형 모서리가 감지되는 경우, 이중상 판단부(45)는 이중상이 형성되었다고 판단할 수 있다. 한편, 원형이나 동심원의 경우, 원주방향을 따라 일정 간격을 두고 복수의 위치의 좌표를 기록한다. 이는 원형이나 동심원의 경우, 이중상에 의해 형성된 원형 모서리와, 객체의 본래 원형 모서리와의 거리가 원주방향을 따라 상이하기 때문이다. 5, the double
이중상 판단부(45)는, 객체의 본래 원형 모서리와 이중상의 원형 모서리와의 좌표를 이용하여 그 거리를 구하고, 이를 이용하여 이중상의 변위가 수직방향 또는 수평방향으로 형성되었는지, 수직방향과 수평방향 양측으로 형성되었는지를 판단할 수 있다. The double
한편, 이중상 판단부(45)에서 모서리의 스캔에 의해 기록된 좌표는 픽셀 좌표이며, 좌표 변환부(50)는 이중상 판단부(45)로부터 픽셀 좌표를 제공받아 일반 좌표계로 변환하고, 변환된 일반 좌표계를 다시 이중상 판단부(45)로 제공함으로써, 이중상 판단부(45)에서 좌표값 간의 차이를 산출할 수 있도록 한다. On the other hand, the coordinates recorded by the scan of the corners in the double-
상거리 산출부(60)는, 평가대상 이미지의 왜곡 정도와 이중상의 변위 정도를 이용하여 카메라(10)의 위치를 결정하고, 카메라(10)의 위치에 따른 가상 이미지의 위치를 추정할 수 있다. The
상거리 산출부(60)는 카메라(10)에서 가상 이미지까지의 거리를 임의의 거리인 d로 정의하고, 앞유리창에서 카메라(10)까지의 거리는 s라고 정의한다. 그리고, 상거리 산출부(60)는 기준 이미지의 카메라(10)의 위치는 d+x라고 정의한다. 이렇게 정의된 상태에서 이미지의 왜곡정도를 w라 하고, 이중상의 변위차를 t라고 하면, 상거리 산출부(60)는 카메라(10)의 위치 변위량(x)과 이미지의 왜곡량( w)이 비례하고, 카메라(10)의 위치 변위량(x)와 이중상의 변위량(t)이 각각 비례한다는 전제하에 카메라(10)의 위치 변위량(x)를 산출할 수 있다. 즉, 상거리 산출부(60)는 카메라(10)와 앞유리창 사이의 거리(d+x)를 확정할 수 있으며, 이에 따라, 카메라(10)와 가상 이미지까지의 거리도 추정할 수 있다. The
이러한 구성에 의한 HUD 영상 평가 시스템에서 평가대상 이미지를 평가하기 위한 기준인 기준 이미지에서 템플릿을 형성하는 과정을 도 6을 참조하여 설명하면 다음과 같다. A process of forming a template from a reference image, which is a criterion for evaluating an evaluation target image in the HUD image evaluation system according to such a configuration, will be described with reference to FIG.
카메라(10) 또는 HUD 시스템으로부터 왜곡이나 이중상 등의 변형이 없는 기준 이미지가 입력되면(S600), ROI 설정부(15)에서는 각 객체의 형태와 문자 등을 이용하여 객체를 정의하고(S610), 모서리 감지 알고리즘을 이용하여 기준 이미지 내의 각 객체를 감지한다. 그리고 각 객체의 모서리를 감지하면, 각 객체의 외곽을 둘러싸는 ROI를 생성한다(S620). 그러면 좌표 설정부(30)에서는 각 객체의 ROI에 대해 좌표축을 형성함으로써, 각 객체에 대한 XY좌표계와 중심좌표를 형성할 수 있다(S630). 이때, 기본 이미지의 전체 화면에 대한 수직축과 수평축을 기준으로 객체의 좌표계가 기울어져 있다면 좌표 설정부(30)에서는 객체의 회전각도를 이용하여 각좌표계(Angle Coordinate)를 형성할 수 있다. If a reference image having no distortion such as distortion or dual phase is input from the
이러한 과정에 의해 설정된 각 객체의 정의, 각 객체에 대한 ROI 및 그 좌표계에 대한 정보는 템플릿 저장부(65)에 저장된다(S640). The definition of each object set by this process, the ROI for each object, and information about the coordinate system are stored in the template storage unit 65 (S640).
이렇게 HUD 영상 평가를 위한 템플릿이 마련되면, HUD 영상 평가시스템(1)에서는 도 7에 도시된 바와 같이, 평가대상 이미지를 평가하여 이미지의 왜곡과 이중상을 방지할 수 있는 카메라(10)의 위치를 확정하게 된다. 이 과정을 상세히 설명하면 다음과 같다. When the template for HUD image evaluation is prepared, the HUD
먼저, 평가대상 이미지가 카메라(10)를 통해 입력되면(S700), ROI 설정부(15)에서는 모서리 감지 알고리즘을 이용하여 평가대상 이미지내의 각 객체들을 검출해내고(S705), 각 객체의 외곽영역을 둘러싸는 ROI를 형성한다(S710). First, when the evaluation target image is input through the camera 10 (S700), the
ROI가 형성된 평가대상 이미지는 각각 바이너리 영상 처리부(20), 컬러 영상 처리부(25), 좌표 설정부(30)로 전달된다. The evaluation object image having the ROI is transmitted to the binary
바이너리 영상 처리부(20)에서는 전달된 평가대상 이미지의 각 ROI 영역을 그레이스케일 이미지로 변환시키고(S715), 그레이스케일 이미지를 다시 바이너리 이미지로 변환시킨다(S720). 그런 다음, 바이너리 영상 처리부(20)에서는 바이너리 이미지를 좌표 설정부(30)로 제공한다. 좌표 설정부(30)에서는 바이너리 이미지의 각 ROI에 대해 세로 및 가로 좌표축을 설정함으로써, 좌표계 및 중심좌표를 형성한다(S725). 이때, 좌표 설정부(30)에서 설정되는 좌표계는 픽셀 좌표계이다. In step S715, the binary
좌표 설정부(30)는 바이너리 이미지의 각 객체에 대한 좌표계와 중심좌표 등의 정보를 회전 판단부(35)로 제공한다. 회전 판단부(35)는 템플릿 저장부(65)로부터 기본 이미지에 대한 각 객체의 좌표계 및/또는 중심좌표를 인출하고, 기본 이미지의 각 객체의 좌표계 및/또는 중심좌표와, 바이너리 이미지의 각 객체의 좌표계 및/또는 중심좌표를 비교하여 회전각도를 산출한다(S730). 회전 판단부(35)에서 측정된 각 객체의 회전각도는 평가대상 이미지의 회전각도가 되며, 이 정보는 외부로 표시되어 본 HUD 영상 평가시스템(1)의 운영자가 인지할 수 있도록 한다. The coordinate setting
컬러 영상 처리부(25)에서는 평가대상 이미지의 각 ROI에 대해 색상 정보를 획득한다(S735). 색상 정보는, 빨강, 녹색, 파랑, 색조, 채도, 명도, 색상 값, 광도 등을 포함할 수 있으며, 컬러 영상 처리부(25)는 각 ROI에 대한 색상 정보를 왜곡 판단부(55)와 이중상 판단부(45)로 전달한다. The color
좌표 설정부(30)는, 컬러인 평가대상 이미지의 각 객체에 대해 좌표축과 중심좌표를 설정하며(S740), 각 객체에 대한 좌표축과 중심좌표에 대한 정보를 객체 검출부(40)로 전달한다. The coordinate setting
객체 검출부(40)에서는 객체 감지 알고리즘을 이용하여 평가대상 이미지의 각 ROI에 대한 객체를 검출하고, 해당 객체에 대한 정보를 템플릿 저장부(65)로부터 인출한다(S745). 그러면, 왜곡 판단부(55)는 기하학적 패턴 매칭 알고리즘을 이용하여 기본 이미지의 객체와 평가대상 이미지의 객체를 비교 또는 오버레이시켜 평가대상 이미지가 왜곡되었는지 여부를 판단할 수 있을 뿐만 아니라, 평가대상 이미지의 왜곡량을 파악할 수 있다(S750). 왜곡량은 상거리 산출부(60)로 제공된다. The
이중상 판단부(45)는, 평가대상 이미지의 각 ROI내의 객체를 가로방향, 세로방향 및/또는 동심원 방향을 따라 스캔함으로써, 이중상 여부와 변위 정도를 판단할 수 있다(S755). 예를 들어, 객체가 다각형인 경우, 이중상 판단부(45)는 ROI의 중심으로부터 세로축을 기준으로 수평방향으로 스캔하고, ROI의 중심으로부터 가로축을 기준으로 수직방향으로 스캔하여 각각 모서리가 검출되면 해당 위치의 좌표를 기록한다. 모서리가 두 번 이상 검출되면, 이중상 판단부(45)는 이중상이 발생하였다고 판단한다. 이중상 판단부(45)에서는 각 모서리의 좌표를 좌표 변환부(50)로 전달하고, 좌표 변환부(50)에서는 픽셀 좌표를 일반 좌표로 변환하여 이중상 판단부(45)로 다시 제공한다. 이중상 판단부(45)에서는 일반 좌표계의 좌표값 차이를 계산하여 이중상의 변위정도를 측정할 수 있다. 이중상 판단부(45)에서 측정된 이중상 변위값은 상거리 산출부(60)로 제공된다. The double-
상거리 산출부(60)에서는 왜곡량과 이중상 변위값은 카메라(10)와 앞유리창 간의 거리의 변화량과 비례한다고 판단하며, 이를 이용하여 카메라(10)와 앞유리창 간의 실제거리를 산출한다(S760). 이에 따라, 카메라(10)의 설치 위치를 확정할 수 있다. The actual distance between the
이와 같이, 본 발명에서는 HUD 시스템으로부터 송출되는 영상의 왜곡, 이중상, 회전 여부 및 그 변위량을 측정할 수 있으므로, 왜곡과 이중상을 방지할 수 있는 카메라(10)의 위치를 설정할 수 있다. 그리고 회전 여부에 대한 결과는 외부로 표시함으로써, 왜곡과 이중상 뿐만 아니라, 회전을 방지하기 위한 대책을 운영자가 모색할 수 있는 기회를 제공할 수 있다. 따라서, HUD 시스템으로부터 송출된 이미지에 대해 선명한 가상 이미지를 생성할 수 있으므로, HUD 시스템의 품질을 향상시킬 수 있을 뿐만 아니라, 이로 인해, 사용자의 만족을 도모할 수 있다.As described above, since the distortion, the double phase, the rotation, and the displacement amount of the image transmitted from the HUD system can be measured, it is possible to set the position of the
이상에서 본 발명의 바람직한 실시예에 대하여 상세하게 설명하였지만 본 발명의 권리범위는 이에 한정되는 것은 아니고 다음의 청구범위에서 정의하고 있는 본 발명의 기본 개념을 이용한 당업자의 여러 변형 및 개량 형태 또한 본 발명의 권리범위에 속하는 것이다. While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments, Of the right.
1 : HUD 영상 평가시스템 10 : 카메라
15 : ROI 설정부 20 : 바이너리 영상 처리부
25 : 컬러 영상 처리부 30 : 좌표 설정부
35 : 회전 판단부 40 : 객체 검출부
45 : 이중상 판단부 50 : 왜곡 판단부
60 : 상거리 산출부 65 : 템플릿 저장부 1: HUD image evaluation system 10: camera
15: ROI setting unit 20: Binary image processing unit
25: Color image processing unit 30: Coordinate setting unit
35: rotation determination unit 40: object detection unit
45: double phase judging unit 50: distortion judging unit
60: Normal distance calculating unit 65: Template storing unit
Claims (24)
상기 가상 이미지 내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정부;
상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체에 대한 정보가 저장된 템플릿 저장부;
상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 이중상을 판단하고, 이중상인 경우 상기 좌표 설정부에서 설정된 좌표계를 이용하여 그 변위정도를 측정하는 이중상 판단부; 및
상기 템플릿 저장부로부터 인출된 상기 기준 이미지의 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단부;를 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. A camera for photographing a virtual image formed from a HUD system mounted on a vehicle;
A coordinate setting unit for setting a coordinate system for each object that is an individual element included in the virtual image;
A template storage unit for storing information on each object included in a reference image that is a reference for determining whether the virtual image is deformed;
A dual phase determiner for determining a double phase according to whether the edges of the objects are overlapped or not by scanning each of the objects and for measuring the degree of displacement using the coordinate system set by the coordinate setting unit when the double phase is detected; And
And a distortion determination unit for determining whether the virtual image is distorted or distorted by comparing an object of the reference image drawn from the template storage unit with an object of the virtual image.
상기 기준 이미지와 가상 이미지를 입력받아 모서리 감지 알고리즘을 이용하여 상기 각 객체를 감지하고, 상기 각 객체의 외곽을 둘러싸는 사각 테두리인 ROI(Region of Interest)를 설정하는 ROI 설정부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. The method according to claim 1,
And an ROI setting unit that receives the reference image and the virtual image, detects each of the objects using a corner detection algorithm, and sets a ROI (Region of Interest), which is a rectangular frame surrounding the outline of each object HUD image evaluation system.
상기 ROI 설정부는, 상기 각 객체의 종류, 형상, 색상 중 적어도 하나를 포함하는 정보를 이용하여 상기 각 객체를 정의하는 것을 특징으로 하는 HUD 영상 평가시스템. 3. The method of claim 2,
Wherein the ROI setting unit defines each object using information including at least one of a type, a shape and a color of each object.
상기 ROI가 설정된 가상 이미지를 제공받아 그레이스케일 이미지로 변환하고, 상기 그레이스케일 이미지를 바이너리 이미지로 변환하는 바이너리 영상 처리부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. 3. The method of claim 2,
Further comprising a binary image processing unit for converting the gray image into a binary image by receiving the virtual image in which the ROI is set and converting the gray image into a gray image.
상기 ROI가 설정된 가상 이미지를 제공받아 색상과 함께 색조, 조도, 명도, 채도, 광도 중 적어도 하나를 포함하는 색상 정보를 추출하는 컬러 영상 처리부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. 3. The method of claim 2,
Further comprising a color image processing unit for receiving the virtual image in which the ROI is set and extracting color information including at least one of a hue, illuminance, brightness, saturation, and brightness along with the color.
상기 좌표 설정부는, 상기 바이너리 영상 처리부로부터 제공받은 상기 바이너리 이미지에 포함된 각 객체에 대해 좌표계를 설정하는 것을 특징으로 하는 HUD 영상 평가시스템. 5. The method of claim 4,
Wherein the coordinate setting unit sets a coordinate system for each object included in the binary image provided from the binary image processing unit.
상기 각 바이너리 이미지의 각 객체의 좌표계와 상기 템플릿 저장부에 저장된 해당 객체의 좌표계를 비교하여 상기 각 객체의 회전여부 및 회전각도를 판단하는 회전 판단부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. The method according to claim 6,
Further comprising a rotation determination unit for determining a rotation state and a rotation angle of each object by comparing a coordinate system of each object of each of the binary images with a coordinate system of a corresponding object stored in the template storage unit.
상기 ROI가 설정된 가상 이미지에 객체 감지 알고리즘을 적용하여 상기 각 ROI내의 객체를 감지하는 객체 검출부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. 3. The method of claim 2,
Further comprising an object detection unit for detecting an object in each ROI by applying an object detection algorithm to the virtual image in which the ROI is set.
상기 왜곡 판단부는, 상기 객체 검출부에서 검출된 객체에 대응되는 상기 기본 이미지의 객체와, 상기 가상 이미지의 객체를 모서리 기반 기하학적 패턴 매칭(Geometric Pattern Matching) 알고리즘으로 비교하여 상기 가상 이미지의 왜곡 및 왜곡량을 파악하는 것을 특징으로 하는 HUD 영상 평가 시스템.9. The method of claim 8,
Wherein the distortion judging unit compares an object of the basic image corresponding to the object detected by the object detecting unit with an object of the virtual image using an edge based geometric pattern matching algorithm to calculate a distortion and a distortion amount And the HUD image evaluation system.
상기 이중상 판단부는, 상기 각 객체의 세로 모서리, 가로 모서리, 원형 모서리, 동심원 모서리에 직교하는 방향을 따라 상기 각 객체를 스캔하여 감지되는 모서리마다 좌표를 기록하고, 상기 각 객체가 다각형 또는 원형인 경우 감지된 모서리가 두개 이상이면 이중상으로 판단하며, 상기 각 객체가 동심원인 경우 감지된 모서리가 동심원의 개수보다 많은 경우 이중상으로 판단하는 것을 특징으로 하는 HUD 영상 평가시스템. The method according to claim 1,
Wherein the double phase determination unit scans each object along a direction orthogonal to a vertical edge, a horizontal edge, a circular edge, and a concentric corner of each object to record coordinates for each detected edge, and when each object is a polygon or a circle If the number of detected edges is two or more, it is determined to be a dual phase, and when each of the objects is a concentric circle, if the detected edge is greater than the number of concentric circles, the dual image is determined.
상기 이중상 판단부에서 감지된 모서리에 대해 기록된 픽셀 좌표를 일반 좌표로 변환하는 좌표 변환부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가시스템. 11. The method of claim 10,
And a coordinate converter for converting the pixel coordinates recorded for the edges detected by the double-phase determination unit into general coordinates.
상기 이중상 판단부는, 일반 좌표계에서의 상기 모서리 간의 좌표값 차이를 산출하여 이중상의 변위값을 산출하는 것을 특징으로 하는 HUD 영상 평가시스템. 12. The method of claim 11,
Wherein the double-phase determination unit calculates a dual-phase displacement value by calculating a difference between coordinate values of the corners in the general coordinate system.
상기 이중상 판단부에서 산출된 이중상의 변위값과, 상기 왜곡 판단부에서 측정된 왜곡량을 제공받아, 상기 이중상과 왜곡을 해소할 수 있는 상기 카메라와 상기 차량의 앞유리창 사이의 상거리를 산출하는 상거리 산출부를 더 포함하는 것을 특징으로 하는 HUD 영상 평가 시스템. The method according to claim 1,
And a controller for receiving the double-phase displacement value calculated by the double-phase determination unit and the distortion amount measured by the distortion determination unit to calculate a distance between the camera and the windshield of the vehicle, Wherein the HUD image evaluation system further comprises a calculation unit.
상기 가상 이미지내에 포함된 개별요소인 각 객체에 대한 좌표계를 설정하는 좌표 설정 단계;
상기 각 객체를 스캔하여 상기 각 객체의 모서리의 중복 여부에 따라 상기 가상 이미지의 이중상을 판단하는 이중상 판단 단계;
판단 결과, 상기 가상 이미지가 이중상인 경우 상기 좌표계를 이용하여 그 변위정도를 측정하는 변위 측정 단계; 및,
상기 가상 이미지의 변형 여부를 판단하는 기준이 되는 기준 이미지에 포함된 각 객체와, 상기 가상 이미지의 객체를 비교하여 상기 가상 이미지의 왜곡여부 및 왜곡량을 판단하는 왜곡 판단 단계;를 포함하는 것을 특징으로 하는 HUD 영상 평가방법.Receiving a virtual image formed from a HUD system mounted on a vehicle;
A coordinate setting step of setting a coordinate system for each object that is an individual element included in the virtual image;
A dual image determining step of scanning each of the objects and determining a double image of the virtual image according to whether the edges of the objects overlap each other;
A displacement measuring step of measuring a degree of displacement of the virtual image using the coordinate system when the virtual image is a double phase; And
And a distortion judging step of judging whether the virtual image is distorted or distorted by comparing each object included in the reference image, which is a reference for judging whether or not the virtual image is deformed, with the object of the virtual image, To evaluate the HUD image.
상기 기준 이미지 또는 상기 가상 이미지가 입력되면,
모서리 감지 알고리즘을 이용하여 상기 각 객체를 감지하는 단계와,
상기 각 객체의 외곽을 둘러싸는 사각 테두리인 ROI(Region of Interest)를 설정하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 15. The method of claim 14,
When the reference image or the virtual image is input,
Sensing each object using an edge detection algorithm;
Further comprising setting a region of interest (ROI) that is a rectangular frame surrounding the perimeter of each object.
상기 기준 이미지 또는 상기 가상 이미지가 입력되면,
상기 각 객체의 종류, 형상, 색상 중 적어도 하나를 포함하는 정보를 이용하여 상기 각 객체를 정의하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 15. The method of claim 14,
When the reference image or the virtual image is input,
Further comprising defining each of the objects using information including at least one of a type, a shape, and a color of each of the objects.
상기 가상 이미지에 상기 ROI가 설정되면, 상기 ROI가 설정된 가상 이미지를 그레이스케일 이미지로 변환하는 단계와, 상기 그레이스케일 이미지를 바이너리 이미지로 변환하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 16. The method of claim 15,
Further comprising the step of converting the virtual image having the ROI set to a gray scale image if the ROI is set in the virtual image, and converting the gray scale image into a binary image.
상기 ROI가 설정된 가상 이미지를 제공받아 색상과 함께 색조, 조도, 명도, 채도, 광도 중 적어도 하나를 포함하는 색상 정보를 추출하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 16. The method of claim 15,
Further comprising extracting color information including at least one of hue, illuminance, lightness, saturation, and brightness with the color by receiving the virtual image in which the ROI is set.
상기 바이너리 이미지에 포함된 각 객체에 대해 좌표계를 설정하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 18. The method of claim 17,
And setting a coordinate system for each object included in the binary image.
상기 바이너리 이미지의 각 객체의 좌표계와, 상기 기준 이미지의 각 객체의 좌표계를 비교하여 상기 각 객체의 회전여부 및 회전각도를 판단하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 20. The method of claim 19,
Further comprising the step of comparing the coordinate system of each object of the binary image with the coordinate system of each object of the reference image to determine the rotation and the rotation angle of each object.
상기 ROI가 설정된 가상 이미지에 객체 감지 알고리즘을 적용하여 상기 각 ROI내의 객체를 감지하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 16. The method of claim 15,
Further comprising detecting an object in each ROI by applying an object detection algorithm to the virtual image in which the ROI is set.
상기 이중상 판단 단계는,
상기 각 객체의 세로 모서리, 가로 모서리, 원형 모서리, 동심원 모서리에 직교하는 방향을 따라 상기 각 객체를 스캔하여 감지되는 모서리마다 좌표를 기록하는 단계와,
상기 각 객체가 다각형 또는 원형인 경우 감지된 모서리가 두개 이상이면 이중상으로 판단하며, 상기 각 객체가 동심원인 경우 감지된 모서리가 동심원의 개수보다 많은 경우 이중상으로 판단하는 단계를 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 15. The method of claim 14,
The double-
Scanning each of the objects along a direction perpendicular to a vertical edge, a horizontal edge, a circular edge, and a concentric corner of each of the objects to record coordinates for each detected edge;
If the detected object is a polygon or a circle, it is determined that the object is a double-face if there are two or more sensed edges, and if the object is a concentric circle, if the sensed edge is greater than the number of concentric circles, HUD image evaluation method.
상기 이중상 판단 단계는,
상기 모서리의 좌표를 픽셀 좌표에서 일반 좌표로 변환하는 단계와,
일반 좌표계에서의 상기 모서리 간의 좌표값 차이를 산출하여 이중상의 변위값을 산출하는 단계를 포함하는 것을 특징으로 하는 HUD 영상 평가방법. 16. The method of claim 15,
The double-
Converting the coordinates of the edge from pixel coordinates to general coordinates,
And calculating a difference value of coordinates between the corners in the general coordinate system to calculate a displacement value of the double-phase image.
상기 이중상의 변위값과, 상기 왜곡량을 이용하여, 상기 이중상과 왜곡을 해소할 수 있는 카메라와 차량의 앞유리창 사이의 상거리를 산출하는 단계를 더 포함하는 것을 특징으로 하는 HUD 영상 평가방법.15. The method of claim 14,
Further comprising the step of calculating a distance between the camera and the windshield of the vehicle capable of eliminating the double phase and the distortion by using the double-phase displacement value and the distortion amount.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130050893A KR101484170B1 (en) | 2013-05-06 | 2013-05-06 | Assessment system and method for image projected from head up display |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20130050893A KR101484170B1 (en) | 2013-05-06 | 2013-05-06 | Assessment system and method for image projected from head up display |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20140131805A KR20140131805A (en) | 2014-11-14 |
KR101484170B1 true KR101484170B1 (en) | 2015-01-21 |
Family
ID=52453060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR20130050893A KR101484170B1 (en) | 2013-05-06 | 2013-05-06 | Assessment system and method for image projected from head up display |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101484170B1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101968689B1 (en) * | 2017-04-18 | 2019-04-16 | 자동차부품연구원 | Measurement system and method for ghost images on head-up display |
KR102201134B1 (en) | 2020-07-30 | 2021-01-08 | 서정현 | Functional pyrogenic patch for skin improvement |
CN112655024B (en) * | 2020-10-30 | 2022-04-22 | 华为技术有限公司 | Image calibration method and device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003287707A (en) | 2002-03-27 | 2003-10-10 | Denso Corp | Image conversion method, image processor, headup display and program |
JP2005024438A (en) | 2003-07-04 | 2005-01-27 | Murakami Corp | Method of inspecting mirror surface precision for curved surface mirror, inspection device for mirror surface precision for for curved surface mirror, preparation method for mirror surface precision inspecting pattern for curved surface mirror, and mirror surface precision inspecting pattern for curved surface mirror |
JP2008102518A (en) | 2006-10-17 | 2008-05-01 | Seiko Epson Corp | Heads up display, vehicle having heads up display system and digital heads up display system capable of providing non-distorted image to non-planar surface |
US20090278765A1 (en) | 2008-05-09 | 2009-11-12 | Gm Global Technology Operations, Inc. | Image adjustment and processing for a head up display of a vehicle |
-
2013
- 2013-05-06 KR KR20130050893A patent/KR101484170B1/en active IP Right Grant
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003287707A (en) | 2002-03-27 | 2003-10-10 | Denso Corp | Image conversion method, image processor, headup display and program |
JP2005024438A (en) | 2003-07-04 | 2005-01-27 | Murakami Corp | Method of inspecting mirror surface precision for curved surface mirror, inspection device for mirror surface precision for for curved surface mirror, preparation method for mirror surface precision inspecting pattern for curved surface mirror, and mirror surface precision inspecting pattern for curved surface mirror |
JP2008102518A (en) | 2006-10-17 | 2008-05-01 | Seiko Epson Corp | Heads up display, vehicle having heads up display system and digital heads up display system capable of providing non-distorted image to non-planar surface |
US20090278765A1 (en) | 2008-05-09 | 2009-11-12 | Gm Global Technology Operations, Inc. | Image adjustment and processing for a head up display of a vehicle |
Also Published As
Publication number | Publication date |
---|---|
KR20140131805A (en) | 2014-11-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101811157B1 (en) | Bowl-shaped imaging system | |
US11482013B2 (en) | Object tracking method, object tracking apparatus, vehicle having the same, and computer-program product | |
JP5339124B2 (en) | Car camera calibration system | |
US8055016B2 (en) | Apparatus and method for normalizing face image used for detecting drowsy driving | |
US7684590B2 (en) | Method of recognizing and/or tracking objects | |
JP5442164B2 (en) | Moving object peripheral image correction device | |
US20180292201A1 (en) | Calibration apparatus, calibration method, and calibration program | |
JP4263737B2 (en) | Pedestrian detection device | |
JP4832321B2 (en) | Camera posture estimation apparatus, vehicle, and camera posture estimation method | |
JP5454737B2 (en) | Wrinkle detection device, wrinkle detection method and program | |
EP2293588A1 (en) | Method for using a stereovision camera arrangement | |
CN102774325A (en) | Rearview reversing auxiliary system and method for forming rearview obstacle images | |
JP2003098424A (en) | Range finder based on image processing | |
JP5737401B2 (en) | 瞼 Detection device | |
JP7448484B2 (en) | Online evaluation of camera internal parameters | |
KR101484170B1 (en) | Assessment system and method for image projected from head up display | |
US7599546B2 (en) | Image information processing system, image information processing method, image information processing program, and automobile | |
US20220148200A1 (en) | Estimating the movement of an image position | |
KR101276073B1 (en) | System and method for detecting distance between forward vehicle using image in navigation for vehicle | |
CN114467111B (en) | Object recognition method and object recognition device | |
WO2022004495A1 (en) | Obstacle detection device and obstacle detection method | |
JP4106163B2 (en) | Obstacle detection apparatus and method | |
KR20220145080A (en) | Apparatus and method for determining position of dual camera for vehicle | |
JP4765363B2 (en) | Occupant detection device and occupant detection method | |
JP6429101B2 (en) | Image determination apparatus, image processing apparatus, image determination program, image determination method, moving object |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180104 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190103 Year of fee payment: 5 |
|
FPAY | Annual fee payment |
Payment date: 20200103 Year of fee payment: 6 |