Nothing Special   »   [go: up one dir, main page]

KR101979422B1 - Camera system and camera system included calibration adjusting method - Google Patents

Camera system and camera system included calibration adjusting method Download PDF

Info

Publication number
KR101979422B1
KR101979422B1 KR1020170014593A KR20170014593A KR101979422B1 KR 101979422 B1 KR101979422 B1 KR 101979422B1 KR 1020170014593 A KR1020170014593 A KR 1020170014593A KR 20170014593 A KR20170014593 A KR 20170014593A KR 101979422 B1 KR101979422 B1 KR 101979422B1
Authority
KR
South Korea
Prior art keywords
information
lane
vehicle
angle
intersection
Prior art date
Application number
KR1020170014593A
Other languages
Korean (ko)
Other versions
KR20180089812A (en
Inventor
이준희
Original Assignee
주식회사 만도
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 만도 filed Critical 주식회사 만도
Priority to KR1020170014593A priority Critical patent/KR101979422B1/en
Publication of KR20180089812A publication Critical patent/KR20180089812A/en
Application granted granted Critical
Publication of KR101979422B1 publication Critical patent/KR101979422B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • B60W40/072Curvature of the road
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/18Status alarms
    • G08B21/182Level alarms, e.g. alarms responsive to variables exceeding a threshold
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/55Optical parts specially adapted for electronic image sensors; Mounting thereof
    • H04N5/2254
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • B60W2420/42
    • B60W2550/10
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Transportation (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

본 발명은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지부와 차량의 헤딩각정보를 감지하는 차량정보 감지부와 차량의 곡률주행정보를 추정하는 추정부와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는 산출부 및 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림부를 포함하는 카메라 시스템에 관한 것이다.According to the present invention, there is provided an information processing apparatus including an image information sensing unit for sensing distance information on a lane, curvature information of a lane and an intersection of a lane on the basis of the generated front image information, a vehicle information sensing unit for sensing heading angle information of the vehicle, If the change amount of the curvature running information of the vehicle is equal to or less than the predetermined threshold curvature running information and the variation amount of the distance information with respect to the lane is equal to or less than the predetermined threshold distance information, the lane curvature information, A calculation unit for calculating an estimated intersection point of the lane in the forward image information using the distance information between the lane and the lane, and a notification that the preset existing calibration information is an error if the difference between the intersection of the lane and the estimated intersection of the lane exceeds the preset allowable value And a camera system including the camera.

Description

카메라 시스템 및 카메라 시스템의 캘리브레이션정보 조정방법{CAMERA SYSTEM AND CAMERA SYSTEM INCLUDED CALIBRATION ADJUSTING METHOD}[0001] CAMERA SYSTEM AND CAMERA SYSTEM INCLUDED CALIBRATION ADJUSTING METHOD [0002]

본 발명은 차량에 포함되는 카메라 시스템에 관한 것이다.The present invention relates to a camera system included in a vehicle.

최근 자율 주행차에 대한 관심이 증가되면서, 자율 주행차에 탑재되는 센서에 대한 연구가 활발히 진행되고 있다. Recently, as interest in autonomous vehicles increases, researches on sensors mounted on autonomous vehicles are actively under way.

자율 주행차에 탑재되는 센서로는 카메라, 적외선센서, 레이더, GPS, 라이더(Lidar), 자이로스코프 등이 있는데, 그 중 카메라는 사람의 눈을 대신하는 역할을 하는 센서로서 중요한 위치를 차지하고 있다.There are cameras, infrared sensors, radar, GPS, lidar, and gyroscope that are mounted on the autonomous vehicle. Among them, the camera occupies an important position as a sensor to replace the human eye.

일반적으로 카메라가 감지한 물체정보는 횡방향(감시방향에 대한 수직방향을 의미)에 대한 정보가 정확하고, 종방향(감시방향을 의미)에 대한 정보는 정확하지 않는 특징이 있다.Generally, the object information detected by the camera is characterized in that the information on the lateral direction (meaning vertical direction to the monitoring direction) is correct and the information on the longitudinal direction (meaning the direction of the monitoring) is not accurate.

이러한 이유로, 일반적으로 자율 주행차는 카메라가 감지한 정보에 기반한 감지물체의 횡방향정보를 이용하고, 카메라 외 다른 센서가 감지한 정보를 이용하여 감지물체의 종방향정보 또는 감지물체의 위치 등을 이용한다.For this reason, in general, an autonomous vehicle uses lateral information of a sensing object based on information sensed by a camera, and uses longitudinal information of the sensing object or the position of the sensing object using information sensed by a sensor other than the camera .

한편, 자율 주행차가 다수의 센서를 이용하는 경우, 다수의 센서에 따라 가격이 상승하는 문제점 등이 발생할 수 있다.On the other hand, when a plurality of sensors are used in the autonomous vehicle, the price may increase depending on a number of sensors.

이러한 문제점을 극복하고자, 최근 카메라를 포함하는 카메라 시스템은 카메라의 기하학적인 동작 등에 기초하여 캘리브레이션정보를 미리 설정하고, 상기 캘리브레이션정보를 반영하여 감지물체의 종방향정보(일 예를 들어, 차선정보, 차량정보 및 보행자정보 등)를 정확하게 감지할 수 있다. In order to overcome such a problem, recently, a camera system including a camera sets calibration information in advance based on a geometric operation of a camera, etc., and calculates longitudinal information (e.g., lane information, Vehicle information and pedestrian information) can be accurately detected.

상기 캘리브레이션정보는 차량 출고 시, 차량에 설치된 카메라의 위치, 상기 카메라의 감시각도 등에 따라 설정되는 정보이다. The calibration information is information set according to the position of the camera installed in the vehicle, the monitoring angle of the camera, and the like when the vehicle is shipped.

이에, 차량 타이어의 바람이 빠지거나, 서스펜션의 셋팅이 변경되면, 변경 전 차량에 맞춰진 캘리브레이션정보를 이용하는 카메라 시스템은 감지물체의 종방향정보를 부정확하게 감지하는 문제점이 발생할 수 있다. Therefore, if the wind of the vehicle tire is lost or the setting of the suspension is changed, a camera system using calibration information tailored to the vehicle before the change may cause a problem that the longitudinal direction information of the sensing object is incorrectly detected.

이러한 배경에서, 본 발명의 목적은, 일 측면에서, 카메라 시스템에 미리 설정된 캘리브레이션정보의 에러여부를 알려주는 카메라 시스템에 관련된 기술을 제공하는 것이다. In view of the foregoing, it is an object of the present invention to provide, in one aspect, a technique relating to a camera system that notifies the camera system of an error in preset calibration information.

일 측면에서, 본 발명은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지부와 차량의 헤딩각정보를 감지하는 차량정보 감지부와 차량의 곡률주행정보를 추정하는 추정부와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는 산출부 및 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림부를 포함하는 카메라 시스템을 제공한다.According to an aspect of the present invention, there is provided an information processing apparatus including an image information sensing unit for sensing distance information on a lane, curvature information of a lane, and an intersection of a lane on the basis of the generated front image information and a vehicle information sensing unit for sensing heading angle information of the vehicle, When the amount of change in the curvature running information of the vehicle is less than or equal to the preset threshold curvature running information and the amount of change in the distance information between the lane and the lane is equal to or less than the predetermined threshold distance information, When the difference between the calculating section for calculating the estimated intersection point of the lane in the forward image information and the estimated intersection point of the lane and the estimated intersection point of the lane exceeds the preset allowable value using the heading angle information and the distance information between the lane information and the lane, And a notification unit for notifying the user of the error.

다른 일 측면에서, 본 발명은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지단계와 차량의 헤딩각정보를 감지하는 차량정보 감지단계와 차량의 곡률주행정보를 추정하는 추정단계와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는 산출단계와 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림단계 및 차선의 교차점과 차선의 추정교차점의 차이가 허용치를 초과하면, 차선의 교차점과 차선의 추정교차점의 차이가 상기 허용치 이내가 되도록 하는 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성하고, 기존 캘리브레이션정보를 상기 신규 캘리브레이션정보로 보정하는 보정단계를 포함하는 카메라 시스템의 캘리브레이션정보 조정방법을 제공한다. According to another aspect of the present invention, there is provided a method for controlling a vehicle, comprising the steps of sensing distance information on a lane, curvature information of a lane, and an intersection of a lane on the basis of the generated front image information, And an estimating step of estimating curvature running information of the vehicle, and when the amount of change in the curvature running information of the vehicle is equal to or less than preset critical curvature running information and the amount of change in the distance information with respect to the lane is less than preset threshold distance information, Calculating the estimated intersection point of the lane in the forward image information by using the heading angle information and the distance information between the lane information and the lane information of the lane and the estimated intersection point of the lane when the difference between the intersection point of the lane and the estimated intersection point of the lane exceeds a preset allowable value, The difference between the intersection point of the lane and the estimated intersection point of the lane exceeds the allowable value, Generating new calibration information based on a new first angle and a new second angle such that a difference between an intersection point and an estimated intersection point of a lane is within the allowable value and correcting the existing calibration information into the new calibration information Provides a method for calibrating calibration information of a camera system.

이상에서 설명한 바와 같이 본 발명에 의하면, 카메라 시스템에 미리 설정된 캘리브레이션정보의 에러여부를 알려주는 카메라 시스템에 관련된 기술을 제공할 수 있다. As described above, according to the present invention, it is possible to provide a technique related to a camera system that notifies the camera system of whether or not error of preset calibration information is detected.

도 1은 제1실시예에 따른 카메라 시스템의 구성을 도시한 도면이다.
도 2는 제1실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.
도 3은 제2실시예에 따른 카메라 시스템의 구성을 도시한 도면이다.
도 4는 제2실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.
도 5는 제3실시예에 따른 카메라 시스템의 구성을 도시한 도면이다.
도 6은 제3실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.
도 7은 제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 흐름을 도시한 도면이다.
1 is a diagram showing a configuration of a camera system according to a first embodiment.
2 is a diagram illustrating an example of operation of the camera system according to the first embodiment.
3 is a diagram showing a configuration of a camera system according to the second embodiment.
FIG. 4 is a diagram illustrating an example of operation of the camera system according to the second embodiment.
5 is a diagram showing a configuration of a camera system according to the third embodiment.
6 is a diagram illustrating an example of operation of the camera system according to the third embodiment.
7 is a flowchart showing a calibration information adjustment method of the camera system according to the first embodiment.

이하, 일부 실시예들은 예시적인 도면을 참조하여 상세하게 설명한다. 각 도면의 구성요소들에 참조부호를 부가함에 있어서, 동일한 구성요소들에 대해서는 비록 다른 도면상에 표시되더라도 가능한 한 동일한 부호를 가질 수 있다. 또한, 본 실시예를 설명함에 있어, 관련된 공지 구성 또는 기능에 대한 구체적인 설명이 본 기술적 사상의 요지를 흐릴 수 있다고 판단되는 경우에는 그 상세한 설명은 생략할 수 있다.Hereinafter, some embodiments will be described in detail with reference to exemplary drawings. In the drawings, like reference numerals are used to denote like elements throughout the drawings, even if they are shown on different drawings. In the following description of the present invention, a detailed description of known functions and configurations incorporated herein will be omitted when it may make the subject matter of the present invention unclear.

또한, 본 실시예의 구성 요소를 설명하는 데 있어서, 제 1, 제 2, A, B, (a), (b) 등의 용어를 사용할 수 있다. 이러한 용어는 그 구성 요소를 다른 구성 요소와 구별하기 위한 것일 뿐, 그 용어에 의해 해당 구성 요소의 본질, 차례, 순서 또는 개수 등이 한정되지 않는다. 어떤 구성 요소가 다른 구성요소에 "연결", "결합" 또는 "접속"된다고 기재된 경우, 그 구성 요소는 그 다른 구성요소에 직접적으로 연결되거나 또는 접속될 수 있지만, 각 구성 요소 사이에 다른 구성 요소가 "개재"되거나, 각 구성 요소가 다른 구성 요소를 통해 "연결", "결합" 또는 "접속"될 수도 있다고 이해되어야 할 것이다.In describing the constituent elements of the present embodiment, terms such as first, second, A, B, (a), and (b) may be used. These terms are intended to distinguish the components from other components, and the terms do not limit the nature, order, order, or number of the components. When a component is described as being "connected", "coupled", or "connected" to another component, the component may be directly connected or connected to the other component, Quot; intervening " or that each component may be " connected, " " coupled, " or " connected " through other components.

도 1은 제1실시예에 따른 카메라 시스템의 구성을 도시한 도면이고, 도 2는 제1실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.FIG. 1 is a diagram illustrating a configuration of a camera system according to a first embodiment. FIG. 2 is a diagram illustrating an example of operation of the camera system according to the first embodiment.

도 1 및 도 2를 참조하면, 제1실시예에 따른 카메라 시스템(100)은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는(S200) 영상정보 감지부(110)와 차량의 헤딩각정보를 감지하는(S210) 차량정보 감지부(120)와 차량의 곡률주행정보를 추정하는(S220) 추정부(130)와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고(S230 에서 YES) 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면(S240 에서 YES), 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는(S250) 산출부(140) 및 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면(S260 에서 YES), 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는(S270) 알림부(150)를 포함할 수 있다.Referring to FIGS. 1 and 2, the camera system 100 according to the first embodiment of the present invention detects the intersection of lane information, lane curvature information, and lane on the basis of the generated front image information (S200) The information sensing unit 110 senses the heading angle information of the vehicle (S210), the vehicle information sensing unit 120 senses the curvature driving information of the vehicle (S220), estimates the curvature driving information of the vehicle (S220) (YES in S230) and the variation amount of the distance information with the lane is less than the predetermined threshold distance information (YES in S240), the curvature information of the lane, the heading angle information of the vehicle, and the distance The estimated intersection point of the lane in the forward image information is calculated (S250). If the difference between the intersection of the lane and the estimated intersection of the lane exceeds the preset allowable value (YES in S260) Calibration information is error (Step S270).

제1실시예에 따른 카메라 시스템(100)의 영상정보 감지부(110)는 차량의 전방을 감시하는 영상감지장치(일 예를 들어, 카메라센서 등)로부터 생성된 전방영상정보에서 미리 알고 있는 차선정보(일 예를 들어, 차선의 색상정보, 차선의 너비정보, 차선의 길이정보 등)에 기초하여 차선을 감지하고, 감지된 차선에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지할 수 있다.The image information sensing unit 110 of the camera system 100 according to the first exemplary embodiment can recognize a predetermined lane from the forward image information generated from the image sensing device (for example, a camera sensor or the like) (For example, color information of a lane, width information of a lane, length information of a lane, and the like), and based on the sensed lane, distance information to the lane, curvature information of the lane, The intersection can be detected.

상기 차선의 교차점은 원근법에 의해 평행하는 차선이 교차하는 것으로 보이는 점을 의미할 수 있다.The intersection of the above lanes may mean that a parallel lane intersects by perspective.

제1실시예에 따른 카메라 시스템(100)의 차량정보 감지부(120)는 차량의 선회운동을 감지할 수 있는 센서의 감지값에 기초하여 차량의 헤딩각정보를 감지할 수 있다. The vehicle information sensing unit 120 of the camera system 100 according to the first embodiment can sense the heading angle information of the vehicle based on the sensing value of the sensor capable of sensing the turning motion of the vehicle.

제1실시예에 따른 카메라 시스템(100)의 추정부(130)는 차량의 선회운동을 감지할 수 있는 센서의 감지값에 기초하여 차량의 곡률주행정보를 감지할 수 있다. The estimating unit 130 of the camera system 100 according to the first embodiment can sense the curvature driving information of the vehicle based on the sensing value of the sensor capable of sensing the turning motion of the vehicle.

일 예를 들어, 차량의 선회운동을 감지할 수 있는 센서는 조향각센서, 횡가속도센서 등을 포함할 수 있으며, 차량의 선회운동에 기초하여 차량의 헤딩각정보 및 차량의 곡률주행정보를 감지 또는 산출하는 방법은 기존의 모든 방법을 적용할 수 있다.For example, the sensor capable of detecting the turning motion of the vehicle may include a steering angle sensor, a lateral acceleration sensor, and the like. The sensor may detect the heading angle information of the vehicle and the curvature driving information of the vehicle based on the turning motion of the vehicle. All methods of calculation can be applied.

제1실시예에 따른 카메라 시스템(100)의 산출부(140)는 추정된 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 감지된 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 감지된 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 차량의 전방을 감시하는 영상감지장치로부터 생성된 전방영상정보에서 차선의 추정교차점을 산출할 수 있다.The calculation unit 140 of the camera system 100 according to the first embodiment determines whether the variation of the curvature travel information of the estimated vehicle is equal to or less than the predetermined threshold curvature travel information and the amount of change in the distance information with respect to the sensed lane, If the information is less than or equal to the information, the estimated intersection point of the lane can be calculated from the front image information generated from the image sensing apparatus that monitors the front of the vehicle using the curvature information of the sensed lane, the heading angle information of the vehicle, .

자세히 설명하면, 산출부(140)가 감지된 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 차량의 전방을 감시하는 영상감지장치로부터 생성된 전방영상정보에서 차선의 추정교차점을 산출함에 있어 산출시간이 소요될 수 있다. In more detail, the calculating unit 140 calculates the lane estimation (estimated) from the front image information generated from the image sensing apparatus that monitors the front of the vehicle using the curvature information of the sensed lane, the heading angle information of the vehicle, It may take a calculation time to calculate the intersection point.

이에, 산출부(140)가 차선의 추정교차점이 정확하게 산출하기 위해서는 상기 산출시간 동안 차선의 곡률정보, 차선의 헤딩각정보 및 차선과의 거리정보가 유지되어야 한다. Accordingly, in order for the calculating unit 140 to accurately calculate the estimated intersection of the lane, the curvature information of the lane, the heading angle information of the lane, and the distance information between the lane and the lane must be maintained during the calculation time.

즉, 산출부(140)는 정확한 차선의 추정교차점을 산출하기 위해 추정된 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 감지된 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하인 상황에서만 차선의 추정교차점을 산출할 수 있다.That is, in order to calculate the estimated intersection point of the correct lane, the calculation unit 140 calculates the estimated intersection point of the lane of the lane by comparing the estimated amount of curvature travel information of the vehicle with the predetermined threshold curvature travel information, The estimated intersection point of the lane can be calculated.

이러한 추정교차점은 원근법에 의해 평행하는 차선이 교차하는 것으로 추정되는 점을 의미하는 것으로서, 아래에서 자세하게 서술할 캘리브레이션정보 등에 반영하여 추정한 것일 수 있다. This estimated intersection point means a point in which parallel lanes intersect by perspective, and may be estimated by reflecting the calibration information or the like to be described in detail below.

제1실시예에 따른 카메라 시스템(100)의 알림부(150)는 감지된 차선의 교차점과 산출된 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알릴 수 있다.The notification unit 150 of the camera system 100 according to the first embodiment can notify that the previously set calibration information is an error when the difference between the intersection of the sensed lane and the estimated intersection of the calculated lane exceeds a preset allowable value have.

캘리브레이션정보에 대해 자세히 설명하면, 생성된 영상정보에 포함된 물체에 대한 상세정보를 산출하기 위해 사용되는 정보로서, 기하학적인 관점에서 영상감지센서의 동작에 관련된 정보일 수 있다. 상기 상세정보는 종방향(영상정보를 출력하는 카메라가 감시하는 방향을 의미)에 대한 정보로서, 물체의 인식, 물체와의 거리, 물체의 길이 등을 포함할 수 있다.The calibration information may be information used for calculating detailed information on an object included in the generated image information, and may be information related to the operation of the image sensing sensor from a geometrical point of view. The detailed information is information on a vertical direction (meaning a direction monitored by a camera outputting image information), and may include recognition of an object, distance to an object, length of an object, and the like.

캘리브레이션정보는 다음 수학식 1과 같은 매트릭스(Matrix)로 표현될 수 있다. The calibration information may be represented by a matrix as shown in the following Equation (1).

[수학식 1][Equation 1]

Figure 112017010886601-pat00001
Figure 112017010886601-pat00001

여기서,

Figure 112017010886601-pat00002
은 카메라 시스템에 설정되는 고유한(Intrinsic) 성분으로서, 다음 수학식 2와 같은 관계식으로 표현될 수 있으며,
Figure 112017010886601-pat00003
은 카메라 시스템에 설정되는 외적인(Extrinsic) 성분으로서, 다음 수학식 3과 같은 회전변환에 따른 관계식을 포함할 수 있다.here,
Figure 112017010886601-pat00002
Is an intrinsic component set in the camera system and can be expressed by the following equation (2)
Figure 112017010886601-pat00003
Is an extrinsic component set in the camera system and may include a relational expression according to the rotation transformation as shown in Equation (3).

[수학식 2]&Quot; (2) "

Figure 112017010886601-pat00004
Figure 112017010886601-pat00004

여기서,

Figure 112017010886601-pat00005
는 x축(또는, u축으로 명명하기도 함)에 대한 픽셀 수를 의미하고,
Figure 112017010886601-pat00006
는 y축(또는, v축으로 명명하기도 함)에 대한 픽셀 수를 의미하고,
Figure 112017010886601-pat00007
는 x축에 대한 픽셀의 중앙 위치를 의미하고,
Figure 112017010886601-pat00008
는 y축에 대한 픽셀의 중앙 위치를 의미하고,
Figure 112017010886601-pat00009
는 왜곡성분(skew factor)을 의미하며, f 는 광축(Optical axis)에 대한 초점거리를 의미한다.here,
Figure 112017010886601-pat00005
Quot; means the number of pixels for the x-axis (or the u-axis)
Figure 112017010886601-pat00006
Means the number of pixels for the y-axis (or the v-axis)
Figure 112017010886601-pat00007
Denotes the center position of the pixel with respect to the x-axis,
Figure 112017010886601-pat00008
Denotes the center position of the pixel with respect to the y-axis,
Figure 112017010886601-pat00009
Denotes a skew factor, and f denotes a focal length of the optical axis.

[수학식 3]&Quot; (3) "

Figure 112017010886601-pat00010
Figure 112017010886601-pat00010

여기서,

Figure 112017010886601-pat00011
는 요우레이트(Yaw rate)에 대한 각도로서, 본 명세서의 제1각을 의미하고,
Figure 112017010886601-pat00012
는 피치(Pitch)에 대한 각도로서, 본 명세서의 제2각을 의미하며,
Figure 112017010886601-pat00013
는 요우레이트 및 피치 각각과 직교하는 성분에 대한 각도로서, 차량의 움직임에 있어 무시할 수 있다.here,
Figure 112017010886601-pat00011
Is the angle with respect to the yaw rate, which means the first angle herein,
Figure 112017010886601-pat00012
Is an angle with respect to the pitch, which means the second angle of the present specification,
Figure 112017010886601-pat00013
Is an angle with respect to a component orthogonal to each of the yaw rate and pitch, and can be neglected in the movement of the vehicle.

전술한 수학식 1 내지 수학식 3은 카메라 시스템에 있어서, 기하학적인 관점, 이미지프레임과 픽셀프레임 간 관점 및 캘리브레이션정보에 따른 관점 등에 기반하는 관계식으로서, 더 자세한 설명은 생략한다.The above-described equations (1) to (3) are relational expressions based on the geometric viewpoint, the viewpoint between the image frame and the pixel frame and the viewpoint according to the calibration information, and the detailed description will be omitted.

이에, 카메라 시스템(100)에 미리 설정된 기존 캘리브레이션정보가 정상이면, 감지부(110)가 감지하는 차선의 교차점과 산출부(140)가 기존 캘리브레이션정보에 기초하여 산출하는 차선의 추정교차점의 차이는 미리 설정된 허용치 이내일 수 있으며, 정상인 기존 캘리브레이션정보를 활용하여 산출된 전방물체의 상세정보는 정확한 정보일 수 있다.If the existing calibration information preset in the camera system 100 is normal, the difference between the intersection of the lane detected by the sensing unit 110 and the estimated intersection of the lane calculated by the calculation unit 140 based on the existing calibration information is The detailed information of the forward object calculated using the existing calibration information that is normal can be accurate information.

반면, 기존 캘리브레이션정보가 비정상이면, 감지부(110)가 감지하는 차선의 교차점과 산출부(140)가 기존 캘리브레이션정보에 기초하여 산출하는 차선의 추정교차점의 차이는 미리 설정된 허용치를 초과할 수 있으며, 비정상인 기존 캘리브레이션정보를 활용하여 산출된 전방물체의 상세정보는 부정확한 정보일 수 있다.On the other hand, if the existing calibration information is abnormal, the difference between the intersection of the lane detected by the sensing unit 110 and the estimated intersection of the lane calculated by the calculating unit 140 based on the existing calibration information may exceed the predetermined tolerance , The detailed information of the forward object calculated using the abnormal calibration information may be inaccurate information.

이상에서 도 1 및 도 2를 이용하여 설명한 제1실시예에 따른 카메라 시스템은 설정된 캘리브레이션정보가 에러인지를 판단하여 운전자에게 에러임을 알려주는 효과가 있다. 이로써, 카메라 시스템이 캘리브레이션정보의 에러에 따라 물체를 부정확하게 인식하는 것을 차단할 수 있다.The camera system according to the first embodiment described above with reference to FIGS. 1 and 2 has an effect of determining that the set calibration information is error, and notifying the driver of the error. This can prevent the camera system from incorrectly recognizing the object in response to an error in the calibration information.

한편, 제2실시예에 따른 카메라 시스템은 제1실시예에 따른 카메라 시스템과 같이 미리 설정된 기존 캘리브레이션정보가 에러임을 판단할 뿐만 아니라, 에러로 판단된 기존 캘리브레이션정보를 정상인 신규 캘리브레이션정보로 보정하는 보정부를 더 포함할 수 있다.Meanwhile, the camera system according to the second embodiment not only determines that the previously set calibration information is an error like the camera system according to the first embodiment, but also corrects the existing calibration information determined as an error to the normal new calibration information And the like.

이에 대해 도 3 및 도 4를 참조하여 자세히 설명한다.This will be described in detail with reference to FIGS. 3 and 4. FIG.

도 3은 제2실시예에 따른 카메라 시스템의 구성을 도시한 도면이고, 도 4는 제2실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.FIG. 3 is a diagram illustrating a configuration of a camera system according to a second embodiment. FIG. 4 is a diagram illustrating an exemplary operation of the camera system according to the second embodiment.

도 3 및 도 4를 참조하면, 제2실시예에 따른 카메라 시스템(101)은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는(S200) 영상정보 감지부(110)와 차량의 헤딩각정보를 감지하는(S210) 차량정보 감지부(120)와 차량의 곡률주행정보를 추정하는(S220) 추정부(130)와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고(S230 에서 YES) 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면(S240 에서 YES), 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는(S250) 산출부(140)와 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면(S260 에서 YES), 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는(S270) 알림부(150) 및 차선의 교차점과 차선의 추정교차점의 차이가 허용치를 초과하면(S260 에서 YES), 차선의 교차점과 차선의 추정교차점의 차이를 허용치 이내로 하는 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성하고(S400), 기존 캘리브레이션정보를 신규 캘리브레이션정보로 보정하는(S410) 보정부(160)를 포함할 수 있다.3 and 4, the camera system 101 according to the second embodiment detects the intersection of lane information, lane curvature information, and lane based on the generated front image information (S200) The information sensing unit 110 senses the heading angle information of the vehicle (S210), the vehicle information sensing unit 120 senses the curvature driving information of the vehicle (S220), estimates the curvature driving information of the vehicle (S220) (YES in S230) and the variation amount of the distance information with the lane is less than the predetermined threshold distance information (YES in S240), the curvature information of the lane, the heading angle information of the vehicle, and the distance If the difference between the intersection of the lane and the estimated intersection of the lane exceeds the predetermined allowable value (YES in S260), the estimated intersection point of the lane is calculated (S250) Calibration information is error (S260), and when the difference between the intersection of the lane and the estimated intersection of the lane exceeds the allowable value (YES in S260), the difference between the intersection of the lane and the estimated intersection of the lane (S400), and correcting the existing calibration information to the new calibration information (S410) based on the new second angle and the new second angle.

일 예를 들어, 보정부(160)는 차선의 교차점과 차선의 추정교차점의 차이를 허용치 이내로 하는 신규 제1각 및 신규 제2각을 생성하고, 신규 제1각 및 신규 제2각에 전술한 수학식 1 내지 수학식 3에 기초하여 신규 캘리브레이션정보를 생성할 수 있다.For example, the corrector 160 generates a new first angle and a new second angle that make the difference between the intersection of the lane and the estimated intersection of the lane within the tolerance, New calibration information can be generated based on Equations (1) to (3).

또는, 보정부(160)는 기존 캘리브레이션정보를 분해하여 기존 제1각 및 기존 제2각을 추출하고, 추출된 기존 제1각 및 기존 제2각 각각을 보정하여 생성한 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성할 수 있다.Alternatively, the corrector 160 may extract the existing first angle and the existing second angle by decomposing the existing calibration information, and generate a new first angle and a new first angle by correcting each of the extracted first angle and the existing second angle, New calibration information can be generated based on the second angle.

자세히 설명하면, 기존 제1각 및 기존 제2각에서 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 크기는 영상정보 감지부(110)에서 감지된 차선의 교차점과 산출부(140)에서 산출된 추정교차점의 차이의 크기에 비례할 수 있다. The sizes of the respective correction angles corrected for the new first angle and the new second angle in the existing first angle and the existing second angle are determined based on the intersection of the lane detected by the image information sensing unit 110 and the distance 140). ≪ / RTI >

또한, 기존 제1각 및 기존 제2각에서 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 방향은 영상정보 감지부(110)에서 감지된 차선의 교차점과 산출부(140)에서 산출된 추정교차점의 차이의 방향에 따라 결정될 수 있다.The directions of the respective correction angles corrected by the new first angle and the new second angle in the existing first angle and the existing second angle are determined by the intersection of the lane detected by the image information sensing unit 110 and the angle And the direction of the difference of the estimated intersection points calculated in the step of FIG.

이와 같이 보정부(160)가 기존 캘리브레이션정보를 분해하여 추출된 기존 제1각 및 기존 제2각에 기초함으로써 보다 빠르고 정확하게 신규 캘리브레이션정보를 생성할 수 있다.In this way, the calibration unit 160 can generate the new calibration information more quickly and accurately based on the extracted first angle and the existing second angle extracted from the existing calibration information.

이상에서 도 3 및 도 4를 이용하여 설명한 제2실시예에 따른 카메라 시스템은 설정된 기존 캘리브레이션정보가 에러로 판단되면 정상인 신규 캘리브레이션정보로 보정할 수 있다. The camera system according to the second embodiment described above with reference to FIG. 3 and FIG. 4 can correct the new calibration information to be normal if the existing calibration information is determined to be an error.

한편, 제3실시예에 따른 카메라 시스템은 제1실시예에 따른 카메라 시스템과 같이 미리 설정된 기존 캘리브레이션정보가 에러임을 판단할 뿐만 아니라, 정상으로 판단된 기존 캘리브레이션정보를 이용하여 전방영상정보에 포함된 물체와의 거리를 감지하는 거리 감지부를 더 포함할 수 있다.Meanwhile, the camera system according to the third embodiment not only determines that the previously set calibration information is an error like the camera system according to the first embodiment, but also uses the existing calibration information determined to be normal, And a distance sensing unit for sensing a distance to an object.

이에 대해 도 5 및 도 6을 참조하여 자세히 설명한다.This will be described in detail with reference to FIG. 5 and FIG.

도 5는 제3실시예에 따른 카메라 시스템의 구성을 도시한 도면이고, 도 6은 제3실시예에 따른 카메라 시스템의 동작을 설명하기 위한 일 예를 도시한 도면이다.FIG. 5 is a diagram illustrating a configuration of a camera system according to a third embodiment. FIG. 6 is a diagram illustrating an exemplary operation of the camera system according to the third embodiment.

도 5 및 도 6을 참조하면, 제3실시예에 따른 카메라 시스템(102)은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는(S200) 영상정보 감지부(110)와 차량의 헤딩각정보를 감지하는(S210) 차량정보 감지부(120)와 차량의 곡률주행정보를 추정하는(S220) 추정부(130)와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고(S230 에서 YES) 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면(S240 에서 YES), 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는(S250) 산출부(140)와 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면(S260 에서 YES), 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는(S270) 알림부(150) 및 차선의 교차점과 차선의 추정교차점의 차이가 허용치를 초과하지 않으면(S260 에서 NO), 기존 캘리브레이션정보를 이용하여 전방영상정보에 포함된 물체와의 거리를 감지하는(S600) 거리 감지부(170)를 포함할 수 있다.5 and 6, the camera system 102 according to the third embodiment detects the intersection of lane information, lane curvature information, and lane information based on the generated front image information (S200) The information sensing unit 110 senses the heading angle information of the vehicle (S210), the vehicle information sensing unit 120 senses the curvature driving information of the vehicle (S220), estimates the curvature driving information of the vehicle (S220) (YES in S230) and the variation amount of the distance information with the lane is less than the predetermined threshold distance information (YES in S240), the curvature information of the lane, the heading angle information of the vehicle, and the distance If the difference between the intersection of the lane and the estimated intersection of the lane exceeds the predetermined allowable value (YES in S260), the estimated intersection point of the lane is calculated (S250) Calibration information is error (S260). If the difference between the notification unit 150 and the estimated intersection of the lane and the estimated intersection of the lane does not exceed the allowable value (NO in S260), the distance to the object included in the forward image information is calculated using the existing calibration information And a distance sensing unit 170 for sensing the distance (S600).

이상에서 도 5 및 도 6를 이용하여 설명한 제3실시예에 따른 카메라 시스템은 설정된 기존 캘리브레이션정보가 정상으로 판단되면 전방영상정보에 포함된 물체와의 거리를 감지할 수 있다. 이로써, 제3실시예에 따른 카메라 시스템은 전방영상정보에 포함된 물체와의 거리가 부정확하게 감지되는 것을 방지할 수 있다.The camera system according to the third embodiment described above with reference to FIG. 5 and FIG. 6 can detect the distance to the object included in the forward image information when the existing calibration information set is determined to be normal. Thus, the camera system according to the third embodiment can prevent the distance to the object included in the forward image information from being detected incorrectly.

한편, 제1실시예에 따른 카메라 시스템 내지 제3실시예에 따른 카메라 시스템에 포함되는 추정부는 차량의 요우레이트정보 및 차량의 속도정보에 기초하여 차량의 곡률주행정보를 추정할 수 있다. Meanwhile, the estimating unit included in the camera system according to the first embodiment to the camera system according to the third embodiment can estimate the curvature running information of the vehicle based on the yaw rate information and the vehicle speed information of the vehicle.

자세히 설명하면, 추정부는 미리 설정된 차량의 주행모델(또는, 차량의 요우레이트정보 및 차량의 속도정보에 기반한 데이터맵)에 차량의 요우레이트정보 및 차량의 속도정보를 반영하여 차량의 곡률주행정보를 추정할 수 있다. 상기 차량의 주행모델은, 차량의 전장길이, 차량의 너비길이 등에 기초하여 미리 설정될 수 있다.More specifically, the estimating unit reflects the yaw rate information of the vehicle and the velocity information of the vehicle on the preset traveling model of the vehicle (or the yaw rate information of the vehicle and the data map based on the velocity information of the vehicle) Can be estimated. The running model of the vehicle can be set in advance based on the length of the vehicle, the width of the vehicle, and the like.

이를 위해, 차량정보 감지부는 차량의 요우레이트정보 및 차량의 속도정보를 더 감지할 수 있다.To this end, the vehicle information sensing unit may further detect the yaw rate information of the vehicle and the speed information of the vehicle.

또한, 제1실시예에 따른 카메라 시스템 내지 제3실시예에 따른 카메라 시스템에 포함되는 추정부는 타이어의 각정보에 기초하여 차량의 곡률주행정보를 추정할 수 있다.The estimating unit included in the camera system according to the first embodiment or the camera system according to the third embodiment can estimate the curvature running information of the vehicle based on each piece of information on the tire.

자세히 설명하면, 추정부는 미리 설정된 차량의 주행모델(또는, 타이어의 각정보에 기반한 데이터맵)에 타이어의 각정보를 반영하여 차량의 곡률주행정보를 추정할 수 있다. 상기 차량의 주행모델은, 차량의 전장길이, 차량의 너비길이 등에 기초하여 미리 설정될 수 있다.More specifically, the estimating unit can estimate the curvature running information of the vehicle by reflecting each information of the tire on a running model of the vehicle (or a data map based on each information of the tire) set in advance. The running model of the vehicle can be set in advance based on the length of the vehicle, the width of the vehicle, and the like.

이를 위해, 차량정보 감지부는 타이어의 각정보를 더 감지할 수 있다. 일 예를 들어, 차량정보 감지부는 차량의 타이어 양쪽의 휠속정보에 기반하여 타이어의 각정보를 감지할수 있다.To this end, the vehicle information sensing unit can further detect each piece of information of the tire. For example, the vehicle information sensing unit can sense each information of the tire based on the wheel information on both sides of the tire of the vehicle.

이하에서는 도 3 및 도 4를 이용하여 설명한 카메라 시스템이 수행하는 동작인 카메라 시스템의 캘리브레이션정보 조정방법에 대해서 간략하게 설명한다.Hereinafter, a method of adjusting calibration information of a camera system, which is an operation performed by the camera system described with reference to FIGS. 3 and 4, will be briefly described.

도 7은 제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 흐름을 도시한 도면이다.7 is a flowchart showing a calibration information adjustment method of the camera system according to the first embodiment.

도 7을 참조하면, 제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법은 생성된 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지단계(S700)와 차량의 헤딩각정보를 감지하는 차량정보 감지단계(S710)와 차량의 곡률주행정보를 추정하는 추정단계(S720)와 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 전방영상정보에서 차선의 추정교차점을 산출하는 산출단계(S730)와 차선의 교차점과 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림단계(S740) 및 차선의 교차점과 차선의 추정교차점의 차이가 허용치를 초과하면(S260 에서 YES), 차선의 교차점과 차선의 추정교차점의 차이를 허용치 이내로 하는 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성하고, 기존 캘리브레이션정보를 신규 캘리브레이션정보로 보정하는 보정단계(S750)를 포함할 수 있다.Referring to FIG. 7, the calibration information adjustment method of the camera system according to the first exemplary embodiment includes an image information sensing step of sensing distance information on a lane, curvature information of a lane, and an intersection of a lane on the basis of the generated front image information A step S710 of sensing the heading angle information of the vehicle, an estimation step S720 of estimating curvature driving information of the vehicle, a step S710 of sensing the curvature driving information of the vehicle, (S730) for calculating an estimated intersection point of the lane in the forward image information using the curvature information of the lane, the heading angle information of the vehicle, and the distance information between the lane and the lane if the amount of change in the distance information is less than the predetermined threshold distance information, And a notification step (S740) of notifying that the previously set calibration information is an error if the difference between the intersection of the lane and the estimated intersection of the lane exceeds the preset allowable value ) And a new second angle and a new second angle based on the difference between the estimated intersection of the lane and the estimated intersection of the lane exceeds the allowable value (YES in S260) And a correction step (S750) of generating calibration information and correcting the existing calibration information into new calibration information.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 영상정보 감지단계(S700)는 차량의 전방을 감시하는 영상감지장치(일 예를 들어, 카메라센서)로부터 생성된 전방영상정보에서 미리 알고 있는 차선정보(일 예를 들어, 차선의 색상정보, 차선의 너비정보, 차선의 길이정보 등)에 기초하여 차선을 감지하고, 감지된 차선에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지할 수 있다.The image information sensing step S700 of the calibration information adjustment method of the camera system according to the first embodiment may include a step S700 of sensing the front image information generated from the image sensing device (for example, a camera sensor) The lane information is detected based on the lane information (for example, color information of the lane, width information of the lane, length information of the lane, etc.), and based on the sensed lane, information on the distance to the lane, The intersection point of the intersection point.

상기 차선의 교차점은 원근법에 의해 평행하는 차선이 교차하는 것으로 보이는 점을 의미할 수 있다.The intersection of the above lanes may mean that a parallel lane intersects by perspective.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 차량정보 감지단계(S710)는 차량의 선회운동을 감지할 수 있는 센서의 감지값에 기초하여 차량의 헤딩각정보를 감지할 수 있다.The vehicle information sensing step S710 of the calibration information adjustment method of the camera system according to the first embodiment may sense the heading angle information of the vehicle based on the sensing value of the sensor capable of sensing the turning motion of the vehicle.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 추정단계(S720)는 차량의 선회운동을 감지할 수 있는 센서의 감지값에 기초하여 차량의 곡률주행정보를 감지할 수 있다.The estimating step S720 of the calibration information adjusting method of the camera system according to the first embodiment may detect the curvature running information of the vehicle based on the detection value of the sensor capable of detecting the turning motion of the vehicle.

일 예를 들어, 차량의 선회운동을 감지할 수 있는 센서는 조향각센서, 횡가속도센서 등을 포함할 수 있으며, 차량의 선회운동에 기초하여 차량의 헤딩각정보 및 차량의 곡률주행정보를 감지 또는 산출하는 자세한 방법은 기존의 모든 방법을 적용할 수 있다.For example, the sensor capable of detecting the turning motion of the vehicle may include a steering angle sensor, a lateral acceleration sensor, and the like. The sensor may detect the heading angle information of the vehicle and the curvature driving information of the vehicle based on the turning motion of the vehicle. All of the existing methods can be applied in detail.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 산출단계(S730)는 추정된 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 감지된 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 감지된 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 차량의 전방을 감시하는 영상감지장치로부터 생성된 전방영상정보에서 차선의 추정교차점을 산출할 수 있다.The calibration information calculation step (S730) of the camera system according to the first embodiment determines whether the amount of change in the curvature travel information of the estimated vehicle is equal to or less than the preset threshold curvature travel information and the amount of change in the distance information with respect to the sensed lane, The estimated intersection point of the lane can be calculated from the forward image information generated from the image sensing apparatus that monitors the front of the vehicle using the curvature information of the detected lane, the heading angle information of the vehicle, and the distance information with respect to the lane.

자세히 설명하면, 산출단계(S730)가 감지된 차선의 곡률정보, 차량의 헤딩각정보 및 차선과의 거리정보를 이용하여 차량의 전방을 감시하는 영상감지장치로부터 생성된 전방영상정보에서 차선의 추정교차점을 산출함에 있어 산출시간이 소요될 수 있다. More specifically, in the calculation step S730, the lane estimation is performed in the front image information generated from the image sensing apparatus for monitoring the front of the vehicle using the curvature information of the detected lane, the heading angle information of the vehicle, It may take a calculation time to calculate the intersection point.

이에, 산출단계(S730)가 차선의 추정교차점이 정확하게 산출하기 위해서는 상기 산출시간 동안 차선의 곡률정보, 차선의 헤딩각정보 및 차선과의 거리정보가 유지되어야 한다. Therefore, in order to correctly calculate the estimated intersection of the lane, the calculating step S730 should maintain the curvature information of the lane, the heading angle information of the lane, and the distance information to the lane during the calculation time.

즉, 산출단계(S730)는 정확한 차선의 추정교차점을 산출하기 위해 추정된 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 감지된 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하인 상황에서만 차선의 추정교차점을 산출할 수 있다.That is, in the calculating step S730, in order to calculate the estimated intersection point of the correct lane, the estimated amount of change in the curvature running information of the vehicle is equal to or less than the preset threshold curvature running information, and the amount of change in the distance information with respect to the sensed lane The estimated intersection point of the lane can be calculated.

이러한 추정교차점은 원근법에 의해 평행하는 차선이 교차하는 것으로 추정되는 점을 의미하는 것으로서, 아래에서 자세하게 서술할 캘리브레이션정보 등에 반영하여 추정한 것일 수 있다.This estimated intersection point means a point in which parallel lanes intersect by perspective, and may be estimated by reflecting the calibration information or the like to be described in detail below.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 알림단계(S740)는 감지된 차선의 교차점과 산출된 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알릴 수 있다.In the notification step S740 of the calibration information adjustment method of the camera system according to the first embodiment, if the difference between the intersection of the sensed lane and the estimated intersection of the calculated lane exceeds a preset allowable value, Can be informed.

캘리브레이션정보에 대해 자세히 설명하면, 생성된 영상정보에 포함된 물체에 대한 상세정보를 산출하기 위해 사용되는 정보로서, 기하학적인 관점에서 영상감지센서의 동작에 관련된 정보일 수 있다. 상기 상세정보는, 물체와의 거리, 물체의 길이 등을 포함할 수 있다.The calibration information may be information used for calculating detailed information on an object included in the generated image information, and may be information related to the operation of the image sensing sensor from a geometrical point of view. The detailed information may include a distance to an object, a length of the object, and the like.

제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법의 보정단계(S750)는 차선의 교차점과 차선의 추정교차점의 차이를 허용치 이내로 하는 신규 제1각 및 신규 제2각을 생성하고, 신규 제1각 및 신규 제2각에 전술한 수학식 1 내지 수학식 3에 기초하여 신규 캘리브레이션정보를 생성할 수 있다.The correction step S750 of the calibration information adjustment method of the camera system according to the first embodiment generates a new first angle and a new second angle that make the difference between the intersection of the lane and the estimated intersection of the lane within the permissible value, New calibration information can be generated based on the above-described equations (1) to (3) for the angle and the new second angle.

또는, 보정단계(S750)는 기존 캘리브레이션정보를 분해하여 기존 제1각 및 기존 제2각을 추출하고, 추출된 기존 제1각 및 기존 제2각 각각을 보정하여 생성한 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성할 수 있다.Alternatively, in the correction step S750, the existing first angle and the existing second angle are extracted by decomposing the existing calibration information, and the new first angle and the new first angle, which are generated by correcting the extracted first angle and the existing second angle, New calibration information can be generated based on the second angle.

자세히 설명하면, 기존 제1각 및 기존 제2각에서 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 크기는 영상정보 감지단계(S700)에서 감지된 차선의 교차점과 산출단계(S730)에서 산출된 추정교차점의 차이의 크기에 비례할 수 있다. In other words, the magnitude of each correction angle corrected for the new first angle and the new second angle in the existing first angle and the existing second angle is determined by the intersection of the lane detected in the image information sensing step S700 and the calculation step S730). ≪ / RTI >

또한, 기존 제1각 및 기존 제2각에서 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 방향은 영상정보 감지단계(S700)에서 감지된 차선의 교차점과 산출단계(S730)에서 산출된 추정교차점의 차이의 방향에 따라 결정될 수 있다.In addition, the directions of the respective correction angles corrected to the new first angle and the new second angle in the existing first angle and the existing second angle are determined by the intersection of the lane detected in the image information sensing step S700 and the calculation step S730, And the direction of the difference of the estimated intersection points calculated in the step of FIG.

이와 같이 보정단계(S750)가 기존 캘리브레이션정보를 분해하여 추출된 기존 제1각 및 기존 제2각에 기초함으로써 보다 빠르고 정확하게 신규 캘리브레이션정보를 생성할 수 있다.In this manner, the calibration step S750 can generate the new calibration information more quickly and accurately based on the existing first angle and the existing second angle extracted by disassembling the existing calibration information.

도 7을 이용하여 설명한 제1실시예에 따른 카메라 시스템의 캘리브레이션정보 조정방법은 설정된 기존 캘리브레이션정보가 에러로 판단되면 정상인 신규 캘리브레이션정보로 보정할 수 있다. The calibration information adjustment method of the camera system according to the first embodiment described with reference to FIG. 7 can correct the existing calibration information to be normal when the existing calibration information is determined to be an error.

이로써, 신규 캘리브레이션정보가 반영된 카메라 시스템은 전방영상정보에 포함된 물체의 상세정보를 정확하게 감지할 수 있는 효과가 있다. 상기 상세정보는, 물체와의 거리, 물체의 길이 등을 포함할 수 있다.Thus, the camera system reflecting the new calibration information has the effect of accurately detecting the detailed information of the object included in the forward image information. The detailed information may include a distance to an object, a length of the object, and the like.

이 외에도 카메라 시스템의 캘리브레이션정보 조정방법은 도 1 내지 도 6에 기초하여 설명한 카메라 시스템이 수행하는 각 동작을 모두 수행할 수 있다.In addition, the calibration information adjustment method of the camera system can perform all the operations performed by the camera system described with reference to Figs. 1 to 6.

이상에서의 설명 및 첨부된 도면은 본 실시예의 기술 사상을 예시적으로 나타낸 것에 불과한 것으로서, 본 발명이 속하는 기술 분야에서 통상의 지식을 가진 자라면 본 발명의 본질적인 특성에서 벗어나지 않는 범위에서 구성의 결합, 분리, 치환 및 변경 등의 다양한 수정 및 변형이 가능할 것이다. 따라서, 개시된 실시예들은 기술적 사상을 한정하기 위한 것이 아니라 설명하기 위한 것이고, 이러한 실시예에 의하여 기술적 사상의 범위가 한정되는 것은 아니다. 본 실시예들의 보호 범위는 아래의 청구범위에 의하여 해석되어야 하며, 그와 동등한 범위 내에 있는 모든 기술 사상은 본 발명의 권리범위에 포함되는 것으로 해석되어야 할 것이다. It will be apparent to those skilled in the art that various modifications and variations can be made in the present invention without departing from the spirit or scope of the present invention. Therefore, it is intended that the present invention cover the modifications and variations of this invention provided they come within the scope of the appended claims and their equivalents. , Separation, substitution, and alteration of the invention will be apparent to those skilled in the art. Therefore, the disclosed embodiments are intended to illustrate and not limit the technical idea, and the scope of the technical idea is not limited by these embodiments. The scope of protection of the embodiments should be interpreted according to the following claims, and all technical ideas within the scope of equivalents should be interpreted as being included in the scope of the present invention.

Claims (8)

전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지부;
차량의 헤딩각정보 및 타이어의 각정보를 감지하는 차량정보 감지부;
상기 타이어의 각정보에 기초하여 차량의 곡률주행정보를 추정하는 추정부;
상기 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 상기 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차량의 주행 조건이 일정하게 유지되고 있는 것으로 판단하고, 상기 차선의 곡률정보, 상기 차량의 헤딩각정보 및 상기 차선과의 거리정보를 이용하여 상기 전방영상정보에서 차선의 추정교차점을 산출하는 산출부;
상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림부; 및
상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 상기 허용치를 초과하면, 상기 차선의 교차점과 상기 차선의 추정교차점의 차이를 상기 허용치 이내로 하는 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성하고, 상기 기존 캘리브레이션정보를 상기 신규 캘리브레이션정보로 보정하는 보정부;를 포함하되,
상기 차선의 교차점은, 차량이 주행하는 주행 차로에서 평행한 두 차선이 원근법에 의해 교차되어 한 점에서 만나는 것으로 보이는 점이고,
상기 차선의 추정 교차점은, 차량이 주행하는 주행 차로에서 평행한 두 차선이 원근법에 의해 교차하는 것으로 추정되는 점이고,
상기 캘리브레이션정보는, 상기 전방영상정보에 포함된 물체에 대한 상세정보를 산출하기 위해 사용되는 정보이고,
상기 상세정보는, 상기 전방영상정보를 출력하는 영상감지장치가 감시하는 방향에서 상기 물체가 인지되는 정보이고,
상기 보정부는,
상기 기존 캘리브레이션정보를 분해하여 기존 제1각 및 기존 제2각을 추출하고, 상기 기존 제1각 및 기존 제2각 각각을 상기 신규 제1각 및 신규 제2각으로 보정하고,
상기 기존 제1각 및 기존 제2각에서 상기 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 크기는, 상기 차선의 교차점과 상기 추정교차점의 차이의 크기에 비례하고,
상기 각각의 보정각의 방향은, 상기 추정교차점을 기준으로 상기 추정교차점에서 상기 차선의 교차점으로 향하는 방향인 카메라 시스템.
An image information sensing unit for sensing distance information on the lane, curvature information of the lane, and an intersection of the lane on the basis of the forward image information;
A vehicle information sensing unit for sensing heading angle information of the vehicle and each information of the tire;
An estimating unit that estimates curvature running information of the vehicle based on each piece of information of the tire;
Judges that the running condition of the vehicle is kept constant if the amount of change in the curvature running information of the vehicle is equal to or less than the predetermined threshold curvature running information and the amount of change in the distance information with respect to the lane is equal to or less than preset threshold distance information, An estimated intersection point of the lane in the forward image information by using the curvature information of the vehicle, the heading angle information of the vehicle, and the distance information of the lane;
An informing unit informing that an existing preset calibration information is an error if a difference between an intersection of the lane and an estimated intersection of the lane exceeds a predetermined allowable value; And
Wherein when a difference between an intersection of the lane and an estimated intersection of the lane exceeds the tolerance, a difference between the intersection of the lane and the estimated intersection of the lane is set within the allowable range, And correcting the existing calibration information to the new calibration information,
The intersection of the lanes is a point where two parallel lanes in the driving lane on which the vehicle travels intersect at a point intersecting with the perspective,
The estimated intersection point of the lane is a point at which two parallel lanes in the driving lane on which the vehicle travels are estimated to cross by a perspective method,
The calibration information is information used to calculate detailed information on an object included in the forward image information,
Wherein the detailed information is information on which the object is recognized in a direction monitored by an image sensing apparatus that outputs the forward image information,
Wherein,
Extracting the existing first angle and the existing second angle by decomposing the existing calibration information, correcting each of the existing first angle and the existing second angle to the new first angle and the new second angle,
The magnitudes of the respective correction angles corrected to the new first angle and the new second angle in the existing first angle and the existing second angle are proportional to the magnitude of the difference between the intersection of the lane and the estimated intersection,
Wherein the direction of each of the correction angles is a direction from the estimated intersection point to an intersection of the lane based on the estimated intersection point.
삭제delete 삭제delete 제 1항에 있어서,
상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 상기 허용치 이내이면 상기 기존 캘리브레이션정보를 이용하여 상기 전방영상정보에 포함된 물체와의 거리를 감지하는 거리 감지부;
를 더 포함하는 카메라 시스템.
The method according to claim 1,
A distance sensing unit for sensing a distance to an object included in the forward image information using the existing calibration information if a difference between an intersection of the lane and an estimated intersection of the lane is within the tolerance;
The camera system further comprising:
제 1항에 있어서,
상기 차량정보 감지부는, 차량의 요우레이트정보 및 차량의 속도정보를 더 감지하고,
상기 추정부는,
차량의 요우레이트정보 및 차량의 속도정보에 기초하여 상기 차량의 곡률주행정보를 추정하는 것을 특징으로 하는 카메라 시스템.
The method according to claim 1,
Wherein the vehicle information sensing unit further senses yaw rate information and vehicle speed information of the vehicle,
Wherein the estimating unit comprises:
Estimating curvature running information of the vehicle based on yaw rate information of the vehicle and velocity information of the vehicle.
삭제delete 전방영상정보에 기초하여 차선과의 거리정보, 차선의 곡률정보 및 차선의 교차점을 감지하는 영상정보 감지단계;
차량의 헤딩각정보 및 타이어의 각정보를 감지하는 차량정보 감지단계;
상기 타이어의 각정보에 기초하여 차량의 곡률주행정보를 추정하는 추정단계;
상기 차량의 곡률주행정보의 변화량이 미리 설정된 임계곡률주행정보 이하이고 상기 차선과의 거리정보의 변화량이 미리 설정된 임계거리정보 이하이면, 차량의 주행 조건이 일정하게 유지되고 있는 것으로 판단하고, 상기 차선의 곡률정보, 상기 차량의 헤딩각정보 및 상기 차선과의 거리정보를 이용하여 상기 전방영상정보에서 차선의 추정교차점을 산출하는 산출단계;
상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 미리 설정된 허용치를 초과하면, 미리 설정된 기존 캘리브레이션정보가 에러임을 알리는 알림단계; 및
상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 상기 허용치를 초과하면, 상기 차선의 교차점과 상기 차선의 추정교차점의 차이가 상기 허용치 이내가 되도록 하는 신규 제1각 및 신규 제2각에 기초하여 신규 캘리브레이션정보를 생성하고, 상기 기존 캘리브레이션정보를 상기 신규 캘리브레이션정보로 보정하는 보정단계;를 포함하되,
상기 차선의 교차점은, 차량이 주행하는 주행 차로에서 평행한 두 차선이 원근법에 의해 교차되어 한 점에서 만나는 것으로 보이는 점이고,
상기 차선의 추정 교차점은, 차량이 주행하는 주행 차로에서 평행한 두 차선이 원근법에 의해 교차하는 것으로 추정되는 점이고,
상기 캘리브레이션정보는, 상기 전방영상정보에 포함된 물체에 대한 상세정보를 산출하기 위해 사용되는 정보이고,
상기 상세정보는, 상기 전방영상정보를 출력하는 영상감지장치가 감시하는 방향에서 상기 물체가 인지되는 정보이고,
상기 보정단계는,
상기 기존 캘리브레이션정보를 분해하여 기존 제1각 및 기존 제2각을 추출하고, 상기 기존 제1각 및 기존 제2각 각각을 상기 신규 제1각 및 신규 제2각으로 보정하고,
상기 기존 제1각 및 기존 제2각에서 상기 신규 제1각 및 신규 제2각으로 보정되는 각각의 보정각의 크기는, 상기 차선의 교차점과 상기 추정교차점의 차이의 크기에 비례하고,
상기 각각의 보정각의 방향은, 상기 추정교차점을 기준으로 상기 추정교차점에서 상기 차선의 교차점으로 향하는 방향인 카메라 시스템의 캘리브레이션정보 조정방법.
An image information sensing step of sensing the distance information to the lane, the curvature information of the lane, and the intersection of the lane based on the forward image information;
A vehicle information sensing step of sensing heading angle information of the vehicle and each information of the tire;
An estimating step of estimating curvature running information of the vehicle based on each piece of information of the tire;
Judges that the running condition of the vehicle is kept constant if the amount of change in the curvature running information of the vehicle is equal to or less than the predetermined threshold curvature running information and the amount of change in the distance information with respect to the lane is equal to or less than preset threshold distance information, Calculating an estimated intersection point of the lane in the forward image information using curvature information of the vehicle, heading angle information of the vehicle, and distance information between the lane and the lane;
An informing step of informing that an existing preset calibration information is an error if a difference between an intersection of the lane and an estimated intersection of the lane exceeds a predetermined allowable value; And
Based on the new first angle and the new second angle such that the difference between the intersection of the lane and the estimated intersection of the lane is within the tolerance when the difference between the intersection of the lane and the estimated intersection of the lane exceeds the allowable value And a calibration step of generating new calibration information and correcting the existing calibration information into the new calibration information,
The intersection of the lanes is a point where two parallel lanes in the driving lane on which the vehicle travels intersect at a point intersecting with the perspective,
The estimated intersection point of the lane is a point at which two parallel lanes in the driving lane on which the vehicle travels are estimated to cross by a perspective method,
The calibration information is information used to calculate detailed information on an object included in the forward image information,
Wherein the detailed information is information on which the object is recognized in a direction monitored by an image sensing apparatus that outputs the forward image information,
Wherein the correcting step comprises:
Extracting the existing first angle and the existing second angle by decomposing the existing calibration information, correcting each of the existing first angle and the existing second angle to the new first angle and the new second angle,
The magnitudes of the respective correction angles corrected to the new first angle and the new second angle in the existing first angle and the existing second angle are proportional to the magnitude of the difference between the intersection of the lane and the estimated intersection,
Wherein the direction of each of the correction angles is a direction from the estimated intersection point to an intersection of the lane on the basis of the estimated intersection point.
삭제delete
KR1020170014593A 2017-02-01 2017-02-01 Camera system and camera system included calibration adjusting method KR101979422B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020170014593A KR101979422B1 (en) 2017-02-01 2017-02-01 Camera system and camera system included calibration adjusting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020170014593A KR101979422B1 (en) 2017-02-01 2017-02-01 Camera system and camera system included calibration adjusting method

Publications (2)

Publication Number Publication Date
KR20180089812A KR20180089812A (en) 2018-08-09
KR101979422B1 true KR101979422B1 (en) 2019-05-16

Family

ID=63250990

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020170014593A KR101979422B1 (en) 2017-02-01 2017-02-01 Camera system and camera system included calibration adjusting method

Country Status (1)

Country Link
KR (1) KR101979422B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014658A (en) * 2020-07-29 2022-02-07 넥센타이어 주식회사 Method for Evaluating of Vehicle pull

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102628012B1 (en) 2018-10-23 2024-01-22 삼성전자주식회사 Method and apparatus of auto calibration
US10728461B1 (en) * 2019-01-31 2020-07-28 StradVision, Inc. Method for correcting misalignment of camera by selectively using information generated by itself and information generated by other entities and device using the same
KR20210148756A (en) 2020-06-01 2021-12-08 삼성전자주식회사 Slope estimating apparatus and operating method thereof

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3424334B2 (en) * 1994-06-21 2003-07-07 日産自動車株式会社 Roadway detection device
JP3508213B2 (en) * 1994-06-27 2004-03-22 マツダ株式会社 Vehicle running state determination device
KR101481134B1 (en) * 2013-05-10 2015-01-12 현대오트론 주식회사 System and method for estimating the curvature radius of autonomous vehicles using sensor fusion

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220014658A (en) * 2020-07-29 2022-02-07 넥센타이어 주식회사 Method for Evaluating of Vehicle pull
KR102479650B1 (en) 2020-07-29 2022-12-21 넥센타이어 주식회사 Method for Evaluating of Vehicle pull

Also Published As

Publication number Publication date
KR20180089812A (en) 2018-08-09

Similar Documents

Publication Publication Date Title
JP3922194B2 (en) Lane departure warning device
KR101979422B1 (en) Camera system and camera system included calibration adjusting method
EP3330147B1 (en) Method and apparatus for generating a driving route for an autonomous vehicle
US9538144B2 (en) Full speed lane sensing using multiple cameras
JP5733395B2 (en) In-vehicle image recognition apparatus, imaging axis adjustment apparatus, and lane recognition method
EP3581451A1 (en) Lane keeping assist system and method for improving safety in preceding vehicle follower longitudinal control
CN106447730B (en) Parameter estimation method and device and electronic equipment
US20140140577A1 (en) Eyelid detection device
EP3308353B1 (en) Vehicle diagnosis and camera adjustment using a detection of camera inclination angles
JP5065210B2 (en) Lane recognition device
US20180204074A1 (en) Estimating apparatus
US10853666B2 (en) Target object estimating apparatus
JP6911312B2 (en) Object identification device
US9930323B2 (en) Method of misalignment correction and diagnostic function for lane sensing sensor
JP5561469B2 (en) Yaw rate correction apparatus and method
JP6590988B1 (en) Lane marking recognition system
JP6690510B2 (en) Object recognition device
US20140240487A1 (en) Vehicle-to-vehicle distance calculation apparatus and method
JP6295524B2 (en) Optical axis correction device
KR101673716B1 (en) Apparatus and Method for Recognition of Drive Lane of Vehicle
JP3930309B2 (en) Vehicle driving support device
CN116091538A (en) Rear-of-trailer camera sensing mechanism and method
JP5193148B2 (en) Vehicle imaging device
KR102241324B1 (en) Method for Range Estimation with Monocular Camera for Vision-Based Forward Collision Warning System
KR102644324B1 (en) Autonomous driving apparatus and method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E90F Notification of reason for final refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)