KR102179835B1 - Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication - Google Patents
Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication Download PDFInfo
- Publication number
- KR102179835B1 KR102179835B1 KR1020180169636A KR20180169636A KR102179835B1 KR 102179835 B1 KR102179835 B1 KR 102179835B1 KR 1020180169636 A KR1020180169636 A KR 1020180169636A KR 20180169636 A KR20180169636 A KR 20180169636A KR 102179835 B1 KR102179835 B1 KR 102179835B1
- Authority
- KR
- South Korea
- Prior art keywords
- vehicle
- information
- lane
- fusion data
- generating
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 238000004891 communication Methods 0.000 title claims abstract description 30
- 238000004422 calculation algorithm Methods 0.000 title abstract description 3
- 230000004927 fusion Effects 0.000 claims abstract description 72
- 230000008859 change Effects 0.000 claims abstract description 70
- 230000006870 function Effects 0.000 claims description 14
- 238000012423 maintenance Methods 0.000 claims description 14
- 238000004590 computer program Methods 0.000 claims description 12
- 238000010801 machine learning Methods 0.000 claims description 12
- 230000001133 acceleration Effects 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 16
- 238000012545 processing Methods 0.000 description 12
- 230000008569 process Effects 0.000 description 9
- 238000001514 detection method Methods 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 238000005259 measurement Methods 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/18—Propelling the vehicle
- B60W30/18009—Propelling the vehicle related to particular drive situations
- B60W30/18163—Lane change; Overtaking manoeuvres
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/02—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W40/00—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
- B60W40/10—Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
- B60W40/105—Speed
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0287—Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096725—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/403—Image sensing, e.g. optical camera
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2420/00—Indexing codes relating to the type of sensors based on the principle of their operation
- B60W2420/40—Photo, light or radio wave sensitive means, e.g. infrared sensors
- B60W2420/408—Radar; Laser, e.g. lidar
-
- B60W2420/42—
-
- B60W2420/52—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2520/00—Input parameters relating to overall vehicle dynamics
- B60W2520/12—Lateral speed
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Y—INDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
- B60Y2300/00—Purposes or special features of road vehicle drive control systems
- B60Y2300/18—Propelling the vehicle
- B60Y2300/18008—Propelling the vehicle related to particular drive situations
- B60Y2300/18166—Overtaking, changing lanes
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Atmospheric Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Traffic Control Systems (AREA)
Abstract
무선통신을 포함한 차량센서 기반의 객체선정 알고리즘 및 주변차량 주행 의도를 고려한 경로 예측 방법 및 시스템을 개시한다. 일실시예에서 경로 예측 방법은, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계 및 상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계를 포함할 수 있다.Disclosed is a vehicle sensor-based object selection algorithm including wireless communication, and a route prediction method and system in consideration of driving intention of surrounding vehicles. In one embodiment, the route prediction method includes generating fusion data using information from a plurality of sensors associated with an own vehicle and information received through external communication, and the vehicle of interest using the generated fusion data. Selecting, determining a lane change intention of the selected vehicle of interest, and generating, by the at least one processor, a predicted path of the selected vehicle of interest according to the determined lane change intention. .
Description
아래의 설명은 무선통신을 포함한 차량센서 기반의 객체선정 알고리즘 및 주변차량 주행 의도를 고려한 경로 예측 방법 및 시스템에 관한 것이다.The following description relates to a vehicle sensor-based object selection algorithm including wireless communication, and a route prediction method and system in consideration of driving intentions of surrounding vehicles.
자율주행차는 운전자가 차량을 조작하지 않아도 스스로 주행하는 자동차를 의미한다. 일례로, 한국공개특허 제10-2018-0086632호는 자율주행 차량의 행동 결정 장치 및 방법에 관한 것으로, 자율주행 차량의 전방에 정지해 있는 객체가 있거나 또는 저속으로 주행하는 객체가 있는 경우, 도로의 주행상황에 맞는 정확한 판단을 할 수 있는, 자율주행 차량의 행동 결정 장치 및 방법을 개시하고 있다.An autonomous vehicle refers to a vehicle that runs on its own even if the driver does not operate the vehicle. For example, Korean Patent Laid-Open No. 10-2018-0086632 relates to an apparatus and method for determining the behavior of an autonomous vehicle. When there is an object standing in front of the autonomous vehicle or an object traveling at a low speed, the road Disclosed is an apparatus and method for determining the behavior of an autonomous vehicle that can accurately determine the driving situation of the vehicle.
한편, 자율주행 레벨2 수준의 ADAS(Advanced Driver Assistance System)를 포함하는 자동차들이 많이 보급되었지만, ADAS가 작동하려면 주변차량 및 주행도로환경 정보를 통하여 자차량의 주행경로에 속할 타겟 차량을 선정하는 기술이 요구된다. 최근 도로 곡률과 같은 도로환경을 반영하여 곡선도로에서도 선행 차량 추종능력을 향상시켰으나 주변차량이 자차량 주행경로로 차선변경을 할 경우, 타겟으로 선정한 차량이 갑작스럽게 바뀌게 되어 불필요한 감속이 발생하고 승차감 저하를 야기하는 문제점이 있다. 또한, 통신장비를 포함한 센서로부터 취득한 자차량 이외의 차량에 대한 데이터는 너무 많기 때문에 실시간 처리에는 하드웨어적 한계가 존재하는 문제점이 있다.On the other hand, many vehicles including ADAS (Advanced Driver Assistance System) at the level of autonomous driving level 2 have been popular, but for ADAS to work, technology that selects a target vehicle to belong to the driving path of the own vehicle through information on surrounding vehicles and driving road environment. Is required. Recently, road environment such as road curvature has been reflected to improve the ability to follow the preceding vehicle even on curved roads, but when a nearby vehicle changes lanes to the driving path of the own vehicle, the vehicle selected as the target suddenly changes, resulting in unnecessary deceleration and reduced ride comfort. There is a problem that causes. In addition, there is a problem in that there is a hardware limitation in real-time processing because there is too much data on vehicles other than the own vehicle acquired from sensors including communication equipment.
자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있는 경로 예측 방법, 상기 방법을 수행하는 컴퓨터 장치, 상기 컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.A route prediction method capable of predicting a highly reliable route by fusing information obtained from surrounding vehicles through V2X by the own vehicle, ADAS sensor and vehicle internal sensor data values, a computer device performing the method, the computer device and In combination, there is provided a computer program stored on a computer-readable recording medium and a recording medium therefor for executing the method on a computer device.
경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있는 경로 예측 방법, 상기 방법을 수행하는 컴퓨터 장치, 상기 컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.A path prediction method capable of reducing the computational load by defining a path prediction target object, a computer device that performs the method, a computer program combined with the computer device and stored in a computer-readable recording medium to execute the method on a computer device And its recording media.
적어도 하나의 프로세서를 포함하는 컴퓨터 장치의 경로 예측 방법에 있어서, 상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계를 포함하는 경로 예측 방법을 제공한다.A method for predicting a path of a computer device including at least one processor, wherein the at least one processor generates fusion data using information from a plurality of sensors associated with an own vehicle and information received through external communication. Generating; Selecting, by the at least one processor, a vehicle of interest using the generated fusion data; Determining a lane change intention of the selected vehicle of interest, by the at least one processor; And generating, by the at least one processor, a predicted route of the selected vehicle of interest according to the determined lane change intention.
일측에 따르면, 상기 융합 데이터를 생성하는 단계는, 제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계; 상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및 상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.According to one aspect, the generating of the fusion data includes: when current first information is received for a first vehicle through the external communication, generating fusion data using the first information; Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And when the second information does not exist without receiving the first information, generating fusion data using information from a plurality of sensors.
다른 측면에 따르면, 상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는, 상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고, 상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 할 수 있다.According to another aspect, the step of generating fusion data using information from the plurality of sensors includes generating the fusion data using a weighted average of the output values of each of the plurality of sensors, and The weight to be used may be determined using an reciprocal of an error covariance for an output value of each of the plurality of sensors.
또 다른 측면에 따르면, 상기 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함하고, 상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는, 상기 레이다, 상기 라이다 및 상기 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 상기 카메라를 이용하여 차선 정보를 검출하여 상기 융합 데이터를 생성하는 것을 특징으로 할 수 있다.According to another aspect, the plurality of sensors includes a radar, a lidar, and a camera, and generating fusion data using information from the plurality of sensors comprises: the radar, the It may be characterized in that the fusion data is generated by detecting neighboring vehicle information using a lidar and an output value of the camera, and detecting lane information using the camera.
또 다른 측면에 따르면, 상기 융합 데이터는 차량의 횡속도(Lateral Velocity) 및 차량의 차선과의 거리(Lateral Offset) 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the fusion data may include at least one of a lateral velocity of the vehicle and a lateral offset of the vehicle.
또 다른 측면에 따르면, 상기 관심 차량을 선정하는 단계는, 상기 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 상기 관심 차량으로서 선정하는 것을 특징으로 할 수 있다.According to another aspect, the selecting of the vehicle of interest may include selecting a vehicle having a center located in a plurality of preset regions around the host vehicle as the vehicle of interest.
또 다른 측면에 따르면, 상기 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함하는 것을 특징으로 할 수 있다.According to another aspect, the plurality of areas include a first area in a left lane in front of the host vehicle, a second area in a lane in front of the host vehicle, a third area in a right lane in front of the host vehicle, a fourth area in the left lane of the host vehicle, and It may be characterized in that it includes a fifth area in a right lane of the vehicle, a sixth area in a left lane behind the own vehicle, a seventh area in a rear lane of the own vehicle, and an eighth area in a right lane behind the own vehicle.
또 다른 측면에 따르면, 상기 복수의 영역들 중 상기 제4 영역 및 상기 제5 영역 각각의 길이는 상기 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 상기 자차량의 속도, 상기 자차량의 가속도 및 기설정된 임계값에 의해 결정되는 것을 특징으로 할 수 있다.According to another aspect, a length of each of the fourth and fifth regions among the plurality of regions is determined based on the length of the own vehicle, and the length of each of the remaining regions is the speed of the own vehicle and the It may be characterized in that it is determined by the acceleration of the own vehicle and a preset threshold.
또 다른 측면에 따르면, 상기 차선변경 의도를 결정하는 단계는, 실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 상기 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정하는 것을 특징으로 할 수 있다.According to another aspect, the determining of the lane change intention includes maintaining the lane of the selected vehicle of interest, changing the left lane, and changing the right lane using a machine learning model pre-learned through data on actual vehicles. It can be characterized by determining an intention for one.
또 다른 측면에 따르면, 상기 기계학습모델은 가우시안 커널 함수(Gaussian kernel function)를 이용하여 학습되는 것을 특징으로 할 수 있다.According to another aspect, the machine learning model may be trained using a Gaussian kernel function.
또 다른 측면에 따르면, 상기 예측 경로를 생성하는 단계는, 상기 선정된 관심 차량 중 상기 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성하는 단계; 및 상기 선정된 관심 차량 중 상기 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the predicted path may include: generating a lane change prediction path for a first vehicle that changes lanes to a lane of the own vehicle among the selected vehicles of interest; And generating a lane maintenance prediction path for a second vehicle traveling in a lane of the own vehicle among the selected vehicles of interest.
또 다른 측면에 따르면, 상기 차선변경 예측 경로를 생성하는 단계는, 상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하는 단계; 상기 제1 차량의 종방향 속도와 상기 제1 차량의 종방향 가속도에 기초하여 상기 제1 차량과 상기 자차량 사이의 종방향 거리를 예측하는 단계; 및 상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 상기 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 상기 제1 차량과 상기 자차량 사이의 횡방향 거리를 예측하는 단계를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the lane change prediction route may include: predicting a lane change time required based on a lateral distance and a lateral speed required for lane change of the first vehicle; Predicting a longitudinal distance between the first vehicle and the own vehicle based on a longitudinal speed of the first vehicle and a longitudinal acceleration of the first vehicle; And predicting a lateral distance between the first vehicle and the own vehicle using a lateral distance required for a lane change of the first vehicle, a time required for the lane change, and a sinusoidal function. I can.
또 다른 측면에 따르면, 상기 차선유지 예측 경로를 생성하는 단계는, 상기 제2 차량의 차선과의 거리, 상기 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률(Curvature) 및 도로 곡률의 변화율(Curvature rate) 중 적어도 하나에 기초하여 상기 차선유지 예측 경로를 생성하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the lane maintenance prediction route includes: a distance from the lane of the second vehicle, a heading angle error of the second vehicle, a curvature of a road, and a curvature of the road. It may be characterized in that the lane keeping prediction path is generated based on at least one of a curve rate of.
상기 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체를 제공한다.There is provided a computer-readable recording medium in which a computer program for executing the method is recorded on a computer device.
컴퓨터 장치와 결합하여 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.In combination with a computer device, there is provided a computer program stored on a computer-readable recording medium for executing the method on a computer device.
컴퓨터 장치에 있어서, 상기 컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하고, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하고, 상기 선정된 관심 차량의 차선변경 의도를 결정하고, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.A computer device comprising at least one processor embodied to execute an instruction readable by the computer device, by means of the at least one processor, through information and external communication from a plurality of sensors associated with the host vehicle Generates fusion data using received information, selects a vehicle of interest using the generated fusion data, determines a lane change intention of the selected vehicle of interest, and selects the selected interest according to the determined lane change intention It provides a computer device, characterized in that generating a predicted path of the vehicle.
자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있으며, 경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있다.By fusing the information obtained from surrounding vehicles through V2X, the ADAS sensor, and the information obtained by the vehicle internal sensor data value, the own vehicle can predict a highly reliable path, and reduce the computational load by limiting the target object for path prediction.
도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 경로 예측 시스템의 개괄적인 모습의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 센서부(210)의 내부 구성의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 의도판단부의 내부 구성의 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 자차량의 주행에 영향을 줄 수 있는 객체 후보군을 선정하기 위한 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 있어서, 차선변경 의도판단의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 경로 예측부의 내부 구성의 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 차선변경 경로예측의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 있어서, 차선유지 경로 예측의 예를 도시한 도면이다.
도 10은 본 발명의 일실시예에 있어서 차선유지 경로 예측을 위한 변수를 설명하기 위한 예를 도시하고 있다.
도 11 내지 도 13은 본 발명의 일실시예에 따른 경로 예측 방법의 예를 도시한 흐름도들이다.1 is a block diagram showing an example of a computer device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a general appearance of a route prediction system according to an embodiment of the present invention.
3 is a view showing an example of the internal configuration of the
4 is a view showing an example of the internal configuration of the intention determination unit according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example for selecting an object candidate group that may affect the driving of an own vehicle according to an embodiment of the present invention.
6 is a diagram showing an example of a lane change intention determination according to an embodiment of the present invention.
7 is a diagram illustrating an example of an internal configuration of a path prediction unit according to an embodiment of the present invention.
8 is a diagram showing an example of a lane change route prediction according to an embodiment of the present invention.
9 is a diagram illustrating an example of predicting a lane keeping route according to an embodiment of the present invention.
10 is a diagram illustrating an example for explaining a variable for predicting a lane keeping route according to an embodiment of the present invention.
11 to 13 are flowcharts illustrating an example of a path prediction method according to an embodiment of the present invention.
이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
본 발명의 실시예들에 따른 경로 예측 방법은, 이후 설명될 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 경로 예측 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 경로 예측 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. 여기서 설명한 컴퓨터 프로그램은 독립된 하나의 프로그램 패키지의 형태를 가질 수도 있고, 독립된 하나의 프로그램 패키지의 형태가 컴퓨터 장치에 기 설치되어 운영체제나 다른 프로그램 패키지들과 연계되는 형태를 가질 수도 있다. 한편, 이러한 컴퓨터 장치는 자율주행 차량에 배치, 설치 또는 위치될 수 있다.The route prediction method according to the embodiments of the present invention may be performed by a computer device to be described later. For example, a computer program according to an embodiment of the present invention may be installed and driven in a computer device, and the computer device may perform a path prediction method according to an embodiment of the present invention under control of the driven computer program. I can. The above-described computer program may be combined with a computer device and stored in a computer-readable recording medium to execute a path prediction method on the computer device. The computer program described herein may have a form of an independent program package, or a form of an independent program package may be pre-installed on a computer device to be linked to an operating system or other program packages. Meanwhile, such a computer device may be disposed, installed, or located in an autonomous vehicle.
도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 일례로, 본 발명의 실시예들에 따른 경로 예측 방법은 도 1에 도시된 컴퓨터 장치(100)에 의해 실행될 수 있다.1 is a block diagram showing an example of a computer device according to an embodiment of the present invention. For example, the path prediction method according to embodiments of the present invention may be executed by the
이러한 컴퓨터 장치(100)는 도 1에 도시된 바와 같이, 메모리(110), 프로세서(120), 통신 인터페이스(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다. 메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(100)의 메모리(110)에 로딩될 수 있다.As illustrated in FIG. 1, the
프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The
통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 장치(100)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 장치(100)의 통신 인터페이스(130)를 통해 컴퓨터 장치(100)로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 장치(100)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The
입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 장치(100)와 하나의 장치로 구성될 수도 있다.The input/
또한, 다른 실시예들에서 컴퓨터 장치(100)는 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(100)는 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments, the
통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 블루투스(Bluetooth)나 NFC(Near Field Communication)와 같은 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and not only a communication method using a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network) that the
본 발명의 실시예들에 따른 경로 예측 방법에서는 기존 종래기술들과는 달리, 자차량의 센서로부터 획득한 정보를 V2X(Vehicle to Everything)를 통해 주변 차량으로부터 BSM(Basic Safety Message)을 이용하여 획득한 다른 센서로부터의 정보와 융합하여 센서 융합 데이터를 제공할 수 있다. 또한, 본 발명의 실시예들에 따른 경로 예측 방법에서는 V2X의 단점인 통신 지연 및 느린 정보 갱신 속도를 보완하고자 다른 센서로부터 검출된 객체가 이전에도 검출된 객체인지를 확인하고 이전에도 검출된 객체라면, 해당 객체에 대한 과거 BSM 데이터 중에서 제원 정보만을 사용하여 다이나믹 모델을(dynamic model)을 칼만 필터(Kalman filter)에 이용함으로써, 센서 융합 데이터의 신뢰성을 향상시킬 수 있다. 이때 관심대상으로 삼는 주변차량은 특정 조건을 만족한 차량으로 그 수를 최대 m(m은 자연수로 일례로, 8)대로 한정하여 연산에 대한 부하를 줄일 수 있다. 또한, 본 발명의 실시예들에 따른 경로 예측 방법에서는 융합 데이터를 기반으로 기계학습을 이용하여 주변차량의 차선변경 여부를 판단하고, 자차량의 주행차선에 영향을 미치는 주변차량에 대해서 경로예측모델을 적용하여 연산에 대한 부하를 줄일 수 있다.In the route prediction method according to the embodiments of the present invention, unlike the existing prior art, the information obtained from the sensor of the own vehicle is obtained by using a Basic Safety Message (BSM) from surrounding vehicles through V2X (Vehicle to Everything). It is possible to provide sensor fusion data by fusion with information from the sensor. In addition, in the route prediction method according to the embodiments of the present invention, in order to compensate for the communication delay and slow information update speed, which are disadvantages of V2X, it is checked whether the object detected from another sensor is an object that has been detected before, , It is possible to improve the reliability of sensor fusion data by using a dynamic model for a Kalman filter by using only specification information among past BSM data for a corresponding object. At this time, the number of surrounding vehicles that are the target of interest are vehicles that satisfy a specific condition and limit the number of vehicles to the maximum m (where m is a natural number, for example, 8), thereby reducing the load on calculation. In addition, in the route prediction method according to the embodiments of the present invention, based on fusion data, machine learning is used to determine whether a lane change of a neighboring vehicle is determined, and a path prediction model for a neighboring vehicle that affects the driving lane of the own vehicle. The load on the operation can be reduced by applying.
도 2는 본 발명의 일실시예에 따른 경로 예측 시스템의 개괄적인 모습의 예를 도시한 도면이다. 본 실시예에 따른 경로 예측 시스템(200)은 센서부(210), 의도판단부(220) 및 경로 예측부(230)를 포함할 수 있다.FIG. 2 is a diagram illustrating an example of a general appearance of a route prediction system according to an embodiment of the present invention. The
센서부(210)는 V2X와 ADAS 센서를 이용하여 주변차량 및 환경에 대한 정보를 획득할 수 있으며, 획득한 정보를 이용하여 융합 데이터를 생성할 수 있다.The
의도판단부(220)는 생성한 융합 데이터를 가지고 기계학습을 이용하여 주변차량의 차선변경 의도를 판단할 수 있다.The
또한, 경로 예측부(230)는 의도판단 결과에 따라 달라지는 경로예측 방법을 처리할 수 있다.In addition, the
일실시예에서, 경로 예측 시스템(200)은 도 1을 통해 설명한 컴퓨터 장치(100)를 포함할 수 있다. 예를 들어, 컴퓨터 장치(100)는 자율주행 차량의 경로 예측 시스템(200)에 포함될 수 있으며, 이러한 경로 예측 시스템(200)이 포함하는 센서들과 연계될 수 있다.In one embodiment, the
도 3은 본 발명의 일실시예에 따른 센서부(210)의 내부 구성의 예를 도시한 도면이다. 센서부(210)는 레이다(310), 라이다(320), 카메라(330) 및 V2X(340)를 통해 데이터를 수집할 수 있으며, 주변차량 정보 검출 모듈(350), 차선 정보 검출 모듈(360) 및 센서 정보 융합 모듈(370)을 포함할 수 있다. 실시예에 따라 센서부(210)는 레이다(310), 라이다(320), 카메라(330) 및 V2X(340)를 직접 포함할 수도 있으나, 레이다(310), 라이다(320), 카메라(330) 및 V2X(340) 중 적어도 하나가 센서부(210)와는 개별적으로 형성(일례로, 자율주행 차량에 탑재)되어 센서부(210)와 통신하는 형태로 구현될 수도 있다. 여기서, 도 3에 도시된 "ρ"는 상대거리를, "θ"는 각도를, "v"는 상대속도를, "x"는 횡방향 좌표를, "y"는 종방향 좌표를, "α"는 가속도를, "W obj "는 객체 넓이를 각각 의미할 수 있다. 또한, "W lane "은 차선의 넓이를, "ρ lane "은 도로 곡률을 각각 의미할 수 있으며, "ψ"는 요 각도를 의미할 수 있다.3 is a view showing an example of the internal configuration of the
주변차량 정보 검출 모듈(350)은 레이다(310), 라이다(320) 및 카메라(330)를 통해 수집되는 정보를 이용하여 주변차량의 위치, 속도, 가속도 및/또는 크기(주변차량의 길 및/또는 폭) 등의 주변차량 정보를 검출할 수 있다.The surrounding vehicle
차선 정보 검출 모듈(360)은 카메라(330)를 이용하여 도로 곡률, 차선 폭 등의 차선 정보와 같은 주행 환경에 대한 정보를 획득할 수 있다.The lane
또한, 센서부(210)는 앞서 설명한 바와 같이, V2X(340)를 통해 다른 센서들(일례로, 주변차량의 센서 및/또는 도로 상에 배치된 센서 등)로부터의 V2X 정보를 수집할 수 있다.In addition, as described above, the
이때, V2X(340)는 다른 센서들(레이다(310), 라이다(320) 및 카메라(330))의 비하여 데이터(V2X 정보)의 갱신 주기가 늦다는 단점이 있다. 그렇기 때문에 V2X 정보가 새로 수신되지 않았을 경우에는 V2X 정보를 활용할 수가 없다. 하지만, 현재 검출된 객체(주변차량)가 이전에도 검출된 이력이 있는 객체이고 해당 객체로부터 V2X 정보를 수신한 적이 있다면, 센서부(210)는 해당 객체의 타이어 코너링 강성, 질량 등과 같이 시간에 따라 변하지 않는 제원 정보를 재활용할 수 있다. 예를 들어 SAE(Society of Automotive Engineers) J2735 BSM 규격에 따르면 BSM part2 DF_VehicleData는 part1 이외의 정보를 활용하는 데이터 프레임이므로, 해당 프레임에 제원 정보를 담아 활용할 수 있다. 반대로, 센서부(210)는 V2X 정보가 수집된 경우에는 V2X 정보를 신뢰하고 사용할 수 있다. 이는 ADAS 센서로 계측한 객체에 대한 정보보다 V2X 정보의 신뢰성이 상대적으로 더 높기 때문이다.At this time, the
또한, 실시예에 따라 센서부(210)에서는 자차량에 내장된 차속센서, IMU(Inertial Measurement Unit) 등으로부터의 정보를 더 수집 및 활용할 수도 있다.In addition, according to an embodiment, the
센서 정보 융합 모듈(370)은 수집된 데이터를 융합하여 융합 데이터를 생성할 수 있다. 예를 들어, 융합 데이터는 아래 수학식 1에서 제시된 가중평균법을 이용하여 생성될 수 있다.The sensor
여기서, "x"는 데이터를 의미할 수 있다. 일례로, "x camera "는 카메라(330)를 통해 수집된 데이터를, "x radar "는 레이다(310)를 통해 수집된 데이터를, "x lidar "는 라이다(320)를 통해 수집된 데이터를 각각 의미할 수 있다. 또한, "x avg "는 수집된 데이터들의 가중평균을 의미할 수 있다. 이때, 가중치로 산정되는 ""는 오차 공분산의 역수(inverse of covariance matrix)를 의미할 수 있다. 이때, 수학식 1에서는 오차 공분산의 역수()를 가중치로 산정하기 때문에 오차 공분산이 큰 정보는 융합 데이터 형성에 낮게 반영될 수가 있고, 오차 공분산이 낮은 정보는 크게 반영될 수가 있게 된다. 추가적으로, 센서 정보 융합 모듈(370)에서는 환경 정보를 반영하여 기계학습법에 적용시키기 위한 특징값을 생성할 수도 있다.Here, " x " may mean data. For example, “ x camera ” refers to data collected through the
도 4는 본 발명의 일실시예에 따른 의도판단부의 내부 구성의 예를 도시한 도면이다. 이미 설명한 바와 같이, 의도판단부(220)는 주변차량의 차선변경 의도를 판단할 수 있다. 이러한 의도판단부(220)는 관심 차량 선정 모듈(410), 선학습(pre-training) 모듈(420) 및 의도판단 모듈(430)을 포함할 수 있다.4 is a view showing an example of the internal configuration of the intention determination unit according to an embodiment of the present invention. As already described, the
의도판단부(220)는 센서부(210)의 최종 단계인 센서 정보 융합 모듈(370)에서 산출한 융합 데이터와 특징값을 수신하여 기계학습을 통해 차선변경에 대한 주변차량의 의도를 판단할 수 있다. 이때 의도판단은 모든 객체에 대해서 진행하지 않고, 자차량의 주행에 영향을 줄 수 있는 후보군을 선별하여 진행될 수 있다. 의도판단에 사용되는 기계학습법으로는 SVM(Support Vector Machine)이 이용될 수 있으며, 출력값으로는 일례로 0(차선유지(Lane Keeping)), 1(좌측으로 차선변경(Left Lane Change)), 2(우측으로 차선변경(Right Lane Change))가 포함될 수 있다.The
도 5는 본 발명의 일실시예에 있어서, 자차량의 주행에 영향을 줄 수 있는 객체 후보군을 선정하기 위한 예를 도시한 도면이다. 자차량(510)의 주행에 영향을 줄 수 있는 영역은 도 5에 나타난 바와 같이 자차량(510) 주위의 8개 영역으로 나뉠 수 있다. 이때, 각 영역은 아래 표 1과 같이 설명될 수 있다.FIG. 5 is a diagram illustrating an example for selecting an object candidate group that may affect the driving of an own vehicle according to an embodiment of the present invention. As shown in FIG. 5, an area that can affect the driving of the
또한, 아래 표 2는 각 영역의 크기를 설명하고 있다. 여기서, t는 일정한 임계값(threshold)으로 조절될 수 있는 값이다.In addition, Table 2 below describes the size of each area. Here, t is a value that can be adjusted to a certain threshold.
도 4를 통해 설명한 관심 차량 선정 모듈(410)은 융합데이터를 이용하여 도 5에 나타난 관심 영역에 존재하는 관심 객체를 선정할 수 있다. 이때, 관심 차량 선정 모듈은 아래 수학식 2 및 수학식 3에 제시된 바와 같이 비용함수를 적용하여 각 영역별로 최대 하나의 객체가 포함되도록 관심 객체를 선정할 수 있다.The vehicle of
이때, 관심 차량 선정 모듈(410)은 객체의 중심이 어떤 영역에 속해있는지를 이용하여 해당 객체가 속한 영역을 결정할 수 있다. 따라서 관심 주변차량은 최대 8개로 한정될 수 있다.In this case, the vehicle-of-
도 6은 본 발명의 일실시예에 있어서, 차선변경 의도판단의 예를 도시한 도면이다. 관심 차량이 선정되면, 융합 데이터로부터 얻어지는 객체(선정된 관심 차량의 횡속도(Lateral Velocity), 차선과의 거리(Lateral Offset) 등이 의도판단 모듈(430)의 입력값으로 사용할 수 있다. 의도판단 모듈(430)은 선학습 모듈(420)을 통해 객체의 중심이 차선을 넘어갈 때(Lane change time), 차선변경이 이루어진다고 학습될 수 있으며, 윈도우 크기(window size)를 조절하여 언제 차선변경을 할 것인가에 대한 예측을 통해 주변차량의 차선변경에 대한 의도를 파악하도록 학습될 수 있다. 선학습 모듈(420)을 이용한 의도판단 모듈(430)의 학습에는 실제 차량들에 대한 데이터가 활용될 수 있으며, 또한 아래 수학식 4와 같은 가우시안 커널 함수(Gaussian kernel function)로 커널 트릭(kernel trick)을 사용할 수 있다. 커널 트릭은 저차원에서 해결되지 않는 문제가 고차원에서 해결되는 경우가 있기 때문에 고차원에서 문제를 푸는 방식을 말한다. SVM에서 사용되는 커널 트릭에는 동차다항식(homogeneous polynomial)과 비동차다항식(inhomogeneous polynomial), 그리고 상술한 가우시안 커널 함수가 대표적으로 사용되며, 기계학습모델의 학습을 위해 가우시안 커널 함수가 사용될 수 있다.6 is a diagram showing an example of a lane change intention determination according to an embodiment of the present invention. When a vehicle of interest is selected, an object (Lateral Velocity of the selected vehicle of interest, a lateral offset) obtained from the fusion data can be used as an input value of the
학습된 의도판단 모듈(430)은 선정된 관심 차량에 대해 얻어지는 차량의 횡속도(Lateral Velocity), 차선과의 거리(Lateral Offset) 등의 데이터를 입력받아 앞서 설명한 바와 같이 0(차선유지(Lane Keeping)), 1(좌측으로 차선변경(Left Lane Change)) 또는 2(우측으로 차선변경(Right Lane Change))의 출력값을 출력할 수 있다.The learned
도 7은 본 발명의 일실시예에 있어서, 경로 예측부의 내부 구성의 예를 도시한 도면이다. 경로 예측부(230)는 경로예측 객체 선정 모듈(710), 차선변경 경로 예측 모듈(720) 및 차선유지 경로 예측 모듈(730)을 포함할 수 있다.7 is a diagram illustrating an example of an internal configuration of a path prediction unit according to an embodiment of the present invention. The
경로예측 객체 선정 모듈(710)은 자차량에 영향을 줄 가능성이 있는 객체를 선정할 수 있다. 예를 들어, 경로예측 객체 선정 모듈(710)은 의도판단부(220)의 의도판단 결과에 따라, 자차량의 차로와 동일한 차로를 주행할 것으로 예측되는 객체를 선정할 수 있다.The path prediction
한편, 경로 예측부(230)는 경로예측 객체 선정 모듈(710)에서 선정된 객체의 경로를 예측할 수 있다. 이때, 차선변경 경로 예측 모듈(720)은 주변차량의 차선변경 의도를 판단하는 의도판단부(220)의 판단에 따라 선정된 객체의 경로를 차선유지 또는 차선변경(좌측 / 우측)으로 예측할 수 있다. 예를 들어, 경로예측 객체 선정 모듈(710)에 의해 선정된 객체에 대한 의도판단부(220)의 출력값이 0인 경우에는 차선유지의 경로를, 출력값이 1인 경우에는 좌측 차선변경의 경로를, 출력값이 2인 경우에는 우측 차선변경의 경로를 각각 예측할 수 있다.Meanwhile, the
도 8은 본 발명의 일실시예에 있어서, 차선변경 경로예측의 예를 도시한 도면이다. 도 8에서는 앞서 도 7을 통해 설명한 차선변경 경로 예측 모듈(720)에 사용되는 변수와 수식에 대해 설명하고 있다. 객체(810)가 차선 변경에 필요한 횡방향 거리(W des )는 아래 수학식 5에 나타난 바와 같이, 객체(810)가 인접한 차선과 떨어진 거리(W min )와 차선 폭의 절반()에 해당하는 거리의 합으로 계산될 수 있다.8 is a diagram showing an example of a lane change route prediction according to an embodiment of the present invention. In FIG. 8, variables and equations used in the lane change
등속도 모델이라 가정하고 수학식 5를 통해 얻어지는 횡방향 거리(W des )를 객체(810)의 횡방향 속도(V lat,obj )로 나누어 주면 아래 수학식 6과 같이 차선 변경 소요 시간(T total )을 구할 수 있다.Assuming that it is a constant velocity model, if the lateral distance ( W des ) obtained through Equation 5 is divided by the lateral speed ( V lat,obj ) of the
객체가 등가속도 운동을 한다고 가정하면, 센서부(210)의 융합 데이터에서 종방향에 상태값을 이용하여 아래 수학식 7과 같이 종방향 이동거리(x)를 구할 수 있다.Assuming that the object moves at an equivalent acceleration, the longitudinal movement distance ( x ) can be obtained as shown in Equation 7 below by using the state value in the longitudinal direction from the fusion data of the
이때, 차선 변경하는 객체에 대한 횡방향 거동모델을 아래 수학식 8과 같은 램프 사인곡선 함수(Ramp sinusoid function)라 하면, 시간에 따른 객체의 횡방향 거리(y)를 구할 수 있다.In this case, if the lateral behavior model for the object changing lanes is a ramp sinusoid function as shown in Equation 8 below, the lateral distance y of the object over time can be obtained.
차선유지 경로 예측 모듈(730)은 현재 차선을 유지하도록 객체가 주행하고 있는 차선의 궤적과 동일한 예측경로를 생성할 수 있다.The lane maintenance
도 9는 본 발명의 일실시예에 있어서, 차선유지 경로 예측의 예를 도시한 도면이다. 객체(910)가 주행하고 있는 차선 정보는 센서부(210)에서 검출한 자차량이 주행하고 있는 차선 정보를 기반으로 할 수 있다. 이때, 수집되는 차선 정보는 객체(910)와 차선과의 거리(Lateral Offset), 객체(910)의 주행방향 기울기 오차(Heading angle error), 도로 곡률(Curvature) 및/또는 도로 곡률의 변화율(Curvature rate)를 포함할 수 있다. 도 9에서는 객체(910)가 기존 경로가 아닌 차선을 유지하기 위한 경로를 예측하는 예를 나타내고 있다.9 is a diagram illustrating an example of predicting a lane keeping route according to an embodiment of the present invention. The information on the lane on which the
도 10은 본 발명의 일실시예에 있어서 차선유지 경로 예측을 위한 변수를 설명하기 위한 예를 도시하고 있다. 도 10은 아래 수학식 9 및 수학식 10의 변수들을 설명하고 있다.10 is a diagram illustrating an example for explaining a variable for predicting a lane keeping route according to an embodiment of the present invention. 10 illustrates the variables of Equations 9 and 10 below.
이때, 도 10에서 C 0는 객체(910)와 차선과의 거리를, C 1은 객체(910)의 주행방향 기울기 오차를, C 2는 도로 곡률을, C 3은 도로 곡률의 변화율을 각각 의미할 수 있다. 또한, 도 10에서 "R"은 도로 곡률 반경을, "e y "는 횡방향 오프셋을 각각 의미할 수 있다.At this time, in FIG. 10, C 0 denotes the distance between the
이처럼, 본 발명의 실시예들에 따르면, 자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있으며, 경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있다.As described above, according to embodiments of the present invention, a highly reliable route can be predicted by fusing information obtained from surrounding vehicles, ADAS sensor, and vehicle internal sensor data value through V2X, and route prediction target object It is possible to reduce the operation load by limiting
도 11 내지 도 13은 본 발명의 일실시예에 따른 경로 예측 방법의 예를 도시한 흐름도들이다. 본 실시예에 따른 경로 예측 방법은 일례로 앞서 설명한 컴퓨터 장치(100)에 의해 수행될 수 있다. 예를 들어, 컴퓨터 장치(100)의 프로세서(120)는 메모리(110)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)는 컴퓨터 장치(100)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(100)가 도 11 내지 도 13의 방법이 포함하는 단계들(1110 내지 1180, 1210 내지 1240 및 1310 내지 1330)을 수행하도록 컴퓨터 장치(100)를 제어할 수 있다. 일례로, 도 11의 단계들(1110 내지 1180)은 센서부(210)에 의해, 도 12의 단계들(1210 내지 1240)은 의도판단부(220)에 의해, 도 13의 단계들(1310 내지 1330)은 경로 예측부(230)에 의해 각각 수행될 수 있다.11 to 13 are flowcharts illustrating an example of a path prediction method according to an embodiment of the present invention. The path prediction method according to the present embodiment may be performed by the
단계(1110)에서 컴퓨터 장치(100)는 현재 V2X가 수신되는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 V2X 정보가 수신되는 경우에는 단계(1120) 및 단계(1130)을, V2X 정보가 수신되지 않는 경우에는 단계(1140)를 각각 수행할 수 있다.In
단계(1120) 및 단계(1130)은 컴퓨터 장치(100)가 현재 수신된 V2X 정보를 이용하여 융합 데이터를 생성하는 과정의 예를 나타내고 있다. 앞서 설명한 바와 같이, ADAS 센서로 계측한 객체에 대한 정보보다 V2X 정보의 신뢰성이 상대적으로 더 높기 때문에 V2X 정보가 수신되는 경우, 컴퓨터 장치(100)는 레이다(310), 라이다(320) 및 카메라(330) 등과 같은 ADAS 센서를 활용하는 대신 V2X 정보를 이용하여 융합 데이터를 생성할 수 있다.
단계(1140)에서 컴퓨터 장치(100)는 현재 객체가 이전에 검출된 객체인지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 현재 객체가 이전에 검출된 객체인 경우, 단계(1150), 단계(1160) 및 단계(1130)을, 현재 객체가 이전에 검출된 객체가 아닌 경우에는 단계(1170), 단계(1180) 및 단계(1130)을 각각 수행할 수 있다.In step 1140, the
단계(1150), 단계(1160) 및 단계(1130)는 컴퓨터 장치(100)가 이전에 수신된 V2X 정보를 이용하여 동적 모델(Dynamic model)을 통해 융합 데이터를 생성하는 과정의 예일 수 있다. 앞서 설명한 바와 같이, 센서부(210)는 현재 검출된 객체(주변차량)가 이전에도 검출된 이력이 있는 객체이고 해당 객체로부터 V2X 정보를 수신한 적이 있다면, 센서부(210)는 해당 객체의 타이어 코너링 강성, 질량 등과 같이 시간에 따라 변하지 않는 제원 정보를 재활용할 수 있다. 다시 말해, 컴퓨터 장치(100)는 이전에 수신된 V2X 정보를 이용하여 융합 데이터를 생성할 수 있다.
단계(1170), 단계(1180) 및 단계(1130)는 컴퓨터 장치(100)가 새로운 객체에 대해 운동학적 모델(Kinematic model)을 이용하여 융합 데이터를 생성하는 과정의 예일 수 있다. 여기서 운동학적 모델은 레이다(310), 라이다(320), 카메라(330) 및/또는 자차량에 내장된 차속센서, IMU(Inertial Measurement Unit) 등의 ADAS 센서를 활용하여 객체에 대한 정보를 획득하는 모델일 수 있다.
이처럼, 센서부(210)에서 검출한 자차량 주변의 객체와 환경에 대한 데이터를 융합함에 있어서, ADAS 센서로만 객체를 감지했을 경우보다 무선 통신을 통하여 전달받은 객체 정보(V2X 정보)의 신뢰성이 더 크다는 점과 무선 통신을 이용할 경우 객체 정보가 갱신되는데 ADAS 센서보다 소요되는 시간이 길다는 점을 모두 반영하여 융합 데이터를 생성할 수 있다.In this way, in fusing the data on the environment and the object around the host vehicle detected by the
다시 말해, 컴퓨터 장치(100)는 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성할 수 있다. 이때, 컴퓨터 장치(100)는 제1 차량에 대해 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 제1 정보를 이용하여 융합 데이터를 생성할 수 있다. 또한, 컴퓨터 장치(100)는 제1 정보가 수신되지 않으면서 제1 객체에 대해 이전에 수신된 제2 정보가 존재하는 경우, 제2 정보를 이용하여 융합 데이터를 생성할 수 있다. 또한, 컴퓨터 장치(100)는 제1 정보가 수신되지 않으면서 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성할 수 있다. 이때, 컴퓨터 장치(100)는 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성함에 있어서, 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 융합 데이터를 생성할 수 있다. 이 경우, 가중평균에 이용되는 가중치는 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정될 수 있다. 보다 구체적으로 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함할 수 있으며, 컴퓨터 장치(100)는 레이다, 라이다 및 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 카메라를 이용하여 차선 정보를 검출하여 융합 데이터를 생성할 수 있다. 이때, 융합 데이터는 차량의 횡속도 및 차량의 차선과의 거리 중 적어도 하나를 포함할 수 있다.In other words, the
단계(1210)에서 컴퓨터 장치(100)는 객체가 관심 영역에 존재하는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 객체가 관심 영역에 존재하는 경우에는 단계(1220)을 수행할 수 있으며, 객체가 관심 영역에 존재하지 않는 경우에는 경로를 예측할 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다. 이 경우, 컴퓨터 장치(100)는 관심 영역에 존재하는 차량을 관심 차량으로 선정할 수 있다. 예를 들어, 컴퓨터 장치(100)는 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 관심 차량으로서 선정할 수 있다. 여기서, 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함할 수 있다. 일례로, 복수의 영역들 중 제4 영역 및 제5 영역 각각의 길이는 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 자차량의 속도, 자차량의 가속도 및 기설정된 임계값에 의해 결정될 수 있다. 각 영역의 폭은 차선의 폭에 대응할 수 있다.In
단계(1220)에서 컴퓨터 장치(100)는 객체가 차선을 변경하는지 여부를 결정할 수 있다. 일례로, 도 4에서는 선학습 모듈(420)에 의해 학습된 의도판단 모듈(430)이 관심 차량 선정 모듈(410)에 의해 관심 객체(관심 영역에 존재하는 객체)의 차선변경의 의도를 판단하는 실시예를 설명한 바 있다. 이때, 컴퓨터 장치(100)는 객체가 차선을 변경하는 경우에는 단계(1130)를, 객체가 차선을 변경하지 않는 경우에는 단계(1140)를 각각 수행할 수 있다.In
단계(1130)에서 컴퓨터 장치(100)는 객체가 자차량 차선으로 차선을 변경하는지 여부를 결정할 수 있다. 다시 말해, 객체가 자차량 차선으로 변경하려는 의도가 존재하는 것으로 판단되는 경우, 컴퓨터 장치(100)는 단계(1310) 및 단계(1330)를 수행할 수 있고, 객체가 자차량 차선으로 변경하려는 의도가 존재하지 않는 것으로 판단되는 경우에는 해당 객체의 경로에 대해 관심을 가질 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다.In
단계(1310) 및 단계(1330)은 컴퓨터 장치(100)가 객체의 차선변경에 따른 예측 경로를 생성하는 과정의 예일 수 있다. 다시 말해, 컴퓨터 장치(100)는 관심 객체(관심 영역에 존재하는 객체)가 자차량 차선으로 차선을 변경하는 경우에만 예측 경로를 생성할 수 있다.
한편, 단계(1140)에서 컴퓨터 장치(100)는 객체가 자차량 차선에서 주행하고 있는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 객체가 자차량 차선(자차량의 앞 또는 뒤)에서 주행하고 있는 경우에는 단계(1320) 및 (1330)을 수행할 수 있고, 객체가 자차량 차선(자차량의 앞 또는 뒤)에서 주행하고 있지 않은 경우(일례로, 자차량 차선이 아닌 다른 차선으로 차선을 변경하고 있는 경우)에는 해당 객체의 경로에 대해 관심을 가질 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다.Meanwhile, in step 1140, the
단계(1320) 및 단계(1330)은 컴퓨터 장치(100)가 객체의 차선유지에 따른 예측 경로를 생성하는 과정의 예일 수 있다. 이러한 차선유지에 따른 예측 경로를 생성하는 과정은 도 9 및 도 10을 통해 이미 설명한 바 있다.
차선변경 의도를 결정하기 위해, 컴퓨터 장치(100)는 실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정할 수 있다. 이때, 기계학습모델은 가우시안 커널 함수를 이용하여 학습될 수 있다.In order to determine the intention to change lanes, the
한편, 컴퓨터 장치(100)는 이미 설명한 바와 같이, 예측 경로를 생성하기 위해, 선정된 관심 차량 중 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성할 수 있으며, 선정된 관심 차량 중 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성할 수 있다. 컴퓨터 장치(100)는 차선변경 예측 경로를 생성하기 위해, 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하고, 제1 차량의 종방향 속도와 제1 차량의 종방향 가속도에 기초하여 제1 차량과 자차량 사이의 종방향 거리를 예측하고, 제1 차량의 차선 변경에 필요한 횡방향 거리와 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 제1 차량과 자차량 사이의 횡방향 거리를 예측할 수 있다. 또한, 컴퓨터 장치(100)는 제2 차량의 차선과의 거리, 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률 및/또는 도로 곡률의 변화율 에 기초하여 차선유지 예측 경로를 생성할 수 있다.Meanwhile, as already described, the
이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined, but is not limited to a medium directly connected to a computer system, and may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks, and And a ROM, RAM, flash memory, and the like, and may be configured to store program instructions. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or storage medium managed by a server. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.
그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.
Claims (15)
상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계
를 포함하고,
상기 융합 데이터를 생성하는 단계는,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계
를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 하는 경로 예측 방법.In the path prediction method of a computer device including at least one processor,
Generating, by the at least one processor, fusion data using information from a plurality of sensors associated with the own vehicle and information received through external communication;
Selecting, by the at least one processor, a vehicle of interest using the generated fusion data;
Determining a lane change intention of the selected vehicle of interest, by the at least one processor; And
Generating, by the at least one processor, a predicted path of the selected vehicle of interest according to the determined lane change intention
Including,
The step of generating the fusion data,
Generating fusion data using the first information when current first information is received for the first vehicle through the external communication;
Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And
When the first information is not received and the second information does not exist, generating fusion data using information from a plurality of sensors
Including,
Generating the fusion data using the information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined by using an inverse number of an error covariance with respect to the output values of each of the plurality of sensors.
상기 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 레이다, 상기 라이다 및 상기 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 상기 카메라를 이용하여 차선 정보를 검출하여 상기 융합 데이터를 생성하는 것을 특징으로 하는 경로 예측 방법.The method of claim 1,
The plurality of sensors includes a radar, a lidar, and a camera,
Generating the fusion data using the information from the plurality of sensors,
And generating the fusion data by detecting surrounding vehicle information using the radar, the lidar, and output values of the camera, and detecting lane information using the camera.
상기 융합 데이터는 차량의 횡속도(Lateral Velocity) 및 차량의 차선과의 거리(Lateral Offset) 중 적어도 하나를 포함하는 것을 특징으로 하는 경로 예측 방법.The method of claim 1,
The fusion data includes at least one of a lateral velocity of the vehicle and a lateral offset of the vehicle.
상기 관심 차량을 선정하는 단계는,
상기 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 상기 관심 차량으로서 선정하는 것을 특징으로 하는 경로 예측 방법.The method of claim 1,
The step of selecting the vehicle of interest,
And selecting a vehicle whose center is located in a plurality of predetermined regions around the host vehicle as the vehicle of interest.
상기 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함하는 것을 특징으로 하는 경로 예측 방법.The method of claim 6,
The plurality of areas are a first area in the front left lane of the own vehicle, a second area in the front lane of the own vehicle, a third area in the front right lane of the own vehicle, a fourth area in the left lane of the own vehicle, and a fifth in the right lane of the own vehicle. A route prediction method comprising: a region, a sixth region of a rear left lane of the subject vehicle, a seventh region of a rear lane of the subject vehicle, and an eighth region of a rear right lane of the subject vehicle.
상기 복수의 영역들 중 상기 제4 영역 및 상기 제5 영역 각각의 길이는 상기 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 상기 자차량의 속도, 상기 자차량의 가속도 및 기설정된 임계값에 의해 결정되는 것을 특징으로 하는 경로 예측 방법.The method of claim 7,
The length of each of the fourth and fifth areas among the plurality of areas is determined based on the length of the host vehicle, and the length of each of the remaining areas is determined by the speed of the host vehicle, the acceleration of the host vehicle, and A route prediction method, characterized in that it is determined by a set threshold.
상기 차선변경 의도를 결정하는 단계는,
실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 상기 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정하는 것을 특징으로 하는 경로 예측 방법.The method of claim 1,
The step of determining the lane change intention,
And determining an intention for one of lane maintenance, left lane change, and right lane change of the selected vehicle of interest by using a machine learning model pre-learned through data on actual vehicles.
상기 기계학습모델은 가우시안 커널 함수(Gaussian kernel function)를 이용하여 학습되는 것을 특징으로 하는 경로 예측 방법.The method of claim 9,
The machine learning model is a path prediction method, characterized in that the learning using a Gaussian kernel function (Gaussian kernel function).
상기 예측 경로를 생성하는 단계는,
상기 선정된 관심 차량 중 상기 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성하는 단계; 및
상기 선정된 관심 차량 중 상기 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성하는 단계
를 포함하는 것을 특징으로 하는 경로 예측 방법.The method of claim 9,
Generating the prediction path,
Generating a lane change prediction route for a first vehicle that changes lanes to a lane of the own vehicle among the selected vehicles of interest; And
Generating a lane maintenance prediction route for a second vehicle traveling in a lane of the own vehicle among the selected vehicles of interest
Path prediction method comprising a.
상기 차선변경 예측 경로를 생성하는 단계는,
상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하는 단계;
상기 제1 차량의 종방향 속도와 상기 제1 차량의 종방향 가속도에 기초하여 상기 제1 차량과 상기 자차량 사이의 종방향 거리를 예측하는 단계; 및
상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 상기 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 상기 제1 차량과 상기 자차량 사이의 횡방향 거리를 예측하는 단계
를 포함하는 것을 특징으로 하는 경로 예측 방법.The method of claim 11,
Generating the lane change prediction path,
Predicting a lane change time required based on a lateral distance and a lateral speed required for lane change of the first vehicle;
Predicting a longitudinal distance between the first vehicle and the own vehicle based on a longitudinal speed of the first vehicle and a longitudinal acceleration of the first vehicle; And
Estimating a lateral distance between the first vehicle and the own vehicle using a lateral distance required for a lane change of the first vehicle, a time required for the lane change, and a sinusoidal function
Path prediction method comprising a.
상기 차선유지 예측 경로를 생성하는 단계는,
상기 제2 차량의 차선과의 거리, 상기 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률(Curvature) 및 도로 곡률의 변화율(Curvature rate) 중 적어도 하나에 기초하여 상기 차선유지 예측 경로를 생성하는 것을 특징으로 하는 경로 예측 방법.The method of claim 11,
The step of generating the lane maintenance prediction path,
The lane maintenance prediction path based on at least one of a distance to the lane of the second vehicle, a heading angle error of the second vehicle, a curvature of a road, and a curvature rate of the road A route prediction method, characterized in that to generate a.
상기 경로 예측 방법은,
자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계;
상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및
상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계
를 포함하고,
상기 융합 데이터를 생성하는 단계는,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계
를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 하는 컴퓨터 프로그램.A computer program coupled with a computer device and stored in a computer-readable recording medium to execute a path prediction method on the computer device,
The route prediction method,
Generating fusion data using information received through external communication and information from a plurality of sensors associated with the own vehicle;
Selecting a vehicle of interest using the generated fusion data;
Determining a lane change intention of the selected vehicle of interest; And
Generating a predicted path of the selected vehicle of interest according to the determined lane change intention
Including,
The step of generating the fusion data,
When current first information is received for a first vehicle through the external communication, generating fusion data using the first information;
Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And
When the first information is not received and the second information does not exist, generating fusion data using information from a plurality of sensors
Including,
Generating the fusion data using the information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined using an inverse number of an error covariance for the output values of each of the plurality of sensors.
상기 컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서에 의해,
자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하고,
상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하고,
상기 선정된 관심 차량의 차선변경 의도를 결정하고,
상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하고,
상기 융합 데이터를 생성하기 위해,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하고,
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하고,
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하기 위해,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것
을 특징으로 하는 컴퓨터 장치.In the computer device,
At least one processor embodied to execute instructions readable by the computer device
Including,
By the at least one processor,
Fusion data is generated by using information from a plurality of sensors linked to the host vehicle and information received through external communication,
Selecting a vehicle of interest using the generated fusion data,
Determine the lane change intention of the selected vehicle of interest,
Generate a predicted path of the selected vehicle of interest according to the determined lane change intention,
To generate the fusion data,
When current first information is received for the first vehicle through the external communication, fusion data is generated using the first information,
When the second information previously received for the first vehicle is present without receiving the first information, fusion data is generated using the second information,
When the first information is not received and the second information does not exist, fusion data is generated using information from a plurality of sensors,
To generate fusion data using information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined by using the inverse of the error covariance for the output values of each of the plurality of sensors.
Computer device, characterized in that.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180169636A KR102179835B1 (en) | 2018-12-26 | 2018-12-26 | Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020180169636A KR102179835B1 (en) | 2018-12-26 | 2018-12-26 | Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20200084440A KR20200084440A (en) | 2020-07-13 |
KR102179835B1 true KR102179835B1 (en) | 2020-11-17 |
Family
ID=71570771
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020180169636A KR102179835B1 (en) | 2018-12-26 | 2018-12-26 | Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102179835B1 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019214482A1 (en) * | 2019-09-23 | 2021-03-25 | Robert Bosch Gmbh | Method for the safe, at least partially automated, driving of a motor vehicle |
KR102444675B1 (en) * | 2021-06-24 | 2022-09-20 | (주)뷰런테크놀로지 | Apparatus and method for predicting lane-change of surrounding objects |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307972A (en) * | 2001-04-11 | 2002-10-23 | Nissan Motor Co Ltd | Controller for inter-vehicle distance |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011082126B4 (en) * | 2011-09-05 | 2020-07-23 | Robert Bosch Gmbh | SAFETY DEVICE FOR MOTOR VEHICLES |
US10183668B2 (en) * | 2015-07-28 | 2019-01-22 | Nissan Motor Co., Ltd. | Travel control method and travel control apparatus |
-
2018
- 2018-12-26 KR KR1020180169636A patent/KR102179835B1/en active IP Right Grant
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002307972A (en) * | 2001-04-11 | 2002-10-23 | Nissan Motor Co Ltd | Controller for inter-vehicle distance |
Also Published As
Publication number | Publication date |
---|---|
KR20200084440A (en) | 2020-07-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3324332B1 (en) | Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions | |
US10678248B2 (en) | Fast trajectory planning via maneuver pattern selection | |
US10996679B2 (en) | Method to evaluate trajectory candidates for autonomous driving vehicles (ADVs) | |
US11467591B2 (en) | Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles | |
US11378961B2 (en) | Method for generating prediction trajectories of obstacles for autonomous driving vehicles | |
US11442450B2 (en) | Method for determining passable area in planning a path of autonomous driving vehicles | |
JP6567617B2 (en) | Method, medium and system for improving the stability of autonomous vehicles | |
US10782699B2 (en) | Real-time perception adjustment and driving adaption based on surrounding vehicles' behavior for autonomous driving vehicles | |
JP6832421B2 (en) | Simulation-based evaluation method for sensing requirements of self-driving cars | |
US11594011B2 (en) | Deep learning-based feature extraction for LiDAR localization of autonomous driving vehicles | |
EP3359436B1 (en) | Method and system for operating autonomous driving vehicles based on motion plans | |
US11364931B2 (en) | Lidar localization using RNN and LSTM for temporal smoothness in autonomous driving vehicles | |
US20190317508A1 (en) | Cost design for path selection in autonomous driving technology | |
US11409284B2 (en) | Relaxation optimization model to plan an open space trajectory for autonomous vehicles | |
US11260880B2 (en) | Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway | |
US11353878B2 (en) | Soft-boundary based path optimization for complex scenes for autonomous driving vehicles | |
US11485353B2 (en) | Segmenting a parking trajectory to control an autonomous driving vehicle to park | |
JP7149288B2 (en) | Vertical Parking Planning System Based on Spiral Curves for Autonomous Vehicles | |
US20180203450A1 (en) | Method and system for determining unit gain of speed control for autonomous driving vehicles | |
US11106212B2 (en) | Path planning for complex scenes with self-adjusting path length for autonomous driving vehicles | |
KR102179835B1 (en) | Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication | |
JP6952117B2 (en) | Speed control command automatic calibration system for self-driving vehicles | |
JP2024021071A (en) | Method and device for generating virtual stop-line | |
KR20240036967A (en) | Method and apparatus for active driving assistance based on driving information judgment | |
JP2023093270A (en) | Vehicle control apparatus, vehicle control method, and vehicle control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |