Nothing Special   »   [go: up one dir, main page]

KR102179835B1 - Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication - Google Patents

Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication Download PDF

Info

Publication number
KR102179835B1
KR102179835B1 KR1020180169636A KR20180169636A KR102179835B1 KR 102179835 B1 KR102179835 B1 KR 102179835B1 KR 1020180169636 A KR1020180169636 A KR 1020180169636A KR 20180169636 A KR20180169636 A KR 20180169636A KR 102179835 B1 KR102179835 B1 KR 102179835B1
Authority
KR
South Korea
Prior art keywords
vehicle
information
lane
fusion data
generating
Prior art date
Application number
KR1020180169636A
Other languages
Korean (ko)
Other versions
KR20200084440A (en
Inventor
이상선
백민진
최동호
김우중
문중위
서효승
Original Assignee
한양대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한양대학교 산학협력단 filed Critical 한양대학교 산학협력단
Priority to KR1020180169636A priority Critical patent/KR102179835B1/en
Publication of KR20200084440A publication Critical patent/KR20200084440A/en
Application granted granted Critical
Publication of KR102179835B1 publication Critical patent/KR102179835B1/en

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0212Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • B60W30/18009Propelling the vehicle related to particular drive situations
    • B60W30/18163Lane change; Overtaking manoeuvres
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/10Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to vehicle motion
    • B60W40/105Speed
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0287Control of position or course in two dimensions specially adapted to land vehicles involving a plurality of land vehicles, e.g. fleet or convoy travelling
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • B60W2420/42
    • B60W2420/52
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2520/00Input parameters relating to overall vehicle dynamics
    • B60W2520/12Lateral speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60YINDEXING SCHEME RELATING TO ASPECTS CROSS-CUTTING VEHICLE TECHNOLOGY
    • B60Y2300/00Purposes or special features of road vehicle drive control systems
    • B60Y2300/18Propelling the vehicle
    • B60Y2300/18008Propelling the vehicle related to particular drive situations
    • B60Y2300/18166Overtaking, changing lanes

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Mathematical Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)

Abstract

무선통신을 포함한 차량센서 기반의 객체선정 알고리즘 및 주변차량 주행 의도를 고려한 경로 예측 방법 및 시스템을 개시한다. 일실시예에서 경로 예측 방법은, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계 및 상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계를 포함할 수 있다.Disclosed is a vehicle sensor-based object selection algorithm including wireless communication, and a route prediction method and system in consideration of driving intention of surrounding vehicles. In one embodiment, the route prediction method includes generating fusion data using information from a plurality of sensors associated with an own vehicle and information received through external communication, and the vehicle of interest using the generated fusion data. Selecting, determining a lane change intention of the selected vehicle of interest, and generating, by the at least one processor, a predicted path of the selected vehicle of interest according to the determined lane change intention. .

Description

무선통신을 포함한 차량센서 기반의 객체선정 알고리즘 및 주변차량 주행 의도를 고려한 경로 예측 방법 및 시스템{METHOD AND SYSTEM FOR PATH PREDICTION CONSIDERING VEHICLE TRAVEL INTENTION AND OBJECT SELECTION ALGORITHM BASED ON VEHICLE SENSOR INCLUDING WIRELESS COMMUNICATION}Object selection algorithm based on vehicle sensor including wireless communication and route prediction method and system that considers driving intention of surrounding vehicles {METHOD AND SYSTEM FOR PATH PREDICTION CONSIDERING VEHICLE TRAVEL INTENTION AND OBJECT SELECTION ALGORITHM BASED ON VEHICLE SENSOR INCLUDING WIRELESS COMMUNICATION}

아래의 설명은 무선통신을 포함한 차량센서 기반의 객체선정 알고리즘 및 주변차량 주행 의도를 고려한 경로 예측 방법 및 시스템에 관한 것이다.The following description relates to a vehicle sensor-based object selection algorithm including wireless communication, and a route prediction method and system in consideration of driving intentions of surrounding vehicles.

자율주행차는 운전자가 차량을 조작하지 않아도 스스로 주행하는 자동차를 의미한다. 일례로, 한국공개특허 제10-2018-0086632호는 자율주행 차량의 행동 결정 장치 및 방법에 관한 것으로, 자율주행 차량의 전방에 정지해 있는 객체가 있거나 또는 저속으로 주행하는 객체가 있는 경우, 도로의 주행상황에 맞는 정확한 판단을 할 수 있는, 자율주행 차량의 행동 결정 장치 및 방법을 개시하고 있다.An autonomous vehicle refers to a vehicle that runs on its own even if the driver does not operate the vehicle. For example, Korean Patent Laid-Open No. 10-2018-0086632 relates to an apparatus and method for determining the behavior of an autonomous vehicle. When there is an object standing in front of the autonomous vehicle or an object traveling at a low speed, the road Disclosed is an apparatus and method for determining the behavior of an autonomous vehicle that can accurately determine the driving situation of the vehicle.

한편, 자율주행 레벨2 수준의 ADAS(Advanced Driver Assistance System)를 포함하는 자동차들이 많이 보급되었지만, ADAS가 작동하려면 주변차량 및 주행도로환경 정보를 통하여 자차량의 주행경로에 속할 타겟 차량을 선정하는 기술이 요구된다. 최근 도로 곡률과 같은 도로환경을 반영하여 곡선도로에서도 선행 차량 추종능력을 향상시켰으나 주변차량이 자차량 주행경로로 차선변경을 할 경우, 타겟으로 선정한 차량이 갑작스럽게 바뀌게 되어 불필요한 감속이 발생하고 승차감 저하를 야기하는 문제점이 있다. 또한, 통신장비를 포함한 센서로부터 취득한 자차량 이외의 차량에 대한 데이터는 너무 많기 때문에 실시간 처리에는 하드웨어적 한계가 존재하는 문제점이 있다.On the other hand, many vehicles including ADAS (Advanced Driver Assistance System) at the level of autonomous driving level 2 have been popular, but for ADAS to work, technology that selects a target vehicle to belong to the driving path of the own vehicle through information on surrounding vehicles and driving road environment. Is required. Recently, road environment such as road curvature has been reflected to improve the ability to follow the preceding vehicle even on curved roads, but when a nearby vehicle changes lanes to the driving path of the own vehicle, the vehicle selected as the target suddenly changes, resulting in unnecessary deceleration and reduced ride comfort. There is a problem that causes. In addition, there is a problem in that there is a hardware limitation in real-time processing because there is too much data on vehicles other than the own vehicle acquired from sensors including communication equipment.

자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있는 경로 예측 방법, 상기 방법을 수행하는 컴퓨터 장치, 상기 컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.A route prediction method capable of predicting a highly reliable route by fusing information obtained from surrounding vehicles through V2X by the own vehicle, ADAS sensor and vehicle internal sensor data values, a computer device performing the method, the computer device and In combination, there is provided a computer program stored on a computer-readable recording medium and a recording medium therefor for executing the method on a computer device.

경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있는 경로 예측 방법, 상기 방법을 수행하는 컴퓨터 장치, 상기 컴퓨터 장치와 결합되어 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램과 그 기록매체를 제공한다.A path prediction method capable of reducing the computational load by defining a path prediction target object, a computer device that performs the method, a computer program combined with the computer device and stored in a computer-readable recording medium to execute the method on a computer device And its recording media.

적어도 하나의 프로세서를 포함하는 컴퓨터 장치의 경로 예측 방법에 있어서, 상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계; 상기 적어도 하나의 프로세서에 의해, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및 상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계를 포함하는 경로 예측 방법을 제공한다.A method for predicting a path of a computer device including at least one processor, wherein the at least one processor generates fusion data using information from a plurality of sensors associated with an own vehicle and information received through external communication. Generating; Selecting, by the at least one processor, a vehicle of interest using the generated fusion data; Determining a lane change intention of the selected vehicle of interest, by the at least one processor; And generating, by the at least one processor, a predicted route of the selected vehicle of interest according to the determined lane change intention.

일측에 따르면, 상기 융합 데이터를 생성하는 단계는, 제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계; 상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및 상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.According to one aspect, the generating of the fusion data includes: when current first information is received for a first vehicle through the external communication, generating fusion data using the first information; Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And when the second information does not exist without receiving the first information, generating fusion data using information from a plurality of sensors.

다른 측면에 따르면, 상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는, 상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고, 상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 할 수 있다.According to another aspect, the step of generating fusion data using information from the plurality of sensors includes generating the fusion data using a weighted average of the output values of each of the plurality of sensors, and The weight to be used may be determined using an reciprocal of an error covariance for an output value of each of the plurality of sensors.

또 다른 측면에 따르면, 상기 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함하고, 상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는, 상기 레이다, 상기 라이다 및 상기 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 상기 카메라를 이용하여 차선 정보를 검출하여 상기 융합 데이터를 생성하는 것을 특징으로 할 수 있다.According to another aspect, the plurality of sensors includes a radar, a lidar, and a camera, and generating fusion data using information from the plurality of sensors comprises: the radar, the It may be characterized in that the fusion data is generated by detecting neighboring vehicle information using a lidar and an output value of the camera, and detecting lane information using the camera.

또 다른 측면에 따르면, 상기 융합 데이터는 차량의 횡속도(Lateral Velocity) 및 차량의 차선과의 거리(Lateral Offset) 중 적어도 하나를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the fusion data may include at least one of a lateral velocity of the vehicle and a lateral offset of the vehicle.

또 다른 측면에 따르면, 상기 관심 차량을 선정하는 단계는, 상기 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 상기 관심 차량으로서 선정하는 것을 특징으로 할 수 있다.According to another aspect, the selecting of the vehicle of interest may include selecting a vehicle having a center located in a plurality of preset regions around the host vehicle as the vehicle of interest.

또 다른 측면에 따르면, 상기 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함하는 것을 특징으로 할 수 있다.According to another aspect, the plurality of areas include a first area in a left lane in front of the host vehicle, a second area in a lane in front of the host vehicle, a third area in a right lane in front of the host vehicle, a fourth area in the left lane of the host vehicle, and It may be characterized in that it includes a fifth area in a right lane of the vehicle, a sixth area in a left lane behind the own vehicle, a seventh area in a rear lane of the own vehicle, and an eighth area in a right lane behind the own vehicle.

또 다른 측면에 따르면, 상기 복수의 영역들 중 상기 제4 영역 및 상기 제5 영역 각각의 길이는 상기 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 상기 자차량의 속도, 상기 자차량의 가속도 및 기설정된 임계값에 의해 결정되는 것을 특징으로 할 수 있다.According to another aspect, a length of each of the fourth and fifth regions among the plurality of regions is determined based on the length of the own vehicle, and the length of each of the remaining regions is the speed of the own vehicle and the It may be characterized in that it is determined by the acceleration of the own vehicle and a preset threshold.

또 다른 측면에 따르면, 상기 차선변경 의도를 결정하는 단계는, 실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 상기 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정하는 것을 특징으로 할 수 있다.According to another aspect, the determining of the lane change intention includes maintaining the lane of the selected vehicle of interest, changing the left lane, and changing the right lane using a machine learning model pre-learned through data on actual vehicles. It can be characterized by determining an intention for one.

또 다른 측면에 따르면, 상기 기계학습모델은 가우시안 커널 함수(Gaussian kernel function)를 이용하여 학습되는 것을 특징으로 할 수 있다.According to another aspect, the machine learning model may be trained using a Gaussian kernel function.

또 다른 측면에 따르면, 상기 예측 경로를 생성하는 단계는, 상기 선정된 관심 차량 중 상기 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성하는 단계; 및 상기 선정된 관심 차량 중 상기 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성하는 단계를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the predicted path may include: generating a lane change prediction path for a first vehicle that changes lanes to a lane of the own vehicle among the selected vehicles of interest; And generating a lane maintenance prediction path for a second vehicle traveling in a lane of the own vehicle among the selected vehicles of interest.

또 다른 측면에 따르면, 상기 차선변경 예측 경로를 생성하는 단계는, 상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하는 단계; 상기 제1 차량의 종방향 속도와 상기 제1 차량의 종방향 가속도에 기초하여 상기 제1 차량과 상기 자차량 사이의 종방향 거리를 예측하는 단계; 및 상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 상기 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 상기 제1 차량과 상기 자차량 사이의 횡방향 거리를 예측하는 단계를 포함하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the lane change prediction route may include: predicting a lane change time required based on a lateral distance and a lateral speed required for lane change of the first vehicle; Predicting a longitudinal distance between the first vehicle and the own vehicle based on a longitudinal speed of the first vehicle and a longitudinal acceleration of the first vehicle; And predicting a lateral distance between the first vehicle and the own vehicle using a lateral distance required for a lane change of the first vehicle, a time required for the lane change, and a sinusoidal function. I can.

또 다른 측면에 따르면, 상기 차선유지 예측 경로를 생성하는 단계는, 상기 제2 차량의 차선과의 거리, 상기 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률(Curvature) 및 도로 곡률의 변화율(Curvature rate) 중 적어도 하나에 기초하여 상기 차선유지 예측 경로를 생성하는 것을 특징으로 할 수 있다.According to another aspect, the generating of the lane maintenance prediction route includes: a distance from the lane of the second vehicle, a heading angle error of the second vehicle, a curvature of a road, and a curvature of the road. It may be characterized in that the lane keeping prediction path is generated based on at least one of a curve rate of.

상기 방법을 컴퓨터 장치에 실행시키기 위한 컴퓨터 프로그램이 기록되어 있는 컴퓨터 판독 가능한 기록매체를 제공한다.There is provided a computer-readable recording medium in which a computer program for executing the method is recorded on a computer device.

컴퓨터 장치와 결합하여 상기 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램을 제공한다.In combination with a computer device, there is provided a computer program stored on a computer-readable recording medium for executing the method on a computer device.

컴퓨터 장치에 있어서, 상기 컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서를 포함하고, 상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하고, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하고, 상기 선정된 관심 차량의 차선변경 의도를 결정하고, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 것을 특징으로 하는 컴퓨터 장치를 제공한다.A computer device comprising at least one processor embodied to execute an instruction readable by the computer device, by means of the at least one processor, through information and external communication from a plurality of sensors associated with the host vehicle Generates fusion data using received information, selects a vehicle of interest using the generated fusion data, determines a lane change intention of the selected vehicle of interest, and selects the selected interest according to the determined lane change intention It provides a computer device, characterized in that generating a predicted path of the vehicle.

자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있으며, 경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있다.By fusing the information obtained from surrounding vehicles through V2X, the ADAS sensor, and the information obtained by the vehicle internal sensor data value, the own vehicle can predict a highly reliable path, and reduce the computational load by limiting the target object for path prediction.

도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다.
도 2는 본 발명의 일실시예에 따른 경로 예측 시스템의 개괄적인 모습의 예를 도시한 도면이다.
도 3은 본 발명의 일실시예에 따른 센서부(210)의 내부 구성의 예를 도시한 도면이다.
도 4는 본 발명의 일실시예에 따른 의도판단부의 내부 구성의 예를 도시한 도면이다.
도 5는 본 발명의 일실시예에 있어서, 자차량의 주행에 영향을 줄 수 있는 객체 후보군을 선정하기 위한 예를 도시한 도면이다.
도 6은 본 발명의 일실시예에 있어서, 차선변경 의도판단의 예를 도시한 도면이다.
도 7은 본 발명의 일실시예에 있어서, 경로 예측부의 내부 구성의 예를 도시한 도면이다.
도 8은 본 발명의 일실시예에 있어서, 차선변경 경로예측의 예를 도시한 도면이다.
도 9는 본 발명의 일실시예에 있어서, 차선유지 경로 예측의 예를 도시한 도면이다.
도 10은 본 발명의 일실시예에 있어서 차선유지 경로 예측을 위한 변수를 설명하기 위한 예를 도시하고 있다.
도 11 내지 도 13은 본 발명의 일실시예에 따른 경로 예측 방법의 예를 도시한 흐름도들이다.
1 is a block diagram showing an example of a computer device according to an embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of a general appearance of a route prediction system according to an embodiment of the present invention.
3 is a view showing an example of the internal configuration of the sensor unit 210 according to an embodiment of the present invention.
4 is a view showing an example of the internal configuration of the intention determination unit according to an embodiment of the present invention.
FIG. 5 is a diagram illustrating an example for selecting an object candidate group that may affect the driving of an own vehicle according to an embodiment of the present invention.
6 is a diagram showing an example of a lane change intention determination according to an embodiment of the present invention.
7 is a diagram illustrating an example of an internal configuration of a path prediction unit according to an embodiment of the present invention.
8 is a diagram showing an example of a lane change route prediction according to an embodiment of the present invention.
9 is a diagram illustrating an example of predicting a lane keeping route according to an embodiment of the present invention.
10 is a diagram illustrating an example for explaining a variable for predicting a lane keeping route according to an embodiment of the present invention.
11 to 13 are flowcharts illustrating an example of a path prediction method according to an embodiment of the present invention.

이하, 실시예를 첨부한 도면을 참조하여 상세히 설명한다.Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.

본 발명의 실시예들에 따른 경로 예측 방법은, 이후 설명될 컴퓨터 장치에 의해 수행될 수 있다. 예를 들어, 컴퓨터 장치에는 본 발명의 일실시예에 따른 컴퓨터 프로그램이 설치 및 구동될 수 있고, 컴퓨터 장치는 구동된 컴퓨터 프로그램의 제어에 따라 본 발명의 일실시예에 따른 경로 예측 방법을 수행할 수 있다. 상술한 컴퓨터 프로그램은 컴퓨터 장치와 결합되어 경로 예측 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장될 수 있다. 여기서 설명한 컴퓨터 프로그램은 독립된 하나의 프로그램 패키지의 형태를 가질 수도 있고, 독립된 하나의 프로그램 패키지의 형태가 컴퓨터 장치에 기 설치되어 운영체제나 다른 프로그램 패키지들과 연계되는 형태를 가질 수도 있다. 한편, 이러한 컴퓨터 장치는 자율주행 차량에 배치, 설치 또는 위치될 수 있다.The route prediction method according to the embodiments of the present invention may be performed by a computer device to be described later. For example, a computer program according to an embodiment of the present invention may be installed and driven in a computer device, and the computer device may perform a path prediction method according to an embodiment of the present invention under control of the driven computer program. I can. The above-described computer program may be combined with a computer device and stored in a computer-readable recording medium to execute a path prediction method on the computer device. The computer program described herein may have a form of an independent program package, or a form of an independent program package may be pre-installed on a computer device to be linked to an operating system or other program packages. Meanwhile, such a computer device may be disposed, installed, or located in an autonomous vehicle.

도 1은 본 발명의 일실시예에 따른 컴퓨터 장치의 예를 도시한 블록도이다. 일례로, 본 발명의 실시예들에 따른 경로 예측 방법은 도 1에 도시된 컴퓨터 장치(100)에 의해 실행될 수 있다.1 is a block diagram showing an example of a computer device according to an embodiment of the present invention. For example, the path prediction method according to embodiments of the present invention may be executed by the computer device 100 shown in FIG. 1.

이러한 컴퓨터 장치(100)는 도 1에 도시된 바와 같이, 메모리(110), 프로세서(120), 통신 인터페이스(130) 그리고 입출력 인터페이스(140)를 포함할 수 있다. 메모리(110)는 컴퓨터에서 판독 가능한 기록매체로서, RAM(random access memory), ROM(read only memory) 및 디스크 드라이브와 같은 비소멸성 대용량 기록장치(permanent mass storage device)를 포함할 수 있다. 여기서 ROM과 디스크 드라이브와 같은 비소멸성 대용량 기록장치는 메모리(110)와는 구분되는 별도의 영구 저장 장치로서 컴퓨터 장치(100)에 포함될 수도 있다. 또한, 메모리(110)에는 운영체제와 적어도 하나의 프로그램 코드가 저장될 수 있다. 이러한 소프트웨어 구성요소들은 메모리(110)와는 별도의 컴퓨터에서 판독 가능한 기록매체로부터 메모리(110)로 로딩될 수 있다. 이러한 별도의 컴퓨터에서 판독 가능한 기록매체는 플로피 드라이브, 디스크, 테이프, DVD/CD-ROM 드라이브, 메모리 카드 등의 컴퓨터에서 판독 가능한 기록매체를 포함할 수 있다. 다른 실시예에서 소프트웨어 구성요소들은 컴퓨터에서 판독 가능한 기록매체가 아닌 통신 인터페이스(130)를 통해 메모리(110)에 로딩될 수도 있다. 예를 들어, 소프트웨어 구성요소들은 네트워크(160)를 통해 수신되는 파일들에 의해 설치되는 컴퓨터 프로그램에 기반하여 컴퓨터 장치(100)의 메모리(110)에 로딩될 수 있다.As illustrated in FIG. 1, the computer device 100 may include a memory 110, a processor 120, a communication interface 130, and an input/output interface 140. The memory 110 is a computer-readable recording medium and may include a permanent mass storage device such as a random access memory (RAM), read only memory (ROM), and a disk drive. Here, a non-destructive large-capacity recording device such as a ROM and a disk drive may be included in the computer device 100 as a separate permanent storage device separate from the memory 110. In addition, an operating system and at least one program code may be stored in the memory 110. These software components may be loaded into the memory 110 from a computer-readable recording medium separate from the memory 110. Such a separate computer-readable recording medium may include a computer-readable recording medium such as a floppy drive, disk, tape, DVD/CD-ROM drive, and memory card. In another embodiment, software components may be loaded into the memory 110 through a communication interface 130 other than a computer-readable recording medium. For example, software components may be loaded into the memory 110 of the computer device 100 based on a computer program installed by files received through the network 160.

프로세서(120)는 기본적인 산술, 로직 및 입출력 연산을 수행함으로써, 컴퓨터 프로그램의 명령을 처리하도록 구성될 수 있다. 명령은 메모리(110) 또는 통신 인터페이스(130)에 의해 프로세서(120)로 제공될 수 있다. 예를 들어 프로세서(120)는 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 수신되는 명령을 실행하도록 구성될 수 있다.The processor 120 may be configured to process instructions of a computer program by performing basic arithmetic, logic, and input/output operations. Instructions may be provided to the processor 120 by the memory 110 or the communication interface 130. For example, the processor 120 may be configured to execute a command received according to a program code stored in a recording device such as the memory 110.

통신 인터페이스(130)은 네트워크(160)를 통해 컴퓨터 장치(100)가 다른 장치(일례로, 앞서 설명한 저장 장치들)와 서로 통신하기 위한 기능을 제공할 수 있다. 일례로, 컴퓨터 장치(100)의 프로세서(120)가 메모리(110)와 같은 기록 장치에 저장된 프로그램 코드에 따라 생성한 요청이나 명령, 데이터, 파일 등이 통신 인터페이스(130)의 제어에 따라 네트워크(160)를 통해 다른 장치들로 전달될 수 있다. 역으로, 다른 장치로부터의 신호나 명령, 데이터, 파일 등이 네트워크(160)를 거쳐 컴퓨터 장치(100)의 통신 인터페이스(130)를 통해 컴퓨터 장치(100)로 수신될 수 있다. 통신 인터페이스(130)를 통해 수신된 신호나 명령, 데이터 등은 프로세서(120)나 메모리(110)로 전달될 수 있고, 파일 등은 컴퓨터 장치(100)가 더 포함할 수 있는 저장 매체(상술한 영구 저장 장치)로 저장될 수 있다.The communication interface 130 may provide a function for the computer device 100 to communicate with other devices (eg, storage devices described above) through the network 160. For example, requests, commands, data, files, etc., generated by the processor 120 of the computer device 100 according to a program code stored in a recording device such as the memory 110, are transmitted through the network ( 160) can be delivered to other devices. Conversely, signals, commands, data, files, etc. from other devices may be received by the computer device 100 through the communication interface 130 of the computer device 100 via the network 160. Signals, commands, data, etc. received through the communication interface 130 may be transferred to the processor 120 or the memory 110, and the file, etc. may be a storage medium (described above) that the computer device 100 may further include. Permanent storage).

입출력 인터페이스(140)는 입출력 장치(150)와의 인터페이스를 위한 수단일 수 있다. 예를 들어, 입력 장치는 마이크, 키보드 또는 마우스 등의 장치를, 그리고 출력 장치는 디스플레이, 스피커와 같은 장치를 포함할 수 있다. 다른 예로 입출력 인터페이스(140)는 터치스크린과 같이 입력과 출력을 위한 기능이 하나로 통합된 장치와의 인터페이스를 위한 수단일 수도 있다. 입출력 장치(150)는 컴퓨터 장치(100)와 하나의 장치로 구성될 수도 있다.The input/output interface 140 may be a means for an interface with the input/output device 150. For example, the input device may include a device such as a microphone, a keyboard, or a mouse, and the output device may include a device such as a display or a speaker. As another example, the input/output interface 140 may be a means for interfacing with a device in which input and output functions are integrated into one, such as a touch screen. The input/output device 150 may be configured with the computer device 100 and one device.

또한, 다른 실시예들에서 컴퓨터 장치(100)는 도 1의 구성요소들보다 더 적은 혹은 더 많은 구성요소들을 포함할 수도 있다. 그러나, 대부분의 종래기술적 구성요소들을 명확하게 도시할 필요성은 없다. 예를 들어, 컴퓨터 장치(100)는 상술한 입출력 장치(150) 중 적어도 일부를 포함하도록 구현되거나 또는 트랜시버(transceiver), 데이터베이스 등과 같은 다른 구성요소들을 더 포함할 수도 있다.In addition, in other embodiments, the computer device 100 may include fewer or more components than the components of FIG. 1. However, there is no need to clearly show most of the prior art components. For example, the computer device 100 may be implemented to include at least a portion of the input/output device 150 described above, or may further include other components such as a transceiver and a database.

통신 방식은 제한되지 않으며, 네트워크(160)가 포함할 수 있는 통신망(일례로, 이동통신망, 유선 인터넷, 무선 인터넷, 방송망)을 활용하는 통신 방식뿐만 아니라 블루투스(Bluetooth)나 NFC(Near Field Communication)와 같은 근거리 무선 통신 역시 포함될 수 있다. 예를 들어, 네트워크(160)는, PAN(personal area network), LAN(local area network), CAN(campus area network), MAN(metropolitan area network), WAN(wide area network), BBN(broadband network), 인터넷 등의 네트워크 중 하나 이상의 임의의 네트워크를 포함할 수 있다. 또한, 네트워크(160)는 버스 네트워크, 스타 네트워크, 링 네트워크, 메쉬 네트워크, 스타-버스 네트워크, 트리 또는 계층적(hierarchical) 네트워크 등을 포함하는 네트워크 토폴로지 중 임의의 하나 이상을 포함할 수 있으나, 이에 제한되지 않는다.The communication method is not limited, and not only a communication method using a communication network (for example, a mobile communication network, wired Internet, wireless Internet, broadcasting network) that the network 160 may include, but also Bluetooth or NFC (Near Field Communication) Short-range wireless communication, such as, may also be included. For example, the network 160 includes a personal area network (PAN), a local area network (LAN), a campus area network (CAN), a metropolitan area network (MAN), a wide area network (WAN), and a broadband network (BBN). , Internet, and the like. In addition, the network 160 may include any one or more of a network topology including a bus network, a star network, a ring network, a mesh network, a star-bus network, a tree or a hierarchical network, etc. Not limited.

본 발명의 실시예들에 따른 경로 예측 방법에서는 기존 종래기술들과는 달리, 자차량의 센서로부터 획득한 정보를 V2X(Vehicle to Everything)를 통해 주변 차량으로부터 BSM(Basic Safety Message)을 이용하여 획득한 다른 센서로부터의 정보와 융합하여 센서 융합 데이터를 제공할 수 있다. 또한, 본 발명의 실시예들에 따른 경로 예측 방법에서는 V2X의 단점인 통신 지연 및 느린 정보 갱신 속도를 보완하고자 다른 센서로부터 검출된 객체가 이전에도 검출된 객체인지를 확인하고 이전에도 검출된 객체라면, 해당 객체에 대한 과거 BSM 데이터 중에서 제원 정보만을 사용하여 다이나믹 모델을(dynamic model)을 칼만 필터(Kalman filter)에 이용함으로써, 센서 융합 데이터의 신뢰성을 향상시킬 수 있다. 이때 관심대상으로 삼는 주변차량은 특정 조건을 만족한 차량으로 그 수를 최대 m(m은 자연수로 일례로, 8)대로 한정하여 연산에 대한 부하를 줄일 수 있다. 또한, 본 발명의 실시예들에 따른 경로 예측 방법에서는 융합 데이터를 기반으로 기계학습을 이용하여 주변차량의 차선변경 여부를 판단하고, 자차량의 주행차선에 영향을 미치는 주변차량에 대해서 경로예측모델을 적용하여 연산에 대한 부하를 줄일 수 있다.In the route prediction method according to the embodiments of the present invention, unlike the existing prior art, the information obtained from the sensor of the own vehicle is obtained by using a Basic Safety Message (BSM) from surrounding vehicles through V2X (Vehicle to Everything). It is possible to provide sensor fusion data by fusion with information from the sensor. In addition, in the route prediction method according to the embodiments of the present invention, in order to compensate for the communication delay and slow information update speed, which are disadvantages of V2X, it is checked whether the object detected from another sensor is an object that has been detected before, , It is possible to improve the reliability of sensor fusion data by using a dynamic model for a Kalman filter by using only specification information among past BSM data for a corresponding object. At this time, the number of surrounding vehicles that are the target of interest are vehicles that satisfy a specific condition and limit the number of vehicles to the maximum m (where m is a natural number, for example, 8), thereby reducing the load on calculation. In addition, in the route prediction method according to the embodiments of the present invention, based on fusion data, machine learning is used to determine whether a lane change of a neighboring vehicle is determined, and a path prediction model for a neighboring vehicle that affects the driving lane of the own vehicle. The load on the operation can be reduced by applying.

도 2는 본 발명의 일실시예에 따른 경로 예측 시스템의 개괄적인 모습의 예를 도시한 도면이다. 본 실시예에 따른 경로 예측 시스템(200)은 센서부(210), 의도판단부(220) 및 경로 예측부(230)를 포함할 수 있다.FIG. 2 is a diagram illustrating an example of a general appearance of a route prediction system according to an embodiment of the present invention. The path prediction system 200 according to the present embodiment may include a sensor unit 210, an intention determination unit 220, and a path prediction unit 230.

센서부(210)는 V2X와 ADAS 센서를 이용하여 주변차량 및 환경에 대한 정보를 획득할 수 있으며, 획득한 정보를 이용하여 융합 데이터를 생성할 수 있다.The sensor unit 210 may acquire information on surrounding vehicles and environments using the V2X and ADAS sensors, and may generate fusion data using the acquired information.

의도판단부(220)는 생성한 융합 데이터를 가지고 기계학습을 이용하여 주변차량의 차선변경 의도를 판단할 수 있다.The intention determination unit 220 may determine the intention to change lanes of the surrounding vehicles using machine learning with the generated fusion data.

또한, 경로 예측부(230)는 의도판단 결과에 따라 달라지는 경로예측 방법을 처리할 수 있다.In addition, the path prediction unit 230 may process a path prediction method that varies depending on the intention determination result.

일실시예에서, 경로 예측 시스템(200)은 도 1을 통해 설명한 컴퓨터 장치(100)를 포함할 수 있다. 예를 들어, 컴퓨터 장치(100)는 자율주행 차량의 경로 예측 시스템(200)에 포함될 수 있으며, 이러한 경로 예측 시스템(200)이 포함하는 센서들과 연계될 수 있다.In one embodiment, the path prediction system 200 may include the computer device 100 described with reference to FIG. 1. For example, the computer device 100 may be included in the path prediction system 200 of an autonomous vehicle, and may be linked with sensors included in the path prediction system 200.

도 3은 본 발명의 일실시예에 따른 센서부(210)의 내부 구성의 예를 도시한 도면이다. 센서부(210)는 레이다(310), 라이다(320), 카메라(330) 및 V2X(340)를 통해 데이터를 수집할 수 있으며, 주변차량 정보 검출 모듈(350), 차선 정보 검출 모듈(360) 및 센서 정보 융합 모듈(370)을 포함할 수 있다. 실시예에 따라 센서부(210)는 레이다(310), 라이다(320), 카메라(330) 및 V2X(340)를 직접 포함할 수도 있으나, 레이다(310), 라이다(320), 카메라(330) 및 V2X(340) 중 적어도 하나가 센서부(210)와는 개별적으로 형성(일례로, 자율주행 차량에 탑재)되어 센서부(210)와 통신하는 형태로 구현될 수도 있다. 여기서, 도 3에 도시된 "ρ"는 상대거리를, "θ"는 각도를, "v"는 상대속도를, "x"는 횡방향 좌표를, "y"는 종방향 좌표를, "α"는 가속도를, "W obj "는 객체 넓이를 각각 의미할 수 있다. 또한, "W lane "은 차선의 넓이를, "ρ lane "은 도로 곡률을 각각 의미할 수 있으며, "ψ"는 요 각도를 의미할 수 있다.3 is a view showing an example of the internal configuration of the sensor unit 210 according to an embodiment of the present invention. The sensor unit 210 may collect data through the radar 310, the lidar 320, the camera 330, and the V2X 340, and the surrounding vehicle information detection module 350, the lane information detection module 360 ) And a sensor information fusion module 370. Depending on the embodiment, the sensor unit 210 may directly include a radar 310, a lidar 320, a camera 330, and a V2X 340, but the radar 310, the lidar 320, the camera ( At least one of the 330 and V2X 340 may be formed separately from the sensor unit 210 (eg, mounted on an autonomous vehicle) to communicate with the sensor unit 210. Here, " ρ " shown in FIG. 3 is a relative distance, " θ " is an angle, " v " is a relative velocity, " x " is a lateral coordinate, " y " is a longitudinal coordinate, and " α "" may mean acceleration, and " W obj " may mean object width. In addition, “ W lane ” may mean the width of a lane, “ ρ lane ” may mean a road curvature, and “ ψ ” may mean a yaw angle.

주변차량 정보 검출 모듈(350)은 레이다(310), 라이다(320) 및 카메라(330)를 통해 수집되는 정보를 이용하여 주변차량의 위치, 속도, 가속도 및/또는 크기(주변차량의 길 및/또는 폭) 등의 주변차량 정보를 검출할 수 있다.The surrounding vehicle information detection module 350 uses the information collected through the radar 310, the lidar 320, and the camera 330 to determine the location, speed, acceleration, and/or size of the surrounding vehicle (the road and /Or width) and other surrounding vehicle information can be detected.

차선 정보 검출 모듈(360)은 카메라(330)를 이용하여 도로 곡률, 차선 폭 등의 차선 정보와 같은 주행 환경에 대한 정보를 획득할 수 있다.The lane information detection module 360 may use the camera 330 to obtain information on a driving environment such as lane information such as a curvature of a road and a lane width.

또한, 센서부(210)는 앞서 설명한 바와 같이, V2X(340)를 통해 다른 센서들(일례로, 주변차량의 센서 및/또는 도로 상에 배치된 센서 등)로부터의 V2X 정보를 수집할 수 있다.In addition, as described above, the sensor unit 210 may collect V2X information from other sensors (for example, a sensor of a nearby vehicle and/or a sensor disposed on a road) through the V2X 340. .

이때, V2X(340)는 다른 센서들(레이다(310), 라이다(320) 및 카메라(330))의 비하여 데이터(V2X 정보)의 갱신 주기가 늦다는 단점이 있다. 그렇기 때문에 V2X 정보가 새로 수신되지 않았을 경우에는 V2X 정보를 활용할 수가 없다. 하지만, 현재 검출된 객체(주변차량)가 이전에도 검출된 이력이 있는 객체이고 해당 객체로부터 V2X 정보를 수신한 적이 있다면, 센서부(210)는 해당 객체의 타이어 코너링 강성, 질량 등과 같이 시간에 따라 변하지 않는 제원 정보를 재활용할 수 있다. 예를 들어 SAE(Society of Automotive Engineers) J2735 BSM 규격에 따르면 BSM part2 DF_VehicleData는 part1 이외의 정보를 활용하는 데이터 프레임이므로, 해당 프레임에 제원 정보를 담아 활용할 수 있다. 반대로, 센서부(210)는 V2X 정보가 수집된 경우에는 V2X 정보를 신뢰하고 사용할 수 있다. 이는 ADAS 센서로 계측한 객체에 대한 정보보다 V2X 정보의 신뢰성이 상대적으로 더 높기 때문이다.At this time, the V2X 340 has a disadvantage in that the update period of the data (V2X information) is slower than that of other sensors (the radar 310, the lidar 320, and the camera 330). Therefore, if V2X information is not newly received, V2X information cannot be used. However, if the currently detected object (the surrounding vehicle) is an object with a previously detected history and has received V2X information from the object, the sensor unit 210 may be configured according to time such as tire cornering stiffness and mass of the object. Unchanging specification information can be recycled. For example, according to the Society of Automotive Engineers (SAE) J2735 BSM standard, BSM part2 DF_VehicleData is a data frame that utilizes information other than part1, so it can be used with specification information in the frame. Conversely, when the V2X information is collected, the sensor unit 210 can trust and use the V2X information. This is because the reliability of V2X information is relatively higher than that of the object measured by the ADAS sensor.

또한, 실시예에 따라 센서부(210)에서는 자차량에 내장된 차속센서, IMU(Inertial Measurement Unit) 등으로부터의 정보를 더 수집 및 활용할 수도 있다.In addition, according to an embodiment, the sensor unit 210 may further collect and utilize information from a vehicle speed sensor or an inertial measurement unit (IMU) built into the own vehicle.

센서 정보 융합 모듈(370)은 수집된 데이터를 융합하여 융합 데이터를 생성할 수 있다. 예를 들어, 융합 데이터는 아래 수학식 1에서 제시된 가중평균법을 이용하여 생성될 수 있다.The sensor information fusion module 370 may create fusion data by fusing the collected data. For example, the fusion data may be generated using the weighted average method presented in Equation 1 below.

Figure 112018130519552-pat00001
Figure 112018130519552-pat00001

여기서, "x"는 데이터를 의미할 수 있다. 일례로, "x camera "는 카메라(330)를 통해 수집된 데이터를, "x radar "는 레이다(310)를 통해 수집된 데이터를, "x lidar "는 라이다(320)를 통해 수집된 데이터를 각각 의미할 수 있다. 또한, "x avg "는 수집된 데이터들의 가중평균을 의미할 수 있다. 이때, 가중치로 산정되는 "

Figure 112018130519552-pat00002
"는 오차 공분산의 역수(inverse of covariance matrix)를 의미할 수 있다. 이때, 수학식 1에서는 오차 공분산의 역수(
Figure 112018130519552-pat00003
)를 가중치로 산정하기 때문에 오차 공분산이 큰 정보는 융합 데이터 형성에 낮게 반영될 수가 있고, 오차 공분산이 낮은 정보는 크게 반영될 수가 있게 된다. 추가적으로, 센서 정보 융합 모듈(370)에서는 환경 정보를 반영하여 기계학습법에 적용시키기 위한 특징값을 생성할 수도 있다.Here, " x " may mean data. For example, “ x camera ” refers to data collected through the camera 330, “ x radar ” refers to data collected through the radar 310, and “ x lidar ” refers to data collected through the lidar 320 Can mean each. Also, " x avg " may mean a weighted average of collected data. At this time, "calculated by weight"
Figure 112018130519552-pat00002
"May mean an inverse of covariance matrix. In this case, in Equation 1, the inverse of the error covariance (
Figure 112018130519552-pat00003
) Is calculated as a weight, so information with a large error covariance can be lowly reflected in fusion data formation, and information with a low error covariance can be largely reflected. Additionally, the sensor information fusion module 370 may reflect environmental information and generate a feature value for application to the machine learning method.

도 4는 본 발명의 일실시예에 따른 의도판단부의 내부 구성의 예를 도시한 도면이다. 이미 설명한 바와 같이, 의도판단부(220)는 주변차량의 차선변경 의도를 판단할 수 있다. 이러한 의도판단부(220)는 관심 차량 선정 모듈(410), 선학습(pre-training) 모듈(420) 및 의도판단 모듈(430)을 포함할 수 있다.4 is a view showing an example of the internal configuration of the intention determination unit according to an embodiment of the present invention. As already described, the intention determination unit 220 may determine the intention to change lanes of surrounding vehicles. The intention determination unit 220 may include an interest vehicle selection module 410, a pre-training module 420, and an intention determination module 430.

의도판단부(220)는 센서부(210)의 최종 단계인 센서 정보 융합 모듈(370)에서 산출한 융합 데이터와 특징값을 수신하여 기계학습을 통해 차선변경에 대한 주변차량의 의도를 판단할 수 있다. 이때 의도판단은 모든 객체에 대해서 진행하지 않고, 자차량의 주행에 영향을 줄 수 있는 후보군을 선별하여 진행될 수 있다. 의도판단에 사용되는 기계학습법으로는 SVM(Support Vector Machine)이 이용될 수 있으며, 출력값으로는 일례로 0(차선유지(Lane Keeping)), 1(좌측으로 차선변경(Left Lane Change)), 2(우측으로 차선변경(Right Lane Change))가 포함될 수 있다.The intention determination unit 220 may receive the fusion data and feature values calculated by the sensor information fusion module 370, which is the final step of the sensor unit 210, and determine the intention of the surrounding vehicles for lane change through machine learning. have. In this case, the intention determination may not proceed with all objects, but may be performed by selecting a candidate group that may affect the driving of the own vehicle. SVM (Support Vector Machine) can be used as a machine learning method used to determine intention, and as output values, for example, 0 (Lane Keeping), 1 (Left Lane Change), 2 (Right Lane Change) may be included.

도 5는 본 발명의 일실시예에 있어서, 자차량의 주행에 영향을 줄 수 있는 객체 후보군을 선정하기 위한 예를 도시한 도면이다. 자차량(510)의 주행에 영향을 줄 수 있는 영역은 도 5에 나타난 바와 같이 자차량(510) 주위의 8개 영역으로 나뉠 수 있다. 이때, 각 영역은 아래 표 1과 같이 설명될 수 있다.FIG. 5 is a diagram illustrating an example for selecting an object candidate group that may affect the driving of an own vehicle according to an embodiment of the present invention. As shown in FIG. 5, an area that can affect the driving of the own vehicle 510 may be divided into eight areas around the own vehicle 510. In this case, each region may be described as shown in Table 1 below.

구역area 설명Explanation FLFL 자차량 전방 좌측 차로Left lane in front of own vehicle FF 자차량 전방 차로The lane ahead of the own vehicle FRFR 자차량 전방 우측차로Right lane in front of own vehicle HLHL 자차량 좌측 차로To the left of the own vehicle HRHR 자차량 우측 차로To the right of the own vehicle RLRL 자차량 후방 좌측 차로Left lane behind own vehicle RR 자차량 후방 차로In the rear lane of the own vehicle RRRR 자차량 후방 우측 차로The right lane behind the own vehicle

또한, 아래 표 2는 각 영역의 크기를 설명하고 있다. 여기서, t는 일정한 임계값(threshold)으로 조절될 수 있는 값이다.In addition, Table 2 below describes the size of each area. Here, t is a value that can be adjusted to a certain threshold.

설명Explanation aa

Figure 112018130519552-pat00004
Figure 112018130519552-pat00004
bb
Figure 112018130519552-pat00005
Figure 112018130519552-pat00005
cc
Figure 112018130519552-pat00006
Figure 112018130519552-pat00006
dd
Figure 112018130519552-pat00007
(차로폭)
Figure 112018130519552-pat00007
(Lane width)
Figure 112018130519552-pat00008
Figure 112018130519552-pat00008
자차량 길이Own vehicle length
Figure 112018130519552-pat00009
Figure 112018130519552-pat00009
자차량 가속도Own vehicle acceleration
Figure 112018130519552-pat00010
Figure 112018130519552-pat00010
자차량 속도Own vehicle speed

도 4를 통해 설명한 관심 차량 선정 모듈(410)은 융합데이터를 이용하여 도 5에 나타난 관심 영역에 존재하는 관심 객체를 선정할 수 있다. 이때, 관심 차량 선정 모듈은 아래 수학식 2 및 수학식 3에 제시된 바와 같이 비용함수를 적용하여 각 영역별로 최대 하나의 객체가 포함되도록 관심 객체를 선정할 수 있다.The vehicle of interest selection module 410 described with reference to FIG. 4 may select an object of interest existing in the region of interest shown in FIG. 5 by using fusion data. In this case, the vehicle of interest selection module may select an object of interest such that at most one object is included in each area by applying a cost function as shown in Equations 2 and 3 below.

Figure 112018130519552-pat00011
Figure 112018130519552-pat00011

Figure 112018130519552-pat00012
Figure 112018130519552-pat00012

이때, 관심 차량 선정 모듈(410)은 객체의 중심이 어떤 영역에 속해있는지를 이용하여 해당 객체가 속한 영역을 결정할 수 있다. 따라서 관심 주변차량은 최대 8개로 한정될 수 있다.In this case, the vehicle-of-interest selection module 410 may determine an area to which the object belongs by using which area the center of the object belongs to. Therefore, the number of nearby vehicles of interest can be limited to a maximum of eight.

도 6은 본 발명의 일실시예에 있어서, 차선변경 의도판단의 예를 도시한 도면이다. 관심 차량이 선정되면, 융합 데이터로부터 얻어지는 객체(선정된 관심 차량의 횡속도(Lateral Velocity), 차선과의 거리(Lateral Offset) 등이 의도판단 모듈(430)의 입력값으로 사용할 수 있다. 의도판단 모듈(430)은 선학습 모듈(420)을 통해 객체의 중심이 차선을 넘어갈 때(Lane change time), 차선변경이 이루어진다고 학습될 수 있으며, 윈도우 크기(window size)를 조절하여 언제 차선변경을 할 것인가에 대한 예측을 통해 주변차량의 차선변경에 대한 의도를 파악하도록 학습될 수 있다. 선학습 모듈(420)을 이용한 의도판단 모듈(430)의 학습에는 실제 차량들에 대한 데이터가 활용될 수 있으며, 또한 아래 수학식 4와 같은 가우시안 커널 함수(Gaussian kernel function)로 커널 트릭(kernel trick)을 사용할 수 있다. 커널 트릭은 저차원에서 해결되지 않는 문제가 고차원에서 해결되는 경우가 있기 때문에 고차원에서 문제를 푸는 방식을 말한다. SVM에서 사용되는 커널 트릭에는 동차다항식(homogeneous polynomial)과 비동차다항식(inhomogeneous polynomial), 그리고 상술한 가우시안 커널 함수가 대표적으로 사용되며, 기계학습모델의 학습을 위해 가우시안 커널 함수가 사용될 수 있다.6 is a diagram showing an example of a lane change intention determination according to an embodiment of the present invention. When a vehicle of interest is selected, an object (Lateral Velocity of the selected vehicle of interest, a lateral offset) obtained from the fusion data can be used as an input value of the intention determination module 430. Intention determination The module 430 can learn that the lane change is made when the center of the object crosses the lane through the prior learning module 420 (Lane change time), and when the lane change is performed by adjusting the window size. It may be learned to grasp the intention of changing lanes of surrounding vehicles through prediction of whether to do so. Data on actual vehicles may be used for learning by the intention determination module 430 using the pre-learning module 420. In addition, a kernel trick can be used as a Gaussian kernel function as shown in Equation 4. Kernel tricks can be solved in a high dimension because a problem that cannot be solved in a low dimension is solved in a high dimension. In the kernel trick used in SVM, homogeneous polynomial, inhomogeneous polynomial, and the Gaussian kernel function described above are representatively used, and Gaussian kernel for machine learning model learning. Functions can be used.

Figure 112018130519552-pat00013
Figure 112018130519552-pat00013

학습된 의도판단 모듈(430)은 선정된 관심 차량에 대해 얻어지는 차량의 횡속도(Lateral Velocity), 차선과의 거리(Lateral Offset) 등의 데이터를 입력받아 앞서 설명한 바와 같이 0(차선유지(Lane Keeping)), 1(좌측으로 차선변경(Left Lane Change)) 또는 2(우측으로 차선변경(Right Lane Change))의 출력값을 출력할 수 있다.The learned intention determination module 430 receives data such as the lateral velocity of the vehicle and the lateral offset of the vehicle obtained for the selected vehicle of interest, and is 0 (lane keeping) as described above. )), 1 (Left Lane Change) or 2 (Right Lane Change) can be output.

도 7은 본 발명의 일실시예에 있어서, 경로 예측부의 내부 구성의 예를 도시한 도면이다. 경로 예측부(230)는 경로예측 객체 선정 모듈(710), 차선변경 경로 예측 모듈(720) 및 차선유지 경로 예측 모듈(730)을 포함할 수 있다.7 is a diagram illustrating an example of an internal configuration of a path prediction unit according to an embodiment of the present invention. The path prediction unit 230 may include a path prediction object selection module 710, a lane change path prediction module 720, and a lane maintenance path prediction module 730.

경로예측 객체 선정 모듈(710)은 자차량에 영향을 줄 가능성이 있는 객체를 선정할 수 있다. 예를 들어, 경로예측 객체 선정 모듈(710)은 의도판단부(220)의 의도판단 결과에 따라, 자차량의 차로와 동일한 차로를 주행할 것으로 예측되는 객체를 선정할 수 있다.The path prediction object selection module 710 may select an object that may have an influence on the own vehicle. For example, the path prediction object selection module 710 may select an object predicted to travel in the same lane as the lane of the own vehicle according to the intention determination result of the intention determination unit 220.

한편, 경로 예측부(230)는 경로예측 객체 선정 모듈(710)에서 선정된 객체의 경로를 예측할 수 있다. 이때, 차선변경 경로 예측 모듈(720)은 주변차량의 차선변경 의도를 판단하는 의도판단부(220)의 판단에 따라 선정된 객체의 경로를 차선유지 또는 차선변경(좌측 / 우측)으로 예측할 수 있다. 예를 들어, 경로예측 객체 선정 모듈(710)에 의해 선정된 객체에 대한 의도판단부(220)의 출력값이 0인 경우에는 차선유지의 경로를, 출력값이 1인 경우에는 좌측 차선변경의 경로를, 출력값이 2인 경우에는 우측 차선변경의 경로를 각각 예측할 수 있다.Meanwhile, the path prediction unit 230 may predict the path of the object selected by the path prediction object selection module 710. At this time, the lane change path prediction module 720 may predict the path of the selected object as lane maintenance or lane change (left/right) according to the determination of the intention determination unit 220 that determines the lane change intention of the surrounding vehicles. . For example, when the output value of the intention determination unit 220 for the object selected by the path prediction object selection module 710 is 0, the lane maintenance path is determined, and when the output value is 1, the left lane change path is determined. , When the output value is 2, the path of the right lane change can be predicted, respectively.

도 8은 본 발명의 일실시예에 있어서, 차선변경 경로예측의 예를 도시한 도면이다. 도 8에서는 앞서 도 7을 통해 설명한 차선변경 경로 예측 모듈(720)에 사용되는 변수와 수식에 대해 설명하고 있다. 객체(810)가 차선 변경에 필요한 횡방향 거리(W des )는 아래 수학식 5에 나타난 바와 같이, 객체(810)가 인접한 차선과 떨어진 거리(W min )와 차선 폭의 절반(

Figure 112018130519552-pat00014
)에 해당하는 거리의 합으로 계산될 수 있다.8 is a diagram showing an example of a lane change route prediction according to an embodiment of the present invention. In FIG. 8, variables and equations used in the lane change path prediction module 720 described above with reference to FIG. 7 are described. As shown in Equation 5 below, the lateral distance ( W des ) required for the object 810 to change lanes is the distance ( W min ) away from the adjacent lane and half of the lane width (
Figure 112018130519552-pat00014
) Can be calculated as the sum of the distances.

Figure 112018130519552-pat00015
Figure 112018130519552-pat00015

등속도 모델이라 가정하고 수학식 5를 통해 얻어지는 횡방향 거리(W des )를 객체(810)의 횡방향 속도(V lat,obj )로 나누어 주면 아래 수학식 6과 같이 차선 변경 소요 시간(T total )을 구할 수 있다.Assuming that it is a constant velocity model, if the lateral distance ( W des ) obtained through Equation 5 is divided by the lateral speed ( V lat,obj ) of the object 810, the time required for lane change ( T total ) is as shown in Equation 6 below. ) Can be obtained.

Figure 112018130519552-pat00016
Figure 112018130519552-pat00016

객체가 등가속도 운동을 한다고 가정하면, 센서부(210)의 융합 데이터에서 종방향에 상태값을 이용하여 아래 수학식 7과 같이 종방향 이동거리(x)를 구할 수 있다.Assuming that the object moves at an equivalent acceleration, the longitudinal movement distance ( x ) can be obtained as shown in Equation 7 below by using the state value in the longitudinal direction from the fusion data of the sensor unit 210.

Figure 112018130519552-pat00017
Figure 112018130519552-pat00017

이때, 차선 변경하는 객체에 대한 횡방향 거동모델을 아래 수학식 8과 같은 램프 사인곡선 함수(Ramp sinusoid function)라 하면, 시간에 따른 객체의 횡방향 거리(y)를 구할 수 있다.In this case, if the lateral behavior model for the object changing lanes is a ramp sinusoid function as shown in Equation 8 below, the lateral distance y of the object over time can be obtained.

Figure 112018130519552-pat00018
Figure 112018130519552-pat00018

차선유지 경로 예측 모듈(730)은 현재 차선을 유지하도록 객체가 주행하고 있는 차선의 궤적과 동일한 예측경로를 생성할 수 있다.The lane maintenance path prediction module 730 may generate a prediction path identical to the path of the lane on which the object is traveling to maintain the current lane.

도 9는 본 발명의 일실시예에 있어서, 차선유지 경로 예측의 예를 도시한 도면이다. 객체(910)가 주행하고 있는 차선 정보는 센서부(210)에서 검출한 자차량이 주행하고 있는 차선 정보를 기반으로 할 수 있다. 이때, 수집되는 차선 정보는 객체(910)와 차선과의 거리(Lateral Offset), 객체(910)의 주행방향 기울기 오차(Heading angle error), 도로 곡률(Curvature) 및/또는 도로 곡률의 변화율(Curvature rate)를 포함할 수 있다. 도 9에서는 객체(910)가 기존 경로가 아닌 차선을 유지하기 위한 경로를 예측하는 예를 나타내고 있다.9 is a diagram illustrating an example of predicting a lane keeping route according to an embodiment of the present invention. The information on the lane on which the object 910 is traveling may be based on information on the lane on which the own vehicle is traveling, detected by the sensor unit 210. At this time, the collected lane information is the distance between the object 910 and the lane (Lateral Offset), the heading angle error of the object 910, the curvature of the road, and/or the rate of change of the curvature of the road (Curvature rate). 9 shows an example of predicting a path for an object 910 to maintain a lane other than an existing path.

도 10은 본 발명의 일실시예에 있어서 차선유지 경로 예측을 위한 변수를 설명하기 위한 예를 도시하고 있다. 도 10은 아래 수학식 9 및 수학식 10의 변수들을 설명하고 있다.10 is a diagram illustrating an example for explaining a variable for predicting a lane keeping route according to an embodiment of the present invention. 10 illustrates the variables of Equations 9 and 10 below.

Figure 112018130519552-pat00019
Figure 112018130519552-pat00019

Figure 112018130519552-pat00020
Figure 112018130519552-pat00020

이때, 도 10에서 C 0는 객체(910)와 차선과의 거리를, C 1은 객체(910)의 주행방향 기울기 오차를, C 2는 도로 곡률을, C 3은 도로 곡률의 변화율을 각각 의미할 수 있다. 또한, 도 10에서 "R"은 도로 곡률 반경을, "e y "는 횡방향 오프셋을 각각 의미할 수 있다.At this time, in FIG. 10, C 0 denotes the distance between the object 910 and the lane, C 1 denotes the driving direction tilt error of the object 910, C 2 denotes the curvature of the road, and C 3 denotes the rate of change of the curvature of the road. can do. In addition, in FIG. 10, “ R ” may mean a radius of curvature of a road, and “ e y ” may mean a lateral offset.

이처럼, 본 발명의 실시예들에 따르면, 자차량이 V2X를 통해 주변 차량들로부터 얻은 정보, ADAS 센서 및 차량 내부센서 데이터 값으로 얻은 정보를 융합함으로써 신뢰도 높은 경로를 예측할 수 있으며, 경로예측 대상 객체를 한정하여 연산부하를 경감시킬 수 있다.As described above, according to embodiments of the present invention, a highly reliable route can be predicted by fusing information obtained from surrounding vehicles, ADAS sensor, and vehicle internal sensor data value through V2X, and route prediction target object It is possible to reduce the operation load by limiting

도 11 내지 도 13은 본 발명의 일실시예에 따른 경로 예측 방법의 예를 도시한 흐름도들이다. 본 실시예에 따른 경로 예측 방법은 일례로 앞서 설명한 컴퓨터 장치(100)에 의해 수행될 수 있다. 예를 들어, 컴퓨터 장치(100)의 프로세서(120)는 메모리(110)가 포함하는 운영체제의 코드나 적어도 하나의 프로그램의 코드에 따른 제어 명령(instruction)을 실행하도록 구현될 수 있다. 여기서, 프로세서(120)는 컴퓨터 장치(100)에 저장된 코드가 제공하는 제어 명령에 따라 컴퓨터 장치(100)가 도 11 내지 도 13의 방법이 포함하는 단계들(1110 내지 1180, 1210 내지 1240 및 1310 내지 1330)을 수행하도록 컴퓨터 장치(100)를 제어할 수 있다. 일례로, 도 11의 단계들(1110 내지 1180)은 센서부(210)에 의해, 도 12의 단계들(1210 내지 1240)은 의도판단부(220)에 의해, 도 13의 단계들(1310 내지 1330)은 경로 예측부(230)에 의해 각각 수행될 수 있다.11 to 13 are flowcharts illustrating an example of a path prediction method according to an embodiment of the present invention. The path prediction method according to the present embodiment may be performed by the computer device 100 described above as an example. For example, the processor 120 of the computer device 100 may be implemented to execute a code of an operating system included in the memory 110 or a control instruction according to the code of at least one program. Here, the processor 120 includes steps 1110 to 1180, 1210 to 1240, and 1310 of the method of FIGS. 11 to 13 according to the control command provided by the code stored in the computer device 100. To 1330), the computer device 100 may be controlled. For example, steps 1110 to 1180 of FIG. 11 are performed by the sensor unit 210, steps 1210 to 1240 of FIG. 12 are performed by the intention determination unit 220, and steps 1310 to 13 of FIG. Each of 1330 may be performed by the path prediction unit 230.

단계(1110)에서 컴퓨터 장치(100)는 현재 V2X가 수신되는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 V2X 정보가 수신되는 경우에는 단계(1120) 및 단계(1130)을, V2X 정보가 수신되지 않는 경우에는 단계(1140)를 각각 수행할 수 있다.In step 1110, the computer device 100 may determine whether the current V2X is received. In this case, the computer device 100 may perform steps 1120 and 1130 when V2X information is received, and step 1140 when V2X information is not received.

단계(1120) 및 단계(1130)은 컴퓨터 장치(100)가 현재 수신된 V2X 정보를 이용하여 융합 데이터를 생성하는 과정의 예를 나타내고 있다. 앞서 설명한 바와 같이, ADAS 센서로 계측한 객체에 대한 정보보다 V2X 정보의 신뢰성이 상대적으로 더 높기 때문에 V2X 정보가 수신되는 경우, 컴퓨터 장치(100)는 레이다(310), 라이다(320) 및 카메라(330) 등과 같은 ADAS 센서를 활용하는 대신 V2X 정보를 이용하여 융합 데이터를 생성할 수 있다.Steps 1120 and 1130 illustrate an example of a process in which the computer device 100 generates fusion data using the currently received V2X information. As described above, since the reliability of V2X information is relatively higher than the information on the object measured by the ADAS sensor, when V2X information is received, the computer device 100 uses the radar 310, the lidar 320, and the camera. Instead of using an ADAS sensor such as (330), fusion data can be generated using V2X information.

단계(1140)에서 컴퓨터 장치(100)는 현재 객체가 이전에 검출된 객체인지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 현재 객체가 이전에 검출된 객체인 경우, 단계(1150), 단계(1160) 및 단계(1130)을, 현재 객체가 이전에 검출된 객체가 아닌 경우에는 단계(1170), 단계(1180) 및 단계(1130)을 각각 수행할 수 있다.In step 1140, the computer device 100 may determine whether the current object is a previously detected object. At this time, the computer apparatus 100 performs steps 1150, 1160, and 1130 when the current object is a previously detected object, and step 1170 when the current object is not a previously detected object. ), step 1180, and step 1130 may be performed, respectively.

단계(1150), 단계(1160) 및 단계(1130)는 컴퓨터 장치(100)가 이전에 수신된 V2X 정보를 이용하여 동적 모델(Dynamic model)을 통해 융합 데이터를 생성하는 과정의 예일 수 있다. 앞서 설명한 바와 같이, 센서부(210)는 현재 검출된 객체(주변차량)가 이전에도 검출된 이력이 있는 객체이고 해당 객체로부터 V2X 정보를 수신한 적이 있다면, 센서부(210)는 해당 객체의 타이어 코너링 강성, 질량 등과 같이 시간에 따라 변하지 않는 제원 정보를 재활용할 수 있다. 다시 말해, 컴퓨터 장치(100)는 이전에 수신된 V2X 정보를 이용하여 융합 데이터를 생성할 수 있다.Steps 1150, 1160, and 1130 may be examples of a process in which the computer device 100 generates fusion data through a dynamic model using previously received V2X information. As described above, if the currently detected object (the surrounding vehicle) is an object with a previously detected history and has received V2X information from the object, the sensor unit 210 The specification information that does not change over time such as cornering stiffness and mass can be recycled. In other words, the computer device 100 may generate fusion data using previously received V2X information.

단계(1170), 단계(1180) 및 단계(1130)는 컴퓨터 장치(100)가 새로운 객체에 대해 운동학적 모델(Kinematic model)을 이용하여 융합 데이터를 생성하는 과정의 예일 수 있다. 여기서 운동학적 모델은 레이다(310), 라이다(320), 카메라(330) 및/또는 자차량에 내장된 차속센서, IMU(Inertial Measurement Unit) 등의 ADAS 센서를 활용하여 객체에 대한 정보를 획득하는 모델일 수 있다.Steps 1170, 1180, and 1130 may be examples of a process in which the computer device 100 generates fusion data for a new object by using a kinematic model. Here, the kinematic model acquires information about the object using ADAS sensors such as radar 310, lidar 320, camera 330 and/or vehicle speed sensor built into the own vehicle, and IMU (Inertial Measurement Unit). It can be a model to do.

이처럼, 센서부(210)에서 검출한 자차량 주변의 객체와 환경에 대한 데이터를 융합함에 있어서, ADAS 센서로만 객체를 감지했을 경우보다 무선 통신을 통하여 전달받은 객체 정보(V2X 정보)의 신뢰성이 더 크다는 점과 무선 통신을 이용할 경우 객체 정보가 갱신되는데 ADAS 센서보다 소요되는 시간이 길다는 점을 모두 반영하여 융합 데이터를 생성할 수 있다.In this way, in fusing the data on the environment and the object around the host vehicle detected by the sensor unit 210, the reliability of the object information (V2X information) received through wireless communication is more than when the object is detected only by the ADAS sensor. Convergence data can be generated by reflecting both the fact that it is large and that it takes longer than the ADAS sensor to update object information when wireless communication is used.

다시 말해, 컴퓨터 장치(100)는 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성할 수 있다. 이때, 컴퓨터 장치(100)는 제1 차량에 대해 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 제1 정보를 이용하여 융합 데이터를 생성할 수 있다. 또한, 컴퓨터 장치(100)는 제1 정보가 수신되지 않으면서 제1 객체에 대해 이전에 수신된 제2 정보가 존재하는 경우, 제2 정보를 이용하여 융합 데이터를 생성할 수 있다. 또한, 컴퓨터 장치(100)는 제1 정보가 수신되지 않으면서 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성할 수 있다. 이때, 컴퓨터 장치(100)는 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성함에 있어서, 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 융합 데이터를 생성할 수 있다. 이 경우, 가중평균에 이용되는 가중치는 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정될 수 있다. 보다 구체적으로 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함할 수 있으며, 컴퓨터 장치(100)는 레이다, 라이다 및 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 카메라를 이용하여 차선 정보를 검출하여 융합 데이터를 생성할 수 있다. 이때, 융합 데이터는 차량의 횡속도 및 차량의 차선과의 거리 중 적어도 하나를 포함할 수 있다.In other words, the computer apparatus 100 may generate fusion data by using information from a plurality of sensors linked to the own vehicle and information received through external communication. In this case, when the current first information is received with respect to the first vehicle through external communication, the computer device 100 may generate fusion data using the first information. Also, the computer device 100 may generate fusion data using the second information when the second information previously received for the first object exists without first information being received. Also, when the first information is not received and the second information does not exist, the computer device 100 may generate fusion data by using information from a plurality of sensors. In this case, in generating fusion data using information from a plurality of sensors, the computer apparatus 100 may generate fusion data using a weighted average of output values of each of the plurality of sensors. In this case, the weight used for the weighted average may be determined using an reciprocal of the error covariance for the output values of the plurality of sensors. More specifically, the plurality of sensors may include a radar, a lidar, and a camera, and the computer device 100 detects information on surrounding vehicles using output values of a radar, a lidar, and a camera, and The fusion data can be generated by detecting lane information using. In this case, the fusion data may include at least one of a lateral speed of the vehicle and a distance to a lane of the vehicle.

단계(1210)에서 컴퓨터 장치(100)는 객체가 관심 영역에 존재하는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 객체가 관심 영역에 존재하는 경우에는 단계(1220)을 수행할 수 있으며, 객체가 관심 영역에 존재하지 않는 경우에는 경로를 예측할 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다. 이 경우, 컴퓨터 장치(100)는 관심 영역에 존재하는 차량을 관심 차량으로 선정할 수 있다. 예를 들어, 컴퓨터 장치(100)는 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 관심 차량으로서 선정할 수 있다. 여기서, 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함할 수 있다. 일례로, 복수의 영역들 중 제4 영역 및 제5 영역 각각의 길이는 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 자차량의 속도, 자차량의 가속도 및 기설정된 임계값에 의해 결정될 수 있다. 각 영역의 폭은 차선의 폭에 대응할 수 있다.In operation 1210, the computer device 100 may determine whether the object exists in the region of interest. At this time, the computer device 100 may perform step 1220 if the object exists in the region of interest, and if the object does not exist in the region of interest, it is not necessary to predict the path, and thus step 1110 again. To collect information. In this case, the computer apparatus 100 may select a vehicle existing in the region of interest as the vehicle of interest. For example, the computer apparatus 100 may select a vehicle in which the center is located in a plurality of predetermined areas around the host vehicle as the vehicle of interest. Here, the plurality of areas are a first area in the front left lane of the own vehicle, a second area in the front lane of the own vehicle, a third area in the front right lane of the own vehicle, a fourth area in the left lane of the own vehicle, A fifth area, a sixth area of the rear left lane of the host vehicle, a seventh area of the rear lane of the host vehicle, and an eighth area of the rear right lane of the host vehicle may be included. For example, the lengths of each of the fourth and fifth areas among the plurality of areas are determined based on the length of the host vehicle, and the lengths of the remaining areas are the speed of the host vehicle, the acceleration of the host vehicle, and a preset threshold. Can be determined by The width of each area may correspond to the width of the lane.

단계(1220)에서 컴퓨터 장치(100)는 객체가 차선을 변경하는지 여부를 결정할 수 있다. 일례로, 도 4에서는 선학습 모듈(420)에 의해 학습된 의도판단 모듈(430)이 관심 차량 선정 모듈(410)에 의해 관심 객체(관심 영역에 존재하는 객체)의 차선변경의 의도를 판단하는 실시예를 설명한 바 있다. 이때, 컴퓨터 장치(100)는 객체가 차선을 변경하는 경우에는 단계(1130)를, 객체가 차선을 변경하지 않는 경우에는 단계(1140)를 각각 수행할 수 있다.In operation 1220, the computer device 100 may determine whether the object changes lanes. As an example, in FIG. 4, the intention determination module 430 learned by the prior learning module 420 determines the intention of lane change of the object of interest (object existing in the region of interest) by the vehicle selection module 410 Examples have been described. In this case, the computer apparatus 100 may perform step 1130 when the object changes lanes, and may perform step 1140 when the object does not change lanes.

단계(1130)에서 컴퓨터 장치(100)는 객체가 자차량 차선으로 차선을 변경하는지 여부를 결정할 수 있다. 다시 말해, 객체가 자차량 차선으로 변경하려는 의도가 존재하는 것으로 판단되는 경우, 컴퓨터 장치(100)는 단계(1310) 및 단계(1330)를 수행할 수 있고, 객체가 자차량 차선으로 변경하려는 의도가 존재하지 않는 것으로 판단되는 경우에는 해당 객체의 경로에 대해 관심을 가질 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다.In step 1130, the computer device 100 may determine whether the object changes lanes to the own vehicle lane. In other words, when it is determined that there is an intention to change the object to the own vehicle lane, the computer device 100 may perform steps 1310 and 1330, and the intention to change the object to the own vehicle lane. If it is determined that is not present, since there is no need to pay attention to the path of the object, step 1110 may be performed again to collect information.

단계(1310) 및 단계(1330)은 컴퓨터 장치(100)가 객체의 차선변경에 따른 예측 경로를 생성하는 과정의 예일 수 있다. 다시 말해, 컴퓨터 장치(100)는 관심 객체(관심 영역에 존재하는 객체)가 자차량 차선으로 차선을 변경하는 경우에만 예측 경로를 생성할 수 있다.Steps 1310 and 1330 may be examples of a process in which the computer device 100 generates a predicted path according to a lane change of an object. In other words, the computer apparatus 100 may generate the predicted path only when the object of interest (an object existing in the region of interest) changes a lane to the lane of the own vehicle.

한편, 단계(1140)에서 컴퓨터 장치(100)는 객체가 자차량 차선에서 주행하고 있는지 여부를 결정할 수 있다. 이때, 컴퓨터 장치(100)는 객체가 자차량 차선(자차량의 앞 또는 뒤)에서 주행하고 있는 경우에는 단계(1320) 및 (1330)을 수행할 수 있고, 객체가 자차량 차선(자차량의 앞 또는 뒤)에서 주행하고 있지 않은 경우(일례로, 자차량 차선이 아닌 다른 차선으로 차선을 변경하고 있는 경우)에는 해당 객체의 경로에 대해 관심을 가질 필요가 없기 때문에 다시 단계(1110)을 수행하여 정보를 수집할 수 있다.Meanwhile, in step 1140, the computer device 100 may determine whether the object is traveling in the own vehicle lane. At this time, the computer device 100 may perform steps 1320 and 1330 when the object is traveling in the own vehicle lane (in front of or behind the own vehicle), and the object If you are not driving in the front or rear) (for example, if you are changing lanes to a lane other than the own vehicle lane), you do not need to pay attention to the path of the object, so perform step 1110 again. To collect information.

단계(1320) 및 단계(1330)은 컴퓨터 장치(100)가 객체의 차선유지에 따른 예측 경로를 생성하는 과정의 예일 수 있다. 이러한 차선유지에 따른 예측 경로를 생성하는 과정은 도 9 및 도 10을 통해 이미 설명한 바 있다.Steps 1320 and 1330 may be examples of a process in which the computer device 100 generates a predicted path according to lane maintenance of an object. The process of generating a prediction path according to such lane maintenance has already been described with reference to FIGS. 9 and 10.

차선변경 의도를 결정하기 위해, 컴퓨터 장치(100)는 실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정할 수 있다. 이때, 기계학습모델은 가우시안 커널 함수를 이용하여 학습될 수 있다.In order to determine the intention to change lanes, the computer device 100 uses a machine learning model pre-learned through data on actual vehicles to maintain the selected lane of the vehicle of interest, change the left lane, and change the right lane. You can determine your intentions. In this case, the machine learning model may be trained using a Gaussian kernel function.

한편, 컴퓨터 장치(100)는 이미 설명한 바와 같이, 예측 경로를 생성하기 위해, 선정된 관심 차량 중 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성할 수 있으며, 선정된 관심 차량 중 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성할 수 있다. 컴퓨터 장치(100)는 차선변경 예측 경로를 생성하기 위해, 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하고, 제1 차량의 종방향 속도와 제1 차량의 종방향 가속도에 기초하여 제1 차량과 자차량 사이의 종방향 거리를 예측하고, 제1 차량의 차선 변경에 필요한 횡방향 거리와 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 제1 차량과 자차량 사이의 횡방향 거리를 예측할 수 있다. 또한, 컴퓨터 장치(100)는 제2 차량의 차선과의 거리, 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률 및/또는 도로 곡률의 변화율 에 기초하여 차선유지 예측 경로를 생성할 수 있다.Meanwhile, as already described, the computer device 100 may generate a lane change prediction path for a first vehicle that changes lanes to a lane of the own vehicle among the selected vehicles of interest in order to generate a prediction path. A lane maintenance prediction route for a second vehicle traveling in a lane of the own vehicle may be generated among the vehicles of interest. In order to generate a lane change prediction route, the computer apparatus 100 predicts a lane change time required based on a lateral distance and a lateral speed required for the lane change of the first vehicle, and determines the longitudinal speed and the first vehicle. 1 Predict the longitudinal distance between the first vehicle and the own vehicle based on the longitudinal acceleration of the vehicle, and use the lateral distance required for lane change of the first vehicle, the lane change time required, and a sinusoidal function. It is possible to predict the lateral distance between the and the own vehicle. In addition, the computer device 100 may generate a lane maintenance prediction path based on the distance to the lane of the second vehicle, the heading angle error of the second vehicle, the curvature of the road and/or the rate of change of the curvature of the road. I can.

이상에서 설명된 시스템 또는 장치는 하드웨어 구성요소, 소프트웨어 구성요소 또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPGA(field programmable gate array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다. 처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 어플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다. 이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.The system or device described above may be implemented as a hardware component, a software component, or a combination of a hardware component and a software component. For example, the devices and components described in the embodiments are, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable gate array (FPGA). , A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions, such as one or more general purpose computers or special purpose computers. The processing device may execute an operating system (OS) and one or more software applications executed on the operating system. In addition, the processing device may access, store, manipulate, process, and generate data in response to the execution of software. For the convenience of understanding, although it is sometimes described that one processing device is used, one of ordinary skill in the art, the processing device is a plurality of processing elements and/or a plurality of types of processing elements. It can be seen that it may include. For example, the processing device may include a plurality of processors or one processor and one controller. In addition, other processing configurations are possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다. 소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치에 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록매체에 저장될 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of these, configuring the processing unit to behave as desired or processed independently or collectively. You can command the device. Software and/or data may be interpreted by a processing device or to provide instructions or data to a processing device, of any type of machine, component, physical device, virtual equipment, computer storage medium or device. Can be embodyed in The software may be distributed over networked computer systems and stored or executed in a distributed manner. Software and data may be stored on one or more computer-readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 매체는 컴퓨터로 실행 가능한 프로그램을 계속 저장하거나, 실행 또는 다운로드를 위해 임시 저장하는 것일 수도 있다. 또한, 매체는 단일 또는 수개 하드웨어가 결합된 형태의 다양한 기록수단 또는 저장수단일 수 있는데, 어떤 컴퓨터 시스템에 직접 접속되는 매체에 한정되지 않고, 네트워크 상에 분산 존재하는 것일 수도 있다. 매체의 예시로는, 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체, CD-ROM 및 DVD와 같은 광기록 매체, 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical medium), 및 ROM, RAM, 플래시 메모리 등을 포함하여 프로그램 명령어가 저장되도록 구성된 것이 있을 수 있다. 또한, 다른 매체의 예시로, 애플리케이션을 유통하는 앱 스토어나 기타 다양한 소프트웨어를 공급 내지 유통하는 사이트, 서버 등에서 관리하는 기록매체 내지 저장매체도 들 수 있다. 프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.The method according to the embodiment may be implemented in the form of program instructions that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like alone or in combination. The medium may be one that continuously stores a program executable by a computer, or temporarily stores a program for execution or download. In addition, the medium may be a variety of recording means or storage means in a form in which a single piece of hardware or several pieces of hardware are combined, but is not limited to a medium directly connected to a computer system, and may be distributed on a network. Examples of media include magnetic media such as hard disks, floppy disks, and magnetic tapes, optical recording media such as CD-ROMs and DVDs, magnetic-optical media such as floptical disks, and And a ROM, RAM, flash memory, and the like, and may be configured to store program instructions. In addition, examples of other media include an app store that distributes applications, a site that supplies or distributes various software, and a recording medium or storage medium managed by a server. Examples of the program instructions include not only machine language codes such as those produced by a compiler, but also high-level language codes that can be executed by a computer using an interpreter or the like.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.As described above, although the embodiments have been described by the limited embodiments and drawings, various modifications and variations are possible from the above description by those of ordinary skill in the art. For example, the described techniques are performed in a different order from the described method, and/or components such as a system, structure, device, circuit, etc. described are combined or combined in a form different from the described method, or other components Alternatively, even if substituted or substituted by an equivalent, an appropriate result can be achieved.

그러므로, 다른 구현들, 다른 실시예들 및 특허청구범위와 균등한 것들도 후술하는 청구범위의 범위에 속한다.Therefore, other implementations, other embodiments and claims and equivalents fall within the scope of the following claims.

Claims (15)

적어도 하나의 프로세서를 포함하는 컴퓨터 장치의 경로 예측 방법에 있어서,
상기 적어도 하나의 프로세서에 의해, 자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계;
상기 적어도 하나의 프로세서에 의해, 상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및
상기 적어도 하나의 프로세서에 의해, 상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계
를 포함하고,
상기 융합 데이터를 생성하는 단계는,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계
를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 하는 경로 예측 방법.
In the path prediction method of a computer device including at least one processor,
Generating, by the at least one processor, fusion data using information from a plurality of sensors associated with the own vehicle and information received through external communication;
Selecting, by the at least one processor, a vehicle of interest using the generated fusion data;
Determining a lane change intention of the selected vehicle of interest, by the at least one processor; And
Generating, by the at least one processor, a predicted path of the selected vehicle of interest according to the determined lane change intention
Including,
The step of generating the fusion data,
Generating fusion data using the first information when current first information is received for the first vehicle through the external communication;
Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And
When the first information is not received and the second information does not exist, generating fusion data using information from a plurality of sensors
Including,
Generating the fusion data using the information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined by using an inverse number of an error covariance with respect to the output values of each of the plurality of sensors.
삭제delete 삭제delete 제1항에 있어서,
상기 복수의 센서들은 레이다(radar), 라이다(lidar) 및 카메라를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 레이다, 상기 라이다 및 상기 카메라의 출력값을 이용하여 주변차량 정보를 검출하고, 상기 카메라를 이용하여 차선 정보를 검출하여 상기 융합 데이터를 생성하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 1,
The plurality of sensors includes a radar, a lidar, and a camera,
Generating the fusion data using the information from the plurality of sensors,
And generating the fusion data by detecting surrounding vehicle information using the radar, the lidar, and output values of the camera, and detecting lane information using the camera.
제1항에 있어서,
상기 융합 데이터는 차량의 횡속도(Lateral Velocity) 및 차량의 차선과의 거리(Lateral Offset) 중 적어도 하나를 포함하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 1,
The fusion data includes at least one of a lateral velocity of the vehicle and a lateral offset of the vehicle.
제1항에 있어서,
상기 관심 차량을 선정하는 단계는,
상기 자차량의 주변에 기설정된 복수의 영역들에 중심이 위치하는 차량을 상기 관심 차량으로서 선정하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 1,
The step of selecting the vehicle of interest,
And selecting a vehicle whose center is located in a plurality of predetermined regions around the host vehicle as the vehicle of interest.
제6항에 있어서,
상기 복수의 영역들은 자차량 전방 좌측 차로의 제1 영역, 자차량 전방 차로의 제2 영역, 자차량 전방 우측 차로의 제3 영역, 자차량 좌측 차로의 제4 영역, 자차량 우측 차로의 제5 영역, 자차량 후방 좌측 차로의 제6 영역, 자차량 후방 차로의 제7 영역 및 자차량 후방 우측 차로의 제8 영역을 포함하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 6,
The plurality of areas are a first area in the front left lane of the own vehicle, a second area in the front lane of the own vehicle, a third area in the front right lane of the own vehicle, a fourth area in the left lane of the own vehicle, and a fifth in the right lane of the own vehicle. A route prediction method comprising: a region, a sixth region of a rear left lane of the subject vehicle, a seventh region of a rear lane of the subject vehicle, and an eighth region of a rear right lane of the subject vehicle.
제7항에 있어서,
상기 복수의 영역들 중 상기 제4 영역 및 상기 제5 영역 각각의 길이는 상기 자차량의 길이에 기초하여 결정되고, 나머지 영역들 각각의 길이는 상기 자차량의 속도, 상기 자차량의 가속도 및 기설정된 임계값에 의해 결정되는 것을 특징으로 하는 경로 예측 방법.
The method of claim 7,
The length of each of the fourth and fifth areas among the plurality of areas is determined based on the length of the host vehicle, and the length of each of the remaining areas is determined by the speed of the host vehicle, the acceleration of the host vehicle, and A route prediction method, characterized in that it is determined by a set threshold.
제1항에 있어서,
상기 차선변경 의도를 결정하는 단계는,
실제 차량들에 대한 데이터를 통해 선학습된 기계학습모델을 이용하여 상기 선정된 관심 차량의 차선 유지, 좌측 차선 변경 및 우측 차선 변경 중 하나에 대한 의도를 결정하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 1,
The step of determining the lane change intention,
And determining an intention for one of lane maintenance, left lane change, and right lane change of the selected vehicle of interest by using a machine learning model pre-learned through data on actual vehicles.
제9항에 있어서,
상기 기계학습모델은 가우시안 커널 함수(Gaussian kernel function)를 이용하여 학습되는 것을 특징으로 하는 경로 예측 방법.
The method of claim 9,
The machine learning model is a path prediction method, characterized in that the learning using a Gaussian kernel function (Gaussian kernel function).
제9항에 있어서,
상기 예측 경로를 생성하는 단계는,
상기 선정된 관심 차량 중 상기 자차량의 차선으로 차선을 변경하는 제1 차량에 대한 차선변경 예측 경로를 생성하는 단계; 및
상기 선정된 관심 차량 중 상기 자차량의 차선에서 주행하는 제2 차량에 대한 차선유지 예측 경로를 생성하는 단계
를 포함하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 9,
Generating the prediction path,
Generating a lane change prediction route for a first vehicle that changes lanes to a lane of the own vehicle among the selected vehicles of interest; And
Generating a lane maintenance prediction route for a second vehicle traveling in a lane of the own vehicle among the selected vehicles of interest
Path prediction method comprising a.
제11항에 있어서,
상기 차선변경 예측 경로를 생성하는 단계는,
상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 횡방향 속도에 기초하여 차선 변경 소요 시간을 예측하는 단계;
상기 제1 차량의 종방향 속도와 상기 제1 차량의 종방향 가속도에 기초하여 상기 제1 차량과 상기 자차량 사이의 종방향 거리를 예측하는 단계; 및
상기 제1 차량의 차선 변경에 필요한 횡방향 거리와 상기 차선 변경 소요 시간 및 사인곡선 함수를 이용하여 상기 제1 차량과 상기 자차량 사이의 횡방향 거리를 예측하는 단계
를 포함하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 11,
Generating the lane change prediction path,
Predicting a lane change time required based on a lateral distance and a lateral speed required for lane change of the first vehicle;
Predicting a longitudinal distance between the first vehicle and the own vehicle based on a longitudinal speed of the first vehicle and a longitudinal acceleration of the first vehicle; And
Estimating a lateral distance between the first vehicle and the own vehicle using a lateral distance required for a lane change of the first vehicle, a time required for the lane change, and a sinusoidal function
Path prediction method comprising a.
제11항에 있어서,
상기 차선유지 예측 경로를 생성하는 단계는,
상기 제2 차량의 차선과의 거리, 상기 제2 차량의 주향방향 기울기 오차(heading angle error), 도로 곡률(Curvature) 및 도로 곡률의 변화율(Curvature rate) 중 적어도 하나에 기초하여 상기 차선유지 예측 경로를 생성하는 것을 특징으로 하는 경로 예측 방법.
The method of claim 11,
The step of generating the lane maintenance prediction path,
The lane maintenance prediction path based on at least one of a distance to the lane of the second vehicle, a heading angle error of the second vehicle, a curvature of a road, and a curvature rate of the road A route prediction method, characterized in that to generate a.
컴퓨터 장치와 결합되어 경로 예측 방법을 컴퓨터 장치에 실행시키기 위해 컴퓨터 판독 가능한 기록매체에 저장된 컴퓨터 프로그램에 있어서,
상기 경로 예측 방법은,
자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하는 단계;
상기 선정된 관심 차량의 차선변경 의도를 결정하는 단계; 및
상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하는 단계
를 포함하고,
상기 융합 데이터를 생성하는 단계는,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하는 단계;
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하는 단계; 및
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계
를 포함하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하는 단계는,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것을 특징으로 하는 컴퓨터 프로그램.
A computer program coupled with a computer device and stored in a computer-readable recording medium to execute a path prediction method on the computer device,
The route prediction method,
Generating fusion data using information received through external communication and information from a plurality of sensors associated with the own vehicle;
Selecting a vehicle of interest using the generated fusion data;
Determining a lane change intention of the selected vehicle of interest; And
Generating a predicted path of the selected vehicle of interest according to the determined lane change intention
Including,
The step of generating the fusion data,
When current first information is received for a first vehicle through the external communication, generating fusion data using the first information;
Generating fusion data using the second information when the second information previously received for the first vehicle is present without receiving the first information; And
When the first information is not received and the second information does not exist, generating fusion data using information from a plurality of sensors
Including,
Generating the fusion data using the information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined using an inverse number of an error covariance for the output values of each of the plurality of sensors.
컴퓨터 장치에 있어서,
상기 컴퓨터 장치에서 판독 가능한 명령을 실행하도록 구현되는 적어도 하나의 프로세서
를 포함하고,
상기 적어도 하나의 프로세서에 의해,
자차량과 연계된 복수의 센서들로부터의 정보 및 외부 통신을 통해 수신되는 정보를 이용하여 융합 데이터를 생성하고,
상기 생성된 융합 데이터를 이용하여 관심 차량을 선정하고,
상기 선정된 관심 차량의 차선변경 의도를 결정하고,
상기 결정된 차선변경 의도에 따라 상기 선정된 관심 차량의 예측 경로를 생성하고,
상기 융합 데이터를 생성하기 위해,
제1 차량에 대해 상기 외부 통신을 통해 현재의 제1 정보가 수신되는 경우, 상기 제1 정보를 이용하여 융합 데이터를 생성하고,
상기 제1 정보가 수신되지 않으면서 상기 제1 차량에 대해 이전에 수신된 제2 정보가 존재하는 경우, 상기 제2 정보를 이용하여 융합 데이터를 생성하고,
상기 제1 정보가 수신되지 않으면서 상기 제2 정보가 존재하지 않는 경우, 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하고,
상기 복수의 센서들로부터의 정보를 이용하여 융합 데이터를 생성하기 위해,
상기 복수의 센서들 각각의 출력값에 대한 가중평균을 이용하여 상기 융합 데이터를 생성하고,
상기 가중평균에 이용되는 가중치는 상기 복수의 센서들 각각의 출력값에 대한 오차 공분산의 역수를 이용하여 결정되는 것
을 특징으로 하는 컴퓨터 장치.
In the computer device,
At least one processor embodied to execute instructions readable by the computer device
Including,
By the at least one processor,
Fusion data is generated by using information from a plurality of sensors linked to the host vehicle and information received through external communication,
Selecting a vehicle of interest using the generated fusion data,
Determine the lane change intention of the selected vehicle of interest,
Generate a predicted path of the selected vehicle of interest according to the determined lane change intention,
To generate the fusion data,
When current first information is received for the first vehicle through the external communication, fusion data is generated using the first information,
When the second information previously received for the first vehicle is present without receiving the first information, fusion data is generated using the second information,
When the first information is not received and the second information does not exist, fusion data is generated using information from a plurality of sensors,
To generate fusion data using information from the plurality of sensors,
Generating the fusion data using a weighted average of the output values of each of the plurality of sensors,
The weight used for the weighted average is determined by using the inverse of the error covariance for the output values of each of the plurality of sensors.
Computer device, characterized in that.
KR1020180169636A 2018-12-26 2018-12-26 Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication KR102179835B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180169636A KR102179835B1 (en) 2018-12-26 2018-12-26 Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180169636A KR102179835B1 (en) 2018-12-26 2018-12-26 Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication

Publications (2)

Publication Number Publication Date
KR20200084440A KR20200084440A (en) 2020-07-13
KR102179835B1 true KR102179835B1 (en) 2020-11-17

Family

ID=71570771

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180169636A KR102179835B1 (en) 2018-12-26 2018-12-26 Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication

Country Status (1)

Country Link
KR (1) KR102179835B1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019214482A1 (en) * 2019-09-23 2021-03-25 Robert Bosch Gmbh Method for the safe, at least partially automated, driving of a motor vehicle
KR102444675B1 (en) * 2021-06-24 2022-09-20 (주)뷰런테크놀로지 Apparatus and method for predicting lane-change of surrounding objects

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307972A (en) * 2001-04-11 2002-10-23 Nissan Motor Co Ltd Controller for inter-vehicle distance

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102011082126B4 (en) * 2011-09-05 2020-07-23 Robert Bosch Gmbh SAFETY DEVICE FOR MOTOR VEHICLES
US10183668B2 (en) * 2015-07-28 2019-01-22 Nissan Motor Co., Ltd. Travel control method and travel control apparatus

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002307972A (en) * 2001-04-11 2002-10-23 Nissan Motor Co Ltd Controller for inter-vehicle distance

Also Published As

Publication number Publication date
KR20200084440A (en) 2020-07-13

Similar Documents

Publication Publication Date Title
EP3324332B1 (en) Method and system to predict vehicle traffic behavior for autonomous vehicles to make driving decisions
US10678248B2 (en) Fast trajectory planning via maneuver pattern selection
US10996679B2 (en) Method to evaluate trajectory candidates for autonomous driving vehicles (ADVs)
US11467591B2 (en) Online agent using reinforcement learning to plan an open space trajectory for autonomous vehicles
US11378961B2 (en) Method for generating prediction trajectories of obstacles for autonomous driving vehicles
US11442450B2 (en) Method for determining passable area in planning a path of autonomous driving vehicles
JP6567617B2 (en) Method, medium and system for improving the stability of autonomous vehicles
US10782699B2 (en) Real-time perception adjustment and driving adaption based on surrounding vehicles' behavior for autonomous driving vehicles
JP6832421B2 (en) Simulation-based evaluation method for sensing requirements of self-driving cars
US11594011B2 (en) Deep learning-based feature extraction for LiDAR localization of autonomous driving vehicles
EP3359436B1 (en) Method and system for operating autonomous driving vehicles based on motion plans
US11364931B2 (en) Lidar localization using RNN and LSTM for temporal smoothness in autonomous driving vehicles
US20190317508A1 (en) Cost design for path selection in autonomous driving technology
US11409284B2 (en) Relaxation optimization model to plan an open space trajectory for autonomous vehicles
US11260880B2 (en) Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway
US11353878B2 (en) Soft-boundary based path optimization for complex scenes for autonomous driving vehicles
US11485353B2 (en) Segmenting a parking trajectory to control an autonomous driving vehicle to park
JP7149288B2 (en) Vertical Parking Planning System Based on Spiral Curves for Autonomous Vehicles
US20180203450A1 (en) Method and system for determining unit gain of speed control for autonomous driving vehicles
US11106212B2 (en) Path planning for complex scenes with self-adjusting path length for autonomous driving vehicles
KR102179835B1 (en) Method and system for path prediction considering vehicle travel intention and object selection algorithm based on vehicle sensor including wireless communication
JP6952117B2 (en) Speed control command automatic calibration system for self-driving vehicles
JP2024021071A (en) Method and device for generating virtual stop-line
KR20240036967A (en) Method and apparatus for active driving assistance based on driving information judgment
JP2023093270A (en) Vehicle control apparatus, vehicle control method, and vehicle control program

Legal Events

Date Code Title Description
E701 Decision to grant or registration of patent right
GRNT Written decision to grant