Nothing Special   »   [go: up one dir, main page]

WO2020241971A1 - Traffic accident management device and traffic accident management method - Google Patents

Traffic accident management device and traffic accident management method Download PDF

Info

Publication number
WO2020241971A1
WO2020241971A1 PCT/KR2019/010738 KR2019010738W WO2020241971A1 WO 2020241971 A1 WO2020241971 A1 WO 2020241971A1 KR 2019010738 W KR2019010738 W KR 2019010738W WO 2020241971 A1 WO2020241971 A1 WO 2020241971A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
processor
vehicle
accident
autonomous vehicle
Prior art date
Application number
PCT/KR2019/010738
Other languages
French (fr)
Korean (ko)
Inventor
이한성
Original Assignee
엘지전자 주식회사
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 엘지전자 주식회사 filed Critical 엘지전자 주식회사
Priority to US17/259,260 priority Critical patent/US20220073104A1/en
Priority to KR1020190130391A priority patent/KR20190126024A/en
Publication of WO2020241971A1 publication Critical patent/WO2020241971A1/en

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/14Adaptive cruise control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/26Government or public services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/40Business processes related to the transportation industry

Definitions

  • the present invention relates to a traffic accident handling apparatus and a traffic accident handling method.
  • a vehicle is a device that moves in a direction desired by a boarding user.
  • a typical example is a car.
  • Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation.
  • an object of the present invention is to provide a traffic accident processing apparatus and a traffic accident processing method for determining the responsibility of a traffic accident of an autonomous vehicle.
  • a traffic accident processing method includes, by at least one processor, acquiring data on a situation of an autonomous vehicle; Determining, by at least one processor, whether an accident has occurred in the autonomous vehicle based on the data; And determining, by at least one processor, a person responsible for the accident using an artificial intelligence algorithm.
  • a traffic accident processing apparatus acquires data on a situation of an autonomous vehicle, determines whether an accident has occurred in the autonomous vehicle based on the data, and uses an artificial intelligence algorithm, It includes; a processor for determining the responsibility of the accident.
  • FIG. 1 is a diagram referenced to describe a system according to an embodiment of the present invention.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • FIG. 3 is a view referenced to explain a traffic accident processing apparatus according to an embodiment of the present invention.
  • 4 to 8 are views referenced for explaining a traffic accident handling method according to an embodiment of the present invention.
  • FIG. 1 is a view showing a vehicle according to an embodiment of the present invention.
  • the system 1 may provide a vehicle 10 to a user.
  • the system 1 may include a traffic accident handling device 2, at least one road side unit 3 and at least one vehicle 10.
  • the traffic accident processing apparatus 2 may be implemented with at least one server.
  • the traffic accident processing apparatus 2 may perform traffic accident processing when a traffic accident occurs in the autonomous vehicle 10.
  • the traffic accident handling apparatus 2 is described as an electronic device separate from the vehicle 10, but may be an electronic device included in the vehicle 10.
  • each vehicle 10 may include a traffic accident handling device 2.
  • the road side unit (RSU) 3 may be understood as a structure disposed around a road on which the vehicle 10 travels.
  • the road side unit 3 may communicate with at least one of the autonomous vehicle 10 and the traffic accident processing device 2.
  • the road side unit 3 may be provided with a sensing device that senses a road condition.
  • the vehicle 10 may be at least one of a manual driving vehicle and an autonomous driving vehicle.
  • the vehicle 10 is defined as a means of transport running on a road or track.
  • the vehicle 10 is a concept including a car, a train, and a motorcycle.
  • the vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
  • the electronic device 100 may be included in the vehicle 10.
  • the electronic device 100 may be provided in a vehicle for interaction with the traffic accident handling device 2.
  • the vehicle 10 may interact with at least one robot.
  • the robot may be an Autonomous Mobile Robot (AMR) capable of driving by magnetic force.
  • AMR Autonomous Mobile Robot
  • the mobile robot is capable of moving by itself and is free to move, and is provided with a plurality of sensors to avoid obstacles while driving, so that it can travel avoiding obstacles.
  • the mobile robot may be a flying robot (eg, a drone) having a flying device.
  • the mobile robot may be a wheel-type robot that includes at least one wheel and is moved through rotation of the wheel.
  • the mobile robot may be a legged robot that has at least one leg and is moved using the leg.
  • the robot may function as a device that complements the user's convenience of the vehicle 10. For example, the robot may perform a function of moving the luggage loaded in the vehicle 10 to the user's final destination. For example, the robot may perform a function of guiding a user who gets off the vehicle 10 to a final destination. For example, the robot may perform a function of transporting a user who gets off the vehicle 10 to a final destination.
  • At least one electronic device included in the vehicle may communicate with the robot through the communication device 220.
  • At least one electronic device included in the vehicle may provide the robot with data processed by at least one electronic device included in the vehicle.
  • at least one electronic device included in the vehicle may provide at least one of object data, HD map data, vehicle state data, vehicle location data, and driving plan data to the robot.
  • At least one electronic device included in the vehicle may receive data processed by the robot from the robot. At least one electronic device included in the vehicle may receive at least one of sensing data generated by the robot, object data, robot state data, robot position data, and movement plan data of the robot.
  • At least one electronic device included in the vehicle may generate a control signal further based on data received from the robot. For example, at least one electronic device included in the vehicle compares the information on the object generated by the object detection device 210 with the information on the object generated by the robot, and based on the comparison result, a control signal Can be created. At least one electronic device included in the vehicle may generate a control signal so that interference between the movement path of the vehicle 10 and the movement path of the robot does not occur.
  • At least one electronic device included in the vehicle may include a software module or a hardware module (hereinafter, referred to as an artificial intelligence module) that implements artificial intelligence (AI). At least one electronic device included in the vehicle may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.
  • an artificial intelligence module that implements artificial intelligence (AI).
  • At least one electronic device included in the vehicle may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.
  • the artificial intelligence module may perform machine learning on input data using at least one artificial neural network (ANN).
  • ANN artificial neural network
  • the artificial intelligence module may output driving plan data through machine learning on input data.
  • At least one electronic device included in the vehicle may generate a control signal based on data output from the artificial intelligence module.
  • At least one electronic device included in the vehicle may receive data processed by artificial intelligence from an external device through the communication device 220. At least one electronic device included in the vehicle may generate a control signal based on data processed by artificial intelligence.
  • FIG. 2 is a control block diagram of a vehicle according to an embodiment of the present invention.
  • the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
  • the vehicle electronic device 100 may exchange signals, information, or data with the traffic accident processing device 2 through the communication device 220.
  • the vehicle electronic device 100 may provide a signal, information, or data received from the traffic accident processing device 2 to another electronic device in the vehicle 10.
  • the user interface device 200 is a device for communicating with the vehicle 10 and a user.
  • the user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user.
  • the vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
  • UI user interface
  • UX user experience
  • the object detection device 210 may detect an object outside the vehicle 10.
  • the object detection device 210 may include at least one sensor capable of detecting an object outside the vehicle 10.
  • the object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor.
  • the object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
  • the camera may generate information on an object outside the vehicle 10 by using the image.
  • the camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor and processes a received signal, and generates data about an object based on the processed signal.
  • the camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera.
  • the camera may use various image processing algorithms to obtain position information of an object, distance information to an object, or information on a relative speed to an object. For example, from the acquired image, the camera may acquire distance information and relative speed information from the object based on a change in the size of the object over time. For example, the camera may obtain distance information and relative speed information with an object through a pin hole model, road surface profiling, or the like. For example, the camera may obtain distance information and relative speed information with an object based on disparity information from a stereo image obtained from a stereo camera.
  • the camera may be mounted in a position where field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle.
  • the camera may be placed in the interior of the vehicle, close to the front windshield, to acquire an image of the front of the vehicle.
  • the camera can be placed around the front bumper or radiator grille.
  • the camera may be placed in the interior of the vehicle, close to the rear glass, in order to acquire an image of the rear of the vehicle.
  • the camera can be placed around the rear bumper, trunk or tailgate.
  • the camera may be disposed in proximity to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle.
  • the camera may be disposed around a side mirror, a fender, or a door.
  • the radar may generate information on an object outside the vehicle 10 using radio waves.
  • the radar may include at least one processor that is electrically connected to the electromagnetic wave transmitter, the electromagnetic wave receiver, and the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal.
  • the radar may be implemented in a pulse radar method or a continuous wave radar method according to the principle of radio wave emission.
  • the radar may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods.
  • FMCW frequency modulated continuous wave
  • FSK frequency shift keyong
  • the radar detects an object by means of an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed.
  • TOF time of flight
  • the radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
  • the lidar may generate information on an object outside the vehicle 10 using laser light.
  • the radar may include at least one processor that is electrically connected to the optical transmitter, the optical receiver, and the optical transmitter and the optical receiver, processes a received signal, and generates data for an object based on the processed signal. .
  • the rider may be implemented in a TOF (Time of Flight) method or a phase-shift method.
  • the lidar can be implemented either driven or non-driven. When implemented as a drive type, the lidar is rotated by a motor, and objects around the vehicle 10 can be detected. When implemented in a non-driven manner, the lidar can detect an object located within a predetermined range with respect to the vehicle by optical steering.
  • the vehicle 100 may include a plurality of non-driven lidars.
  • the radar detects an object based on a time of flight (TOF) method or a phase-shift method by means of a laser light, and determines the position of the detected object, the distance to the detected object, and the relative speed. Can be detected.
  • the lidar may be placed at an appropriate location outside the vehicle to detect objects located in front, rear or side of the vehicle.
  • the communication device 220 may exchange signals with devices located outside the vehicle 10.
  • the communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle.
  • the communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 220 may communicate with a device located outside the vehicle 10 using a 5G (for example, new radio, NR) method.
  • the communication device 220 may implement V2X (V2V, V2D, V2P, V2N) communication using a 5G method.
  • the driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230.
  • the driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
  • the main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
  • the drive control device 250 is a device that electrically controls various vehicle drive devices in the vehicle 10.
  • the drive control device 250 may include a power train drive control device, a chassis drive control device, a door/window drive control device, a safety device drive control device, a lamp drive control device, and an air conditioning drive control device.
  • the power train drive control device may include a power source drive control device and a transmission drive control device.
  • the chassis drive control device may include a steering drive control device, a brake drive control device, and a suspension drive control device.
  • the safety device driving control device may include a safety belt driving control device for controlling the safety belt.
  • the vehicle drive control device 250 may be referred to as a control Electronic Control Unit (ECU).
  • ECU control Electronic Control Unit
  • the driving system 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection device 210.
  • the driving system 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
  • the driving system 260 may be a concept including ADAS.
  • ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
  • ACC adaptive cruise control system
  • AEB automatic emergency braking system
  • FCW forward collision warning system
  • LKA Lane Keeping Assist
  • Lane Change Assist LCA
  • TFA Target Following Assist
  • BSD Blind Spot Detection
  • the driving system 260 may include an autonomous driving electronic control unit (ECU).
  • the autonomous driving ECU may set an autonomous driving route based on data received from at least one of other electronic devices in the vehicle 10.
  • the autonomous driving ECU is based on data received from at least one of the user interface device 200, the object detection device 210, the communication device 220, the sensing unit 270, and the location data generating device 280, You can set an autonomous driving route.
  • the autonomous driving ECU may generate a control signal so that the vehicle 10 travels along the autonomous driving path.
  • the control signal generated by the autonomous driving ECU may be provided to at least one of the main ECU 240 and the vehicle driving device 250.
  • the sensing unit 270 may sense the state of the vehicle.
  • the sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle.
  • IMU inertial navigation unit
  • a collision sensor a wheel sensor
  • a speed sensor a speed sensor
  • a tilt sensor a weight detection sensor
  • a heading sensor a position module
  • a vehicle At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include.
  • the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
  • the sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor.
  • the sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed.
  • the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
  • the sensing unit 270 may generate vehicle state information based on the sensing data.
  • the vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
  • the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
  • the sensing unit may include a tension sensor.
  • the tension sensor may generate a sensing signal based on a tension state of the seat belt.
  • the location data generating device 280 may generate location data of the vehicle 10.
  • the location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS).
  • GPS Global Positioning System
  • DGPS Differential Global Positioning System
  • the location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS.
  • the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
  • IMU Inertial Measurement Unit
  • the location data generating device 280 may be referred to as a location positioning device.
  • the location data generating device 280 may be referred to as a Global Navigation Satellite System (GNSS).
  • GNSS Global Navigation Satellite System
  • Vehicle 10 may include an internal communication system 50.
  • a plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50.
  • the signal may contain data.
  • the internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
  • FIG. 3 is a control block diagram of an electronic device according to an embodiment of the present invention.
  • the traffic accident processing apparatus 2 may include a communication device 320, a memory 340, a processor 370, an interface unit 180, and a power supply unit 390.
  • the communication device 320 may exchange signals with the vehicle 10 and a communication device outside the vehicle.
  • the vehicle external communication device may include a load side unit 3 and an external server.
  • the communication device 320 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
  • RF radio frequency
  • the communication device 320 may communicate with the vehicle 10 and an external communication device outside the vehicle using a 5G (for example, new radio (NR)) method.
  • a vehicle external communication device according to an embodiment of the present invention may be described based on the road side unit 3.
  • the memory 340 is electrically connected to the processor 370.
  • the memory 340 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data.
  • the memory 340 may store data processed by the processor 370.
  • the memory 340 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive.
  • the memory 340 may store various data for the overall operation of the traffic accident processing apparatus 2, such as a program for processing or controlling the processor 370.
  • the memory 340 may be implemented integrally with the processor 370. Depending on the embodiment, the memory 340 may be classified as a sub-element of the processor 370.
  • the interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly.
  • the interface unit 180 includes a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 240, a vehicle driving device 250, a driving system ( 260), the sensing unit 270, and the location data generating device 280 may exchange signals with at least one of wired or wirelessly.
  • the interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
  • the power supply unit 390 can supply power to the traffic accident handling apparatus 2.
  • the power supply unit 390 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the traffic accident handling apparatus 2.
  • the power supply unit 390 may be operated according to a control signal provided from the main ECU 340.
  • the power supply unit 390 may be implemented as a switched-mode power supply (SMPS).
  • SMPS switched-mode power supply
  • the processor 370 may be electrically connected to the memory 340, the interface unit 180, and the power supply unit 390 to exchange signals.
  • the processor 370 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
  • the processor 370 may be driven by power provided from the power supply unit 390.
  • the processor 370 may receive data, process data, generate a signal, and provide a signal while power is supplied by the power supply unit 390.
  • the processor 370 may receive information from another electronic device in the vehicle 10 through the interface unit 180.
  • the processor 370 may provide a control signal to another electronic device in the vehicle 10 through the interface unit 180.
  • the processor 370 may acquire data on the situation of the autonomous vehicle 10.
  • the processor 370 may obtain first data from at least one electronic device included in the autonomous vehicle 10.
  • the processor 370 may obtain the first data from at least one of the object detection device 210 and the sensing unit 270 provided in the autonomous vehicle 10.
  • the first data may include at least one of location information, speed information, heading information, acceleration information, deceleration information, steering information, brake information, and impact amount information of the autonomous vehicle 10.
  • the first data may be data on objects around the autonomous vehicle 10.
  • the processor 370 may acquire second data from at least one electronic device provided in another vehicle located around the autonomous vehicle.
  • the other vehicle may be another autonomous vehicle.
  • the processor 370 may obtain second data from at least one of an object detection device and a sensing unit provided in another autonomous vehicle.
  • the second data may include sensing data sensed by the autonomous vehicle 10.
  • the second data may include at least one of location information, speed information, heading information, acceleration information, deceleration information, steering information, brake information, and impact amount
  • the processor 370 may acquire third data from at least one external communication device located around the autonomous vehicle 10.
  • the third data may be sensing data sensed by the vehicle 10 acquired by the road side unit 3.
  • the third data may be sensing data sensed by the vehicle 10 acquired from the load side unit 3 by an external server.
  • the processor 370 may obtain third data from at least one road side unit 3 located around the autonomous vehicle 10.
  • the third data may include at least one of sensing data (eg, image data), traffic light data, and map data sensed by the autonomous vehicle 10.
  • the processor 370 may determine whether an accident has occurred in the autonomous vehicle based on data on the situation of the autonomous vehicle 10.
  • the processor 370 is based on at least one of the first data obtained from the autonomous vehicle 10, the second data obtained from another autonomous vehicle, and the third data obtained from the road side unit, It is possible to determine whether an accident in (10) has occurred.
  • the autonomous vehicle 10 It is possible to determine whether an accident has occurred.
  • the processor 370 may use an artificial intelligence algorithm to determine the responsibility of the accident.
  • the processor 370 is based on at least one of the first data obtained from the autonomous vehicle 10, the second data obtained from another autonomous vehicle, and the third data obtained from the road side unit, and the accident occurrence time point The situation of can be reconstructed by simulation.
  • the processor 370 synthesizes and edits the image data acquired from the autonomous vehicle 10, the image data acquired from another autonomous vehicle, and the image data acquired from the road side unit, The situation can be reconstructed into a simulation.
  • the processor 370 may map the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle on the map in chronological order.
  • the processor 370 may reconstruct a situation at the time of an accident in a simulation through mapping of the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle.
  • the information on the surrounding objects of the autonomous vehicle 10 is, among the first data obtained from the autonomous vehicle 10, the second data obtained from the other autonomous vehicle, and the third data obtained from the road side unit. It may be generated based on at least any one.
  • the processor 370 may be based on at least one of first data obtained from the autonomous vehicle 10, second data obtained from another autonomous vehicle, and third data obtained from the road side unit. , A top view image based on the image of the autonomous vehicle 10 may be generated. The processor 370 may reconfigure the situation at the time of the accident by generating a top view image into a simulation.
  • the top view image may be a video including a posture image of a steering wheel of an autonomous vehicle.
  • the processor 370 inputs data on the situation of the autonomous vehicle 10 and traffic law data into an artificial intelligence (AI) algorithm, and based on the result of machine learning, determines the responsibility of the accident. I can judge.
  • the processor 370 may further input past traffic accident history data to an artificial intelligence algorithm and determine the person responsible for the accident based on the result of machine learning.
  • the artificial intelligence algorithm may perform machine learning on input data using at least one artificial neural network (ANN).
  • ANN artificial neural network
  • the processor 370 may execute a routine for preventing a secondary accident after the accident has occurred.
  • the processor 370 may determine whether the autonomous vehicle 10 can be moved. When it is determined that the autonomous driving vehicle 10 is movable, the processor 370 may generate an avoidance path for the autonomous driving vehicle 10. The processor 370 may provide a control signal to drive the autonomous vehicle 10 along the avoidance path.
  • the processor 370 may calculate a collision prediction time with another vehicle following the autonomous vehicle 10.
  • the processor 370 may compare the collision prediction time and the avoidance time of the autonomous vehicle 10 according to the avoidance movement path at the accident point. When the avoidance time is greater than or equal to the collision prediction time, the processor 370 may provide a control signal so that the autonomous vehicle 10 travels along the avoidance path.
  • the traffic accident handling apparatus 2 may include at least one printed circuit board (PCB).
  • PCB printed circuit board
  • the memory 140, the interface unit 180, the power supply unit 190, and the processor 370 may be electrically connected to a printed circuit board.
  • S400 traffic accident handling method
  • the processor 370 may acquire data on the situation of the autonomous vehicle 10 (S410 ).
  • the at least one processor 370 is a step of obtaining first data from at least one electronic device provided in the autonomous vehicle 10, the at least one processor 370 , Obtaining second data from at least one electronic device provided in another vehicle located around the autonomous vehicle 10, and at least one processor, from at least one road side unit located around the autonomous vehicle It may include obtaining third data.
  • the processor 370 may determine whether an accident has occurred in the autonomous vehicle 10 based on data on the situation of the autonomous vehicle 10 (S420).
  • the processor 370 may determine the responsibility of the accident using an artificial intelligence algorithm (S430).
  • the at least one processor 370 includes first data obtained from the autonomous vehicle 10, second data obtained from other autonomous vehicles, and the road side unit. Based on at least one of the third data, it may include reconfiguring the situation at the time of the accident in a simulation.
  • the reconfiguration may include a step of at least one processor 370 mapping the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle 10 on a map in chronological order. In this case, information on the surrounding objects of the autonomous vehicle 10 may be generated based on at least one of the first data, the second data, and the third data.
  • the step of reconfiguring, at least one processor 370, based on at least one of the first data, the second data, and the third data, based on the image of the autonomous vehicle 10 may include the step of generating a top view image.
  • the top view image may be a video including an image of the attitude of the steering wheel of the autonomous vehicle 10.
  • the at least one processor 370 inputs data on the situation of the autonomous vehicle 10 and traffic regulation data into an artificial intelligence algorithm, and based on the result of machine running, You can determine where you are responsible for the accident. In the step of determining the responsible person (S430), the at least one processor 370 may further input past traffic accident history data to an artificial intelligence algorithm and determine the person responsible for the accident based on the result of machine learning. .
  • the processor 370 may execute a routine for preventing secondary accidents after the accident (S430).
  • the at least one processor 370 determines whether the autonomous driving vehicle 10 can be moved after the accident occurs, and the at least one processor 370 , Generating an avoidance movement path of the autonomous vehicle 10, and at least one processor 370 providing a control signal to allow the autonomous driving vehicle 10 to travel along the avoidance movement path. .
  • the at least one processor 370 calculates a collision prediction time with another vehicle following the autonomous vehicle 10, at least one processor 370 ) May include comparing the collision prediction time and the avoidance time of the autonomous vehicle 10 according to the avoidance movement path at the accident point. In this case, in the providing of the control signal, the at least one processor 370 may provide the control signal when the avoidance time is greater than or equal to the attendance prediction time.
  • 5 to 8 are views referenced for explaining a traffic accident handling method according to an embodiment of the present invention.
  • 5 to 8 illustrate flow charts when the vehicle 10 includes a traffic accident processing apparatus.
  • the processor 370 may determine whether accident data collected by the vehicle 10 is sufficient (S510). Whether or not the collected data of the vehicle 10 is sufficient may be determined based on whether or not the vehicle 10 and surrounding objects are collected for a certain period of time immediately before the accident, traffic light information, and the like. If it is determined that it is sufficient in step S510, the processor 370 may transmit the accident data collected by the vehicle 10 to the server 2, and execute a secondary accident prevention routine (S520). If it is determined that it is not sufficient in step S520, the processor 370 may determine whether additional data collection is possible (S530). If it is determined that collection is possible in step S530, the processor 370 may additionally collect data from other vehicles or roadside units, and execute a secondary accident prevention routine (S540). The processor 370 may transmit the data to the server 2 and execute a secondary accident prevention routine after the data addition collection is completed (S550).
  • the processor 370 may determine the responsibility of the accident (S560). Determination of the location of responsibility may be made by matching the collected accident data with the past judgment of the location of responsibility of the accident stored in the server. In step S560, if it is possible to determine the position of responsibility of the accident, the processor 370 may provide a result of the determination of the position of responsibility to the accident stakeholders and perform the accident (S570). In step S560, the processor 370, if it is impossible to determine the responsibility of the accident, may call the insurance company employee (S580). The called insurer employee can carry out subsequent incident handling.
  • the processor 370 may determine whether the collected accident data is sufficient (S605). In step S605, if it is determined that it is not sufficient, the processor 370 may determine whether another vehicle exists (S610). In step S610, if it is determined that another vehicle exists, the processor 370 may determine whether the other vehicle satisfies a predetermined condition (S615). For example, the processor 370 may determine whether another vehicle is located within a predetermined radius of the vehicle. In step S615, when it is determined that the other vehicle does not satisfy the predetermined condition, the processor 370 obtains the time when the vehicle reaches the current position of the rear vehicle from the server, the driveable area to the safe area, and additionally to prevent a secondary accident. This necessary data may be received (S620).
  • the processor 370 may calculate a movement path that enables the collection of necessary data within the time point of arrival within the area, and may move the vehicle 10 according to the path (S625). When the vehicle 10 moves, the processor 370 may stream and transmit sensor data including a movement trajectory (S630). The processor 370 may collect accident data and track vehicle movement from the accident site. The processor 370 may maintain a stopped state of the vehicle 10 and activate monitoring of the approaching direction and the avoidance direction of other vehicles in preparation for a possibility of a secondary accident (S635).
  • the processor 370 may match the accident situation calculated from the collected accident data with the existing accident situation in the storage of the server 2 (S650).
  • the processor 370 may calculate the contents of the accident situation in real time and transmit the calculated contents in real time when the degree of correspondence between the accident area, the damaged area, and the pre-accident operation is higher than a certain level (S655).
  • the processor 370 may determine whether the accident parties are convinced of the calculated content (S660). If it is determined to be convinced in step S660, the processor 370 may determine whether the autonomous driving function can be maintained (S665).
  • the processor 370 may automatically set a destination according to the vehicle accident damage situation and move the vehicle 10 to the destination.
  • the automatically set destination may be at least one of an existing destination, a repair shop, and an evacuation center.
  • a safe area eg, a shoulder
  • a control signal may be provided to move the vehicle to the corresponding area (S675).
  • the processor 370 may call an emergency service vehicle or an insurance company employee for tasks such as identifying the accident, collecting evidence, and calculating damage (S680). .
  • An emergency service vehicle or an insurance company employee may wait for arrival (S685).
  • the processor 370 may determine whether another vehicle exists (S690). If it is determined that another vehicle exists, the processor 370 may move to step S615. If it is determined that other vehicles do not exist, the processor 370 may move to step S685.
  • step S610 if it is determined that no other vehicle exists, the processor 370 may move to step S680.
  • step S615 when it is determined that the other vehicle satisfies the predetermined condition, the processor 370 may transmit a request signal for obtaining additional data to the other vehicle.
  • the processor 370 may determine whether reception of the additional data is complete (S645). If it is determined in step S645 that the reception of the additional data is complete, the processor 370 may move to step S650.
  • the processor 370 may record vehicle information and object information around the vehicle in the first database 701 at a predetermined period (S710).
  • the first database 701 may be classified as a subordinate configuration of the memory 340.
  • the vehicle information may be described as information related to a motion state of the vehicle, such as a position, speed, heading, and acceleration of the vehicle.
  • Object information is related to the motion state of objects such as position, speed, heading, and acceleration of objects around the vehicle that are detected and tracked using sensors such as vehicles, motorcycles, pedestrians, and obstacles. It can be established as information.
  • the processor 370 may record image information around the vehicle in the second database 702 at a predetermined period (S720).
  • the second database 702 may be classified as a subordinate configuration of the memory 340.
  • the processor 370 may record the traffic light information in the third database 703 at a predetermined period using information from the camera or V2X (S730).
  • the third database 703 may be classified as a sub configuration of the memory 340.
  • the processor 370 may determine whether an accident has occurred (S740). When it is determined that an accident has occurred, the processor 370 may reconstruct the accident into a simulation by mapping locations in chronological order using vehicle/object information, surrounding image information, traffic light information, etc. for a certain period of time just before the accident. Yes (S750). The processor 370 may receive map data from the map database 704 and reflect various types of information in the map data to reconstruct the accident into a simulation. The processor 370 may determine the responsibility of the accident (S760). The processor 370 may receive traffic laws from the traffic laws database 705 and determine the responsible position of the accident by referring to the traffic laws. The processor 370 may transmit the result of determining the location responsible for the accident to the relevant accident stakeholders (S770).
  • the processor 370 may turn on the emergency light after an accident occurs (S810 ). Depending on the embodiment, the processor 370 may automatically install a tripod or a flame signal. The processor 370 may continue to transmit and receive data with an external device (eg, a server, another vehicle, or a user terminal) through V2X communication (S820). The processor 370 may periodically estimate a Time To Collision (TTC), a remaining time for data transmission/reception, and an avoidance time of a vehicle that follows. TTC can be described as the estimated time it takes for another vehicle to collide the vehicle.
  • TTC Time To Collision
  • TTC can be described as the estimated time it takes for another vehicle to collide the vehicle.
  • the remaining time for data transmission/reception may be described as an estimated remaining time for receiving accident-related data from another vehicle or a road side unit, or completing transmission to a server.
  • the avoidance time may be described as the time it takes to move the vehicle so that the vehicle in which a collision is expected can be avoided.
  • the avoidance time may be additionally given an extra time so that the vehicle can escape with a margin.
  • the processor 370 may determine whether the TTC is less than or equal to the sum of the remaining data transmission/reception time and the avoidance time (S840). When it is determined that the TTC is less than the sum of the data transmission/reception remaining time and the avoidance time, the processor 370 may determine whether the TTC is less than or equal to the avoidance time (S850). Since the TTC is variable according to the braking condition of the following vehicle, the processor 370 may continue to transmit and receive data while continuously monitoring the value of the TTC. In step S850, when it is determined that the TTC is less than the avoidance time, the processor 370 may evade the vehicle in an emergency (S860). When the vehicle moves, the processor 370 may stream and transmit sensor data included as a movement trajectory.
  • the accident vehicle may transmit vehicle information related to the accident to the server 2.
  • the server 2 may be an insurance company server or a vehicle company server.
  • the accident-related vehicle information includes the vehicle's collision location, collision intensity, sensing information of the driving unit of the vehicle, sensing information that senses the surrounding environment of the vehicle (front camera, black box, radar, lidar, etc.), and surrounding vehicles acquired through V2X. It may include one or more of one sensing information.
  • the server 2 may acquire data including before and after a certain point in time of the accident of each accident vehicle, and calculate an error rate based on the obtained data.
  • the fruit ratio can be determined based on the learning result of an artificial intelligence algorithm located on the server based on one or more of the obtained data, traffic law data, and accident DB, and information related to the determined fruit ratio is transmitted to each accident vehicle. can do.
  • the vehicle 10 may provide the fruit ratio information received from the server 2 through an output unit located in the vehicle.
  • the accident DB information may be information generated by an insurance company or an organization that collects related information.
  • the accident DB may include accident history information of other vehicles, and the accident history information may include an error rate.
  • the server can check whether there is accident history information of other vehicles similar to the accident information that occurred based on the accident history information of other vehicles obtained from the accident DB.
  • the output unit located in the vehicle may be a display (head up display, instrument panel, center information display) or an audio output unit.
  • the accident party can choose whether to be convinced of the percentage of negligence provided through the in-vehicle output.
  • information that the accident party has confirmed the negligence rate may be transmitted to the insurance company, and the insurance company may set the insurance amount based on the transmitted information. If the person involved in the accident chooses not to understand the rate of negligence, additional guidance information can be provided based on this. You can call an insurance company employee to request a direct visit to the accident location, or collect more information from nearby vehicles or objects and re-provide the negligence rate through secondary learning.
  • the server 2 When calculating the error rate, the server 2 further acquires surrounding environment data including before and after a certain point in time of the accident of each accident vehicle, if the data for calculating the error rate is insufficient, and based on the obtained data. You can calculate the fruit ratio.
  • the surrounding environment data may be sensor information acquired by a nearby vehicle at a certain point in time when an accident occurs, or sensor information acquired by a surrounding sensing device (CCTV, RSU, etc.).
  • the vehicle may output the information received from the insurance company server on a center information display (CID) provided on the instrument panel of the vehicle.
  • the CID may be formed integrally with the touch input unit or form a layer structure with the touch input unit to implement a touch screen, and may further include a gesture input unit or a voice input unit.
  • the information output to the CID may be information for inquiring whether to understand the car's negligence rate, and the person involved in the accident may input a selection value as to whether or not to understand the negligence rate through the touch input unit of the CID.
  • Vehicle accident types can be largely classified into accidents, vehicle-to-vehicle accidents, vehicle-to-property accidents, and vehicle-to-pedestrian accidents.
  • the ratio of responsibility between the person and the vehicle may vary according to the ratio of the driver's control rights.
  • the above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded.
  • the computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (e.g., transmission over the Internet). Also, the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Mathematical Physics (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Educational Administration (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

The present invention relates to a traffic accident management method comprising the steps in which: at least one processor obtains data relating to a context of an autonomous vehicle; at least one processor determines whether or not an accident of the autonomous vehicle has occurred on the basis of the data; and at least one processor determines the matter of responsibility of the accident by means of an artificial intelligence algorithm. A traffic accident management device can manage a traffic accident of the autonomous vehicle. The autonomous vehicle can be linked to a robot. The traffic accident management device can be implemented by means of the artificial intelligence (AI) algorithm. The traffic accident management device can generate augmented reality (AR) content.

Description

교통 사고 처리 장치 및 교통 사고 처리 방법Traffic accident handling device and traffic accident handling method
본 발명은 교통 사고 처리 장치 및 교통 사고 처리 방법에 관한 것이다.The present invention relates to a traffic accident handling apparatus and a traffic accident handling method.
차량은 탑승하는 사용자가 원하는 방향으로 이동시키는 장치이다. 대표적으로 자동차를 예를 들 수 있다. 자율 주행 차량은 인간의 운전 조작 없이 자동으로 주행할 수 있는 차량을 의미한다. A vehicle is a device that moves in a direction desired by a boarding user. A typical example is a car. Autonomous vehicle refers to a vehicle that can be driven automatically without human driving operation.
센서의 오작동 등의 이유로 자율 주행 차량에도 사고가 발생될 수 있다. 자율 주행 차량 간에 사고가 발생된 경우, 사고의 책임 소재가 어디에 있는지 판단할 필요가 있다.Accidents can also occur in autonomous vehicles due to sensor malfunction or the like. When an accident occurs between autonomous vehicles, it is necessary to determine where the responsibility for the accident is.
본 발명은 상기한 문제점을 해결하기 위하여, 자율 주행 차량의 교통 사고의 책임 소재를 판단하는 교통 사고 처리 장치 및 교통 사고 처리 방법을 제공하는데 목적이 있다.In order to solve the above problems, an object of the present invention is to provide a traffic accident processing apparatus and a traffic accident processing method for determining the responsibility of a traffic accident of an autonomous vehicle.
본 발명의 과제들은 이상에서 언급한 과제들로 제한되지 않으며, 언급되지 않은 또 다른 과제들은 아래의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The problems of the present invention are not limited to the problems mentioned above, and other problems that are not mentioned will be clearly understood by those skilled in the art from the following description.
상기 과제를 달성하기 위하여, 본 발명의 실시예에 따른 교통 사고 처리 방법은, 적어도 하나의 프로세서가, 자율 주행 차량의 상황에 대한 데이터를 획득하는 단계; 적어도 하나의 프로세서가, 상기 데이터에 기초하여, 상기 자율 주행 차량의 사고의 발생 여부를 판단하는 단계; 및 적어도 하나의 프로세서가, 인공 지능 알고리즘을 이용해, 상기 사고의 책임 소재를 판단하는 단계;를 포함한다.In order to achieve the above object, a traffic accident processing method according to an embodiment of the present invention includes, by at least one processor, acquiring data on a situation of an autonomous vehicle; Determining, by at least one processor, whether an accident has occurred in the autonomous vehicle based on the data; And determining, by at least one processor, a person responsible for the accident using an artificial intelligence algorithm.
본 발명의 실시예에 다른 교통 사고 처리 장치는, 자율 주행 차량의 상황에 대한 데이터를 획득하고, 상기 데이터에 기초하여, 상기 자율 주행 차량의 사고의 발생 여부를 판단하고, 인공 지능 알고리즘을 이용해, 상기 사고의 책임 소재를 판단하는 프로세서;를 포함한다.A traffic accident processing apparatus according to an embodiment of the present invention acquires data on a situation of an autonomous vehicle, determines whether an accident has occurred in the autonomous vehicle based on the data, and uses an artificial intelligence algorithm, It includes; a processor for determining the responsibility of the accident.
기타 실시예들의 구체적인 사항들은 상세한 설명 및 도면들에 포함되어 있다.Details of other embodiments are included in the detailed description and drawings.
본 발명에 따르면 다음과 같은 효과가 하나 혹은 그 이상 있다.According to the present invention, there are one or more of the following effects.
첫째, 자율 주행 자동차의 이해 관계자들에게 안전하고 편리한 사고 처리 서비스를 제공하는 효과가 있다.First, there is an effect of providing safe and convenient accident handling services to stakeholders of autonomous vehicles.
둘째, 사고 처리 과정에서 발생되는 2차 사고를 방지하고 교통 체증 개선 효과가 있다.Second, there is an effect of preventing secondary accidents occurring in the process of handling accidents and improving traffic congestion.
본 발명의 효과들은 이상에서 언급한 효과들로 제한되지 않으며, 언급되지 않은 또 다른 효과들은 청구범위의 기재로부터 당업자에게 명확하게 이해될 수 있을 것이다.The effects of the present invention are not limited to the effects mentioned above, and other effects that are not mentioned will be clearly understood by those skilled in the art from the description of the claims.
도 1은 본 발명의 실시예에 따른 시스템을 설명하는데 참조되는 도면이다.1 is a diagram referenced to describe a system according to an embodiment of the present invention.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.2 is a control block diagram of a vehicle according to an embodiment of the present invention.
도 3은 본 발명의 실시예에 따른 교통 사고 처리 장치를 설명하는데 참조되는 도면이다.3 is a view referenced to explain a traffic accident processing apparatus according to an embodiment of the present invention.
도 4 내지 도 8은 본 발명의 실시예에 따른 교통 사고 처리 방법을 설명하는데 참조되는 도면이다.4 to 8 are views referenced for explaining a traffic accident handling method according to an embodiment of the present invention.
이하, 첨부된 도면을 참조하여 본 명세서에 개시된 실시 예를 상세히 설명하되, 도면 부호에 관계없이 동일하거나 유사한 구성요소는 동일한 참조 번호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 이하의 설명에서 사용되는 구성요소에 대한 접미사 "모듈" 및 "부"는 명세서 작성의 용이함만이 고려되어 부여되거나 혼용되는 것으로서, 그 자체로 서로 구별되는 의미 또는 역할을 갖는 것은 아니다. 또한, 본 명세서에 개시된 실시 예를 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 명세서에 개시된 실시 예의 요지를 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. 또한, 첨부된 도면은 본 명세서에 개시된 실시 예를 쉽게 이해할 수 있도록 하기 위한 것일 뿐, 첨부된 도면에 의해 본 명세서에 개시된 기술적 사상이 제한되지 않으며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.Hereinafter, exemplary embodiments disclosed in the present specification will be described in detail with reference to the accompanying drawings, but identical or similar elements are denoted by the same reference numerals regardless of reference numerals, and redundant descriptions thereof will be omitted. The suffixes "module" and "unit" for components used in the following description are given or used interchangeably in consideration of only the ease of preparation of the specification, and do not have meanings or roles that are distinguished from each other by themselves. In addition, in describing the embodiments disclosed in the present specification, when it is determined that a detailed description of related known technologies may obscure the subject matter of the embodiments disclosed in the present specification, the detailed description thereof will be omitted. In addition, the accompanying drawings are for easy understanding of the embodiments disclosed in the present specification, and the technical idea disclosed in the present specification is not limited by the accompanying drawings, and all modifications included in the spirit and scope of the present invention It should be understood to include equivalents or substitutes.
제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다.Terms including ordinal numbers, such as first and second, may be used to describe various elements, but the elements are not limited by the terms. These terms are used only for the purpose of distinguishing one component from another component.
어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다.When a component is referred to as being "connected" or "connected" to another component, it is understood that it may be directly connected or connected to the other component, but other components may exist in the middle. Should be. On the other hand, when a component is referred to as being "directly connected" or "directly connected" to another component, it should be understood that there is no other component in the middle.
단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Singular expressions include plural expressions unless the context clearly indicates otherwise.
본 출원에서, "포함한다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.In the present application, terms such as "comprises" or "have" are intended to designate the presence of features, numbers, steps, actions, components, parts, or combinations thereof described in the specification, but one or more other features. It is to be understood that the presence or addition of elements or numbers, steps, actions, components, parts, or combinations thereof, does not preclude in advance.
도 1은 본 발명의 실시예에 따른 차량을 도시한 도면이다.1 is a view showing a vehicle according to an embodiment of the present invention.
도 1을 참조하면, 시스템(1)은, 사용자에게 차량(10)을 제공할 수 있다. 시스템(1)은, 교통 사고 처리 장치(2), 적어도 하나의 로드 사이드 유닛(3) 및 적어도 하나의 차량(10)을 포함할 수 있다.Referring to FIG. 1, the system 1 may provide a vehicle 10 to a user. The system 1 may include a traffic accident handling device 2, at least one road side unit 3 and at least one vehicle 10.
교통 사고 처리 장치(2)는, 적어도 하나의 서버로 구현될 수 있다. 교통 사고 처리 장치(2)는, 자율 주행 차량(10)의 교통 사고 발생시, 교통 사고 처리를 수행할 수 있다. 본 명세서에서는, 교통 사고 처리 장치(2)는, 차량(10)과는 별물인 전자 장치로 설명하나, 차량(10) 내부에 포함되는 전자 장치일 수도 있다. 이경우, 각각의 차량(10)은, 교통 사고 처리 장치(2)를 포함할 수 있다.The traffic accident processing apparatus 2 may be implemented with at least one server. The traffic accident processing apparatus 2 may perform traffic accident processing when a traffic accident occurs in the autonomous vehicle 10. In this specification, the traffic accident handling apparatus 2 is described as an electronic device separate from the vehicle 10, but may be an electronic device included in the vehicle 10. In this case, each vehicle 10 may include a traffic accident handling device 2.
로드 사이드 유닛(road side unit, RSU)(3)은, 차량(10)이 주행하는 도로 주변에 배치되는 구조물로 이해될 수 있다. 로드 사이드 유닛(3)은, 자율 주행 차량(10) 및 교통 사고 처리 장치(2) 중 적어도 어느 하나와 통신을 수행할 수 있다. 로드 사이드 유닛(3)은, 도로의 상황을 센싱하는 센싱 장치를 구비할 수 있다.The road side unit (RSU) 3 may be understood as a structure disposed around a road on which the vehicle 10 travels. The road side unit 3 may communicate with at least one of the autonomous vehicle 10 and the traffic accident processing device 2. The road side unit 3 may be provided with a sensing device that senses a road condition.
차량(10)은, 수동 주행 차량 및 자율 주행 차량 중 적어도 어느 하나일 수 있다. 차량(10)은, 도로나 선로 위를 달리는 수송 수단으로 정의된다. 차량(10)은, 자동차, 기차, 오토바이를 포함하는 개념이다. 차량(10)은, 동력원으로서 엔진을 구비하는 내연기관 차량, 동력원으로서 엔진과 전기 모터를 구비하는 하이브리드 차량, 동력원으로서 전기 모터를 구비하는 전기 차량등을 모두 포함하는 개념일 수 있다. The vehicle 10 may be at least one of a manual driving vehicle and an autonomous driving vehicle. The vehicle 10 is defined as a means of transport running on a road or track. The vehicle 10 is a concept including a car, a train, and a motorcycle. The vehicle 10 may be a concept including both an internal combustion engine vehicle including an engine as a power source, a hybrid vehicle including an engine and an electric motor as a power source, and an electric vehicle including an electric motor as a power source.
차량(10)에는 전자 장치(100)가 포함될 수 있다. 전자 장치(100)는, 교통 사고 처리 장치(2)와의 인터렉션을 위해 차량에 구비될 수 있다.The electronic device 100 may be included in the vehicle 10. The electronic device 100 may be provided in a vehicle for interaction with the traffic accident handling device 2.
한편, 차량(10)은, 적어도 하나의 로봇(robot)과 상호 작용할 수 있다. 로봇은, 자력으로 주행이 가능한 이동 로봇(Autonomous Mobile Robot, AMR)일 수 있다. 이동 로봇은, 스스로 이동이 가능하여 이동이 자유롭고, 주행 중 장애물 등을 피하기 위한 다수의 센서가 구비되어 장애물을 피해 주행할 수 있다. 이동 로봇은, 비행 장치를 구비하는 비행형 로봇(예를 들면, 드론)일 수 있다. 이동 로봇은, 적어도 하나의 바퀴를 구비하고, 바퀴의 회전을 통해 이동되는 바퀴형 로봇일 수 있다. 이동 로봇은, 적어도 하나의 다리를 구비하고, 다리를 이용해 이동되는 다리식 로봇일 수 있다.Meanwhile, the vehicle 10 may interact with at least one robot. The robot may be an Autonomous Mobile Robot (AMR) capable of driving by magnetic force. The mobile robot is capable of moving by itself and is free to move, and is provided with a plurality of sensors to avoid obstacles while driving, so that it can travel avoiding obstacles. The mobile robot may be a flying robot (eg, a drone) having a flying device. The mobile robot may be a wheel-type robot that includes at least one wheel and is moved through rotation of the wheel. The mobile robot may be a legged robot that has at least one leg and is moved using the leg.
로봇은 차량(10) 사용자의 편의를 보완하는 장치로 기능할 수 있다. 예를 들면, 로봇은, 차량(10)에 적재된 짐을 사용자의 최종 목적지까지 이동하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자에게 최종 목적지까지 길을 안내하는 기능을 수행할 수 있다. 예를 들면, 로봇은, 차량(10)에서 하차한 사용자를 최종 목적지까지 수송하는 기능을 수행할 수 있다.The robot may function as a device that complements the user's convenience of the vehicle 10. For example, the robot may perform a function of moving the luggage loaded in the vehicle 10 to the user's final destination. For example, the robot may perform a function of guiding a user who gets off the vehicle 10 to a final destination. For example, the robot may perform a function of transporting a user who gets off the vehicle 10 to a final destination.
차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 로봇과 통신을 수행할 수 있다. At least one electronic device included in the vehicle may communicate with the robot through the communication device 220.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇에 차량에 포함되는 적어도 하나의 전자 장치에서 처리한 데이터를 제공할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 데이터, HD 맵 데이터, 차량 상태 데이터, 차량 위치 데이터 및 드라이빙 플랜 데이터 중 적어도 어느 하나를 로봇에 제공할 수 있다. At least one electronic device included in the vehicle may provide the robot with data processed by at least one electronic device included in the vehicle. For example, at least one electronic device included in the vehicle may provide at least one of object data, HD map data, vehicle state data, vehicle location data, and driving plan data to the robot.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터, 로봇에서 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 로봇에서 생성된 센싱 데이터, 오브젝트 데이터, 로봇 상태 데이터, 로봇 위치 데이터 및 로봇의 이동 플랜 데이터 중 적어도 어느 하나를 수신할 수 있다.At least one electronic device included in the vehicle may receive data processed by the robot from the robot. At least one electronic device included in the vehicle may receive at least one of sensing data generated by the robot, object data, robot state data, robot position data, and movement plan data of the robot.
차량에 포함되는 적어도 하나의 전자 장치는, 로봇으로부터 수신된 데이터에 더 기초하여, 제어 신호를 생성할 수 있다. 예를 들면, 차량에 포함되는 적어도 하나의 전자 장치는, 오브젝트 검출 장치(210)에 생성된 오브젝트에 대한 정보와 로봇에 의해 생성된 오브젝트에 대한 정보를 비교하고, 비교 결과에 기초하여, 제어 신호를 생성할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 차량(10)의 이동 경로와 로봇의 이동 경로간의 간섭이 발생되지 않도록, 제어 신호를 생성할 수 있다.At least one electronic device included in the vehicle may generate a control signal further based on data received from the robot. For example, at least one electronic device included in the vehicle compares the information on the object generated by the object detection device 210 with the information on the object generated by the robot, and based on the comparison result, a control signal Can be created. At least one electronic device included in the vehicle may generate a control signal so that interference between the movement path of the vehicle 10 and the movement path of the robot does not occur.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능(artificial intelligence, AI)를 구현하는 소프트웨어 모듈 또는 하드웨어 모듈(이하, 인공 지능 모듈)을 포함할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 획득되는 데이터를 인공 지능 모듈에 입력(input)하고, 인공 지능 모듈에서 출력(output)되는 데이터를 이용할 수 있다. At least one electronic device included in the vehicle may include a software module or a hardware module (hereinafter, referred to as an artificial intelligence module) that implements artificial intelligence (AI). At least one electronic device included in the vehicle may input acquired data to an artificial intelligence module and use data output from the artificial intelligence module.
인공 지능 모듈은, 적어도 하나의 인공 신경망(artificial neural network, ANN)을 이용하여, 입력되는 데이터에 대한 기계 학습(machine learning)을 수행할 수 있다. 인공 지능 모듈은, 입력되는 데이터에 대한 기계 학습을 통해, 드라이빙 플랜 데이터를 출력할 수 있다.The artificial intelligence module may perform machine learning on input data using at least one artificial neural network (ANN). The artificial intelligence module may output driving plan data through machine learning on input data.
차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능 모듈에서 출력되는 데이터에 기초하여, 제어 신호를 생성할 수 있다.At least one electronic device included in the vehicle may generate a control signal based on data output from the artificial intelligence module.
실시예에 따라, 차량에 포함되는 적어도 하나의 전자 장치는, 통신 장치(220)를 통해, 외부 장치로부터, 인공 지능에 의해 처리된 데이터를 수신할 수 있다. 차량에 포함되는 적어도 하나의 전자 장치는, 인공 지능에 의해 처리된 데이터에 기초하여, 제어 신호를 생성할 수 있다.According to an embodiment, at least one electronic device included in the vehicle may receive data processed by artificial intelligence from an external device through the communication device 220. At least one electronic device included in the vehicle may generate a control signal based on data processed by artificial intelligence.
도 2는 본 발명의 실시예에 따른 차량의 제어 블럭도이다.2 is a control block diagram of a vehicle according to an embodiment of the present invention.
도 2를 참조하면, 차량(10)은, 차량용 전자 장치(100), 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280)를 포함할 수 있다.Referring to FIG. 2, the vehicle 10 includes an electronic device 100 for a vehicle, a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, and a main ECU 240. ), a vehicle driving device 250, a driving system 260, a sensing unit 270, and a location data generating device 280.
차량용 전자 장치(100)는, 통신 장치(220)를 통해, 교통 사고 처리 장치(2)와 신호, 정보 또는 데이터를 교환할 수 있다. 차량용 전자 장치(100)는, 교통 사고 처리 장치(2)에서 수신되는 신호, 정보 또는 데이터를 차량(10) 내 다른 전자 장치에 제공할 수 있다.The vehicle electronic device 100 may exchange signals, information, or data with the traffic accident processing device 2 through the communication device 220. The vehicle electronic device 100 may provide a signal, information, or data received from the traffic accident processing device 2 to another electronic device in the vehicle 10.
사용자 인터페이스 장치(200)는, 차량(10)과 사용자와의 소통을 위한 장치이다. 사용자 인터페이스 장치(200)는, 사용자 입력을 수신하고, 사용자에게 차량(10)에서 생성된 정보를 제공할 수 있다. 차량(10)은, 사용자 인터페이스 장치(200)를 통해, UI(User Interface) 또는 UX(User Experience)를 구현할 수 있다.The user interface device 200 is a device for communicating with the vehicle 10 and a user. The user interface device 200 may receive a user input and provide information generated in the vehicle 10 to the user. The vehicle 10 may implement a user interface (UI) or a user experience (UX) through the user interface device 200.
오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있다. 오브젝트 검출 장치(210)는, 차량(10) 외부의 오브젝트를 검출할 수 있는 적어도 하나의 센서를 포함할 수 있다. 오브젝트 검출 장치(210)는, 카메라, 레이다, 라이다, 초음파 센서 및 적외선 센서 중 적어도 하나를 포함할 수 있다. 오브젝트 검출 장치(210)는, 센서에서 생성되는 센싱 신호에 기초하여 생성된 오브젝트에 대한 데이터를 차량에 포함된 적어도 하나의 전자 장치에 제공할 수 있다. The object detection device 210 may detect an object outside the vehicle 10. The object detection device 210 may include at least one sensor capable of detecting an object outside the vehicle 10. The object detection device 210 may include at least one of a camera, a radar, a lidar, an ultrasonic sensor, and an infrared sensor. The object detection device 210 may provide data on an object generated based on a sensing signal generated by a sensor to at least one electronic device included in the vehicle.
카메라는 영상을 이용하여 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 카메라는 적어도 하나의 렌즈, 적어도 하나의 이미지 센서 및 이미지 센서와 전기적으로 연결되어 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다.The camera may generate information on an object outside the vehicle 10 by using the image. The camera may include at least one lens, at least one image sensor, and at least one processor that is electrically connected to the image sensor and processes a received signal, and generates data about an object based on the processed signal.
카메라는, 모노 카메라, 스테레오 카메라, AVM(Around View Monitoring) 카메라 중 적어도 어느 하나일 수 있다. 카메라는, 다양한 영상 처리 알고리즘을 이용하여, 오브젝트의 위치 정보, 오브젝트와의 거리 정보 또는 오브젝트와의 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 획득된 영상에서, 시간에 따른 오브젝트 크기의 변화를 기초로, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 핀홀(pin hole) 모델, 노면 프로파일링 등을 통해, 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. 예를 들면, 카메라는, 스테레오 카메라에서 획득된 스테레오 영상에서 디스패러티(disparity) 정보를 기초로 오브젝트와의 거리 정보 및 상대 속도 정보를 획득할 수 있다. The camera may be at least one of a mono camera, a stereo camera, and an AVM (Around View Monitoring) camera. The camera may use various image processing algorithms to obtain position information of an object, distance information to an object, or information on a relative speed to an object. For example, from the acquired image, the camera may acquire distance information and relative speed information from the object based on a change in the size of the object over time. For example, the camera may obtain distance information and relative speed information with an object through a pin hole model, road surface profiling, or the like. For example, the camera may obtain distance information and relative speed information with an object based on disparity information from a stereo image obtained from a stereo camera.
카메라는, 차량 외부를 촬영하기 위해 차량에서 FOV(field of view) 확보가 가능한 위치에 장착될 수 있다. 카메라는, 차량 전방의 영상을 획득하기 위해, 차량의 실내에서, 프런트 윈드 쉴드에 근접하게 배치될 수 있다. 카메라는, 프런트 범퍼 또는 라디에이터 그릴 주변에 배치될 수 있다. 카메라는, 차량 후방의 영상을 획득하기 위해, 차량의 실내에서, 리어 글라스에 근접하게 배치될 수 있다. 카메라는, 리어 범퍼, 트렁크 또는 테일 게이트 주변에 배치될 수 있다. 카메라는, 차량 측방의 영상을 획득하기 위해, 차량의 실내에서 사이드 윈도우 중 적어도 어느 하나에 근접하게 배치될 수 있다. 또는, 카메라는, 사이드 미러, 휀더 또는 도어 주변에 배치될 수 있다.The camera may be mounted in a position where field of view (FOV) can be secured in the vehicle in order to photograph the outside of the vehicle. The camera may be placed in the interior of the vehicle, close to the front windshield, to acquire an image of the front of the vehicle. The camera can be placed around the front bumper or radiator grille. The camera may be placed in the interior of the vehicle, close to the rear glass, in order to acquire an image of the rear of the vehicle. The camera can be placed around the rear bumper, trunk or tailgate. The camera may be disposed in proximity to at least one of the side windows in the interior of the vehicle in order to acquire an image of the side of the vehicle. Alternatively, the camera may be disposed around a side mirror, a fender, or a door.
레이다는 전파를 이용하여 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 레이다는, 전자파 송신부, 전자파 수신부 및 전자파 송신부 및 전자파 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리되는 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 레이다는 전파 발사 원리상 펄스 레이다(Pulse Radar) 방식 또는 연속파 레이다(Continuous Wave Radar) 방식으로 구현될 수 있다. 레이다는 연속파 레이다 방식 중에서 신호 파형에 따라 FMCW(Frequency Modulated Continuous Wave)방식 또는 FSK(Frequency Shift Keyong) 방식으로 구현될 수 있다. 레이다는 전자파를 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 레이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다. The radar may generate information on an object outside the vehicle 10 using radio waves. The radar may include at least one processor that is electrically connected to the electromagnetic wave transmitter, the electromagnetic wave receiver, and the electromagnetic wave transmitter and the electromagnetic wave receiver, processes a received signal, and generates data for an object based on the processed signal. The radar may be implemented in a pulse radar method or a continuous wave radar method according to the principle of radio wave emission. The radar may be implemented in a frequency modulated continuous wave (FMCW) method or a frequency shift keyong (FSK) method according to a signal waveform among continuous wave radar methods. The radar detects an object by means of an electromagnetic wave, a time of flight (TOF) method or a phase-shift method, and detects the position of the detected object, the distance to the detected object, and the relative speed. I can. The radar may be placed at a suitable location outside of the vehicle to detect objects located in front, rear or side of the vehicle.
라이다는, 레이저 광을 이용하여, 차량(10) 외부의 오브젝트에 대한 정보를 생성할 수 있다. 라이다는, 광 송신부, 광 수신부 및 광 송신부 및 광 수신부와 전기적으로 연결되어, 수신되는 신호를 처리하고, 처리된 신호에 기초하여 오브젝트에 대한 데이터를 생성하는 적어도 하나의 프로세서를 포함할 수 있다. 라이다는, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식으로 구현될 수 있다. 라이다는, 구동식 또는 비구동식으로 구현될 수 있다. 구동식으로 구현되는 경우, 라이다는, 모터에 의해 회전되며, 차량(10) 주변의 오브젝트를 검출할 수 있다. 비구동식으로 구현되는 경우, 라이다는, 광 스티어링에 의해, 차량을 기준으로 소정 범위 내에 위치하는 오브젝트를 검출할 수 있다. 차량(100)은 복수의 비구동식 라이다를 포함할 수 있다. 라이다는, 레이저 광 매개로, TOF(Time of Flight) 방식 또는 페이즈 쉬프트(phase-shift) 방식에 기초하여, 오브젝트를 검출하고, 검출된 오브젝트의 위치, 검출된 오브젝트와의 거리 및 상대 속도를 검출할 수 있다. 라이다는, 차량의 전방, 후방 또는 측방에 위치하는 오브젝트를 감지하기 위해 차량의 외부의 적절한 위치에 배치될 수 있다.The lidar may generate information on an object outside the vehicle 10 using laser light. The radar may include at least one processor that is electrically connected to the optical transmitter, the optical receiver, and the optical transmitter and the optical receiver, processes a received signal, and generates data for an object based on the processed signal. . The rider may be implemented in a TOF (Time of Flight) method or a phase-shift method. The lidar can be implemented either driven or non-driven. When implemented as a drive type, the lidar is rotated by a motor, and objects around the vehicle 10 can be detected. When implemented in a non-driven manner, the lidar can detect an object located within a predetermined range with respect to the vehicle by optical steering. The vehicle 100 may include a plurality of non-driven lidars. The radar detects an object based on a time of flight (TOF) method or a phase-shift method by means of a laser light, and determines the position of the detected object, the distance to the detected object, and the relative speed. Can be detected. The lidar may be placed at an appropriate location outside the vehicle to detect objects located in front, rear or side of the vehicle.
통신 장치(220)는, 차량(10) 외부에 위치하는 디바이스와 신호를 교환할 수 있다. 통신 장치(220)는, 인프라(예를 들면, 서버, 방송국) 및 타 차량 중 적어도 어느 하나와 신호를 교환할 수 있다. 통신 장치(220)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다. The communication device 220 may exchange signals with devices located outside the vehicle 10. The communication device 220 may exchange signals with at least one of an infrastructure (eg, a server, a broadcasting station) and another vehicle. The communication device 220 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
통신 장치(220)는, 5G(예를 들면, 뉴 라디오(new radio, NR)) 방식을 이용하여, 차량(10) 외부에 위치하는 디바이스와 통신할 수 있다. 통신 장치(220)는, 5G 방식을 이용하여, V2X(V2V, V2D, V2P,V2N) 통신을 구현할 수 있다. The communication device 220 may communicate with a device located outside the vehicle 10 using a 5G (for example, new radio, NR) method. The communication device 220 may implement V2X (V2V, V2D, V2P, V2N) communication using a 5G method.
운전 조작 장치(230)는, 운전을 위한 사용자 입력을 수신하는 장치이다. 메뉴얼 모드인 경우, 차량(10)은, 운전 조작 장치(230)에 의해 제공되는 신호에 기초하여 운행될 수 있다. 운전 조작 장치(230)는, 조향 입력 장치(예를 들면, 스티어링 휠), 가속 입력 장치(예를 들면, 가속 페달) 및 브레이크 입력 장치(예를 들면, 브레이크 페달)를 포함할 수 있다.The driving operation device 230 is a device that receives a user input for driving. In the case of the manual mode, the vehicle 10 may be driven based on a signal provided by the driving operation device 230. The driving operation device 230 may include a steering input device (eg, a steering wheel), an acceleration input device (eg, an accelerator pedal), and a brake input device (eg, a brake pedal).
메인 ECU(240)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치의 전반적인 동작을 제어할 수 있다.The main ECU 240 may control the overall operation of at least one electronic device provided in the vehicle 10.
구동 제어 장치(250)는, 차량(10)내 각종 차량 구동 장치를 전기적으로 제어하는 장치이다. 구동 제어 장치(250)는, 파워 트레인 구동 제어 장치, 샤시 구동 제어 장치, 도어/윈도우 구동 제어 장치, 안전 장치 구동 제어 장치, 램프 구동 제어 장치 및 공조 구동 제어 장치를 포함할 수 있다. 파워 트레인 구동 제어 장치는, 동력원 구동 제어 장치 및 변속기 구동 제어 장치를 포함할 수 있다. 샤시 구동 제어 장치는, 조향 구동 제어 장치, 브레이크 구동 제어 장치 및 서스펜션 구동 제어 장치를 포함할 수 있다. The drive control device 250 is a device that electrically controls various vehicle drive devices in the vehicle 10. The drive control device 250 may include a power train drive control device, a chassis drive control device, a door/window drive control device, a safety device drive control device, a lamp drive control device, and an air conditioning drive control device. The power train drive control device may include a power source drive control device and a transmission drive control device. The chassis drive control device may include a steering drive control device, a brake drive control device, and a suspension drive control device.
한편, 안전 장치 구동 제어 장치는, 안전 벨트 제어를 위한 안전 벨트 구동 제어 장치를 포함할 수 있다.Meanwhile, the safety device driving control device may include a safety belt driving control device for controlling the safety belt.
차량 구동 제어 장치(250)는, 제어 ECU(Electronic Control Unit)로 명명될 수 있다.The vehicle drive control device 250 may be referred to as a control Electronic Control Unit (ECU).
주행 시스템(260)는, 오브젝트 검출 장치(210)에서 수신한 오브젝트에 대한 데이터에 기초하여, 차량(10)의 움직임을 제어하거나, 사용자에게 정보를 출력하기 위한 신호를 생성할 수 있다. 주행 시스템(260)는, 생성된 신호를, 사용자 인터페이스 장치(200), 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나에 제공할 수 있다.The driving system 260 may control a movement of the vehicle 10 or generate a signal for outputting information to a user based on data on an object received by the object detection device 210. The driving system 260 may provide the generated signal to at least one of the user interface device 200, the main ECU 240, and the vehicle driving device 250.
주행 시스템(260)은, ADAS를 포함하는 개념일 수 있다. ADAS(260)는, 적응형 크루즈 컨트롤 시스템(ACC : Adaptive Cruise Control), 자동 비상 제동 시스템(AEB : Autonomous Emergency Braking), 전방 충돌 알림 시스템(FCW : Foward Collision Warning), 차선 유지 보조 시스템(LKA : Lane Keeping Assist), 차선 변경 보조 시스템(LCA : Lane Change Assist), 타겟 추종 보조 시스템(TFA : Target Following Assist), 사각 지대 감시 시스템(BSD : Blind Spot Detection), 적응형 하이빔 제어 시스템(HBA : High Beam Assist), 자동 주차 시스템(APS : Auto Parking System), 보행자 충돌 알림 시스템(PD collision warning system), 교통 신호 검출 시스템(TSR : Traffic Sign Recognition), 교통 신호 보조 시스템(TSA : Trafffic Sign Assist), 나이트 비전 시스템(NV : Night Vision), 운전자 상태 모니터링 시스템(DSM : Driver Status Monitoring) 및 교통 정체 지원 시스템(TJA : Traffic Jam Assist) 중 적어도 어느 하나를 구현할 수 있다.The driving system 260 may be a concept including ADAS. ADAS 260 includes an adaptive cruise control system (ACC), an automatic emergency braking system (AEB), a forward collision warning system (FCW), and a lane maintenance assistance system (LKA: Lane Keeping Assist), Lane Change Assist (LCA), Target Following Assist (TFA), Blind Spot Detection (BSD), Adaptive High Beam Control System (HBA: High) Beam Assist), Auto Parking System (APS), PD collision warning system, Traffic Sign Recognition (TSR), Traffic Sign Assist (TSA), At least one of a night vision system (NV: Night Vision), a driver status monitoring system (DSM), and a traffic jam assistance system (TJA) may be implemented.
주행 시스템(260)은, 자율 주행 ECU(Electronic Control Unit)를 포함할 수 있다. 자율 주행 ECU는, 차량(10) 내 다른 전자 장치들 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나로부터 수신되는 데이터에 기초하여, 자율 주행 경로를 설정할 수 있다. 자율 주행 ECU는, 자율 주행 경로를 따라 차량(10)이 주행하도록 제어 신호를 생성할 수 있다. 자율 주행 ECU에서 생성된 제어 신호는, 메인 ECU(240) 및 차량 구동 장치(250) 중 적어도 어느 하나로 제공될 수 있다.The driving system 260 may include an autonomous driving electronic control unit (ECU). The autonomous driving ECU may set an autonomous driving route based on data received from at least one of other electronic devices in the vehicle 10. The autonomous driving ECU is based on data received from at least one of the user interface device 200, the object detection device 210, the communication device 220, the sensing unit 270, and the location data generating device 280, You can set an autonomous driving route. The autonomous driving ECU may generate a control signal so that the vehicle 10 travels along the autonomous driving path. The control signal generated by the autonomous driving ECU may be provided to at least one of the main ECU 240 and the vehicle driving device 250.
센싱부(270)는, 차량의 상태를 센싱할 수 있다. 센싱부(270)는, IMU(inertial navigation unit) 센서, 충돌 센서, 휠 센서(wheel sensor), 속도 센서, 경사 센서, 중량 감지 센서, 헤딩 센서(heading sensor), 포지션 모듈(position module), 차량 전진/후진 센서, 배터리 센서, 연료 센서, 타이어 센서, 핸들 회전에 의한 스티어링 센서, 차량 내부 온도 센서, 차량 내부 습도 센서, 초음파 센서, 조도 센서, 가속 페달 포지션 센서 및 브레이크 페달 포지션 센서 중 적어도 어느 하나를 포함할 수 있다. 한편, IMU(inertial navigation unit) 센서는, 가속도 센서, 자이로 센서, 자기 센서 중 하나 이상을 포함할 수 있다. The sensing unit 270 may sense the state of the vehicle. The sensing unit 270 includes an inertial navigation unit (IMU) sensor, a collision sensor, a wheel sensor, a speed sensor, a tilt sensor, a weight detection sensor, a heading sensor, a position module, and a vehicle. At least one of forward/reverse sensor, battery sensor, fuel sensor, tire sensor, steering sensor by steering wheel rotation, vehicle interior temperature sensor, vehicle interior humidity sensor, ultrasonic sensor, illuminance sensor, accelerator pedal position sensor, and brake pedal position sensor It may include. Meanwhile, the inertial navigation unit (IMU) sensor may include one or more of an acceleration sensor, a gyro sensor, and a magnetic sensor.
센싱부(270)는, 적어도 하나의 센서에서 생성되는 신호에 기초하여, 차량의 상태 데이터를 생성할 수 있다. 센싱부(270)는, 차량 자세 정보, 차량 모션 정보, 차량 요(yaw) 정보, 차량 롤(roll) 정보, 차량 피치(pitch) 정보, 차량 충돌 정보, 차량 방향 정보, 차량 각도 정보, 차량 속도 정보, 차량 가속도 정보, 차량 기울기 정보, 차량 전진/후진 정보, 배터리 정보, 연료 정보, 타이어 정보, 차량 램프 정보, 차량 내부 온도 정보, 차량 내부 습도 정보, 스티어링 휠 회전 각도, 차량 외부 조도, 가속 페달에 가해지는 압력, 브레이크 페달에 가해지는 압력 등에 대한 센싱 신호를 획득할 수 있다.The sensing unit 270 may generate state data of the vehicle based on a signal generated by at least one sensor. The sensing unit 270 includes vehicle attitude information, vehicle motion information, vehicle yaw information, vehicle roll information, vehicle pitch information, vehicle collision information, vehicle direction information, vehicle angle information, and vehicle speed. Information, vehicle acceleration information, vehicle tilt information, vehicle forward/reverse information, battery information, fuel information, tire information, vehicle ramp information, vehicle internal temperature information, vehicle internal humidity information, steering wheel rotation angle, vehicle exterior illuminance, accelerator pedal It is possible to acquire a sensing signal for the pressure applied to the brake pedal and the pressure applied to the brake pedal.
센싱부(270)는, 그 외, 가속페달센서, 압력센서, 엔진 회전 속도 센서(engine speed sensor), 공기 유량 센서(AFS), 흡기 온도 센서(ATS), 수온 센서(WTS), 스로틀 위치 센서(TPS), TDC 센서, 크랭크각 센서(CAS), 등을 더 포함할 수 있다.In addition, the sensing unit 270 includes an accelerator pedal sensor, a pressure sensor, an engine speed sensor, an air flow sensor (AFS), an intake air temperature sensor (ATS), a water temperature sensor (WTS), and a throttle position sensor. (TPS), a TDC sensor, a crank angle sensor (CAS), and the like may be further included.
센싱부(270)는, 센싱 데이터를 기초로, 차량 상태 정보를 생성할 수 있다. 차량 상태 정보는, 차량 내부에 구비된 각종 센서에서 감지된 데이터를 기초로 생성된 정보일 수 있다.The sensing unit 270 may generate vehicle state information based on the sensing data. The vehicle status information may be information generated based on data sensed by various sensors provided inside the vehicle.
예를 들면, 차량 상태 정보는, 차량의 자세 정보, 차량의 속도 정보, 차량의 기울기 정보, 차량의 중량 정보, 차량의 방향 정보, 차량의 배터리 정보, 차량의 연료 정보, 차량의 타이어 공기압 정보, 차량의 스티어링 정보, 차량 실내 온도 정보, 차량 실내 습도 정보, 페달 포지션 정보 및 차량 엔진 온도 정보 등을 포함할 수 있다.For example, the vehicle status information includes vehicle attitude information, vehicle speed information, vehicle tilt information, vehicle weight information, vehicle direction information, vehicle battery information, vehicle fuel information, vehicle tire pressure information, It may include vehicle steering information, vehicle interior temperature information, vehicle interior humidity information, pedal position information, vehicle engine temperature information, and the like.
한편, 센싱부는, 텐션 센서를 포함할 수 있다. 텐션 센서는, 안전 벨트의 텐션 상태에 기초하여 센싱 신호를 생성할 수 있다.Meanwhile, the sensing unit may include a tension sensor. The tension sensor may generate a sensing signal based on a tension state of the seat belt.
위치 데이터 생성 장치(280)는, 차량(10)의 위치 데이터를 생성할 수 있다. 위치 데이터 생성 장치(280)는, GPS(Global Positioning System) 및 DGPS(Differential Global Positioning System) 중 적어도 어느 하나를 포함할 수 있다. 위치 데이터 생성 장치(280)는, GPS 및 DGPS 중 적어도 어느 하나에서 생성되는 신호에 기초하여 차량(10)의 위치 데이터를 생성할 수 있다. 실시예에 따라, 위치 데이터 생성 장치(280)는, 센싱부(270)의 IMU(Inertial Measurement Unit) 및 오브젝트 검출 장치(210)의 카메라 중 적어도 어느 하나에 기초하여 위치 데이터를 보정할 수 있다.The location data generating device 280 may generate location data of the vehicle 10. The location data generating apparatus 280 may include at least one of a Global Positioning System (GPS) and a Differential Global Positioning System (DGPS). The location data generating apparatus 280 may generate location data of the vehicle 10 based on a signal generated by at least one of GPS and DGPS. According to an embodiment, the location data generating apparatus 280 may correct the location data based on at least one of an IMU (Inertial Measurement Unit) of the sensing unit 270 and a camera of the object detection apparatus 210.
위치 데이터 생성 장치(280)는, 위치 측위 장치로 명명될 수 있다. 위치 데이터 생성 장치(280)는, GNSS(Global Navigation Satellite System)로 명명될 수 있다.The location data generating device 280 may be referred to as a location positioning device. The location data generating device 280 may be referred to as a Global Navigation Satellite System (GNSS).
차량(10)은, 내부 통신 시스템(50)을 포함할 수 있다. 차량(10)에 포함되는 복수의 전자 장치는 내부 통신 시스템(50)을 매개로 신호를 교환할 수 있다. 신호에는 데이터가 포함될 수 있다. 내부 통신 시스템(50)은, 적어도 하나의 통신 프로토콜(예를 들면, CAN, LIN, FlexRay, MOST, 이더넷)을 이용할 수 있다. Vehicle 10 may include an internal communication system 50. A plurality of electronic devices included in the vehicle 10 may exchange signals through the internal communication system 50. The signal may contain data. The internal communication system 50 may use at least one communication protocol (eg, CAN, LIN, FlexRay, MOST, Ethernet).
도 3은 본 발명의 실시예에 따른 전자 장치의 제어 블럭도이다.3 is a control block diagram of an electronic device according to an embodiment of the present invention.
도 3을 참조하면, 교통 사고 처리 장치(2)는, 통신 장치(320), 메모리(340), 프로세서(370), 인터페이스부(180) 및 전원 공급부(390)를 포함할 수 있다. Referring to FIG. 3, the traffic accident processing apparatus 2 may include a communication device 320, a memory 340, a processor 370, an interface unit 180, and a power supply unit 390.
통신 장치(320)는, 차량(10) 및 차량 외부 통신 장치와 신호를 교환할 수 있다. 차량 외부 통신 장치는 로드 사이드 유닛(3) 및 외부 서버를 포함할 수 있다.The communication device 320 may exchange signals with the vehicle 10 and a communication device outside the vehicle. The vehicle external communication device may include a load side unit 3 and an external server.
통신 장치(320)는, 통신을 수행하기 위해 송신 안테나, 수신 안테나, 각종 통신 프로토콜이 구현 가능한 RF(Radio Frequency) 회로 및 RF 소자 중 적어도 어느 하나를 포함할 수 있다.The communication device 320 may include at least one of a transmission antenna, a reception antenna, a radio frequency (RF) circuit capable of implementing various communication protocols, and an RF element to perform communication.
통신 장치(320)는, 5G(예를 들면, 뉴 라디오(new radio, NR)) 방식을 이용하여, 차량(10) 및 차량 외부 통신 장치와 통신할 수 있다. 이하 본 발명의 실시예에 따른 차량 외부 통신 장치는, 로드 사이드 유닛(3)을 기반으로 설명될 수 있다.The communication device 320 may communicate with the vehicle 10 and an external communication device outside the vehicle using a 5G (for example, new radio (NR)) method. Hereinafter, a vehicle external communication device according to an embodiment of the present invention may be described based on the road side unit 3.
메모리(340)는, 프로세서(370)와 전기적으로 연결된다. 메모리(340)는 유닛에 대한 기본데이터, 유닛의 동작제어를 위한 제어데이터, 입출력되는 데이터를 저장할 수 있다. 메모리(340)는, 프로세서(370)에서 처리된 데이터를 저장할 수 있다. 메모리(340)는, 하드웨어적으로, ROM, RAM, EPROM, 플래시 드라이브, 하드 드라이브 중 적어도 어느 하나로 구성될 수 있다. 메모리(340)는 프로세서(370)의 처리 또는 제어를 위한 프로그램 등, 교통 사고 처리 장치(2) 전반의 동작을 위한 다양한 데이터를 저장할 수 있다. 메모리(340)는, 프로세서(370)와 일체형으로 구현될 수 있다. 실시예에 따라, 메모리(340)는, 프로세서(370)의 하위 구성으로 분류될 수 있다.The memory 340 is electrically connected to the processor 370. The memory 340 may store basic data for a unit, control data for controlling the operation of the unit, and input/output data. The memory 340 may store data processed by the processor 370. In terms of hardware, the memory 340 may be configured with at least one of ROM, RAM, EPROM, flash drive, and hard drive. The memory 340 may store various data for the overall operation of the traffic accident processing apparatus 2, such as a program for processing or controlling the processor 370. The memory 340 may be implemented integrally with the processor 370. Depending on the embodiment, the memory 340 may be classified as a sub-element of the processor 370.
인터페이스부(180)는, 차량(10) 내에 구비되는 적어도 하나의 전자 장치와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(180)는, 사용자 인터페이스 장치(200), 오브젝트 검출 장치(210), 통신 장치(220), 운전 조작 장치(230), 메인 ECU(240), 차량 구동 장치(250), 주행 시스템(260), 센싱부(270) 및 위치 데이터 생성 장치(280) 중 적어도 어느 하나와 유선 또는 무선으로 신호를 교환할 수 있다. 인터페이스부(280)는, 통신 모듈, 단자, 핀, 케이블, 포트, 회로, 소자 및 장치 중 적어도 어느 하나로 구성될 수 있다.The interface unit 180 may exchange signals with at least one electronic device provided in the vehicle 10 by wire or wirelessly. The interface unit 180 includes a user interface device 200, an object detection device 210, a communication device 220, a driving operation device 230, a main ECU 240, a vehicle driving device 250, a driving system ( 260), the sensing unit 270, and the location data generating device 280 may exchange signals with at least one of wired or wirelessly. The interface unit 280 may be configured with at least one of a communication module, a terminal, a pin, a cable, a port, a circuit, an element, and a device.
전원 공급부(390)는, 교통 사고 처리 장치(2)에 전원을 공급할 수 있다. 전원 공급부(390)는, 차량(10)에 포함된 파워 소스(예를 들면, 배터리)로부터 전원을 공급받아, 교통 사고 처리 장치(2)의 각 유닛에 전원을 공급할 수 있다. 전원 공급부(390)는, 메인 ECU(340)로부터 제공되는 제어 신호에 따라 동작될 수 있다. 전원 공급부(390)는, SMPS(switched-mode power supply)로 구현될 수 있다.The power supply unit 390 can supply power to the traffic accident handling apparatus 2. The power supply unit 390 may receive power from a power source (eg, a battery) included in the vehicle 10 and supply power to each unit of the traffic accident handling apparatus 2. The power supply unit 390 may be operated according to a control signal provided from the main ECU 340. The power supply unit 390 may be implemented as a switched-mode power supply (SMPS).
프로세서(370)는, 메모리(340), 인터페이스부(180), 전원 공급부(390)와 전기적으로 연결되어 신호를 교환할 수 있다. 프로세서(370)는, ASICs (application specific integrated circuits), DSPs(digital signal processors), DSPDs(digital signal processing devices), PLDs(programmable logic devices), FPGAs(field programmable gate arrays), 프로세서(processors), 제어기(controllers), 마이크로 컨트롤러(micro-controllers), 마이크로 프로세서(microprocessors), 기타 기능 수행을 위한 전기적 유닛 중 적어도 하나를 이용하여 구현될 수 있다.The processor 370 may be electrically connected to the memory 340, the interface unit 180, and the power supply unit 390 to exchange signals. The processor 370 includes application specific integrated circuits (ASICs), digital signal processors (DSPs), digital signal processing devices (DSPDs), programmable logic devices (PLDs), field programmable gate arrays (FPGAs), processors, and controllers. It may be implemented using at least one of (controllers), micro-controllers, microprocessors, and electrical units for performing other functions.
프로세서(370)는, 전원 공급부(390)로부터 제공되는 전원에 의해 구동될 수 있다. 프로세서(370)는, 전원 공급부(390)에 의해 전원이 공급되는 상태에서 데이터를 수신하고, 데이터를 처리하고, 신호를 생성하고, 신호를 제공할 수 있다.The processor 370 may be driven by power provided from the power supply unit 390. The processor 370 may receive data, process data, generate a signal, and provide a signal while power is supplied by the power supply unit 390.
프로세서(370)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로부터 정보를 수신할 수 있다. 프로세서(370)는, 인터페이스부(180)를 통해, 차량(10) 내 다른 전자 장치로 제어 신호를 제공할 수 있다.The processor 370 may receive information from another electronic device in the vehicle 10 through the interface unit 180. The processor 370 may provide a control signal to another electronic device in the vehicle 10 through the interface unit 180.
프로세서(370)는, 자율 주행 차량(10)의 상황에 대한 데이터를 획득할 수 있다. 프로세서(370)는, 자율 주행 차량(10)에 구비되는 적어도 하나의 전자 장치로부터 제1 데이터를 획득할 수 있다. 예를 들면, 프로세서(370)는, 자율 주행 차량(10)에 구비되는 오브젝트 검출 장치(210) 및 센싱부(270) 중 적어도 어느 하나로부터 제1 데이터를 획득할 수 있다. 제1 데이터는, 자율 주행 차량(10)의 위치 정보, 속도 정보, 헤딩 정보, 가속도 정보, 감속도 정보, 조향 정보, 브레이크 정보, 충격량 정보 중 적어도 어느 하나를 포함할 수 있다. 제1 데이터는, 자율 주행 차량(10) 주변의 오브젝트에 대한 데이터일 수 있다. 프로세서(370)는, 자율 주행 차량 주변에 위치하는 타 차량에 구비되는 적어도 하나의 전자 장치로부터 제2 데이터를 획득할 수 있다. 타 차량은, 타 자율 주행 차량일 수 있다. 예를 들면, 프로세서(370)는, 타 자율 주행 차량에 구비되는 오브젝트 검출 장치 및 센싱부 중 적어도 어느 하나로부터 제2 데이터를 획득할 수 있다. 제2 데이터는, 자율 주행 차량(10)이 센싱된 센싱 데이터를 포함할 수 있다. 제2 데이터는, 타 자율 주행 차량의 위치 정보, 속도 정보, 헤딩 정보, 가속도 정보, 감속도 정보, 조향 정보, 브레이크 정보, 충격량 정보 중 적어도 어느 하나를 포함할 수 있다. The processor 370 may acquire data on the situation of the autonomous vehicle 10. The processor 370 may obtain first data from at least one electronic device included in the autonomous vehicle 10. For example, the processor 370 may obtain the first data from at least one of the object detection device 210 and the sensing unit 270 provided in the autonomous vehicle 10. The first data may include at least one of location information, speed information, heading information, acceleration information, deceleration information, steering information, brake information, and impact amount information of the autonomous vehicle 10. The first data may be data on objects around the autonomous vehicle 10. The processor 370 may acquire second data from at least one electronic device provided in another vehicle located around the autonomous vehicle. The other vehicle may be another autonomous vehicle. For example, the processor 370 may obtain second data from at least one of an object detection device and a sensing unit provided in another autonomous vehicle. The second data may include sensing data sensed by the autonomous vehicle 10. The second data may include at least one of location information, speed information, heading information, acceleration information, deceleration information, steering information, brake information, and impact amount information of another autonomous vehicle.
프로세서(370)는, 자율 주행 차량(10) 주변에 위치하는 적어도 하나의 외부 통신 장치로부터 제3 데이터를 획득할 수 있다. 제3 데이터는, 로드 사이드 유닛(3)이 획득한 차량(10)이 센싱된 센싱 데이터일 수 있다. 제3 데이터는, 외부 서버가 로드 사이드 유닛(3)으로부터 획득한 차량(10)이 센싱된 센싱 데이터일 수 있다.The processor 370 may acquire third data from at least one external communication device located around the autonomous vehicle 10. The third data may be sensing data sensed by the vehicle 10 acquired by the road side unit 3. The third data may be sensing data sensed by the vehicle 10 acquired from the load side unit 3 by an external server.
프로세서(370)는, 자율 주행 차량(10) 주변에 위치하는 적어도 하나의 로드 사이드 유닛(3)으로부터 제3 데이터를 획득할 수 있다. 제3 데이터는, 자율 주행 차량(10)이 센싱된 센싱 데이터(예를 들면, 영상 데이터), 신호등 데이터, 지도 데이터 중 적어도 어느 하나를 포함할 수 있다.The processor 370 may obtain third data from at least one road side unit 3 located around the autonomous vehicle 10. The third data may include at least one of sensing data (eg, image data), traffic light data, and map data sensed by the autonomous vehicle 10.
프로세서(370)는, 자율 주행 차량(10)의 상황에 대한 데이터에 기초하여, 자율 주행 차량의 사고 발생 여부를 판단할 수 있다. 프로세서(370)는, 자율 주행 차량(10)으로부터 획득된 제1 데이터, 타 자율 주행 차량으로부터 획득된 제2 데이터 및 로드 사이드 유닛으로부터 획득된 제3 데이터 중 적어도 어느 하나에 기초하여, 자율 주행 차량(10)의 사고 발생 여부를 판단할 수 있다. 예를 들면, 자율 주행 차량(10)의 속도 정보, 가속도 정보, 감속도 정보, 브레이크 정보, 충격량 정보와 타 자율 주행 차량이나 로드 사이드 유닛으로부터 획득된 영상 데이터에 기초하여, 자율 주행 차량(10)의 사고 발생 여부를 판단할 수 있다.The processor 370 may determine whether an accident has occurred in the autonomous vehicle based on data on the situation of the autonomous vehicle 10. The processor 370 is based on at least one of the first data obtained from the autonomous vehicle 10, the second data obtained from another autonomous vehicle, and the third data obtained from the road side unit, It is possible to determine whether an accident in (10) has occurred. For example, on the basis of speed information, acceleration information, deceleration information, brake information, impact amount information of the autonomous vehicle 10 and image data acquired from other autonomous vehicles or roadside units, the autonomous vehicle 10 It is possible to determine whether an accident has occurred.
프로세서(370)는, 인공 지능 알고리즘을 이용해, 사고의 책임 소재를 판단할 수 있다. The processor 370 may use an artificial intelligence algorithm to determine the responsibility of the accident.
프로세서(370)는, 자율 주행 차량(10)으로부터 획득된 제1 데이터, 타 자율 주행 차량으로부터 획득된 제2 데이터 및 로드 사이드 유닛으로부터 획득된 제3 데이터 중 적어도 어느 하나에 기초하여, 사고 발생 시점의 상황을 시뮬레이션으로 재구성할 수 있다. The processor 370 is based on at least one of the first data obtained from the autonomous vehicle 10, the second data obtained from another autonomous vehicle, and the third data obtained from the road side unit, and the accident occurrence time point The situation of can be reconstructed by simulation.
예를 들면, 프로세서(370)는, 자율 주행 차량(10)으로부터 획득된 영상 데이터, 타 자율 주행 차량으로부터 획득된 영상 데이터 및 로드 사이드 유닛으로부터 획득된 영상 데이터를 합성하고 편집하여, 사고 발생 시점의 상황을 시뮬레이션으로 재구성할 수 있다. For example, the processor 370 synthesizes and edits the image data acquired from the autonomous vehicle 10, the image data acquired from another autonomous vehicle, and the image data acquired from the road side unit, The situation can be reconstructed into a simulation.
예를 들면, 프로세서(370)는, 맵에 자율 주행 차량(10) 및 자율 주행 차량의 주변 오브젝트를 시간순으로 맵핑할 수 있다. 프로세서(370)는, 자율 주행 차량(10) 및 자율 주행 차량의 주변 오브젝트의 맵핑을 통해, 사고 발생 시점의 상황을 시뮬레이션으로 재구성할 수 있다. 한편, 자율 주행 차량(10)의 주변 오브젝트에 대한 정보는, 자율 주행 차량(10)으로부터 획득된 제1 데이터, 타 자율 주행 차량으로부터 획득된 제2 데이터 및 로드 사이드 유닛으로부터 획득된 제3 데이터 중 적어도 어느 하나에 기초하여 생성될 수 있다.For example, the processor 370 may map the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle on the map in chronological order. The processor 370 may reconstruct a situation at the time of an accident in a simulation through mapping of the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle. On the other hand, the information on the surrounding objects of the autonomous vehicle 10 is, among the first data obtained from the autonomous vehicle 10, the second data obtained from the other autonomous vehicle, and the third data obtained from the road side unit. It may be generated based on at least any one.
예를 들면, 프로세서(370)는, 자율 주행 차량(10)으로부터 획득된 제1 데이터, 타 자율 주행 차량으로부터 획득된 제2 데이터 및 로드 사이드 유닛으로부터 획득된 제3 데이터 중 적어도 어느 하나에 기초하여, 자율 주행 차량(10)의 이미지를 기준으로 하는 탑뷰 이미지를 생성할 수 있다. 프로세서(370)는, 탑뷰 이미지를 생성함으로써, 사고 발생 시점의 상황을 시뮬레이션으로 재구성할 수 있다. 탑뷰 이미지는, 자율 주행 차량의 조향 바퀴의 자세 이미지가 포함되는 동영상일 수 있다.For example, the processor 370 may be based on at least one of first data obtained from the autonomous vehicle 10, second data obtained from another autonomous vehicle, and third data obtained from the road side unit. , A top view image based on the image of the autonomous vehicle 10 may be generated. The processor 370 may reconfigure the situation at the time of the accident by generating a top view image into a simulation. The top view image may be a video including a posture image of a steering wheel of an autonomous vehicle.
프로세서(370)는, 인공 지능(artificial intelligence, AI) 알고리즘에 자율 주행 차량(10)의 상황에 대한 데이터와 교통 법류 데이터를 입력하여 머신 러닝(machine learning)한 결과에 기초하여, 사고 책임 소재를 판단할 수 있다. 프로세서(370)는, 인공 지능 알고리즘에 과거 교통 사고 히스토리 데이터를 더 입력하여 머신 러닝한 결과에 기초하여, 사고 책임 소재를 판단할 수 있다.The processor 370 inputs data on the situation of the autonomous vehicle 10 and traffic law data into an artificial intelligence (AI) algorithm, and based on the result of machine learning, determines the responsibility of the accident. I can judge. The processor 370 may further input past traffic accident history data to an artificial intelligence algorithm and determine the person responsible for the accident based on the result of machine learning.
인공 지능 알고리즘은, 적어도 하나의 인공 신경망(artificial neural network, ANN)을 이용하여, 입력되는 데이터에 대한 기계 학습(machine learning)을 수행할 수 있다.The artificial intelligence algorithm may perform machine learning on input data using at least one artificial neural network (ANN).
프로세서(370)는, 사고 발생 이후의 2차 사고에 대한 방지 루틴을 실행할 수 있다.The processor 370 may execute a routine for preventing a secondary accident after the accident has occurred.
프로세서(370)는, 사고 발생 이후, 자율 주행 차량(10)의 이동 가능 여부를 판단할 수 있다. 프로세서(370)는, 자율 주행 차량(10)이 이동 가능하다고 판단되는 경우, 자율 주행 차량(10)의 회피 경로를 생성할 수 있다. 프로세서(370)는, 회피 경로를 따라 자율 주행 차량(10)이 주행하도록 제어 신호를 제공할 수 있다.After the accident, the processor 370 may determine whether the autonomous vehicle 10 can be moved. When it is determined that the autonomous driving vehicle 10 is movable, the processor 370 may generate an avoidance path for the autonomous driving vehicle 10. The processor 370 may provide a control signal to drive the autonomous vehicle 10 along the avoidance path.
프로세서(370)는, 자율 주행 차량(10)에 후행하는 타 차량과의 충돌 예측 시간을 계산할 수 있다. 프로세서(370)는, 충돌 예측 시간과 사고 지점에서 회피 이동 경로에 따른 자율 주행 차량(10)의 회피 시간을 비교할 수 있다. 프로세서(370)는, 회피 시간이 충돌 예측 시간 이상인 경우, 회피 경로를 따라 자율 주행 차량(10)이 주행하도록 제어 신호를 제공할 수 있다.The processor 370 may calculate a collision prediction time with another vehicle following the autonomous vehicle 10. The processor 370 may compare the collision prediction time and the avoidance time of the autonomous vehicle 10 according to the avoidance movement path at the accident point. When the avoidance time is greater than or equal to the collision prediction time, the processor 370 may provide a control signal so that the autonomous vehicle 10 travels along the avoidance path.
교통 사고 처리 장치(2)는, 적어도 하나의 인쇄 회로 기판(printed circuit board, PCB)을 포함할 수 있다. 메모리(140), 인터페이스부(180), 전원 공급부(190) 및 프로세서(370)는, 인쇄 회로 기판에 전기적으로 연결될 수 있다.The traffic accident handling apparatus 2 may include at least one printed circuit board (PCB). The memory 140, the interface unit 180, the power supply unit 190, and the processor 370 may be electrically connected to a printed circuit board.
도 4는 본 발명의 실시예에 따른 교통 사고 처리 방법(S400)을 설명하는데 참조되는 도면이다.4 is a view referenced for explaining a traffic accident handling method (S400) according to an embodiment of the present invention.
도 4를 참조하면, 프로세서(370)는, 자율 주행 차량(10)의 상황에 대한 데이터를 획득할 수 있다(S410). 데이터를 획득 하는 단계(S410)는, 적어도 하나의 프로세서(370)가, 자율 주행 차량(10)에 구비되는 적어도 하나의 전자 장치로부터 제1 데이터를 획득하는 단계, 적어도 하나의 프로세서(370)가, 자율 주행 차량(10) 주변에 위치하는 타 차량에 구비되는 적어도 하나의 전자 장치로부터 제2 데이터를 획득하는 단계 및 적어도 하나의 프로세서가, 자율 주행 차량 주변에 위치하는 적어도 하나의 로드 사이드 유닛으로부터 제3 데이터를 획득하는 단계를 포함할 수 있다.Referring to FIG. 4, the processor 370 may acquire data on the situation of the autonomous vehicle 10 (S410 ). In the step of obtaining data (S410), the at least one processor 370 is a step of obtaining first data from at least one electronic device provided in the autonomous vehicle 10, the at least one processor 370 , Obtaining second data from at least one electronic device provided in another vehicle located around the autonomous vehicle 10, and at least one processor, from at least one road side unit located around the autonomous vehicle It may include obtaining third data.
프로세서(370)는, 자율 주행 차량(10)의 상황에 대한 데이터에 기초하여, 자율 주행 차량(10)의 사고의 발생 여부를 판단할 수 있다(S420).The processor 370 may determine whether an accident has occurred in the autonomous vehicle 10 based on data on the situation of the autonomous vehicle 10 (S420).
자율 주행 차량(10)에 사고가 발생한 것으로 판단되는 경우, 프로세서(370)는, 인공 지능 알고리즘을 이용해, 사고의 책임 소재를 판단할 수 있다(S430). When it is determined that an accident has occurred in the autonomous vehicle 10, the processor 370 may determine the responsibility of the accident using an artificial intelligence algorithm (S430).
책임 소재를 판단하는 단계(S430)는, 적어도 하나의 프로세서(370)가, 자율 주행 차량(10)으로부터 획득된 제1 데이터, 타 자율 주행 차량으로부터 획득된 제2 데이터 및 로드 사이드 유닛으로부터 획득된 제3 데이터 중 적어도 어느 하나에 기초하여, 사고 발생 시점의 상황을 시뮬레이션으로 재구성하는 단계를 포함할 수 있다. 예를 들면, 재구성하는 단계는, 적어도 하나의 프로세서(370)가, 맵에 자율 주행 차량(10) 및 자율 주행 차량(10)의 주변 오브젝트를 시간 순으로 맵핑하는 단계를 포함할 수 있다. 이경우, 자율 주행 차량(10)의 주변 오브젝트에 대한 정보는, 상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여 생성될 수 있다. 예를 들면, 재구성하는 단계는, 적어도 하나의 프로세서(370)가, 상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여, 자율 주행 차량(10)의 이미지를 기준으로하는 탑뷰 이미지를 생성하는 단계를 포함할 수 있다. 여기서, 탑뷰 이미지는, 자율 주행 차량(10)의 조향 바퀴의 자세 이미지가 포함되는 동영상일 수 있다.In the step of determining the responsible position (S430), the at least one processor 370 includes first data obtained from the autonomous vehicle 10, second data obtained from other autonomous vehicles, and the road side unit. Based on at least one of the third data, it may include reconfiguring the situation at the time of the accident in a simulation. For example, the reconfiguration may include a step of at least one processor 370 mapping the autonomous driving vehicle 10 and surrounding objects of the autonomous driving vehicle 10 on a map in chronological order. In this case, information on the surrounding objects of the autonomous vehicle 10 may be generated based on at least one of the first data, the second data, and the third data. For example, the step of reconfiguring, at least one processor 370, based on at least one of the first data, the second data, and the third data, based on the image of the autonomous vehicle 10 It may include the step of generating a top view image. Here, the top view image may be a video including an image of the attitude of the steering wheel of the autonomous vehicle 10.
책임 소재를 판단하는 단계(S430)는, 적어도 하나의 프로세서(370)가, 인공 지능 알고리즘에 자율 주행 차량(10)의 상황에 대한 데이터 및 교통 법규 데이터를 입력하여 머신 런닝한 결과에 기초하여, 사고의 책임 소재를 판단할 수 있다. 책임 소재를 판단하는 단계(S430)는, 적어도 하나의 프로세서(370)가, 인공 지능 알고리즘에 과거 교통 사고 히스토리 데이터를 더 입력하여 머신 러닝한 결과에 기초하여, 사고의 책임 소재를 판단할 수 있다. In the step of determining the responsible person (S430), the at least one processor 370 inputs data on the situation of the autonomous vehicle 10 and traffic regulation data into an artificial intelligence algorithm, and based on the result of machine running, You can determine where you are responsible for the accident. In the step of determining the responsible person (S430), the at least one processor 370 may further input past traffic accident history data to an artificial intelligence algorithm and determine the person responsible for the accident based on the result of machine learning. .
자율 주행 차량(10)에 사고가 발생한 것으로 판단되는 경우, 프로세서(370)는, 상기 사고 발생 이후의 2차 사고에 대한 방지 루틴을 실행할 수 있다(S430).When it is determined that an accident has occurred in the autonomous vehicle 10, the processor 370 may execute a routine for preventing secondary accidents after the accident (S430).
2차 사고 방지 루틴을 실행하는 단계(S430)는, 적어도 하나의 프로세서(370)가, 사고 발생 이후, 자율 주행 차량(10)의 이동 가능 여부를 판단하는 단계, 적어도 하나의 프로세서(370)가, 자율 주행 차량(10)의 회피 이동 경로를 생성하는 단계 및 적어도 하나의 프로세서(370)가, 회피 이동 경로를 따라 자율 주행 차량(10)이 주행하도록 제어 신호를 제공하는 단계를 포함할 수 있다.In the step of executing the secondary accident prevention routine (S430), the at least one processor 370 determines whether the autonomous driving vehicle 10 can be moved after the accident occurs, and the at least one processor 370 , Generating an avoidance movement path of the autonomous vehicle 10, and at least one processor 370 providing a control signal to allow the autonomous driving vehicle 10 to travel along the avoidance movement path. .
2차 사고 방지 루틴을 실행하는 단계(S430)는, 적어도 하나의 프로세서(370)가, 자율 주행 차량(10)에 후행하는 타 차량과의 충돌 예측 시간을 계산하는 단계, 적어도 하나의 프로세서(370)가, 충돌 예측 시간과 사고 지점에서 회피 이동 경로에 따른 자율 주행 차량(10)의 회피 시간을 비교하는 단계를 포함할 수 있다. 이때, 제어 신호를 제공하는 단계는, 적어도 하나의 프로세서(370)가, 상기 회피 시간이 상기 출돌 예측 시간 이상인 경우, 상기 제어 신호를 제공할 수 있다.In the step of executing the secondary accident prevention routine (S430), the at least one processor 370 calculates a collision prediction time with another vehicle following the autonomous vehicle 10, at least one processor 370 ) May include comparing the collision prediction time and the avoidance time of the autonomous vehicle 10 according to the avoidance movement path at the accident point. In this case, in the providing of the control signal, the at least one processor 370 may provide the control signal when the avoidance time is greater than or equal to the attendance prediction time.
도 5 내지 도 8은 본 발명의 실시예에 따른 교통 사고 처리 방법을 설명하는데 참조되는 도면이다. 도 5 내지 도 8은, 차량(10)에 교통 사고 처리 장치가 포함되는 경우의 플로우 차트를 예시한다. 5 to 8 are views referenced for explaining a traffic accident handling method according to an embodiment of the present invention. 5 to 8 illustrate flow charts when the vehicle 10 includes a traffic accident processing apparatus.
도 5를 참조하면, 프로세서(370)는, 차량(10)에 의해 수집된 사고 데이터가 충분한지 판단할 수 있다(S510). 차량(10)의 수집 데이터의 충분 여부는, 사고 직전 일정 시간 동안의 차량(10) 및 주변 오브젝트의 이동 궤적, 신호등 정보 등 수집 여부로 판단될 수 있다. S510 단계에서 충분하다고 판단되는 경우, 프로세서(370)는, 차량(10)이 수집한 사고 데이터를 서버(2)로 전송하고, 2차 사고 방지 루틴을 실행할 수 있다(S520). S520 단계에서 충분하지 않다고 판단되는 경우, 프로세서(370)는, 추가 데이터 수집이 가능한지 판단할 수 있다(S530). S530 단계에서 수집 가능하다고 판단되는 경우, 프로세서(370)는, 타 차량 또는 로드 사이드 유닛으로부터 데이터를 추가 수집하고, 2차 사고 방지 루틴을 실행할 수 있다(S540). 프로세서(370)는, 데이터 추가 수집 완료 후, 데이터를 서버(2)로 전송하고, 2차 사고 방지 루틴을 실행할 수 있다(S550).Referring to FIG. 5, the processor 370 may determine whether accident data collected by the vehicle 10 is sufficient (S510). Whether or not the collected data of the vehicle 10 is sufficient may be determined based on whether or not the vehicle 10 and surrounding objects are collected for a certain period of time immediately before the accident, traffic light information, and the like. If it is determined that it is sufficient in step S510, the processor 370 may transmit the accident data collected by the vehicle 10 to the server 2, and execute a secondary accident prevention routine (S520). If it is determined that it is not sufficient in step S520, the processor 370 may determine whether additional data collection is possible (S530). If it is determined that collection is possible in step S530, the processor 370 may additionally collect data from other vehicles or roadside units, and execute a secondary accident prevention routine (S540). The processor 370 may transmit the data to the server 2 and execute a secondary accident prevention routine after the data addition collection is completed (S550).
프로세서(370)는, 사고의 책임 소재를 판단할 수 있다(S560). 책임 소재에 대한 판단은, 수집된 사고 데이터를 서버에 저장된 과거의 사고 책임 소재 판정 사례와 매칭하여 이루어질 수 있다. S560 단계에서, 사고의 책임 소재 판단이 가능한 경우, 프로세서(370)는, 책임소재 판단 결과를 사고 이해관계자들에게 제공하고, 사고 처리를 할 수 있다(S570). S560 단계에서, 프로세서(370)는, 사고의 책임 소재 판단이 불가능한 경우, 보험사 직원을 호출할 수 있다(S580). 호출된 보험사 직원은 이후의 사고 처리를 수행할 수 있다.The processor 370 may determine the responsibility of the accident (S560). Determination of the location of responsibility may be made by matching the collected accident data with the past judgment of the location of responsibility of the accident stored in the server. In step S560, if it is possible to determine the position of responsibility of the accident, the processor 370 may provide a result of the determination of the position of responsibility to the accident stakeholders and perform the accident (S570). In step S560, the processor 370, if it is impossible to determine the responsibility of the accident, may call the insurance company employee (S580). The called insurer employee can carry out subsequent incident handling.
도 6을 참조하면, 프로세서(370)는, 수집된 사고 데이터가 충분한지 판단할 수 있다(S605). S605 단계에서, 충분하지 않다고 판단되는 경우, 프로세서(370)는, 타 차량이 존재하는지 판단할 수 있다(S610). S610 단계에서, 타 차량이 존재하는 것으로 판단되는 경우, 프로세서(370)는, 타 차량이 소정 조건에 만족하는지 판단할 수 있다(S615). 예를 들면, 프로세서(370)는, 타 차량이 차량 소정 반경 이내에 위치하는지 판단할 수 있다. S615 단계에서, 타 차량이 소정 조건을 만족하지 않는 것으로 판단되는 경우, 프로세서(370)는, 2차 사고 방지를 위해 서버로부터 후방 차량의 현재 위치 도달 시점, 안전 지역까지의 주행 가능 영역, 추가 취득이 필요한 데이터를 수신할 수 있다(S620). 프로세서(370)는, 영역 내 도달시점 내에 필요 데이터를 수집 가능하도록하는 이동 경로를 산출하고, 경로에 따라 차량(10)을 이동시킬 수 있다(S625). 프로세서(370)는, 차량(10) 이동시, 이동 궤적을 포함하는 센서 데이터를 스트리밍 전송할 수 있다(S630). 프로세서(370)는, 사고 데이터를 수집하고 사고 현장으로부터 차량 이동을 추적할 수 있다. 프로세서(370)는, 차량(10)의 정차 상태를 유지하고, 2차 사고 가능성에 대비하여 타 차량 접근 방향 및 회피 방향에 대한 모니터링을 활성화할 수 있다(S635).Referring to FIG. 6, the processor 370 may determine whether the collected accident data is sufficient (S605). In step S605, if it is determined that it is not sufficient, the processor 370 may determine whether another vehicle exists (S610). In step S610, if it is determined that another vehicle exists, the processor 370 may determine whether the other vehicle satisfies a predetermined condition (S615). For example, the processor 370 may determine whether another vehicle is located within a predetermined radius of the vehicle. In step S615, when it is determined that the other vehicle does not satisfy the predetermined condition, the processor 370 obtains the time when the vehicle reaches the current position of the rear vehicle from the server, the driveable area to the safe area, and additionally to prevent a secondary accident. This necessary data may be received (S620). The processor 370 may calculate a movement path that enables the collection of necessary data within the time point of arrival within the area, and may move the vehicle 10 according to the path (S625). When the vehicle 10 moves, the processor 370 may stream and transmit sensor data including a movement trajectory (S630). The processor 370 may collect accident data and track vehicle movement from the accident site. The processor 370 may maintain a stopped state of the vehicle 10 and activate monitoring of the approaching direction and the avoidance direction of other vehicles in preparation for a possibility of a secondary accident (S635).
S605 단계에서 수집된 데이터가 충분하다고 판단되는 경우, 프로세서(370)는, 수집된 사고 데이터로 산출된 사고 상황과 서버(2) 저장소의 기존 사고 상황을 매칭할 수 있다(S650). 프로세서(370)는, 사고 지역, 파손 영역, 사고 전 조작 등의 일치도가 일정 수준 이상인 경우 실시간으로 사고 상황에 관한 내용을 산출하고, 산출 내용을 전송할 수 있다(S655). 프로세서(370)는, 사고 당사자들이 산출된 내용에 납득하는지 판단할 수 있다(S660). S660 단계에서 납득하는 것으로 판단되는 경우, 프로세서(370)는, 자율 주행 기능이 유지 가능한지 판단할 수 있다(S665). S665 단계에서 자율 주행 기능이 유지 가능하다고 판단되는 경우, 프로세서(370)는, 차량 사고 피해 상황에 따라 목적지를 자동 설정하고, 목적지를 차량(10)을 이동시킬 수 있다. 여기서, 자동 설정된 목적지는, 기존 목적지, 정비소 및 대피소 중 적어도 어느 하나일 수 있다. S665 단계에서 자율 주행이 기능이 유지 불가능하다고 판단되는 경우, 안전 지역(예를 들면, 갓길)을 설정하고, 해당 지역으로 차량이 이동하도록 제어 신호를 제공할 수 있다(S675).If it is determined that the data collected in step S605 is sufficient, the processor 370 may match the accident situation calculated from the collected accident data with the existing accident situation in the storage of the server 2 (S650). The processor 370 may calculate the contents of the accident situation in real time and transmit the calculated contents in real time when the degree of correspondence between the accident area, the damaged area, and the pre-accident operation is higher than a certain level (S655). The processor 370 may determine whether the accident parties are convinced of the calculated content (S660). If it is determined to be convinced in step S660, the processor 370 may determine whether the autonomous driving function can be maintained (S665). If it is determined that the autonomous driving function can be maintained in step S665, the processor 370 may automatically set a destination according to the vehicle accident damage situation and move the vehicle 10 to the destination. Here, the automatically set destination may be at least one of an existing destination, a repair shop, and an evacuation center. If it is determined in step S665 that the autonomous driving function cannot be maintained, a safe area (eg, a shoulder) may be set, and a control signal may be provided to move the vehicle to the corresponding area (S675).
한편, S660 단계에서 사고 당사자들이 산출된 내용에 납득하지 못하는 경우, 프로세서(370)는, 사고 파악, 증거 수집, 피해 정산 등의 작업을 위한 응급 서비스 차량 또는 보험사 직원을 호출할 수 있다(S680). 응급 서비스 차량 또는 보험사 직원이 도착 대기할 수 있다(S685). 프로세서(370)는, 타 차량이 존재하는지 판단할 수 있다(S690). 타 차량이 존재하는 것으로 판단되는 경우, 프로세서(370)는, S615 단계로 이동할 수 있다. 타 차량이 존재하지 않는 것으로 판단되는 경우, 프로세서(370)는, S685 단계로 이동할 수 있다.On the other hand, if the accident parties are not convinced with the calculated content in step S660, the processor 370 may call an emergency service vehicle or an insurance company employee for tasks such as identifying the accident, collecting evidence, and calculating damage (S680). . An emergency service vehicle or an insurance company employee may wait for arrival (S685). The processor 370 may determine whether another vehicle exists (S690). If it is determined that another vehicle exists, the processor 370 may move to step S615. If it is determined that other vehicles do not exist, the processor 370 may move to step S685.
한편, S610 단계에서, 타 차량이 존재하지 않는 것으로 판단되는 경우, 프로세서(370)는, S680 단계로 이동할 수 있다.Meanwhile, in step S610, if it is determined that no other vehicle exists, the processor 370 may move to step S680.
한편, S615 단계에서, 타 차량이 소정 조건을 만족하는 것으로 판단되는 경우, 프로세서(370)는, 타 차량에 추가 데이터 취득을 위한 요청 신호를 전송할 수 있다. 프로세서(370)는, 추가 데이터에 대한 수신 완료 여부를 판단할 수 있다(S645). S645 단계에서, 추가 데이터가 수신 완료되는 것으로 판단되는 경우, 프로세서(370)는, S650 단계로 이동할 수 있다.Meanwhile, in step S615, when it is determined that the other vehicle satisfies the predetermined condition, the processor 370 may transmit a request signal for obtaining additional data to the other vehicle. The processor 370 may determine whether reception of the additional data is complete (S645). If it is determined in step S645 that the reception of the additional data is complete, the processor 370 may move to step S650.
도 7을 참조하면, 프로세서(370)는, 차량 정보 및 차량 주변 오브젝트 정보를 제1 데이터 베이스(701)에 일정 주기로 기록할 수 있다(S710). 제1 데이터 베이스(701)는, 메모리(340)의 하위 구성으로 분류될 수 있다. 차량 정보는, 차량의 포지션(position), 속도(speed), 헤딩(heading), 가속도(acceleration)등 차량의 움직임 상태 관련 정보로 설명될 수 있다. 오브젝트 정보는, 차량, 이륜차, 보행자, 장애물 등 센서를 이용하여 검출 및 추적되는 차량 주변의 물체들의 포지션(position), 속도(speed), 헤딩(heading), 가속도(acceleration)등 오브젝트의 움직임 상태 관련 정보로 설졍될 수 있다. 프로세서(370)는, 차량 주변 영상 정보를 제2 데이터 베이스(702)에 일정 주기로 기록할 수 있다(S720). 제2 데이터 베이스(702)는, 메모리(340)의 하위 구성으로 분류될 수 있다. 프로세서(370)는, 신호등이 있는 경우, 카메라 또는 V2X로부터의 정보를 이용하여 신호등 정보를 제3 데이터 베이스(703)에 일정 주기로 기록할 수 있다(S730). 제3 데이터 베이스(703)는, 메모리(340)의 하위 구성으로 분류될 수 있다.Referring to FIG. 7, the processor 370 may record vehicle information and object information around the vehicle in the first database 701 at a predetermined period (S710). The first database 701 may be classified as a subordinate configuration of the memory 340. The vehicle information may be described as information related to a motion state of the vehicle, such as a position, speed, heading, and acceleration of the vehicle. Object information is related to the motion state of objects such as position, speed, heading, and acceleration of objects around the vehicle that are detected and tracked using sensors such as vehicles, motorcycles, pedestrians, and obstacles. It can be established as information. The processor 370 may record image information around the vehicle in the second database 702 at a predetermined period (S720). The second database 702 may be classified as a subordinate configuration of the memory 340. When there is a traffic light, the processor 370 may record the traffic light information in the third database 703 at a predetermined period using information from the camera or V2X (S730). The third database 703 may be classified as a sub configuration of the memory 340.
프로세서(370)는, 사고가 발생되었는지 판단할 수 있다(S740). 사고가 발생된 것으로 판단되는 경우, 프로세서(370)는, 사고 발생 직전 일정 시간 동안 차량/객체 정보, 주변 영상 정보, 신호등 정보 등을 이용하여 시간순으로 위치 등을 매핑하여 사고를 시뮬레이션으로 재구성할 수 있다(S750). 프로세서(370)는, 지도 데이터 베이스(704)에서 지도 데이터를 수신하고, 지도 데이터에 각종 정보를 반영하여 사고를 시뮬레이션으로 재구성할 수 있다. 프로세서(370)는, 사고의 책임 소재를 판단할 수 있다(S760). 프로세서(370)는, 교통 법류 데이터 베이스(705)에서 교통 법류를 수신하고, 교통 법규를 참조하여 사고의 책임 소재를 판단할 수 있다. 프로세서(370)는, 사고 책임 소재 판단 결과를 해당 사고 이해관계자들에게 전송할 수 있다(S770).The processor 370 may determine whether an accident has occurred (S740). When it is determined that an accident has occurred, the processor 370 may reconstruct the accident into a simulation by mapping locations in chronological order using vehicle/object information, surrounding image information, traffic light information, etc. for a certain period of time just before the accident. Yes (S750). The processor 370 may receive map data from the map database 704 and reflect various types of information in the map data to reconstruct the accident into a simulation. The processor 370 may determine the responsibility of the accident (S760). The processor 370 may receive traffic laws from the traffic laws database 705 and determine the responsible position of the accident by referring to the traffic laws. The processor 370 may transmit the result of determining the location responsible for the accident to the relevant accident stakeholders (S770).
도 8을 참조하면, 프로세서(370)는, 사고 발생 이후, 비상등을 턴 온(turn on)할 수 있다(S810). 실시예에 따라, 프로세서(370)는, 삼각대 또는 불꽃신호기 등을 자동으로 설치할 수 있다. 프로세서(370)는, V2X 통신을 통해, 외부 장치(예를 들면, 서버, 타 차량, 사용자 단말기)와 데이터 송수신을 지속할 수 있다(S820). 프로세서(370)는, 후행하는 차량의 TTC(Time To Collision), 데이터 송수신 잔여 시간, 회피 시간을 주기적으로 추정할 수 있다. TTC는, 타 차량이 차량을 충돌하기까지 걸리는 예상 시간으로 설명될 수 있다. 데이터 송수신 잔여 시간은, 사고 관련 데이터를 타 차량 또는 로드 사이드 유닛으로부터 수신하거나, 서버로 전송 완료하는데 걸리는 예상 잔여 시간으로 설명될 수 있다. 회피 시간은, 충돌이 예상되는 차량을 피할 수 있도록 차량을 이동시키는데 걸리는 시간으로 설명될 수 있다. 회피 시간은, 차량이 여유있게 피할 수 있도록, 여분의 시간이 더 부여될 수 있다.Referring to FIG. 8, the processor 370 may turn on the emergency light after an accident occurs (S810 ). Depending on the embodiment, the processor 370 may automatically install a tripod or a flame signal. The processor 370 may continue to transmit and receive data with an external device (eg, a server, another vehicle, or a user terminal) through V2X communication (S820). The processor 370 may periodically estimate a Time To Collision (TTC), a remaining time for data transmission/reception, and an avoidance time of a vehicle that follows. TTC can be described as the estimated time it takes for another vehicle to collide the vehicle. The remaining time for data transmission/reception may be described as an estimated remaining time for receiving accident-related data from another vehicle or a road side unit, or completing transmission to a server. The avoidance time may be described as the time it takes to move the vehicle so that the vehicle in which a collision is expected can be avoided. The avoidance time may be additionally given an extra time so that the vehicle can escape with a margin.
프로세서(370)는, TTC가 데이터 송수신 잔여 시간과 회피 시간의 합 이하인지 판단할 수 있다(S840). TTC가 데이터 송수신 잔여 시간과 회피 시간의 합 이하인 것으로 판단되는 경우, 프로세서(370)는, TTC가 회피 시간 이하인지 판단할 수 있다(S850). 프로세서(370)는, 후행 차량의 제동 상황에 따라 TTC는 가변적으므로, TTC의 값을 계속 모니터링하면서 데이터 송수신을 계속할 수 있다. S850 단계에서, TTC가 회피 시간 이하인 것으로 판단되는 경우, 프로세서(370)는, 긴급으로 차량을 회피시킬 수 있다(S860). 프로세서(370)는, 차량 이동시, 이동 궤적으로 포함하는 센서 데이터를 스트리밍 전송할 수 있다.The processor 370 may determine whether the TTC is less than or equal to the sum of the remaining data transmission/reception time and the avoidance time (S840). When it is determined that the TTC is less than the sum of the data transmission/reception remaining time and the avoidance time, the processor 370 may determine whether the TTC is less than or equal to the avoidance time (S850). Since the TTC is variable according to the braking condition of the following vehicle, the processor 370 may continue to transmit and receive data while continuously monitoring the value of the TTC. In step S850, when it is determined that the TTC is less than the avoidance time, the processor 370 may evade the vehicle in an emergency (S860). When the vehicle moves, the processor 370 may stream and transmit sensor data included as a movement trajectory.
사고가 발생한 경우, 사고차량은 사고와 관련한 차량정보를 서버(2)로 송신할 수 있다. 서버(2)는 보험사 서버, 혹은 차량업체 서버일 수 있다. 상기 사고 관련 차량 정보에는 차량의 충돌위치, 충돌세기, 차량의 구동부 센싱 정보, 차량 주변환경을 센싱하는 센싱정보 (전방 카메라, 블랙박스, Radar, Lidar 등), V2X를 통해 획득한 주변 차량이 센싱한 센싱정보 중 하나 이상을 포함할 수 있다.When an accident occurs, the accident vehicle may transmit vehicle information related to the accident to the server 2. The server 2 may be an insurance company server or a vehicle company server. The accident-related vehicle information includes the vehicle's collision location, collision intensity, sensing information of the driving unit of the vehicle, sensing information that senses the surrounding environment of the vehicle (front camera, black box, radar, lidar, etc.), and surrounding vehicles acquired through V2X. It may include one or more of one sensing information.
서버(2)는 각 사고차량의 사고 발생 일정 시점 이전, 이후를 포함하는 데이터를 획득하고, 획득한 데이터를 기반으로 과실 비율을 계산할 수 있다.The server 2 may acquire data including before and after a certain point in time of the accident of each accident vehicle, and calculate an error rate based on the obtained data.
과실 비율은 상기 획득한 데이터, 교통법규 데이터, 사고DB 중 하나 이상을 기반으로 서버에 위치한 인공지능 알고리즘이 학습한 결과에 기초하여 결정될 수 있고, 상기 결정된 과실 비율과 관련한 정보를 각 사고 차량으로 송신할 수 있다. 차량(10)은 서버(2)로부터 수신받은 과실 비율 정보를 차량 내 위치한 출력부를 통해 제공할 수 있다. 사고 DB정보는 보험사 또는 관련 정보를 수집하는 기관에서 생성된 정보일 수 있다. 사고 DB는 타 차량의 사고 이력정보를 포함하고 있을 수 있고, 사고 이력 정보에는 과실 비율이 포함되어 있을 수 있다.The fruit ratio can be determined based on the learning result of an artificial intelligence algorithm located on the server based on one or more of the obtained data, traffic law data, and accident DB, and information related to the determined fruit ratio is transmitted to each accident vehicle. can do. The vehicle 10 may provide the fruit ratio information received from the server 2 through an output unit located in the vehicle. The accident DB information may be information generated by an insurance company or an organization that collects related information. The accident DB may include accident history information of other vehicles, and the accident history information may include an error rate.
예를 들어, 사고가 발생한 경우, 서버는 사고DB에서 획득한 타 차량의 사고 이력정보를 기반으로, 발생된 사고 정보와 유사한 타 차량의 사고 이력정보가 있는지 확인할 수 있다. For example, when an accident occurs, the server can check whether there is accident history information of other vehicles similar to the accident information that occurred based on the accident history information of other vehicles obtained from the accident DB.
상기 차량 내 위치한 출력부는 디스플레이(Head up display, 계기판, Center Information Display)이거나 음성 출력부일 수 있다.The output unit located in the vehicle may be a display (head up display, instrument panel, center information display) or an audio output unit.
사고 당사자는 상기 차량 내 출력부를 통해 제공된 과실 비율에 대해서 납득하는지를 선택할 수 있다. 과실 비율을 납득한다고 선택한 경우, 보험사에 사고 당사자가 과실 비율을 확인하였다는 정보를 전송할 수 있고, 보험사는 상기 전송받은 정보를 기반으로 보험금액을 책정할 수 있다. 사고 당사자가 과실 비율을 납득하지 않는다고 선택한 경우, 이를 기반으로 추가 안내정보를 제공할 수 있다. 보험사 직원을 호출하여 사고 위치로 직접 방문하도록 요청할 수도 있고, 주변 차량이나 객체로부터 정보를 더 수집 후 2차 학습을 통해 과실 비율을 재 제공할 수도 있다. The accident party can choose whether to be convinced of the percentage of negligence provided through the in-vehicle output. When it is selected to understand the negligence rate, information that the accident party has confirmed the negligence rate may be transmitted to the insurance company, and the insurance company may set the insurance amount based on the transmitted information. If the person involved in the accident chooses not to understand the rate of negligence, additional guidance information can be provided based on this. You can call an insurance company employee to request a direct visit to the accident location, or collect more information from nearby vehicles or objects and re-provide the negligence rate through secondary learning.
서버(2)는 과실 비율을 산출 시, 과실 비율 산출을 위한 데이터가 충분하지 않은 경우, 각 사고차량의 사고 발생 일정 시점 이전, 이후를 포함하는 주변 환경 데이터를 더 획득하고, 획득한 데이터를 기반으로 과실 비율을 계산할 수 있다. 여기서 주변 환경 데이터는 사고 발생 일정 시점, 이후 주변 차량이 획득한 센서정보, 혹은 주변 센싱장치(CCTV, RSU 등)에서 획득한 센서정보일 수 있다.When calculating the error rate, the server 2 further acquires surrounding environment data including before and after a certain point in time of the accident of each accident vehicle, if the data for calculating the error rate is insufficient, and based on the obtained data. You can calculate the fruit ratio. Here, the surrounding environment data may be sensor information acquired by a nearby vehicle at a certain point in time when an accident occurs, or sensor information acquired by a surrounding sensing device (CCTV, RSU, etc.).
예를 들면, 보험사 서버가 계산한 과실 비율 정보를 사고 차량으로 송신하면, 차량은 보험사 서버로부터 수신받은 정보를 차량의 인스트루먼트 패널에 구비되는 CID(Center Information display)에 출력할 수 있다. CID는 터치 입력부와 일체로 형성되거나, 터치 입력부와 상호 레이어 구조를 이룸으로써, 터치 스크린을 구현할 수 있고, 제스처 입력부나 음성입력부를 더 구비할 수도 있다. CID에 출력된 정보는 차량의 과실 비율을 납득하는지를 문의하는 정보일 수 있으며, 사고 당사자는 과실 비율 납득 여부에 대한 선택 값을 CID의 터치입력부를 통해 입력할 수 있다.For example, if the insurance company server transmits the calculated error rate information to the accident vehicle, the vehicle may output the information received from the insurance company server on a center information display (CID) provided on the instrument panel of the vehicle. The CID may be formed integrally with the touch input unit or form a layer structure with the touch input unit to implement a touch screen, and may further include a gesture input unit or a voice input unit. The information output to the CID may be information for inquiring whether to understand the car's negligence rate, and the person involved in the accident may input a selection value as to whether or not to understand the negligence rate through the touch input unit of the CID.
차량의 사고타입은 크게 사고 발생 시, 차량 간 사고의 경우, 차량과 기물 간 사고의 경우, 차량과 보행자 간의 사고로 구분될 수 있고, 차량 간 사고 시 각 차의 책임 비율, 그리고 사고 차량이 자율주행 차량인 경우, 운전자의 제어권 비율에 따른 사람-차량 간 책임 비율이 달라질 수 있다.Vehicle accident types can be largely classified into accidents, vehicle-to-vehicle accidents, vehicle-to-property accidents, and vehicle-to-pedestrian accidents. In the case of a driving vehicle, the ratio of responsibility between the person and the vehicle may vary according to the ratio of the driver's control rights.
전술한 본 발명은, 프로그램이 기록된 매체에 컴퓨터가 읽을 수 있는 코드로서 구현하는 것이 가능하다. 컴퓨터가 읽을 수 있는 매체는, 컴퓨터 시스템에 의하여 읽혀질 수 있는 데이터가 저장되는 모든 종류의 기록장치를 포함한다. 컴퓨터가 읽을 수 있는 매체의 예로는, HDD(Hard Disk Drive), SSD(Solid State Disk), SDD(Silicon Disk Drive), ROM, RAM, CD-ROM, 자기 테이프, 플로피 디스크, 광 데이터 저장 장치 등이 있으며, 또한 캐리어 웨이브(예를 들어, 인터넷을 통한 전송)의 형태로 구현되는 것도 포함한다. 또한, 상기 컴퓨터는 프로세서 또는 제어부를 포함할 수도 있다. 따라서, 상기의 상세한 설명은 모든 면에서 제한적으로 해석되어서는 아니되고 예시적인 것으로 고려되어야 한다. 본 발명의 범위는 첨부된 청구항의 합리적 해석에 의해 결정되어야 하고, 본 발명의 등가적 범위 내에서의 모든 변경은 본 발명의 범위에 포함된다.The above-described present invention can be implemented as a computer-readable code on a medium on which a program is recorded. The computer-readable medium includes all types of recording devices that store data that can be read by a computer system. Examples of computer-readable media include HDD (Hard Disk Drive), SSD (Solid State Disk), SDD (Silicon Disk Drive), ROM, RAM, CD-ROM, magnetic tape, floppy disk, optical data storage device, etc. There is also a carrier wave (e.g., transmission over the Internet). Also, the computer may include a processor or a control unit. Therefore, the detailed description above should not be construed as restrictive in all respects and should be considered as illustrative. The scope of the present invention should be determined by rational interpretation of the appended claims, and all changes within the equivalent scope of the present invention are included in the scope of the present invention.

Claims (20)

  1. 적어도 하나의 프로세서가, 자율 주행 차량의 상황에 대한 데이터를 획득하는 단계;Obtaining, by at least one processor, data on a situation of the autonomous vehicle;
    적어도 하나의 프로세서가, 상기 데이터에 기초하여, 상기 자율 주행 차량의 사고의 발생 여부를 판단하는 단계; 및Determining, by at least one processor, whether an accident has occurred in the autonomous vehicle based on the data; And
    적어도 하나의 프로세서가, 인공 지능 알고리즘을 이용해, 상기 사고의 책임 소재를 판단하는 단계;를 포함하는 교통 사고 처리 방법.At least one processor, using an artificial intelligence algorithm, determining the responsible position of the accident; traffic accident processing method comprising a.
  2. 제 1항에 있어서,The method of claim 1,
    상기 데이터를 획득하는 단계는,The step of obtaining the data,
    적어도 하나의 프로세서가, 상기 자율 주행 차량에 구비되는 적어도 하나의 전자 장치로부터 제1 데이터를 획득하는 단계;Acquiring, by at least one processor, first data from at least one electronic device provided in the autonomous vehicle;
    적어도 하나의 프로세서가, 상기 자율 주행 차량 주변에 위치하는 타 차량에 구비되는 적어도 하나의 전자 장치로부터 제2 데이터를 획득하는 단계; 및Obtaining, by at least one processor, second data from at least one electronic device provided in another vehicle located around the autonomous vehicle; And
    적어도 하나의 프로세서가, 상기 자율 주행 차량 주변에 위치하는 적어도 하나의 로드 사이드 유닛(road side unit, RSU)으로부터 제3 데이터를 획득하는 단계;를 포함하는 교통 사고 처리 방법.At least one processor, obtaining third data from at least one road side unit (RSU) located around the autonomous vehicle.
  3. 제 2항에 있어서,The method of claim 2,
    상기 책임 소재를 판단하는 단계는,The step of determining the responsible person,
    적어도 하나의 프로세서가, 상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여, 상기 사고 발생 시점의 상황을 시뮬레이션으로 재구성하는 단계;를 포함하는 교통 사고 처리 방법.At least one processor, based on at least one of the first data, the second data, and the third data, reconstructing the situation at the time of the accident in a simulation; traffic accident processing method comprising a.
  4. 제 3항에 있어서,The method of claim 3,
    상기 재구성하는 단계는,The reconstructing step,
    적어도 하나의 프로세서가, 맵에 상기 자율 주행 차량 및 상기 자율 주행 차량의 주변 오브젝트를 시간 순으로 맵핑하는 단계;를 포함하고,At least one processor, the step of mapping the autonomous driving vehicle and the surrounding objects of the autonomous driving vehicle on a map in chronological order; includes,
    상기 자율 주행 차량의 주변 오브젝트에 대한 정보는,Information on the surrounding objects of the autonomous vehicle,
    상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여 생성되는 교통 사고 처리 방법.A traffic accident processing method generated based on at least one of the first data, the second data, and the third data.
  5. 제 3항에 있어서,The method of claim 3,
    상기 재구성하는 단계는,The reconstructing step,
    적어도 하나의 프로세서가, 상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여, 상기 자율 주행 차량의 이미지를 기준으로 하는 탑뷰 이미지를 생성하는 단계;를 포함하고,At least one processor, based on at least one of the first data, the second data, and the third data, generating a top view image based on the image of the autonomous vehicle; includes,
    상기 탑뷰 이미지는,The top view image,
    상기 자율 주행 차량의 조향 바퀴의 자세 이미지가 포함되는 동영상인 교통 사고 처리 방법.A traffic accident processing method that is a video including an image of the attitude of the steering wheel of the autonomous vehicle.
  6. 제 1항에 있어서,The method of claim 1,
    상기 책임 소재를 판단하는 단계는,The step of determining the responsible person,
    적어도 하나의 프로세서가, 상기 인공 지능 알고리즘에 상기 자율 주행 차량의 상황에 대한 데이터 및 교통 법규 데이터를 입력하여 머신 러닝한 결과에 기초하여, 상기 사고의 책임 소재를 판단하는 교통 사고 처리 방법.A traffic accident processing method in which at least one processor determines the responsibility of the accident based on a result of machine learning by inputting data on the situation of the autonomous vehicle and traffic regulation data into the artificial intelligence algorithm.
  7. 제 6항에 있어서,The method of claim 6,
    상기 책임 소재를 판단하는 단계는,The step of determining the responsible person,
    적어도 하나의 프로세서가, 상기 인공 지능 알고리즘에 과거 교통 사고 히스토리 데이터를 더 입력하여 머신 러닝한 결과에 기초하여, 상기 사고의 책임 소재를 판단하는 교통 사고 처리 방법.At least one processor further inputs past traffic accident history data to the artificial intelligence algorithm and determines a responsible person for the accident based on a machine learning result.
  8. 제 1항에 있어서,The method of claim 1,
    적어도 하나의 프로세서가, 상기 사고 발생 이후의 2차 사고에 대한 방지 루틴을 실행하는 단계;를 더 포함하는 교통 사고 처리 방법.At least one processor, the step of executing a routine for preventing secondary accidents after the occurrence of the accident; traffic accident handling method further comprising.
  9. 제 8항에 있어서,The method of claim 8,
    상기 2차 사고 방지 루틴을 실행하는 단계는,The step of executing the secondary accident prevention routine,
    적어도 하나의 프로세서가, 상기 사고 발생 이후, 상기 자율 주행 차량의 이동 가능 여부를 판단하는 단계;Determining, by at least one processor, whether the autonomous vehicle can be moved after the accident;
    적어도 하나의 프로세서가, 상기 자율 주행 차량의 회피 이동 경로를 생성하는 단계; 및Generating, by at least one processor, an avoidance movement path of the autonomous vehicle; And
    적어도 하나의 프로세서가, 상기 회피 이동 경로를 따라 상기 자율 주행 차량이 주행하도록 제어 신호를 제공하는 단계;를 포함하는 교통 사고 처리 방법.At least one processor, providing a control signal to drive the autonomous vehicle along the avoidance movement path; traffic accident processing method comprising a.
  10. 제 9항에 있어서,The method of claim 9,
    상기 2차 사고 방지 루틴을 실행하는 단계는,The step of executing the secondary accident prevention routine,
    적어도 하나의 프로세서가, 상기 자율 주행 차량에 후행하는 타 차량과의 충돌 예측 시간을 계산하는 단계; 및Calculating, by at least one processor, a collision prediction time with another vehicle following the autonomous vehicle; And
    적어도 하나의 프로세서가, 상기 충돌 예측 시간과 사고 지점에서 상기 회피 이동 경로에 따른 자율 주행 차량의 회피 시간을 비교하는 단계;를 포함하고,Comprising, by at least one processor, comparing the collision prediction time with the avoidance time of the autonomous vehicle according to the avoidance movement path at the accident point; and
    상기 제어 신호를 제공하는 단계는,Providing the control signal,
    적어도 하나의 프로세서가, 상기 회피 시간이 상기 충돌 예측 시간 이상인 경우, 상기 제어 신호를 제공하는 교통 사고 처리 방법.At least one processor, when the avoidance time is greater than the collision prediction time, the traffic accident processing method for providing the control signal.
  11. 자율 주행 차량의 상황에 대한 데이터를 획득하고,Acquires data on the situation of autonomous vehicles,
    상기 데이터에 기초하여, 상기 자율 주행 차량의 사고의 발생 여부를 판단하고, Based on the data, it is determined whether an accident has occurred in the autonomous vehicle,
    인공 지능 알고리즘을 이용해, 상기 사고의 책임 소재를 판단하는 프로세서;를 포함하는 교통 사고 처리 장치.A traffic accident processing apparatus comprising a; processor for determining the responsible position of the accident by using an artificial intelligence algorithm.
  12. 제 11항에 있어서,The method of claim 11,
    상기 프로세서는,The processor,
    상기 자율 주행 차량에 구비되는 적어도 하나의 전자 장치로부터 제1 데이터를 획득하고,Obtaining first data from at least one electronic device provided in the autonomous vehicle,
    상기 자율 주행 차량 주변에 위치하는 타 차량에 구비되는 적어도 하나의 전자 장치로부터 제2 데이터를 획득하고,Acquiring second data from at least one electronic device provided in another vehicle located around the autonomous vehicle,
    상기 자율 주행 차량 주변에 위치하는 적어도 하나의 로드 사이드 유닛(road side unit, RSU)으로부터 제3 데이터를 획득하는 교통 사고 처리 장치.A traffic accident processing apparatus for obtaining third data from at least one road side unit (RSU) located around the autonomous vehicle.
  13. 제 12항에 있어서,The method of claim 12,
    상기 프로세서는,The processor,
    상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여, 상기 사고 발생 시점의 상황을 시뮬레이션으로 재구성하는 교통 사고 처리 장치.A traffic accident processing apparatus configured to reconstruct a situation at the time of the accident into a simulation based on at least one of the first data, the second data, and the third data.
  14. 제 13항에 있어서,The method of claim 13,
    상기 프로세서는,The processor,
    맵에 상기 자율 주행 차량 및 상기 자율 주행 차량의 주변 오브젝트를 시간 순으로 맵핑하고,Map the autonomous driving vehicle and surrounding objects of the autonomous driving vehicle on a map in chronological order,
    상기 자율 주행 차량의 주변 오브젝트에 대한 정보는,Information on the surrounding objects of the autonomous vehicle,
    상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여 생성되는 교통 사고 처리 장치.A traffic accident processing apparatus generated based on at least one of the first data, the second data, and the third data.
  15. 제 13항에 있어서,The method of claim 13,
    상기 프로세서는,The processor,
    상기 제1 데이터, 상기 제2 데이터 및 상기 제3 데이터 중 적어도 어느 하나에 기초하여, 상기 자율 주행 차량의 이미지를 기준으로 하는 탑뷰 이미지를 생성하고, Generating a top view image based on the image of the autonomous vehicle based on at least one of the first data, the second data, and the third data,
    상기 탑뷰 이미지는,The top view image,
    상기 자율 주행 차량의 조향 바퀴의 자세 이미지가 포함되는 동영상인 교통 사고 처리 장치.A traffic accident processing device that is a video including an image of the attitude of the steering wheel of the autonomous vehicle.
  16. 제 11항에 있어서,The method of claim 11,
    상기 프로세서는,The processor,
    상기 인공 지능 알고리즘에 상기 자율 주행 차량의 상황에 대한 데이터와 교통 법규 데이터를 입력하여 출력된 머신 러닝한 결과에 기초하여, 상기 사고의 책임 소재를 판단하는 교통 사고 처리 장치.A traffic accident processing device that determines a responsible person for the accident based on a machine learning result output by inputting data on the situation of the autonomous vehicle and traffic regulation data into the artificial intelligence algorithm.
  17. 제 16항에 있어서,The method of claim 16,
    상기 프로세서는,The processor,
    상기 인공 지능 알고리즘에 과거 교통 사고 히스토리 데이터를 더 입력하여 머신 러닝한 결과에 기초하여, 상기 사고의 책임 소재를 판단하는 교통 사고 처리 장치.A traffic accident processing device that further inputs past traffic accident history data to the artificial intelligence algorithm and determines who is responsible for the accident based on machine learning results.
  18. 제 11항에 있어서,The method of claim 11,
    상기 프로세서는,The processor,
    상기 사고 발생 이후의 2차 사고에 대한 방지 루틴을 실행하는 교통 사고 처리 장치.A traffic accident handling device that executes a routine for preventing secondary accidents after the accident.
  19. 제 18항에 있어서,The method of claim 18,
    상기 프로세서는,The processor,
    상기 사고 발생 이후, 상기 자율 주행 차량의 이동 가능 여부를 판단하고,After the accident, it is determined whether the autonomous vehicle can be moved,
    상기 자율 주행 차량의 회피 이동 경로를 생성하고,Generating an evasive movement path of the autonomous vehicle,
    상기 회피 이동 경로를 따라 상기 자율 주행 차량이 주행하도록 제어 신호를 제공하는 교통 사고 처리 장치.Traffic accident processing apparatus for providing a control signal to drive the autonomous vehicle along the avoided movement path.
  20. 제 19항에 있어서,The method of claim 19,
    상기 프로세서는,The processor,
    상기 자율 주행 차량에 후행하는 타 차량과의 충돌 예측 시간을 계산하고,Calculate a collision prediction time with another vehicle following the autonomous vehicle,
    상기 충돌 예측 시간과 사고 지점에서 상기 회피 이동 경로에 따른 자율 주행 차량의 회피 시간을 비교하고,Compare the collision prediction time with the avoidance time of the autonomous vehicle according to the avoidance movement path at the accident point,
    상기 회피 시간이 상기 충돌 예측 시간 이상인 경우, 상기 제어 신호를 제공하는 교통 사고 처리 장치.When the avoidance time is greater than or equal to the collision prediction time, the traffic accident processing apparatus provides the control signal.
PCT/KR2019/010738 2019-05-30 2019-08-23 Traffic accident management device and traffic accident management method WO2020241971A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US17/259,260 US20220073104A1 (en) 2019-05-30 2019-08-23 Traffic accident management device and traffic accident management method
KR1020190130391A KR20190126024A (en) 2019-08-23 2019-10-21 Traffic Accident Handling Device and Traffic Accident Handling Method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201962854941P 2019-05-30 2019-05-30
US62/854,941 2019-05-30

Publications (1)

Publication Number Publication Date
WO2020241971A1 true WO2020241971A1 (en) 2020-12-03

Family

ID=73552864

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/KR2019/010738 WO2020241971A1 (en) 2019-05-30 2019-08-23 Traffic accident management device and traffic accident management method

Country Status (1)

Country Link
WO (1) WO2020241971A1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114572138A (en) * 2022-03-15 2022-06-03 东风汽车集团股份有限公司 Self-checking method, device and equipment for accident fault of automatic driving vehicle and storage medium
CN114627667A (en) * 2022-05-12 2022-06-14 浙江高信技术股份有限公司 Early warning vehicle control method, server and system for expressway
CN116828157A (en) * 2023-08-31 2023-09-29 华路易云科技有限公司 Traffic accident responsibility judgment auxiliary system and method for automatic driving environment

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032242A (en) * 2000-10-26 2002-05-03 송경수 System and method for analysis of a traffic accident through internet
JP2018506800A (en) * 2015-03-31 2018-03-08 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Apparatus, system and method for analyzing the behavior of a remote control vehicle
KR20180041457A (en) * 2016-10-14 2018-04-24 현대자동차주식회사 Legal and insurance advice service system and method in the accident occurrence
WO2018115963A2 (en) * 2016-12-23 2018-06-28 Mobileye Vision Technologies Ltd. Navigational system with imposed liability constraints
KR20190017339A (en) * 2017-08-11 2019-02-20 현대모비스 주식회사 Apparatus for storing information of autonomous vehicle and method thereof

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20020032242A (en) * 2000-10-26 2002-05-03 송경수 System and method for analysis of a traffic accident through internet
JP2018506800A (en) * 2015-03-31 2018-03-08 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd Apparatus, system and method for analyzing the behavior of a remote control vehicle
KR20180041457A (en) * 2016-10-14 2018-04-24 현대자동차주식회사 Legal and insurance advice service system and method in the accident occurrence
WO2018115963A2 (en) * 2016-12-23 2018-06-28 Mobileye Vision Technologies Ltd. Navigational system with imposed liability constraints
KR20190017339A (en) * 2017-08-11 2019-02-20 현대모비스 주식회사 Apparatus for storing information of autonomous vehicle and method thereof

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114572138A (en) * 2022-03-15 2022-06-03 东风汽车集团股份有限公司 Self-checking method, device and equipment for accident fault of automatic driving vehicle and storage medium
CN114627667A (en) * 2022-05-12 2022-06-14 浙江高信技术股份有限公司 Early warning vehicle control method, server and system for expressway
CN116828157A (en) * 2023-08-31 2023-09-29 华路易云科技有限公司 Traffic accident responsibility judgment auxiliary system and method for automatic driving environment
CN116828157B (en) * 2023-08-31 2023-12-29 华路易云科技有限公司 Traffic accident responsibility judgment auxiliary system for automatic driving environment

Similar Documents

Publication Publication Date Title
JP7003660B2 (en) Information processing equipment, information processing methods and programs
WO2020241955A1 (en) In-vehicle electronic device and method for operating in-vehicle electronic device
KR20190126024A (en) Traffic Accident Handling Device and Traffic Accident Handling Method
WO2019077999A1 (en) Imaging device, image processing apparatus, and image processing method
WO2019073920A1 (en) Information processing device, moving device and method, and program
WO2020241971A1 (en) Traffic accident management device and traffic accident management method
CN112466141A (en) Vehicle-road-collaboration-oriented intelligent network connection end equipment interaction method, system and storage medium
WO2021002517A1 (en) Shared vehicle management device and shared vehicle management method
CN112534487B (en) Information processing apparatus, moving body, information processing method, and program
WO2021002519A1 (en) Apparatus for providing advertisement for vehicle, and method for providing advertisement for vehicle
US20220073104A1 (en) Traffic accident management device and traffic accident management method
WO2021241189A1 (en) Information processing device, information processing method, and program
WO2021002503A1 (en) Electronic device for vehicle and method for operating same
WO2020241952A1 (en) Autonomous vehicle system and autonomus driving method for vehicle
US20200298849A1 (en) Information processing apparatus, information processing method, program, and vehicle
JP7192771B2 (en) Information processing device, information processing method, program, and vehicle
WO2021002515A1 (en) Electronic device and method for operating electronic device
KR20200009486A (en) System and method for handling emergency situation through real-time updated monitoring information
JP6981095B2 (en) Server equipment, recording methods, programs, and recording systems
JP2020101960A (en) Information processing apparatus, information processing method, and program
WO2021215559A1 (en) Vehicle monitoring method and apparatus
WO2020145440A1 (en) Electronic device for vehicle and operation method of electronic device for vehicle
US20240046778A1 (en) Information providing method, vehicle system and management device
WO2020004886A1 (en) Ecu for communication
WO2021002518A1 (en) Position data generation device, autonomous vehicle, and position data generation method

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19930536

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19930536

Country of ref document: EP

Kind code of ref document: A1