DE102017204983B4 - Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device - Google Patents
Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device Download PDFInfo
- Publication number
- DE102017204983B4 DE102017204983B4 DE102017204983.9A DE102017204983A DE102017204983B4 DE 102017204983 B4 DE102017204983 B4 DE 102017204983B4 DE 102017204983 A DE102017204983 A DE 102017204983A DE 102017204983 B4 DE102017204983 B4 DE 102017204983B4
- Authority
- DE
- Germany
- Prior art keywords
- motor vehicle
- data
- autopilot
- virtual
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 238000010801 machine learning Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 title claims description 25
- 230000006870 function Effects 0.000 claims abstract description 9
- 238000013528 artificial neural network Methods 0.000 claims description 28
- 238000002604 ultrasonography Methods 0.000 claims description 6
- 230000000903 blocking effect Effects 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 description 4
- 230000003416 augmentation Effects 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000010354 integration Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
- B60W30/09—Taking automatic action to avoid collision, e.g. braking and steering
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/10—Path keeping
- B60W30/12—Lane keeping
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/14—Adaptive cruise control
- B60W30/16—Control of distance between vehicles, e.g. keeping a distance to preceding vehicle
- B60W30/165—Automatically following the path of a preceding lead vehicle, e.g. "electronic tow-bar"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/588—Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
Landscapes
- Engineering & Computer Science (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Vorgeben einer Fahrroute (24') in einer auf maschinellem Lernen basierten Autopiloteinrichtung (14) eines Kraftfahrzeugs (10), wobei die Autopiloteinrichtung (14) auf der Grundlage von Sensordaten (22) einer Sensoreinrichtung (11) des Kraftfahrzeugs (10) fahrzeugexterne Hindernisobjekte (20, 27) in einer Umgebung (21) des Kraftfahrzeugs (10) erkennt und das Kraftfahrzeug (10) durch Erzeugen zumindest eines Steuersignals (19) für eine Längsführung und/oder Querführung kollisionsfrei an den Hindernisobjekten (20, 27) vorbeiführt, dadurch gekennzeichnet, dass bei dem Verfahren durch eine Steuervorrichtung (12) jeweilige Darstellungsdaten (23) zumindest eines virtuellen Hindernisobjekts (28) und/oder zumindest eines zu verfolgenden virtuellen Folgeobjekts (31) in die Sensordaten (22) eingefügt werden und hierdurch das zumindest eine virtuelle Hindernisobjekt (27) und/oder das zumindest eine virtuelle Folgeobjekt (31) jeweils in die Sensordaten (22) eingeblendet wird, wobei die Darstellungsdaten (23) in Abhängigkeit von der Fahrroute (24') erzeugt werden.A method for specifying a driving route (24 ') in a machine learning-based autopilot device (14) of a motor vehicle (10), the autopilot device (14) being external to the vehicle based on sensor data (22) from a sensor device (11) of the motor vehicle (10) Detects obstacle objects (20, 27) in an environment (21) of the motor vehicle (10) and guides the motor vehicle (10) past the obstacle objects (20, 27) without collision by generating at least one control signal (19) for longitudinal guidance and / or lateral guidance, characterized in that, in the method, a control device (12) inserts respective display data (23) of at least one virtual obstacle object (28) and / or at least one virtual following object (31) to be tracked into the sensor data (22) and thereby the at least one virtual obstacle object (27) and / or the at least one virtual following object (31) is shown in each of the sensor data (22), di e display data (23) are generated as a function of the route (24 ').
Description
Die Erfindung betrifft ein Verfahren zum Vorgeben einer Fahrroute in einer auf maschinellem Lernen basierten Autopiloteinrichtung eines Kraftfahrzeugs. Eine solche Autopiloteinrichtung kann ein Kraftfahrzeug automatisiert durch eine Längsführung (Beschleunigen und Abbremsen) und/oder Querführung (Lenken) kollisionsfrei an Hindernisobjekten vorbeiführen. Zu der Erfindung gehören auch eine Steuervorrichtung für ein Kraftfahrzeug sowie das Kraftfahrzeug und eine Trainingsvorrichtung für eine Autopiloteinrichtung, um das maschinelle Lernen durchzuführen.The invention relates to a method for specifying a driving route in a machine learning-based autopilot device of a motor vehicle. Such an autopilot device can automatically guide a motor vehicle past obstacle objects without collision by longitudinal guidance (acceleration and braking) and / or transverse guidance (steering). The invention also includes a control device for a motor vehicle and the motor vehicle and a training device for an autopilot device in order to carry out machine learning.
Autonomes Fahren, also ein automatisiertes Führen eines Kraftfahrzeugs mittels eine Autopiloteinrichtung, kann auf der Grundlage von maschinellem Lernen realisiert werden. Auf einer Rechnerarchitektur kann hierzu ein künstliches neuronales Netzwerk betrieben werden, welches Sensordaten einer Sensoreinrichtung empfängt und in Abhängigkeit von den Sensordaten ein Steuersignal für eine Längsführung und/oder Querführung des Kraftfahrzeugs erzeugt. Eine maximale Ausbaustufe ist hierbei das sogenannte End2End-Modell des autonomen Fahrens, bei welchem eine Autopiloteinrichtung beispielsweise auf der Grundlage eines sogenannten tiefen künstlichen neuronalen Netzwerk anhand von Bilddaten einer Kamera und/oder zumindest eines anderen Sensors das Steuersignal direkt zum Einstellen eines Lenkwinkels und/oder einer Gaspedalstellung/Bremspedalstellung erzeugt.Autonomous driving, that is to say automated driving of a motor vehicle by means of an autopilot device, can be implemented on the basis of machine learning. For this purpose, an artificial neural network can be operated on a computer architecture, which receives sensor data from a sensor device and, as a function of the sensor data, generates a control signal for longitudinal guidance and / or lateral guidance of the motor vehicle. A maximum expansion stage here is the so-called end-to-end model of autonomous driving, in which an autopilot device, for example on the basis of a so-called deep artificial neural network, uses image data from a camera and / or at least one other sensor to send the control signal directly to set a steering angle and / or an accelerator pedal position / brake pedal position generated.
Maschinelles Lernen ergibt eine Autopiloteinrichtung, die nicht dahingehend gesteuert werden kann, dass man ihr eine Fahrroute zu einem Fahrziel vorgeben kann. D.h. das Kraftfahrzeug fährt zwar sicher auf der Straße, vermeidet also eine Kollision mit Hindernisobjekten, wie beispielsweise anderen Verkehrsteilnehmern, aber man kann die Autopiloteinrichtung nicht dahingehend beeinflussen, welche Abbiegung und/oder Kreuzung oder allgemein welche Fahrtrichtung ausgewählt werden soll. Dies entscheidet die Autopiloteinrichtung in Abhängigkeit von dem Training, das sie erfahren hat. Eine Konsequenz wäre beispielsweise, für jedes gewünschte Fahrmanöver ein eigenes künstliches neuronales Netzwerk bereitzustellen, was aber den Rechenaufwand und die Handhabbarkeit einer solchen Autopiloteinrichtung beeinträchtigt.Machine learning results in an autopilot device that cannot be controlled in such a way that it can be given a route to a destination. That is, the motor vehicle drives safely on the road, thus avoiding a collision with obstructing objects such as other road users, but the autopilot device cannot be influenced to determine which turn and / or intersection or which direction of travel should be selected in general. This is decided by the autopilot device depending on the training that it has undergone. One consequence would be, for example, to provide a separate artificial neural network for each desired driving maneuver, which, however, affects the computational effort and the manageability of such an autopilot device.
Ein Kraftfahrzeug mit einer autonomen Fahrfunktion und einem künstlichen neuronalen Netzwerk zur Verarbeitung von Signalen einer Kamera ist aus der
Das Ermitteln einer Fahrstrategie mittels eines künstlichen neuronalen Netzwerks ist in der
Auch aus der
Aus der
Aus der
Aus der
Aus der
Der Erfindung liegt somit die Aufgabe zugrunde, eine auf maschinellem Lernen basierte Autopiloteinrichtung dazu zu bringen, einer vorbestimmten Fahrroute zu folgen.The invention is therefore based on the object of causing an autopilot device based on machine learning to follow a predetermined driving route.
Die Aufgabe wird durch die Gegenstände der unabhängigen Patentansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind durch die abhängigen Patentansprüche, die folgende Beschreibung sowie die Figuren beschrieben.The object is achieved by the subjects of the independent claims. Advantageous further developments of the invention are described by the dependent claims, the following description and the figures.
Die Erfindung stellt ein Verfahren bereit, mittels welchem einer auf maschinellem Lernen basierten Autopiloteinrichtung eines Kraftfahrzeugs eine Fahrroute vorgegeben werden kann. Die Fahrroute kann beispielsweise durch eine Navigationseinrichtung des Kraftfahrzeugs ermittelt worden sein. Die Autopiloteinrichtung ist dabei dazu eingerichtet, auf der Grundlage von Sensordaten einer Sensoreinrichtung des Kraftfahrzeugs fahrzeugexterne Hindernisobjekte in einer Umgebung des Kraftfahrzeugs zu erkennen und das Kraftfahrzeug durch Vorgeben oder Erzeugen zumindest eines Steuersignals für eine Längsführung und/oder Querführung kollisionsfrei an den Hindernisobjekten vorbeizuführen. Die Autopiloteinrichtung basiert auf maschinellem Lernen, d. h. sie kann beispielsweise ein künstliches neuronales Netzwerk (KNN) und/oder eine Support Vector Machine (SVM) aufweisen, mittels welcher jeweils aus den Sensordaten das zumindest eine Steuersignal ganz oder teilweise erzeugt werden kann.The invention provides a method by means of which a driving route can be specified for an autopilot device of a motor vehicle based on machine learning. The route can be determined, for example, by a navigation device of the motor vehicle. The autopilot device is set up to detect obstacle objects outside the vehicle in the surroundings of the motor vehicle on the basis of sensor data from a sensor device of the motor vehicle and to guide the motor vehicle past the obstacle objects without collision by specifying or generating at least one control signal for longitudinal guidance and / or lateral guidance. The autopilot device is based on machine learning, ie it can have, for example, an artificial neural network (ANN) and / or a support vector machine (SVM), by means of which the at least one control signal can be wholly or partially generated from the sensor data.
Um nun einer solchen auf maschinellem Lernen basierten Autopiloteinrichtung die zu verfolgende oder zu fahrende Fahrroute vorzugeben, ist erfindungsgemäß vorgesehen, dass bei dem Verfahren durch eine Steuervorrichtung jeweils Darstellungsdaten zumindest eines virtuellen Hindernisobjekts, zum Beispiel eines virtuellen Verkehrsteilnehmers, und/oder zumindest eines zu verfolgenden virtuellen Folgeobjekts in die Sensordaten eingefügt werden. Die Sensordaten werden also durch Darstellungsdaten zumindest eines virtuellen Objekts (Hindernisobjekt und/oder Folgeobjekt) ergänzt. Hierdurch wird also das zumindest eine Hindernisobjekt und/oder das zumindest eine Folgeobjekt jeweils in die Sensordaten eingeblendet, also in den Erfassungsbereich der Autopiloteinrichtung. Mit anderen Worten „sieht“ die Autopiloteinrichtung nicht nur die tatsächlichen fahrzeugexternen Hindernisobjekte, sondern zumindest ein virtuelles Hindernisobjekt und/oder zumindest ein virtuelles Folgeobjekt. Auf das zumindest eine virtuelle Hindernisobjekt reagiert die Autopiloteinrichtung dann in derselben Weise wie auf ein tatsächliches, fahrzeugexternes Hindernisobjekt, d.h. es wird durch das zumindest eine Steuersignal erreichen, dass mittels der Längsführung und/oder Querführung auch das virtuelle Hindernisobjekt kollisionsfrei passiert wird. Dagegen kann die Autopiloteinrichtung mittels des Steuersignals durch Einstellen einer entsprechenden Längsführung und/oder Querführung dem zumindest einen Folgeobjekt folgen.In order to specify the driving route to be followed or to be driven to such an autopilot device based on machine learning, the invention provides that in the method, a control device provides display data of at least one virtual obstacle object, for example a virtual road user, and / or at least one virtual one to be followed Object to be inserted into the sensor data. The sensor data are thus supplemented by display data of at least one virtual object (obstacle object and / or following object). In this way, the at least one obstacle object and / or the at least one follow-up object is shown in each case in the sensor data, that is to say in the detection range of the autopilot device. In other words, the autopilot device “sees” not only the actual obstacle objects external to the vehicle, but at least one virtual obstacle object and / or at least one virtual following object. The autopilot device then reacts to the at least one virtual obstacle object in the same way as to an actual obstacle object external to the vehicle, i.e. the at least one control signal ensures that the virtual obstacle object is also passed collision-free by means of the longitudinal guidance and / or lateral guidance. In contrast, the autopilot device can follow the at least one following object by means of the control signal by setting a corresponding longitudinal guide and / or transverse guide.
Durch die Erfindung ergibt sich der Vorteil, dass es nicht nötig ist, die Autopiloteinrichtung selbst zu manipulieren oder zu steuern, um die Autopiloteinrichtung dahingehend zu ertüchtigen, dass sie gezielt einer Fahrroute folgt. Dies wird durch „vortäuschen“ zumindest eines Objekts in der Umgebung des Kraftfahrzeugs erreicht, indem die korrespondierenden Darstellungsdaten in die Sensordaten eingefügt werden. Falls es sich bei der Sensoreinrichtung um eine Kamera handelt und die Sensordaten also zumindest ein Kamerabild umfassen, kann dies dahingehend realisiert werden, dass der Autopiloteinrichtung auf Grundlage der Sensordaten eine sogenannte Augmented-Reality-Umgebung (AR - Augmented Reality) dargeboten wird, in welcher der realen Umgebung das zumindest eine virtuelle Objekt überlagert ist.The invention has the advantage that it is not necessary to manipulate or control the autopilot device itself in order to train the autopilot device to follow a route in a targeted manner. This is achieved by “simulating” at least one object in the vicinity of the motor vehicle by inserting the corresponding display data into the sensor data. If the sensor device is a camera and the sensor data thus include at least one camera image, this can be implemented to the effect that the autopilot device is presented with a so-called augmented reality environment (AR) on the basis of the sensor data, in which the real environment is superimposed on the at least one virtual object.
Um mittels des zumindest einen Hindernisobjekts und/oder des zumindest eines Folgeobjekts das Kraftfahrzeug entlang einer Fahrroute zu führen, werden die Darstellungsdaten in Abhängigkeit von der Fahrroute erzeugt. Auf Grundlage der Fahrroute kann die generelle Fahrrichtung und/oder die zu wählende Straße vorgegeben werden.In order to guide the motor vehicle along a travel route by means of the at least one obstacle object and / or the at least one follow-up object, the display data are generated as a function of the travel route. The general direction of travel and / or the road to be selected can be specified on the basis of the route.
Zu der Erfindung gehören auch Weiterbildungen, durch deren Merkmale sich zusätzliche Vorteile ergeben.The invention also includes further developments, the features of which result in additional advantages.
Um mittels des zumindest einen Hindernisobjekts und/oder des zumindest eines Folgeobjekts das Kraftfahrzeug entlang einer Fahrroute zu führen, werden die Darstellungsdaten bevorzugt in Abhängigkeit von einer vorbestimmten Fahrtrajektorie und/oder in Abhängigkeit von einem Straßenverlauf erzeugt. Mittels der Fahrtrajektorie kann der Autopiloteinheit ein Fahrmanöver (zum Beispiel Überholen und/oder Spurwechsel) vorgegeben werden. Die Fahrtrajektorie kann beispielsweise auf der Grundlage einer Manöverplanung, wie sie an sich aus dem Stand der Technik im Zusammenhang mit dem automatisierten Fahren bekannt ist, gebildet sein. Auf Grundlage des Straßenverlaufs kann das Kraftfahrzeug auf einer Straße gehalten oder entlanggeführt werden. Der Straßenverlauf selbst kann beispielsweise mittels einer digitalen Karte, also anhand von digitalen Kartendaten, ermittelt werden.In order to guide the motor vehicle along a driving route by means of the at least one obstacle object and / or the at least one following object, the display data are preferably generated as a function of a predetermined driving trajectory and / or as a function of the course of the road. A driving maneuver (for example overtaking and / or changing lanes) can be specified for the autopilot unit by means of the driving trajectory. The driving trajectory can be formed, for example, on the basis of maneuver planning, as is known per se from the prior art in connection with automated driving. On the basis of the course of the road, the motor vehicle can be stopped or guided along a road. The course of the road itself can be determined, for example, using a digital map, that is, using digital map data.
Als ein geeignetes jeweiliges virtuelles Hindernisobjekt hat sich ein Begrenzungsobjekt oder eine Begrenzung eines die Fahrroute umfassenden Fahrkorridors und/oder ein Sperrobjekt im Bereich einer zu vermeidenden Fahrtrichtung erwiesen, das jeweils in die Sensordaten eingeblendet werden kann. Der Fahrkorridor ist dabei insbesondere breiter als das Kraftfahrzeug selbst. Es handelt sich also nicht um die Vorgabe einer konkreten Fahrtrajektorie, sondern nur eines Korridors, innerhalb welchem die Autopiloteinrichtung selbst manövrieren kann, also beispielsweise einem in dem Fahrkorridor befindlichen oder eindringenden Hindernisobjekt ausweichen kann. Ein Fahrkorridor kann beispielsweise durch das Darstellen von Wänden als Hindernisobjekte gebildet sein. Ein Sperrobjekt kann beispielsweise an einer Kreuzung auf all jenen Straßen eingeblendet werden, in welche das Kraftfahrzeug nicht einbiegen soll. Hierdurch versperrt also das zumindest eine Sperrobjekt alle Fahralternativen, bis auf diejenige, welche die Autopiloteinrichtung auswählen soll. Ein Beispiel für ein Sperrobjekt ist ein Baum oder ein stehendes Kraftfahrzeug.A delimiting object or a delimitation of a driving corridor encompassing the driving route and / or a blocking object in the area of a driving direction to be avoided, which can be displayed in the sensor data, has proven to be a suitable respective virtual obstacle object. The driving corridor is in particular wider than the motor vehicle itself. It is therefore not a matter of specifying a specific driving trajectory, but only a corridor within which the autopilot device can maneuver itself, for example avoiding an obstacle object located in the driving corridor or an intruding obstacle. A driving corridor can be formed, for example, by displaying walls as obstacle objects. A blocking object can, for example, be displayed at an intersection on all those streets into which the motor vehicle should not turn. As a result, the at least one blocking object blocks all driving alternatives, except for the one which the autopilot device is to select. An example of a blocking object is a tree or a stationary motor vehicle.
Als ein jeweiliges virtuelles Folgeobjekt kann ein zu befahrender, die Fahrroute umfassender Bodenbelag oder Streifen eingeblendet werden. Der Streifen ist dabei breiter als die Fahrzeugbreite des Kraftfahrzeugs, um in der beschriebenen Weise der Autopiloteinrichtung ein Manövrieren, zum Beispiel ein Ausweichen, innerhalb des Fahrstreifens zu ermöglichen. Zusätzlich oder alternativ dazu kann als zumindest ein virtuelles Folgeobjekt ein vor dem Kraftfahrzeug entlang der Fahrroute bewegtes Leitobjekt eingeblendet werden. Beispielsweise kann ein vor dem Kraftfahrzeug herfliegender oder herrollender Ball oder ein Leitfahrzeug eingeblendet werden.A floor covering or strip that is to be driven on and encompasses the route can be faded in as a respective virtual following object. The strip is wider than the vehicle width of the motor vehicle in order to enable the autopilot device to maneuver, for example, evasive, within the lane in the manner described. Additionally or alternatively, a guide object moved in front of the motor vehicle along the route can be displayed as at least one virtual follow-up object. For example, a ball flying or rolling in front of the motor vehicle or a lead vehicle can be displayed.
Bevorzugt ist vorgesehen, dass die Autopiloteinrichtung das zumindest eine Steuersignal mittels eines künstlichen neuronalen Netzwerks (KNN), insbesondere eines tiefen künstlichen neuronalen Netzwerks, aus den Sensordaten erzeugt. Ein künstliches neuronales Netzwerk hat sich bei der Verarbeitung von Sensordaten zum Erzeugen des zumindest eines Steuersignals als vorteilhafte Lösung erwiesen.It is preferably provided that the autopilot device generates the at least one control signal from the sensor data by means of an artificial neural network (ANN), in particular a deep artificial neural network. An artificial neural network has proven to be an advantageous solution when processing sensor data for generating the at least one control signal.
Die Darstellungsdaten können in Bilddaten einer Kamera der Sensoreinrichtung und/oder in Radardaten eines Radars der Sensoreinrichtung und/oder in Ultraschalldaten eines Ultraschallsensors der Sensoreinrichtung eingefügt werden. Es wird also jeweils eine Augmented-Reality-Darstellung in Bilddaten und/oder Radardaten und/oder Ultraschalldaten erzeugt, indem die Gegenwart oder die Anwesenheit zumindest eines Objekts vorgetäuscht wird. Die Beschaffung der Darstellungsdaten ergibt sich dabei aus der Eigenschaft des zumindest einen verwendeten Sensors. In Bilddaten einer Kamera kann ein Bild eines Objekts (Hindernisobjekt und/oder Folgeobjekt) eingeblendet werden. In Radardaten können simulierte oder vorbereitete Reflektionsdaten eines virtuellen Objekts eingeblendet werden und/oder Ultraschalldaten.The display data can be inserted in image data of a camera of the sensor device and / or in radar data of a radar of the sensor device and / or in ultrasound data of an ultrasound sensor of the sensor device. An augmented reality representation is thus generated in each case in image data and / or radar data and / or ultrasound data by simulating the presence or presence of at least one object. The procurement of the display data results from the property of the at least one sensor used. An image of an object (obstacle object and / or following object) can be displayed in image data of a camera. Simulated or prepared reflection data of a virtual object and / or ultrasound data can be displayed in radar data.
Um das erfindungsgemäße Verfahren durchzuführen, also eine Autopiloteinrichtung dahingehend zu beeinflussen, dass sie das Kraftfahrzeug entlang einer Fahrroute führt, ist durch die Erfindung eine Steuervorrichtung für ein Kraftfahrzeug bereitgestellt. Eine solche Steuervorrichtung kann zum Beispiel als Steuergerät des Kraftfahrzeugs ausgestaltet sein. Die Steuervorrichtung weist eine Prozessoreinrichtung auf, die dazu eingerichtet ist, eine Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Die Prozessoreinrichtung kann hierzu zumindest einen Mikroprozessor und/oder zumindest einen Mikrocontroller aufweisen. Die Prozessoreinrichtung kann einen Programmcode umfassen, der dazu eingerichtet ist, bei Ausführen durch die Prozessoreinrichtung die Ausführungsform des erfindungsgemäßen Verfahrens durchzuführen. Der Programmcode kann in einem Datenspeicher der Prozessoreinrichtung gespeichert sein.In order to carry out the method according to the invention, that is to say to influence an autopilot device in such a way that it guides the motor vehicle along a driving route, the invention provides a control device for a motor vehicle. Such a control device can be designed, for example, as a control unit of the motor vehicle. The control device has a processor device which is set up to carry out an embodiment of the method according to the invention. For this purpose, the processor device can have at least one microprocessor and / or at least one microcontroller. The processor device can comprise a program code which is set up to carry out the embodiment of the method according to the invention when executed by the processor device. The program code can be stored in a data memory of the processor device.
Zu der Erfindung gehört auch ein Kraftfahrzeug, welches eine Ausführungsform der erfindungsgemäßen Steuervorrichtung aufweist. Das Kraftfahrzeug kann also eine Sensoreinrichtung und Autopiloteinrichtung aufweisen, die über die Steuervorrichtung gekoppelt sind. Alternativ dazu kann die Autopiloteinrichtung Bestandteil der Steuervorrichtung sein.The invention also includes a motor vehicle which has an embodiment of the control device according to the invention. The motor vehicle can thus have a sensor device and an autopilot device which are coupled via the control device. Alternatively, the autopilot device can be part of the control device.
Das erfindungsgemäße Kraftfahrzeug ist bevorzugt als Kraftwagen, insbesondere als Personenkraftwagen oder Lastkraftwagen, ausgestaltet.The motor vehicle according to the invention is preferably designed as a motor vehicle, in particular as a passenger vehicle or truck.
Die Steuervorrichtung kann in dem Kraftfahrzeug in der beschriebenen Weise in die Sensordaten der Sensoreinrichtung die Darstellungsdaten zumindest eines virtuellen Hindernisobjekts und/oder zumindest eines Folgeobjekts einblenden oder einfügen.In the motor vehicle, the control device can display or insert the display data of at least one virtual obstacle object and / or at least one follow-up object in the sensor data of the sensor device in the manner described.
Falls es sich bei dem zumindest einen Hindernisobjekt und/oder zumindest einen Folgeobjekt jeweils um ein solches handelt, das auch in den Sensordaten selbst als reales Objekt vorhanden sein könnte, zum Beispiel ein anderer Verkehrsteilnehmer (Kraftfahrzeug) und/oder eine Mauer oder ein Baum als Hindernisobjekt, so muss die Autopiloteinrichtung nicht weiter angepasst werden. Sie wird auf die Darstellungsdaten, also die künstlich eingeblendeten Abbildungen oder Fotos solcher realer Objekte, in derselben Weise reagieren wie auf die tatsächlichen in der Umgebung erkannten Hindernisobjekte.If the at least one obstacle object and / or at least one subsequent object is one that could also be present in the sensor data itself as a real object, for example another road user (motor vehicle) and / or a wall or a tree as Obstacle object, the autopilot device does not have to be further adapted. It will react to the display data, that is to say the artificially superimposed images or photos of such real objects, in the same way as to the actual obstacle objects recognized in the vicinity.
Um aber auch ein Fantasieobjekt in die Sensordaten einblenden zu können, das der Autopiloteinrichtung in der realen Umgebung nicht begegnen kann, zum Beispiel eine Textur zum Kennzeichnen eines Fahrkorridors oder eines Fahrstreifens, oder ein schwebendes Leitobjekt, wie beispielsweise ein Ball, muss die Autopiloteinrichtung dazu trainiert werden, auch ein solches virtuelles Fantasieobjekt zu erkennen und ein vorgegebenes Steuersignal zu erzeugen, um einem solchen virtuellen Hindernisobjekt auszuweichen und/oder einem solchen Folgeobjekt zu folgen. Auch das Verfolgen eines Folgeobjekts muss einer Autopiloteinrichtung erst antrainiert werden.However, in order to be able to fade in a fantasy object in the sensor data that the autopilot device cannot encounter in the real environment, for example a texture for identifying a driving corridor or a lane, or a floating guide object such as a ball, the autopilot device must be trained to do so will also be able to recognize such a virtual fantasy object and to generate a predetermined control signal in order to avoid such a virtual obstacle object and / or to follow such a follow-up object. An autopilot device must also first be trained to track a follow-up object.
Hierzu ist durch die Erfindung eine Trainingsvorrichtung für eine Autopiloteinrichtung bereitgestellt, wobei die Trainingsvorrichtung dazu eingerichtet ist, mittels einer Methode des maschinellen Lernens der Autopiloteinrichtung Trainingsdaten, die echte und/oder simulierte vorgefertigte Sensordaten sowie Labeldaten zum Kennzeichnen von in den vorgefertigten Sensordaten abgebildeten Hindernisobjekten enthalten vorzugeben. Dies ist das herkömmliche Training einer Autopiloteinrichtung, um auf reale, in einer Umgebung existierende Hindernisobjekte in der beschriebenen Weise zu reagieren. Die Trainingsvorrichtung ist aber des Weiteren dazu eingerichtet, in die Trainingsdaten auch Darstellungsdaten von zumindest einem virtuellen Hindernisobjekt und/oder von zumindest einem Folgeobjekt einzufügen sowie das zumindest eine virtuelle Hindernisobjekt und/oder das zumindest eine virtuelle Folgeobjekt jeweils kennzeichnende Labeldaten bereitzustellen. Hierdurch muss das zumindest eine virtuelle Hindernisobjekt und/oder das zumindest eine virtuelle Folgeobjekt nicht die Form und/oder das Aussehen eines tatsächlich im Straßenverkehr zu erwartenden Hindernisobjekt oder Folgeobjekt haben. Die Autopiloteinrichtung wird an das Aussehen auch künstlicher Hindernisobjekte und/oder Folgeobjekte trainiert, also an Fantasieobjekte.For this purpose, the invention provides a training device for an autopilot device, the training device being set up to use a machine learning method to provide the autopilot device with training data that contain real and / or simulated prefabricated sensor data and label data for identifying obstacle objects depicted in the prefabricated sensor data . This is the conventional training of an autopilot device in order to react to real obstacle objects existing in an environment in the manner described. The training device is also part of it set up to also insert display data of at least one virtual obstacle object and / or of at least one follow-up object into the training data and provide the at least one virtual obstacle object and / or the at least one virtual follow-up object in each case identifying label data. As a result, the at least one virtual obstacle object and / or the at least one virtual follow-up object need not have the shape and / or the appearance of an obstacle object or follow-up object that is actually to be expected in road traffic. The autopilot device is trained on the appearance of artificial obstacle objects and / or follow-up objects, that is to say on fantasy objects.
Die Trainingsvorrichtung kann zum Beispiel eine Recheneinrichtung sein, die sich nicht im Kraftfahrzeug befinden muss. Die Trainingsvorrichtung ist dabei insbesondere dazu eingerichtet, mittels der Trainingsdaten ein künstliches neuronales Netzwerk des Autopiloten zu trainieren.The training device can be, for example, a computing device that does not have to be located in the motor vehicle. The training device is set up in particular to use the training data to train an artificial neural network of the autopilot.
Als Trainingsmethoden kann zumindest eine Methode des maschinellen Lernens genutzt werden, zum Beispiel überwachtes Lernen (Supervised Learning), unüberwachtes Lernen (Unsupervised Learning), bestärkendes Lernen (Reinforcement Learning).At least one method of machine learning can be used as training method, for example supervised learning, unsupervised learning, reinforcement learning.
Im Folgenden sind Ausführungsbeispiele der Erfindung beschrieben. Hierzu zeigt:
-
1 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Kraftfahrzeugs; und -
2 eine schematische Darstellung zur Veranschaulichung einer Ausführungsform des erfindungsgemäßen Verfahrens, das durch eine Steuervorrichtung des Kraftfahrzeugs von1 durchgeführt werden kann.
-
1 a schematic representation of an embodiment of the motor vehicle according to the invention; and -
2 a schematic representation to illustrate an embodiment of the method according to the invention, which is carried out by a control device of the motor vehicle from1 can be carried out.
Bei den im Folgenden erläuterten Ausführungsbeispielen handelt es sich um bevorzugte Ausführungsformen der Erfindung. Bei den Ausführungsbeispielen stellen die beschriebenen Komponenten der Ausführungsformen jeweils einzelne, unabhängig voneinander zu betrachtende Merkmale der Erfindung dar, welche die Erfindung jeweils auch unabhängig voneinander weiterbilden und damit auch einzeln oder in einer anderen als der gezeigten Kombination als Bestandteil der Erfindung anzusehen sind. Des Weiteren sind die beschriebenen Ausführungsformen auch durch weitere der bereits beschriebenen Merkmale der Erfindung ergänzbar.The exemplary embodiments explained below are preferred embodiments of the invention. In the exemplary embodiments, the described components of the embodiments each represent individual features of the invention that are to be considered independently of one another, which also develop the invention independently of one another and are thus also to be regarded as part of the invention individually or in a combination other than the one shown. Furthermore, the described embodiments can also be supplemented by further features of the invention that have already been described.
In den Figuren sind funktionsgleiche Elemente jeweils mit denselben Bezugszeichen versehen.In the figures, functionally identical elements are each provided with the same reference symbols.
Die Autopiloteinrichtung
Allerdings werden der Autopiloteinrichtung
In diesem Zusammenhang ist in
Die Autopiloteinrichtung
Die Steuervorrichtung
Das manipulierte Kamerabild
Durch Einbinden einer Kamera in ein neuronales Netzwerk, insbesondere ein tiefes neuronales Netzwerk, kann also durch geeignete Augmentierung des Kamerabildes
Augmentierung bedeutet dabei insbesondere die Integration von virtuellen Elementen oder Objekten in ein Kamerabild
Da die Augmentierung direkt auf dem Sensorbild oder Kamerabild
Somit können also auch automatisierte oder autonome Fahrvorgänge einer Fahrroute
Soll das Kraftfahrzeug
Insgesamt zeigen die Beispiele, wie durch die Erfindung ein Verfahren zur Routenverfolgung und Navigation während einer autonomen Fahrt mittels künstlichen neuronalen Netzwerken bereitgestellt werden kann.Overall, the examples show how the invention can provide a method for route tracking and navigation during an autonomous journey by means of artificial neural networks.
Claims (10)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017204983.9A DE102017204983B4 (en) | 2017-03-24 | 2017-03-24 | Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017204983.9A DE102017204983B4 (en) | 2017-03-24 | 2017-03-24 | Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102017204983A1 DE102017204983A1 (en) | 2018-09-27 |
DE102017204983B4 true DE102017204983B4 (en) | 2021-12-02 |
Family
ID=63450518
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017204983.9A Active DE102017204983B4 (en) | 2017-03-24 | 2017-03-24 | Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102017204983B4 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11827241B2 (en) * | 2018-10-29 | 2023-11-28 | Motional Ad Llc | Adjusting lateral clearance for a vehicle using a multi-dimensional envelope |
CN110239536B (en) * | 2019-05-22 | 2021-07-23 | 浙江吉利控股集团有限公司 | Lane keeping control method and device and terminal |
JP7188279B2 (en) * | 2019-05-29 | 2022-12-13 | トヨタ自動車株式会社 | Machine learning methods and mobile robots |
US11912263B2 (en) | 2020-01-14 | 2024-02-27 | Delphi Technologies Ip Limited | System and method for vehicle coast control |
DE102021110812A1 (en) | 2021-04-27 | 2022-10-27 | Bayerische Motoren Werke Aktiengesellschaft | Method, system and computer program for developing, validating, training and/or operating a vehicle system |
DE102021110810A1 (en) | 2021-04-27 | 2022-10-27 | Bayerische Motoren Werke Aktiengesellschaft | Method, system and computer program for generating data for developing, validating, training and/or operating a vehicle system |
DE102022122689A1 (en) | 2022-09-07 | 2024-03-07 | Bayerische Motoren Werke Aktiengesellschaft | Method, device and computer program for developing, securing, training and/or operating a vehicle system |
CN118182515A (en) * | 2023-02-27 | 2024-06-14 | 华为技术有限公司 | Vehicle lane change decision method, device and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10358498A1 (en) | 2003-12-13 | 2005-07-07 | Daimlerchrysler Ag | Driver aid device for predictive control of a vehicle in which actual vehicle data are combined with data in a driving strategy database to permit selection of driver strategy data based on at least one decision criteria |
US20130050260A1 (en) | 2011-08-26 | 2013-02-28 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
DE102013016488A1 (en) | 2013-10-02 | 2015-04-02 | Audi Ag | Motor vehicle and method for controlling a motor vehicle |
EP2863177A1 (en) | 2013-10-18 | 2015-04-22 | AEVO GmbH | Method of calculation a path for use in a vehicle |
DE102015115666A1 (en) | 2014-09-23 | 2016-03-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Performance driving system and performance driving method |
US20160327953A1 (en) | 2015-05-05 | 2016-11-10 | Volvo Car Corporation | Method and arrangement for determining safe vehicle trajectories |
DE102015215918A1 (en) | 2015-08-20 | 2017-02-23 | Continental Teves Ag & Co. Ohg | Parking system with interactive trajectory optimization |
-
2017
- 2017-03-24 DE DE102017204983.9A patent/DE102017204983B4/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10358498A1 (en) | 2003-12-13 | 2005-07-07 | Daimlerchrysler Ag | Driver aid device for predictive control of a vehicle in which actual vehicle data are combined with data in a driving strategy database to permit selection of driver strategy data based on at least one decision criteria |
US20130050260A1 (en) | 2011-08-26 | 2013-02-28 | Reincloud Corporation | Coherent presentation of multiple reality and interaction models |
DE102013016488A1 (en) | 2013-10-02 | 2015-04-02 | Audi Ag | Motor vehicle and method for controlling a motor vehicle |
EP2863177A1 (en) | 2013-10-18 | 2015-04-22 | AEVO GmbH | Method of calculation a path for use in a vehicle |
DE102015115666A1 (en) | 2014-09-23 | 2016-03-24 | GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) | Performance driving system and performance driving method |
US20160327953A1 (en) | 2015-05-05 | 2016-11-10 | Volvo Car Corporation | Method and arrangement for determining safe vehicle trajectories |
DE102015215918A1 (en) | 2015-08-20 | 2017-02-23 | Continental Teves Ag & Co. Ohg | Parking system with interactive trajectory optimization |
Also Published As
Publication number | Publication date |
---|---|
DE102017204983A1 (en) | 2018-09-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102017204983B4 (en) | Method for specifying a driving movement in a machine learning-based autopilot device of a motor vehicle and a control device, motor vehicle and training device for an autopilot device | |
EP3543059B1 (en) | Method for calculating the insertion of additional information for display on a display unit, device for carrying out the method, motor vehicle and computer program | |
DE102010030213B4 (en) | Parking aid system for perpendicular parking spaces | |
DE102014008353B4 (en) | Method for operating a driver assistance system for the automated guidance of a motor vehicle and associated motor vehicle | |
DE102016220945A1 (en) | Method and device for supporting a maneuvering process of a motor vehicle | |
DE102015114464A9 (en) | Uniform motion planner for an autonomous vehicle while avoiding a moving obstacle | |
DE102016007899B4 (en) | Method for operating a device for traffic situation analysis, motor vehicle and data processing device | |
DE102007009745A1 (en) | Method for controlling vehicle steering during parking process, involves measuring parking place selected for parking vehicle and establishing orientation field, where orientation field determines number of support points | |
WO2014161691A1 (en) | Method and apparatus for guiding a vehicle in the surroundings of an object | |
WO2017097486A1 (en) | Method for identifying a possible collision between a motor vehicle and an object by taking into account a spatial uncertainty, control device, driver assistance system and motor vehicle | |
DE102008057027A1 (en) | Method and system for determining a position and / or orientation of a movable load | |
DE102015116542A1 (en) | Method for determining a parking area for parking a motor vehicle, driver assistance system and motor vehicle | |
DE102012206211A1 (en) | Method and device for determining a lane adjustment parameter for a lane keeping system of a vehicle and method and device for tracking a vehicle | |
DE102020212520B3 (en) | Horizontal position definition for the display of virtual objects in a head-up display device | |
DE102017200218A1 (en) | Control unit and method for taking into account obstacles in a reversing assistance system | |
DE102020127206A1 (en) | PROCESS AND SYSTEM FOR THE JOINT USE OF SENSORS FOR AUTONOMOUS LANE CHANGE | |
DE102016117743A1 (en) | Method for evaluating a driving behavior of a driver of a motor vehicle during a parking maneuver, driver assistance system and motor vehicle | |
DE102020114837A1 (en) | Computer-implemented method for trajectory planning for a vehicle | |
DE102019107224A1 (en) | Driving assistance procedures | |
DE102014214507A1 (en) | Method for creating an environment model of a vehicle | |
DE102020213514A1 (en) | Situation-dependent definition of observation areas for at least partially autonomously operated motor vehicles | |
DE102014214505A1 (en) | Method for creating an environment model of a vehicle | |
DE112020003551T5 (en) | Road curve generation in real-world images as a data augmentation method | |
DE102022212567A1 (en) | Procedure for controlling a lane change of a vehicle | |
WO2022106336A1 (en) | Method for controlling a motor vehicle, and control device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |