-
Die vorliegende Erfindung betrifft Verfahren zur Objektauswahl bzw. Objektselektion für ein (Fahrer-) Assistenzsystem eines Egofahrzeuges, welches zur unterstützenden oder automatisierten Fahrzeugführung des Egofahrzeuges dient, sowie ein entsprechendes (Fahrer-) Assistenzsystem für ein Egofahrzeug.
-
Technologischer Hintergrund
-
Gattungsgemäße Fahrzeuge, wie z. B. Personenkraftfahrzeuge (PKW), Lastkraftwägen (LKW) oder Motorräder, werden zunehmend mit Fahrerassistenzsystemen bzw. Assistenzsystemen ausgerüstet, welche mit Hilfe von Sensorsystemen die Umgebung bzw. das Umfeld erfassen, Verkehrssituationen erkennen und den Fahrer unterstützen können, z. B. durch einen Brems- oder Lenkeingriff oder durch die Ausgabe einer optischen, haptischen oder akustischen Warnung. Als Sensorsysteme zur Umfelderfassung werden regelmäßig Radarsensoren, Lidarsensoren, Kamerasensoren, Ultraschallsensoren oder dergleichen eingesetzt. Aus den durch die Sensoren ermittelten Sensordaten können anschließend Rückschlüsse auf die Umgebung und darin befindlichen Objekten gezogen werden, womit z. B. auch ein sogenanntes Umfeldmodell erzeugt werden kann. Darauf basierend können anschließend Anweisungen zur Fahrerwarnung oder Fahrerinformation oder zum (teil-) automatischen geregelten Lenken, Bremsen und Beschleunigen ausgegeben werden. Durch die Sensor- und Umfelddaten verarbeitenden Assistenzfunktionen können z. B. Unfälle mit anderen Verkehrsteilnehmern vermieden oder komplizierte Fahrmanöver erleichtert werden, indem die Fahraufgabe bzw. die Fahrzeugführung unterstützt oder sogar komplett übernommen wird (teil- oder vollautomatisiert). Beispielsweise kann das Fahrzeug z. B. mittels einem Notbremsassistenten (EBA, Emergency Brake Assist) eine autonome Notbremsung (AEB, Automatic Emergency Brake) oder einem Abstandsregeltempomaten (ACC, Adaptive Cruise Control-Assistenten) eine Geschwindigkeits- und Folgefahrtregelung durchzuführen. Ferner kann mit einem Stauassistenten (TJA, Traffic Jam Assist), der im Wesentlichen auf einem Spurhalteassistenten (LKA, Lane Keep Assist) und einem Abstandsregeltempomaten (ACC) basiert, das Fahren im Stau oder im Stop-and-Go-Betrieb aufgrund einer assistierten Quer- und Längsführung erheblich vereinfacht werden.
-
Eine Herausforderung bei derartigen Fahrfunktionen in Fahrerassistenzsystemen ist dabei die Auswahl von Objekten (z. B. Fahrzeuge, Fußgänger oder Hindernisse) auf die eine Fahrfunktion reagieren bzw. regeln muss. Um eine hohe Erkennungsleistung von Objekten zu gewährleisten, setzen moderne Systeme mehrere verschiedene Sensoren zur Umfelderfassung (z. B. Multisensorsysteme umfassend Radar, Kamera, Lidar und/oder Ultraschall) gleichzeitig ein. Dadurch soll eine Redundanz der Sensoren mit unterschiedlichen Technologien geschaffen werden, die dazu führt, dass regelungsrelevante Objekte zuverlässig erkannt werden, indem z. B. mehrere Sensoren die Existenz desselben Objektes bestätigen, während Fehldetektionen (z. B. Geisterziele, bei denen ein real nichtexistierendes Objekt fälschlicherweise erkannt wird) reduziert werden. Es gibt allerdings Fahrsituationen, in denen ein regelungsrelevantes Objekt physikalisch nicht durch alle Sensoren gleichzeitig erfasst werden kann. Ein typisches Beispiel hierfür sind Fahrzeuge, die sich vor einem dem Egofahrzeug vorausfahrenden Fahrzeug befinden. Herkömmlicherweise werden Objekte in Multisensorsystemen für eine Fahrfunktion erst dann als relevant ausgewählt, wenn Sie mindestens von zwei Sensoren erkannt wurden. Diese Strategie kann aber dazu führen, dass das verdeckte Objekt nicht als regelungsrelevantes Objekt ausgewählt wird und die Fahrfunktion die entsprechende Situation nicht adäquat behandelt. Beispielsweise können in bestimmten Verkehrssituationen zunächst verdeckte Objekte relevant werden (z. B. bei Überholvorgängen, wenn das vorausfahrende Fahrzeug die Sicht auf ein davor befindliches langsames oder stehendes Objekt erst beim Ausscheren freigibt und dadurch wenig Zeit bleibt, um entsprechend auf das nunmehr relevante Hindernis zu reagieren).
-
Druckschriftlicher Stand der Technik
-
Die
DE 10 2010 003 375 A1 offenbart ein Umfeldbewertungssystem in einem Fahrzeug mit einem Steuergerät, erste und zweite Sensormittel zur Erfassung von Objekten im Umfeld des Fahrzeuges und Auswertemitteln zur Bewertung von Objekten im Umfeld des Fahrzeugs in Hinblick auf die Relevanz der Objekte als Zielobjekte für ein Warn-, Steuer- oder Regelsystem im Fahrzeug. Dabei werden erfasste Objekte in einer ersten Betriebsart des Steuergeräts nur dann als relevantes Zielobjekt angesehen, wenn es sowohl durch die ersten Sensormittel als auch durch die zweiten Sensormittel erfasst wird. Ferner wird in einer zweiten Betriebsart des Steuergeräts ein Objekt als relevantes Zielobjekt ausgewählt, wenn es nur durch die ersten Sensormittel erfasst wird. Hierdurch wird eine Selektion von verdeckten Objekten realisiert, in dem das Fahrzeug in zwei verschiedenen Betriebsarten betrieben wird. Befindet sich das Fahrzeug beispielsweise in der Betriebsart „Folgefahrt“ hinter einem vorausfahrenden Fahrzeug, so werden vom vorausfahrenden Fahrzeug verdeckte Objekte, die z. B. nur von einem Radar als erstes Sensormittel detektiert werden können, für die Fahrfunktionen ausgewählt. Befindet sich das Fahrzeug aber nicht in der Betriebsart „Folgefahrt“, so werden verdeckte Objekte nicht selektiert. Dadurch kann es zu Gefahrensituationen kommen, wenn z. B. das Egofahrzeug einem vorausfahrenden Fahrzeug in einer Folgefahrt folgt, welches einen Spurwechsel vollzieht, weil sich ein davor befindliches Objekt nur sehr langsam bewegt oder steht.
-
Aus
EP 2 013 052 B1 ist ein Verfahren zur Geschwindigkeitsregelung eines Fahrzeugs in einer komplexen Verkehrssituation bekannt, bei dem das Fahrzeug mit einem Sensorsystem zur Umgebungserfassung ausgestattet ist und für die Regelung ein zumindest teilweise verdecktes Objekt und/oder zumindest ein Objekt auf einer benachbarten Fahrspur betrachtet wird. Ferner wird eine Spurwechselabsicht des eigenen Fahrzeugs und/oder eines Objekts erfasst und es wird Objekten ein unterer Schwellwert für eine Sollbeschleunigung zugeordnet. Der Schwellwert hängt dabei davon ab, ob das Objekt verdeckt ist und ob das Objekt auf der eigenen oder einer benachbarten Fahrspur ist und ob eine erkennbare Absicht des Fahrzeugs oder des Objekts vorliegt, die Fahrspur zu wechseln.
-
Ferner offenbart
DE 10 2012 222 301 A1 ein Verfahren, bei dem das Verhalten von Fahrzeugen in der Umgebung überwacht wird, um eine bevorstehende Gefahr auf der Straße vorherzusagen und auf diese zu reagieren, sogar in Situationen, in denen die Gefahr nicht direkt erfasst wurde. Sofern Zielfahrzeuge in der Umgebung des Hostfahrzeuges detektiert werden, bewertet das Verfahren deren Verhalten, wobei mehrere Kategorien zum Klassifizieren des Verhaltens vorgesehen sind, und unter der Annahme, dass deren Verhalten einen Typ von bevorstehender Gefahr andeutet. Zudem wird eine geeignete präventive Reaktion ermittelt, um das Host-Fahrzeug zu steuern, die das Nachahmen, Kopieren und/oder Integrieren des Verhaltens der Zielfahrzeuge in der Umgebung gemäß sogenannten „Schwarm“-Techniken umfassen, um der ansonsten unbemerkten Gefahr auszuweichen.
-
Aufgabe der vorliegenden Erfindung
-
Ausgehend vom Stand der Technik liegt die Aufgabe der vorliegenden Erfindung darin, ein Verfahren sowie ein Assistenzsystem zur Verfügung zu stellen, wodurch die Verkehrssicherheit von verbessert und die aus dem Stand der Technik bekannten Nachteile überwunden werden.
-
Lösung der Aufgabe
-
Die vorstehende Aufgabe wird durch die gesamte Lehre des Anspruchs 1 sowie des nebengeordneten Anspruchs gelöst. Zweckmäßige Ausgestaltungen der Erfindung sind in den Unteransprüchen beansprucht.
-
Das erfindungsgemäße Verfahren zur Objektauswahl ist vorzugsweise für ein Assistenzsystem, welches insbesondere dazu vorgesehen ist, ein oder mehrere warnende und/oder unterstützende Fahrfunktionen bzw. eine teil- autonome Fahrzeugsteuerung zu berechnen und auszuführen. Bei dem Verfahren umfasst das Egofahrzeug eine Steuereinrichtung und mindestens zwei Umfeldsensoren zur Umfeld- und Objekterfassung umfasst, wobei die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet werden. Hierzu werden Objekte betrachtet, die durch unterschiedliche Sensoren bzw. Sensortypen erfasst wurden. Wenn ein erstes Objekt von mindestens zwei Umfeldsensoren erfasst wurde bzw. vom ersten und vom zweiten Umfeldsensor erfasst wurde und ein zweites Objekt nur von einem Umfeldsensor bzw. vom ersten und nicht vom zweiten Umfeldsensor erfasst wurde, kann eine Interaktion zwischen erstem und zweitem Objekt bestimmt werden, indem anhand einer Bewegung des ersten Objekts eine Fahrttrajektorie des ersten Objekts ermittelt wird (wobei die Fahrttrajektorie den angenommenen bzw. geschätzten realen zukünftigen Bewegungsverlauf des ersten Objekts beschreibt). Eine Interaktion zwischen erstem und zweitem Objekt wird dabei angenommen, wenn die Fahrttrajektorie des ersten Objekts eine Gefahrensituation mit dem zweiten Objekt umgeht bzw. verhindert oder diese verringert bzw. deren Verlauf/Auswirkung abschwächt. Beispielweise wenn eine Kollision zwischen erstem und zweitem Objekt vorliegen würde, wenn das erste Objekt nicht die Fahrttrajektorie, z. B. ein Ausweichen oder ein Bremsen umfasst, einschlagen würde. Das zweite Objekt wird dann entsprechend als relevantes Objekt insbesondere für die jeweilige Fahrfunktion bzw. das Assistenzsystem ausgewählt, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt bzw. festgestellt worden ist.
-
Im Gegensatz zum Stand der Technik unterscheidet sich die vorliegende Erfindung dadurch, dass eine Objektselektion nicht auf einem Betriebszustand des Egofahrzeuges basiert. Die Auswahl von verdeckten Objekten kann immer geschehen und ist unabhängig davon, ob sich das Egofahrzeug in einer Folgefahrt befindet oder nicht. Darüber hinaus umfasst die vorliegende Erfindung eine Art Interaktionsbewertung zwischen den Bewegungen der Objekte, die insbesondere dazu führt, dass auch kritische Fahrsituationen abgedeckt werden, wie z. B. die Selektion von Objekten, die zwar von optischen Sensoren (Lidar, Kamera) detektiert wurden, aber nicht vom Radarsensor erkannt wurden, und die Selektion von Objekten, die sich nicht in der Fahrspur des Egofahrzeuges befinden.
-
Vorzugsweise wird anhand einer historischen Bewegung des ersten Objekts eine hypothetische Trajektorie des ersten Objekts ermittelt bzw. bestimmt, d. h. die Trajektorie, der das erste Objekt wahrscheinlich folgen würde, wenn es keine Fahrtänderung entlang der Fahrttrajektorie des ersten Objekts vornehmen würde. Hierzu wird die Bewegung des ersten Objekts (Geschwindigkeit, Beschleunigung, Bewegungsrichtung und dergleichen) über eine Zeitdauer hinweg beobachtet und z. B. in einem Speicher hinterlegt. Diese hypothetische Trajektorie kann dann neben der aktuellen Fahrttrajektorie abgespeichert werden, was dazu dient, den ursprünglichen wahrscheinlichen Fahrtverlauf mit dem aktuellen Fahrtverlauf (entlang der Fahrttrajektorie des ersten Objekts) zu vergleichen. In anderen Worten wird der zukünftige reale Bewegungsverlauf des ersten Objekts entlang der Fahrttrajektorie (= Fahrttrajektorie des ersten Objekts) sowie der hypothetische Bewegungsverlauf des ersten Objekts, wenn das erste Objekt der bisherigen Bewegung folgen würde (= hypothetische Trajektorie des ersten Objekts) verglichen. Dadurch kann sehr gut ermittelt werden, ob mit der aktuellen Fahrttrajektorie eine Richtungs- und/oder Geschwindigkeitsänderung einhergeht, die gegebenenfalls auf eine Interaktion mit einem anderen Objekt zurückzuführen ist und ob z. B. durch die Fahrtänderung eine Gefährdungssituation vermieden/abgeschwächt wird.
-
In vorteilhafter Weise kann somit die hypothetische Trajektorie zur Bewertung der Interaktion zwischen erstem und zweitem Objekt herangezogen werden, indem eine Interaktion angenommen wird, wenn durch das Folgen der hypothetischen Trajektorie bzw. das erste Objekt der hypothetischen Trajektorie folgt eine Gefahrensituation (z. B. eine Kollision) zwischen erstem und zweitem Objekt entstehen würde.
-
Erfindungsgemäß wird anhand der Bewegung des zweiten Objekts auch eine Trajektorie des zweiten Objekts bestimmt, die ebenfalls zur Bewertung einer Interaktion zwischen erstem und zweitem Objekt herangezogen werden kann. Beispielsweise kann eine Bremsung des zweiten Objekts ermittelt werden, was eine erfasste Ausweichbewegung des ersten Objekts bzw. eine Fahrttrajektorie des ersten Objekts, welche ein Überholmanöver anzeigt, plausibilisieren würde.
-
Vorzugsweise handelt es sich bei dem ersten und zweiten Umfeldsensor um Sensoren mit unterschiedlichem Messprinzip und/oder unterschiedlichen Messparametern. Beispielsweise kann als erster Umfeldsensor ein Radarsensor und als zweiter Umfeldsensor ein bildgebender Sensor, wie eine Kamera, vorgesehen sein. Die unterschiedlichen Messprinzipien garantieren hierbei eine gewisse Redundanz und können erfasste Objekte auch bestätigen, z. B. wenn beide Sensoren das gleiche Objekt erfassen. Beispielsweise würde in einem Szenario, bei dem ein Egofahrzeug einem vorausfahrenden ersten Fahrzeug folgt, welches ebenfalls einem vorausfahrenden zweiten Fahrzeug folgt, das erste Fahrzeug von einem Radarsensor und von einer Kamera des Egofahrzeuges erfasst bzw. detektiert. Das zweite Fahrzeug würde jedoch nur von dem Radarsensor und nicht von der Kamera erfasst, da das zweite Fahrzeug durch das erste Fahrzeug verdeckt würde, was die Kamerasicht wesentlich beeinträchtigt, die Radardetektion jedoch nicht in gleichem Maße. Darüber hinaus sind explizit sämtliche Sensorkombinationen von erstem und zweitem Umfeldsensor denkbar. Zudem können auch Umfeldsensoren mit gleichem Messprinzip aber unterschiedlichen Messparametern vorgesehen sein. Darüber hinaus können auch weitere Umfeldsensoren vorgesehen sein, deren Sensordaten zur Objektselektion herangezogen werden.
-
Zweckmäßigerweise kann eine Interaktion immer für ein Objektpaar, umfassend ein bestätigtes Objekt, welches von mindestens zwei Umfeldsensoren erfasst wurde, und ein unbestätigtes Objekt, welches von nur einem Umfeldsensor erfasst wurde, bestimmt werden. Durch dieses paarweise Vorgehen kann eine Interaktion in besonders einfacher und sicherer Weise durchgeführt werden.
-
Ferner können Fahrdynamikparameter der Fahrzeuge bzw. Objekte herangezogen werden, um deren Bewegung und/oder Fahrttrajektorie und/oder hypothetische Trajektorie zu bestimmen. Der Begriff „Vehicle Dynamics“ (VDY) oder „Fahrdynamik“ umfasst im Sinne der Erfindung die Bewegung von Fahrzeugen und die Ermittlung von deren Parametern bzw. Fahrdynamikparametern, wie z. B. Weg, Zeit, Geschwindigkeit, Beschleunigung, Energieaufwand, Erwärmung von Motoren, Antriebskräfte, Leistungen, Bewegungswiderstände, zu befördernde Anhängelasten sowie Wirkungsgrade. Hierbei handelt es sich ausdrücklich um eine nicht abschließende Aufzählung, wobei die Erfindung die Verwendung sämtlicher aus dem Stand der Technik bekannter Fahrdynamikparameter umfasst. Die Ermittlung derartiger Parameter basiert dabei auf technische, mechanische, physikalische, mathematische und statistische Grundlagen. Die Erfassung derartiger Fahrdynamikparameter ist aus dem Stand der Technik hinreichend bekannt. Beispielsweise kann die Erfassung von den Fahrdynamikparametern der Objekte anhand von bekannten Berechnungs- und Detektionsmethoden anhand von Sensordaten der Umfeldsensoren erfolgen oder auch über eine Car-2-Car-bzw. Car-2-X-Kommunikation übermittelt werden. Fahrdynamikparameter des Egofahrzeuges, die ebenfalls in die Trajektorienermittlung eingehen können, können z. B. mittels geeigneter Sensorik erfasst werden, wie z. B. anhand von Lenkradwinkelsensor, Beschleunigungssensoren, Gierratensensor, Geschwindigkeitsmesser, Schwimmwinkelsensoren, Optische Abstands-sensoren, GPS / DGPS basierte Messsysteme (Positionsmessung) oder Trägheitsnavigationssysteme, um z. B. die Längs-, Quer- oder Hubbewegung, das Gieren, Nicken oder Wanken oder Schwingungen (Translations- und Rotationsschwingung) zu erfassen.
-
Gemäß einer bevorzugten Ausgestaltung der Erfindung kann das Verfahren folgende Verfahrensschritte umfassen: das Erfassen und Verfolgen von Objekten durch die Umfeldsensoren, das Bewerten der erfassten Objekte in Hinblick auf Interaktionen zwischen diesen Objekten (Interaktionsbewertung) und die Auswahl bzw. Selektion von Objekten aus den erfassten Objekten anhand der Interaktionsbewertung.
-
Ferner kann das Verfahren den Verfahrensschritt einer Sensorfusion umfassen, bei dem die erfassten Objekte einzelner Umfeldsensoren in einem gemeinsamen Umfeldmodell erfasst bzw. deren Daten fusioniert werden. Als Sensorfusion oder Sensordatenfusion wird dabei insbesondere die Verknüpfung der Ausgabedaten der unterschiedlichen Sensoren bezeichnet, wodurch die Informationsqualität der Objektdaten verbessert und die die Objektklassifikation und Detektionsleistung des Sensorsystems erhöht werden kann.
-
Nebengeordnet umfasst die vorliegende Erfindung auch ein Assistenzsystem für ein Egofahrzeug, welches zur unterstützenden oder automatisierten Fahrzeugführung des Egofahrzeuges Objekte im Umfeld des Egofahrzeuges erfasst und eine Objektauswahl bzw. Objektselektion durchführt. Das Assistenzsystem umfasst hierzu eine Steuereinrichtung und mindesten zwei Umfeldsensoren zur Umfeld- und Objekterfassung (z. B. Radarsensor, Lidarsensor, Kamera und/oder Ultraschallsensor). Die Steuereinrichtung ist dabei dazu hergerichtet ist, die Objektauswahl nach dem erfindungsgemäßen Verfahren durchzuführen. Hierbei werden die durch die Umfeldsensoren erfassten Objekte, zunächst in Hinblick auf ihre Interaktion bewertet, indem ein erstes Objekt vom ersten und vom zweiten Umfeldsensor erfasst wurde und ein zweites Objekt vom ersten, nicht jedoch vom zweiten Umfeldsensor erfasst wurde. Anhand einer Bewegung des ersten Objekts wird dann eine Fahrttrajektorie des ersten Objekts bestimmt, wobei eine Interaktion zwischen erstem und zweitem Objekt angenommen wird, wenn die Fahrttrajektorie des ersten Objekts eine Gefahrensituation mit dem zweiten Objekt umgeht oder verhindert. Beispielsweise indem die Fahrttrajektorie des vorausfahrenden Fahrzeuges bzw. des ersten Objekts eine Kollision mit dem zweiten Objekt verhindert, indem es diesem ausweicht. Das zweite Objekt wird dann als für die jeweilige Fahrfunktion des Assistenzsystems relevantes Objekt ausgewählt, wenn eine Interaktion zwischen erstem und zweitem Objekt vorliegt.
-
Ferner kann die Steuereinrichtung des Assistenzsystems einen Computer, Prozessor, Controller, Rechner oder dergleichen umfassen, um das erfindungsgemäße Verfahren durchzuführen. Dabei kann ein Computerprogramm mit Programmcode zur Durchführung des erfindungsgemäßen Verfahrens vorgesehen sein, dass wenn das Computerprogramm auf einem Computer oder einem sonstigen aus dem Stand der Technik bekannten programmierbaren Rechner ausgeführt wird. Dementsprechend kann das Verfahren auch in bestehenden Systemen als computerimplementiertes Verfahren ausgeführt bzw. nachgerüstet werden. Der Begriff „computerimplementiertes Verfahren“ im Sinne der Erfindung beschreibt dabei die Ablaufplanung oder Vorgehensweise, welche anhand des Computers verwirklicht bzw. durchgeführt wird. Der Computer kann dabei mittels programmierbarer Rechenvorschriften die Daten verarbeiten. In Bezug auf das Verfahren können somit auch wesentliche Eigenschaften z. B. durch ein neues Programm, neue Programme, einen Algorithmus oder dergleichen nachträglich implementiert werden. Der Computer kann dabei als Steuereinrichtung oder als Teil der Steuereinrichtung (z. B. als IC (Integrated Circuit)-Baustein, Mikrocontroller oder System-on-Chip (SoC)) ausgestaltet sein.
-
Beschreibung der Erfindung anhand von Ausführungsbeispielen
-
Im Folgenden wird die Erfindung anhand von zweckmäßigen Ausführungsbeispielen näher erläutert. Es zeigen:
- 1 eine stark vereinfachte schematische Darstellung eines Egofahrzeuges mit erfindungsgemäßem Assistenzsystem;
- 2 eine vereinfachte Darstellung einer Verkehrsszene, bei der ein Egofahrzeug einem vorausfahrenden Fahrzeug folgt und sich ein weiteres Fahrzeug vor dem vorausfahrenden Fahrzeug befindet;
- 3 eine vereinfachte schematische Darstellung einer Ausgestaltung des erfindungsgemäßen Verfahrensablaufs, sowie
- 4 eine vereinfachte Darstellung einer Verkehrsszene, bei der ein Egofahrzeug einem vorausfahrenden Fahrzeug folgt und sich ein weiteres Fahrzeug vor dem vorausfahrenden Fahrzeug befindet und nah an einer Leitplanke positioniert ist.
-
Bezugsziffer 1 in 1 bezeichnet ein Fahrzeug bzw. Egofahrzeug, welches eine Steuereinrichtung 2 (ECU, Electronic Control Unit oder ADCU, Assisted and Automated Driving Control Unit) verschiedene Aktoren (Lenkung 3, Motor 4, Bremse 5) sowie Sensoren zur Umfelderfassung (Radarsensor 6, Kamera 7, Lidarsensor 8 sowie Ultraschallsensoren 9a-9d) aufweist. Das Egofahrzeug 1 kann dabei (teil-) automatisiert gesteuert werden, indem die Steuereinrichtung 2 auf die Aktoren und die Sensoren bzw. deren Sensordaten zugreifen kann. Im Bereich des assistierten bzw. (teil-) automatisierten Fahrens können die Sensordaten zur Umfeld- und Objekterkennung genutzt werden, sodass verschiedene Assistenzfunktionen, wie z. B. Abstandsfolgeregelung (ACC, Adaptive Cruise Control), Notbremsassistent (EBA, Electronic Brake Assist), Spurhalteregelung bzw. ein Spurhalteassistent (LKA, Lane Keep Assist), Parkassistent oder dergleichen, über die Steuereinrichtung 2 bzw. dem dort hinterlegten Algorithmus realisierbar sind.
-
In 2 ist eine typische Verkehrssituation gezeigt, bei der das Egofahrzeug einem vorausfahrenden ersten Objekt bzw. Fahrzeug T1 folgt. Das vorausfahrende Fahrzeug T1 kann durch die nach vorne gerichteten Sensoren: Radarsensor 6, Kamera 7 und Lidar 8 erfasst werden, während ein zweites Objekt bzw. das Fahrzeug T2 vor dem vorausfahrenden Fahrzeug T1 nur durch den Radarsensor 6, nicht aber durch den Lidar 7 oder die Kamera 8 erfasst werden kann, da die direkte Sichtlinie durch den Vorausfahrer T1 blockiert ist. Oftmals werden Objekte in herkömmlichen Multisensorsystemen für eine Fahrfunktion zwar erst dann als relevant ausgewählt, wenn Sie mindestens von zwei Sensoren erkannt wurden. Diese Strategie kann jedoch dazu führen, dass das verdeckte Objekt nicht als regelungsrelevantes Objekt ausgewählt wird und die Fahrfunktion die entsprechende Situation nicht adäquat behandelt bzw. zu spät ausführt. Beispielsweise wenn das vorausfahrende Fahrzeug T1 die Spur wechselt (dargestellt anhand des schwarzen Pfeils, der die Fahrttrajektorie von Fahrzeug T1 zeigt) und das ACC-System rechtzeitig auf das vor dem vorausfahrenden Fahrzeug T1 stehende Fahrzeug T2 reagieren muss. In Abhängigkeit der gewählten Geschwindigkeiten für das Egofahrzeug und dem vorausfahrenden Fahrzeug T1 kann es jedoch sein, dass eine Reaktion bereits erfolgen muss, während das stehende Fahrzeug T2 teilweise noch durch das vorausfahrende Fahrzeug T1 verdeckt ist.
-
Erfindungsgemäß wird die Bewegungen der von mehreren Umfeldsensoren detektierten Objekte als zusätzliches Entscheidungskriterium herangezogen, um Objekte auch dann als relevant für die Fahrfunktion zu selektieren, wenn sie nur von einem Umfeldsensor erkannt wurden bzw. erfasst werden konnten. In diesem Sinne sollten unter bestimmten Bedingungen die beobachtbaren Bewegungen, als zweite Bestätigung für die tatsächliche Existenz von verdeckten Objekten dienen. Dadurch können falsche Objektselektionen (z. B. Geisterziele) weithin reduziert werden, während Reaktionen in Fahrsituationen, die die Auswahl eines verdeckten Objektes erfordern, frühzeitiger ausgelöst werden können.
-
In 3 ist eine Ausgestaltung eines möglichen Verfahrensablaufs des erfindungsgemäßen Verfahrens gezeigt. Im ersten Schritt erfolgt zunächst die Umfelderfassung, welche das Erfassen bzw. Detektieren von Objekten durch die einzelnen Umfeldsensoren des Fahrzeugs (Radarsensor 6, Kamera 7, Lidarsensor 8 sowie Ultraschallsensoren 9a-9d) und das anschließende Tracking bzw. Verfolgen der erfassten Objekte (Schritt I), um die Bewegung des Objekts zu erfassen.
-
Optional kann daran anschließend eine Sensorfusion (Schritt II) erfolgen, wobei die erfassten Objekte der einzelnen Sensoren in einem gemeinsamen Modell bzw. Umfeldmodell zusammengeführt werden, d. h. die erfassten Sensordaten der einzelnen Umfeldsensoren werden in einem Modell zusammengefasst, um die Objekterfassung und Objektverfolgung zu verbessern.
-
An einen der ersten beiden Schritte schließt sich dann die Bewertung der Interaktion der Objekte bzw. eine Interaktionsbewertung (Schritt III) an, bei der bewertet wird, ob die beobachte Bewegung eines Objektes die direkte Reaktion auf ein unbestätigtes Objekt ist. In diesem Schritt werden Objektpaare untersucht, die ein bestätigtes erstes Objekt (Fahrzeug T1), welches von mehreren Sensoren detektiert wurde (z. B. vom Radarsensor 6 und von Kamera 7 und Lidar 8), und ein unbestätigtes zweites Objekt (Fahrzeug T2), welches nur von einem Sensor detektiert wurde (z. B. nur vom Radarsensor 6), umfassen. Ziel ist es dabei, für ein Objektpaar (Fahrzeug T1, Fahrzeug T2) eine hohe Interaktionsbewertung (d. h. es liegt eine Interaktion vor) auszugeben, wenn z. B. die Bewegung vom bestätigten ersten Objekt bzw. Fahrzeug T1 direkt durch die Existenz des unbestätigten zweiten Objekts bzw. Fahrzeug T2 beeinflusst ist. Zunächst wird dazu die bisher beobachtete Trajektorie des bestätigten Objekts bzw. Fahrzeuges T2 herangezogen und in die nahe Zukunft prädiziert (dies kann mit bekannten Methoden zur Trajektorienprädiktion bzw. Trajektorienschätzung erfolgen). Dieser Schritt kann auch durch den Einsatz von Manöverdetektoren (Brems-, Beschleunigungs-, Spurwechseldetektoren) unterstützt werden. In gleicher Weise kann auch die Trajektorie des unbestätigten Objektes bzw. Fahrzeuges T2 geschätzt werden. Anschließend wird bewertet, ob die so geschätzte Trajektorie des Fahrzeuges T1 eine Gefahrensituation, z. B. eine Kollision mit Fahrzeug T2 oder der Trajektorie von Fahrzeug T2, innerhalb eines gewählten Prädiktionshorizontes verhindert wird. Zur Durchführung dieser Bewertung kann auch die hypothetische Trajektorie des bestätigten Objektes bzw. Fahrzeug T1 benutzt werden, bei der das Fahrzeug T1 sein aktuelles Manöver (Bremsen, Beschleunigen, Spurwechsel) nicht durchführt und stattdessen ohne Geschwindigkeitsänderung die Spur hält. Führt diese hypothetische Trajektorie zu einer Kollision zwischen dem bestätigten Objekt und dem unbestätigten Objekt bzw. zwischen Fahrzeug T1 und Fahrzeug T2, während die beobachtete und prädizierte Trajektorie (wahrscheinlich) kollisionsfrei ist, so führt das Objektpaar (Fahrzeug T1, Fahrzeug T2) zu einer positiven Interaktionsbewertung (d. h. es liegt eine Interaktion zwischen Fahrzeug T1 und Fahrzeug T2 vor).
-
Daran anschließend folgt eine Selektion der Objekte bzw. Objektselektion (Schritt IV) für die jeweilige Fahrfunktion unter Berücksichtigung der Interaktionsbewertung, wobei die relevanten Objekte für die gewählte Fahrfunktion selektiert werden. Während bei bisherigen Verfahren nur die von mehreren Sensoren bestätigten Objekte ausgewählt wurden, werden durch diese Abfolge nun auch Objekte ausgewählt werden, die nur von einem Sensor detektiert wurden, aber über eine ausreichende Interaktionsbewertung verfügen, d. h. miteinander interagieren.
-
Ferner ist insbesondere darauf hinzuweisen, dass die Erfindung nicht nur die Selektion von Objekten ermöglicht, die zwar ein Radarsensor erkennen kann, aber für andere optische Sensoren (wie z. B. Lidar oder Kamera) verdeckt sind. Es gibt ebenso Fahrsituationen, die von Kameras erfasst werden können, aber für einen Radarsensor nur schwer erkennbar sind. In 4 ist ein Beispiel einer derartigen Verkehrssituation gezeigt, bei der sich das stehende Fahrzeug T2 so nah an der Leitplanke am rechten Fahrbahnrand befindet, dass es vom Radarsensor nicht als einzelnes Fahrzeug erkannt wird. Ein optischer Sensor (z. B. Kamera oder Lidar) ist jedoch in der Lage das Fahrzeug T2 zu erkennen, da es eine direkte Sichtlinie gibt. Das Fahrzeug T1 vollzieht dabei einen Spurwechsel (angezeigt durch den schwarzen Pfeil, der die aktuelle Fahrttrajektorie des Fahrzeuges T1 zeigt), um eine Kollision mit Fahrzeug T2 zu verhindern. Diese Verkehrssituation wird von der vorliegenden Erfindung erkannt und als zusätzliche Evidenz für die tatsächliche Existenz des Fahrzeuges T2 herangezogen. Somit kann Fahrzeug T2 für verschiedene Fahrfunktionen mit höherer Konfidenz verwendet werden. Beispielsweise im Rahmen einer Verhinderung eines halbautomatischen Spurwechsels (SALC) oder beim Abbremsen des Egofahrzeugs im Falle eines Egospurwechsels nach rechts (ACC, EBA).