Nothing Special   »   [go: up one dir, main page]

DE102017205245A1 - Freibereichsfusion für Fahrerassistenzsysteme - Google Patents

Freibereichsfusion für Fahrerassistenzsysteme Download PDF

Info

Publication number
DE102017205245A1
DE102017205245A1 DE102017205245.7A DE102017205245A DE102017205245A1 DE 102017205245 A1 DE102017205245 A1 DE 102017205245A1 DE 102017205245 A DE102017205245 A DE 102017205245A DE 102017205245 A1 DE102017205245 A1 DE 102017205245A1
Authority
DE
Germany
Prior art keywords
prediction
free
free area
area
motor vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017205245.7A
Other languages
English (en)
Inventor
Simon Steinmeyer
Daniel Mossau
Marek Musial
Oliver Birbach
Patrick Glässer
Mirko Mählisch
Markus Beier
Hubert Strautz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Audi AG
Volkswagen AG
Original Assignee
Audi AG
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Audi AG, Volkswagen AG filed Critical Audi AG
Priority to DE102017205245.7A priority Critical patent/DE102017205245A1/de
Publication of DE102017205245A1 publication Critical patent/DE102017205245A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0137Measuring and analyzing of parameters relative to traffic conditions for specific applications
    • G08G1/0141Measuring and analyzing of parameters relative to traffic conditions for specific applications for traffic information dissemination
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/141Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces
    • G08G1/143Traffic control systems for road vehicles indicating individual free spaces in parking areas with means giving the indication of available parking spaces inside the vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/14Traffic control systems for road vehicles indicating individual free spaces in parking areas
    • G08G1/145Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas
    • G08G1/147Traffic control systems for road vehicles indicating individual free spaces in parking areas where the indication depends on the parking areas where the parking area is within an open public zone, e.g. city centre
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/06Automatic manoeuvring for parking

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Chemical & Material Sciences (AREA)
  • Analytical Chemistry (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren und eine Vorrichtung zur Verifizierung einer Prädiktion einer Fahrerassistenzfunktion eines Fahrerassistenzsystems eines Kraftfahrzeugs erfolgt mit den Schritten:- Bestimmen der Prädiktion der Fahrerassistenzfunktion,- Ermitteln des Freibereichs des Kraftfahrzeugs,- Verifizieren der Prädiktion anhand des ermittelten Freibereichs, und Ausführen der Fahrerassistenzfunktion anhand der verifizierten Prädiktion.

Description

  • Die Erfindung betrifft ein Verfahren zur Freibereichsfusion bei Fahrerassistenzsystemen gemäß dem Oberbegriff des Anspruchs 1 sowie eine entsprechende Vorrichtung gemäß dem Oberbegriff des Anspruchs 10.
  • Heutige Parkassistenzsysteme automatisieren nur die Querregelung, also das Lenken, vollständig, wobei die Längsregelung weiter in der vom Fahrer vorgenommen wird. Zukünftige Parkassistenzsysteme, wie der Intelligent Park Assist, werden zusätzlich die Längsregelung während eines Parkvorganges übernehmen, wobei der Fahrer nur noch als Systemüberwacher fungiert. In einer weiteren Ausbaustufe wird der Fahrer diese Überwachungsaufgabe außerhalb des Fahrzeuges wahrnehmen und in Zukunft sind auch Systeme ohne Fahrerüberwachung denkbar.
  • An solchen Systemen bestehen erhöhte Anforderungen an die Umfeldwahrnehmung, da das Fahrzeug dem Fahrer immer mehr Aufgaben abnimmt und der Fahrer als Kontrollinstanz bei Fehlern wegfällt.
  • Ferner berücksichtigen aktuelle Parkassistenzsysteme nur erkannte Hindernisse zur Parklückensuche und zum Einparken. Hierbei werden alle Bereiche, die keine Hindernisse aufweisen als frei angenommen, obwohl nicht alle Bereiche durch eingeschränkte Sensorreichweite, Verdeckung oder Umwelteinflüssen vermessen worden sind. Dies führt dazu, dass dem Fahrer Parklücken angeboten werden die nicht da sind oder das System in Bereiche lenkt in denen ein Hindernis steht das nicht gesehen werden konnte. Daher hat die Aussage „nichts gesehen“ eine andere Qualität in der Aussagekraft als „frei gesehen“ und dieser Umstand wird in aktuellen Parksystemen nicht berücksichtigt. Dies gilt nicht nur für Parkassistenzsysteme, sondern auch für viele andere Fahrerassistenzsysteme, insbesondere wenn diese höhere Automatisierungsgrade erreichen sollen.
  • In aktuellen Parksystemen werden durch Situationsanalyse einige erkannte Parklücken verworfen, da es wahrscheinlich ist, dass diese in einem Bereich liegen in denen der Sensor nicht gemessen hat. Ein Beispiel wären hierbei Kurvenfahrten.
  • Bei Kurvenfahrten kann der kurveninnere Ultraschallsensor unter Umständen nicht weit genug messen um die dort geparkten Fahrzeuge zu detektieren. Es entsteht also eine Parklücke auch wenn dort ein Fahrzeug geparkt ist. Daher werden alle nach Kurvenfahrten erkannten Parklücken verworfen. Nachteil hierbei ist, dass auch richtig vermessen Lücken verworfen werden.
  • Auch bei anderen aktuellen Fahrerassistenzsystemen, wie Emergency Assist oder Adaptive Cruise Control wird zurzeit keine Freibereichsinformation verwendet, um die Qualität und Sicherheit zu steigern.
  • In einem in der Druckschrift DE 101 32 386 A1 beschriebenen Fahrerassistenzsystem bzw. Verfahren zum Assistieren eines Fahrers eines Kraftfahrzeugs wird eine Vorhersage der aktuellen Situation des Umfelds des Kraftfahrzeugs aus erfassten Informationen über die äußere Umgebung des Kraftfahrzeugs abgeleitet, und es wird, basierend auf dieser Situationsvorhersage eine Entscheidung über Gegenmaßnahmen getroffen, wobei eine Vorhersage der Fahrerreaktion getroffen wird, und die Fahrerreaktionsvorhersage und die Situationsvorhersage miteinander verknüpft werden, um zu einer Entscheidung über Gegenmaßnahmen zu gelangen.
  • Die Druckschrift DE 10 2014 111 186 A1 beschreibt ein Verfahren zum Anzeigen eines erfassten Bilds in einer Anzeigeeinrichtung eines gefahrenen Fahrzeugs. Es wird eine Szene außerhalb des gefahrenen Fahrzeugs durch zumindest eine sichtbasierte Bildgebungseinrichtung, die an dem gefahrenen Fahrzeug angebracht ist, erfasst. Es werden Objekte in der Nähe des gefahrenen Fahrzeugs erkannt. Ein Bild der erfassten Szene wird durch einen Prozessor erzeugt. Das Bild wird dynamisch erweitert, um erkannte Objekte in dem Bild zu umfassen. Die erkannten Objekte werden in dem dynamisch erweiterten Bild hervorgehoben. Die hervorgehobenen Objekte identifizieren Fahrzeuge in der Nähe des gefahrenen Fahrzeugs, die potentielle Kollisionen für das gefahrene Fahrzeug darstellen. Das dynamisch erweiterte Bild wird mit hervorgehobenen Objekten in der Anzeigeeinrichtung angezeigt.
  • Die Druckschrift EP 2 107 504 A1 beschreibt ein Verfahren zum Beobachten der Umgebung eines Fahrzeugs, wobei dieses auf dem Übertragen eines fahrzeugseitig erzeugten dreidimensionalen Vektormodells an eine externe Stelle basiert. Das dreidimensionale Vektormodell der Fahrzeugumgebung wird basierend auf Umfeldbilddaten generiert, die von mindestens einer dreidimensionalen Kamera generiert werden.
  • Aus diesen Bilddaten werden spezielle Bilddaten zum Erzeugen des Vektormodells extrahiert, um das Datenvolumen und die notwendigen Übertragungsbandbreite zu reduzieren.
  • Der Erfindung liegt daher die Aufgabe zugrunde das Leistungsvermögen von Fahrerassistenzsystemen durch die Verwendung von Freibereichen zu verbessern.
  • Diese Aufgabe wird durch ein Verfahren mit den Merkmalen des Anspruchs 1 und durch eine entsprechende Vorrichtung mit den Merkmalen des Anspruchs 10 gelöst. Bevorzugte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Das erfindungsgemäße Verfahren zur Verifizierung einer Prädiktion einer Fahrerassistenzfunktion eines Fahrerassistenzsystems eines Kraftfahrzeugs erfolgt mit den Schritten:
    • - Bestimmen der Prädiktion der Fahrerassistenzfunktion,
    • - Ermitteln des Freibereichs des Kraftfahrzeugs,
    • - Verifizieren der Prädiktion anhand des ermittelten Freibereichs, und
    • - Ausführen der Fahrerassistenzfunktion anhand der verifizierten Prädiktion.
  • Durch die Verifikation der Prädiktion anhand des ermittelten Freibereichs wird die Sicherheit erhöht, dass die Prädiktion zur Ausführung der Fahrerassistenzfunktion geeignet ist.
  • Vorzugsweise wird die Prädiktion der Fahrerassistenzfunktion durch eine Parklücke, einen Fahrschlauch, eine Trajektorie und/oder einen Nothalt gebildet. Wird daher beispielsweise die Prädiktion durch eine Parklücke gebildet, d.h. die Fahrerassistenzfunktion eines Parkassistenten hat eine Parklücke ermittelt, die zum Einparken geeignet ist, so kann diese ermittelte Parklücke aber beispielsweise in einer Kurve liegen, so dass ein sicheres Einparken nicht gegeben ist. Die vom System ermittelte, in der Kurve liegende Parklücke ist daher eine Möglichkeit im Sinne einer Prädiktion. Kann diese prädizierte Parklücke durch den Freibereich verifiziert werden, so ist die Parklücke zum Einparken geeignet und die Fahrerassistenzfunktion kann den Einparkvorgang ausführen.
  • Weiter bevorzugt erfolgt die Verifizierung der Prädiktion durch eine Überlappung der Prädiktion mit dem ermittelten Freibereich, wobei insbesondere diejenige Prädiktion als optimal angesehen wird, deren Überlappung mit dem Freibereich maximal oder vollständig ist.
  • Vorzugsweise werden die von Sensoren des Kraftfahrzeugs ermittelten Freibereiche zur Ermittlung des Freibereichs um das Kraftfahrzeug zusammengefasst, plausibilisiert und zeitlich getrackt. Mit anderen Worten, die von den unterschiedlichen Sensoren ermittelten sensorspezifischen Freibereiche werden zu einem gemeinsamen Freibereich zusammengefasst, d.h. in geeigneter Weise fusioniert.
  • Vorzugsweise wird der Freibereich als Fläche um das Kraftfahrzeug ausgewiesen, wobei der Freibereich insbesondere als Bitmap oder als Polygonzug vorliegen kann.
  • Weiter bevorzugt wird der ermittelte Freibereich auf einem Display im Kraftfahrzeug dargestellt, so dass die Information dem Fahrer des Kraftfahrzeugs direkt zugänglich ist. Der erkannte Freibereich ist daher ein Bereich in einer von den Sensoren erstellten und auf dem Display dargestellten Umfeldkarte.
  • Das erfindungsgemäße Assistenzsystem zur Unterstützung des Fahrers eines Kraftfahrzeugs, wobei das Assistenzsystem zur Durchführung des im Vorangegangenen erläuterten Verfahrens eingerichtet und ausgelegt ist, umfasst
    • - mindestens eine Assistenzfunktion zur Ermittlung einer Prädiktion im Rahmen der Assistenzfunktion,
    • - eine Einrichtung zur Ermittlung eines Freibereichs um das Kraftfahrzeug,
    • - eine Einrichtung zur Verifikation der Prädiktion anhand des Freibereichs, und
    • - eine Einrichtung zur Ausführung der Assistenzfunktion nach der Verifikation der Prädiktion.
  • Weiter bevorzugt wird das Fahrerassistenzsystem durch einen Parkassistenten, eine Geschwindigkeitsregelung, eine Ausweichassistenz oder ein Nothaltsystem gebildet.
  • Eine bevorzugte Ausführungsform der Erfindung wird nachfolgend anhand der Zeichnung beschrieben. Dabei zeigt
    • 1 eine Beispiel einer Freibereichsfusion bezüglich des Umfeldes eines Fahrzeugs.
  • Von allen Sensoren eines Fahrzeugs wird verlangt, dass sie neben erkannten Objekten auch Freibereiche sensieren und melden. Dabei wird unterschieden in Sensorsichtbereich, aktiven Freibereich und passiven Freibereich, welche in der weiteren Verarbeitungskette unterschiedlich behandelt werden. Eine feinere Unterteilung ist denkbar.
  • Hierbei gibt es je nach Sensor, Messprinzip und Messung unterschiedliche Ausprägungen, die für Sensoren und Fahrzeuge erläutert werden:
    • Bei Sensoren wird Folgendes festgelegt:
    • Physikalischer Sensorsichtbereich: Der Bereich in dem ein Sensor messen könnte, wird als physikalischer Sensorsichtbereich bezeichnet. Dieser Bereich kann als bereits vermessener Bereich in den nachgelagerten Prozessschritten wie der Fusion verwendet werden.
    • Sensorsicht-Freibereich: Laserscanner oder Ultraschallsensor emittieren pulsförmigen Schall oder Laserstrahlung. Kann keine Reflexion der emittierten Pulse detektiert werden, so wird angenommen, dass der Bereich im Sensorsichtbereich frei ist. Da nichts gemessen wurde und es möglich wäre, dass ein Objekt die emittierte Strahlung absorbiert haben könnte, wie dies beispielsweise bei Schneehaufen mit Ultraschall der Fall sein kann, wird dieser Freibereich als Sensorsicht-Freibereich gemeldet. Der Bereich, in dem dieser Freibereich gemeldet wird, kann identisch mit dem physikalischen Sensorsichtbereich sein. Häufig ist aber eine Reduzierung des Bereiches am Rand des Sensorsichtbereiches die Sensitivität vorteilhaft, da dort die Sensitivität eingeschränkt ist.
  • Ebenfalls kann eine Kamera einen Sensorsicht-Freibereich generieren, wenn kein Objekt in einem Bild detektiert werden konnte.
  • Bei allen Sensoren ist eine Selbstdiagnose vorteilhaft, die einen eingeschränkten oder blockierten Sensorsichtbereich erkennen können, wie zum Beispiel durch Verschmutzung oder Vereisung. In diesem Fall wird der Sensorsicht-Freibereich entsprechend reduziert oder vollständig unterdrückt.
  • Die Qualität des Sensorsicht-Freibereiches ist gering, da eine Nicht-Detektion von Objekten je nach Messprinzip und Objekteigenschaft, wie beispielsweise Reflektivität, kein seltenes Phänomen ist.
  • Passiver Freibereich: Der Laserscanner oder Ultraschallsensor hat ein Objekt detektiert. Nun wird der Bereich bis zu diesem Objekt als frei angenommen. Aufgrund der Reflexion kann eine Absorption durch ein anderes Objekt im Sichtstrahl in diesem Fall ausgeschlossen und der Bereich bis zum Objekt kann als frei angenommen werden. Gleiches gilt für Kamerasensoren, welche Objekte detektieren: Hier muss auch der Sichtstrahl zum Objekt frei sein.
  • Die Qualität von passiven Freibereichen ist im mittleren Niveau, da kleine Objekte eventuell nicht detektiert werden konnten, welche vor den detektierten Objekten liegen und man den Sichtstrahl fälschlicherweise als komplett frei annimmt, obwohl er nur partiell frei ist.
  • Aktiver Freibereich: Einige Sensoren können den Untergrund direkt vermessen und somit auch direkt einen Freibereich generieren. Hierzu zählen Kamerasysteme mit entsprechenden Algorithmen. Sowohl Stereokameras als auch Monokameras mit Structure-from-Motion-Algorithmen können 3D-Punkte auf dem Boden erkennen und nach Clustering Freiflächen auf der Bodenebene schätzen. Gleiches gilt für Laserscanner, welche so ausgerichtet sind, dass sie auch wesentliche Teile der Straße vermessen. Auch diese generieren 3D-Punkte, welche den Bereich der Bodenebene aktiv frei vermelden können.
  • Der aktive Freibereich hat die höchste Qualität, da die freie Bodenebene durch direkte Messungen bestätigt werden konnte und nicht durch indirekte Effekte generiert wurde.
  • Für dynamische Objekte, wie für Fahrzeuge, kann der Freibereich wie folgt generiert werden:
    • Sicherer Freibereich: Eine Besonderheit stellt das eigene Fahrzeug dar. Dort wo das Fahrzeug gefahren ist, muss zwangsläufig frei gewesen sein. Dieser Bereich wird in den nachgelagerten Prozessschritten als sicher frei modelliert. Dieses ist beispielsweise bei Rangiermanövern von Parkassistenzsystemen von hoher Bedeutung.
    • Bewegte Fremdfahrzeuge: Ebenso können dynamische Fremdfahrzeuge, welche durch ein Objekttracking erfasst worden sind, als virtueller Freibereichssensor genutzt werden.
  • Wenn diese Fahrzeuge einen Bereich verlassen haben, kann dieser als „frei“ angenommen werden. Zum Tracking können beliebig viele objekterkennende Sensoren genutzt werden, wobei solche besonders vorteilhaft sind, die Objektkonturen genau vermessen können, wie dies bei Laser oder Kamerasensoren der Fall ist.
  • In der Fusion werden die gemeldeten Freibereiche zusammengefasst, plausibilisiert und zeitlich getrackt. Ebenso werden die verschiedenen Arten der Freibereiche entsprechend ihrer Gewichtung verarbeitet. Als Erweiterung kann auch ein Confidence Level für den gemeldeten Freibereich verwendet werden. Dieser Confidence Level kann entweder global für einen Sensor angesetzt werden und für alle gemeldeten Freibereiche dieses Sensors verwendet werden oder von dem Sensor selbst für jeden gemeldeten Freibereich bestimmt werden. Anhand der Klassifizierung des Confidence Levels und unter Berücksichtigung der gemeldeten Objekte wird durch die Fusion ein Bereich bestimmt in dem frei gemessen wurde. Hierbei wird ein Schwellwert verwendet ab wann der Bereich als sicher frei erkannt wurde. Der Freibereich wird als Fläche ausgewiesen in der aber auch Löcher auftreten können. Löcher können entstehen wenn ein Objekt im Freibereich liegt, aber auch wenn die Wahrscheinlichkeit für einen Freibereich unterhalb des Schwellwertes liegt. Der Freibereich kann z.B. als Bitmap oder auch Polygonzug ausgegeben werden.
  • Neben Freibereichsmessungen sind auch Objektmessungen wichtig, welche den fusionierten Freibereich an der entsprechenden Stelle deplausibilisieren, sodass ein konsistentes Bild mit den detektierten Objekten generiert wird.
  • Eine Darstellung der Freiraumbestimmung findet sich in der Masterarbeit von Ruimin Zou: „Freiraumbestimmung auf Basis von Occupancy-Gridmaps“, Technische Universität Darmstadt, 12. April 2012, veröffentlicht unter:
    http://www.ausy.informatik.tu-darmstadt.de/uploads/Theses/Zhou_MScThesis_2012.pdf
  • 1 zeigt einen mit den oben geschilderten Definitionen erzeugten Freibereich FB mit der Kontur KFB, der um ein Fahrzeug FZ mit dem fahrzeugfesten Koordinatensystem KS angeordnet ist. Die Sensorik (nicht dargestellt) des Fahrzeugs hat im Umfeld des Fahrzeugs FZ die Hindernisse H1 bis H7 detektiert und aus den Daten den dargestellten Freibereich FB mit der Kontur KFB ermittelt. Dabei weist der hier dargestellte Freibereich FB ein Loch FBL auf, dessen Zustandekommen oben erläutert ist.
  • Die Darstellung des erfassten Umfelds des Fahrzeugs FZ mit den Hindernissen H1 bis H7 sowie der Kontur KFB des Freibereichs FB und dem Koordinatensystem KS kann optisch beispielsweise in einem Display zusammen mit weiteren relevanten Informationen (nicht dargestellt) dargestellt werden.
  • Basierend auf der fortlaufenden Freibereichsermittlung im Umfeld des Fahrzeugs wird der Freibereich bei diversen Fahrerassistenzsystemen eingesetzt, um deren Effektivität und/oder die Sicherheit zu erhöhen, wie dies in den nachfolgenden Beispielen erläutert wird.
  • Verbesserte Lückenerkennung bei Parkassistenten
    1. 1. Start (aktuelle Position des Fahrzeugs)
    2. 2. Parkplatzsuche: Es werden Kandidatenparkplätze mit folgenden Mitteln gesucht:
      1. a. In der Umgebungskarte werden Lücken gesucht, die durch Objekte begrenzt sind, sodass das Egofahrzeug in die Lücke hineinpasst, was dem Stand der Technik entspricht.
      2. b. Es werden Parkplatzmarkierungen mittels Kamera gesucht, die einen Parkplatz begrenzen.
      3. c. Mittels Lokalisierung und Kartendaten werden bekannte Parkplätze identifiziert, welche hinterlegt worden sind.
    3. 3. Parkplatzvalidierung:
      • Kandidatenplätze werden in die Umgebungskarte projiziert. Ein Parkplatz ist nur dann valide, wenn der Freibereich zumindest soweit mit dem Kandidatenparkplatz überlappt, sodass eine Belegung des Parkplatzes durch ein Fremdfahrzeug unwahrscheinlich ist.
    4. 4. Validierte Parkplätze werden genutzt:
      1. a. Um eine Zielposition für automatisierte Parkassistenzsysteme zu generieren, insbesondere eine mittige Position in der Parklücke.
      2. b. Diese werden zu einem Server (Cloud) geschickt, um eine aktuelle Parkauslastungsinformation für andere Benutzer / Fahrzeuge nutzbar zu machen.
  • Dieses Vorgehen bietet die folgenden Vorteile:
    • - Es erfolgt keine Meldung von Parklücken in nicht vermessenen Bereichen, wodurch nur validierte Parkplätz angeboten werden, und
    • - die höhere Sicherheit und Redundanz erlaubt einen höheren Automatisierungsgrad der Parkassistenzfunktion.
  • Geschwindigkeitsregelung aufgrund sicheren Freibereiches
    1. 1. Start (aktuelle Position des Fahrzeugs).
    2. 2. Bestimmung des Fahrschlauches anhand lokaler Sensordaten und Matching mittels digitaler Kartendaten durch:
      • Messung der Umgebung durch verschiedene Sensoren, Fusion der Messdaten in eine Umfeldkarte und Extraktion des Freibereiches aus dieser Umfeldkarte.
    3. 3. Erweiterung des Fahrschlauches mittels eines wahrscheinlichsten Fahrkorridors:
      • Durch Information der aktuellen Geschwindigkeit (Tachometer, GPS, IMU etc.) und Fahrtrichtung (Fahrtrichtungsgeber), sowie Zielposition (autonomes Fahren, Eingabe Navi, Parkplatzposition) lässt sich der wahrscheinlichste Fahrkorridor prädizieren. Bei der Prädiktion werden Wegstreckendaten berücksichtigt wie z.B. Kurven, Stoppschilder, etc.
    4. 4. Überlappung des prädizierten Fahrschlauches mit Freibereich der Umfeldkarte.
    5. 5. Bestimmung, wieweit der Freibereich im Fahrschlauch reicht, wodurch sich die Größe der „gesicherten freien Weglänge“ ergibt.
    6. 6. Bestimmung der neuen Sollgeschwindigkeit:
      • basierend auf der „gesicherten freien Weglänge“ wird die maximale Sollgeschwindigkeit bestimmt. Eine mögliche Auslegung kann der geschätzte Bremsweg sein, sodass das Ego-Fahrzeug noch im Fahrkorridor stehen bleibt. Weiterhin müssen Geschwindigkeitsbeschränkungen durch Verkehrszeichen und/oder Navigationskarten bzw. beachtet werden.
    7. 7. Übergabe Sollgeschwindigkeit an den Längsregler und Einregeln der neuen Geschwindigkeit.
  • Die beschriebene Geschwindigkeitsregelung ermöglicht insbesondere, dass ein Fahrzeug bei sensorisch schlecht einsehbaren Kurven, wie beispielsweise beim Abbiegen, stärker die Geschwindigkeit senkt, als wenn diese sensorisch gut einsehbar ist.
  • Die Berücksichtigung des Freibereiches erhöht außerdem die Sicherheit automatisierter Fahrfunktionen und ermöglicht höhere Automatisierungsgrade.
  • Ausweichassistenz
    • 1. Start.
    • 2. Prädiktion einer Kollision mit einem Objekt.
    • 3 Bestimmung einer Trajektorie im Freibereich:
      • Anhand von Umfeldinformationen, d.h. Hindernissen und dynamische Objekten, werden verschiedene Trajektorien berechnet und anhand einer Kostenfunktion wird die „beste“ Trajektorie selektiert.
      • In die Kostenfunktion soll insbesondere der Freibereich aus der Umfeldkarte einfließen: Hierzu wird die Trajektorie mit dem Freibereich überlappt. Eine Trajektorie ist umso besser, je stärker sich der Freibereich mit der Trajektorie überschneidet bzw. je weiter sich die Trajektorie in den Freibereich erstreckt. Auch kann die Qualität des Freibereiches (Konfidenz, Typ) genutzt werden, um zwei mögliche Trajektorien zu bewerten.
    • 4. Übergabe der besten Trajektorie an die Längs- und Querregelung des Fahrzeugs, so dass diese assistiert oder automatisiert erfolgen kann.
  • Die Berücksichtigung des Freibereiches erhöht die Qualität der Ausweichtrajektorie, da unerwartete Objekte dort seltener zu erwarten sind.
  • Emergency Assist
  • Der Emergency Assist soll bei Ausfall des Fahrers beispielsweise durch einen medizinischen Notfall das Fahrzeug in einen sicheren Zustand bringen, wobei die derzeitige aktuelle Auslegung ist, dass das Fahrzeug im Fahrstreifen anhält, was in bestimmten Domänen, beispielsweise auf dem linken Fahrstreifen einer Autobahn oder einer uneinsehbaren Kurve auf einer Landstraße, unvorteilhaft ist.
  • Es soll daher das Fahrzeug möglichst abseits der Fahrstreifen zum Stehen gebracht werden, was das folgende Verfahren leistet:
    1. 1. Start.
    2. 2. Feststellung, dass der Fahrer keine Kontrolle über das Fahrzeug mehr ausübt (keine Regeleingriffe trotz Warnungen).
    3. 3. Aktivierung der Warnblinklichter und gegebenenfalls Reduktion der Geschwindigkeit.
    4. 4. Suche nach einem Kandidaten für eine Zielposition für den sicheren Zustand:
      • - Bestimmung der regulären Fahrstreifen der Fahrbahn aus Umfeld- und Navigationsdaten.
      • - Suche nach einer sicheren Zielposition, die folgende Kriterien erfüllt:
        • • Zielposition überlappt sich vollständig mit Freibereich der Umfeldkarte. Der Freibereich soll eine Mindestkonfidenz aufweisen.
        • • Es existierte eine Trajektorie, um die Zielposition zu erreichen. Diese soll möglichst auch vollständig mit dem Freibereich überlappen und ebenfalls eine Mindestkonfidenz aufweisen.
        • • Zielposition soll sich möglichst nicht oder nur wenig mit Fahrstreifen der Fahrbahn überlappen.
      • - Geeignete Zielpositionen sind beispielsweise Stand- oder Seitenstreifen.
    5. 5. Validierung der Trajektorie mittels dynamischer Objekte:
      • Die Trajektorie muss noch dahingehend validiert werden, dass keine dynamischen Objekte diese befahren. Hierzu werden die erkannten Objekte aus dem Objekttracking prädiziert, um festzustellen, ob diese die Kandidatentrajektorie kreuzt.
    6. 6. Übergabe der validierten Trajektorie an Längs- und Querregelung.
  • Visualisierung der Karte an den Fahrer
  • Die aus den Sensoren fusionierte Freibereichskarte wird dem Fahrer über ein Display des Infotainmentsystems oder ein Head-Up Display dargestellt. Durch die Fusion können somit auch übersichtlich das Ergebnis mehrerer Sensoren angezeigt werden.
  • Bezugszeichenliste
  • FZ
    Fahrzeug
    FB
    Freibereich
    FBL
    Loch im Freibereich
    KFB
    Kontur Freibereich
    KS
    Koordinatensystem fahrzeugfest
    H1
    Hindernis 1
    H2
    Hindernis 2
    H3
    Hindernis 3
    H4
    Hindernis 4
    H5
    Hindernis 5
    H6
    Hindernis 6
    H7
    Hindernis 7
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 10132386 A1 [0008]
    • DE 102014111186 A1 [0009]
    • EP 2107504 A1 [0010]

Claims (11)

  1. Verfahren zur Verifizierung einer Prädiktion einer Fahrerassistenzfunktion eines Fahrerassistenzsystems eines Kraftfahrzeugs (FZ) mit den Schritten: Bestimmen der Prädiktion der Fahrerassistenzfunktion, Ermitteln des Freibereichs (FB) des Kraftfahrzeugs (FZ), Verifizieren der Prädiktion anhand des ermittelten Freibereichs (FZ), und Ausführen der Fahrerassistenzfunktion anhand der verifizierten Prädiktion.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Prädiktion der Fahrerassistenzfunktion durch eine Parklücke, einen Fahrschlauch, eine Trajektorie und/oder einen Nothalt gebildet wird.
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass die Verifizierung der Prädiktion durch eine Überlappung der Prädiktion mit dem ermittelten Freibereich (FB) erfolgt.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass diejenige Prädiktion als optimal angesehen wird, deren Überlappung mit dem Freibereich (FB) maximal oder vollständig ist.
  5. Verfahren nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die von Sensoren des Kraftfahrzeugs (FZ) ermittelten Sensorfreibereiche zur Ermittlung des Freibereichs (FB) um das Kraftfahrzeug zusammengefasst, plausibilisiert und zeitlich getrackt werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Qualität des Freibereiches (FB) aufgrund der fusionierten Typen von Freibereichsmessungen und Häufigkeiten bestimmt wird.
  7. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Freibereich (FB) als Fläche um das Kraftfahrzeug (FZ) ausgewiesen ist.
  8. Verfahren nach Anspruch 5 oder 6, dadurch gekennzeichnet, dass der Freibereich (FB) als Bitmap oder als Polygonzug vorliegt.
  9. Verfahren nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, dass der Freibereich (FB) auf einem Display im Kraftfahrzeug dargestellt wird.
  10. Assistenzsystem zur Unterstützung des Fahrers eines Kraftfahrzeugs (FZ), wobei das Assistenzsystem zur Durchführung des Verfahrens nach einem der vorangegangenen Ansprüche eingerichtet und ausgelegt ist, mit mindestens einer Assistenzfunktion zur Ermittlung einer Prädiktion im Rahmen der Assistenzfunktion, einer Einrichtung zur Ermittlung eines Freibereichs (FB) um das Kraftfahrzeug (FZ), einer Einrichtung zur Verifikation der Prädiktion anhand des Freibereichs (FB), und einer Einrichtung zur Ausführung der Assistenzfunktion nach der Verifikation der Prädiktion.
  11. Assistenzsystem nach Anspruch 10, dadurch gekennzeichnet, dass das Fahrerassistenzsystem durch einen Parkassistenten, eine Geschwindigkeitsregelung, eine Ausweichassistenz oder ein Nothaltsystem gebildet wird.
DE102017205245.7A 2017-03-28 2017-03-28 Freibereichsfusion für Fahrerassistenzsysteme Pending DE102017205245A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102017205245.7A DE102017205245A1 (de) 2017-03-28 2017-03-28 Freibereichsfusion für Fahrerassistenzsysteme

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017205245.7A DE102017205245A1 (de) 2017-03-28 2017-03-28 Freibereichsfusion für Fahrerassistenzsysteme

Publications (1)

Publication Number Publication Date
DE102017205245A1 true DE102017205245A1 (de) 2018-10-04

Family

ID=63525274

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017205245.7A Pending DE102017205245A1 (de) 2017-03-28 2017-03-28 Freibereichsfusion für Fahrerassistenzsysteme

Country Status (1)

Country Link
DE (1) DE102017205245A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109532821A (zh) * 2018-11-09 2019-03-29 重庆长安汽车股份有限公司 融合泊车系统
DE102019107414A1 (de) * 2019-03-22 2020-09-24 Zf Automotive Germany Gmbh Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
EP3929048A1 (de) * 2018-11-15 2021-12-29 Volvo Car Corporation Sicheres anhalten eines fahrzeugs

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10132386A1 (de) 2001-07-06 2003-01-16 Volkswagen Ag Fahrerassistenzsystem
EP2107504A1 (de) 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit
DE102011084082A1 (de) * 2011-10-06 2013-04-11 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs und Unterstützungsvorrichtung
DE102014111186A1 (de) 2013-08-07 2015-02-12 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Objekthervorhebung und -erkennung bei Fahrzeugbildanzeigesystemen

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10132386A1 (de) 2001-07-06 2003-01-16 Volkswagen Ag Fahrerassistenzsystem
EP2107504A1 (de) 2008-03-31 2009-10-07 Harman Becker Automotive Systems GmbH Verfahren und Vorrichtung zur Erzeugung eines Umgebungsmodells für Fahrzeuge in Echtzeit
DE102011084082A1 (de) * 2011-10-06 2013-04-11 Robert Bosch Gmbh Verfahren zur Unterstützung eines Fahrers beim Fahren eines Fahrzeugs und Unterstützungsvorrichtung
DE102014111186A1 (de) 2013-08-07 2015-02-12 GM Global Technology Operations LLC (n. d. Gesetzen des Staates Delaware) Objekthervorhebung und -erkennung bei Fahrzeugbildanzeigesystemen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109532821A (zh) * 2018-11-09 2019-03-29 重庆长安汽车股份有限公司 融合泊车系统
EP3929048A1 (de) * 2018-11-15 2021-12-29 Volvo Car Corporation Sicheres anhalten eines fahrzeugs
US11608063B2 (en) 2018-11-15 2023-03-21 Volvo Car Corporation Vehicle safe stop
DE102019107414A1 (de) * 2019-03-22 2020-09-24 Zf Automotive Germany Gmbh Verfahren sowie Steuergerät für ein System zum Steuern eines Kraftfahrzeugs
US11378963B2 (en) 2019-03-22 2022-07-05 Zf Automotive Germany Gmbh Method and control unit for a system for controlling a motor vehicle

Similar Documents

Publication Publication Date Title
DE102009006113B4 (de) Vorrichtung und Verfahren zur Sensorfusion mit dynamischen Objekten
DE102008036009B4 (de) Verfahren zum Kollisionsschutz eines Kraftfahrzeugs und Parkhausassistent
DE102016112492B4 (de) Minimierung inkorrekter Sensordatenassoziationen für autonome Fahrzeuge
EP3386825B1 (de) Verfahren zum erkennen einer möglichen kollision zwischen einem kraftfahrzeug und einem objekt unter berücksichtigung einer räumlichen unsicherheit, steuereinrichtung, fahrerassistenzsystem sowie kraftfahrzeug
DE102017100029A1 (de) Vorhersage einer fahrerabsicht an einer kreuzung
DE102016111996A1 (de) Fahrassistent für Fahrzeuge
EP1731922A1 (de) Verfahren und Vorrichtung zum Bestimmen von Freiflächen in der Umgebung eines Kraftfahrzeuges
DE102016200018A1 (de) Fahrzeugfortbewegungssteuereinrichtung
DE102008040077A1 (de) Fahrerassistenzverfahren
DE102009047066A1 (de) Verfahren zur Warnung vor einem Objekt in der Umgebung eines Fahrzeugs sowie Fahrassistentensystem
EP2455250A1 (de) Verfahren zur Erfassung der Umgebung eines Fahrzeugs
DE102018218182B4 (de) Verfahren zur Positionsbestimmung eines Fahrzeugs
EP3024709B1 (de) Effizientes bereitstellen von belegungsinformationen für das umfeld eines fahrzeugs
DE102016117712A1 (de) Verfahren zum zumindest semi-autonomen Manövrieren eines Kraftfahrzeugs unter Berücksichtigung eines Erfassungsbereichs eines Sensors, Fahrerassistenzsystem sowie Kraftfahrzeug
DE102011105074A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Sichtweite für ein Fahrzeug
DE102017122969A1 (de) Fahrzeug mit umfeldkontextanalyse
DE102010003375B4 (de) Umfeldbewertungssystem in einem Fahrzeug mit Sensormitteln zur Erfassung von Objekten im Umfeld des Fahrzeuges
DE102017205245A1 (de) Freibereichsfusion für Fahrerassistenzsysteme
DE102014214506A1 (de) Verfahren zur Erstellung eines Umfeldmodells eines Fahrzeugs
EP3252502A1 (de) Verfahren zum erkennen einer neigung in einer fahrbahn eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102019204196B4 (de) Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels
DE102021127028A1 (de) Systeme und verfahren für anpassbare heckkollisionswarnmeldungen
DE102021122405A1 (de) Fahrzeugbetrieb entlang eines geplanten pfades
DE102021001176A1 (de) Verfahren zur Erkennung eines bevorstehenden Frontalzusammenstoßes zwischen zwei Fahrzeugen
DE102021203763A1 (de) Verfahren und Warnvorrichtung für ein Fahrzeug zur Ausgabe eines Warnsignals an einen Nutzer eines Fahrzeugs

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R082 Change of representative

Representative=s name: HOFSTETTER, SCHURACK & PARTNER - PATENT- UND R, DE