Nothing Special   »   [go: up one dir, main page]

DE102016212688A1 - Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs Download PDF

Info

Publication number
DE102016212688A1
DE102016212688A1 DE102016212688.1A DE102016212688A DE102016212688A1 DE 102016212688 A1 DE102016212688 A1 DE 102016212688A1 DE 102016212688 A DE102016212688 A DE 102016212688A DE 102016212688 A1 DE102016212688 A1 DE 102016212688A1
Authority
DE
Germany
Prior art keywords
vehicle
environment
data
environment data
obstacles
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102016212688.1A
Other languages
English (en)
Inventor
Daniel Wolf
Volker Wagner
Matthias Schlegel
Carolin Heller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102016212688.1A priority Critical patent/DE102016212688A1/de
Publication of DE102016212688A1 publication Critical patent/DE102016212688A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096791Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/38Electronic maps specially adapted for navigation; Updating thereof
    • G01C21/3804Creation or updating of map data
    • G01C21/3833Creation or updating of map data characterised by the source of data
    • G01C21/3848Data obtained from both position sensors and additional sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/001Planning or execution of driving tasks
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096716Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/096741Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096733Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
    • G08G1/09675Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4026Cycles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/50External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2556/00Input parameters relating to data
    • B60W2556/45External transmission of data to or from the vehicle
    • B60W2556/65Data transmitted between vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2756/00Output or target parameters relating to data
    • B60W2756/10Involving external transmission of data to or from the vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Atmospheric Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Human Computer Interaction (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten: Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik (11) eines ersten Fahrzeugs (10) gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs (10) umfassen; Übertragen der ersten Umfelddaten an ein zweites Fahrzeug (20); Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug (20), wodurch das Umfeld des zweiten Fahrzeugs (20) ermittelt wird.

Description

  • Fahrzeuge werden zunehmend mit Systemen ausgerüstet, welche aus Kamerabildern ein Anzeigenbild errechnen, welche den Fahrer des Fahrzeugs bei der Durchführung von Fahrmanövern, beispielsweise Einparken oder Rückwärtsfahren, unterstützt. Während des Fahrens trifft der Fahrer des Fahrzeugs durch Unterstützung eines solchen Systems Entscheidungen, um sein Fahrzeug sicher im Straßenverkehr zu lenken. Darüber hinaus kann ein solches bildgebendes System den Fahrer bei seiner Orientierung in der Umgebung unterstützen, so dass er beispielsweise leichter zu seinem Fahrziel gelangen kann. Um dem Fahrer ein möglichst realistisches Bild der Fahrzeugumgebung zu geben, werden auch zunehmend dreidimensionale Anzeigebilder auf einer Fahrzeuganzeige dargestellt, um den Fahrer bei der Entscheidungsfindung und Orientierung möglichst effizient zu unterstützen.
  • Bei solchen Systemen kommt es in vielen Fällen vor, dass andere Verkehrsteilnehmer, wie z.B. andere Fahrzeuge, Fussgänger oder Hindernisse, vollständig oder teilweise durch andere Objekte verdeckt sind, so dass eine realistische Anzeige des verdeckten Verkehrsteilnehmers nicht möglich ist. Beispielsweise handelt es sich hierbei um eine Verkehrssituation, bei dem sich ein Fahrzeug und weitere Fahrzeugobjekte auf einer mehrspurigen Straße begegnen. Überholt im Gegenverkehr ein erstes Fahrzeugobjekt ein zweites Fahrzeugobjekt und verdeckt das erste Fahrzeugobjekt das zweite Fahrzeugobjekt zumindest teilweise, so können an dem Fahrzeug befindliche Kameras das überholte zweite Fahrzeugobjekt unter Umständen nur teilweise oder sogar gar nicht erfassen. Hierdurch bedingt kann der Fahrer bei einer Fahrentscheidung und seiner Orientierung im Verkehrsfluss unter Umständen eine falsche Entscheidung treffen.
  • Zur realistischen und eindeutigen Darstellung der in der Umgebung eines Fahrzeugs befindlichen Objekte ist z.B. aus der WO 2015/144145 A2 ein Verfahren bekannt, bei dem eine Klassifikation von Objekten in sensorisch erfassten Umgebungsbildern erfolgt, die Objekte aufweisen, die sich in der Umgebung des Fahrzeugs befinden, wobei die Objekte anhand von Objektmerkmalen zur Erkennung eines Objekttyps des jeweiligen Objekts klassifiziert werden. Es erfolgt ein Einfügen eines dem erkannten Objekttyp des Objekts entsprechenden dreidimensionalen Datenmodels zur Generierung einer 3D-Szene, welche die Umgebung des Fahrzeugs darstellt, sowie das Anzeigen der generierten 3D-Szene auf der Fahrzeuganzeige. Dadurch kann die Sicherheit bei der Durchführung von Fahrzeugmanövern gesteigert werden.
  • Obwohl eine Vielzahl von Fahrzeugen mittlerweile mit mehreren Kameras, die an unterschiedlichen Stellen des Fahrzeugs angeordnet sind, ausgestattet sind, ist der Erfassungsbereich unter Umständen nicht groß genug, um von anderen Objekten verdeckte Verkehrsteilnehmer oder Hindernisse sicher zu erfassen. Dadurch ist die Unterstützung von Fahrmanövern durch Fahrerassistenzsysteme mit teil- oder hochautonomen Fahrfunktionen nur eingeschränkt möglich.
  • Es ist Aufgabe der vorliegenden Erfindung ein Verfahren und eine Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs anzugeben, bei denen Objekte in einem weiten Umfeld des Fahrzeugs sicher erkannt werden, so dass der Fahrer bei Fahrentscheidungen und seiner Orientierung im Verkehrsfluss effizient unterstützt wird und Fahrentscheidungen durch teil- oder hochautomatisierte Fahrerassistenzsysteme übernommen werden können.
  • Diese Aufgabe wird durch ein Verfahren gemäß den Merkmalen des Patentanspruchs 1 und eine Vorrichtung gemäß den Merkmalen des Patentanspruchs 12 gelöst. Vorteilhafte Ausgestaltungen finden sich in den abhängigen Patentansprüchen.
  • Die Erfindung schafft ein Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten:
    Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik eines ersten Fahrzeugs gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs umfassen;
    Übertragen der ersten Umfelddaten an ein zweites Fahrzeug;
    Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug, wodurch das Umfeld des zweiten Fahrzeugs ermittelt wird.
  • Die Umfeldsensorik des ersten Fahrzeugs, das in Bezug auf das zweite Fahrzeug ein vorausfahrendes oder nachfolgendes Fahrzeug sein kann, kann eine oder mehrere Kameras und/oder ein Radarsystem und/oder Lidarsystem umfassen. Die von der Umfeldsensorik gewonnenen ersten Umfelddaten umfassen Objektdaten. Die Objektdaten repräsentieren das Vorhandensein und örtliche Informationen anderer Verkehrsteilnehmer. Örtliche Informationen können beispielsweise durch GPS-Koordinaten bereitgestellt werden, welche aus der bekannten Position des ersten Fahrzeugs und der Analyse der ersten Umfelddaten gewonnen werden können. Die Objektdaten können um Fahrzeugsignale, wie z.B. eine Geschwindigkeit des ersten Fahrzeugs sowie der durch die Umfeldsensorik erfassten anderen Verkehrsteilnehmer, ergänzt sein. Andere Verkehrsteilnehmer können andere Fahrzeuge, Zweiräder, Personen oder Radfahrer sein. Unter Hindernissen im Sinne der vorliegenden Erfindung sind stehende Fahrzeuge, Stauenden, Schranken (z.B. Bahnschranken), kreuzende Verkehrsteilnehmer, aber auch statische Hindernisse, wie z.B. Bäume und dergleichen, zu verstehen.
  • Durch die Verarbeitung der von dem ersten Fahrzeug gewonnenen ersten Umfelddaten durch das zweite Fahrzeug wird das „Sichtfeld“ des zweiten Fahrzeugs nach vorne und/oder hinten erweitert, wodurch einerseits der Fahrer bei Fahrentscheidungen und seiner Orientierung im Verkehrsfluss effizient unterstützt wird und andererseits teil- oder hochautomatisierte Fahrfunktionen von Fahrerassistenzsystemen des Fahrzeugs mit präziseren Daten versorgt werden können.
  • Gemäß einer zweckmäßigen Ausgestaltung umfasst der Schritt des Bereitstellens der ersten Umfelddaten zusätzlich das Bereitstellen von Umfelddaten, die mit einer Umfeldsensorik eine Infrastrukturkomponente gewonnen werden. Gemäß dieser Ausgestaltung wird das Sichtfeld des zweiten Fahrzeugs nicht nur mit, durch das erste Fahrzeug erfassten, ersten Umfelddaten erweitert, sondern zusätzlich mit Umfelddaten, die durch eine Infrastrukturkomponente gewonnen werden. Zu solchen Infrastrukturkomponenten zählen beispielsweise Kamerasysteme an Tunneln, Kreuzungen und dergleichen.
  • Eine weitere Ausgestaltung sieht vor, dass als erste Umfelddaten Bildinformationen ermittelt werden, indem Bilddaten der Umgebung durch die Umfeldsensorik des ersten Fahrzeugs und/oder durch die Infrastrukturkomponente erfasst und die Bilddaten zu den Bildinformationen verarbeitet werden. Hierzu verfügt das erste Fahrzeug, wie eingangs erwähnt, über eine oder mehrere Kameras zur Erfassung und Erzeugung von Bilddaten der Umgebung. Alternativ oder zusätzlich können die von einer oder mehreren Kameras der Infrastrukturkomponente bereitgestellten Bilddaten zu den Bildinformationen verarbeitet werden, um dann als erste Umfelddaten bereitgestellt zu werden.
  • Es ist weiterhin zweckmäßig, wenn als erste Umfelddaten der Ort einer Verkehrsweg-Infrastrukturkomponente, umfassend zumindest ein Verkehrszeichen oder eine Fahrspur, ermittelt wird. Diese Informationen können, wie unten beschrieben wird, einerseits zur Visualisierung für den Fahrer des zweiten Fahrzeugs genutzt werden. Andererseits können beispielsweise von einem vorausfahrenden ersten Fahrzeug gewonnene Informationen über ein Verkehrszeichen dazu genutzt werden, die Fahrstrategie eines Fahrerassistenzsystems anzupassen.
  • Zweckmäßigerweise werden die ersten Umfelddaten zur Adaption einer Fahrfunktion des zweiten Fahrzeugs verarbeitet. Die Adaption der Fahrfunktion kann beispielsweise einen Eingriff in ein teil- oder hochautomatisiertes Fahrerassistenzsystem oder eines vollautomatisierten Fahrersystems umfassen. Solche Eingriffe umfassen beispielsweise einen Beschleunigungs- oder Ausrollvorgang, einen Bremsvorgang und dergleichen.
  • Es ist weiterhin zweckmäßig, wenn die ersten Umfelddaten auf einer Anzeigeeinheit des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug mitgeführten mobilen Endgerät als Bilddaten ausgegeben werden. Beispielsweise können die ersten Umfelddaten in eine Kartendarstellung integriert werden. Alternativ können die ersten Umfelddaten dazu genutzt werden, eine sog. Top-View-Darstellung des Umfelds des zweiten Fahrzeugs mit den Objektdaten anderer Verkehrsteilnehmer und/oder Hindernissen anzureichern.
  • Dazu können gemäß einer Ausgestaltung durch eine Umfeldsensorik des zweiten Fahrzeugs zweite Umfelddaten gewonnen werden, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des zweiten Fahrzeugs umfassen, wobei die ersten und die zweiten Umfelddaten zusammen auf der Anzeigeeinheit des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden. Gemäß dieser Ausgestaltung ist vorgesehen, zur Unterstützung des Fahrers bei seinen Fahrentscheidungen und seiner Orientierung im Verkehrsfluss nicht nur die ersten Umfelddaten des ersten Fahrzeugs, sondern auch oder nur die von seinem, zweiten Fahrzeug erfassten Umfelddaten zu visualisieren und miteinander zu kombinieren. Gemäß einer weiteren zweckmäßigen Ausgestaltung werden die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten erweitert, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in dem ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des zweiten Fahrzeugs umfasst.
  • Die Kombination, kann, wie bereits beschrieben, durch das Hinzufügen von Objektdaten der ersten und zweiten Umfelddaten zu einer Kartendarstellung, zu einer dreidimensionalen Ansicht oder zu der bereits erwähnten Top-View-Darstellung erfolgen.
  • Verfügt das zweite Fahrzeug über keine Anzeigeeinheit, so können diese Informationen auch auf einem, in dem zweiten Fahrzeug mitgeführten mobilen Endgerät, z.B. einem Smartphone oder Tablet-PC, als die Bilddaten ausgegeben werden. Dadurch lässt sich das Verfahren auch in solchen Fahrzeugen nutzen, welche über keine geeignete Anzeigeeinheit zur visuellen Ausgabe der Bilddaten verfügen.
  • Eine weitere Ausgestaltung sieht vor, dass die ersten Umfelddaten von einer Fahrzeugkommunikationseinheit des ersten Fahrzeugs direkt durch eine zweite Fahrzeugkommunikationseinheit des zweiten Fahrzeugs über einen drahtlosen Kommunikationskanal empfangen werden. Als drahtlose Übertragungstechnologien kommen beispielsweise 801.xy oder ein beliebiges Mobilfunknetzwerk, z.B. GSM oder LTE, in Betracht. Eine direkte Übertragung der ersten Umfelddaten an das zweite Fahrzeug ist beispielsweise dann zweckmäßig, wenn das erste und das zweite Fahrzeug Systemkomponenten vom gleichen Hersteller, ggf. sogar mit gleicher Algorithmik, verwenden. In diesem Fall ist die Verarbeitung der ersten Umfelddaten durch das zweite Fahrzeug besonders einfach möglich.
  • Können die ersten Umfelddaten hingegen nicht direkt durch das zweite Fahrzeug verarbeitet werden, so kann der Empfang der ersten Umfelddaten des ersten Fahrzeugs durch das zweite Fahrzeug von einem zentralen Rechner oder einem Cloud-Service zweckmäßig sein, da hier durch den zentralen Rechner oder den Cloud-Service bereits eine Transformation in ein Datenformat formbar ist, welches durch das zweite Fahrzeug verarbeitbar ist.
  • Gemäß einem zweiten Aspekt schlägt die Erfindung eine Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs vor, die eine Fahrzeugkommunikationseinheit des Fahrzeugs und eine Recheneinheit des Fahrzeugs umfasst, wobei die Recheneinheit dazu ausgebildet ist, erste Umfelddaten, die mit einer Umfeldsensorik eines anderen Fahrzeugs gewonnen werden und die zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des anderen Fahrzeugs umfassen, von dem anderen Fahrzeug zu empfangen und zu verarbeiten. Die erfindungsgemäße Vorrichtung weist die gleichen Vorteile auf, wie diese vorstehend in Verbindung mit dem erfindungsgemäßen Verfahren beschrieben wurden.
  • Die ersten Umfelddaten können durch die Recheneinheit zur Adaption einer Fahrfunktion des Fahrzeugs verarbeitet werden. Insbesondere kann hiermit beim Vorhandensein entsprechender Fahrerassistenzsysteme eine Anpassung der Fahrstrategie eines teil- oder hochautonomen Fahrers angepasst werden.
  • Gemäß einer weiteren Ausgestaltung umfasst die Vorrichtung zweckmäßigerweise eine Umfeldsensorik zur Gewinnung zweiter Umfelddaten des Fahrzeugs, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse in dem Umfeld des Fahrzeugs umfassen, wobei die ersten und zweiten Umfelddaten durch die Recheneinheit zusammen auf der Anzeigeeinheit des Fahrzeugs oder einem in dem Fahrzeug mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden.
  • Gemäß einer weiteren Ausgestaltung ist die Recheneinheit dazu ausgebildet, die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten zu erweitern, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des Fahrzeugs umfasst.
  • Die Erfindung wird nachfolgend näher anhand von Ausführungsbeispielen in der Zeichnung beschrieben. Es zeigen:
  • 1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs;
  • 2 eine schematische Darstellung einer Verkehrssituation, anhand der das erfindungsgemäße Verfahren gemäß einer ersten Ausgestaltungsvariante erläutert wird; und
  • 3 eine schematische Darstellung einer Verkehrssituation, anhand der das erfindungsgemäße Verfahren gemäß einer zweiten Ausgestaltungsvariante erläutert wird.
  • 1 zeigt eine schematische Darstellung einer in einem zweiten Fahrzeug 20 verwirklichten erfindungsgemäßen Vorrichtung zur Nutzung von Umfelddaten, die von einem ersten Fahrzeug 10 ermittelt wurden. Das erste Fahrzeug 10 umfasst eine Umfeldsensorik 11, eine Recheneinheit 12 sowie eine Fahrzeugkommunikationseinheit 13. Das zweite Fahrzeug 20 umfasst eine Umfeldsensorik 21, eine Recheneinheit 22, eine Fahrzeugkommunikationseinheit 23, eine Anzeigeeinheit 24 und zumindest ein Fahrerassistenzsystem 25.
  • Die Umfeldsensoriken 11, 21 des ersten und des zweiten Fahrzeugs 10, 20 können jeweils ein oder mehrere Kameras und/oder ein Radar- und/oder Lidarsystem umfassen. Mit Hilfe der Umfeldsensoriken 11, 21 werden erste bzw. zweite Umfelddaten gewonnen, wobei die jeweiligen Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten bzw. zweiten Fahrzeugs 10, 20 umfassen.
  • Bei dem ersten Fahrzeug 10 handelt es sich um ein in Bezug auf das zweite Fahrzeug 20 vorausfahrendes oder nachfolgendes Fahrzeug. Dabei ist es für die Durchführung des erfindungsgemäßen Verfahrens nicht zwingend notwendig, dass ein Sichtkonkakt zwischen dem ersten und dem zweiten Fahrzeug besteht. Insbesondere können sich zwischen dem ersten und dem zweiten Fahrzeug 10, 20 weitere Fahrzeuge oder Verkehrsteilnehmer befinden. Dadurch bedingt können sich die von dem ersten Fahrzeug 10 erfassten ersten Umfelddaten von den von dem zweiten Fahrzeug 20 erfassten zweiten Umfelddaten vollständig unterscheiden. Sollten das erste und das zweite Fahrzeug zueinander eine nur geringe räumliche Distanz aufweisen, so können sich die ersten und die zweiten Umfelddaten auch überschneiden.
  • Die in den jeweiligen Umfelddaten des ersten und des zweiten Fahrzeugs 10, 20 enthaltenen Objektdaten umfassen das Vorhandensein von anderen Verkehrsteilnehmern. Je nachdem, auf welche Weise die Umfelddaten durch die jeweilige Recheneinheit 12, 22 des ersten bzw. zweiten Fahrzeugs 10, 20 aufbereitet wurden, können die anderen Verkehrsteilnehmer bereits als Fahrzeuge, Zweiräder, Personen oder Radfahrer klassifiziert sein. Die Objektdaten können darüber hinaus um weitere Informationen des Verkehrsteilnehmers ergänzt sein. Solche Information können beispielsweise durch Auswertung der von der betreffenden Umfeldsensorik gelieferten Daten gewonnen werden. Aus diesen lassen sich beispielsweise Informationen über eine jeweilige Geschwindigkeit, eine Bewegungsrichtung und dergleichen ermitteln.
  • Die Objektdaten können darüber hinaus alternativ oder zusätzlich auch Hindernisse im Umfeld des betreffenden Fahrzeugs 10, 20 umfassen. Solche Hindernisse sind beispielsweise stehende Fahrzeuge, Stauenden, geschlossene Schranken von kreuzenden Bahnübergängen, kreuzende Verkehrsteilnehmer, aber auch statische Hindernisse, wie z.B. Bäume, Poller und dergleichen.
  • Das Umfeld des zweiten Fahrzeugs 20 kann dadurch verbessert werden, dass das zweite Fahrzeug 20 nicht nur die durch seine Umfeldsensorik 21 erfassten zweiten Umfelddaten verarbeitet, sondern zusätzlich die von der Fahrzeugkommunikationseinheit 13 des ersten Fahrzeugs 10 über eine Kommunikationsverbindung 30 übertragenen ersten Umfelddaten von der Fahrzeugkommunikationseinheit 23 des zweiten Fahrzeugs 20 empfangen und zusätzlich verarbeitet werden. Die Kommunikationsverbindung 30 wird durch eine drahtlose Übertragungstechnologie realisiert und kann beispielsweise existierende Kommunikationsnetzwerke, wie z.B. GSM oder LTE, ausnutzen. Ebenso könnte auch, sofern die Entfernung zwischen dem ersten und dem zweiten Fahrzeug 10, 20 nicht zu groß ist, auf einen Standard gemäß 801.xy zurückgegriffen werden.
  • Die Recheneinheit 22 des zweiten Fahrzeugs 20 verarbeitet die von dem ersten Fahrzeug 10 empfangenen ersten Umfelddaten. Eine solche Verarbeitung kann eine Visualisierung der in den ersten Umfelddaten enthaltenen anderen Verkehrsteilnehmer und/oder Hindernisse auf der Anzeigeeinheit 24 des zweiten Fahrzeugs 20 und/oder eine Verarbeitung durch das Fahrerassistenzsystem 25 umfassen, um beispielsweise eine Fahrstrategie des zweiten Fahrzeugs 20 teil- oder hochautomatisiert anzupassen.
  • Die Visualisierung von in den ersten Umfelddaten enthaltenen erkannten Objekten und/oder Hindernissen kann beispielsweise auf Wunsch des Fahrers des zweiten Fahrzeugs 20 oder automatisch in Abhängigkeit einer Fahrsituation, wie z.B. beim Einleiten eines Überholmanövers des zweiten Fahrzeugs 20 erfolgen. Die Verarbeitung der in den ersten Umfelddaten enthaltenen Objektdaten durch das Fahrerassistenzsystem könnte beispielsweise dazu führen, dass ein Überholvorgang eines vorausfahrenden Fahrzeugs nicht eingeleitet wird, da ein durch das vorausfahrende erste Fahrzeug 10 erfasstes, aber durch das zweite Fahrzeug 20 noch nicht erkennbares Objekt sich auf der Gegenfahrbahn dem zweiten Fahrzeug 20 annähert.
  • Eine auf der Anzeigeeinheit 24 angezeigte Bildinformation besteht somit aus mindestens einer von der Umfeldsensorik 11 des ersten Fahrzeugs 10 ermittelten Bildinformation, die als Bilddaten auf der Anzeigeeinheit 24 ausgegeben werden. Diese Daten können mit den aus der eigenen Umfeldsensorik 21 des zweiten Fahrzeugs 20 ermittelten Bilddaten kombiniert werden, so dass eine durch die eigene Umfeldsensorik 21 nicht erfasste oder erfassbare Blickrichtung darstellbar ist, wobei verdeckte Ansichten der eigenen Ansicht überlagert werden können. Ebenso ist eine zeitlich versetzte Darstellung von durch das erste Fahrzeug erfassten Verkehrsteilnehmern möglich, z.B. wenn das zweite Fahrzeug zu einem späteren Zeitpunkt zu dem Ort der Erfassung durch das erste Fahrzeug 10 gelangt.
  • Die ersten Umfelddaten können beispielsweise auch in Gestalt sogenannter Objektlisten bereitgestellt werden. Eine solche Objektliste umfasst beispielsweise alle, durch die Umfeldsensorik 11 des ersten Fahrzeugs 10 erfassten anderen Verkehrsteilnehmer und/oder Hindernisse, ggf. ergänzt um eine Klassifikation oder andere Bewegungsinformationen sowie Positionen. Die in einer solchen Objektliste über die Kommunikationsverbindung 30 übertragenen Daten können dann durch die Recheneinheit 22 des zweiten Fahrzeugs 20 für eine individuelle Darstellung, z.B. in einer Karte, verwertet werden.
  • Im Ergebnis lässt sich durch das vorgeschlagene Verfahren das Sichtfeld für den Fahrer sowie die Recheneinheit 22, je nachdem, ob das erste Fahrzeug 10 vor oder hinter dem zweiten Fahrzeug 20 fährt, nach vorne oder hinten erweitern, was die gültige Objekterkennung erhöht und ein Gefahrenpotential reduziert.
  • Es versteht sich, dass das zweite Fahrzeug 20 nicht nur erste Umfelddaten des ersten Fahrzeugs 10, sondern Umfelddaten von einer Mehrzahl von ersten Fahrzeugen 10, welche sich vor und/oder hinter dem zweiten Fahrzeug 20 befinden, empfangen und verarbeiten kann. Ebenso können in einer weiteren Ausgestaltung Umfelddaten auch von einer Infrastrukturkomponente gewonnen und über die Kommunikationsverbindung 30 von dem zweiten Fahrzeug 20 empfangen werden. Eine solche Infrastrukturkomponente kann beispielsweise eine oder mehrere Kameras an einer Tunneleinfahrt oder einer Kreuzung umfassen.
  • In Verbindung mit den 2 und 3 werden nachfolgend zwei Anwendungsfälle beschrieben. 2 zeigt auf seiner linken Seite eine Visualisierung des durch die Umfeldsensorik 21 des zweiten Fahrzeugs 20 erfassten Umfelds. Das Fahrzeug 20 soll sich in diesem Ausführungsbeispiel auf der rechten Fahrspur von unten nach oben in Zeichenebene bewegen. Mit dem Bezugszeichen 26 sind dabei durch die Umfeldsensorik 21 erfasste Verkehrsteilnehmer gekennzeichnet. Wie unschwer zu erkennen ist, befinden sich die Verkehrsteilnehmer 26 teilweise, in Fahrtrichtung des Fahrzeugs 20 vor dem Fahrzeug 20 sowie teilweise in entgegenkommender Richtung auf der benachbarten Fahrspur. Mit dem Bezugszeichen 10 ist das erste Fahrzeug gekennzeichnet, das im vorliegenden Beispiel dem Fahrzeug 20 vorausfährt. Die von der Umfeldsensorik 11 des Fahrzeugs 10 ermittelten Objektdaten (d.h. Verkehrsteilnehmer oder Hindernisse) sind mit 16 gekennzeichnet. Die Objektdaten 16 werden im Fahrzeug 20 zur Verfügung gestellt. Das Fahrzeug 20 kann anhand dieser Daten seine Fahrfunktionen, z.B. ein Fahrerassistenzsystem, eine Längs- oder Querregelung, bis hin zu einem automatisierten oder autonomen Fahren, verbessern. Die Objektdaten 16, die durch das erste Fahrzeug 10 ermittelt wurden, werden durch die Recheneinheit 23 verarbeitet und sind für den Fahrzeugnutzer ggf. nicht sichtbar bzw. äußern sich nur in der verbesserten Fahrfunktion. Alternativ oder zusätzlich können diese in einer Kartendarstellung einer Fahrzeugeigenen Anzeigeeinheit, z.B. in einem Top-View-System, oder einem vom Fahrer mitgeführten mobilen Endgerät, angezeigt werden. In der rechten Hälfte zeigt 2 eine solche schematische Visualisierung der Verkehrssituation für das Fahrzeug 20. Dabei ist ohne Weiteres erkennbar, dass in dieser perspektivischen, schematischen Darstellung nicht nur die von der Umfeldsensorik 21 des Fahrzeugs 20 erfassten Objektdaten 26, sondern auch die Objektdaten 16 enthalten sind, die von der Umfeldsensorik 11 des ersten Fahrzeugs 10 ermittelt wurden.
  • Die ausgetauschten Daten können grundsätzlich beliebiger Art sein. Es ist nicht zwingend notwendig, dass die Objektdaten andere Verkehrsteilnehmer sind. Beispielsweise ist auch der Austausch erkannter Verkehrszeichen entlang der befahrenen Strecke denkbar. Dies ist beispielsweise in 3 dargestellt. Dabei bewegen sich die Fahrzeuge 10, 20 entlang der mit dem Bezugszeichen 40 gekennzeichneten Fahrstrecke 40. Aufgrund des Kurvenverlaufs der Fahrstrecke 40 kann der Fahrer des zweiten Fahrzeugs 20 das vorausfahrende erste Fahrzeug 10 sowie den von dem ersten Fahrzeug 10 befahrenen Streckenverlauf nicht erkennen. Über das vorausfahrende erste Fahrzeug 10 ist dem zweiten Fahrzeug 20 bekannt, dass in dem noch nicht einsehbaren Streckenabschnitt eine Geschwindigkeit von 80km/h gilt. Ein entsprechendes Verkehrsschild 41 mit der gültigen Höchstgeschwindigkeit wird von der Umfeldsensorik 11 des ersten Fahrzeugs 10 erfasst. Dies wird dem Fahrer des ersten Fahrzeugs 10 in einer Anzeigeeinheit 14 visualisiert. Die aktuelle Fahrgeschwindigkeit des zweiten Fahrzeugs 20 beträgt auf dem aktuell befahrenen Streckenabschnitt 100km/h, jedoch wurde das in Fahrtrichtung vorausliegende Verkehrszeichen 42 mit der künftigen Geschwindigkeitsbeschränkung 120km/h erkannt und beispielsweise auch auf der Anzeigeeinheit 24 des zweiten Fahrzeugs 20 visualisiert. Für eine vorausschauende, energiesparende Fahrweise der Längsdynamikregelung, z.B. eines intelligenten Fahrgeschwindigkeitreglers (Tempomat), erfolgt daher keine Beschleunigung auf 120km/h, sondern stattdessen ein Ausrollen auf 80km/h.
  • Der Austausch von Umfelddaten kann auch entgegen der Fahrtrichtung erfolgen. Zu einem Zeitpunkt t = x erkennt z.B. das erste Fahrzeug 10 ein drittes Fahrzeug, während ein viertes Fahrzeug durch das vorausfahrende dritte Fahrzeug (das keine Umfeldsensorik zur Durchführung des erfindungsgemäßen Verfahrens umfasst) verdeckt wird oder außerhalb des Erfassungsbereichs der Umfeldsensorik des ersten Fahrzeugs 20 ist. Das vierte Fahrzeug und dessen Geschwindigkeit werden aber durch das erste Fahrzeug 10 erfasst. Durch den Austausch von Daten mit dem zweiten Fahrzeug 20 kann ein beabsichtigter Spurwechsel für einen in der Zukunft liegenden Zeitpunkt verhindert werden. Aufgrund der durch den Datenaustausch angereicherten Information zum verdeckten vierten Fahrzeug wird erkannt, dass nach dem Spurwechsel der Sicherheitsabstand zu gering wäre bzw. das vierte Fahrzeug behindert würde. Der Spurwechsel wird dann nach dem Passieren des vierten Fahrzeugs ausgeführt oder zugelassen.
  • Bezugszeichenliste
  • 10
    erstes Fahrzeug
    11
    Umfeldsensorik
    12
    Recheneinheit
    13
    Fahrzeugkommunikationseinheit
    14
    Anzeigeeinheit
    16
    erkanntes Objekt (Verkehrsteilnehmer)
    20
    zweites Fahrzeug
    21
    Umfeldsensorik
    22
    Recheneinheit
    23
    Fahrzeugkommunikationseinheit
    24
    Anzeigeeinheit
    25
    Fahrerassistenzsystem
    26
    erkanntes Objekt (Verkehrsteilnehmer)
    30
    Kommunikationsverbindung
    40
    Fahrstrecke
    41
    Fahrstrecke
    42
    Fahrstrecke
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • WO 2015/144145 A2 [0003]

Claims (15)

  1. Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten: Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik (11) eines ersten Fahrzeugs (10) gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs (10) umfassen; Übertragen der ersten Umfelddaten an ein zweites Fahrzeug (20); Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug (20), wodurch das Umfeld des zweiten Fahrzeugs (20) ermittelt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt des Bereitstellens der ersten Umfelddaten das Bereitstellen von Umfelddaten umfasst, die mit einer Umfeldsensorik einer Infrastrukturkomponente gewonnen werden.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als erste Umfelddaten Bildinformationen ermittelt werden, indem Bilddaten der Umgebung durch die Umfeldsensorik (11) des ersten Fahrzeugs und/oder die Infrastrukturkomponente erfasst und die Bilddaten zu den Bildinformationen verarbeitet werden.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als erste Umfelddaten der Ort einer Verkehrswegeinfrastrukturkomponente, umfassend zumindest ein Verkehrszeichen oder eine Fahrspur, ermittelt wird.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ersten Umfelddaten zur Adaption einer Fahrfunktion des zweiten Fahrzeugs (20) verarbeitet werden.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Adaption der Fahrfunktion einen Eingriff in ein teil- oder hochautomatisiertes Fahrerassistenzsystem oder eines vollautomatisierten Fahrsystems umfasst.
  7. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ersten Umfelddaten auf einer Anzeigeeinheit (24) des zweiten Fahrzeugs (20) oder einem in dem zweiten Fahrzeug (20) mitgeführten mobilen Endgerät als Bilddaten ausgegeben werden.
  8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass durch eine Umfeldsensorik (21) des zweiten Fahrzeugs (20) zweite Umfelddaten gewonnen werden, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des zweiten Fahrzeugs (20) umfassen, wobei die ersten und die zweiten Umfelddaten zusammen auf der Anzeigeeinheit (24) des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug (20) mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten erweitert werden, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des zweiten Fahrzeugs (20) umfasst.
  10. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die ersten Umfelddaten von einer ersten Fahrzeugkommunikationseinheit (13) des ersten Fahrzeugs (10) direkt durch eine zweite Fahrzeugkommunikationseinheit (23) des zweiten Fahrzeugs (20) über einen drahtlosen Kommunikationskanal empfangen werden.
  11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem die ersten Umfelddaten des ersten Fahrzeugs (10) durch das zweite Fahrzeug (20) von einem zentralen Rechner oder einem Cloud-Service empfangen werden.
  12. Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs (20), umfassend: eine Fahrzeugkommunikationseinheit (23) des Fahrzeugs (20); eine Recheneinheit (22) des Fahrzeugs (20), wobei die Recheneinheit (22) dazu ausgebildet ist, erste Umfelddaten, die mit einer Umfeldsensorik (11) eines anderen Fahrzeugs (10) gewonnen werden und die zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des anderen Fahrzeugs (10) umfassen, von dem anderen Fahrzeug (10) zu empfangen und zu verarbeiten.
  13. Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die ersten Umfelddaten durch die Recheneinheit (22) zur Adaption einer Fahrfunktion des Fahrzeugs (20) verarbeitet werden.
  14. Vorrichtung nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass diese eine Umfeldsensorik (21) zur Gewinnung zweiter Umfelddaten des Fahrzeugs (20) umfasst, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des Fahrzeugs (20) umfassen, wobei die ersten und die zweiten Umfelddaten durch die Recheneinheit (22) zusammen auf der Anzeigeeinheit (24) des Fahrzeugs oder einem in dem Fahrzeug (20) mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden.
  15. Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Recheneinheit (22) dazu ausgebildet ist, die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten zu erweitern, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des Fahrzeugs (20) umfasst.
DE102016212688.1A 2016-07-12 2016-07-12 Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs Withdrawn DE102016212688A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102016212688.1A DE102016212688A1 (de) 2016-07-12 2016-07-12 Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102016212688.1A DE102016212688A1 (de) 2016-07-12 2016-07-12 Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102016212688A1 true DE102016212688A1 (de) 2018-01-18

Family

ID=60782483

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102016212688.1A Withdrawn DE102016212688A1 (de) 2016-07-12 2016-07-12 Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102016212688A1 (de)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019001092A1 (de) * 2019-02-14 2020-03-26 Daimler Ag Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger
WO2020173778A1 (de) * 2019-02-26 2020-09-03 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
WO2020173772A1 (de) * 2019-02-26 2020-09-03 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
DE102019208498A1 (de) * 2019-06-12 2020-12-17 Robert Bosch Gmbh Verfahren zum Optimieren eines Umfeldmodells
DE102021202124A1 (de) 2021-03-04 2022-09-08 Volkswagen Aktiengesellschaft Verfahren zum Bestimmen eines Fahrbahntyps einer Fahrbahn, Computerprogrammprodukt sowie Assistenzsystem
DE102021125608A1 (de) 2021-10-04 2023-04-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Umfelderkennung von Fahrzeugen
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
DE102022207197A1 (de) 2022-07-14 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung
US12037005B2 (en) 2019-02-26 2024-07-16 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US12037006B2 (en) 2019-02-26 2024-07-16 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US12043275B2 (en) 2019-02-26 2024-07-23 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008010119A1 (de) * 2007-02-21 2008-11-20 Denso Corp., Kariya-shi Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen
DE102009008745A1 (de) * 2009-02-12 2010-08-19 Volkswagen Ag Verfahren und System zur automatischen Verkehrsführung
DE102010006084A1 (de) * 2009-02-03 2010-10-07 GM Global Technology Operations, Inc., Detroit Kombinierte Fahrzeug-zu-Fahrzeug-Kommunikation und Objektdetektierungserfassung
WO2015144145A2 (de) 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
DE102011115323B4 (de) * 2010-10-13 2015-10-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Identifizierung einer Fahrzeugbedrohung auf einem Vollwindschutzscheiben-Head-up-Display
DE202014006923U1 (de) * 2014-08-27 2015-11-30 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrassistenzsystem, Computerprogrammprodukt sowie Kraftfahrzeug

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008010119A1 (de) * 2007-02-21 2008-11-20 Denso Corp., Kariya-shi Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen
DE102010006084A1 (de) * 2009-02-03 2010-10-07 GM Global Technology Operations, Inc., Detroit Kombinierte Fahrzeug-zu-Fahrzeug-Kommunikation und Objektdetektierungserfassung
DE102009008745A1 (de) * 2009-02-12 2010-08-19 Volkswagen Ag Verfahren und System zur automatischen Verkehrsführung
DE102011115323B4 (de) * 2010-10-13 2015-10-15 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Identifizierung einer Fahrzeugbedrohung auf einem Vollwindschutzscheiben-Head-up-Display
WO2015144145A2 (de) 2014-03-25 2015-10-01 Conti Temic Microelectronic Gmbh Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
DE202014006923U1 (de) * 2014-08-27 2015-11-30 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Fahrassistenzsystem, Computerprogrammprodukt sowie Kraftfahrzeug

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019001092A1 (de) * 2019-02-14 2020-03-26 Daimler Ag Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger
US12037005B2 (en) 2019-02-26 2024-07-16 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
WO2020173778A1 (de) * 2019-02-26 2020-09-03 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
WO2020173772A1 (de) * 2019-02-26 2020-09-03 Volkswagen Aktiengesellschaft Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem
CN113439035A (zh) * 2019-02-26 2021-09-24 大众汽车股份公司 用于运行自我车辆中的驾驶员信息系统的方法和驾驶员信息系统
CN113692360A (zh) * 2019-02-26 2021-11-23 大众汽车股份公司 用于运行自我车辆中的驾驶员信息系统的方法和驾驶员信息系统
US12043275B2 (en) 2019-02-26 2024-07-23 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US12037006B2 (en) 2019-02-26 2024-07-16 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11762616B2 (en) 2019-02-26 2023-09-19 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
US11807260B2 (en) 2019-02-26 2023-11-07 Volkswagen Aktiengesellschaft Method for operating a driver information system in an ego-vehicle and driver information system
DE102019208498A1 (de) * 2019-06-12 2020-12-17 Robert Bosch Gmbh Verfahren zum Optimieren eines Umfeldmodells
DE102021202124A1 (de) 2021-03-04 2022-09-08 Volkswagen Aktiengesellschaft Verfahren zum Bestimmen eines Fahrbahntyps einer Fahrbahn, Computerprogrammprodukt sowie Assistenzsystem
DE102021125608A1 (de) 2021-10-04 2023-04-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zur Umfelderkennung von Fahrzeugen
DE102022207197A1 (de) 2022-07-14 2024-01-25 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung

Similar Documents

Publication Publication Date Title
DE102016212688A1 (de) Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs
DE102017203838B4 (de) Verfahren und System zur Umfelderfassung
EP3213260B1 (de) Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld
DE102012200950B3 (de) Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr
DE102017217297B4 (de) System zur Erzeugung und/oder Aktualisierung eines digitalen Modells einer digitalen Karte
EP3830522B1 (de) Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm
DE102016211182A1 (de) Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie
DE102016210254A9 (de) Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps
EP3123450B1 (de) Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige
WO2015000882A1 (de) Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs
EP3151213B1 (de) Fahrzeugvorrichtung sowie verfahren zur aufzeichnung eines umgebungsbereichs eines kraftfahrzeugs
DE102008041679A1 (de) Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung
DE102009008745A1 (de) Verfahren und System zur automatischen Verkehrsführung
WO2017054956A1 (de) Verfahren und system zum ermitteln von verkehrsteilnehmern mit interaktionspotential
DE102018119882A1 (de) Übertragen von Bilddaten, die von einer Fahrzeugkamera aufgenommen werden
DE102013201796A1 (de) Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem
DE102017215316A1 (de) Verfahren zum Unterstützen eines Benutzers beim Betreiben eines Kraftfahrzeugs im Anhängerbetrieb, Fahrerassistenzeinrichtung, und Kraftfahrzeug
DE112014005007T5 (de) Informationsmeldevorrichtung, Informationsmeldesystem, Informationsmeldeverfahren und Informationsmeldeprogramm
DE102021202955B4 (de) Verfahren zur Gefahrenabwendung innerhalb eines Verkehrsvernetzungssystems
DE102017201538A1 (de) Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt
DE102018128634A1 (de) Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem
DE102017209370B4 (de) Verfahren zur Ermittlung einer Überholinformation
DE102019001092A1 (de) Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger
DE102017129713A1 (de) Verfahren zur Verringerung des Gefahrenpotentials infolge von eingeschränkter Sicht im Straßenverkehr
DE102015203192A1 (de) Verkehrssteuerung

Legal Events

Date Code Title Description
R163 Identified publications notified
R005 Application deemed withdrawn due to failure to request examination