DE102016212688A1 - Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs - Google Patents
Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs Download PDFInfo
- Publication number
- DE102016212688A1 DE102016212688A1 DE102016212688.1A DE102016212688A DE102016212688A1 DE 102016212688 A1 DE102016212688 A1 DE 102016212688A1 DE 102016212688 A DE102016212688 A DE 102016212688A DE 102016212688 A1 DE102016212688 A1 DE 102016212688A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicle
- environment
- data
- environment data
- obstacles
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000012545 processing Methods 0.000 claims abstract description 10
- 238000004891 communication Methods 0.000 claims description 20
- 230000007613 environmental effect Effects 0.000 claims description 12
- 239000013589 supplement Substances 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000012800 visualization Methods 0.000 description 5
- 230000004888 barrier function Effects 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- BUHVIAUBTBOHAG-FOYDDCNASA-N (2r,3r,4s,5r)-2-[6-[[2-(3,5-dimethoxyphenyl)-2-(2-methylphenyl)ethyl]amino]purin-9-yl]-5-(hydroxymethyl)oxolane-3,4-diol Chemical compound COC1=CC(OC)=CC(C(CNC=2C=3N=CN(C=3N=CN=2)[C@H]2[C@@H]([C@H](O)[C@@H](CO)O2)O)C=2C(=CC=CC=2)C)=C1 BUHVIAUBTBOHAG-FOYDDCNASA-N 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013499 data model Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009365 direct transmission Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000000977 initiatory effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096766—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
- G08G1/096791—Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is another vehicle
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/38—Electronic maps specially adapted for navigation; Updating thereof
- G01C21/3804—Creation or updating of map data
- G01C21/3833—Creation or updating of map data characterised by the source of data
- G01C21/3848—Data obtained from both position sensors and additional sensors
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/08—Interaction between the driver and the control system
- B60W50/14—Means for informing the driver, warning the driver or prompting a driver intervention
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W60/00—Drive control systems specially adapted for autonomous road vehicles
- B60W60/001—Planning or execution of driving tasks
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096708—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
- G08G1/096716—Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information does not generate an automatic action on the vehicle control
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096733—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
- G08G1/096741—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where the source of the transmitted information selects which information to transmit to each vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/0962—Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
- G08G1/0967—Systems involving transmission of highway information, e.g. weather, speed limits
- G08G1/096733—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place
- G08G1/09675—Systems involving transmission of highway information, e.g. weather, speed limits where a selection of the information might take place where a selection from the received information takes place in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4026—Cycles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2554/00—Input parameters relating to objects
- B60W2554/40—Dynamic objects, e.g. animals, windblown objects
- B60W2554/402—Type
- B60W2554/4029—Pedestrians
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/50—External transmission of data to or from the vehicle of positioning data, e.g. GPS [Global Positioning System] data
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2556/00—Input parameters relating to data
- B60W2556/45—External transmission of data to or from the vehicle
- B60W2556/65—Data transmitted between vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W2756/00—Output or target parameters relating to data
- B60W2756/10—Involving external transmission of data to or from the vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Automation & Control Theory (AREA)
- Life Sciences & Earth Sciences (AREA)
- Atmospheric Sciences (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Mechanical Engineering (AREA)
- Transportation (AREA)
- Human Computer Interaction (AREA)
- Traffic Control Systems (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten: Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik (11) eines ersten Fahrzeugs (10) gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs (10) umfassen; Übertragen der ersten Umfelddaten an ein zweites Fahrzeug (20); Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug (20), wodurch das Umfeld des zweiten Fahrzeugs (20) ermittelt wird.
Description
- Fahrzeuge werden zunehmend mit Systemen ausgerüstet, welche aus Kamerabildern ein Anzeigenbild errechnen, welche den Fahrer des Fahrzeugs bei der Durchführung von Fahrmanövern, beispielsweise Einparken oder Rückwärtsfahren, unterstützt. Während des Fahrens trifft der Fahrer des Fahrzeugs durch Unterstützung eines solchen Systems Entscheidungen, um sein Fahrzeug sicher im Straßenverkehr zu lenken. Darüber hinaus kann ein solches bildgebendes System den Fahrer bei seiner Orientierung in der Umgebung unterstützen, so dass er beispielsweise leichter zu seinem Fahrziel gelangen kann. Um dem Fahrer ein möglichst realistisches Bild der Fahrzeugumgebung zu geben, werden auch zunehmend dreidimensionale Anzeigebilder auf einer Fahrzeuganzeige dargestellt, um den Fahrer bei der Entscheidungsfindung und Orientierung möglichst effizient zu unterstützen.
- Bei solchen Systemen kommt es in vielen Fällen vor, dass andere Verkehrsteilnehmer, wie z.B. andere Fahrzeuge, Fussgänger oder Hindernisse, vollständig oder teilweise durch andere Objekte verdeckt sind, so dass eine realistische Anzeige des verdeckten Verkehrsteilnehmers nicht möglich ist. Beispielsweise handelt es sich hierbei um eine Verkehrssituation, bei dem sich ein Fahrzeug und weitere Fahrzeugobjekte auf einer mehrspurigen Straße begegnen. Überholt im Gegenverkehr ein erstes Fahrzeugobjekt ein zweites Fahrzeugobjekt und verdeckt das erste Fahrzeugobjekt das zweite Fahrzeugobjekt zumindest teilweise, so können an dem Fahrzeug befindliche Kameras das überholte zweite Fahrzeugobjekt unter Umständen nur teilweise oder sogar gar nicht erfassen. Hierdurch bedingt kann der Fahrer bei einer Fahrentscheidung und seiner Orientierung im Verkehrsfluss unter Umständen eine falsche Entscheidung treffen.
- Zur realistischen und eindeutigen Darstellung der in der Umgebung eines Fahrzeugs befindlichen Objekte ist z.B. aus der
WO 2015/144145 A2 - Obwohl eine Vielzahl von Fahrzeugen mittlerweile mit mehreren Kameras, die an unterschiedlichen Stellen des Fahrzeugs angeordnet sind, ausgestattet sind, ist der Erfassungsbereich unter Umständen nicht groß genug, um von anderen Objekten verdeckte Verkehrsteilnehmer oder Hindernisse sicher zu erfassen. Dadurch ist die Unterstützung von Fahrmanövern durch Fahrerassistenzsysteme mit teil- oder hochautonomen Fahrfunktionen nur eingeschränkt möglich.
- Es ist Aufgabe der vorliegenden Erfindung ein Verfahren und eine Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs anzugeben, bei denen Objekte in einem weiten Umfeld des Fahrzeugs sicher erkannt werden, so dass der Fahrer bei Fahrentscheidungen und seiner Orientierung im Verkehrsfluss effizient unterstützt wird und Fahrentscheidungen durch teil- oder hochautomatisierte Fahrerassistenzsysteme übernommen werden können.
- Diese Aufgabe wird durch ein Verfahren gemäß den Merkmalen des Patentanspruchs 1 und eine Vorrichtung gemäß den Merkmalen des Patentanspruchs 12 gelöst. Vorteilhafte Ausgestaltungen finden sich in den abhängigen Patentansprüchen.
- Die Erfindung schafft ein Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten:
Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik eines ersten Fahrzeugs gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs umfassen;
Übertragen der ersten Umfelddaten an ein zweites Fahrzeug;
Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug, wodurch das Umfeld des zweiten Fahrzeugs ermittelt wird. - Die Umfeldsensorik des ersten Fahrzeugs, das in Bezug auf das zweite Fahrzeug ein vorausfahrendes oder nachfolgendes Fahrzeug sein kann, kann eine oder mehrere Kameras und/oder ein Radarsystem und/oder Lidarsystem umfassen. Die von der Umfeldsensorik gewonnenen ersten Umfelddaten umfassen Objektdaten. Die Objektdaten repräsentieren das Vorhandensein und örtliche Informationen anderer Verkehrsteilnehmer. Örtliche Informationen können beispielsweise durch GPS-Koordinaten bereitgestellt werden, welche aus der bekannten Position des ersten Fahrzeugs und der Analyse der ersten Umfelddaten gewonnen werden können. Die Objektdaten können um Fahrzeugsignale, wie z.B. eine Geschwindigkeit des ersten Fahrzeugs sowie der durch die Umfeldsensorik erfassten anderen Verkehrsteilnehmer, ergänzt sein. Andere Verkehrsteilnehmer können andere Fahrzeuge, Zweiräder, Personen oder Radfahrer sein. Unter Hindernissen im Sinne der vorliegenden Erfindung sind stehende Fahrzeuge, Stauenden, Schranken (z.B. Bahnschranken), kreuzende Verkehrsteilnehmer, aber auch statische Hindernisse, wie z.B. Bäume und dergleichen, zu verstehen.
- Durch die Verarbeitung der von dem ersten Fahrzeug gewonnenen ersten Umfelddaten durch das zweite Fahrzeug wird das „Sichtfeld“ des zweiten Fahrzeugs nach vorne und/oder hinten erweitert, wodurch einerseits der Fahrer bei Fahrentscheidungen und seiner Orientierung im Verkehrsfluss effizient unterstützt wird und andererseits teil- oder hochautomatisierte Fahrfunktionen von Fahrerassistenzsystemen des Fahrzeugs mit präziseren Daten versorgt werden können.
- Gemäß einer zweckmäßigen Ausgestaltung umfasst der Schritt des Bereitstellens der ersten Umfelddaten zusätzlich das Bereitstellen von Umfelddaten, die mit einer Umfeldsensorik eine Infrastrukturkomponente gewonnen werden. Gemäß dieser Ausgestaltung wird das Sichtfeld des zweiten Fahrzeugs nicht nur mit, durch das erste Fahrzeug erfassten, ersten Umfelddaten erweitert, sondern zusätzlich mit Umfelddaten, die durch eine Infrastrukturkomponente gewonnen werden. Zu solchen Infrastrukturkomponenten zählen beispielsweise Kamerasysteme an Tunneln, Kreuzungen und dergleichen.
- Eine weitere Ausgestaltung sieht vor, dass als erste Umfelddaten Bildinformationen ermittelt werden, indem Bilddaten der Umgebung durch die Umfeldsensorik des ersten Fahrzeugs und/oder durch die Infrastrukturkomponente erfasst und die Bilddaten zu den Bildinformationen verarbeitet werden. Hierzu verfügt das erste Fahrzeug, wie eingangs erwähnt, über eine oder mehrere Kameras zur Erfassung und Erzeugung von Bilddaten der Umgebung. Alternativ oder zusätzlich können die von einer oder mehreren Kameras der Infrastrukturkomponente bereitgestellten Bilddaten zu den Bildinformationen verarbeitet werden, um dann als erste Umfelddaten bereitgestellt zu werden.
- Es ist weiterhin zweckmäßig, wenn als erste Umfelddaten der Ort einer Verkehrsweg-Infrastrukturkomponente, umfassend zumindest ein Verkehrszeichen oder eine Fahrspur, ermittelt wird. Diese Informationen können, wie unten beschrieben wird, einerseits zur Visualisierung für den Fahrer des zweiten Fahrzeugs genutzt werden. Andererseits können beispielsweise von einem vorausfahrenden ersten Fahrzeug gewonnene Informationen über ein Verkehrszeichen dazu genutzt werden, die Fahrstrategie eines Fahrerassistenzsystems anzupassen.
- Zweckmäßigerweise werden die ersten Umfelddaten zur Adaption einer Fahrfunktion des zweiten Fahrzeugs verarbeitet. Die Adaption der Fahrfunktion kann beispielsweise einen Eingriff in ein teil- oder hochautomatisiertes Fahrerassistenzsystem oder eines vollautomatisierten Fahrersystems umfassen. Solche Eingriffe umfassen beispielsweise einen Beschleunigungs- oder Ausrollvorgang, einen Bremsvorgang und dergleichen.
- Es ist weiterhin zweckmäßig, wenn die ersten Umfelddaten auf einer Anzeigeeinheit des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug mitgeführten mobilen Endgerät als Bilddaten ausgegeben werden. Beispielsweise können die ersten Umfelddaten in eine Kartendarstellung integriert werden. Alternativ können die ersten Umfelddaten dazu genutzt werden, eine sog. Top-View-Darstellung des Umfelds des zweiten Fahrzeugs mit den Objektdaten anderer Verkehrsteilnehmer und/oder Hindernissen anzureichern.
- Dazu können gemäß einer Ausgestaltung durch eine Umfeldsensorik des zweiten Fahrzeugs zweite Umfelddaten gewonnen werden, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des zweiten Fahrzeugs umfassen, wobei die ersten und die zweiten Umfelddaten zusammen auf der Anzeigeeinheit des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden. Gemäß dieser Ausgestaltung ist vorgesehen, zur Unterstützung des Fahrers bei seinen Fahrentscheidungen und seiner Orientierung im Verkehrsfluss nicht nur die ersten Umfelddaten des ersten Fahrzeugs, sondern auch oder nur die von seinem, zweiten Fahrzeug erfassten Umfelddaten zu visualisieren und miteinander zu kombinieren. Gemäß einer weiteren zweckmäßigen Ausgestaltung werden die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten erweitert, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in dem ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des zweiten Fahrzeugs umfasst.
- Die Kombination, kann, wie bereits beschrieben, durch das Hinzufügen von Objektdaten der ersten und zweiten Umfelddaten zu einer Kartendarstellung, zu einer dreidimensionalen Ansicht oder zu der bereits erwähnten Top-View-Darstellung erfolgen.
- Verfügt das zweite Fahrzeug über keine Anzeigeeinheit, so können diese Informationen auch auf einem, in dem zweiten Fahrzeug mitgeführten mobilen Endgerät, z.B. einem Smartphone oder Tablet-PC, als die Bilddaten ausgegeben werden. Dadurch lässt sich das Verfahren auch in solchen Fahrzeugen nutzen, welche über keine geeignete Anzeigeeinheit zur visuellen Ausgabe der Bilddaten verfügen.
- Eine weitere Ausgestaltung sieht vor, dass die ersten Umfelddaten von einer Fahrzeugkommunikationseinheit des ersten Fahrzeugs direkt durch eine zweite Fahrzeugkommunikationseinheit des zweiten Fahrzeugs über einen drahtlosen Kommunikationskanal empfangen werden. Als drahtlose Übertragungstechnologien kommen beispielsweise 801.xy oder ein beliebiges Mobilfunknetzwerk, z.B. GSM oder LTE, in Betracht. Eine direkte Übertragung der ersten Umfelddaten an das zweite Fahrzeug ist beispielsweise dann zweckmäßig, wenn das erste und das zweite Fahrzeug Systemkomponenten vom gleichen Hersteller, ggf. sogar mit gleicher Algorithmik, verwenden. In diesem Fall ist die Verarbeitung der ersten Umfelddaten durch das zweite Fahrzeug besonders einfach möglich.
- Können die ersten Umfelddaten hingegen nicht direkt durch das zweite Fahrzeug verarbeitet werden, so kann der Empfang der ersten Umfelddaten des ersten Fahrzeugs durch das zweite Fahrzeug von einem zentralen Rechner oder einem Cloud-Service zweckmäßig sein, da hier durch den zentralen Rechner oder den Cloud-Service bereits eine Transformation in ein Datenformat formbar ist, welches durch das zweite Fahrzeug verarbeitbar ist.
- Gemäß einem zweiten Aspekt schlägt die Erfindung eine Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs vor, die eine Fahrzeugkommunikationseinheit des Fahrzeugs und eine Recheneinheit des Fahrzeugs umfasst, wobei die Recheneinheit dazu ausgebildet ist, erste Umfelddaten, die mit einer Umfeldsensorik eines anderen Fahrzeugs gewonnen werden und die zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des anderen Fahrzeugs umfassen, von dem anderen Fahrzeug zu empfangen und zu verarbeiten. Die erfindungsgemäße Vorrichtung weist die gleichen Vorteile auf, wie diese vorstehend in Verbindung mit dem erfindungsgemäßen Verfahren beschrieben wurden.
- Die ersten Umfelddaten können durch die Recheneinheit zur Adaption einer Fahrfunktion des Fahrzeugs verarbeitet werden. Insbesondere kann hiermit beim Vorhandensein entsprechender Fahrerassistenzsysteme eine Anpassung der Fahrstrategie eines teil- oder hochautonomen Fahrers angepasst werden.
- Gemäß einer weiteren Ausgestaltung umfasst die Vorrichtung zweckmäßigerweise eine Umfeldsensorik zur Gewinnung zweiter Umfelddaten des Fahrzeugs, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse in dem Umfeld des Fahrzeugs umfassen, wobei die ersten und zweiten Umfelddaten durch die Recheneinheit zusammen auf der Anzeigeeinheit des Fahrzeugs oder einem in dem Fahrzeug mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden.
- Gemäß einer weiteren Ausgestaltung ist die Recheneinheit dazu ausgebildet, die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten zu erweitern, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des Fahrzeugs umfasst.
- Die Erfindung wird nachfolgend näher anhand von Ausführungsbeispielen in der Zeichnung beschrieben. Es zeigen:
-
1 eine schematische Darstellung einer erfindungsgemäßen Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs; -
2 eine schematische Darstellung einer Verkehrssituation, anhand der das erfindungsgemäße Verfahren gemäß einer ersten Ausgestaltungsvariante erläutert wird; und -
3 eine schematische Darstellung einer Verkehrssituation, anhand der das erfindungsgemäße Verfahren gemäß einer zweiten Ausgestaltungsvariante erläutert wird. -
1 zeigt eine schematische Darstellung einer in einem zweiten Fahrzeug20 verwirklichten erfindungsgemäßen Vorrichtung zur Nutzung von Umfelddaten, die von einem ersten Fahrzeug10 ermittelt wurden. Das erste Fahrzeug10 umfasst eine Umfeldsensorik11 , eine Recheneinheit12 sowie eine Fahrzeugkommunikationseinheit13 . Das zweite Fahrzeug20 umfasst eine Umfeldsensorik21 , eine Recheneinheit22 , eine Fahrzeugkommunikationseinheit23 , eine Anzeigeeinheit24 und zumindest ein Fahrerassistenzsystem25 . - Die Umfeldsensoriken
11 ,21 des ersten und des zweiten Fahrzeugs10 ,20 können jeweils ein oder mehrere Kameras und/oder ein Radar- und/oder Lidarsystem umfassen. Mit Hilfe der Umfeldsensoriken11 ,21 werden erste bzw. zweite Umfelddaten gewonnen, wobei die jeweiligen Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten bzw. zweiten Fahrzeugs10 ,20 umfassen. - Bei dem ersten Fahrzeug
10 handelt es sich um ein in Bezug auf das zweite Fahrzeug20 vorausfahrendes oder nachfolgendes Fahrzeug. Dabei ist es für die Durchführung des erfindungsgemäßen Verfahrens nicht zwingend notwendig, dass ein Sichtkonkakt zwischen dem ersten und dem zweiten Fahrzeug besteht. Insbesondere können sich zwischen dem ersten und dem zweiten Fahrzeug10 ,20 weitere Fahrzeuge oder Verkehrsteilnehmer befinden. Dadurch bedingt können sich die von dem ersten Fahrzeug10 erfassten ersten Umfelddaten von den von dem zweiten Fahrzeug20 erfassten zweiten Umfelddaten vollständig unterscheiden. Sollten das erste und das zweite Fahrzeug zueinander eine nur geringe räumliche Distanz aufweisen, so können sich die ersten und die zweiten Umfelddaten auch überschneiden. - Die in den jeweiligen Umfelddaten des ersten und des zweiten Fahrzeugs
10 ,20 enthaltenen Objektdaten umfassen das Vorhandensein von anderen Verkehrsteilnehmern. Je nachdem, auf welche Weise die Umfelddaten durch die jeweilige Recheneinheit12 ,22 des ersten bzw. zweiten Fahrzeugs10 ,20 aufbereitet wurden, können die anderen Verkehrsteilnehmer bereits als Fahrzeuge, Zweiräder, Personen oder Radfahrer klassifiziert sein. Die Objektdaten können darüber hinaus um weitere Informationen des Verkehrsteilnehmers ergänzt sein. Solche Information können beispielsweise durch Auswertung der von der betreffenden Umfeldsensorik gelieferten Daten gewonnen werden. Aus diesen lassen sich beispielsweise Informationen über eine jeweilige Geschwindigkeit, eine Bewegungsrichtung und dergleichen ermitteln. - Die Objektdaten können darüber hinaus alternativ oder zusätzlich auch Hindernisse im Umfeld des betreffenden Fahrzeugs
10 ,20 umfassen. Solche Hindernisse sind beispielsweise stehende Fahrzeuge, Stauenden, geschlossene Schranken von kreuzenden Bahnübergängen, kreuzende Verkehrsteilnehmer, aber auch statische Hindernisse, wie z.B. Bäume, Poller und dergleichen. - Das Umfeld des zweiten Fahrzeugs
20 kann dadurch verbessert werden, dass das zweite Fahrzeug20 nicht nur die durch seine Umfeldsensorik21 erfassten zweiten Umfelddaten verarbeitet, sondern zusätzlich die von der Fahrzeugkommunikationseinheit13 des ersten Fahrzeugs10 über eine Kommunikationsverbindung30 übertragenen ersten Umfelddaten von der Fahrzeugkommunikationseinheit23 des zweiten Fahrzeugs20 empfangen und zusätzlich verarbeitet werden. Die Kommunikationsverbindung30 wird durch eine drahtlose Übertragungstechnologie realisiert und kann beispielsweise existierende Kommunikationsnetzwerke, wie z.B. GSM oder LTE, ausnutzen. Ebenso könnte auch, sofern die Entfernung zwischen dem ersten und dem zweiten Fahrzeug10 ,20 nicht zu groß ist, auf einen Standard gemäß 801.xy zurückgegriffen werden. - Die Recheneinheit
22 des zweiten Fahrzeugs20 verarbeitet die von dem ersten Fahrzeug10 empfangenen ersten Umfelddaten. Eine solche Verarbeitung kann eine Visualisierung der in den ersten Umfelddaten enthaltenen anderen Verkehrsteilnehmer und/oder Hindernisse auf der Anzeigeeinheit24 des zweiten Fahrzeugs20 und/oder eine Verarbeitung durch das Fahrerassistenzsystem25 umfassen, um beispielsweise eine Fahrstrategie des zweiten Fahrzeugs20 teil- oder hochautomatisiert anzupassen. - Die Visualisierung von in den ersten Umfelddaten enthaltenen erkannten Objekten und/oder Hindernissen kann beispielsweise auf Wunsch des Fahrers des zweiten Fahrzeugs
20 oder automatisch in Abhängigkeit einer Fahrsituation, wie z.B. beim Einleiten eines Überholmanövers des zweiten Fahrzeugs20 erfolgen. Die Verarbeitung der in den ersten Umfelddaten enthaltenen Objektdaten durch das Fahrerassistenzsystem könnte beispielsweise dazu führen, dass ein Überholvorgang eines vorausfahrenden Fahrzeugs nicht eingeleitet wird, da ein durch das vorausfahrende erste Fahrzeug10 erfasstes, aber durch das zweite Fahrzeug20 noch nicht erkennbares Objekt sich auf der Gegenfahrbahn dem zweiten Fahrzeug20 annähert. - Eine auf der Anzeigeeinheit
24 angezeigte Bildinformation besteht somit aus mindestens einer von der Umfeldsensorik11 des ersten Fahrzeugs10 ermittelten Bildinformation, die als Bilddaten auf der Anzeigeeinheit24 ausgegeben werden. Diese Daten können mit den aus der eigenen Umfeldsensorik21 des zweiten Fahrzeugs20 ermittelten Bilddaten kombiniert werden, so dass eine durch die eigene Umfeldsensorik21 nicht erfasste oder erfassbare Blickrichtung darstellbar ist, wobei verdeckte Ansichten der eigenen Ansicht überlagert werden können. Ebenso ist eine zeitlich versetzte Darstellung von durch das erste Fahrzeug erfassten Verkehrsteilnehmern möglich, z.B. wenn das zweite Fahrzeug zu einem späteren Zeitpunkt zu dem Ort der Erfassung durch das erste Fahrzeug10 gelangt. - Die ersten Umfelddaten können beispielsweise auch in Gestalt sogenannter Objektlisten bereitgestellt werden. Eine solche Objektliste umfasst beispielsweise alle, durch die Umfeldsensorik
11 des ersten Fahrzeugs10 erfassten anderen Verkehrsteilnehmer und/oder Hindernisse, ggf. ergänzt um eine Klassifikation oder andere Bewegungsinformationen sowie Positionen. Die in einer solchen Objektliste über die Kommunikationsverbindung30 übertragenen Daten können dann durch die Recheneinheit22 des zweiten Fahrzeugs20 für eine individuelle Darstellung, z.B. in einer Karte, verwertet werden. - Im Ergebnis lässt sich durch das vorgeschlagene Verfahren das Sichtfeld für den Fahrer sowie die Recheneinheit
22 , je nachdem, ob das erste Fahrzeug10 vor oder hinter dem zweiten Fahrzeug20 fährt, nach vorne oder hinten erweitern, was die gültige Objekterkennung erhöht und ein Gefahrenpotential reduziert. - Es versteht sich, dass das zweite Fahrzeug
20 nicht nur erste Umfelddaten des ersten Fahrzeugs10 , sondern Umfelddaten von einer Mehrzahl von ersten Fahrzeugen10 , welche sich vor und/oder hinter dem zweiten Fahrzeug20 befinden, empfangen und verarbeiten kann. Ebenso können in einer weiteren Ausgestaltung Umfelddaten auch von einer Infrastrukturkomponente gewonnen und über die Kommunikationsverbindung30 von dem zweiten Fahrzeug20 empfangen werden. Eine solche Infrastrukturkomponente kann beispielsweise eine oder mehrere Kameras an einer Tunneleinfahrt oder einer Kreuzung umfassen. - In Verbindung mit den
2 und3 werden nachfolgend zwei Anwendungsfälle beschrieben.2 zeigt auf seiner linken Seite eine Visualisierung des durch die Umfeldsensorik21 des zweiten Fahrzeugs20 erfassten Umfelds. Das Fahrzeug20 soll sich in diesem Ausführungsbeispiel auf der rechten Fahrspur von unten nach oben in Zeichenebene bewegen. Mit dem Bezugszeichen26 sind dabei durch die Umfeldsensorik21 erfasste Verkehrsteilnehmer gekennzeichnet. Wie unschwer zu erkennen ist, befinden sich die Verkehrsteilnehmer26 teilweise, in Fahrtrichtung des Fahrzeugs20 vor dem Fahrzeug20 sowie teilweise in entgegenkommender Richtung auf der benachbarten Fahrspur. Mit dem Bezugszeichen10 ist das erste Fahrzeug gekennzeichnet, das im vorliegenden Beispiel dem Fahrzeug20 vorausfährt. Die von der Umfeldsensorik11 des Fahrzeugs10 ermittelten Objektdaten (d.h. Verkehrsteilnehmer oder Hindernisse) sind mit16 gekennzeichnet. Die Objektdaten16 werden im Fahrzeug20 zur Verfügung gestellt. Das Fahrzeug20 kann anhand dieser Daten seine Fahrfunktionen, z.B. ein Fahrerassistenzsystem, eine Längs- oder Querregelung, bis hin zu einem automatisierten oder autonomen Fahren, verbessern. Die Objektdaten16 , die durch das erste Fahrzeug10 ermittelt wurden, werden durch die Recheneinheit23 verarbeitet und sind für den Fahrzeugnutzer ggf. nicht sichtbar bzw. äußern sich nur in der verbesserten Fahrfunktion. Alternativ oder zusätzlich können diese in einer Kartendarstellung einer Fahrzeugeigenen Anzeigeeinheit, z.B. in einem Top-View-System, oder einem vom Fahrer mitgeführten mobilen Endgerät, angezeigt werden. In der rechten Hälfte zeigt2 eine solche schematische Visualisierung der Verkehrssituation für das Fahrzeug20 . Dabei ist ohne Weiteres erkennbar, dass in dieser perspektivischen, schematischen Darstellung nicht nur die von der Umfeldsensorik21 des Fahrzeugs20 erfassten Objektdaten26 , sondern auch die Objektdaten16 enthalten sind, die von der Umfeldsensorik11 des ersten Fahrzeugs10 ermittelt wurden. - Die ausgetauschten Daten können grundsätzlich beliebiger Art sein. Es ist nicht zwingend notwendig, dass die Objektdaten andere Verkehrsteilnehmer sind. Beispielsweise ist auch der Austausch erkannter Verkehrszeichen entlang der befahrenen Strecke denkbar. Dies ist beispielsweise in
3 dargestellt. Dabei bewegen sich die Fahrzeuge10 ,20 entlang der mit dem Bezugszeichen40 gekennzeichneten Fahrstrecke40 . Aufgrund des Kurvenverlaufs der Fahrstrecke40 kann der Fahrer des zweiten Fahrzeugs20 das vorausfahrende erste Fahrzeug10 sowie den von dem ersten Fahrzeug10 befahrenen Streckenverlauf nicht erkennen. Über das vorausfahrende erste Fahrzeug10 ist dem zweiten Fahrzeug20 bekannt, dass in dem noch nicht einsehbaren Streckenabschnitt eine Geschwindigkeit von 80km/h gilt. Ein entsprechendes Verkehrsschild41 mit der gültigen Höchstgeschwindigkeit wird von der Umfeldsensorik11 des ersten Fahrzeugs10 erfasst. Dies wird dem Fahrer des ersten Fahrzeugs10 in einer Anzeigeeinheit14 visualisiert. Die aktuelle Fahrgeschwindigkeit des zweiten Fahrzeugs20 beträgt auf dem aktuell befahrenen Streckenabschnitt 100km/h, jedoch wurde das in Fahrtrichtung vorausliegende Verkehrszeichen42 mit der künftigen Geschwindigkeitsbeschränkung 120km/h erkannt und beispielsweise auch auf der Anzeigeeinheit24 des zweiten Fahrzeugs20 visualisiert. Für eine vorausschauende, energiesparende Fahrweise der Längsdynamikregelung, z.B. eines intelligenten Fahrgeschwindigkeitreglers (Tempomat), erfolgt daher keine Beschleunigung auf 120km/h, sondern stattdessen ein Ausrollen auf 80km/h. - Der Austausch von Umfelddaten kann auch entgegen der Fahrtrichtung erfolgen. Zu einem Zeitpunkt t = x erkennt z.B. das erste Fahrzeug
10 ein drittes Fahrzeug, während ein viertes Fahrzeug durch das vorausfahrende dritte Fahrzeug (das keine Umfeldsensorik zur Durchführung des erfindungsgemäßen Verfahrens umfasst) verdeckt wird oder außerhalb des Erfassungsbereichs der Umfeldsensorik des ersten Fahrzeugs20 ist. Das vierte Fahrzeug und dessen Geschwindigkeit werden aber durch das erste Fahrzeug10 erfasst. Durch den Austausch von Daten mit dem zweiten Fahrzeug20 kann ein beabsichtigter Spurwechsel für einen in der Zukunft liegenden Zeitpunkt verhindert werden. Aufgrund der durch den Datenaustausch angereicherten Information zum verdeckten vierten Fahrzeug wird erkannt, dass nach dem Spurwechsel der Sicherheitsabstand zu gering wäre bzw. das vierte Fahrzeug behindert würde. Der Spurwechsel wird dann nach dem Passieren des vierten Fahrzeugs ausgeführt oder zugelassen. - Bezugszeichenliste
-
- 10
- erstes Fahrzeug
- 11
- Umfeldsensorik
- 12
- Recheneinheit
- 13
- Fahrzeugkommunikationseinheit
- 14
- Anzeigeeinheit
- 16
- erkanntes Objekt (Verkehrsteilnehmer)
- 20
- zweites Fahrzeug
- 21
- Umfeldsensorik
- 22
- Recheneinheit
- 23
- Fahrzeugkommunikationseinheit
- 24
- Anzeigeeinheit
- 25
- Fahrerassistenzsystem
- 26
- erkanntes Objekt (Verkehrsteilnehmer)
- 30
- Kommunikationsverbindung
- 40
- Fahrstrecke
- 41
- Fahrstrecke
- 42
- Fahrstrecke
- ZITATE ENTHALTEN IN DER BESCHREIBUNG
- Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
- Zitierte Patentliteratur
-
- WO 2015/144145 A2 [0003]
Claims (15)
- Verfahren zur Ermittlung des Umfelds eines Fahrzeugs, mit den Schritten: Bereitstellen von ersten Umfelddaten, die mit einer Umfeldsensorik (
11 ) eines ersten Fahrzeugs (10 ) gewonnen werden, wobei die ersten Umfelddaten zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des ersten Fahrzeugs (10 ) umfassen; Übertragen der ersten Umfelddaten an ein zweites Fahrzeug (20 ); Verarbeiten der ersten Umfelddaten durch das zweite Fahrzeug (20 ), wodurch das Umfeld des zweiten Fahrzeugs (20 ) ermittelt wird. - Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Schritt des Bereitstellens der ersten Umfelddaten das Bereitstellen von Umfelddaten umfasst, die mit einer Umfeldsensorik einer Infrastrukturkomponente gewonnen werden.
- Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als erste Umfelddaten Bildinformationen ermittelt werden, indem Bilddaten der Umgebung durch die Umfeldsensorik (
11 ) des ersten Fahrzeugs und/oder die Infrastrukturkomponente erfasst und die Bilddaten zu den Bildinformationen verarbeitet werden. - Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass als erste Umfelddaten der Ort einer Verkehrswegeinfrastrukturkomponente, umfassend zumindest ein Verkehrszeichen oder eine Fahrspur, ermittelt wird.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ersten Umfelddaten zur Adaption einer Fahrfunktion des zweiten Fahrzeugs (
20 ) verarbeitet werden. - Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Adaption der Fahrfunktion einen Eingriff in ein teil- oder hochautomatisiertes Fahrerassistenzsystem oder eines vollautomatisierten Fahrsystems umfasst.
- Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die ersten Umfelddaten auf einer Anzeigeeinheit (
24 ) des zweiten Fahrzeugs (20 ) oder einem in dem zweiten Fahrzeug (20 ) mitgeführten mobilen Endgerät als Bilddaten ausgegeben werden. - Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass durch eine Umfeldsensorik (
21 ) des zweiten Fahrzeugs (20 ) zweite Umfelddaten gewonnen werden, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des zweiten Fahrzeugs (20 ) umfassen, wobei die ersten und die zweiten Umfelddaten zusammen auf der Anzeigeeinheit (24 ) des zweiten Fahrzeugs oder einem in dem zweiten Fahrzeug (20 ) mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden. - Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten erweitert werden, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des zweiten Fahrzeugs (
20 ) umfasst. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem die ersten Umfelddaten von einer ersten Fahrzeugkommunikationseinheit (
13 ) des ersten Fahrzeugs (10 ) direkt durch eine zweite Fahrzeugkommunikationseinheit (23 ) des zweiten Fahrzeugs (20 ) über einen drahtlosen Kommunikationskanal empfangen werden. - Verfahren nach einem der vorhergehenden Ansprüche, bei dem die ersten Umfelddaten des ersten Fahrzeugs (
10 ) durch das zweite Fahrzeug (20 ) von einem zentralen Rechner oder einem Cloud-Service empfangen werden. - Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs (
20 ), umfassend: eine Fahrzeugkommunikationseinheit (23 ) des Fahrzeugs (20 ); eine Recheneinheit (22 ) des Fahrzeugs (20 ), wobei die Recheneinheit (22 ) dazu ausgebildet ist, erste Umfelddaten, die mit einer Umfeldsensorik (11 ) eines anderen Fahrzeugs (10 ) gewonnen werden und die zumindest Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des anderen Fahrzeugs (10 ) umfassen, von dem anderen Fahrzeug (10 ) zu empfangen und zu verarbeiten. - Vorrichtung nach Anspruch 12, dadurch gekennzeichnet, dass die ersten Umfelddaten durch die Recheneinheit (
22 ) zur Adaption einer Fahrfunktion des Fahrzeugs (20 ) verarbeitet werden. - Vorrichtung nach Anspruch 12 oder 13, dadurch gekennzeichnet, dass diese eine Umfeldsensorik (
21 ) zur Gewinnung zweiter Umfelddaten des Fahrzeugs (20 ) umfasst, die Objektdaten anderer Verkehrsteilnehmer und/oder Hindernisse im Umfeld des Fahrzeugs (20 ) umfassen, wobei die ersten und die zweiten Umfelddaten durch die Recheneinheit (22 ) zusammen auf der Anzeigeeinheit (24 ) des Fahrzeugs oder einem in dem Fahrzeug (20 ) mitgeführten mobilen Endgerät als die Bilddaten ausgegeben werden. - Vorrichtung nach Anspruch 14, dadurch gekennzeichnet, dass die Recheneinheit (
22 ) dazu ausgebildet ist, die aus den zweiten Umfelddaten ermittelten Bilddaten mit den aus den ersten Umfelddaten ermittelten Bilddaten zu erweitern, wobei die Erweiterung eine Ergänzung der in den zweiten Umfelddaten enthaltenen Objekte und Hindernisse um die in den ersten Umfelddaten enthaltenen Objekte und Hindernisse in einer Karte oder einer perspektivischen Darstellung der Umgebung des Fahrzeugs (20 ) umfasst.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016212688.1A DE102016212688A1 (de) | 2016-07-12 | 2016-07-12 | Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016212688.1A DE102016212688A1 (de) | 2016-07-12 | 2016-07-12 | Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016212688A1 true DE102016212688A1 (de) | 2018-01-18 |
Family
ID=60782483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016212688.1A Withdrawn DE102016212688A1 (de) | 2016-07-12 | 2016-07-12 | Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016212688A1 (de) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019001092A1 (de) * | 2019-02-14 | 2020-03-26 | Daimler Ag | Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger |
WO2020173778A1 (de) * | 2019-02-26 | 2020-09-03 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem |
WO2020173772A1 (de) * | 2019-02-26 | 2020-09-03 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem |
DE102019208498A1 (de) * | 2019-06-12 | 2020-12-17 | Robert Bosch Gmbh | Verfahren zum Optimieren eines Umfeldmodells |
DE102021202124A1 (de) | 2021-03-04 | 2022-09-08 | Volkswagen Aktiengesellschaft | Verfahren zum Bestimmen eines Fahrbahntyps einer Fahrbahn, Computerprogrammprodukt sowie Assistenzsystem |
DE102021125608A1 (de) | 2021-10-04 | 2023-04-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Umfelderkennung von Fahrzeugen |
US11762616B2 (en) | 2019-02-26 | 2023-09-19 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US11807260B2 (en) | 2019-02-26 | 2023-11-07 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
DE102022207197A1 (de) | 2022-07-14 | 2024-01-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung |
US12037005B2 (en) | 2019-02-26 | 2024-07-16 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US12037006B2 (en) | 2019-02-26 | 2024-07-16 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US12043275B2 (en) | 2019-02-26 | 2024-07-23 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008010119A1 (de) * | 2007-02-21 | 2008-11-20 | Denso Corp., Kariya-shi | Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen |
DE102009008745A1 (de) * | 2009-02-12 | 2010-08-19 | Volkswagen Ag | Verfahren und System zur automatischen Verkehrsführung |
DE102010006084A1 (de) * | 2009-02-03 | 2010-10-07 | GM Global Technology Operations, Inc., Detroit | Kombinierte Fahrzeug-zu-Fahrzeug-Kommunikation und Objektdetektierungserfassung |
WO2015144145A2 (de) | 2014-03-25 | 2015-10-01 | Conti Temic Microelectronic Gmbh | Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige |
DE102011115323B4 (de) * | 2010-10-13 | 2015-10-15 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Identifizierung einer Fahrzeugbedrohung auf einem Vollwindschutzscheiben-Head-up-Display |
DE202014006923U1 (de) * | 2014-08-27 | 2015-11-30 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Fahrassistenzsystem, Computerprogrammprodukt sowie Kraftfahrzeug |
-
2016
- 2016-07-12 DE DE102016212688.1A patent/DE102016212688A1/de not_active Withdrawn
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008010119A1 (de) * | 2007-02-21 | 2008-11-20 | Denso Corp., Kariya-shi | Vorrichtung zum Erfassen eines Objekts und System zur Kommunikation zwischen Fahrzeugen |
DE102010006084A1 (de) * | 2009-02-03 | 2010-10-07 | GM Global Technology Operations, Inc., Detroit | Kombinierte Fahrzeug-zu-Fahrzeug-Kommunikation und Objektdetektierungserfassung |
DE102009008745A1 (de) * | 2009-02-12 | 2010-08-19 | Volkswagen Ag | Verfahren und System zur automatischen Verkehrsführung |
DE102011115323B4 (de) * | 2010-10-13 | 2015-10-15 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Identifizierung einer Fahrzeugbedrohung auf einem Vollwindschutzscheiben-Head-up-Display |
WO2015144145A2 (de) | 2014-03-25 | 2015-10-01 | Conti Temic Microelectronic Gmbh | Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige |
DE202014006923U1 (de) * | 2014-08-27 | 2015-11-30 | GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) | Fahrassistenzsystem, Computerprogrammprodukt sowie Kraftfahrzeug |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102019001092A1 (de) * | 2019-02-14 | 2020-03-26 | Daimler Ag | Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger |
US12037005B2 (en) | 2019-02-26 | 2024-07-16 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
WO2020173778A1 (de) * | 2019-02-26 | 2020-09-03 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem |
WO2020173772A1 (de) * | 2019-02-26 | 2020-09-03 | Volkswagen Aktiengesellschaft | Verfahren zum betreiben eines fahrerinformationssystems in einem ego-fahrzeug und fahrerinformationssystem |
CN113439035A (zh) * | 2019-02-26 | 2021-09-24 | 大众汽车股份公司 | 用于运行自我车辆中的驾驶员信息系统的方法和驾驶员信息系统 |
CN113692360A (zh) * | 2019-02-26 | 2021-11-23 | 大众汽车股份公司 | 用于运行自我车辆中的驾驶员信息系统的方法和驾驶员信息系统 |
US12043275B2 (en) | 2019-02-26 | 2024-07-23 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US12037006B2 (en) | 2019-02-26 | 2024-07-16 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US11762616B2 (en) | 2019-02-26 | 2023-09-19 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
US11807260B2 (en) | 2019-02-26 | 2023-11-07 | Volkswagen Aktiengesellschaft | Method for operating a driver information system in an ego-vehicle and driver information system |
DE102019208498A1 (de) * | 2019-06-12 | 2020-12-17 | Robert Bosch Gmbh | Verfahren zum Optimieren eines Umfeldmodells |
DE102021202124A1 (de) | 2021-03-04 | 2022-09-08 | Volkswagen Aktiengesellschaft | Verfahren zum Bestimmen eines Fahrbahntyps einer Fahrbahn, Computerprogrammprodukt sowie Assistenzsystem |
DE102021125608A1 (de) | 2021-10-04 | 2023-04-06 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und System zur Umfelderkennung von Fahrzeugen |
DE102022207197A1 (de) | 2022-07-14 | 2024-01-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Verfahren zum Ermitteln einer Fahrbahnfreifläche und Vorrichtung |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016212688A1 (de) | Verfahren und Vorrichtung zur Ermittlung des Umfelds eines Fahrzeugs | |
DE102017203838B4 (de) | Verfahren und System zur Umfelderfassung | |
EP3213260B1 (de) | Verfahren und vorrichtung zur lokalisierung eines fahrzeugs in seinem umfeld | |
DE102012200950B3 (de) | Verfahren und Vorrichtung zur Erkennung einer Sondersituation im Straßenverkehr | |
DE102017217297B4 (de) | System zur Erzeugung und/oder Aktualisierung eines digitalen Modells einer digitalen Karte | |
EP3830522B1 (de) | Verfahren zur schätzung der lokalisierungsgüte bei der eigenlokalisierung eines fahrzeuges, vorrichtung für die durchführung des verfahrens, fahrzeug sowie computerprogramm | |
DE102016211182A1 (de) | Verfahren, Vorrichtung und System zum Durchführen einer automatisierten Fahrt eines Fahrzeugs entlang einer aus einer Karte bereitgestellten Trajektorie | |
DE102016210254A9 (de) | Fahrzeugortung an kreuzungen anhand von visuellen anhaltspunkte, stationären objekten und durch gps | |
EP3123450B1 (de) | Verfahren und vorrichtung zur anzeige von objekten auf einer fahrzeuganzeige | |
WO2015000882A1 (de) | Assistenzsystem und assistenzverfahren zur unterstützung bei der steuerung eines kraftfahrzeugs | |
EP3151213B1 (de) | Fahrzeugvorrichtung sowie verfahren zur aufzeichnung eines umgebungsbereichs eines kraftfahrzeugs | |
DE102008041679A1 (de) | Vorrichtung und Verfahren zur erinnerungsbasierten Umfelderkennung | |
DE102009008745A1 (de) | Verfahren und System zur automatischen Verkehrsführung | |
WO2017054956A1 (de) | Verfahren und system zum ermitteln von verkehrsteilnehmern mit interaktionspotential | |
DE102018119882A1 (de) | Übertragen von Bilddaten, die von einer Fahrzeugkamera aufgenommen werden | |
DE102013201796A1 (de) | Verfahren zur Bereitstellung eines Fahrkorridors für ein Fahrzeug und Fahrassistenzsystem | |
DE102017215316A1 (de) | Verfahren zum Unterstützen eines Benutzers beim Betreiben eines Kraftfahrzeugs im Anhängerbetrieb, Fahrerassistenzeinrichtung, und Kraftfahrzeug | |
DE112014005007T5 (de) | Informationsmeldevorrichtung, Informationsmeldesystem, Informationsmeldeverfahren und Informationsmeldeprogramm | |
DE102021202955B4 (de) | Verfahren zur Gefahrenabwendung innerhalb eines Verkehrsvernetzungssystems | |
DE102017201538A1 (de) | Verfahren zum Verarbeiten von Daten über ein in einer Umgebung eines ersten Fahrzeugs befindliches Objekt | |
DE102018128634A1 (de) | Verfahren zum Bereitstellen einer visuellen Information über zumindest einen Teil einer Umgebung, Computerprogrammprodukt, mobiles Kommunikationsgerät und Kommunikationssystem | |
DE102017209370B4 (de) | Verfahren zur Ermittlung einer Überholinformation | |
DE102019001092A1 (de) | Verfahren zum Betreiben eines Fahrerassistenzsystems, sowie elektronische Recheneinrichtung, Computerprogrammprodukt und Datenträger | |
DE102017129713A1 (de) | Verfahren zur Verringerung des Gefahrenpotentials infolge von eingeschränkter Sicht im Straßenverkehr | |
DE102015203192A1 (de) | Verkehrssteuerung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R005 | Application deemed withdrawn due to failure to request examination |