DE102009006113B4 - Device and method for sensor fusion with dynamic objects - Google Patents
Device and method for sensor fusion with dynamic objects Download PDFInfo
- Publication number
- DE102009006113B4 DE102009006113B4 DE102009006113.4A DE102009006113A DE102009006113B4 DE 102009006113 B4 DE102009006113 B4 DE 102009006113B4 DE 102009006113 A DE102009006113 A DE 102009006113A DE 102009006113 B4 DE102009006113 B4 DE 102009006113B4
- Authority
- DE
- Germany
- Prior art keywords
- sensor
- fusion
- objects
- existence
- probability
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/86—Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Electromagnetism (AREA)
- Traffic Control Systems (AREA)
Abstract
Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung (2) und mindestens einer zweiten Sensoreinrichtung (3) sowie einer Auswerteeinrichtung (4), wobei die Sensoreinrichtungen (2, 3) Informationen über in einem Umfeld des Fahrzeugs (6) erkannte Objekte (10, 14) in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung (2, 3) erkanntes Objekt (10, 14) repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts (10, 14) umfassen
und die von der mindestens einen ersten Sensoreinrichtung (2) und von der mindestens einen zweiten Sensoreinrichtung (3) erkannten Sensorobjekte einer Objektfusion (66) unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet wird,
dadurch gekennzeichnet, dass
die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert werden, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung (2, 3) erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist, und wobei für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k+1 vorgenommen wird und die zum Zeitpunkt k+1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k+1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k+1 des Sensorobjekts fusioniert wird, und
wobei die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:
and the sensor objects detected by the at least one first sensor device (2) and by the at least one second sensor device (3) are subjected to an object fusion (66) in which fusion objects are generated to which at least one probability of existence is assigned as an attribute,
characterized in that
the probabilities of existence of the fusion objects are fused based on the existence probabilities of the sensor objects, wherein the fusing of the probability of existence of one of the sensor objects respectively depending on the respective sensor device (2, 3), from which the corresponding sensor object is provided, and wherein for those determined at time k Fusion objects a prediction is made at a time k + 1 and the sensor objects determined at time k + 1 are associated with the fusion objects, with the prediction they match according to association specifications, the likelihood of the fusion object at time k + 1 based on the likelihood of the fusion object to Time k and the likelihood of existence at time k + 1 of the sensor object is fused, and
wherein the likelihood of existence of a fusion object that can be associated with a sensor object is calculated according to the following formula:
Description
Die Erfindung betrifft ein Verfahren und eine Vorrichtung für ein Fahrzeug zur Beschreibung eines Umfelds des Fahrzeugs, das mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung erfasst wird und deren bereitgestellte Informationen in einer Auswerteeinrichtung ausgewertet werden, um eine Umfelddarstellung bereitzustellen. Insbesondere betrifft die Erfindung ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie einer Auswerteeinrichtung. Ferner betrifft die Erfindung eine Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs, umfassend mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und mit der mindestens einen zweiten Sensoreinrichtung gekoppelt ist.The invention relates to a method and a device for a vehicle for describing an environment of the vehicle, which is detected by at least one first sensor device and at least one second sensor device and whose information provided is evaluated in an evaluation device in order to provide an environmental representation. In particular, the invention relates to a method for providing an environment representation of a vehicle having at least one first sensor device and at least one second sensor device and an evaluation device. Furthermore, the invention relates to a device for providing an environment representation of a vehicle, comprising at least a first sensor device and at least one second sensor device which detect the environment, and an evaluation device which is coupled to the at least one first sensor device and to the at least one second sensor device.
Die Kenntnis eines Umfelds eines Fahrzeugs ist für unterschiedliche Fahrzeugsysteme, wie z.B. Sicherheitssysteme, von großer Wichtigkeit. Mit Sensoreinrichtungen, die beispielsweise einen Ultraschallsensor oder eine Kamera umfassen, werden Daten über das Umfeld erfasst. Durch ein Nutzen von Informationen unterschiedlicher Sensoreinrichtungen wird eine Repräsentation des Umfelds erzeugt, welche die Realität des Umfelds möglichst gut widerspiegeln soll. In der Umgebung befinden sich statische Objekte, wie beispielsweise Bäume, Häuser usw., und dynamische Objekte, die sich in einem ortsfesten Bezugssystem bewegen, wie beispielsweise Personen, Tiere, Kraftfahrzeuge usw. Um ausreichende Informationen über diese sich bewegenden Objekte (dynamischen Objekte) im Umfeld des Fahrzeugs zu jedem Zeitpunkt zur Verfügung zu haben, ist eine kontinuierliche Überwachung, d.h. ein kontinuierliches Erfassen von Messdaten, über die Umgebung notwendig. In der Regel arbeiten die Sensoreinrichtungen in sich fortwährend iterativ wiederholenden Messzyklen.The knowledge of an environment of a vehicle is for different vehicle systems, such as e.g. Security systems, of great importance. With sensor devices that include, for example, an ultrasonic sensor or a camera, data about the environment are detected. By using information from different sensor devices, a representation of the environment is generated, which should reflect the reality of the environment as well as possible. In the environment are static objects, such as trees, houses, etc., and dynamic objects that move in a fixed frame of reference, such as people, animals, automobiles, etc. To provide sufficient information about these moving objects (dynamic objects) in the environment Environment of the vehicle at any time, is a continuous monitoring, ie a continuous acquisition of measurement data, about the environment necessary. As a rule, the sensor devices operate in continuously iterative repetitive measuring cycles.
Aus der
Aus der
Aus der
Der Erfindung liegt die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zu schaffen, die es ermöglichen, eine verbesserte Umfeldrepräsentation eines Umfelds eines Fahrzeugs mit statischen und dynamischen Objekten bereitzustellen.It is an object of the invention to provide a method and a device which make it possible to provide an improved environmental representation of an environment of a vehicle with static and dynamic objects.
Die Aufgabe wird erfindungsgemäß durch ein Verfahren mit den Merkmalen des Patentanspruchs 1 sowie eine Vorrichtung mit den Merkmalen des Patentanspruchs 10 gelöst. Vorteilhafte Ausführungsformen der Erfindung ergeben sich aus den Unteransprüchen.The object is achieved by a method having the features of
Insbesondere wird ein Verfahren zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs mit mindestens einer ersten Sensoreinrichtung und mindestens einer zweiten Sensoreinrichtung sowie eine Auswerteeinrichtung vorgeschlagen, bei dem die Sensoreinrichtungen Informationen über in einem Umfeld des Fahrzeugs erkannte Objekte in Form von Sensorobjekten bereitstellen, wobei ein Sensorobjekt ein von der jeweiligen Sensoreinrichtung erkanntes Objekt repräsentiert, und die Sensorobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit des repräsentierten Objekts umfassen und die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion unterzogen werden, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als Attribut zugeordnet wird, wobei die Existenzwahrscheinlichkeiten der Fusionsobjekte basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte fusioniert wird, wobei die Fusionierung der Existenzwahrscheinlichkeit eines der Sensorobjekte jeweils abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das entsprechende Sensorobjekt bereitgestellt ist. Eine entsprechende Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs umfasst mindestens eine erste Sensoreinrichtung und mindestens eine zweite Sensoreinrichtung, die das Umfeld erfassen, sowie eine Auswerteeinrichtung, die mit der mindestens einen ersten Sensoreinrichtung und der mindestens einen zweiten Sensoreinrichtung gekoppelt ist, wobei die Sensoreinrichtungen ausgebildet sind, Informationen über jeweils erfasste Objekte in Form von Sensorobjekten bereitzustellen, die als Attribut mindestens eine Existenzwahrscheinlichkeit für das erfasste Objekt umfassen, und die Auswerteeinheit ausgebildet ist, die von der mindestens einen ersten Sensoreinrichtung und von der mindestens einen zweiten Sensoreinrichtung erkannten Sensorobjekte einer Objektfusion zu unterziehen, bei der Fusionsobjekte erzeugt werden, denen mindestens eine Existenzwahrscheinlichkeit als ein Attribut zugeordnet ist, wobei die Fusion der Existenzwahrscheinlichkeit des Fusionsobjekts basierend auf den Existenzwahrscheinlichkeiten der Sensorobjekte ausgeführt ist und abhängig von der jeweiligen Sensoreinrichtung erfolgt, von der das jeweilige Sensorobjekt bereitgestellt ist. Obwohl die einzelnen Sensoreinrichtungen bereits selbständig Objekte erkennen und diese erkannten Objekte als Sensorobjekte, in der Regel in Form einer Liste von Sensorobjekten, bereitstellen, ist es erfindungsgemäß vorgesehen, die von den unterschiedlichen Sensoreinrichtungen bereitgestellten Sensorobjekte einer Fusion zu unterziehen. Hierbei werden Fusionsobjekte erzeugt. Da insbesondere eine Existenzwahrscheinlichkeit der erkannten Objekte von besonderer Bedeutung ist, umfassen die Fusionsobjekte als Attribut mindestens eine Existenzwahrscheinlichkeit. Durch die Fusionierung der Sensorobjekte werden Fusionsobjekte geschaffen, die die real existierenden Objekte repräsentieren. Aufgrund der Fusion der Sensorobjekte, die jeweils von einer der Sensoreinrichtungen erfasst und erkannt sind, können die Existenzwahrscheinlichkeiten der Fusionsobjekte (wie auch andere Attribute) durch eine Fusion der Sensorobjekte zu den Fusionsobjekten deutlich verbessert werden. Da die einzelnen Sensoreinrichtungen hinsichtlich ihrer Messgüte und/oder Fehleranfälligkeit, beispielsweise aufgrund von Rauschen, einer Anfälligkeit gegenüber veränderlichen Umweltbedingungen usw., unterscheiden, ist es vorgesehen, dass bei der Fusionierung der Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte zu der Existenzwahrscheinlichkeit der Fusionsobjekte eine Fusionierung jeweils unter Berücksichtigung der Sensoreinrichtung erfolgt, die das jeweilige Sensorobjekt bereitgestellt hat, dessen Sensorobjekt-Existenzwahrscheinlichkeit in die Existenzwahrscheinlichkeit für das Fusionsobjekt fusioniert wird. Durch die Fusionierung der Sensorobjekte zu Fusionsobjekten wird eine deutlich verbesserte Umfelddarstellung erreicht. Insbesondere für sicherheitsrelevante Fahrzeugsysteme, die von einer Existenz von Objekten in der Umgebung des Kraftfahrzeugs abhängig sind, ist eine gute Kenntnis über die tatsächliche Existenz von Objekten in der Umgebung notwendig. Durch die Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte zu einer Existenzwahrscheinlichkeit von Fusionsobjekten, die die realen Objekten repräsentieren, wird somit die Aussage über die Existenzwahrscheinlichkeit von Objekten in der Umgebung des Kraftfahrzeugs deutlich verbessert. Hierüber können Fehlauslösungen von Sicherheitssystemen, die beispielsweise Rückhaltesysteme vor einem tatsächlichen Eintreffen einer Kollision mit einem Objekt in der Umgebung, die als unvermeidbar erkannt ist, auslösen, deutlich reduziert oder vollständig vermieden werden.In particular, a method is provided for providing an environment representation of a vehicle having at least one first sensor device and at least one second sensor device and an evaluation device, in which the sensor devices provide information about objects detected in an environment of the vehicle in the form of sensor objects, wherein a sensor object is one of the represents the object detected by the respective sensor device, and the sensor objects as attribute comprise at least one probability of existence of the represented object and the sensor objects detected by the at least one first sensor device and by the at least one second sensor device Object fusion are produced in the fusion objects are generated, which at least one probability of existence is assigned as an attribute, wherein the existence probabilities of the fusion objects is fused based on the existence probabilities of the sensor objects, wherein the fusing of the likelihood of existence of one of the sensor objects takes place depending on the respective sensor device of the corresponding sensor object is provided. A corresponding device for providing an environment representation of a vehicle comprises at least one first sensor device and at least one second sensor device, which detect the environment, and an evaluation device, which is coupled to the at least one first sensor device and the at least one second sensor device, wherein the sensor devices are formed To provide information about each detected objects in the form of sensor objects, which comprise as attribute at least one probability of existence for the detected object, and the evaluation unit is adapted to subject the at least one first sensor device and detected by the at least one second sensor device sensor objects of an object fusion in which fusion objects are generated, to which at least one probability of existence is assigned as an attribute, wherein the fusion of the probability of existence of the fusion object is based on a is carried out on the existence probabilities of the sensor objects and takes place depending on the respective sensor device from which the respective sensor object is provided. Although the individual sensor devices already independently recognize objects and provide these detected objects as sensor objects, generally in the form of a list of sensor objects, it is provided according to the invention to subject the sensor objects provided by the different sensor devices to a fusion. Here, fusion objects are generated. Since, in particular, a probability of existence of the recognized objects is of particular importance, the fusion objects comprise at least one probability of existence as an attribute. By merging the sensor objects, fusion objects are created that represent the real existing objects. Due to the fusion of the sensor objects, which are each detected and detected by one of the sensor devices, the probabilities of existence of the fusion objects (as well as other attributes) can be significantly improved by a fusion of the sensor objects to the fusion objects. Since the individual sensor devices differ with regard to their quality of measurement and / or susceptibility to errors, for example due to noise, susceptibility to changing environmental conditions, etc., it is provided that, in the case of the fusion of the probabilities of existence of the individual sensor objects with the probability of existence of the fusion objects, fusion takes place, taking account in each case the sensor device takes place, which has provided the respective sensor object whose sensor object existence probability is fused into the existence probability for the fusion object. By merging the sensor objects into fusion objects, a significantly improved environment representation is achieved. In particular for safety-relevant vehicle systems, which depend on the existence of objects in the surroundings of the motor vehicle, a good knowledge about the actual existence of objects in the environment is necessary. By fusing the probabilities of existence of the sensor objects to a probability of existence of fusion objects that represent the real objects, the statement about the probability of existence of objects in the environment of the motor vehicle is thus significantly improved. This can significantly reduce or completely avoid false tripping of security systems, which, for example, trigger restraint systems before the actual arrival of a collision with an object in the environment, which is recognized as unavoidable.
Bei einer erfindungsgemäßen Ausführungsform ist vorgesehen, dass für die zum Zeitpunkt k ermittelten Fusionsobjekte eine Prädiktion auf einen Zeitpunkt k+1 vorgenommen wird und die zum Zeitpunkt k+1 ermittelten Sensorobjekte mit den Fusionsobjekten assoziiert werden, mit deren Prädiktion sie gemäß Assoziationsvorgaben übereinstimmen, wobei die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k+1 anhand der Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k und der Existenzwahrscheinlichkeit zum Zeitpunkt k+1 des Sensorobjekts fusioniert wird. Als Assoziationsvorgabe kann ein Mahalanobis-Abstandsvorgabewert dienen. Es ist somit möglich, die in vorausgegangenen Fusionierungsschritten erzeugten Fusionsobjekte mit den aktuell bereitgestellten Sensorobjekten zu assoziieren und hierüber die bereits zuvor gewonnenen Informationen, insbesondere hinsichtlich der Existenzwahrscheinlichkeit der im Umfeld existierenden Objekte, optimal auszuwerten.In an embodiment according to the invention, it is provided that a prediction is made for a time k + 1 for the fusion objects determined at the time k and the sensor objects determined at the time k + 1 are associated with the fusion objects whose prediction they match in accordance with association specifications, wherein the Existence probability of the fusion object at time k + 1 is fused on the basis of the probability of existence of the fusion object at time k and the probability of existence at time k + 1 of the sensor object. The association requirement may be a Mahalanobis distance default. It is thus possible to associate the fusion objects generated in previous merging steps with the currently provided sensor objects and to optimally evaluate the previously obtained information, in particular with regard to the probability of existence of the objects existing in the surroundings.
Erfindungsgemäß ist vorgesehen, dass die Existenzwahrscheinlichkeit eines Fusionsobjekts, das mit einem Sensorobjekt assoziiert werden kann, gemäß folgender Formel berechnet wird:
Um im Umfeld auftretende neue Objekte bei der Fusionierung berücksichtigen zu können, ist bei einer Ausführungsform der Erfindung vorgesehen, dass für Sensorobjekte, die mit keinem der bekannten Fusionsobjekte assoziiert werden können, die Fusionierung ein Erzeugen eines neuen Fusionsobjekts umfasst, welchem als Existenzwahrscheinlichkeit die Existenzwahrscheinlichkeit des Sensorobjekts zugewiesen wird.In order to be able to take account of new objects occurring in the environment during the fusion, it is provided in one embodiment of the invention that for sensor objects that can not be associated with any of the known fusion objects, the fusion comprises generating a new fusion object to which the likelihood of existence of Assigned to the sensor object.
Während eine Umfelddarstellung über Sensorobjekte und hieraus fusionierte Fusionsobjekte besonders gut für sich bewegende, d.h. in einem ortsfesten Bezugssystem bewegende, Objekte im Umfeld des Fahrzeugs geeignet ist, kann eine verbesserte Umfeldrepräsentation erreicht werden, wenn von den Sensoreinrichtungen zusätzlich Informationen bereitgestellt werden, anhand derer eine Belegungskarte erstellt wird, wobei das Umfeld in Bereiche unterteilt wird und jedem Bereich jeweils eine Zelle zugeordnet wird, wobei die Zellen gemeinsam die Belegungskarte darstellen, und vorgesehen ist, für die Zellen Belegungswahrscheinlichkeiten zu ermitteln, die ein Maß für eine Existenz eines Objekts in dem der Zelle zugeordneten Bereich des Umfelds angeben. Zusätzlich zu einer Objekterkennung in den Sensoreinrichtungen, die zur Ableitung der Sensorobjekte führt, werden somit Informationen bereitgestellt, die es ermöglichen, eine Belegungskarte des Umfelds zu erstellen. Das Erstellen der Belegungskarte wird in der Regel so ausgeführt, dass den einzelnen Zellen mindestens ein Wert zugeordnet ist, welcher die Existenzwahrscheinlichkeit eines Objekts in dem der Zelle zugeordneten Raumbereich des Umfelds angibt. Ein Vorteil eines solchen Verfahrens zur Umfelddarstellung bzw. Bereitstellung einer Umfelddarstellung liegt in einer möglichst vollständigen Nutzung der Informationen der mindestens zwei Sensoreinrichtungen, wobei zum einen die guten Belegungswahrscheinlichkeitsaussagen in den durch die Zellen gebildeten Belegungskarten erzeugt werden, die insbesondere für statische Objekte eine hohe Aussagekraft besitzen, und zum anderen auch für dynamische Objekte hohe Existenzwahrscheinlichkeiten über die Fusionierungsobjekte erlangt werden können.While an environmental representation of sensor objects and fusion objects fused thereto are particularly well-suited for moving, i. In a fixed reference moving objects in the environment of the vehicle is suitable, an improved environment representation can be achieved if additional information provided by the sensor devices, on the basis of which an occupancy map is created, the environment is divided into areas and each area one cell the cells together represent the occupancy card, and it is intended to determine occupancy probabilities for the cells indicating a measure of an existence of an object in the region of the environment associated with the cell. In addition to an object recognition in the sensor devices, which leads to the derivation of the sensor objects, thus information is provided, which make it possible to create an occupancy map of the environment. The creation of the occupancy map is usually carried out so that the individual cells at least one value is assigned, which indicates the probability of existence of an object in the space associated with the cell area of the environment. An advantage of such a method for representing the surroundings or providing an environment representation is the use of the information of the at least two sensor devices as completely as possible, wherein, on the one hand, the good occupancy probability statements are generated in the occupancy maps formed by the cells, which have a high significance in particular for static objects and on the other hand also for dynamic objects high probabilities of existence can be obtained via the objects of fusion.
Eine deutliche weitere Verbesserung lässt sich erreichen, wenn die Ergebnisse der objektorientierten Umfelddarstellung mit einer kartenbasierten Umfelddarstellung kombiniert werden. Bei einer bevorzugten Ausführungsform ist daher vorgesehen, dass für Fusionsobjekte, die zu einem Messzeitpunkt k+1 keinem der Sensorobjekte zugeordnet werden können, die Existenzwahrscheinlichkeit fusioniert wird, indem anstelle der Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts eine anhand der Belegungskarte ermittelte Belegungswahrscheinlichkeit für den Bereich oder die Bereiche verwendet wird, an dem oder denen sich das Fusionsobjekt gemäß der Prädiktion aufhält. Solche Situationen, bei denen kein entsprechendes Sensorobjekt für ein Fusionsobjekt von einer Messeinrichtung geliefert wird, treten beispielsweise bei einem Radarsystem auf, wenn ein anderes statisches oder dynamisches Objekt im Umfeld das entsprechende zu dem Fusionsobjekt korrespondierende Objekt zwischenzeitlich verdeckt. Dies bedeutet, dass das Objekt in der Umgebung, welches mit dem Fusionsobjekt korrespondiert, durch die Radarstrahlen nicht erfasst werden kann, weil ein anderes Objekt, beispielsweise ein Brückenpfeiler oder ein auf einer Verkehrsinsel montiertes Verkehrsschild, das Sichtfeld des Radars auf das entsprechende reale Objekt in einem oder mehreren Messzyklen verdeckt. In einer solchen Situation ist eine Sensoreinrichtung häufig nicht in der Lage, für dieses reale Objekt ein Sensorobjekt bereitzustellen, da die Sensoreinrichtung hierfür das reale Objekt selber über einen gewissen Zeitraum erfassen und nachverfolgen können muss, um sicherzugehen, dass ein real existierendes Objekt vorliegt. Die Rohdaten hingegen können bereits häufig früher und zuverlässiger eine Aussage über eine Belegung eines bestimmten Bereichs im Umfeld des Kraftfahrzeugs liefern. Somit wird die Fusionierung dadurch verbessert, dass aus der Belegungskarte bekannte Existenzwahrscheinlichkeiten für Objekte in einem bestimmten Bereich genutzt werden, der mit dem Bereich korrespondiert, in den sich das Fusionsobjekt gemäß der Prädiktion bewegt hat.A clear further improvement can be achieved if the results of the object-oriented environment representation are combined with a map-based environment representation. In a preferred embodiment, it is therefore provided that, for fusion objects which can not be assigned to any of the sensor objects at a measurement time k + 1, the existence probability is fused instead of determining the probability of existence of the corresponding sensor object using the occupancy probability for the area or areas at which the fusion object is located according to the prediction. Such situations, in which no corresponding sensor object for a fusion object is supplied by a measuring device, occur, for example, in a radar system if another static or dynamic object in the environment conceals the corresponding object corresponding to the fusion object in the meantime. This means that the object in the environment corresponding to the fusion object can not be detected by the radar beams because another object, for example, a bridge pier or a road sign mounted on a traffic island, the field of vision of the radar on the corresponding real object in obscured one or more measuring cycles. In such a situation, a sensor device is often unable to provide a sensor object for this real object, since the sensor device for this purpose must be able to detect and track the real object itself over a certain period of time to ensure that a real existing object exists. By contrast, the raw data can often provide earlier and more reliably a statement about an occupancy of a certain area in the environment of the motor vehicle. Thus, the fusing is improved by using known probabilities of existence from the mappings map for objects in a particular area corresponding to the area in which the fusion object moved according to the prediction.
Bei einer Ausführungsform ist vorgesehen, dass die Fusionierung nach folgender Formel erfolgt:
Weiterhin ist es vorteilhaft, eine Klassifizierung der Objekte vorzunehmen. Hierbei erfolgt eine Klassifizierung der Sensorobjekte hinsichtlich ihres Typs als auch vorzugsweise eine Klassifizierung der Fusionsobjekte hinsichtlich ihres Typs. Mit einer Klassifizierung ist ein Objekttyp bzw. eine Objektklasse gemeint. Zu diesen zählen Fußgänger, Fahrradfahrer, Autos, Bäume, Häuser usw. Besonders vorteilhaft wird die Klassifizierung mit Vergleichsdaten vorgenommen, die entweder in den Sensoreinrichtungen vorliegen und/oder in der Auswerteeinrichtung abgelegt sind. Als Vergleichsdaten können beispielsweise Referenzdaten dienen. Für eine Sensoreinrichtung, die als Stereokamera ausgebildet ist, kann beispielsweise ein Höhenverhältnis zu einem Breitenverhältnis eines ermittelten Objekts innerhalb eines definierten Raumbereichs bzw. einer definierten Fläche des Umfelds bestimmt werden. Anhand dieses Verhältnisses kann beispielsweise ermittelt werden, ob es sich um einen Fußgänger handelt. Die Klassifizierung anhand von Referenzdaten kann sowohl in den Sensoreinrichtungen als auch in der Auswerteeinrichtung oder alternativ in den Sensoreinrichtungen oder der Auswerteeinrichtung vorgenommen werden. Die Klassifizierung stellt somit ein mögliches Attribut der Sensorobjekte und auch der Fusionsobjekte dar. Als weitere Attribute werden Vorgaben über die Geometrie der Objekte, wie beispielsweise eine Länge, eine Breite und/oder eine Höhe bestimmt. Weiterhin vorteilhaft ist es, eine Dynamik der Objekte zu bestimmen. Mit der Dynamik der Objekte sind eine Gierrate, eine Geschwindigkeit, eine Orientierung sowie eine Beschleunigung usw. eines Objekts gemeint. Weiterhin zählen zur Dynamik Informationen, die ein fahrzeugbezogenes Fahrverhalten charakterisieren, beispielsweise einen Überholvorgang, einen Ein- und/oder Ausparkvorgang, einen Notbremsvorgang, einen Beschleunigungsvorgang, einen Verzögerungsvorgang, ein Kreuzen einer Fahrbahn von Fußgängern und/oder Radfahrern usw., um nur einige charakterisierende Eigenschaften der Dynamik von Objekten zu nennen.Furthermore, it is advantageous to carry out a classification of the objects. Here, a classification of the sensor objects in terms of their type and preferably a classification of the fusion objects in terms of their type. A classification refers to an object type or an object class. These include pedestrians, cyclists, cars, trees, houses, etc. Particularly advantageously, the classification is made with comparative data, which are either present in the sensor devices and / or stored in the evaluation. For example, reference data can serve as comparison data. For a sensor device which is designed as a stereo camera, for example, a height ratio to a width ratio of a determined object within a defined spatial area or a defined area of the environment can be determined. On the basis of this ratio can be determined, for example, if it is a pedestrian. The classification based on reference data can be carried out both in the sensor devices and in the evaluation device or alternatively in the sensor devices or the evaluation device. The classification thus represents a possible attribute of the sensor objects and also of the fusion objects. As further attributes, specifications about the geometry of the objects, such as a length, a width and / or a height are determined. It is also advantageous to determine a dynamics of the objects. By the dynamics of the objects is meant a yaw rate, a velocity, an orientation as well as an acceleration etc. of an object. Furthermore, dynamics that characterize a vehicle-related driving behavior, such as an overtaking process, an entry and / or Ausparkvorgang, an emergency braking process, an acceleration process, a deceleration process, a crossing of a lane of pedestrians and / or cyclists, etc., to name a few characterizing the dynamics To call properties of the dynamics of objects.
Ebenso wie die Existenzwahrscheinlichkeiten der einzelnen Sensorobjekte können auch weitere Attribute einer Fusionierung unterzogen werden. Eine bevorzugte Ausführungsform sieht daher vor, dass die Sensorobjekte und Fusionsobjekte hinsichtlich weiterer Attribute einem Fusionierungsverfahren unterzogen werden, beispielsweise unter Verwendung eines Kalman-Filters. Dies bedeutet, dass eine Dynamik und Prädiktion beispielsweise mittels eines Kalman-Filters ausgeführt werden kann.Like the probabilities of existence of the individual sensor objects, other attributes can also be subjected to a fusion. A preferred embodiment therefore provides that the sensor objects and fusion objects are subjected to a fusion process with regard to further attributes, for example using a Kalman filter. This means that dynamics and prediction can be carried out, for example, by means of a Kalman filter.
Zur weiteren Ausgestaltung der Erfindung ist es vorteilhaft, dass die in der Auswerteeinheit verarbeiteten Informationen zu einer detaillierten Beschreibung des Umfelds zusammengefügt werden. Die Auswerteeinheit kann ein Rechner sein, der Informationen aufnimmt, verarbeitet und die Ergebnisse zusammenfügt. Die zusammengefügten Ergebnisse können vorteilhaft auch grafisch durch die Auswerteeinheit aufbereitet werden, so dass sie auf einer Ausgabeeinheit, z.B. einer Anzeigevorrichtung, darstellbar sind. Die detaillierten Ergebnisse werden vorteilhaft von anderen System genutzt, die auf Umfeldinformationen angewiesen sind, um beispielsweise das Fahrzeug zu lenken, in die Längs- und/oder Querführung und/oder -dynamik einzugreifen, Precrash-Maßnahmen zu ergreifen usw. Daher ist es vorteilhaft, wenn die Umfeldrepräsentation zumindest auch in elektronischer Form bereitgestellt wird.For further embodiment of the invention, it is advantageous that the information processed in the evaluation unit are combined to form a detailed description of the environment. The evaluation unit can be a computer that receives information, processes and combines the results. Advantageously, the assembled results can also be graphically processed by the evaluation unit so that they can be processed on an output unit, e.g. a display device can be displayed. The detailed results are advantageously used by other systems that rely on environmental information, for example, to steer the vehicle, intervene in the longitudinal and / or transverse guidance and / or dynamics, take pre-crash measures, etc. Therefore, it is advantageous if the environment representation is provided at least in electronic form.
In der Auswerteeinrichtung sind Informationen eines Expertensystems angesiedelt bzw. umgesetzt. Das Expertenwissen, welches zum Teil in den Fusionierungsvorschriften und Formeln enthalten ist, kann zusätzlich weitere Informationen auswerten und nutzbar machen, um die Informationsfusionierung zu verbessern. Bei einer Ausführungsform der Erfindung ist vorgesehen, dass mittels mindestens einer dritten Sensoreinrichtung Informationen über das Umfeld und/oder die mindestens eine Sensoreinrichtung und/oder die mindestens eine zweite Einrichtung erfasst werden und die Sensoreinrichtungsabhängigkeit der Fusionierung abhängig von den Informationen der mindestens einen dritten Sensoreinrichtung variiert wird. Bei der dritten Sensoreinrichtung kann es sich beispielsweise um einen Sensor handeln, der Regen im Umfeld des Kraftfahrzeugs detektiert. Handelt es sich bei einer der Sensoreinrichtungen beispielsweise um eine Stereokamera, so ist es bekannt, dass diese. bei starkem Regen hinsichtlich der Objekterfassung gestört ist. Somit ist es vorteilhaft, beispielsweise bei der Fusionierung der Existenzwahrscheinlichkeiten der Sensorobjekte, die von der als Stereokamera ausgebildeten Sensoreinrichtung bereitgestellten Informationen schwächer gewichtet in die Fusionsobjekte zu fusionieren, als dies der Fall ist, wenn trockene Verhältnisse herrschen. Ebenso spielen insbesondere Lichtverhältnisse, beispielsweise eine tief stehende, entgegen der Fahrtrichtung gerichtete Sonneneinstrahlung eine entscheidende Rolle für eine Güte der mittels der Stereokamera empfangenen Daten. Auch andere Sensoreinrichtungen, die andere Messverfahren und Prinzipien verwenden, können von Umfeldeinflüssen abhängig unterschiedlich zuverlässige Messergebnisse liefern. Vorteilhaft ist ferner ein Expertensystem, welches Informationen der Sensoreinrichtungen vergleicht, beispielsweise hinsichtlich ihrer Klassifikation, und zumindest die Daten einzelner Sensorobjekte nur in die Fusionierung einbezieht, wenn diese durch ein Sensorobjekt einer anderen Sensoreinrichtung plausibilisiert und/oder bestätigt werden. Wenn ein Radar beispielsweise einen stationären Gullideckel auf einer Straße erfasst, dann wird diese Information von dem Expertensystem bei einer Ausführungsform nur weitergegeben, wenn die Information von einer Kamera bestätigt wird.In the evaluation device information of an expert system are located or implemented. The expert knowledge, which is partly contained in the fusing rules and formulas, can additionally evaluate and utilize further information in order to improve the information fusion. In one embodiment of the invention, information about the surroundings and / or the at least one sensor device and / or the at least one second device is detected by means of at least one third sensor device and the sensor device dependency of the fusion varies depending on the information of the at least one third sensor device becomes. The third sensor device may be, for example, a sensor that detects rain in the environment of the motor vehicle. If one of the sensor devices is, for example, a stereo camera, then it is known that this. is disturbed in heavy rain in terms of object detection. Thus, it is advantageous, for example in the fusing of the probabilities of existence of the sensor objects, to merge the information provided by the sensor device designed as a stereo camera into the fusion objects with less weight than is the case when dry conditions prevail. Likewise play in particular light conditions, for example a low-level, directed against the direction of travel solar radiation a crucial role for a quality of the data received by means of the stereo camera. Other sensor devices that use other measurement methods and principles can also deliver different reliable measurement results depending on environmental influences. Also advantageous is an expert system, which compares information of the sensor devices, for example with regard to their classification, and at least incorporates the data of individual sensor objects only in the fusion, if they are plausibility and / or confirmed by a sensor object of another sensor device. For example, if a radar detects a stationary manhole cover on a road, then in one embodiment this information is only relayed by the expert system when the information is acknowledged by a camera.
Um insbesondere eine objektbasierte Umfelddarstellung, wie sie über die Fusionierungsobjekte bereitgestellt wird, mit der über die Belegungskarte bereitgestellten Umfelddarstellung in konsistenter Weise zu verbessern, ist bei einer Ausführungsform vorgesehen, dass den Fusionierungsobjekten eine Nachverfolgungsinformation zugeordnet wird, die ein Maß für eine Güte einer Nachverfolgung des Fusionsobjekts über mehrere Messzeitpunkte angibt, und für die Fusionsobjekte, die bewegte Objekte repräsentieren und für die die Nachverfolgungsinformation eine ausreichende Nachverfolgungsgüte anzeigt, die im Ausdehnungsbereich des Fusionsobjekts liegenden Zellen der Belegungskarte als belegt gekennzeichnet werden und diesen Zellen die Belegungswahrscheinlichkeit zugeordnet wird, die der Existenzwahrscheinlichkeit des Fusionsobjekts entspricht. Hierdurch wird eine Belegungskartendarstellung geschaffen, in der sowohl die statischen Objekte als auch die dynamisch bewegten Objekte mit einer hohen Existenzwahrscheinlichkeit an den Positionen dargestellt sind, die dem optimalen „Wissensstand“ der Umfelderfassung entsprechen. Es versteht sich, dass die Zellen, denen über die Fusionierungsobjekte eine Belegung und eine Existenzwahrscheinlichkeit bzw. Belegungswahrscheinlichkeit zugewiesen ist, gesondert gekennzeichnet sind, so dass bei einer Aktualisierung der Belegungskarte die Bewegung des Fusionsobjekts berücksichtigt wird.In particular, in order to consistently improve an object-based environment representation, such as provided via the merge objects, with the environment representation provided via the occupancy card, in one embodiment it is provided that tracking information is associated with the merger objects, which is a measure of a goodness of a follow-up of the entity Indicates the fusion object over a plurality of measurement times, and for the fusion objects representing moving objects for which the tracking information indicates sufficient tracking quality, the occupancy map cells in the extension area of the fusion object are designated as occupied and those occupancy probabilities are assigned to those cells; Corresponds to the fusion object. This creates an occupancy map representation in which both the static objects and the dynamically moving objects are represented with a high probability of existence at the positions that correspond to the optimal "knowledge level" of Umweisfassung. It is understood that the cells to which assignment and likelihood of existence or occupancy probability are assigned via the fusing objects are identified separately, so that when the occupancy map is updated, the movement of the fusion object is taken into account.
Als besonders vorteilhaft erweist sich hierbei eine Ausführungsform, bei der die Belegungswahrscheinlichkeiten, die bei der Erstellung der Belegungskarte ohne Berücksichtigung der Fusionierungsobjekte ermittelt sind, für die Zellen abgespeichert werden, wenn deren Belegungswahrscheinlichkeit aufgrund eines Fusionierungsobjekts verändert wird. Hat sich das Fusionierungsobjekt aus dem der Zelle zugeordneten Bereich wegbewegt, d.h. entfernt, können dann der Belegungszustand und/oder die Belegungswahrscheinlichkeit der Zelle, die zuvor abgespeichert wurden, erneut der Zelle zugewiesen bzw. in die Fusionierung der neu gewonnenen Informationen der Sensoreinrichtungen miteinbezogen werden.In this case, an embodiment proves to be particularly advantageous in which the occupancy probabilities determined during the creation of the occupancy card without taking into account the fusing objects are stored for the cells if their occupancy probability due to a fusing object is changed. If the fusing object has moved away from the region associated with the cell, i. Then, the occupancy state and / or occupancy probability of the cell previously stored may be reassigned to the cell or included in the fusion of the newly acquired sensor device information.
Die mindestens eine erste Sensoreinrichtung umfasst vorzugsweise eine Stereokamera und/oder die mindestens eine zweite Sensoreinrichtung ein Radar oder Lidar (Laser Imaging Detection and Ranging System).The at least one first sensor device preferably comprises a stereo camera and / or the at least one second sensor device comprises a radar or lidar (laser imaging detection and ranging system).
Die im Zusammenhang mit dem Verfahren beschriebenen Vorteile gelten entsprechend für die korrespondierenden Vorrichtungsmerkmale der erfindungsgemäßen Vorrichtung.The advantages described in connection with the method apply correspondingly to the corresponding device features of the device according to the invention.
Nachfolgend wird die Erfindung unter Bezugnahme auf eine Zeichnung anhand von Ausführungsbeispielen näher erläutert. Hierbei zeigen:
-
1 ein schematisches Blockschaltbild einer Vorrichtung zum Bereitstellen einer Umfelddarstellung eines Fahrzeugs; -
2 eine schematische Darstellung einer Erläuterung einer kartenbasierten Umfelddarstellung; -
3 eine schematische Darstellung zur Beschreibung der Informationsgewinnung mit einem Radarsystem; -
4 eine schematische Darstellung zur Erläuterung der Informationsgewinnung mittels einer Stereokamera; und -
5 eine schematische Darstellung eines Verfahrens zur Umfelddarstellung.
-
1 a schematic block diagram of an apparatus for providing an environment representation of a vehicle; -
2 a schematic representation of an explanation of a card-based environment representation; -
3 a schematic representation for describing the information acquisition with a radar system; -
4 a schematic representation for explaining the information acquisition by means of a stereo camera; and -
5 a schematic representation of a method for environment representation.
In
Die erste Sensoreinrichtung
Die erste Sensoreinrichtung
Insbesondere ist die Auswerteeinrichtung ausgebildet, für die von der ersten Sensoreinrichtung
Um eine verbesserte Umfelddarstellung zu erhalten, liefern die erste Sensoreinrichtung
Dem Fachmann sind Verfahren bekannt, wie eine solche Belegungskarte erstellt werden kann. Üblich ist es, dass jeder Zelle mindestens eine Belegungswahrscheinlichkeit zugeordnet ist, die ein statistisches Maß dafür ist, dass die Zelle belegt oder frei ist. Wird die Belegungswahrscheinlichkeit für die Zelle auf einen Wert zwischen Null und Eins begrenzt, so ist es beispielsweise möglich, dem Wert Eins den Zustand „belegt“ und dem Wert Null den Zustand „frei“ zuzuordnen. Da einzelne Messungen nur eine endliche Wahrscheinlichkeit für eine Existenz eines Objekts in einem entsprechenden Raumbereich angeben, ist es vorteilhaft, die Belegungswahrscheinlichkeit einer Zelle in der Belegungskarte dadurch abzusichern oder zu erhärten, dass die Belegungsinformationen unterschiedlicher Messzyklen fusioniert werden. Als Fusionierungsmethoden werden häufig das Bayes-Theorem, die Dempster-Shafer-Theorie oder eine Fuzzy-Logik verwendet. Beispielsweise kann die Belegungswahrscheinlichkeit
Hierbei gibt
In
Anhand von
In
Die Sensoreinrichtung ist ferner so ausgebildet, dass einzelne Objekte, hier der Straßenbaum
In
Um die Existenzwahrscheinlichkeit der erkannten Objekte verbessert bestimmen zu können, werden diese von den einzelnen Sensoreinrichtungen über mehrere Messzyklen verfolgt (getrackt). Hierbei wird anhand der Häufigkeit, mit der ein Objekt vorausgehend erkannt wurde, eine Existenzwahrscheinlichkeit aufgrund seiner „Lebensdauer“, d.h. Erfassungslebensdauer, ermittelt. Je häufiger ein Objekt erkannt wurde, desto höher ist dessen Existenzwahrscheinlichkeit und desto unwahrscheinlicher ist es, dass die Detektion auf ein Messrauschen oder Ähnliches zurückzuführen ist. Zusätzlich werden bei einer Kamera beispielsweise die Anzahl der dem Objekt zugeordneten 3D-Punkte ausgewertet, um eine Existenzwahrscheinlichkeit zu erhalten. Je mehr 3D-Bildpunkte einem Objekt zugeordnet werden, desto größer ist dessen Existenzwahrscheinlichkeit. Hierbei ist jedoch zu berücksichtigen, dass Objekte in großer Entfernung aufgrund der Abbildungsperspektive zwangsläufig nur einen kleineren Bildbereich bedecken und eine Anzahl der Bildpunkte, die diesen zugeordnet werden können, zwangsweise geringer sind als bei einem Objekt, welches sich in unmittelbarer Nähe des Fahrzeugs bei der Detektion befindet. Daher wird die Existenzwahrscheinlichkeit aufgrund der Anzahl der detektierten und dem Objekt zugewiesenen Messpunkte bei einer Ausführungsform in Abhängigkeit eines Abstands von dem Fahrzeug ermittelt. Für andere Sensoreinrichtungen können andere Kriterien herangezogen werden, um eine Existenzwahrscheinlichkeit der detektierten Objekte zu ermitteln. Für Radar- oder Lidarsensoren wird hierzu beispielsweise wie oben bereits erwähnt eine Reflexionssignalstärke herangezogen. Die einzelnen so ermittelten Existenzwahrscheinlichkeiten für die einzelnen Objekte werden in den einzelnen Sensoreinrichtungen vorzugsweise über einen der Fuzzy-Logik entstammenden Ansatz fusioniert, welcher über die nachfolgenden Fusionierungsformeln für die Existenzwahrscheinlichkeit einzelner Objekte, wie sie in den Sensoreinrichtungen ermittelt werden, angegeben sind. Die Gammafaktoren werden verwendet, um eine Verknüpfung zu wählen, die zwischen einer Oder-Verknüpfung (y = 1) und einer Und-Verknüpfung (γ = 0) angepasst an den entsprechenden Sensortyp ausgewählt werden kann. Die Gammafaktoren werden somit für jeden einzelnen Sensor bzw. jede einzelne Sensoreinrichtung individuell angepasst. Für eine Stereokamera wird somit die Existenzwahrscheinlichkeit eines detektierten Sensorobjekts vorzugsweise nach folgender Formel berechnet:
Hierbei gibt PSignalstärke(k) die aufgrund der Reflexionssignalstärke ermittelte Existenzwahrscheinlichkeit eines Objekts an. Here, P signal strength (k) indicates the existence probability of an object determined on the basis of the reflection signal strength .
Auch wenn die in den einzelnen Sensoreinrichtungen ermittelten Existenzwahrscheinlichkeiten bereits eine hohe Güte aufweisen, lässt sich diese deutlich verbessern, indem in der Auswerteeinrichtung eine Fusionierung der Sensorobjekte zu Fusionsobjekten durchgeführt wird. Dies ist exemplarisch in
Bei der kartenbasierten Fusion
Bei der objektbasierten Fusion
Wird ein Objekt erstmals erfasst, so kann das zugehörige Sensorobjekt mit keinem der zuvor ermittelten Fusionsobjekte assoziiert werden. Somit wird ein neues Fusionsobjekt initialisiert, dessen Existenzwahrscheinlichkeit PFusObj(k) die Existenzwahrscheinlichkeit des entsprechenden Sensorobjekts PSensobj(k) zugewiesen wird:
Kann ein Sensorobjekt einem Fusionsobjekt zugeordnet werden, so wird die Existenzwahrscheinlichkeit des Fusionsobjekts zum Zeitpunkt k+1 gemäß folgender Formel berechnet:
Hierbei geben δA und δB Gewichtungen für das Sensorobjekt und das Fusionsobjekt an. Hierbei gilt: δA + δB = 1. Die Gewichte werden auf Basis eines aktuellen Sensorvertrauensgrads und einer Abweichung zwischen prädiziertem Fusionsobjekt und gemessenem Sensorobjekt festgelegt. Wird somit eine große Abweichung beim Tracken des Fusionsobjekts festgestellt, so wird die Existenzwahrscheinlichkeit des Sensorobjekts geringer gewichtet. Die Gewichtung des Sensorobjekts wird verringert, wenn äußere Einflüsse für eine Sensoreinrichtung deren Messzuverlässigkeit beeinflusst. Beispielsweise beeinflusst Regen eine Detektionszuverlässigkeit einer Stereokamera nachteilig. Solche Informationen können beispielsweise über die dritte Sensoreinrichtung
Kann ein Fusionsobjekt keinem der ermittelten Sensorobjekte zugeordnet werden, so wird bei einer bevorzugten Ausführungsform dessen Existenzwahrscheinlichkeit dadurch aktualisiert, dass anstelle einer durch ein Sensorobjekt gelieferten Existenzwahrscheinlichkeit anhand der Belegungskarte die Belegungswahrscheinlichkeit an dem Ort, an dem sich das Fusionsobjekt gemäß der Prädiktion befinden soll, verwendet wird, um eine Existenzwahrscheinlichkeit abzuleiten. Eine Fusionierung der Existenzwahrscheinlichkeit des Fusionsobjekts erfolgt in einem solchen Fall gemäß folgender Formel:
γ ist erneut eine geeignet zu wählende Fusionierungskonstante. PGrid(k+1) gibt die aus der Belegungskarte abgeleitete Existenzwahrscheinlichkeit zum Zeitpunkt k+1, vorzugsweise nach dem Aktualisieren der Belegungskarte, an.γ is again a suitable fusing constant. P Grid (k + 1) indicates the probability of existence derived from the occupancy map at
Kann ein Fusionsobjekt keinem der Sensorobjekte zugeordnet werden und ist dessen Existenzwahrscheinlichkeit kleiner als ein Vorgabewert, beispielsweise kleiner 0,2, so wird das Fusionsobjekt verworfen, d.h. nicht weiter nachverfolgt (getrackt).If a fusion object can not be assigned to any of the sensor objects and if its probability of existence is less than a default value, for example less than 0.2, then the fusion object is discarded, i. not further tracked (tracked).
Die objektbasierte Fusion
Bei einer Ausführungsform ist vorgesehen, dass die dynamischen Objekte gemäß ihrer Klassifizierung, welche eine Ausdehnung angibt, oder nur punktuell, d.h. in einer Zelle, in die Belegungskarte eingetragen werden und ihnen dort als Belegungswahrscheinlichkeit die ermittelte Existenzwahrscheinlichkeit des entsprechenden Fusionsobjekts zugeordnet wird. Hierdurch erhält man eine sehr stark verbesserte Belegungskarte, in der sowohl die statischen Bereiche als auch die dynamischen Objekte jeweils mit einer hohen Zuverlässigkeit hinsichtlich der Belegungswahrscheinlichkeit bzw. Existenzwahrscheinlichkeit verzeichnet sind.In one embodiment, it is provided that the dynamic objects are classified according to their classification, which indicates an extent, or only selectively, i. in a cell, are entered in the occupancy map and they are assigned there as occupancy probability, the determined likelihood of existence of the corresponding fusion object. This gives a very much improved occupancy map, in which both the static areas and the dynamic objects are each recorded with a high reliability in terms of occupancy probability or probability of existence.
Allgemein wird den übrigen Fahrzeugsystemen eine Umfelddarstellung bereitgestellt, die die dynamischen Objekte und die statischen Bereiche optimal charakterisieren. Hierbei ist es möglich, dass sowohl die Fusionsobjekte mit ihren Existenzwahrscheinlichkeiten als auch eine Belegungskarte mit und/oder ohne darin eingefügte Fusionsobjekte bereitgestellt werden.In general, the rest of the vehicle systems are provided with an environment representation that optimally characterizes the dynamic objects and the static areas. In this case, it is possible that both the fusion objects with their existence probabilities and an allocation card with and / or without fusion objects inserted therein are provided.
Es versteht sich, dass die dargestellten Ausführungsformen lediglich beispielhafte Ausführungsformen sind. Insbesondere können mehr Sensoreinrichtungen in die Sensordatenfusion einbezogen werden. Ferner wird angemerkt, dass die Fusionierung der Sensorobjekte jeweils über Fusionsobjekte ausgeführt ist. Dies bietet den Vorteil, dass die einzelnen Sensoreinrichtungen nicht zeitlich synchronisiert ihre Sensordaten zur Verfügung stellen müssen. Andere Ausführungsformen können jedoch sehr wohl vorsehen, dass Sensordaten einzelner unterschiedlicher Sensoreinrichtungen zunächst miteinander assoziiert und fusioniert werden und erst anschließend gegebenenfalls zusätzlich mit einem zuvor ermittelten Fusionsobjekt zu einem aktualisierten Fusionsobjekt fusioniert werden.It is understood that the illustrated embodiments are merely exemplary embodiments. In particular, more sensor devices can be included in the sensor data fusion. It should also be noted that the fusion of the sensor objects is carried out in each case via fusion objects. This offers the advantage that the individual sensor devices do not have to provide their sensor data synchronized in time. However, other embodiments can very well provide that sensor data of individual different sensor devices are first associated with each other and fused and only then optionally additionally fused with a previously determined fusion object to an updated fusion object.
BezugszeichenlisteLIST OF REFERENCE NUMBERS
- 11
- Vorrichtung zum Bereitstellen einer UmfelddarstellungDevice for providing an environment representation
- 22
- erste Sensoreinrichtungfirst sensor device
- 33
- zweite Sensoreinrichtungsecond sensor device
- 44
- Auswerteeinrichtungevaluation
- 55
- Expertensystemexpert system
- 66
- Kraftfahrzeugmotor vehicle
- 77
- StraßeStreet
- 88th
- Pfeilarrow
- 99
- linker Fahrbahnrand (in Fahrtrichtung)left edge of the track (in the direction of travel)
- 1010
- Objekteobjects
- 1111
- rechter Fahrbahnrand (in Fahrtrichtung)right side of the road (in the direction of travel)
- 1212
- Leitplankebarrier
- 1313
- Seitenstreifenshoulder
- 14 14
- weiteres Objektanother object
- 1515
- Koordinatensystemcoordinate system
- 1616
- Belegungskarteoccupancy map
- 1717
- dritte Sensoreinrichtungthird sensor device
- 2121
- Bildimage
- 2222
- Fahrbahnroadway
- 2323
- vorausfahrendes Fahrzeugpreceding vehicle
- 2424
- Straßenbaumstreet tree
- 2525
- abgestelltes Fahrzeugparked vehicle
- 2727
- Ordinateordinate
- 2828
- Abszisseabscissa
- 29-3129-31
- Reflexionssignalereflection signals
- 3232
- Erfassungsbereichdetection range
- 4141
- AbbildungIllustration
- 4242
- Fahrbahnroadway
- 43-4543-45
- vorausfahrende Fahrzeugepreceding vehicles
- 4646
- Straßenlaternestreet lamp
- 4747
- Baumtree
- 4848
- Hecke/MauerHedge / wall
- 5151
- Ordinateordinate
- 5252
- Abszisseabscissa
- 5353
- Randstreifenedge strips
- 6161
- erste Sensoreinrichtungfirst sensor device
- 6262
- zweite Sensoreinrichtungsecond sensor device
- 6363
- Informationen für eine kartenbasierte FusionInformation for a card-based merger
- 6464
- kartenbasierte Fusioncard based fusion
- 6565
- Informationen für eine SensorobjektfusionInformation for a sensor object fusion
- 6666
- objektbasierte Fusionobject-based fusion
- 6767
- Assoziieren mit ZellenAssociate with cells
- 6868
- Aktualisieren der ZellenUpdate the cells
- 6969
- Belegungskarteoccupancy map
- 7171
- Assoziationassociation
- 7272
- Kalman-Filter-TrackingKalman filter tracking
- 7373
- Initialisierunginitialization
- 7474
- AktualisierungUpdate
- 7575
- Verwerfungrejection
- 7676
- Bereitstellen von Objekten mit ExistenzwahrscheinlichkeitProvision of existence probability objects
- 7777
- Bereitstellen einer UmfelddarstellungProviding an environment representation
Claims (19)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102009006113.4A DE102009006113B4 (en) | 2008-03-03 | 2009-01-26 | Device and method for sensor fusion with dynamic objects |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102008012197.5 | 2008-03-03 | ||
DE102008012197 | 2008-03-03 | ||
DE102009006113.4A DE102009006113B4 (en) | 2008-03-03 | 2009-01-26 | Device and method for sensor fusion with dynamic objects |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102009006113A1 DE102009006113A1 (en) | 2009-09-10 |
DE102009006113B4 true DE102009006113B4 (en) | 2019-03-28 |
Family
ID=40936482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102009006113.4A Active DE102009006113B4 (en) | 2008-03-03 | 2009-01-26 | Device and method for sensor fusion with dynamic objects |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102009006113B4 (en) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102010006828B4 (en) * | 2010-02-03 | 2021-07-08 | Volkswagen Ag | Method for the automatic creation of a model of the surroundings of a vehicle as well as driver assistance system and vehicle |
DE102010003375B4 (en) * | 2010-03-29 | 2021-07-22 | Bayerische Motoren Werke Aktiengesellschaft | Environment evaluation system in a vehicle with sensor means for detecting objects in the vicinity of the vehicle |
DE102010023199A1 (en) | 2010-06-09 | 2011-02-10 | Daimler Ag | Method for operating image capturing device for realizing outer mirror functions of motor vehicle, involves monitoring momentary state of cameras in dependence of result of comparison and/or merging of environmental characteristics |
US9186153B2 (en) * | 2011-01-31 | 2015-11-17 | Covidien Lp | Locking cam driver and jaw assembly for clip applier |
JP5884912B2 (en) | 2012-09-03 | 2016-03-15 | トヨタ自動車株式会社 | Collision determination device and collision determination method |
DE102012220191A1 (en) | 2012-11-06 | 2014-05-08 | Robert Bosch Gmbh | Method for supporting driver during transverse guide of vehicle, involves carrying out steering intervention during collision of vehicle with recognized objects, and determining vehicle data through forward facing camera |
DE102013203239A1 (en) * | 2013-02-27 | 2014-08-28 | Bayerische Motoren Werke Aktiengesellschaft | Grid-based prediction of the position of an object |
DE102013008828A1 (en) | 2013-05-24 | 2014-11-27 | Volkswagen Aktiengesellschaft | Method for creating a model of an environment of a vehicle and a correspondingly configured driver assistance system |
DE102013209764B4 (en) * | 2013-05-27 | 2023-10-05 | Robert Bosch Gmbh | Assisting a driver of a motor vehicle |
DE102013211109A1 (en) * | 2013-06-14 | 2014-12-31 | Robert Bosch Gmbh | Assistance device and method for assisting a driver of the vehicle |
JP5991332B2 (en) | 2014-02-05 | 2016-09-14 | トヨタ自動車株式会社 | Collision avoidance control device |
FR3020616B1 (en) * | 2014-04-30 | 2017-10-27 | Renault Sas | DEVICE FOR SIGNALING OBJECTS TO A NAVIGATION MODULE OF A VEHICLE EQUIPPED WITH SAID DEVICE |
DE102014220687A1 (en) * | 2014-10-13 | 2016-04-14 | Continental Automotive Gmbh | Communication device for a vehicle and method for communicating |
DE102014223363B4 (en) * | 2014-11-17 | 2021-04-29 | Volkswagen Aktiengesellschaft | Method and device for localizing a motor vehicle in a fixed reference map |
JP6365385B2 (en) * | 2015-04-17 | 2018-08-01 | トヨタ自動車株式会社 | Three-dimensional object detection apparatus and three-dimensional object detection method |
DE102015107391A1 (en) * | 2015-05-12 | 2016-11-17 | Valeo Schalter Und Sensoren Gmbh | Method for controlling a functional device of a motor vehicle on the basis of fused sensor data, control device, driver assistance system and motor vehicle |
DE102015107392A1 (en) * | 2015-05-12 | 2016-11-17 | Valeo Schalter Und Sensoren Gmbh | Method for detecting an object in an environment of a motor vehicle based on fused sensor data, control device, driver assistance system and motor vehicle |
DE102015217385B4 (en) * | 2015-09-11 | 2022-10-27 | Robert Bosch Gmbh | Method and device for determining whether there is an object in the vicinity of a motor vehicle located within a parking lot |
CN105334514A (en) * | 2015-10-19 | 2016-02-17 | 上海无线电设备研究所 | Tramcar radar video compound early warning crashproof system and method |
DE102016205661B4 (en) * | 2016-04-06 | 2024-10-02 | Continental Automotive Technologies GmbH | Method for avoiding a collision and vehicle |
DE102016212716A1 (en) * | 2016-07-13 | 2018-01-18 | Conti Temic Microelectronic Gmbh | CONTROL DEVICE AND METHOD |
CN107813821B (en) * | 2016-09-12 | 2024-05-31 | 北京行易道科技有限公司 | Early warning method and device |
FR3056531B1 (en) * | 2016-09-29 | 2019-07-12 | Valeo Schalter Und Sensoren Gmbh | OBSTACLE DETECTION FOR MOTOR VEHICLE |
FR3056530B1 (en) * | 2016-09-29 | 2019-07-12 | Valeo Schalter Und Sensoren Gmbh | OBSTRUCTION DETECTION BY FUSION OF OBJECTS FOR MOTOR VEHICLE |
DE102016220581A1 (en) * | 2016-10-20 | 2018-04-26 | Continental Teves Ag & Co. Ohg | METHOD AND DEVICE FOR DETERMINING A ENVIRONMENTAL MODEL |
DE102016122193A1 (en) * | 2016-11-18 | 2018-05-24 | Valeo Schalter Und Sensoren Gmbh | Function monitoring of a sensor device of a motor vehicle |
US20180203100A1 (en) * | 2017-01-19 | 2018-07-19 | Honeywell International Inc. | Quality metric for ranging sensor in a degraded visual environment for a situational awareness system |
FR3062836B1 (en) * | 2017-02-10 | 2019-04-26 | Valeo Schalter Und Sensoren Gmbh | METHOD AND SYSTEM FOR DETERMINING A TRUST INDEX ASSOCIATED WITH AN OBJECT OF AN ENVIRONMENT OF A VEHICLE |
DE102017203838B4 (en) * | 2017-03-08 | 2022-03-17 | Audi Ag | Process and system for detecting the surroundings |
DE102017206123A1 (en) * | 2017-04-10 | 2018-10-11 | Robert Bosch Gmbh | Method and device for merging data from various sensors of a vehicle as part of an object recognition |
DE102017210830A1 (en) * | 2017-06-27 | 2018-12-27 | Bayerische Motoren Werke Aktiengesellschaft | Create and use an edge development map |
DE102017116016A1 (en) | 2017-07-17 | 2019-01-17 | Valeo Schalter Und Sensoren Gmbh | A motor vehicle sensor device having a plurality of sensor units and a neural network for generating an integrated representation of an environment |
DE102017116017A1 (en) | 2017-07-17 | 2019-01-17 | Valeo Schalter Und Sensoren Gmbh | An automotive sensor device having a plurality of sensor units and a plurality of neural networks for generating a combined representation of an environment |
ES2946763T3 (en) | 2017-08-10 | 2023-07-25 | Siemens Mobility GmbH | Sensor-controlled adaptation of data fusion weight parameters to meteorological conditions in an odometry unit of a rail vehicle |
DE102017220269A1 (en) * | 2017-11-14 | 2019-05-16 | Continental Automotive Gmbh | DRIVER ASSISTANCE SYSTEM, VEHICLE AND METHOD FOR TRACKING OBJECTS |
DE102017223325A1 (en) | 2017-12-20 | 2019-06-27 | Conti Temic Microelectronic Gmbh | Method and device for merging measurements from different sources of information |
DE102018205248B4 (en) * | 2018-04-09 | 2024-08-22 | Bayerische Motoren Werke Aktiengesellschaft | Fusion system for fusing environmental information for a motor vehicle |
FR3080590B1 (en) * | 2018-04-25 | 2020-11-20 | Psa Automobiles Sa | OBSTACLE DETECTION METHOD AND SYSTEM IN THE ENVIRONMENT OF A MOTOR VEHICLE |
DE102018004125A1 (en) | 2018-05-23 | 2018-11-22 | Daimler Ag | Method for analyzing an object in an environment of a motor vehicle |
DE102018118666A1 (en) * | 2018-08-01 | 2020-02-06 | Carl Zeiss Ag | Sensor fusion with mutual correspondence analysis of sensor data |
DE102018220024B3 (en) * | 2018-11-22 | 2020-03-12 | Audi Ag | Method for fusing sensor data from several sensors and fusion device for fusing sensor data from several sensors |
US10627823B1 (en) * | 2019-01-30 | 2020-04-21 | StradVision, Inc. | Method and device for performing multiple agent sensor fusion in cooperative driving based on reinforcement learning |
DE102019201930A1 (en) * | 2019-02-14 | 2020-08-20 | Continental Automotive Gmbh | Method for generating an environment model |
DE102019123483B4 (en) * | 2019-09-02 | 2021-12-09 | Audi Ag | Method and motor vehicle control unit for detecting the surroundings of a motor vehicle by merging sensor data at point cloud level |
DE102019216387A1 (en) * | 2019-10-24 | 2021-04-29 | Zf Friedrichshafen Ag | Floor conveyor with ultra broadband radar |
DE102019132363A1 (en) | 2019-11-28 | 2021-06-02 | Bayerische Motoren Werke Aktiengesellschaft | Method for operating an environment detection device with a grid-based evaluation and with a merger, as well as environment detection device |
DE102021113111A1 (en) | 2021-04-12 | 2022-10-13 | Conti Temic Microelectronic Gmbh | Method for calibrating sensor information of a vehicle and driver assistance system |
DE102021003297A1 (en) | 2021-06-25 | 2021-09-02 | Daimler Ag | Method for object tracking and merging of at least two sensor signals, control device for carrying out such a method, fusion device with such a control device and motor vehicle with such a fusion device |
CN114511978B (en) * | 2021-12-27 | 2024-02-20 | 浙江华锐捷技术有限公司 | Intrusion early warning method, device, vehicle and computer readable storage medium |
DE102022211052A1 (en) | 2022-10-19 | 2024-04-25 | Robert Bosch Gesellschaft mit beschränkter Haftung | Processing of measurement data from a multi-sensor arrangement with plausibility check |
DE102023100418A1 (en) | 2023-01-10 | 2024-07-11 | Bayerische Motoren Werke Aktiengesellschaft | Method and device for tracking the lateral distance of an object |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0913751A1 (en) | 1997-11-03 | 1999-05-06 | Volkswagen Aktiengesellschaft | Autonomous vehicle and guiding method for an autonomous vehicle |
DE69522486T2 (en) | 1994-03-30 | 2002-04-18 | Onera (Off Nat Aerospatiale) | Procedure for tracking moving bodies |
DE102005009146A1 (en) | 2005-03-01 | 2006-09-21 | Robert Bosch Gmbh | Driver assistance system with several assistance functions |
DE102006035207A1 (en) | 2006-07-29 | 2008-01-31 | Volkswagen Ag | Object e.g. traffic-relevant object, determining device for vehicle, has evaluation device determining and supplying threshold values depending on supplied value, and radar device verifying whether object is provided in position |
-
2009
- 2009-01-26 DE DE102009006113.4A patent/DE102009006113B4/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE69522486T2 (en) | 1994-03-30 | 2002-04-18 | Onera (Off Nat Aerospatiale) | Procedure for tracking moving bodies |
EP0913751A1 (en) | 1997-11-03 | 1999-05-06 | Volkswagen Aktiengesellschaft | Autonomous vehicle and guiding method for an autonomous vehicle |
DE102005009146A1 (en) | 2005-03-01 | 2006-09-21 | Robert Bosch Gmbh | Driver assistance system with several assistance functions |
DE102006035207A1 (en) | 2006-07-29 | 2008-01-31 | Volkswagen Ag | Object e.g. traffic-relevant object, determining device for vehicle, has evaluation device determining and supplying threshold values depending on supplied value, and radar device verifying whether object is provided in position |
Also Published As
Publication number | Publication date |
---|---|
DE102009006113A1 (en) | 2009-09-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102009006113B4 (en) | Device and method for sensor fusion with dynamic objects | |
DE102014223363B4 (en) | Method and device for localizing a motor vehicle in a fixed reference map | |
EP2561419B1 (en) | Method for determining the lane course for a vehicle | |
DE102005002760B4 (en) | Device and method for accident prevention in motor vehicles | |
EP1298454B1 (en) | Method for recognising and tracking objects | |
DE60106899T2 (en) | Method for avoiding and reducing collisions | |
DE112017006263T5 (en) | Collision avoidance device for a vehicle and collision avoidance method for this | |
DE102011119767A1 (en) | APPEARANCE-BASED ASSOCIATION OF CAMERA AND DISTANCE SENSORS FOR MULTIPLE OBJECTS | |
EP3627386A1 (en) | Method and device for providing an image of the vicinity of a mobile device and motor vehicle comprising such a device | |
WO2013029722A2 (en) | Method for representing surroundings | |
DE102018104243B3 (en) | Method and system for detecting parking spaces suitable for a vehicle | |
DE102009006214B4 (en) | Method for providing a representation of the surroundings of a vehicle | |
DE102021113651B3 (en) | System for sensor data fusion for environmental perception | |
DE102008020007A1 (en) | Driver assisting method for vehicle, involves performing edge detection by horizontal and vertical sobel-edge operator, determining gray value gradient, generating binary signal by evaluation of gray value gradients | |
DE102018008442A1 (en) | Method for weather and / or visibility detection | |
WO2015010901A1 (en) | Efficiently providing occupancy information on the surroundings of a vehicle | |
DE102014212216A1 (en) | Method and driver assistance system for detecting a Fahrzeugumfel des | |
DE102013217486A1 (en) | Method for representing an environment of a vehicle in an occupancy grid | |
DE102017211387A1 (en) | System and method for automated maneuvering of an ego vehicle | |
EP2353958B1 (en) | Method for evaluating sensor data of the surroundings of a motor vehicle from at least one environment sensor and motor vehicle | |
DE102016200656A1 (en) | Method for evaluating an environment of a vehicle | |
DE102016220450A1 (en) | Apparatus, means of transport and method for estimating a collision probability between a means of locomotion and an environment object | |
DE102019131667A1 (en) | VEHICLE AND METHOD OF PREDICTING A COLLISION | |
DE102019208507A1 (en) | Method for determining the degree of overlap between an object and a lane | |
WO2015010902A1 (en) | Efficiently providing occupancy information on the surroundings of a vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
R163 | Identified publications notified | ||
R163 | Identified publications notified |
Effective date: 20130802 |
|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final | ||
R082 | Change of representative |