DE102015100134B4 - Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren - Google Patents
Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren Download PDFInfo
- Publication number
- DE102015100134B4 DE102015100134B4 DE102015100134.9A DE102015100134A DE102015100134B4 DE 102015100134 B4 DE102015100134 B4 DE 102015100134B4 DE 102015100134 A DE102015100134 A DE 102015100134A DE 102015100134 B4 DE102015100134 B4 DE 102015100134B4
- Authority
- DE
- Germany
- Prior art keywords
- cluster
- stationary
- point
- radar
- vehicle
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/66—Radar-tracking systems; Analogous systems
- G01S13/72—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
- G01S13/723—Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar by using numerical data
- G01S13/726—Multiple target tracking
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/87—Combinations of radar systems, e.g. primary radar and secondary radar
- G01S13/878—Combination of several spaced transmitters or receivers of known location for determining the position of a transponder or a reflector
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/89—Radar or analogous systems specially adapted for specific applications for mapping or imaging
- G01S13/90—Radar or analogous systems specially adapted for specific applications for mapping or imaging using synthetic aperture techniques, e.g. synthetic aperture radar [SAR] techniques
- G01S13/9021—SAR image post-processing techniques
- G01S13/9029—SAR image post-processing techniques specially adapted for moving target detection within a single SAR image or within multiple SAR images taken at the same time
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/415—Identification of targets based on measurements of movement associated with the target
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93271—Sensor installation details in the front of the vehicles
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
- G01S13/931—Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
- G01S2013/9327—Sensor installation details
- G01S2013/93272—Sensor installation details in the back of the vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Remote Sensing (AREA)
- Radar, Positioning & Navigation (AREA)
- Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- General Physics & Mathematics (AREA)
- Electromagnetism (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren, das umfasst, dass:Objekte relativ zu einem Host-Fahrzeug (12, 50) aus Radardaten, die durch eine Erfassungseinrichtung erzeugt werden, detektiert werden, wobei die Radardaten Doppler-Messdaten umfassen;durch einen Prozessor als Funktion der Radardaten Cluster gebildet werden, wobei jedes Cluster ein jeweiliges Objekt darstellt;durch den Prozessor jedes jeweilige Objekt basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs (12, 50) als stationär oder nicht stationär klassifiziert wird; undin Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, durch den Prozessor eine Zielverfolgung auf ein Objekt unter Verwendung von Doppler-Messdaten über der Zeit angewandt wird, andernfalls ein Belegungsgitter in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt aktualisiert wird;wobei das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär die folgenden Schritte umfasst:Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster;Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster;Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster;Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.
Description
- HINTERGRUND DER ERFINDUNG
- Eine Ausführungsform bezieht sich auf eine Objektsensorvereinigung.
- Radarsysteme werden verwendet, um Objekte auf der Fahrstraße zu detektieren. Derartige Systeme verwenden eine kontinuierliche oder periodische Verfolgung von Objekten über der Zeit, um verschiedene Parameter eines Objekts zu ermitteln. Oftmals werden Daten, wie beispielsweise Objektort, Entfernung und Entfernungsänderung, unter Verwendung der Daten von Radarsystemen berechnet. Eingänge von Radaren sind jedoch oftmals wenige verfolgte Ziele. Darüber hinaus basieren Radarsysteme oftmals auf der Annahme, dass das Ziel ein einzelner Punkt ist, was es noch mehr erschwert, nahe Ziele zu bewerten.
- NGUYEN, Thien-Nghia et al.: Stereo-camera-based urban environment perception using occupancy grid and object tracking, in: IEEE Transactions on Intelligent Transportation Systems, Vol. 13, 2012, No. 1, S. 154-165, ISSN 1524-9050 beschreibt eine Kombination eines objektbasierten und eines gitterbasierten Verfahrens zur Bereitstellung von relevanter Information für eine Umgebungswahrnehmung. Weiterer Stand der Technik ist aus
DE 10 2004 030 752 A1 und KELLNER, Dominik et al.: Instantaneous lateral velocity estimation of a vehicle using Doppler radar, in: 2013 16th international conference on information fusion (FUSION 2013), 9-12 July 2013, Vol. 2, S. 877-884, ISBN 978-1-4799-0284-2 bekannt. - ZUSAMMENFASSUNG DER ERFINDUNG
- Aufgabe der Erfindung ist es, ein verbessertes Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren bereitzustellen.
- Zur Lösung der Aufgabe ist ein Verfahren mit den Merkmalen des Anspruchs 1 vorgesehen. Vorteilhafte Ausbildungen der Erfindung sind den Unteransprüchen, der Beschreibung und den Zeichnungen zu entnehmen.
- Ein Vorteil einer Ausführungsform ist das verbesserte Verfolgen einer Objektposition und -orientierung relativ zu einem Host-Fahrzeug. Das Host-Fahrzeug verwendet Doppler-Messdaten, um zu ermitteln, welche Teile der Radardaten ein Cluster bilden, sowie zum Ermitteln, ob das Cluster stationär oder dynamisch ist. Das Verfolgen einer Position und der Form des Objekts ermöglicht dem Host-Fahrzeug, die Orientierung des Objekts während jedes Zeit-Frames zu ermitteln. Da sich eine Objektform von einem Host-Fahrzeug aus gesehen ändert, kann die Orientierung auf der Grundlage der Änderungen der Form zu jedem Zeitpunkt ermittelt und dementsprechend verfolgt werden. Folglich kann das jeweilige Verfolgungssystem die Orientierung, Position und Geschwindigkeit eines entfernten Fahrzeugs zu anderen Fahrzeugsubsystemen für deren Verwendung hinsichtlich Objekten außerhalb des Fahrzeugs übermitteln.
- Eine Ausführungsform zieht ein Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung von mehreren Radarsensoren in Betracht. Es werden Objekte relativ zu einem Host-Fahrzeug aus Radardaten detektiert, die durch eine Erfassungseinrichtung erzeugt werden. Die Radardaten umfassen Doppler-Messdaten. Durch einen Prozessor werden Cluster als Funktion der Radardaten gebildet. Jedes Cluster stellt ein jeweiliges Objekt dar. Jedes jeweilige Objekt wird durch den Prozessor als stationär oder nicht stationär basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs klassifiziert. In Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, wird eine Zielverfolgung durch den Prozessor auf ein Objekt unter Verwendung der Doppler-Messdaten über der Zeit angewandt; andernfalls wird in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt ein Belegungsgitter aktualisiert. Das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär umfasst die folgenden Schritte: Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster; Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster; Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster; Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.
- Figurenliste
-
-
1 ist eine bildliche Darstellung eines Fahrzeugumgebungserfassungssystems. -
2 ist ein Blockdiagramm eines Objektdetektions- und -verfolgungssystems. -
3 ist eine beispielhafte Darstellung eines Radars, das ein Zielfahrzeug detektiert. -
4a ist eine beispielhafte Darstellung eines Radars, das ein sich bewegendes Ziel detektiert. -
4b ist ein Resthistogramm zum Ermitteln eines dynamischen oder stationären Ziels in4a . -
5a ist eine beispielhafte Darstellung eines Radars, das ein stationäres Ziel detektiert. -
5b ist ein Resthistogramm zum Ermitteln eines dynamischen oder stationären Ziels in5b . -
6 ist eine beispielhafte Darstellung von über der Zeit verfolgten Radardaten für ein Fahrzeug. -
7 ist ein Flussdiagramm zum Aktualisieren eines Objektmodells und einer Objektbewegung. -
8 ist ein Flussdiagramm einer Verfolgungstechnik eines Bayes'schen Netzes. -
9 ist eine Darstellung eines Systems einer dynamischen Ziellokalisierung unter Verwendung von Radnaben eines Fahrzeugs. -
10 ist eine Radnabe zum Ermitteln der Geschwindigkeit eines Fahrzeugs. - DETAILLIERTE BESCHREIBUNG
-
1 zeigt ein Fahrzeugumgebungserfassungssystem 10 zum Detektieren von Objekten 360 Grad um ein Fahrzeug 12. Das System 10 umfasst eine erste Erfassungseinrichtung 14, eine zweite Erfassungseinrichtung 16, eine dritte Erfassungseinrichtung 18 und eine vierte Erfassungseinrichtung 20. Jeder der Sensoren detektiert Objekte in einer erfassten Region, die das Fahrzeug 12 umgibt. Die Daten von jedem der Sensoren werden vereinigt, um zusammenwirkend Objekte außerhalb des Fahrzeugs 12 zu verfolgen. Es sei angemerkt, dass die Anzahl von Sensoren wie in1 gezeigt beispielhaft ist, und dass entweder einer oder mehrere Sensoren verwendet werden können, ohne von dem Schutzumfang der Erfindung abzuweichen. - Nahbereichsradarsensoren weisen typischerweise ein schmales Band auf und weisen Probleme beim Erfassen von Objekten, die sich in einer kompakten Szene befinden, oder nahen ausgedehnten Objekten aufgrund von fehlender Entfernung auf. Wenn beispielsweise ein Host-Fahrzeug auf einer Autobahn fährt, wobei sich ein entferntes Fahrzeug auf einer Seite des Host-Fahrzeugs und eine Leitplanke auf der anderen Seite des Fahrzeugs befinden, sind derartige Objekte schwierig zu unterscheiden, wenn Daten von Nahbereichsradarsensoren verwendet werden. Das heißt, die Auflösung beider Objekte sieht gleich aus, so dass nicht ermittelt werden kann, ob beide Objekte dynamisch oder stationär sind. Dies ist auf die Punktzielannahme zurückzuführen, die bei der Verfolgung verwendet wird, welche aufgrund von Schwierigkeiten bei der Datenassoziierung nicht geeignet ist.
- In
1 umfasst jede der Erfassungseinrichtungen 14-20 Bildgebungseinrichtungen eines Radars mit synthetischer Apertur (SAR von synthetic aperture radar), die eine hohe Auflösung aufweisen, um lange ausdehnbare Objekte, wie beispielsweise Leitplanken, Betonwände und Lastkraftwagen, zu detektieren und zu verfolgen. Ferner umfasst das SAR Doppler-Messungen, die verwendet werden können, um ein stationäres Objekt von einem dynamischen Objekt zu unterscheiden. Nachdem die Objekte als stationär oder dynamisch klassifiziert wurden, können die Objekte über einen Konturabgleich zwischen benachbarten Frames verfolgt werden, um die Orientierung des Fahrzeugs konstant zu überwachen. Ferner kann eine Radnabendetektion verwendet werden, um die Position des Objekts zu verbessern, wenn das Objekt ein Fahrzeug ist. -
2 zeigt ein Blockdiagramm einer Übersicht für eine Cluster-Verfolgung. Die Kreise bezeichnen die Radarreflektoren von dem vorderen entfernten sich bewegenden Fahrzeug, während die Quadrate die Radarreflektoren von stationären Objekten am Straßenrand bezeichnen. Da diese beiden Gruppen unterschiedliche Attribute einer relativen Radialgeschwindigkeit aufweisen, werden die beiden Gruppen in zwei Cluster geclustert: Fahrzeug gegen stationäres Objekt am Straßenrand (d.h. Leitplanke). - In Kasten 30 werden Radardaten von Objektdetektionssensoren erhalten. Wie zuvor beschrieben, sind die Objektdetektionssensoren vorzugsweise SAR-Sensoren; es können jedoch auch andere Sensoren verwendet werden, die ähnliche Daten erhalten. Es können ein oder mehrere SAR-Sensoren verwendet werden, um Objekte zu detektieren, die die Fahrzeuge umgeben. Es sei angemerkt, dass das SAR eine Form von Radar ist, dessen definierende Charakteristik im Gegensatz zu herkömmlichen Radarsystemen seine Verwendung der relativen Bewegung (zwischen einer Antenne und seiner Zielregion) ist, um unterscheidbare Langzeitabweichungen eines kohärenten Signals bereitzustellen, um die räumliche Auflösung auszunutzen.
- Das SAR ist an dem Host-Fahrzeug angebracht, welches eine sich bewegende Plattform ist, und erzeugt eine einzelne Beamforming-Antenne. Eine Szene (z.B. eine Zielregion) wird wiederholt mit Impulsen von Funkwellen beleuchtet. Die Wellenformen werden als Ergebnis dessen, dass sich das Host-Fahrzeug bewegt, nacheinander an den verschiedenen Antennenpositionen empfangen. Derartige Positionen werden kohärent detektiert, gespeichert und zusammenwirkend verarbeitet, um Objekte in einem Bild der Zielregion zu detektieren. Es sei angemerkt, dass jede empfangene Wellenform einem Radarpunkt, im Gegensatz zu dem gesamten Objekt, entspricht. Daher werden mehrere Wellenformen empfangen, die verschiedene Radarpunkte, im Gegensatz zu dem gesamten Objekt, darstellen. Folglich ist es beim Betrachten der Rohdaten unklar, ob benachbarte Punkte ein gleiches Objekt oder unterschiedliche Objekte darstellen. Daher wird während dieses Schritts jeder Punkt als seine eigene Entität/sein eigenes Cluster betrachtet.
- In Kasten 31 wird eine Sensorregistrierung durchgeführt. Eine Sensorregistrierung ist ein Prozess eines Transformierens verschiedener Sätze von Daten unter einem Koordinatensystem. Eine Registrierung ist notwendig, um dazu in der Lage zu sein, Daten, die von verschiedenen Sensoren erhalten werden, zu integrieren und zu vergleichen.
- In Kasten 32 wird das Clustern auf jede Position, die in den Radardaten detektiert wird, durch einen Prozessor angewandt. Eine Position allein kann nicht zwei detektierte benachbarte Positionen unterscheiden. Beispielsweise überträgt ein Host-Fahrzeug 12 in
3 Radarsignale zum Detektieren von Objekten außerhalb des Fahrzeugs. Wie es in3 gezeigt ist, stellt der Satz von Quadraten eine Leitplanke 42 dar und stellt der Satz von Punkten ein hinteres Ende eines entfernten Fahrzeugs 44 dar. Durch Betrachten der Radardaten als Ganzes kann jedoch nicht ermittelt werden, welche jeweiligen Punkte Teil welches Objekts sind. Folglich können Doppler-Messdaten verwendet werden, um Cluster voneinander zu unterscheiden. Ein Doppler-Radar ist ein spezialisiertes Radar, das den DopplerEffekt verwendet, um Geschwindigkeitsdaten hinsichtlich Objekten in einer Distanz zu erzeugen. Es wird ein Mikrowellensignal zu einem gewünschten Ziel übertragen, und ein Empfänger horcht die Reflexion des Signals ab und analysiert dann, wie die Frequenz des zurückgegebenen Signals durch die Bewegung des Objekts geändert wurde. - In Kasten 32 wird, um zu ermitteln, ob ein Satz von Punkten innerhalb eines gleichen Clusters liegt, die folgende Cluster-Technik durch den Prozessor verwendet. Erstens werden alle detektierten Punkte von den Radardaten anfänglich als separate Cluster behandelt. Jeder Punkt ist ein 3-D-Punkt im Raum (x, y, d), wobei x eine Breitengradkoordinate relativ zu dem Host-Fahrzeug ist, y eine Längengradkoordinate relativ zu dem Host-Fahrzeug ist und d Doppler-Daten umfasst, die eine Radialgeschwindigkeitsinformation relativ zu dem Host-Fahrzeug bereitstellen. Zweitens wird jeder Punkt mit seinem benachbarten Punkt verglichen. Wenn ein Ähnlichkeitsmaß zwischen einem jeweiligen Punkt und seinem Nachbar kleiner als ein Ähnlichkeitsschwellenwert ist, werden die beiden Punkte zu einem einzelnen Cluster zusammengefasst. Wenn das Ähnlichkeitsmaß größer als ein Ähnlichkeitsschwellenwert ist, bleiben die beiden Punkte separate Cluster. Folglich werden ein oder mehrere Cluster für jeden der detektierten Punkte gebildet. Um diese Technik zu beschleunigen, können Radarpunkte unter Verwendung eines k-d-Baums oder einer Hash-Nachschlagetabelle indiziert werden.
- In Kasten 33 wird eine Klassifizierung durch einen Klassifizierer auf die Cluster angewandt, um zu ermitteln, ob jedes identifizierte Cluster ein stationäres Objekt (Grundgeschwindigkeit Null) oder ein dynamisches Objekt (Grundgeschwindigkeit nicht Null) ist. Eine Klassifizierung kann unter Verwendung des Prozessors durchgeführt werden, der die Radardaten clustert, oder kann eine separate Verarbeitungseinheit sein. Um zu ermitteln, ob ein Objekt stationär oder dynamisch ist, werden die Fahrzeuggeschwindigkeit des Host-Fahrzeugs und Doppler-Messdaten verwendet. Die Fahrzeuggeschwindigkeitsdaten des Host-Fahrzeugs werden in Kasten 34 erhalten. Es sei angemerkt, dass jede Einrichtung oder jeder Prozess verwendet werden kann, um die Geschwindigkeit des Host-Fahrzeugs zu ermitteln (z.B. Beispiele für solche Einrichtungen umfassen einen Raddrehzahlsensor, einen Motordrehzahlsensor, GPS, sind jedoch nicht darauf beschränkt.
- Um die Klassifizierungstechnik in Kasten 33 zu initiieren, wird zuerst angenommen, dass das analysierte Cluster stationär ist. Das Cluster wird durch eine Liste von Punkten (xi, yi, di) i = 1, ..., N dargestellt, wobei xi, yi, di ein Ort und eine Radialgeschwindigkeit von Radarreflektoren von einer Kontur des Ziels sind. Die Prüfung wird durchgeführt, um zu ermitteln, ob ein vorbestimmter Prozentsatz, vorzugsweise 80%, einer vorhergesagten Entfernungsänderung mit tatsächlichen Doppler-Messungen übereinstimmt. Wenn 80% der Restwerte innerhalb eines Schwellenwerts liegen, wird ermittelt, dass das Cluster stationär ist, andernfalls wird ermittelt, dass das Cluster dynamisch ist.
- Um den Restwert der Entfernungsänderung zu ermitteln, wird die Host-Fahrzeugkinematik durch die Host-Fahrzeuggeschwindigkeit vH und die Host-Fahrzeuggierrate ωH bezeichnet. Bei einem stationären Ziel bewegen sich die detektierten Radarpunkte mit Geschwindigkeiten
-
- Daher wird, unter Verwendung von 80% als der beispielhafte vorbestimmte Prozentsatzwert, wenn 80% der Restwerte innerhalb eines Restschwellenwerts, wie beispielsweise 0,5 m/s liegen, das Cluster als stationäres Cluster identifiziert; andernfalls wird das Cluster als dynamisches Cluster identifiziert.
-
4 und5 zeigen Beispiele eines Klassifizierens eines dynamischen Clusters bzw. eines stationären Clusters. In4a fährt ein Fahrzeug 50 benachbart zu einem Lastkraftwagen 52, wobei beide Fahrzeuge eine Grundgeschwindigkeit haben, die größer als Null ist. Bei diesem Beispiel fährt das Host-Fahrzeug mit 30 m/s, wohingegen der Lastkraftwagen 52 mit 20 m/s fährt. Das Host-Fahrzeug 50 überträgt einen Radarstrahl, der unter Verwendung der SAR-Einrichtungen an dem Lastkraftwagen 52 an verschiedenen Punkten reflektiert wird. Wie zuvor beschrieben, nimmt das Host-Fahrzeug 50 anfänglich an, dass das Cluster ein stationäres Cluster ist. Bei diesem Beispiel würde die vorhergesagte Differenz, wenn der Lastkraftwagen beispielsweise stationär wäre, -19 m/s für Punkte in dem Cluster vor dem Host-Fahrzeug 52 und 19 m/s für Punkte des Clusters hinter dem Host-Fahrzeug 52 betragen. In Ansprechen auf das Empfangen der reflektierten Radarsignale geben Doppler-Messdaten an, dass das Cluster (d.h. der Lastkraftwagen 52) eine Differenz von -7 m/s und 7 m/s aufweist. -
4b zeigt ein Resthistogramm für die Doppler-Messdaten. Element 54 (z.B. +/-0,5 m/s) stellt den Restschwellenwert dar. Wie in4b gezeigt liegen weit über 80% der Werte nicht innerhalb des Restschwellenwertbereichs. Daher wird das Cluster (d.h. der Lastkraftwagen 52) als dynamisches Cluster identifiziert. -
5a zeigt das Fahrzeug 50, das benachbart zu einer Leitplanke 56 fährt, wobei das Fahrzeug 50 eine Grundgeschwindigkeit aufweist, die größer als Null ist, und die Leitplanke eine Grundgeschwindigkeit aufweist, die Null ist. Das Host-Fahrzeug 50 nimmt anfänglich an, dass das benachbarte Cluster ein stationäres Cluster ist. Daher würde die vorhergesagte Differenz, wenn die Leitplanke stationär ist, -19 m/s für Punkte in dem Cluster vor dem Host-Fahrzeug 52 und 19 m/s für Punkte in dem Cluster hinter dem Host-Fahrzeug 52 betragen. In Ansprechen auf das Empfangen der reflektierten Radarsignale geben Doppler-Messdaten an, dass das Cluster (d.h. die Leitplanke 56) eine Differenz von -19 m/s und 19 m/s aufweist. Dies entspricht der vorhergesagten Geschwindigkeit. -
5b zeigt ein Resthistogramm für die Doppler-Messdaten. Element 58 (d.h. +/-0,5 m/s) stellt den Restschwellenwert dar, wenn das Cluster stationär ist. Wie in5b gezeigt, liegen weit über 80% der Werte in dem Schwellenwertbereich. Folglich wird das Cluster als stationäres Cluster identifiziert. - Wieder auf
2 Bezug nehmend wird in Kasten 35 basierend auf der in Kasten 33 identifizierten Klassifizierung durch den Prozessor ermittelt, ob das Cluster stationär ist. Wenn das Cluster als stationär ermittelt wird, fährt die Routine mit Kasten 36 fort; ansonsten fährt die Routine mit Kasten 37 fort. - In Kasten 36 wird durch den Prozessor ein Belegungsgitter erzeugt. Dieses identifiziert alle stationären Objekte in der Region außerhalb des Fahrzeugs, die durch die Sensoren detektiert wurden. Da die Objekte stationär sind, müssen sie nicht hinsichtlich einer Bewegung verfolgt werden, und somit wird ihre Belegung in Bezug auf ihre Position in einer Abtastkarte aktualisiert.
- In Kasten 37 wird eine Bayes'sche Regel verwendet, um das Belegungsgitter zu aktualisieren.
- Wieder auf Kasten 35 Bezug nehmend fährt die Routine mit Schritt 38 fort, um das Cluster zu verfolgen, wenn herausgefunden wurde, dass das Cluster nicht stationär ist. Um das Cluster zu verfolgen, stellt das SAR-Bildradar Radarortspunkte, die die Form des Clusters bilden, und Doppler-Messdaten zum Verfolgen der Kontur des Clusters, wie sie durch die SAR-Objektdetektionseinrichtungen gesehen wird, bereit. Für die Zwecke hierin wird eine Punktzielannahme, wie beispielsweise, dass ein Fahrzeug eine reguläre Form beibehält, nicht als Annahme beibehalten, was der Grund dafür ist, das herkömmliche Kalman-Filter oder Partikelfilter Schwierigkeiten bei einer Datenassoziierung hätten.
- Um ein Cluster zu verfolgen, muss eine starre Transformation zwischen zwei benachbarten Frames aufgelöst werden, um einen Radarmessabgleich zu verwenden, was eine Verschiebung in Längsrichtung, eine seitliche Verschiebung und Doppler umfasst.
6 zeigt einen Satz von Punkten, die für ein Cluster zu einem vorherigen Zeitpunkt detektiert wurden (M), und einen Satz von Punkten, die für ein Cluster zu einem aktuellen Zeitpunkt detektiert wurden (S). Mit dem gegebenen Eingang des Objektmodells M auf der Grundlage der vorherigen Radarkarte, einer aktuellen Radarkarte S und einer Ermittlung einer vorherigen starren Bewegung v von M nach S wird eine aktuelle starre Bewegung v ermittelt. - Eine 2-dimensionale starre Bewegung weist sowohl eine lineare Geschwindigkeit vt als auch eine Winkelgeschwindigkeit ω auf. Daher kann die folgende Formel verwendet werden, um die aktualisierte starre Bewegung v' iterativ zu berechnen, bis eine Konvergenz erhalten wird.
-
- Eine starre Transformation wird verwendet, um zusammenwirkend einen Ort und eine Orientierung von Objekten zu verifizieren, die durch die Radareinrichtungen zwischen zwei Zeitpunkten detektiert werden. Folglich ermöglicht eine Orientierung des Fahrzeugs unter Verwendung der mehreren Verfolgungspunkte, dass die Fahrzeugposition und -orientierung genau verfolgt werden.
- In Kasten 40 erhalten Ausgabeeinrichtungen, die Kollisionswarneinrichtungen und -systeme umfassen, jedoch nicht darauf beschränkt sind, die Verfolgungsdaten zum Verfolgen möglicher Kollisionen mit anderen Fahrzeugen und Alarmieren der Fahrt dementsprechend.
-
7 und8 zeigen eine Übersicht des Rahmenwerks zum Vereinigen einer Information für ein dynamisches Cluster.7 zeigt ein Blockflussdiagramm, bei dem das Verfolgen als das Problem von sowohl (i) Schätzen der Bewegung des Objekts als auch (ii) Aktualisieren des Objektmodells, wenn ein neuer Frame einer Radarabtastkarte empfangen wird, behandelt werden kann. Wie es in7 gezeigt ist, ist ein Objektmodell bei 60 gezeigt und ist eine Objektbewegungsschätzung bei 62 gezeigt. Die Objektbewegung wird unter Verwendung des Objektmodells rekursiv geschätzt, wohingegen das Objektmodell unter Verwendung der Objektbewegungsschätzung rekursiv aktualisiert wird. -
8 zeigt ein dynamisches Bayes'sches Netz, das zwei Schritte der hierin beschriebenen Verfolgungstechnik darstellt. Für die Verfolgungstechnik sind in der Routine S0, ..., St und St+1 abgetastete Radarkarten, welche ein dynamisches Cluster zu Zeitschritten 0, ..., t bzw. t+1 bilden. vt und vt+1 sind (zu schätzende) Parameter der starren Transformation zu den Zeitschritten t bzw. t+1. Mt und Mt+1 sind Objektmodelle zu den Zeitschritten t bzw. t+1. - Bei einem aktuellen Zeitschritt (t) wird der für den aktuellen Zeitschritt (t) geschätzte Transformationsparameter auf das Objektmodell für den aktuellen Zeitschritt (t) und auch die Radarkarte zum aktuellen Zeitschritt (t) angewandt. Ähnlich wird mit fortschreitender Zeit bei einem nächsten Zeitschritt (t+1) der für den nächsten Zeitschritt (t+1) geschätzte Transformationsparameter auf das Objektmodell für den nächsten Zeitschritt (t+1) und auch die Radarkarte zum nächsten Zeitschritt (t+1) angewandt. Das Ergebnis ist eine Bayes-basierte Technik, die die Bewegung rekursiv schätzt und das Objektmodell für eine Verfolgung basierend auf Parametern einer starren Transformation aktualisiert.
-
9 zeigt ein dynamisches Ziellokalisierungssystem durch Verfolgen des Fahrzeugs unter Verwendung der Radnabe des Fahrzeugs. Die Position zweier Radnaben kann verwendet werden, um eine Position eines Zielfahrzeugs zu ermitteln, um einen Ort des Fahrzeugs zur Verwendung bei der Zielverfolgungstechnik, die hier beschrieben wird, zu verbessern. Da Radnaben gute Reflektoren sind, stellen Radardaten, die von dem SAR-System erhalten werden, genauere Daten bereit. Radnaben bewegen sich mit unterschiedlichen Geschwindigkeiten relativ zu der Fahrzeugkarosserie.10 zeigt die Geschwindigkeit einer Radnabe an verschiedenen Orten der Radnabe. Beispielsweise ist die Geschwindigkeit an einem äußeren Abschnitt der Radnabe doppelt so groß wie die Geschwindigkeit an einem Mittelpunkt der Radnabe. - Wieder auf
9 Bezug nehmend werden zwei Radarpunkte 60 und 62 als Radnaben eines Zielfahrzeugs unter Verwendung von Maximum-Doppler-Messungen identifiziert. Es wird eine Basislinienbreite (W) zwischen den beiden Naben berechnet. Zwischen dem ersten Punkt 60 und dem zweiten Punkt 62 wird eine Orientierung θ ermittelt. Unter Verwendung der ersten Nabe 60 als Scheitel des Orientierungswinkels θ legen das Segment, das zwischen der ersten Nabe 60 und der zweiten Nabe 62 dargestellt ist, und der Vektor, in dem der durch das Host-Fahrzeug übertragene Radarstrahl auf die erste Nabe 60 trifft, den Orientierungswinkel θ fest. Daher können durch Verfolgen der Orientierung und der Basislinie des Zielfahrzeugs eine Position, Orientierung, Geschwindigkeit des Zielfahrzeugs konstant ermittelt und verfolgt werden. - Während bestimmte Ausführungsformen der vorliegenden Erfindung ausführlich beschrieben wurden, werden Fachleute, die diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen zum Ausführen der Erfindung wie durch die folgenden Ansprüche definiert erkennen.
Claims (3)
- Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren, das umfasst, dass: Objekte relativ zu einem Host-Fahrzeug (12, 50) aus Radardaten, die durch eine Erfassungseinrichtung erzeugt werden, detektiert werden, wobei die Radardaten Doppler-Messdaten umfassen; durch einen Prozessor als Funktion der Radardaten Cluster gebildet werden, wobei jedes Cluster ein jeweiliges Objekt darstellt; durch den Prozessor jedes jeweilige Objekt basierend auf den Doppler-Messdaten jedes Objekts und einer Fahrzeuggeschwindigkeit des Host-Fahrzeugs (12, 50) als stationär oder nicht stationär klassifiziert wird; und in Ansprechen darauf, dass das Objekt als nicht stationäres Objekt klassifiziert wird, durch den Prozessor eine Zielverfolgung auf ein Objekt unter Verwendung von Doppler-Messdaten über der Zeit angewandt wird, andernfalls ein Belegungsgitter in Ansprechen auf das Klassifizieren des Objekts als stationäres Objekt aktualisiert wird; wobei das Klassifizieren jedes jeweiligen Objekts als stationär oder nicht stationär die folgenden Schritte umfasst: Identifizieren einer Geschwindigkeit für jeden Punkt in einem Cluster; Identifizieren eines Einheitsvektors für jeden Punkt mit dem Cluster; Ermitteln eines Entfernungsänderungsrestwerts für jeden Punkt in dem Cluster; Ermitteln, dass das Cluster ein stationäres Cluster ist, wenn ein vorbestimmter Prozentsatz der Entfernungsänderungsrestwerte innerhalb eines Restschwellenwerts liegt; ansonsten, Ermitteln, dass das Cluster ein dynamisches Cluster ist.
- Verfahren nach
Anspruch 1 , wobei die Geschwindigkeit jedes Punkts in dem Cluster durch die folgende Gleichung ermittelt wird:
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/156,681 US9255988B2 (en) | 2014-01-16 | 2014-01-16 | Object fusion system of multiple radar imaging sensors |
US14/156,681 | 2014-01-16 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102015100134A1 DE102015100134A1 (de) | 2015-07-16 |
DE102015100134B4 true DE102015100134B4 (de) | 2022-07-14 |
Family
ID=53485092
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102015100134.9A Active DE102015100134B4 (de) | 2014-01-16 | 2015-01-08 | Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren |
Country Status (3)
Country | Link |
---|---|
US (1) | US9255988B2 (de) |
CN (1) | CN104793202B (de) |
DE (1) | DE102015100134B4 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017110808B4 (de) | 2016-06-03 | 2023-11-30 | Fujitsu Ten Limited | Radarvorrichtung und signalverarbeitungsverfahren |
Families Citing this family (88)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2793041A1 (de) * | 2013-04-15 | 2014-10-22 | Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO | Gesicherte Fahrzeugabsolutlokalisierung |
US9733350B2 (en) * | 2014-07-03 | 2017-08-15 | GM Global Technology Operations LLC | Vehicle radar control |
US20160047907A1 (en) * | 2014-08-14 | 2016-02-18 | Google Inc. | Modular Planar Multi-Sector 90 Degrees FOV Radar Antenna Architecture |
US11137490B2 (en) * | 2014-09-16 | 2021-10-05 | Teknologian Tutkimuskeskus Vtt | Navigational aid with adaptive radar |
US9469248B2 (en) * | 2014-10-10 | 2016-10-18 | Honda Motor Co., Ltd. | System and method for providing situational awareness in a vehicle |
US9239384B1 (en) * | 2014-10-21 | 2016-01-19 | Sandia Corporation | Terrain detection and classification using single polarization SAR |
DE102015119658A1 (de) * | 2015-11-13 | 2017-05-18 | Valeo Schalter Und Sensoren Gmbh | Verfahren zum Erfassen eines Umgebungsbereichs eines Kraftfahrzeugs mit Objektklassifizierung, Steuereinrichtung, Fahrerassistenzsystem sowie Kraftfahrzeug |
US10386480B1 (en) * | 2016-02-02 | 2019-08-20 | Waymo Llc | Radar based mapping and localization for autonomous vehicles |
US10191144B2 (en) * | 2016-02-26 | 2019-01-29 | Waymo Llc | Radar mounting estimation with unstructured data |
US10088553B2 (en) * | 2016-03-14 | 2018-10-02 | GM Global Technology Operations LLC | Method of automatic sensor pose estimation |
EP3239737B1 (de) * | 2016-04-29 | 2018-11-28 | Veoneer Sweden AB | Fehlausrichtungserkennung für einen fahrzeugradarsensor |
EP3252501B1 (de) * | 2016-06-03 | 2022-06-08 | Veoneer Sweden AB | Verbesserte objekterkennung und bewegungsstatusschätzung für ein fahrzeugumgebungserkennungssystem |
CN107561537B (zh) * | 2016-06-30 | 2024-04-30 | 北京行易道科技有限公司 | 雷达系统、交通工具、无人机以及探测方法 |
JP6597517B2 (ja) * | 2016-08-10 | 2019-10-30 | 株式会社デンソー | 物標検出装置 |
US10066946B2 (en) | 2016-08-26 | 2018-09-04 | Here Global B.V. | Automatic localization geometry detection |
EP4099057A1 (de) * | 2016-09-09 | 2022-12-07 | Arriver Software AB | Bestimmung der relativen geschwindigkeit in einem kraftfahrzeugradarsystem |
JP6824686B2 (ja) * | 2016-10-21 | 2021-02-03 | 株式会社デンソーテン | レーダ装置および物標グループ化方法 |
US10338208B2 (en) * | 2016-10-27 | 2019-07-02 | GM Global Technology Operations LLC | Object detection in multiple radars |
US20180120419A1 (en) * | 2016-10-27 | 2018-05-03 | GM Global Technology Operations LLC | Vehicle radar control |
US10315649B2 (en) | 2016-11-29 | 2019-06-11 | Ford Global Technologies, Llc | Multi-sensor probabilistic object detection and automated braking |
US10444347B2 (en) * | 2016-11-30 | 2019-10-15 | GM Global Technology Operations LLC | Accurate self localization using automotive radar synthetic aperture radar |
EP3349033A1 (de) | 2017-01-13 | 2018-07-18 | Autoliv Development AB | Verbesserte objekterkennung und bewegungsschätzung für ein fahrzeugumgebungserkennungssystem |
US9940826B1 (en) * | 2017-02-22 | 2018-04-10 | Honeywell International Inc. | Sensor data processing system for various applications |
CN110537102A (zh) * | 2017-02-24 | 2019-12-03 | 阿斯泰克斯有限责任公司 | 用于利用极化雷达数据进行对象分类的方法和适合于此的设备 |
US10139833B1 (en) | 2017-05-17 | 2018-11-27 | GM Global Technology Operations LLC | Six-dimensional point cloud system for a vehicle |
JP6805970B2 (ja) * | 2017-06-09 | 2020-12-23 | トヨタ自動車株式会社 | 物標情報取得装置 |
JP6816658B2 (ja) * | 2017-06-09 | 2021-01-20 | トヨタ自動車株式会社 | 物標情報取得装置 |
US10691135B2 (en) | 2017-09-22 | 2020-06-23 | Waymo Llc | Detecting motion of an autonomous vehicle using radar technology |
US10890919B2 (en) | 2017-09-22 | 2021-01-12 | Waymo Llc | Calculating velocity of an autonomous vehicle using radar technology |
US20190107615A1 (en) * | 2017-10-05 | 2019-04-11 | GM Global Technology Operations LLC | Method of tracking an object |
US10466346B2 (en) * | 2017-11-17 | 2019-11-05 | Gm Global Technology Operations, Llc | Method and apparatus for continuous tracking in a multi-radar system |
DE102018202294A1 (de) | 2018-02-15 | 2019-08-22 | Robert Bosch Gmbh | Schätzung von kartesischen Geschwindigkeiten von ausgedehnten Radarobjekten mit einem Radarsensor |
US11093759B2 (en) | 2018-03-06 | 2021-08-17 | Here Global B.V. | Automatic identification of roadside objects for localization |
US11275170B2 (en) * | 2018-04-06 | 2022-03-15 | Electromagnetic Systems, Inc. | Use of dual processing channels for stationary and moving objects illuminated by radar |
EP3553559B1 (de) * | 2018-04-11 | 2022-06-01 | Aptiv Technologies Limited | Verfahren zur erkennung von objekten |
EP3561542A1 (de) | 2018-04-27 | 2019-10-30 | Veoneer Sweden AB | Generische objektverfolgung auf basis von bedeutenden punkten |
US11372424B2 (en) * | 2018-05-10 | 2022-06-28 | GM Global Technology Operations LLC | Generalized 3D inverse sensor model |
US11079488B2 (en) * | 2018-05-14 | 2021-08-03 | GM Global Technology Operations LLC | DBSCAN parameters as function of sensor suite configuration |
US10365364B1 (en) * | 2018-05-18 | 2019-07-30 | Zendar Inc. | Systems and methods for detecting objects |
US10371797B1 (en) * | 2018-05-23 | 2019-08-06 | Zendar Inc. | Systems and methods for enhancing target detection |
US10642275B2 (en) | 2018-06-18 | 2020-05-05 | Zoox, Inc. | Occulsion aware planning and control |
US10935652B2 (en) * | 2018-06-26 | 2021-03-02 | GM Global Technology Operations LLC | Systems and methods for using road understanding to constrain radar tracks |
EP3588136B1 (de) | 2018-06-28 | 2021-03-03 | Veoneer Sweden AB | Objektdarstellung und -klassifizierung basierend auf fahrzeugsensorerkennungen |
DE102018210814A1 (de) * | 2018-06-30 | 2020-01-02 | Robert Bosch Gmbh | Verfahren zur Erkennung statischer Radarziele mit einem Radarsensor für Kraftfahrzeuge |
US11035943B2 (en) * | 2018-07-19 | 2021-06-15 | Aptiv Technologies Limited | Radar based tracking of slow moving objects |
US10914813B2 (en) * | 2018-08-21 | 2021-02-09 | Aptiv Technologies Limited | Classifying potentially stationary objects tracked by radar |
US11353577B2 (en) * | 2018-09-28 | 2022-06-07 | Zoox, Inc. | Radar spatial estimation |
CN109212514B (zh) * | 2018-09-29 | 2022-10-14 | 河北德冠隆电子科技有限公司 | 一种雷达检测设备对运动以及静止目标持续跟踪关联方法 |
CN110376583B (zh) * | 2018-09-30 | 2021-11-19 | 毫末智行科技有限公司 | 用于车辆传感器的数据融合方法及装置 |
CN110378178B (zh) * | 2018-09-30 | 2022-01-28 | 毫末智行科技有限公司 | 目标跟踪方法及装置 |
DE102018124215A1 (de) | 2018-10-01 | 2020-04-02 | Conti Temic Microelectronic Gmbh | Verfahren zur Erfassung von Umgebungsinformationen mittels mehrerer Radarsensoren |
US10838054B2 (en) | 2018-10-08 | 2020-11-17 | Aptiv Technologies Limited | Detection system and method |
KR102569900B1 (ko) * | 2018-12-04 | 2023-08-23 | 현대자동차주식회사 | 전방위 센서퓨전 장치 및 그의 센서퓨전 방법과 그를 포함하는 차량 |
US11092668B2 (en) * | 2019-02-07 | 2021-08-17 | Aptiv Technologies Limited | Trailer detection system and method |
US11828848B2 (en) * | 2019-03-14 | 2023-11-28 | Aeva, Inc. | Velocity estimation using doppler per point LiDAR systems |
US10887928B2 (en) * | 2019-04-24 | 2021-01-05 | Here Global B.V. | Lane aware clusters for vehicle to vehicle communication |
US11300677B2 (en) * | 2019-07-08 | 2022-04-12 | GM Global Technology Operations LLC | Automated driving systems and control logic for host vehicle velocity estimation using wide aperture radar |
CN110361722B (zh) * | 2019-07-17 | 2023-03-31 | 四川川大智胜软件股份有限公司 | 一种多雷达信号融合方法及系统 |
CA3150882A1 (en) * | 2019-10-10 | 2021-04-15 | Thales Canada Inc. | System and method to determine low-speed and stationary state of a rail vehicle |
CN111007454B (zh) * | 2019-10-28 | 2022-07-01 | 重庆邮电大学 | 一种基于合作目标信息的扩展目标跟踪方法 |
JP7204942B2 (ja) * | 2019-11-28 | 2023-01-16 | 三菱電機株式会社 | 物体認識装置、物体認識方法及び物体認識プログラム |
CN111091148B (zh) * | 2019-12-10 | 2021-07-27 | 成都纳雷科技有限公司 | 一种基于目标先验信息的车载雷达目标跟踪方法及装置 |
CN110940959B (zh) * | 2019-12-13 | 2022-05-24 | 中国电子科技集团公司第五十四研究所 | 一种用于低分辨雷达地面目标的人车分类识别方法 |
CN111239702B (zh) * | 2019-12-30 | 2022-03-01 | 北京润科通用技术有限公司 | 一种目标对象运动状态确定方法及装置 |
US11255957B2 (en) | 2020-01-27 | 2022-02-22 | Ford Global Technologies, Llc | Target velocity detection |
CN111289969B (zh) * | 2020-03-27 | 2022-03-04 | 北京润科通用技术有限公司 | 一种车载雷达运动目标融合方法及装置 |
DE102020204592A1 (de) * | 2020-04-09 | 2021-10-14 | Robert Bosch Gesellschaft mit beschränkter Haftung | Vorrichtung und Verfahren zur Verarbeitung von Radardaten und Radarsystem |
DE102020116027A1 (de) | 2020-06-17 | 2021-12-23 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Ermittlung von Belegungsinformation für einen Umfeldpunkt auf Basis von Radardetektionen |
DE102020116225B3 (de) | 2020-06-19 | 2021-08-26 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren zum radarbasierten Nachverfolgen von fahrzeugexternen Objekten, Objektnachverfolgungseinrichtung und Kraftfahrzeug |
CN111832635B (zh) * | 2020-06-28 | 2023-12-05 | 北方工业大学 | 地基sar图像与激光点云地形数据的匹配方法及装置 |
CN112036471B (zh) * | 2020-08-28 | 2022-02-08 | 四川长虹电器股份有限公司 | 一种基于毫米波雷达的多人跟踪方法 |
JP2022043413A (ja) * | 2020-09-04 | 2022-03-16 | 株式会社Subaru | 車外環境認識装置 |
US11841439B2 (en) * | 2020-11-02 | 2023-12-12 | Waymo Llc | Point cloud segmentation using a coherent lidar for autonomous vehicle applications |
US12050267B2 (en) | 2020-11-09 | 2024-07-30 | Waymo Llc | Doppler-assisted object mapping for autonomous vehicle applications |
US11656629B1 (en) | 2020-12-08 | 2023-05-23 | Waymo Llc | Detection of particulate matter in autonomous vehicle applications |
US12078715B2 (en) * | 2021-03-25 | 2024-09-03 | Aptiv Technologies AG | Radar tracking with model estimates augmented by radar detections |
US12092734B2 (en) | 2021-03-25 | 2024-09-17 | Aptiv Technologies AG | Partially-learned model for speed estimates in radar tracking |
CN114002674B (zh) * | 2021-10-08 | 2024-07-12 | 电子科技大学 | 一种基于sbrim的多重叠动目标位置与速度估计方法 |
EP4194885A1 (de) * | 2021-12-09 | 2023-06-14 | Aptiv Technologies Limited | Verfahren zur bestimmung des mobilitätszustands eines zielobjekts |
CN114220237B (zh) * | 2021-12-10 | 2024-04-05 | 昆仑杰信(北京)科技有限责任公司 | 安防雷达防盗防跌落报警方法 |
US20230195854A1 (en) * | 2021-12-22 | 2023-06-22 | Julien Ip | Filtering of dynamic objects from vehicle generated map |
EP4220224A1 (de) * | 2022-01-26 | 2023-08-02 | Robert Bosch GmbH | Verfahren und vorrichtung zur erkennung und verfolgung von objekten und fahrerassistenzsystem |
DE102022116054A1 (de) | 2022-06-28 | 2023-12-28 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Vorrichtung zur Erkennung und/oder zur Nachverfolgung von Objekten |
DE102022208465A1 (de) | 2022-08-15 | 2024-02-15 | Volkswagen Aktiengesellschaft | Verfahren zur Korrektur eines Radarsignals zum Bestimmen einer synthetischen Apertur, Computerprogramm, Vorrichtung und Fahrzeug |
CN115390054A (zh) * | 2022-08-18 | 2022-11-25 | 珠海中科新微安全科技有限公司 | 一种具有动、静目标融合算法的相控阵雷达 |
DE102022125695A1 (de) | 2022-10-05 | 2024-04-11 | Bayerische Motoren Werke Aktiengesellschaft | Verfahren und Einrichtung zur effizienten Objektnachverfolgung und entsprechend eingerichtetes Kraftfahrzeug |
US20240142614A1 (en) * | 2022-11-01 | 2024-05-02 | Ford Global Technologies, Llc | Systems and methods for radar perception |
CN117269951B (zh) * | 2023-08-21 | 2024-03-26 | 中国电子科技集团公司第五十四研究所 | 空地多视角信息增强的目标跟踪方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004030752A1 (de) | 2004-06-25 | 2006-01-19 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kursprädikation bei Kraftfahrzeugen |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4818999A (en) * | 1986-10-29 | 1989-04-04 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Method and apparatus for measuring frequency and phase difference |
US5087918A (en) * | 1990-04-02 | 1992-02-11 | Delco Electronics Corporation | FMCW/2FD implementation for vehicle near obstacle detection system |
FR2690755B1 (fr) * | 1992-04-30 | 1994-08-26 | Thomson Csf | Procédé et système de détection d'un ou plusieurs objets dans une zone angulaire, et applications. |
US5754099A (en) * | 1994-03-25 | 1998-05-19 | Nippondenso Co., Ltd. | Obstacle warning system for a vehicle |
JP3401913B2 (ja) * | 1994-05-26 | 2003-04-28 | 株式会社デンソー | 車両用障害物認識装置 |
JP2768439B2 (ja) * | 1994-11-08 | 1998-06-25 | 本田技研工業株式会社 | Fm−cw方式マルチビームレーダー装置 |
JP3266827B2 (ja) * | 1997-06-25 | 2002-03-18 | 本田技研工業株式会社 | 車両の物体検知装置 |
DE19942665B4 (de) * | 1998-09-07 | 2014-02-13 | Denso Corporation | FM-CW-Radarvorrichtung zum Messen der Entfernung zu einem Target und der relativen Geschwindigkeit des Targets |
JP3512066B2 (ja) * | 1998-12-10 | 2004-03-29 | トヨタ自動車株式会社 | 車載用レーダ装置 |
JP2000206241A (ja) * | 1999-01-13 | 2000-07-28 | Honda Motor Co Ltd | レ―ダ装置 |
JP2000298164A (ja) * | 1999-04-15 | 2000-10-24 | Honda Motor Co Ltd | マルチ・チャンネルレーダ装置 |
US6121916A (en) * | 1999-07-16 | 2000-09-19 | Eaton-Vorad Technologies, L.L.C. | Method and apparatus for recognizing stationary objects with a moving side-looking radar |
JP4115638B2 (ja) * | 1999-10-19 | 2008-07-09 | 本田技研工業株式会社 | 物体認識装置 |
DE19953790A1 (de) * | 1999-11-09 | 2001-05-10 | Bosch Gmbh Robert | Verfahren zur Erfassung von bewegten und/oder festen Objekten im Kursverlauf eines Fahrzeuges |
DE10113323C2 (de) * | 2001-03-20 | 2003-04-03 | Bosch Gmbh Robert | Radarsensorplattform |
DE10206764A1 (de) * | 2002-02-19 | 2003-08-28 | Bosch Gmbh Robert | Verfahren zum Einparken eines Fahrzeugs |
US6888622B2 (en) * | 2002-03-12 | 2005-05-03 | Nissan Motor Co., Ltd. | Method for determining object type of reflective object on track |
US6628227B1 (en) * | 2002-07-23 | 2003-09-30 | Ford Global Technologies, Llc | Method and apparatus for determining a target vehicle position from a source vehicle using a radar |
JP4293865B2 (ja) * | 2003-09-02 | 2009-07-08 | 富士通テン株式会社 | 物体検出装置 |
US7071867B2 (en) * | 2004-06-25 | 2006-07-04 | The Boeing Company | Method, apparatus, and computer program product for radar detection of moving target |
JP4829517B2 (ja) * | 2005-03-31 | 2011-12-07 | 株式会社デンソーアイティーラボラトリ | レーダ信号処理装置 |
DE102005017422A1 (de) * | 2005-04-15 | 2006-10-19 | Robert Bosch Gmbh | Fahrerassistenzsystem mit Einrichtung zur Erkennung von stehenden Objekten |
US7460951B2 (en) | 2005-09-26 | 2008-12-02 | Gm Global Technology Operations, Inc. | System and method of target tracking using sensor fusion |
JP4265803B2 (ja) * | 2005-11-22 | 2009-05-20 | 三菱電機株式会社 | レーダシステム |
JP4371115B2 (ja) * | 2006-03-01 | 2009-11-25 | トヨタ自動車株式会社 | 物体検出装置 |
US7518545B2 (en) * | 2006-10-26 | 2009-04-14 | Infineon Technologies Ag | Driver assistance system |
DE102007020264A1 (de) * | 2007-04-30 | 2008-11-20 | Tyco Electronics Amp Gmbh | Verfahren und Messvorrichtung zum Bestimmen einer Relativgeschwindigkeit |
JP5380788B2 (ja) * | 2007-05-30 | 2014-01-08 | トヨタ自動車株式会社 | 物体検出装置、及び車両用制御装置 |
DE102007054821A1 (de) * | 2007-11-16 | 2009-05-20 | Robert Bosch Gmbh | Verfahren zur Schätzung der Breite von Radarobjekten |
AT507035B1 (de) * | 2008-07-15 | 2020-07-15 | Airbus Defence & Space Gmbh | System und verfahren zur kollisionsvermeidung |
US7737880B2 (en) * | 2008-10-22 | 2010-06-15 | Honeywell International Inc. | Microwave and millimeterwave radar sensors |
US8818703B2 (en) * | 2009-01-29 | 2014-08-26 | Toyota Jidosha Kabushiki Kaisha | Object recognition device and object recognition method |
CN102472817B (zh) * | 2009-07-31 | 2014-02-26 | 本田技研工业株式会社 | 车用物体探测装置和车用物体探测方法 |
JP5666987B2 (ja) * | 2011-05-25 | 2015-02-12 | 株式会社デンソー | 移動物体検出装置 |
DE102013102153A1 (de) * | 2012-03-15 | 2013-09-19 | GM Global Technology Operations LLC | Verfahren zur Registrierung von Entfernungsbildern von mehreren LiDAR-Sensoren |
-
2014
- 2014-01-16 US US14/156,681 patent/US9255988B2/en active Active
-
2015
- 2015-01-08 DE DE102015100134.9A patent/DE102015100134B4/de active Active
- 2015-01-16 CN CN201510021800.6A patent/CN104793202B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102004030752A1 (de) | 2004-06-25 | 2006-01-19 | Robert Bosch Gmbh | Verfahren und Vorrichtung zur Kursprädikation bei Kraftfahrzeugen |
Non-Patent Citations (2)
Title |
---|
KELLNER, Dominik [et al.]: Instantaneous lateral velocity estimation of a vehicle using Doppler radar. In: 2013 16th international conference on information fusion (FUSION 2013), 9-12 July 2013. Vol. 2. S. 877-884. – ISBN 978-1-4799-0284-2 |
NGUYEN, Thien-Nghia [et al.]: Stereo-camera-based urban environment perception using occupancy grid and object tracking. In: IEEE Transactions on Intelligent Transportation Systems, Vol. 13, 2012, No. 1, S. 154-165. – ISSN 1524-9050 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102017110808B4 (de) | 2016-06-03 | 2023-11-30 | Fujitsu Ten Limited | Radarvorrichtung und signalverarbeitungsverfahren |
Also Published As
Publication number | Publication date |
---|---|
CN104793202A (zh) | 2015-07-22 |
US20150198711A1 (en) | 2015-07-16 |
DE102015100134A1 (de) | 2015-07-16 |
US9255988B2 (en) | 2016-02-09 |
CN104793202B (zh) | 2018-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102015100134B4 (de) | Verfahren zum Detektieren und Verfolgen von Objekten unter Verwendung mehrerer Radarsensoren | |
EP3485290B1 (de) | Verfahren und system zur abtastung eines objekts | |
DE102015122825B4 (de) | Techniken zum Gruppieren von Zielelementen für eine Objektfusion | |
EP3175256B1 (de) | Verfahren zum klassifizieren eines objektes in einem umgebungsbereich eines kraftfahrzeugs, fahrerassistenzsystem und kraftfahrzeug | |
EP2561419B1 (de) | Verfahren zur bestimmung des fahrbahnverlaufes für ein kraftfahrzeug | |
DE102015107388A1 (de) | Kollisionsvermeidung mit statischen Zielobjekten in engen Räumen | |
DE19532597A1 (de) | System und Verfahren zur Objektverfolgung unter Verwendung eines Detektorsystems | |
EP3540457A1 (de) | Identifikation von objekten mittels radardaten | |
DE102008029613A1 (de) | Verfahren zur Schätzung der Elevation eines Zielobjekts unter Verwendung einer Radar-Datenfusion | |
DE102017102506B4 (de) | Verfahren zum erfassen anderer fahrzeuge relativ zu einem trägerfahrzeug mittels raderfassung | |
DE102018111626A1 (de) | Sechsdimensionales punktwolkensystem für ein fahrzeug | |
DE102012200139A1 (de) | Verfahren und Vorrichtung zur radunabhängigen Geschwindigkeitsmessung bei einem Fahrzeug | |
DE102013113619A1 (de) | Probabilistische Zielauswahl und Gefahrbewertungsverfahren und Anwendung auf ein Kreuzungs-Kollisonswarnsystem | |
DE102017203344A1 (de) | Erfassen von langen objekten durch sensorfusion | |
DE102016225494B4 (de) | Verfahren und vorrichtung zum erfassen eines zielobjekts | |
EP3538843A1 (de) | Schätzen einer eigenposition | |
DE102017131114A1 (de) | Verfahren und Vorrichtung zum Bestimmen wenigstens eines Parameters eines Objektes | |
DE102018202864A1 (de) | Verfahren und System für Synthetische-Apertur-Radarsignalverarbeitung | |
DE102018000517A1 (de) | Verfahren zur radarbasierten Vermessung und/oder Klassifizierung von Objekten in einer Fahrzeugumgebung | |
DE69316450T2 (de) | Passives Flugzeugüberwachungssystem | |
DE102020123293A1 (de) | Verfahren, Radarsystem und Fahrzeug zur Signalverarbeitung von Radarsignalen | |
WO2003001233A1 (de) | Verfahren zum passiven bestimmen von zieldaten | |
WO2019063393A1 (de) | Verfahren und system zur bestimmung zumindest einer bewegungskomponente einer absolutbewegung eines objektes im ruhenden bezugssystem | |
WO2020229140A1 (de) | Ermittlung der geschwindigkeit und des abstands von objekten zu einem sensorsystem | |
DE112019006516T5 (de) | Fahrassistenzvorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |