Nothing Special   »   [go: up one dir, main page]

DE102010013093A1 - Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs - Google Patents

Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs Download PDF

Info

Publication number
DE102010013093A1
DE102010013093A1 DE102010013093A DE102010013093A DE102010013093A1 DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1 DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A DE102010013093 A DE 102010013093A DE 102010013093 A1 DE102010013093 A1 DE 102010013093A1
Authority
DE
Germany
Prior art keywords
camera
environment
vehicle
images
structures
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102010013093A
Other languages
English (en)
Inventor
Dr. Graf Thorsten
Daniel Mossau
Wojciech Waclaw Derendarz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102010013093A priority Critical patent/DE102010013093A1/de
Publication of DE102010013093A1 publication Critical patent/DE102010013093A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S11/00Systems for determining distance or velocity not using reflection or reradiation
    • G01S11/12Systems for determining distance or velocity not using reflection or reradiation using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/12Interpretation of pictures by comparison of two or more pictures of the same area the pictures being supported in the same relative position as when they were taken
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

Ein Verfahren und ein System (20) zur Erstellung eines Modells eines Umfelds eines Fahrzeugs (10) werden beschrieben. Dabei wird mit Hilfe einer Kamera (4) das Umfeld in Fahrtrichtung des Fahrzeugs (10) erfasst und mehrere Bilder (5) des Umfelds erzeugt. Mittels dieser Bilder werden dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern bestehenden Bildsequenz verfolgt wird. Informationen über diese Strukturen werden in eine zweidimensionale zellenbasierte Karte (2) des Umfelds übertragen, wobei jeder Zelle der Karte (2) eine Information zugewiesen wird, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt (1) belegt ist.

Description

  • Die vorlegende Erfindung betrifft ein Verfahren und ein System zur Fahrzeugumfeldrekonstruktion mittels einer Kamera sowie eine entsprechend ausgestaltetes Fahrzeug.
  • Nach dem Stand der Technik sind zum einen Verfahren bekannt, um mittels einer Kamera aus einem fahrenden Fahrzeug heraus Verkehrszeichen zu erfassen; siehe dazu DE 10 2007 021 576 A1 oder EP 2 048 618 A1 . Darüber hinaus ist es aus der DE 10 2006 039 104 A1 bekannt, eine Entfernungsmessung von Objekten auf der Grundlage von Bilddaten eines Kamerasystems vorzunehmen. Die DE 10 2006 055 908 A1 offenbart ein Verfahren zur automatischen Fernlichtsteuerung von Kraftfahrzeugscheinwerfern basierend auf einem Kamerasensor, mit welchem die Fahrzeugumgebung überwacht wird.
  • Die vorliegende Erfindung stellt sich die Aufgabe, ein Modell eines Umfelds eines Fahrzeugs zu erstellen, welches dieses Umfeld genauer beschreibt, als es nach dem Stand der Technik möglich ist.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 1, durch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs nach Anspruch 11 und durch ein Fahrzeug nach Anspruch 13 gelöst. Die abhängigen Ansprüche definieren bevorzugte und vorteilhafte Ausführungsformen der vorliegenden Erfindung.
  • Im Rahmen der vorliegenden Erfindung wird ein Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei wird mit Hilfe einer Kamera, insbesondere einer Monokamera, das Umfeld in Fahrtrichtung des Fahrzeugs erfasst und mehrere Bilder dieses Umfelds mittels der Kamera erzeugt. Über diese Bilder werden dreidimensionale Strukturen und deren Position innerhalb des Umfelds bestimmt, indem beispielsweise mit Bildverarbeitungsalgorithmen die Bewegung dieser Strukturen oder der diese Strukturen ausbildenden Pixel innerhalb einer Bildsequenz verfolgt wird, welche aus den mehreren Bildern besteht. Dabei werden Informationen über diese dreidimensionalen Strukturen oder der diese Strukturen beschreibenden 3D-Punkte in eine zweidimensionale in Zellen unterteilte Belegungskarte bzw. Umfeldkarte eingetragen, wobei diese Belegungskarte eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle der Belegungskarte eine Information zugewiesen, ob die entsprechende Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist. Dies kann beispielweise über Wahrscheinlichkeitswerte erfolgen, welche diesen Zellen zugewiesen werden und welche einen Wert für eine Wahrscheinlichkeit angeben, mit welcher die entsprechende Zelle mit einem Objekt belegt ist.
  • Mit anderen Worten werden in einem ersten Schritt des erfindungsgemäßen Verfahrens beispielsweise mittels eines Ansatzes wie ”Structure from Motion” bestimmte Strukturen und dadurch bestimmte Objekte samt ihrer Position in dem Umfeld des Fahrzeugs erfasst, während in einem zweiten Schritt Informationen über diese Strukturen oder Objekte in eine Karte übertragen werden, in welcher für die Ebene, auf welcher sich das Fahrzeug bewegt, freie und belegte Flächen vorhanden sind. Dabei wird unter einer belegten Fläche oder Zelle eine Fläche bzw. Zelle verstanden, welche von einem Objekt belegt ist, während eine freie Fläche oder Zelle von keinem Objekt belegt ist.
  • Die beispielsweise mittels ”Structure from Motion” bestimmten Strukturen und Objekte können auch in einer dreidimensionalen Karte bzw. einem dreidimensionalen Datensatz gespeichert werden, aus welchem dann die entsprechenden Informationen extrahiert und in die zweidimensionale Karte übertragen werden. Die Speicherung in der dreidimensionalen Karte weist den Vorteil auf, dass hier auch eine Höheninformation hinterlegt ist.
  • Mit dem erfindungsgemäßen Verfahren kann vorteilhafterweise eine Kollision des Fahrzeugs mit Objekten im Umfeld des Fahrzeugs vermieden werden.
  • Zur Durchführung des erfindungsgemäßen Verfahrens wird die Kamera dabei insbesondere in Fahrtrichtung des Fahrzeugs ausgerichtet.
  • Indem die Kamera in der Fahrtrichtung des Fahrzeugs ausgerichtet ist, erfasst sie vorteilhafterweise genau den Bereich des Umfelds des Fahrzeugs, welchen das Fahrzeug demnächst durchfahren wird, welcher daher zur Kollisionsvermeidung am wichtigsten ist.
  • Gemäß einer bevorzugten erfindungsgemäßen Ausführungsform wird das erfindungsgemäße Verfahren um eine Flächensegmentierung ergänzt. Dabei werden mit Hilfe von Bildverarbeitungsmittel Bildbereiche innerhalb der Bilder mit einer ähnlichen Farbe oder Struktur erfasst und somit das entsprechende Bild in Cluster oder Flächensegmente mit ähnlicher Farbe oder Struktur unterteilt oder segmentiert. Anschließend werden die freien Zellen (d. h. Zellen, bei welchen die Wahrscheinlichkeit für eine Belegung mit einem Objekt unterhalb eines vorbestimmten Schwellenwerts liegt) der Karte den jeweiligen Flächensegmenten zugewiesen. Flächensegmente, welche einen vorbestimmten Prozentsatz an freien Zellen umfassen, werden als freies Flächensegment betrachtet und demnach als eine zusammenhängende freie (d. h. von keinem Objekt belegte) Fläche zurück in die Belegungskarte eingetragen.
  • Der Einsatz der Flächensegmentierung im Rahmen der vorlegenden Erfindung weist den Vorteil auf, dass einzelne falsche 3D-Messungen zuverlässig ausgefiltert werden.
  • Darüber hinaus hat es sich als vorteilhaft erwiesen, wenn aus den mehreren von der Kamera erfassten Bildern diejenigen Bilder ausgewählt werden, bei welchen sich die Kamera zwischen zwei aufeinanderfolgenden dieser ausgewählten Bilder bei der Aufnahme des entsprechenden Bildes um mehr als eine vorbestimmte Strecke bewegt hat. Mittels Triangulation wird dann für jedes dieser ausgewählten Bilder eine dreidimensionale Ortsbestimmung der Strukturen innerhalb des Umfelds durchgeführt.
  • Da sichergestellt ist, dass sich die Kamera zwischen derjenigen Stelle, an welcher die Kamera ein bestimmtes dieser ausgewählten oder auszuwertenden Bilder erfasst hat, und derjenigen Stelle, an welcher die Kamera das dem bestimmten Bild folgende auszuwertende Bild aufgenommen hat, zumindest um die vorbestimmte Strecke bewegt hat, ist der Abstand der Kamerapositionen bezüglich zwei zeitlich aufeinanderfolgenden auszuwertenden Bildern ausreichend groß, damit mittels der Triangulation entsprechend genaue Messergebnisse erzielt werden können.
  • Insbesondere wird zur Verbesserung der Ergebnisse des erfindungsgemäßen Verfahrens eine Bewegung der Kamera möglichst genau erfasst. Dazu kann die Bewegung der Kamera zum einen anhand von Fahrzeugdaten, z. B. anhand von Daten eines Wegimpulsgebers, eines Gierratensensors oder Lenkradsensors des Fahrzeugs, erfasst werden. Zum anderen kann die Bewegung der Kamera anhand des optischen Flusses innerhalb der Bildsequenz unter Berücksichtigung entsprechender Einschränkungen, welche durch die epipolare Geometrie bezüglich der Bewegung der Strukturen innerhalb der Bildsequenz gegeben sind, rekonstruiert werden. Aus der derart ermittelten Bewegung der Kamera wird eine möglichst genaue jeweilige Position der Kamera für das jeweilige Bild bestimmt. Die Triangulation wird abhängig von den derart bestimmten Positionen der Kamera (genauer Position der Kamera relativ zur Position der Kamera bei dem vorherigen Bild) zur Ortsbestimmung der Strukturen innerhalb der Bilder durchgeführt.
  • Durch eine derartige Bestimmung der Bewegung der Kamera können auch entsprechende Nick- und Wankbewegungen des Fahrzeugs (und damit der Kamera) entsprechend berücksichtigt werden, so dass die Ergebnisse des erfindungsgemäßen Verfahrens durch diese Nick- und Wankbewegungen vorteilhafterweise nicht verfälscht werden.
  • Der optische Fluss wird dabei insbesondere über ein so genanntes dichtes Verfahren bestimmt, bei welchem für jedes Pixel eines bestimmten Bildes ein Geschwindigkeitsvektor bestimmt wird, welcher angibt, in welcher Richtung und mit welcher Geschwindigkeit sich das jeweilige Pixel von dem bestimmten Bild zu einem entsprechenden Pixel in einem zeitlich folgenden Bild bewegt. Anders ausgedrückt wird unter einem optischen Fluss in der Bildverarbeitung ein Vektorfeld verstanden, welches die Bewegungsrichtung und -Geschwindigkeit für jeden Bildpunkt (Pixel) einer Bildsequenz angibt. Der optische Fluss kann demnach als die auf die Bildebene projizierten Geschwindigkeitsvektoren von sichtbaren Objekten verstanden werden.
  • Der Einsatz eines dichten Verfahrens zur Bestimmung des optischen Flusses erhöht die Datendichte und damit die Robustheit des Verfahrens.
  • Darüber hinaus ist es möglich, dass eine oder mehrere weitere Kameras zur Erfassung des Umfelds des Fahrzeugs eingesetzt werden. Diese eine oder diese mehreren Kameras werden vorteilhafterweise an einer anderen Stelle als die vorab erwähnte Kamera an dem Fahrzeug befestigt und erzeugen, in ähnlicher Weise wie die vorab erwähnte Kamera, mehrere Bilder des Umfelds. Mittels dieser Bilder kann zum Beispiel die Bewegung der vorab erwähnten Kamera abgeschätzt werden, so dass die Bestimmung der Bewegung der Kamera mittels der einen oder der mehreren weiteren Kameras weiter verbessert werden kann.
  • Die vorliegende Erfindung kann auch eine so genannte Top-View-Kamera-Konfiguration einsetzen, bei welcher jeweils eine Kamera nach vorn, nach hinten, nach rechts und nach hinten (bezüglich des Fahrzeugs) gerichtet ist. Damit lässt sich das Umfeld rund um das Fahrzeug erfassen.
  • Durch die Nutzung einer solchen Mehr-Kamera-Konfiguration (d. h. einer Konfiguration, welche neben der vorab erwähnten Kamera noch eine oder mehrere weitere Kameras umfasst) lässt sich die Bewegung der vorab erwähnten Kamera robuster und genauer abschätzen, wodurch die Qualität der Erstellung des Umfeldmodels verbessert werden kann.
  • Eine weitere erfindungsgemäße Erweiterung besteht darin, mittels Ultraschallwellen-Sensoren Informationen über Objekte in dem Umfeld des Fahrzeugs zu erfassen und auf Grundlage dieser Informationen den Informationsgehalt der Belegungskarte zu verbessern.
  • Durch diese Kopplung des erfindungsgemäßen Verfahrens mit von Ultraschall-Sensoren erfassten Informationen lässt sich vorteilhafterweise die Robustheit des erfindungsgemäßen Verfahrens erhöhen.
  • Das erfindungsgemäße Verfahren kann beispielsweise automatisiert in einem Kollisionsüberwachungssystem des Fahrzeugs durchgeführt werden. Dabei wird unter einem Kollisionsüberwachungssystem zum einen eine Einparkunterstützung (z. B. bei teil- oder vollautomatischen Einparkvorgängen z. B. in eine Garage) und zum anderen Erweiterungen eines Spurhalteassistenten (Heading Control, Lane-Assist) beispielsweise im Baustellenbereich durch Erfassen der Leitplanke verstanden. Darüber hinaus ist eine Ersetzung der PDC-Sensoren (Park Distance Control) durch Kameras mittels der vorliegenden Erfindung denkbar, wobei allerdings erfindungsgemäß mehrere Kameras eingesetzt werden sollten, um auch bei stillstehendem Fahrzeug eine möglichst genaue Erfassung des Umfelds zu gewährleisten.
  • Im Rahmen der vorliegenden Erfindung wird auch ein System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs bereitgestellt. Dabei umfasst das System eine Kamera zur Erfassung des Umfelds des Fahrzeugs in Fahrtrichtung und eine Steuerung. Die Steuerung steuert die Kamera derart an, dass die Kamera mehrere Bilder des Umfelds des Fahrzeugs erzeugt. Die Steuerung ist derart ausgestaltet, dass die Steuerung ausgehend von diesen Bildern dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem die Steuerung eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern bestehenden Bildsequenz verfolgt. Die Steuerung überträgt Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte des Umfelds, wobei die Steuerung jeder Zelle der Karte die Information zuweist, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt belegt ist oder nicht.
  • Die Vorteile des erfindungsgemäßen Systems entsprechen im Wesentlichen den Vorteilen des erfindungsgemäßen Verfahrens, welche vorab im Detail ausgeführt worden sind, so dass hier auf eine Wiederholung verzichtet wird.
  • Schließlich wird im Rahmen der vorliegenden Erfindung ein Fahrzeug mit einem erfindungsgemäßen System bereitgestellt.
  • Die vorliegende Erfindung ist insbesondere für eine Kollisionsvermeidung für ein Fahrzeug geeignet. Selbstverständlich ist die vorliegende Erfindung nicht auf diesen bevorzugten Anwendungsbereich eingeschränkt, da die vorliegende Erfindung auch bei Schiffen, Flugzeugen oder gleisgebundenen Fahrzeugen eingesetzt werden könnte.
  • Im Folgenden wird die vorliegende Erfindung anhand von erfindungsgemäßen Ausführungsformen im Detail mit Bezug zu den Figuren erläutert.
  • Mit 1 wird dargestellt, wie das Verfahren ”Structure from Motion” arbeitet.
  • In 2 ist ein Beispiel für eine mittels des optischen Flusses erfassten Bewegung dargestellt.
  • Mit 3 ist dargestellt, welche Bilder einer Sequenz für eine dreidimensionale Rekonstruktion ausgewählt werden.
  • In 4 ist ein Beispiel einer Belegungskarte im Vergleich zur realen Umgebung dargestellt.
  • In 5 ist das erfindungsgemäße Verfahren schematisch dargestellt.
  • 6 stellt schematisch ein erfindungsgemäßes Fahrzeug mit einem erfindungsgemäßen System dar.
  • Wie in 1 dargestellt ist, treffen sich Sichtstrahlen, welche von zwei verschiedenen Kamerapositionen aus bzw. von zwei verschiedenen Positionen eines Fahrzeugs 10 denselben Bildpunkt eines Objektes 1 anpeilen, unter einem bestimmten Winkel. Mit Kenntnis der genauen Kameraposition bei beiden Aufnahmen lässt sich die dreidimensionale Position des angepeilten Bildpunkts und damit des Objektes 1 berechnen, was auch als Triangulation bezeichnet wird.
  • Im Folgenden wird eine bevorzugte Ausführungsform des erfindungsgemäßen Verfahrens Schritt für Schritt beschrieben. Dabei ist die angegebene Reihenfolge des Verfahrens nicht als chronologische Reihenfolge zu verstehen.
    • 1. Während einer Fahrt des Fahrzeugs 10 werden aufeinanderfolgende Bilder 5 mit einer in Fahrtrichtung des Fahrzeugs 10 ausgerichteten Monokamera (Frontkamera) 4 aufgenommen.
    • 2. Mit Bildverarbeitungsalgorithmen wird eine Bewegung von einzelnen Pixeln oder Bildbereichen innerhalb einer aus diesen Bildern 5 bestehenden Bildsequenz verfolgt. Diese Verfolgung der Bewegung wird über den optischen Fluss realisiert (siehe 2, in welcher der optische Fluss für bestimmte Bildpunkte dargestellt ist). Dabei werden so genannte Tracks (Trajektorien auf der Bildebene) von den einzelnen Pixeln (auch als Feature benannt) gebildet.
    • 3. Die Bewegung des Fahrzeugs 10 wird mit Hilfe von üblicherweise im Fahrzeug 10 vorhandenen Sensoren (z. B. Wegimpulsgeber, Gierratensensor, Lenkradsensor) erfasst, um daraus die Bewegung der Kamera 4 und schließlich die Position der Kamera 4 bei der Aufnahme eines bestimmten Bildes zu erfassen.
    • 4. Für jedes Bild A werden bestimmte Bildpunktpaare aus den Feature-Tracks extrahiert, wobei der eine Bildpunkt dem Feature in dem Bild A und der andere Bildpunkt des Bildpunktpaars dem entsprechenden Bildpunkt des Features in dem Bild B, welches vor dem Bild A aufgenommen worden ist, entspricht. Dabei werden die Bilder A und B derart aus den mit der Kamera 4 erfassten Bildern ausgewählt, dass die Fahrzeugbewegung und damit die Kamerabewegung zwischen den Bildern A und B signifikant (z. B. > 10 cm) ist. In 3 sind die von der Monokamera 4 über der Zeit aufgenommenen Bilder 5 dargestellt. Der optische Fluss (OF) wird jeweils zwischen zwei zeitlich benachbarten Bildern 5 berechnet und in Tracks verkettet. Für die dreidimensionale Rekonstruktion (”Structure from Motion” (SfM)) werden zwei zeitlich aufeinanderfolgende Bilder derart ausgewählt, dass die entsprechende Bewegung der Kamera 4 zwischen diesen beiden Bildern signifikant (z. B. > 10 cm) ist.
    • 5. Die im Schritt 3 bestimmte Bewegung des Fahrzeugs 10 bzw. der Kamera 4 zwischen den Bildern A und B wird mit Hilfe von Kalibrierdaten (Einbauort der Kamera und Orientierung der Kamera) in die Bewegung der Kamera 4 umgerechnet, um so die Position der Kamera 4 bei der Aufnahme des entsprechenden Bildes 5 zu bestimmen.
    • 6. Die Rekonstruktion der Kamerabewegung kann durch die Schätzung der so genannten epipolaren Geometrie (relative Lage der Kamera zum Zeitpunkt der Aufnahme bestimmter Bilder) unter Berücksichtigung des optischen Flusses verbessert werden. Dadurch kann auch eine Nick- und Wankbewegung des Fahrzeugs 10 und damit der Kamera 4 besser berücksichtigt werden.
    • 7. Die möglichst genaue Position der Kamera bei der Aufnahme des Bildes A relativ zu der möglichst genauen Position der Kamera bei der Aufnahme des Bildes B wird genutzt, um für jedes Bildpunktpaar A-B den Schnittpunkt der Strahlen aus Bild A und aus Bild B zu ermitteln. Dieses Verfahren wird in der Bildverarbeitung Triangulation genannt, wobei der Schnittpunkt der Strahlen die Position des jeweiligen Bildpunkts in dem dreidimensionalen Raum bestimmt.
    • 8. Strukturen bzw. Objekte, welche durch die derart erfassten Bildpunkte genau im dreidimensionalen Raum lokalisiert werden können, werden in eine zellenbasierte Belegungskarte 2 oder Umfeldkarte eingetragen, so dass diese Belegungskarte 2 eine zweidimensionale Diskretisierung des Fahrzeugumfelds darstellt. Dabei wird jeder Zelle dieser Belegungskarte 2 ein Wert zugewiesen, welcher die Wahrscheinlichkeit einer Belegung der entsprechenden Zelle mit einem Objekt beschreibt. Mit anderen Worten besitzt jede Zelle einen Wahrscheinlichkeitswert, welcher der Wahrscheinlichkeit entspricht, dass die entsprechende Zelle mit einem Kollisionsobjekt belegt ist. Aus dieser Wahrscheinlichkeit lassen sich die Zellen der Belegungskarte 2 in freie (von keinem Objekt belegte) und belegte Zellen unterteilen.
    • 9. Die Wahrscheinlichkeitswerte der Zellen werden ständig aktualisiert, wodurch eine Filterung der Daten oder Wahrscheinlichkeitswerte über der Zeit möglich ist.
    • 10. Auf der Grundlage der Informationen aus der Belegungskarte 2 kann der Freiraum 3 vor und um das Fahrzeug 10 herum bestimmt werden. In 4b ist ein Bild der Kamera 4 dargestellt. Die 4a stellt die zu diesem Bild zugehörige Belegungskarte des Fahrzeugumfelds dar, wobei freie Bereiche 3 und Hindernisse 7 aus der Belegungskarte 2 ersichtlich sind.
  • In 5 ist das erfindungsgemäße Verfahren schematisch dargestellt. Eingangsdaten des Verfahrens sind von der Kamera 4 aufgenommene Bilder 5 und durch die Fahrzeugodometrie (Positionsbestimmung des Fahrzeugs 10 anhand der Daten seines Vortriebsystems, z. B. Zählen der Radumdrehungen) ermittelte Daten. Über den optischen Fluss, einer Bestimmung der Bewegung der Kamera (Ego-Bewegungsschätzung) und durch die Triangulation werden Kollisionsobjekte im Umfeld des Fahrzeugs 10 bestimmt und entsprechend in die Belegungskarte 2 eingetragen.
  • In 6 ist schematisch ein erfindungsgemäßes Fahrzeug 10 mit einem erfindungsgemäßen System 20 zur Erstellung eines Modells eines Umfelds des Fahrzeugs 10 dargestellt. Das System 20 umfasst neben einer Steuerung 6 zwei Kameras 4 und 8, mit welchen Bilder 5 des Umfelds des Fahrzeugs 10 aufgenommen werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102007021576 A1 [0002]
    • EP 2048618 A1 [0002]
    • DE 102006039104 A1 [0002]
    • DE 102006055908 A1 [0002]

Claims (13)

  1. Verfahren zur Erstellung eines Modells eines Umfelds eines Fahrzeugs (10), wobei mit Hilfe einer Kamera (4) das Umfeld in Fahrtrichtung des Fahrzeugs (10) erfasst wird und mehrere Bilder (5) des Umfelds erzeugt werden, wobei mittels dieser Bilder dreidimensionale Strukturen und deren Position in dem Umfeld erfasst werden, indem eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern (5) bestehenden Bildsequenz verfolgt wird, und wobei Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte (2) des Umfelds übertragen werden, wobei jeder Zelle der Karte (2) eine Information zugewiesen wird, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt (1) belegt ist.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Kamera eine Monokamera (4) ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Kamera (4) in Fahrtrichtung des Fahrzeugs (10) ausgerichtet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass für bestimmte der mehreren Bilder (5) eine Flächensegmentierung, bei welcher das jeweilige Bild in Flächensegmente mit ähnlicher Farbe oder Struktur unterteilt wird, durchgeführt wird, und dass Flächensegmente, welche eine vorbestimmte Menge von freien Zellen, deren Wahrscheinlichkeit für eine Belegung mit einem Objekt (1) unterhalb eines vorbestimmten Wertes liegen, umfassen, als von Objekten freie Flächensegmente (3) bestimmt werden.
  5. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus den mehreren Bildern (5) bestimmte Bilder ausgewählt werden, bei welchen sich die Kamera (4) zwischen zwei aufeinanderfolgenden dieser bestimmten Bilder um mehr als eine vorbestimmte Strecke bewegt, und dass mittels Triangulation für jedes der bestimmten Bilder eine Ortsbestimmung der Strukturen innerhalb des Umfelds bestimmt wird.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass eine Bewegung der Kamera (4) mittels der durch die epipolare Geometrie gesetzten Einschränkungen bezüglich der Bewegung der Strukturen in der Bildsequenz und durch eine Erfassung eines optischen Flusses (OF) innerhalb der Bildsequenz bestimmt wird, und dass aus der Bewegung der Kamera (4) eine jeweilige Position der Kamera (4) für jedes der bestimmten Bilder bestimmt wird, und dass die Triangulation abhängig von der Position der Kamera (4) zu der Ortsbestimmung der Strukturen durchgeführt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass der optische Fluss (OF) über ein Verfahren bestimmt wird, mit welchem für jeden Bildpunkt eines bestimmten Bildes (5) abhängig von benachbarten Bildern (5) des bestimmten Bildes (5) ein Geschwindigkeitsvektor berechnet wird.
  8. Verfahren nach Anspruch 6 oder 7, dadurch gekennzeichnet, dass mindestens eine weitere Kamera (8) zur Erfassung des Umfelds des Fahrzeugs (10) eingesetzt wird, welche an einer anderen Stelle als die Kamera (4) an dem Fahrzeug (10) befestigt ist und mit welcher mehrere Bilder (5) des Umfelds erzeugt werden, dass mittels der Bilder (5) der mindestens einen weiteren Kamera (8) die Bewegung der Kamera (4) abgeschätzt wird, und dass die Bestimmung der Bewegung der Kamera (4) auf Grundlage der abgeschätzten Bewegung der Kamera (4) erfolgt.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass mittels Ultraschallwellen Informationen über die Objekte (1) in dem Umfeld erfasst werden, und dass auf Grundlage dieser Informationen die zellenbasierte Karte (2) des Umfelds erzeugt wird.
  10. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Verfahren automatisiert in einem Kollisionsüberwachungssystem des Fahrzeugs (10) durchgeführt wird.
  11. System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs (10), wobei das System (20) eine Kamera (4), welche das Umfeld in Fahrtrichtung des Fahrzeugs (10) erfasst, und eine Steuerung (6) umfasst, wobei die Steuerung (6) zur Ansteuerung der Kamera (4) ausgestaltet ist, um mehrere Bilder (5) des Umfelds des Fahrzeugs (10) zu erzeugen, wobei die Steuerung (6) derart ausgestaltet ist, dass die Steuerung (6) mittels dieser Bilder (5) dreidimensionale Strukturen und deren Position in dem Umfeld erfasst, indem die Steuerung (6) eine Bewegung dieser Strukturen innerhalb einer aus den mehreren Bildern (5) bestehenden Bildsequenz verfolgt, und dass die Steuerung (6) Informationen über die Strukturen in eine zweidimensionale zellenbasierte Karte (2) des Umfelds überträgt, wobei die Steuerung (6) jeder Zelle der Karte (2) eine Information zuweist, ob diese Zelle mit einem durch die Strukturen repräsentierten Objekt (1) belegt ist.
  12. System nach Anspruch 11, dadurch gekennzeichnet, dass das System (20) zur Durchführung des Verfahrens-nach einem der Ansprüche 1–10 ausgestaltet ist.
  13. Fahrzeug mit einem System (20) nach Anspruch 11 oder 12.
DE102010013093A 2010-03-29 2010-03-29 Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs Pending DE102010013093A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102010013093A DE102010013093A1 (de) 2010-03-29 2010-03-29 Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102010013093A DE102010013093A1 (de) 2010-03-29 2010-03-29 Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102010013093A1 true DE102010013093A1 (de) 2011-09-29

Family

ID=44586065

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102010013093A Pending DE102010013093A1 (de) 2010-03-29 2010-03-29 Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs

Country Status (1)

Country Link
DE (1) DE102010013093A1 (de)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214307A1 (de) 2012-08-10 2014-02-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
WO2014202496A1 (de) 2013-06-18 2014-12-24 Volkswagen Aktiengesellschaft Verfahren zum anzeigen von umgebungsinformationen in einem fahrzeug
DE102015206453A1 (de) * 2015-04-10 2016-10-13 Conti Temic Microelectronic Gmbh Überwachungsvorrichtung und verfahren zum überwachen eines bereichs vor einer fahrzeugtür
DE102016111079A1 (de) * 2016-06-17 2017-12-21 Valeo Schalter Und Sensoren Gmbh Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
CN115280235A (zh) * 2020-03-09 2022-11-01 采埃孚商用车系统全球有限公司 用于获知与车辆周边环境中的对象有关的对象信息的方法、控制单元和车辆
DE102022204547A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erfassen eines Umfelds eines Kamerasystems und zugehöriger Vorrichtung

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793934A (en) * 1994-06-22 1998-08-11 Siemens Aktiengesellschaft Method for the orientation, route planning and control of an autonomous mobile unit
EP1030188A1 (de) * 1999-02-16 2000-08-23 Mitsubishi Denki Kabushiki Kaisha Situationsdarstellungs-Anzeigesystem
EP1580687A1 (de) * 2003-10-17 2005-09-28 Matsushita Electric Industrial Co., Ltd. Methode und vorrichtung zur bestimmung der bewegung einer mobiler einheit, und navigationssystem
US20070285217A1 (en) * 2006-04-27 2007-12-13 Denso Corporation Field recognition apparatus, method for field recognition and program for the same
DE102006027123A1 (de) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Verfahren für die Erfassung eines Verkehrsraums
DE102006039104A1 (de) 2006-07-31 2008-01-17 Daimler Ag Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102006055908A1 (de) 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Verfahren zur automatischen Fernlichtsteuerung
DE102007021576A1 (de) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
EP2048618A1 (de) 2007-10-08 2009-04-15 Delphi Technologies, Inc. Verfahren zur Objekterfassung
DE102009016562A1 (de) * 2009-04-06 2009-11-19 Daimler Ag Verfahren und Vorrichtung zur Objekterkennung

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5793934A (en) * 1994-06-22 1998-08-11 Siemens Aktiengesellschaft Method for the orientation, route planning and control of an autonomous mobile unit
EP1030188A1 (de) * 1999-02-16 2000-08-23 Mitsubishi Denki Kabushiki Kaisha Situationsdarstellungs-Anzeigesystem
EP1580687A1 (de) * 2003-10-17 2005-09-28 Matsushita Electric Industrial Co., Ltd. Methode und vorrichtung zur bestimmung der bewegung einer mobiler einheit, und navigationssystem
US20070285217A1 (en) * 2006-04-27 2007-12-13 Denso Corporation Field recognition apparatus, method for field recognition and program for the same
DE102006027123A1 (de) * 2006-06-12 2007-12-13 Robert Bosch Gmbh Verfahren für die Erfassung eines Verkehrsraums
DE102006039104A1 (de) 2006-07-31 2008-01-17 Daimler Ag Verfahren zur Entfernungsmessung von Objekten auf von Bilddaten eines Monokamerasystems
DE102006055908A1 (de) 2006-11-27 2008-05-29 Adc Automotive Distance Control Systems Gmbh Verfahren zur automatischen Fernlichtsteuerung
DE102007021576A1 (de) 2007-05-08 2008-11-13 Hella Kgaa Hueck & Co. Verfahren und Vorrichtung zum Bestimmen der Position eines Verkehrszeichens
EP2048618A1 (de) 2007-10-08 2009-04-15 Delphi Technologies, Inc. Verfahren zur Objekterfassung
DE102009016562A1 (de) * 2009-04-06 2009-11-19 Daimler Ag Verfahren und Vorrichtung zur Objekterkennung

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012214307A1 (de) 2012-08-10 2014-02-13 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
DE102012214307B4 (de) 2012-08-10 2024-09-05 Robert Bosch Gmbh Verfahren und Vorrichtung zum Modellieren eines Umfelds
WO2014202496A1 (de) 2013-06-18 2014-12-24 Volkswagen Aktiengesellschaft Verfahren zum anzeigen von umgebungsinformationen in einem fahrzeug
DE102015206453A1 (de) * 2015-04-10 2016-10-13 Conti Temic Microelectronic Gmbh Überwachungsvorrichtung und verfahren zum überwachen eines bereichs vor einer fahrzeugtür
DE102016111079A1 (de) * 2016-06-17 2017-12-21 Valeo Schalter Und Sensoren Gmbh Verfahren zur Objekthöhenerkennung eines Objektes in der Umgebung eines Kraftfahrzeugs sowie Fahrerassistenzsystem
CN115280235A (zh) * 2020-03-09 2022-11-01 采埃孚商用车系统全球有限公司 用于获知与车辆周边环境中的对象有关的对象信息的方法、控制单元和车辆
DE102022204547A1 (de) 2022-05-10 2023-11-16 Robert Bosch Gesellschaft mit beschränkter Haftung Verfahren zum Erfassen eines Umfelds eines Kamerasystems und zugehöriger Vorrichtung

Similar Documents

Publication Publication Date Title
EP2766237B1 (de) Vorrichtung zur unterstützung eines fahrers beim fahren eines fahrzeugs oder zum autonomen fahren eines fahrzeugs
DE102009006336B4 (de) Verfahren zur Überwachung eine Einparkvorgangs
EP2888604B1 (de) Verfahren zur bestimmung eines fahrspurverlaufs für ein fahrzeug
DE19749086C1 (de) Vorrichtung zur Ermittlung fahrspurverlaufsindikativer Daten
DE102016107705A1 (de) Reaktive Pfadplanung für autonomes Fahren
DE102014107917A1 (de) Verfahren und Vorrichtung zum Vermeiden einer Kollision eines ein Kraftfahrzeug und einen Anhänger umfassenden Gespanns mit einem Hindernis
EP2046619B1 (de) Fahrerassistenzsystem
DE102009016562A1 (de) Verfahren und Vorrichtung zur Objekterkennung
EP3356203B1 (de) Verfahren zum bestimmen einer parkfläche zum parken eines kraftfahrzeugs, fahrerassistenzsystem sowie kraftfahrzeug
DE102015203016A1 (de) Verfahren und Vorrichtung zur optischen Selbstlokalisation eines Kraftfahrzeugs in einem Umfeld
EP2200881B1 (de) Verfahren zur schätzung der relativbewegung von video-objekten und fahrerassistenzsystem für kraftfahrzeuge
DE102015223176A1 (de) Verfahren und Vorrichtung zur Ermittlung von Verdeckungsbereichen in der Fahrzeugumgebung eines Fahrzeuges
DE102017108254B4 (de) Rundumsichtkamerasystem zur Objekterkennung und -verfolgung und Verfahren zum Ausstatten eines Fahrzeugs mit einem Rundumsichtkamerasystem
EP2033165B1 (de) Verfahren für die erfassung eines verkehrsraums
DE102010013093A1 (de) Verfahren und System zur Erstellung eines Modells eines Umfelds eines Fahrzeugs
DE102014111012A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Ausparken, Fahrerassistenzsystem und Kraftfahrzeug
DE102008025773A1 (de) Verfahren zur Schätzung eines Orts- und Bewegungszustands eines beobachteten Objekts
EP2801076B1 (de) Tiefenbildberechnung mit einer monokamera durch eine definierte trajektorie
DE102012220191A1 (de) Verfahren zur Unterstützung eines Fahrers bei der Querführung eines Fahrzeugs
DE102017219119A1 (de) Verfahren zur Formerkennung eines Objekts in einem Außenbereich eines Kraftfahrzeugs sowie Kraftfahrzeug
EP2603403B1 (de) Verfahren zum anzeigen von bildern auf einer anzeigeeinrichtung in einem kraftfahrzeug, fahrerassistenzsystem und kraftfahrzeug
DE102013010233B4 (de) Verfahren zum Anzeigen von Umgebungsinformationen in einem Fahrzeug und Anzeigesystem für ein Fahrzeug
DE102018122929A1 (de) Straßenabtastverfahren
WO2019162327A2 (de) Verfahren zur ermittlung einer entfernung zwischen einem kraftfahrzeug und einem objekt
DE102019204196B4 (de) Verfahren zum Erfassen des Umfeldes eines Fortbewegungsmittels

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication