Nothing Special   »   [go: up one dir, main page]

DE102011017707A1 - Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera - Google Patents

Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera Download PDF

Info

Publication number
DE102011017707A1
DE102011017707A1 DE102011017707A DE102011017707A DE102011017707A1 DE 102011017707 A1 DE102011017707 A1 DE 102011017707A1 DE 102011017707 A DE102011017707 A DE 102011017707A DE 102011017707 A DE102011017707 A DE 102011017707A DE 102011017707 A1 DE102011017707 A1 DE 102011017707A1
Authority
DE
Germany
Prior art keywords
camera
illumination pattern
pattern
illumination
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102011017707A
Other languages
English (en)
Inventor
Wolfgang Niehsen
Stephan Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102011017707A priority Critical patent/DE102011017707A1/de
Publication of DE102011017707A1 publication Critical patent/DE102011017707A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/586Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of parking space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Die Erfindung betrifft ein Verfahren (700) zur Erkennung von einem Objekt (4) in einer Umgebung einer Kamera (6, 10). Das Verfahren umfasst einen Schritt des Aussendens (710) zumindest eines ersten Beleuchtungsmusters in einen ersten Teilbereich der Umgebung der Kamera (6, 10) und zumindest eines vom ersten Beleuchtungsmuster unterschiedlichen zweiten Beleuchtungsmusters in einen zweiten Teilbereich der Umgebung der Kamera (6, 10). Ferner umfasst das Verfahren (700) einen Schritt des Einlesens (720) eines von der Kamera (6, 10) aufgenommenen Bildes, das den mit dem ersten Beleuchtungsmuster beleuchteten ersten Teilbereich und den mit dem zweiten Beleuchtungsmuster beleuchteten zweiten Teilbereich der Umgebung der Kamera (6, 10) je zumindest teilweise enthält. Schließlich umfasst das Verfahren (700) einen Schritt des Erkennens (730) des Objektes (4) in der Umgebung der Kamera (6, 10) durch Auswertung des eingelesenen Bildes.

Description

  • Stand der Technik
  • Die vorliegende Erfindung bezieht sich auf ein Verfahren zur Erkennung von einem Objekt in einer Umgebung einer Kamera, auf eine entsprechende Vorrichtung sowie auf ein entsprechendes Computerprogrammprodukt.
  • In der Automobiltechnik werden Fahrerassistenzsysteme zur Steigerung des Fahrerkomforts von immer größerer Bedeutung. Besonderes Augenmerk verdienen dabei Einparkhilfssysteme, die auf der Basis von optischen Kameras funktionieren, welche bereits vielfach serienmäßig in Fahrzeugen verbaut werden und deshalb kostengünstig für einen weiteren Nutzen verwendet werden können. Dabei ist insbesondere eine Erkennung von Objekten in einem Fahrzeugumfeld bzw. einer Fahrzeugumgebung im Heckbereich von besonderem Interesse, da ein Fahrer beim Einparken in diesem Bereich wenig bis gar keinen Einblick hat.
  • Die DE 10 2006 005 231 A1 betrifft eine Entfernungsmessung, welche gleichermaßen gut für den Einsatz bei stationären und mobilen Systemen geeignet ist und dabei insbesondere zum Zwecke der Sichtweitenbestimmung eine hinreichend genaue Entfernungsbestimmung ermöglicht. Dabei erfolgt die Entfernungsbestimmung durch die Auswertung stereoskopischer, jeweils aus zwei Teilbildern bestehender digitaler Kamerabilder. Dazu wird ein Objekt von zwei in Richtung des Objekts unterschiedlichen, einen bekannten Abstand zueinander aufweisenden Bildpositionen aufgenommen. Es werden zwei stereoskopische Bildpaare erfasst, für welche jeweils die Parallaxe der beiden sie ausbildenden Teilbilder bestimmt wird. Dies geschieht durch Auszählen der Bildpunkte beziehungsweise Pixel des seitlichen Versatzes der Teilbilder und eine Multiplikation der dabei ermittelten Pixelzahl mit der für die verwendete Kamera bekannten Pixelgröße. Schließlich wird aus dem für die Stereoaufnahmen beider Bildaufnahmepositionen errechneten Parallaxen und dem bekannten Abstand der beiden Bildaufnahmepositionen zueinander die Entfernung des Objekts berechnet.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund wird mit der vorliegenden Erfindung ein Verfahren zur Erkennung von einem Objekt in einer Umgebung einer Kamera, weiterhin eine Vorrichtung, die dieses Verfahren verwendet sowie schließlich ein entsprechendes Computerprogrammprodukt gemäß den Hauptansprüchen vorgestellt. Vorteilhafte Ausgestaltungen ergeben sich aus den jeweiligen Unteransprüchen und der nachfolgenden Beschreibung.
  • Die vorliegende Erfindung schafft ein Verfahren zur Erkennung von einem Objekt in einer Umgebung einer Kamera insbesondere eines Fahrzeugs, wobei das Verfahren die folgenden Schritte aufweist:
    • – Aussenden zumindest eines ersten Beleuchtungsmusters in einen ersten Teilbereich der Umgebung der Kamera und zumindest eines zweiten Beleuchtungsmuster in einem vom ersten Teilbereich unterschiedlichen zweiten Teilbereich der Umgebung der Kamera, insbesondere wobei sich das zweite Beleuchtungsmuster vom ersten Beleuchtungsmuster unterscheidet;
    • – Einlesen eines von der Kamera aufgenommenen Bildes, das mit dem ersten Beleuchtungsmuster beleuchteten ersten Teilbereich und den mit dem zweiten Beleuchtungsmuster beleuchteten zweiten Teilbereich der Umgebung der Kamera je zumindest teilweise enthält; und
    • – Erkennen des Objektes in der Umgebung der Kamera durch Auswertung des eingelesenen Bildes.
  • Die vorliegende Erfindung schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte des erfindungsgemäßen Verfahrens in entsprechenden Einrichtungen durchzuführen bzw. umzusetzen. Somit schafft die vorliegende Erfindung eine Vorrichtung, die Einrichtungen aufweist, welche ausgebildet sind, um die Schritte des erfindungsgemäßen Verfahrens auszuführen. Auch durch diese Ausführungsvariante der Erfindung in Form einer Vorrichtung kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuersignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt mit Programmcode, der auf einem maschinenlesbaren Träger wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, wenn das Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Unter einer Kamera kann beispielsweise ein optischer Sensor verstanden werden, der insbesondere in einem Fahrzeug oder in einer beliebigen anderen Objekterkennungseinrichtung verbaut ist. Der optische Sensor kann beispielsweise als CCD- oder CMOS-Kamera oder als eine sonstige Videokamera ausgebildet sein. Unter einem Beleuchtungsmuster kann eine vordefinierte Abfolge oder Anordnung von helleren und dunkleren Bereichen verstanden werden, die bei der Beleuchtung eines Objektes in einem Bereich Bereichs in der Umgebung der Kamera oder in einer Umgebung des Fahrzeugs verursacht werden. Die Beleuchtungsmuster können dabei mittels einer Durchstrahlung einer Vorlage erzeugt werden, in der einzelne Bereiche der Vorlage unterschiedliche Transparenz aufweisen. Alternativ oder zusätzlich kann ein Beleuchtungsmuster auch beispielsweise durch die Lenkung eines Lichtstrahles oder einer Lichtverteilung mit mechanischen Mitteln wie beispielsweise einem Spiegel, refraktiven oder diffraktiven Elementen oder ähnlichen Elementen einer optischen Apparatur erzeugt werden. Die Beleuchtung kann dabei von einem Projektor aus erfolgen, der entweder benachbart zu der Kamera (beispielsweise in dem Fahrzeug) oder innerhalb einer Baueinheit mit der Kamera angeordnet ist. Alternativ kann der Projektor auch in einer von der Kamera unabhängigen Baugruppe angeordnet sein. Unter einem Teilbereich kann ein Bereich der Umgebung der Kamera oder in der Umgebung des Fahrzeugs verstanden werden, der von einem Beleuchtungsmuster beleuchtet wird. Das von der Kamera aufgenommene Bild kann dabei zumindest einen Teil des ersten Teilbereichs sowie einen Teil des zweiten Teilbereichs enthalten oder abbilden, wobei durch die Auswertung des eingelesenen Bildes, insbesondere der Auswertung der Darstellung der Teile des Bildes, die die beiden beleuchteten Teilbereiche repräsentieren, das Objekt erkannt werden kann. Unter einer Erkennung des Objektes kann die Detektion des Objektes als solches, d. h. das Vorhandenseins des Objektes in der Umgebung der Kamera verstanden werden. Alternativ oder zusätzlich kann unter der Erkennung des Objektes auch eine Erkennung eines Abstandes des Objektes von der Kamera, eine Größe des Objektes, eine Erkennung eines Typs oder eine Ausdehnung des Objektes (wie beispielsweise eine Ausgestaltung als Betonpfosten mit einer bestimmten Größe) verstanden werden.
  • Die vorliegende Erfindung basiert auf der Erkenntnis, dass eine besonders präzise Erkennung von Objekten in einer Umgebung der Kamera beziehungsweise einer Umgebung des Fahrzeugs dann möglich ist, wenn Teilbereiche der Umgebung um die Kamera insbesondere mit unterschiedlichen Beleuchtungsmustern beleuchtet werden. Hierdurch können Strukturen oder Objekte in der Umgebung deutlich besser erkannt werden, da durch die Beleuchtung der Umgebung mit unterschiedlichen Beleuchtungsmustern weitgehend ausgeschlossen werden kann, dass eine Struktur oder ein Objekt in der Umgebung zufälligerweise mit einer Beleuchtungsmusterstruktur zusammenfällt, so dass die Struktur oder das Objekt in der Umgebung nicht mehr eindeutig durch die Beleuchtungsmusterstruktur aufgelöst werden kann. Erstreckt sich die Struktur bzw. das Objekt in der Umgebung jedoch sowohl in den ersten Teilbereich als einen zweiten Teilbereich kann dieses Objekt mit großer Wahrscheinlichkeit erkannt werden, wenn unterschiedliche Beleuchtungsmuster zur Beleuchtung des Objektes verwendet werden.
  • Die vorliegende Erfindung bietet dabei den Vorteil, dass gegenüber herkömmlichen Ansätzen eine deutlich verbesserte Auswertungsgenauigkeit erreicht werden kann, wobei lediglich einfache und zum Teil bereits schon serienmäßig im Fahrzeug verbaute Komponenten weitergenutzt werden können. Es wird ferner auch die Robustheit eines solchen Systems gesteigert, und zwar in dem Sinne, dass grobe Fehler (beispielsweise in der Form von Ausreißern) vermieden werden oder zumindest unwahrscheinlicher werden. Zur Realisierung des hier vorgestellten Ansatzes ist insbesondere eine neue Konfiguration einer Auswertungssoftware in einer entsprechenden Auswertungseinheit vorzunehmen, die sich ohne größeren Kostenaufwand umsetzen lässt.
  • Günstig ist es, wenn im Schritt des Aussendens ein veränderbares erstes Beleuchtungsmuster und/oder ein veränderbares zweites Beleuchtungsmuster ausgesandt werden. Ein veränderbares erstes und/oder zweites Beleuchtungsmuster kann dabei derart ausgestaltet sein, dass verschiedene zur Auswahl stehende Beleuchtungsmuster herangezogen werden können, um als erstes oder zweites Beleuchtungsmuster ausgesandt zu werden. Diese Beleuchtungsmuster können entweder aus einem Beleuchtungsmusterspeicher ausgelesen oder für vor der Aussendung in einem Projektor oder einer Beleuchtungsmustererzeugungseinheit generiert werden. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil einer besonders großen Flexibilität und somit die Möglichkeit auch in unterschiedlichen Umgebungsszenarien noch eine sehr präzise Erkennung eines Objektes in der Umgebung der Kamera beziehungsweise in der Umgebung des Fahrzeugs zu ermöglichen.
  • Auch kann gemäß einer weiteren Ausführungsform der vorliegenden Erfindung ein Schritt des Analysierens der Umgebung der Kamera unter Verwendung eines weiteren Bildes der Kamera vorgesehen sein, wobei im Schritt des Analysierens eine Struktur im ersten und/oder zweiten Teilbereich der Umgebung der Kamera erkannt wird und wobei im Schritt des Aussendens ein erstes und/oder zweites Beleuchtungsmuster in Abhängigkeit von der erkannten Struktur ausgesandt wird. Eine derartige Ausführungsform der vorliegenden Erfindung bietet eine hohe Anpassungsmöglichkeit des auszusendenden Beleuchtungsmusters an ein aktuelles Umgebungsszenarios um die Kamera beziehungsweise das Fahrzeug, so dass beispielsweise bestimmte erkannte Strukturen im ersten und/oder zweiten Teilbereich durch die jeweils günstigen Beleuchtungsmuster beleuchtet werden können. Ein solches günstiges Beleuchtungsmuster ist dann vorliegend, wenn es mit einer Struktur, die im Teilbereich, das durch das betreffende Beleuchtungsmuster beleuchtet werden soll, möglichst wenig übereinstimmt. Beispielsweise kann im ersten und/oder zweiten Teilbereich ein Zaun mit einer bestimmten Anzahl von Zaunlatten erkannt werden, die in einem von bestimmten Abstand zyklisch wiederholt angeordnet sind und die mit einem Beleuchtungsmuster beleuchtet werden, in der Beleuchtungsmusterstrukturen ausgesandt werden, die sich selbst nicht im Wesentlichen in Richtung der Erstreckung der Zaunlatten erstrecken, sondern beispielsweise die sich quer zur Erstreckungsrichtung der Zaunlatten erstrecken. Auf diese Weise kann bei der Auswertung des von der Kamera eingelesenen Bildes das Objekt (beziehungsweise die Struktur) in der Umgebung die Kamera, die in Form des Zauns vorliegt, sehr präzise bestimmt oder erkannt werden.
  • Besonders vorteilhaft ist es ferner, wenn im Schritt des Analysierens eine Struktur erkannt wird, die einen Kantenbereich aufweist in dem Bildkanten enthalten sind, die in einem gleichen Kantenabstand zueinander angeordnet sind, wobei im Schritt des Aussendens das erste Beleuchtungsmuster derart ausgesandt wird, dass es den Kantenbereich beleuchtet, wobei das erste Beleuchtungsmuster derart ausgestaltet ist, dass es bei einem Auftreffen auf die Struktur im Kantenbereich einen Abstand von Beleuchtungsmusterstrukturen aufweist, der sich vom Kantenabstand unterscheidet. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass im Kantenbereich durch das erste Beleuchtungsmuster beleuchtete Bildkanten mit hoher Präzision erfasst oder erkannt werden können.
  • Besonders vorteilhaft ist es ferner, wenn im Schritt des Analysierens ein drittes Beleuchtungsmuster im weiteren Bild erkannt wird, wobei im Schritt des Aussendens ein sich vom dritten Beleuchtungsmuster unterscheidendes erstes und zweites Beleuchtungsmuster ausgesandt wird. Eine derartige Ausführungsform der vorliegenden Erfindung ermöglicht somit die Vermeidung von Störungen bei der eigenen Erkennung des Objekts in der Umgebung der Kamera oder des Fahrzeugs, wenn auch andere Nutzer Beleuchtungsmuster auf ein oder mehrere Objekte in der Umgebung der Kamera bzw. des Fahrzeugs projizieren. Durch eine Vorgehensweise gemäß dieser Ausführungsform der vorliegenden Erfindung kann folglich sichergestellt werden, dass ein Beleuchtungsmuster als Grundlage für die Erkennung des Objekts in der Umgebung der Kamera verwendet wird, das sich von einem Beleuchtungsmuster unterscheidet, welches von einem Projektor eines anderen Nutzers ausgesandt wird.
  • Um eine besonders sichere Erkennung eines Objektes aus dem Bild zu ermöglichen, kann im Schritt des Aussendens ein erstes Beleuchtungsmuster ausgesandt werden, das bei einem Auftreffen auf das Objekt in der Umgebung der Kamera Beleuchtungsmusterstrukturen aufweist, die sich mit Beleuchtungsmusterstrukturen überdecken, die bei einem Auftreffen des zweiten Beleuchtungsmusters auf das Objekt in der Umgebung der Kamera entstehen. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, dass auch an einer Schnittstelle zwischen dem ersten Teilbereich einem zweiten Teilbereich befindliche Strukturen oder Objekte sehr präzise erkannt werden können.
  • Um auch Oberflächeneigenschaften des Objektes besonders gut zu erkennen, und hierdurch eine Klassifikation des Objektes zu erleichtern, kann im Schritt des Aussendens eine Polarisation eines Lichtes beeinflusst werden, das das erste und/oder zweite Beleuchtungsmuster bildet. Insbesondere kann im Schritt des Erkennens des Objekts dieses Objekt dann unter einer Verwendung einer Polarisationsinformation erkannt werden, die aus dem Bild der Kamera entnehmbar ist. Eine derartige Ausführungsform der vorliegenden Erfindung bietet den Vorteil, durch die Variation der Polarisation des Lichtes zusätzliche Informationen in Bezug auf die Oberfläche des Objektes zu erhalten, beispielsweise in Bezug auf eine Reflexionseigenschaft oder Materialbeschaffenheit oder Orientierung dieser Oberfläche möglich wird. Dabei kann der physikalische Effekt ausgenutzt werden, dass sich bei Änderung der Polarisationsrichtung für manche Flächen die Helligkeit im Bild ändert. Das ist besonders auffällig bei Wasseroberflächen oder bei Fahrzeugscheiben, in denen sich jeweils der Himmel spiegelt. Auch auf diesem Weg lässt sich somit vorteilhaft eine Information gewinnen, wie die Oberfläche orientiert ist.
  • Günstig ist es ferner, wenn im Schritt des Aussendens das erste und/oder zweite Beleuchtungsmuster in einem optisch sichtbaren elektromagnetischen Wellenlängenbereich und/oder in einem Infrarot-Wellenlängenbereich ausgesandt wird. Eine derartige Ausführungsform der vorliegenden Erfindung bietet ebenfalls den Vorteil einer besonders guten Erkennung des Objekts, da unterschiedliche Materialien an einer Oberfläche des Objekts unterschiedliche Reflexionseigenschaften in Bezug auf verschiedene Wellenlängenbereiche eines Lichtes des ersten und/oder zweiten Beleuchtungsmusters aufweisen. Auf diese Weise können unter Verwendung der vom Objekt reflektierten Lichtmuster weitere Informationen über die Oberfläche dieses Objektes erhalten wenden.
  • Die Erfindung wird nachstehend anhand der beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 ein Blockschaltbild eines Fahrzeugs, in dem ein Ausführungsbeispiel der vorliegenden Erfindung eingesetzt wird;
  • 2 eine beispielhafte Anordnung von Komponenten zur Realisierung eines Ausführungsbeispiels der vorliegenden Erfindung;
  • 3 ein Beispiel für ein von der Kamera aufgenommenes Bild einer Szene um die Kamera bzw. das Fahrzeug;
  • 4 ein Beispiel für ein an eine Umgebung der Kamera (d. h. Szene) angepasstes (Beleuchtungs-) Muster zur Projektion auf die Szene;
  • 5 ein Beispiel für ein Bild der Kamera, das ein auf die Szene projiziertes (Beleuchtungs-) Muster mit mehreren Teilabschnitten aufweist;
  • 6 ein Beispiel einer alternativen Ausgestaltung des (Beleuchtungs-) Musters unter Verwendung von pseudo-zufällig gewählten Farben/Strukturen/Farbstrukturen;
  • 7 ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung.
  • In der nachfolgenden Beschreibung bevorzugter Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • Zur kamerabasierten dreidimensionalen Erfassung von Objekten oder einer Umgebung (z. B. Innenraum, Fahrzeugumgebung) lassen sich unterschiedliche Ansätze verwenden, die nachfolgend beispielhaft dargestellt werden sollen.
  • Zunächst ist ein Stereo-Video-System zu nennen, bei dem zwei Kameras dieselbe Szene beobachten, insbesondere denselben Objektpunkt. Bei bekanntem räumlichen Bezug zwischen den Kameras und bekannten Kameraabbildungseigenschaften kann durch Triangulation bestimmt werden, in welcher Entfernung der Objektpunkt zum Kamerasystem liegt. Während eine monokulare Kamera nur feststellen kann, auf welchem Sichtstrahl, also in welchem Raumwinkel bezüglich der Kamera der Objektpunkt liegt, kann mit einer Stereo-Kamera auch die dritte Unbekannte ermittelt werden. Die 3-dimensionale Lage des Objektpunktes ist damit vollständig bestimmt. Das Abbild des Sichtstrahls einer ersten Kamera im Bild der zweiten Kamera heißt Epipolarlinie. In der zweiten Kamera liegt das Abbild des Objektpunkts auf dieser Epipolarlinie, die gerade oder gekrümmt sein kann. Bei der Suche nach der Korrespondenz des Objektpunkts in der zweiten Kamera handelt es sich also um ein eindimensionales Suchproblem. In diesem Zusammenhang wird häufig der Begriff der Disparität verwendet, die einen Abstand entlang der Epipolarlinie beschreibt. Einem Objektpunkt im Unendlichen wird üblicherweise die Disparität Null zugeordnet. Je näher der Punkt dem Kamerasystem ist, umso größer ist die Disparität. Sie beschreibt somit die relative Verschiebung zwischen den Abbildern des Objektpunkts in den beiden Kamerabildern. Das Stereo-Prinzip lässt sich auch auf mehr als zwei Kameras erweitern.
  • Weiterhin wäre ein aktives Stereo-System zu nennen. Hierbei wird eine der beiden Kameras des Stereo-Systems durch einen Projektor ersetzt. Dieser projiziert beispielsweise einen Lichtpunkt oder einen Streifen oder ein Streifenmuster oder ein sonstiges Muster oder eine Folge von Mustern auf das Objekt bzw. auf die Szene. Das Abbild dieser Projektion wird von der Kamera erfasst und ausgewertet. Mittels Triangulation wenden wieder Entfernungen bestimmt. Auch das aktive Stereo-Prinzip lässt sich auf mehrere Kameras bzw. mehrere Projektoren erweitern.
  • Ferner wäre ein Laser-Ranging-System zu nennen. Das Laser-Ranging-System entspricht dem Prinzip des aktiven Stereo-Systems, wobei der Projektor durch einen Laserstrahler ersetzt ist, dessen Strahl geschwenkt werden kann. Durch die Strahlschwenkung kann der Lichtpunkt zur optischen Abtastung über das Objekt bewegt werden. Das Messprinzip ist auch hier wieder die Triangulation unter Verwendung des Kamerabilds.
  • Zusätzlich wäre ein Structure-from-Motion-System zu nennen. Für das Structure-from-Motion-Prinzip wird nur eine Kamera benötigt, die zeitlich nacheinander in mindestens zwei unterschiedliche Positionen bezüglich des Objekts oder der Szene gebracht wird. Für die überlappenden Bildbereiche kann dann wieder das oben beschriebene Stereo-Prinzip angewendet werden. Die relative Orientierung zwischen den beiden Kamerapositionen kann dabei bekannt sein oder aus den Bilddaten bestimmt werden.
  • Auch wäre in diesem Zusammenhang ein Time-of-flight-Ansatz zu nennen. Beim Time-of-Flight-Messprinzip wird die Laufzeit von Lichtpulsen gemessen, die von einer Lichtquelle in Nähe der Kamera ausgesandt und an der Szene reflektiert werden und zur Kamera zurückkehren. Die Lichtlaufzeit ist dabei proportional zur Entfernung.
  • Die vorstehend genannten Ansätze zur Objekterkennung im Umfeld einer Kamera weisen jedoch einige Nachteile auf. In Bezug zum Stereo-System wären hier anzuführen, dass die Stereo-Korrespondenzbestimmung ohne geeignete Strukturen nicht funktionieren kann. Ein Beispiel für ein Szenario, bei dem ein solcher Nachteil zum Tragen kommt wäre die Erkennung einer strukturlosen weißen Wand als Objekt. Auch kann die Stereo-Korrespondenzbestimmung Mehrdeutigkeiten aufweisen, wie es am Beispiel von periodischen Strukturen wie Geländer oder Wellblechwand zu erwarten wäre. Auch ist ein Stereo-Video zunächst ein passives System und funktioniert daher nicht bei völliger Dunkelheit.
  • In Bezug zu einem aktiven Stereo-System ließe sich als Nachteil anführen, dass die verwendeten projizierten Muster sich ungünstig mit der Szene überlagern können. Beispielsweise können projizierte Linien einen ungünstigen Winkel mit Linien oder Kanten in der Szene aufweisen, was sich negativ auf die Messgenauigkeit auswirken kann. Auch sind die projizierten Muster teilweise im Bild nicht auffindbar, weil sie an Tiefensprüngen der Szene zerteilt werden. Dies erschwert die Interpretierbarkeit der in die Kamera projizierten Abbilder der Muster. Ferner können sich mehrere benachbart arbeitende aktive Stereo-Systeme wechselseitig störend beeinflussen.
  • Nachteilhaft in Bezug zu einem Laser-Ranging-System (Laser-Ranging-System = Lasergestütztes Abstandserkennungssystem) ist beispielsweise, dass zusätzlich zu den Mängeln des aktiven Stereo-Systems für diese Ranging-Systeme in der Regel während der Laserabtastung mehrere Kamerabilder nacheinander aufgenommen werden müssen. Entsprechend ist die Erstellung einer gut aufgelösten Entfernungskarte zeitaufwändig. Zusätzlich können sich mehrere benachbart arbeitende Laser-Ranging-Systeme wechselseitig störend beeinflussen.
  • In Bezug zu einem System, das auf dem Structure-from-Motion-Prinzip (Structure-from-Motion = Struktur aus Bewegung) arbeitet wäre zu nennen, dass sich in diesem Ansatz zusätzlich zu den Mängeln des aktiven Stereo-Systems noch anführen ließe, dass eine Bestimmung der Struktur mit diesem Ansatz nur korrekt funktioniert, wenn die Objekte in der Szene sich zwischen den beiden Aufnahmezeitpunkten nicht bewegen. Damit ist es für viele Anwendungen ungeeignet. Ferner wirkt sich auch die Ungenauigkeit der Eigenbewegungsbestimmung negativ auf die Entfernungsmessgenauigkeit aus.
  • In Bezug zu einem Objekterkennungssystem auf der Basis des Time-of-Flight-Prinzips (Time-of-Flight = Lichtlaufzeit) wäre zu nennen, dass bei diesem Messprinzip, das auf der Laufzeit der sich mit Lichtgeschwindigkeit ausbreitenden Lichtpulse beruht, die Kamera den Eintreffzeitpunkt des Lichtpulses exakt bestimmen können muss. Wegen der Höhe der Ausbreitungsgeschwindigkeit ergeben sich daraus hohe Anforderungen an die Kamera. Diese Kamera-Auslegung bedingt wiederum Nachteile, insbesondere die geringe Bildauflösung und der hohe Preis im Vergleich zu konventionellen Kameras. Zugleich ist die gemessene Entfernung wegen der Periodizität der Lichtpulse nicht eindeutig, d. h. ein starker Reflektor in einer von mehreren bestimmten größeren Entfernungen kann zum gleichen Empfangssignal führen wie ein schwacher Reflektor in kurzer Entfernung. Weiterhin können sich auch mehrere benachbart arbeitende Time-of-Flight-Sensoren wechselseitig störend beeinflussen. Zusätzlich betreffen auch noch weitere Nachteile die Temperaturdrift und die elektromagnetische Verträglichkeit aufgrund der hohen Signalfrequenzen, die in Systemen auf der Basis des Time-of-Flight-Ansatzes zu berücksichtigen sind.
  • Der hier vorgestellte Ansatz betrifft dagegen ein aktives Stereo-System mit wenigstens einer Kamera und wenigstens einem Projektor, wobei Kamera-Erfassungsbereich und Projektionsbereich zumindest teilweise überlappen. Dabei kann insbesondere mindestens ein vom Projektor projiziertes Muster abhängig von der durch die Kamera erfassten Szene gewählt werden.
  • In der 1 ist ein Blockschaltbild eines Fahrzeugs 1 dargestellt, in dem ein Ausführungsbeispiel der vorliegenden Erfindung eingesetzt wird. Hierbei umfasst das Fahrzeug 1 ein Kamera-Projektor-System 2, das einen Heckbereich 3 des Fahrzeugs überwacht, um beispielsweise einen Betonpfosten 4 als Objekt hinter dem Fahrzeug 1 beim Einparken rechtzeitig erkennen zu können. Das Kamera-Projektor-System 2 umfasst eine Kamera 5 sowie einen Projektor 6, der einen ersten Teilbereich 7 der Umgebung der Kamera 4 bzw. des Fahrzeugs, (der sich beispielsweise auf einer Oberfläche des Betonpfostens als Objekt 4 befindet) wird mit einem ersten Beleuchtungsmuster beleuchtet. Das erste Beleuchtungsmuster kann dabei aus einer vordefinierten Abfolge oder Anordnung von Streifen, Linien, Flächen oder ähnlichen geometrischen Formen Ein zweiter Teilbereich 8 der Umgebung der Kamera 5 bzw. des Fahrzeugs 1 wird vom Projektor 5 mit einem zweiten Beleuchtungsmuster beleuchtet, das günstigerweise vom ersten Beleuchtungsmuster unterschiedlich ist. Das erste und zweite Beleuchtungsmuster können auch Teilabschnitte eines einzigen vom Projektor ausgestrahlten Beleuchtungsmusters sein, d. h. der Prohektor kann eine Projektionsvorlage zur Beleuchtung des Objektes verwenden, die in unterschiedlichen Abschnitten eine sich unterscheidende Anordnung von helleren und dunkleren Bereichen aufweist. Das mit den beiden Beleuchtungsmustern beleuchtete Objekt wird anschließend von der Kamera aufgenommen, um ein Bild zu erhalten, in dem zumindest teilweise der vom ersten Beleuchtungsmuster beleuchtete erste Teilbereich 7 sowie der vom zweiten Beleuchtungsmuster beleuchtete zweiten Teilbereich 8 abgebildet ist. Der erste und zweite Teilabschnitt können sich dabei ferner auch überlappen, so dass ein gemeinsamer Bereich vorhanden ist, der sowohl Teil des ersten als auch des zweiten Teilbereiches ist.
  • Das von der Kamera 6 erfasste Bild wird dann zu einer Auswerteeinheit 9 übertragen, in der unter Kenntnis der vom Projektor 5 ausgesandten ersten und zweiten Beleuchtungsmuster das Objekt erkannt werden kann. Diese Erkennung kann dabei derart erfolgen, dass bei bekanntem ersten und zweiten Beleuchtungsmuster beispielsweise erkannt wird, wie groß der Abstand zu zwei Beleuchtungsmusterstrukturen ist, die in dem Bild abgebildet sind und durch eine Triangulation herausgerechnet wird, wie weit weg ein bestimmter Punkt des Objektes vom Kamera-Projektor-System 2 entfernt ist. Durch eine Verwendung von zwei unterschiedlichen Beleuchtungsmustern kann auch sehr präzise eine Struktur oder das Objekt 4 in der Umgebung der Kamera bzw. des Fahrzeugs 1 erkannt werden.
  • Nach einer prinzipiellen Beschreibung des Grundgedankens der Erfindung wird nachfolgend ein weiteres Ausführungsbeispiel mit einer Kamera und einem Projektor dargestellt und eine Möglichkeit der Musteradaption beschrieben.
  • 2 zeigt beispielhaft eine Anordnung von Komponenten zur Realisierung eines Ausführungsbeispiels der vorliegenden Erfindung. Die Kamera 10, die beispielsweise in einem Fahrzeug 1 entsprechend der 1 verbaut ist, nimmt ein Bild der Szene auf, in der sich zwei Objekte 20, 22 befinden, die unterschiedliche Abstände zu einem Referenzpunkt 18 (P) haben. Der Erfassungsbereich der Kamera 10 (angedeutet durch eine Pyramide) überlappt mit dem Erfassungsbereich des Beamers 12 (der synonym auch als Projektor bezeichnet werden kann). Der Beamer kann ein Lichtmusterbild 30 auf die Szene 20, 22 projizieren. Die Kamera 10 kann die Szene 20, 22 mit oder ohne projiziertem Muster 30 erfassen. Die Komponenten 10 und 12 wie auch der Referenzpunkt 18 können starr miteinander verbunden sein. Statt nebeneinander, wie hier dargestellt, können 10 und 12 auch anders angeordnet sein, beispielsweise übereinander oder diagonal. Kamera 10 und Beamer 12 können mit einer Steuerungs- und Auswerteeinheit 14 verbunden sein. Über Schnittstellen 16 können weitere Sensor- oder Steuersignale empfangen und/oder gesendet werden oder Aktuatorik oder weitere Auswerteeinheiten angebunden sein.
  • In der Regel besteht eine Szene aus mehreren unterschiedlich aussehenden Bereichen. Beispielsweise besteht die von einer Rückfahrkamera im Heck eines Fahrzeugs erfasste Szene aus Straßenoberfläche, Fahrbahnmarkierungen, Bordstein, parkenden Fahrzeugen, Pfahl, Geländer, Gebäudeecke, sich bewegenden Fußgängern usw.. Bei einer in sich unterschiedlichen Szene ist es besonders vorteilhaft, das projizierte Muster örtlich unterschiedlich zu gestalten, so dass jedes Szenenobjekt mit dem jeweiligen optimalen Muster angestrahlt wird.
  • Optimal kann dabei bedeuten, dass
    • • die Messung mit diesem Muster besonders wenig störanfällig wird (gegen Messfehler) oder
    • • die Messung besonders genau wird oder
    • • die Messung besonders schnell abläuft oder
    • • die Bewegung eines Objekts (z. B. Fußgänger) besonders präzise oder zuverlässig wird.
  • Die Anpassung des Musters kann auf verschiedene Weise geschehen: Beispielsweise kann eine Anpassung der lokalen Orientierung des Musters an die lokale Orientierung der Szene, z. B. so, dass die lokalen Orientierungen etwa senkrecht aufeinander stehen. Je nach Messaufgabe kann es auch sinnvoll sein, die lokalen Orientierungen parallel zu wählen.
  • Ferner ist auch eine Anpassung der Ortsfrequenz des (Beleuchtungs-) Musters an die Szene denkbar, beispielsweise so, dass das Bild des Musters andere Ortsfrequenzen aufweist als das Bild der Szene. Unter einer Ortsfrequenz kann dabei eine Häufigkeit der örtlichen Wiederholung von Strukturen in einem bestimmten Abstand zueinander verstanden werden. Je nach Messaufgabe kann es auch sinnvoll sein, gleiche oder ähnliche Ortsfrequenzen in dem ersten und/oder zweiten Beleuchtungsmuster zu verwenden.
  • Von Vorteil kann auch eine Anpassung der Farben (bzw. Wellenlängen) des projizierten (Beleuchtungs-) Musters an die Szene (d. h. die Umgebung der Kamera bzw. des Fahrzeugs) sein, beispielsweise Verwendung von Komplementärfarben zur Szene, um eine bessere Unterscheidbarkeit zwischen (Beleuchtungs-) Muster und Szene zu erreichen. Je nach Messaufgabe kann es auch sinnvoll sein, gleiche oder ähnliche Farben in dem ersten und/oder zweiten Beleuchtungsmuster) zu verwenden.
  • Gemäß einer Variante der Erfindung kann eine Anpassung der Helligkeit des projizierten (Beleuchtungs-) Musters an die Helligkeit der Szene erfolgen. Beispielsweise kann es günstig sein, eine stark absorbierende und von der Sonne direkt beschienene Oberfläche (des Objektes beispielsweise in einem der Teilbereiche) intensiv zu bestrahlen, während für eine im Schatten befindliche wenig absorbierende matte Fläche des Objektes eine geringe Bestrahlungsintensität günstiger ist. Bei gerichtet reflektierenden Oberflächen (glänzende, spiegelnde usw., z. B.
  • Autolack und Chromteile) des Objektes kann es sinnvoll sein, die Intensität so an die Orientierung der Oberfläche anzupassen, dass die Kamera einerseits nicht vom Projektor geblendet wird und andererseits das projizierte Muster noch ausreichend kontrastreich von der Kamera wahrgenommen werden kann.
  • Liegen in der Szene (d. h. in der Umgebung der Kamera bzw. des Fahrzeugs) zumindest teilweise periodische Strukturen vor, beispielsweise Gitterstäbe eines Geländers, so dass die Gefahr einer Fehlzuordnung besteht, ist es sinnvoll, das (Beleuchtungs-) Muster so zu gestalten, dass eine möglichst hohe Eindeutigkeit entsteht. Beispielsweise kann das Muster etwa in dem Abstand der Gitterstäbe verändert werden, so dass auf jeden Gitterstab ein anderes Muster projiziert wird. Somit wird die hohe Eindeutigkeit erreicht.
  • Auch kann bei großen homogenen Oberflächen eines Objektes ein (Beleuchtungs-) Muster gewählt werden, das eine hohe Eindeutigkeit in sich besitzt. Beispielsweise sind zufällige oder pseudo-zufällige Rauschmuster besonders gut geeignet, da eine kleine Umgebung eines Objektpunkts in der Regel bereits ausreicht, um den Ausschnitt des (Beleuchtungs-) Musters eindeutig zu identifizieren. Wenn solche (Beleuchtungs-) Muster mit hohen Ortsfrequenzen verwendet werden, lassen sich eine hohe Entfernung-Messgenauigkeit und gleichzeitig eine hohe Robustheit gegen Messausreißer erreichen.
  • An Stellen, wo unterschiedliche Szenenobjekte im Bild aneinanderstoßen, können die (Beleuchtungs-) Muster gleitend ineinander übergehen (anstatt schart berandet zu wechseln). Beispielsweise an einer Verdeckungskante, wo ein homogenes Vordergrundobjekt (z. B. weißes Fahrzeugteil) ein texturiertes Objekt (z. B. Rasen im Hintergrund) verdeckt, kann folgender Verlauf günstig sein: Es wird ein Rauschmuster mit hoher Ortsfrequenz auf dem Fahrzeugteil gewählt, übergehend in ein codiertes Linienmuster senkrecht zur Verdeckungskante, wiederum übergehend in ein etwa senkrecht zu den Grashalmen gerichtetes (Beleuchtungs-) Muster.
  • Sind zwei oder mehrere vorstehend beispielhaft beschriebene Systeme zur Erkennung eines Objektes gleichzeitig und unabhängig voneinander örtlich benachbart im Einsatz (z. B. mehrere gleichzeitig einparkende Autos), so besteht die Gefahr der gegenseitigen störenden Beeinflussung. Um diese zu vermeiden oder gering zu halten, können die Systeme gegenseitig aufeinander reagieren, indem sie das eigene (Beleuchtungs-) Muster nicht nur an die Szene, sondern an die Szene und das bereits vorhandene Licht- oder Beleuchtungsmuster (das von den Nachbarsystemen stammt) anpassen. Beispielsweise können für das zweite Muster andere Ortsfrequenzen oder andere Farben oder andere Muster-Orientierungen verwendet werden.
  • Weiterhin kann Lichtpolarisation eingesetzt werden, um die Reflexion an Oberflächen (beispielsweise des Objektes) gezielt zu unterdrücken oder zu befördern. Dazu können der Projektor und/oder die Kamera mit mindestens einer Polarisationseinrichtung ausgestattet sein. Besonders vorteilhaft ist es, wenn die Polarisationsrichtung(en) in Abhängigkeit vom Szeneninhalt gesteuert werden können.
  • Um eine Veränderung des ersten und/oder zweiten Beleuchtungsmusters durchführen zu können, kann ein Bild der Kamera verwendet werden, das ansprechend auf bestimmte Eigenschaften ausgewertet wird. Wird beispielsweise in einem solchen vorab erfassten Bild ein Beleuchtungsmuster erkannt, kann dieses Beleuchtungsmuster als von einem Fremdsystem ausgestrahlt betrachtet werden und das vom eigenen System ausgestrahlte erste und zweite Beleuchtungsmuster derart gewählt werden, dass es nicht mit dem vom Fremdsystem ausgestrahlten und von der Kamera vorab aufgenommenen Bild erkannt Beleuchtungsmuster übereinstimmt. Auch kann bei einem bereits grob erkannten Objekt eine Variation der Polarisation des für das erste und/oder zweite Beleuchtungsmuster ausgestrahlten Lichtes erfolgen, so dass sich weitere Details des Objektes erkennen lassen und somit eine präzisere Objekterkennung ermöglicht wird.
  • Eine Messung mit dem System kann in örtlicher und zeitlicher Richtung unterschiedlich ausgedehnt sein. Wenn zum Beispiel bei einem Einparkvorgang bereits erkannt wurde, dass nur ein einziges Hindernis vorliegt, z. B. ein Pfahl, so kann ein örtlich auf den Pfahl beschränktes Muster projiziert werden und lediglich ein Teilbereich eines einzigen Kamerabildes ausgelesen werden, um für die Entfernungsbestimmung hinreichend schnell hinreichend genaue Daten zu gewinnen. Im anderen Extremfall können mehrere (Beleuchtungs-) Muster hintereinander auf die ganze Szene projiziert werden und die Muster anschließend geändert und neu projiziert werden. Für die Bildung der neuen Muster können die inzwischen aus den Kamerabilddaten gewonnenen Informationen ausgenutzt werden.
  • Somit ist es beispielsweise möglich, den Entfernungsbereich für jeden Objektpunkt über die Zeit genauer einzugrenzen und somit die Messgenauigkeit über die Zeit zu erhöhen.
  • Das für die Projektion der Beleuchtungsmuster verwendete Licht kann im sichtbaren und/oder unsichtbaren Wellenlängenbereich liegen. Sichtbares Licht kann den zusätzlichen Vorteil aufweisen, dass der Anwender anhand der Lichtmuster eine Rückmeldung erhält. Unsichtbares Licht hat den Vorteil, dass es den menschlichen Betrachter nicht stört. Desweiteren kann eine Umschaltung des verwendeten Lichts je nach Anwendung vorteilhaft sein, z. B. Tag/Nacht oder Indoor/Outdoor.
  • Weiterhin kann ein signifikanter Nutzen aus der Wellenlängenverteilung gezogen werden; beim sichtbaren Licht spricht man hierbei von Farbe. Damit lässt sich die Eindeutigkeit beim Wiederfinden des Musters steigern. Auch kann die Lichtfarbe abhängig von der wellenlängenabhängigen Reflexion des Objekts (d. h. einer Objektfarbe) angepasst werden.
  • 3 zeigt einen Bildausschnitt eines von einer Rückfahrkamera aufgenommenen Bildes, wobei die Kamera im Heck eines Vans oder Kleintransporters installiert sein kann. Ein Fahrerassistenzsystem, das mit dem vorstehend vorgestellten Ansatz ausgestattet ist, soll hier das Rückwärts-Einparken in eine enge Parktasche unterstützen. Diese wird hier begrenzt durch ein weiteres Fahrzeug, eine Parkflächenmarkierung, ein Geländer, einen Poller und einen Bordstein. Aufgrund der Enge des Parkraums ist eine zuverlässige und genaue Vermessung wünschenswert.
  • 4 zeigt ein (Beleuchtungs-) Muster, das basierend auf dem Kamerabild von 3 speziell für diese Szene erzeugt wurde. Die Anpassung des Musters an die Szene ist in 5 noch besser zu erkennen: Hier ist illustriert, wie die Überlagerung des projizierten Muster mit der Szene aussehen kann. In der hier gezeigten Ausgestaltung sind die linienartigen Strukturen bevorzugt senkrecht zu den Kantenrichtungen der Szene ausgerichtet, während in homogenen Flächen der Szene (z. B. Asphalt oder Autotür) das Muster eine zufällig wechselnde Orientierung annimmt.
  • 4 ergäbe sich etwa wie hier gezeigt, wenn sich Kamera 10 und Projektor 12 etwa am selben Ort befinden würden. Aufgrund der Positionierung an verschiedenen Orten bilden sich jedoch Dispäritäten aus, also entfernungsabhängige Verschiebungen, die wie bereits erläutert als Grundlage für die Entfernungsmessung dienen.
  • Vorteilhafterweise wird das (Beleuchtungs-) Muster so gestaltet, dass die Strukturen – z. B. die senkrecht zu Szenenkanten verlaufenden Linien – so groß ausgedehnt sind, dass sie den möglichen Disparitätsbereich abdecken, denn zunächst sind die Entfernungen ja noch unbekannt. Nachdem z. B. nach einer früheren Messung die Entfernungen bereits ungefähr bekannt sind, schränkt sich der mögliche Disparitätsbereich weiter ein. Entsprechend können die Muster für einen nächsten Messschritt verfeinert werden. So kann bei Bedarf die Messgenauigkeit iterativ gesteigert werden.
  • 6 zeigt eine alternative Ausgestaltung für das Muster. Hier wird anstelle des einfarbigen Lichtmusters ein buntes Muster mit pseudo-zufällig gewählten Farben gewählt. Dies erhöht die Eindeutigkeit und verringert damit die Möglichkeit von Fehlzuordnungen und damit fehlerhaften Entfernungsmessungen.
  • Die unterschiedlichen Beleuchtungsmuster, die gemäß den vorstehend dargestellten Ansätzen verwendet werden können, können einerseits vordefinierte Beleuchtungsmuster darstellen, die aus einem Speicher abgerufen werden oder andererseits ansprechend auf bestimmte Parameter der Szene oder der Umgebung der Kamera generiert werden. Die letztgenannte Möglichkeit weist dabei den Vorteil auf, dass auf unterschiedlichste Szenen ein jeweils bestmöglich angepasstes Beleuchtungsmuster gewählt werden kann, um eine optimale Präzision und Robustheit bei der Erkennung des Objektes zu realisieren.
  • Der vorstehend ausführlich beschriebene Ansatz zur Erkennung eines Objektes kann neben der Erkennung von Objekten in der Umgebung von Fahrzeugen in unterschiedlichsten Anwendungsgebieten eingesetzt werden. Die nachfolgende Darstellung gibt eine Übersicht über die prinzipiell denkbaren Einsatzmöglichkeiten des beschriebenen Ansatzes ohne Anspruch auf Vollständigkeit. So kann der beschriebene Ansatz beispielsweise in einem Fahrerassistenzsystem eingesetzt werden, insbesondere zur Unterstützung beim manuellen Rangieren oder zum automatischen Rangieren, z. B. Einparken, Anfahren einer Tankstelle oder Steckdose oder Batteriewechselstation oder Waschanlage oder Verladestation, usw.. Denkbar ist jedoch auch ein Einsatz des vorstehend vorgeschlagenen Ansatzes im Zusammenhang mit einem Umfelderfassungssystem für einen Roboter, insbesondere wenn dieser mobil ist und sich in wechselnden Umgebungen orientieren muss und diese Umgebung gleichzeitig 3-dimensional und genau erfassen soll. Auch kann der beschriebene Ansatz in einem System zur exakten Gestenerkennung verwendet werden, z. B. bei der Erkennung von Gesten der Hand, wenn mit dieser ein Computer oder ein Roboter bedient wenden soll, oder wenn auf diesem Weg kommuniziert werden soll (z. B. Gebärdensprache). Auch kann ein System zur 3-dimensionalen Erfassung/Abtastung von Objekten, z. B. für die Werbeindustrie oder die Filmindustrie verwendet werden. Prinzipiell kann auch eine Fertigungsautomatisierung, z. B. dreidimensionale Lageerfassung von Bauteilen unter Verwendung eines vorstehend beschriebenen Ansatzes realisiert werden. Auch sind Schutzsysteme zur Absicherung der Umgebung von gefährlichen Maschinen durch dreidimensionale Erfassung der Maschinenumgebung denkbar. Vorteilhaft ist der Einsatz des vorstehend beschriebenen Ansatzes auch bei einer Umgebungserfassung bei Baumaschinen, z. B. dreidimensionale Erfassung eines Baggerlochs mit darin befindlichen Leitungen während des Baggerns, um Kollisionen und Schäden automatisch zu vermeiden. Eine weitere Anwendung des beschriebenen Ansatzes zur Erkennung eines Objektes kann in einem automatischen Positionierungssystem eingesetzt werden, z. B. um große Bauteile unter schwierigen Bedingungen aufeinander auszurichten, beispielsweise bei der Montage der Bauteile von Windkraftwerken.
  • 7 zeigt ein Ablaufdiagramm eines Ausführungsbeispiels der vorliegenden Erfindung als Verfahren 700 zur Erkennung von Objekten in einer Umgebung einer Kamera. Das Verfahren umfasst einen Schritt des Aussendens 710 zumindest eines ersten Beleuchtungsmusters in einen ersten Teilbereich der Umgebung der Kamera und zumindest eines vom ersten Beleuchtungsmusters unterschiedlichen zweiten Beleuchtungsmuster in einen vom ersten Teilbereich unterschiedlichen zweiten Teilbereich der Umgebung der Kamera. Ferner umfasst das Verfahren 700 einen Schritt des Einlesens 720 eines von der Kamera aufgenommenen Bildes, das mit dem ersten Beleuchtungsmuster beleuchteten ersten Teilbereich und den mit dem zweiten Beleuchtungsmuster beleuchteten zweiten Teilbereich der Umgebung der Kamera je zumindest teilweise enthält. Auch umfasst das Verfahren einen Schritt des Erkennens 730 des Objektes in der Umgebung der Kamera durch Auswertung des eingelesenen Bildes.
  • Die beschriebenen und in den Figuren gezeigten Ausführungsbeispiele sind nur beispielhaft gewählt. Unterschiedliche Ausführungsbeispiele können vollständig oder in Bezug auf einzelne Merkmale miteinander kombiniert werden. Auch kann ein Ausführungsbeispiel durch Merkmale eines weiteren Ausführungsbeispiels ergänzt werden.
  • Ferner können erfindungsgemäße Verfahrensschritte wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • Umfasst ein Ausführungsbeispiel eine „und/oder”-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102006005231 A1 [0003]

Claims (10)

  1. Verfahren (700) zur Erkennung von einem Objekt (4) in einer Umgebung einer Kamera (6, 10), wobei das Verfahren (700) die folgenden Schritte aufweist: – Aussenden (710) zumindest eines ersten Beleuchtungsmusters in einen ersten Teilbereich der Umgebung der Kamera (6, 10) und zumindest eines vom ersten Beleuchtungsmuster unterschiedlichen zweiten Beleuchtungsmusters in einen zweiten Teilbereich der Umgebung der Kamera (6, 10); – Einlesen (720) eines von der Kamera (6, 10) aufgenommenen Bildes, das mit dem ersten Beleuchtungsmuster beleuchteten ersten Teilbereich und den mit dem zweiten Beleuchtungsmuster beleuchteten zweiten Teilbereich der Umgebung der Kamera (6, 10) je zumindest teilweise enthält; und – Erkennen (730) des Objektes (4) in der Umgebung der Kamera (6, 10) durch Auswertung des eingelesenen Bildes.
  2. Verfahren (700) gemäß Anspruch 1, dadurch gekennzeichnet, dass im Schritt des Aussendens (710) ein veränderbares erstes Beleuchtungsmuster und/oder ein veränderbares zweites Beleuchtungsmuster ausgesandt werden.
  3. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass ein Schritt des Analysierens der Umgebung der Kamera (6, 10) unter Verwendung eines weiteren Bildes der Kamera (6, 10) vorgesehen ist, wobei im Schritt des Analysierens eine Struktur im ersten und/oder zweiten Teilbereich der Umgebung der Kamera (6, 10) erkannt wird und wobei im Schritt des Aussendens (710) ein erstes und/oder zweites Beleuchtungsmuster in Abhängigkeit von der erkannten Struktur ausgesandt wird.
  4. Verfahren (700) gemäß Anspruch 3, dadurch gekennzeichnet, dass im Schritt des Analysierens eine Struktur erkannt wird, die einen Kantenbereich aufweist in dem Bildkanten enthalten sind, die in einem gleichen Kantenabstand zueinander angeordnet sind, wobei im Schritt des Aussendens (710) das erste Beleuchtungsmuster derart ausgesandt wird, dass es den Kantenbereich beleuchtet, wobei das erste Beleuchtungsmuster derart ausgestaltet ist, dass es bei einem Auftreffen auf die Struktur im Kantenbereich einen Abstand von Beleuchtungsmusterstrukturen aufweist, der sich vom Kantenabstand unterscheidet.
  5. Verfahren (700) gemäß einem der Ansprüche 3 oder 4, dadurch gekennzeichnet, dass im Schritt des Analysierens ein drittes Beleuchtungsmuster im weiteren Bild erkannt wird, wobei im Schritt des Aussendens (710) ein sich vom dritten Beleuchtungsmuster unterscheidendes erstes und zweites Beleuchtungsmuster ausgesandt wird.
  6. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Aussendens ein erstes Beleuchtungsmuster ausgesandt wird, das bei einem Auftreffen auf das Objekt (4) in der Umgebung der Kamera Beleuchtungsmusterstrukturen aufweist, die sich mit Beleuchtungsmusterstrukturen überdecken, die bei einem Auftreffen des zweiten Beleuchtungsmusters auf das Objekt (4) in der Umgebung der Kamera (6, 10) entstehen.
  7. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Ausgebens (710) eine Polarisation eines Lichtes beeinflusst wird, das das erste und/oder zweite Beleuchtungsmuster bildet.
  8. Verfahren (700) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass im Schritt des Aussendens (710) das erste und/oder zweite Beleuchtungsmuster in einem optisch sichtbaren elektromagnetischen Wellenlängenbereich und/oder in einem Infrarot-Wellenlängenbereich ausgesandt wird.
  9. Vorrichtung (5, 6, 9), die ausgebildet ist, um die Schritte eines Verfahrens (700) gemäß einem der Ansprüche 1 bis 8 durchzuführen.
  10. Computer-Programmprodukt mit Programmcode zur Durchführung des Verfahrens (700) nach einem der Ansprüche 1 bis 8, wenn das Programm auf einer Vorrichtung (5, 6, 9) ausgeführt wird.
DE102011017707A 2011-04-28 2011-04-28 Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera Ceased DE102011017707A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102011017707A DE102011017707A1 (de) 2011-04-28 2011-04-28 Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102011017707A DE102011017707A1 (de) 2011-04-28 2011-04-28 Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera

Publications (1)

Publication Number Publication Date
DE102011017707A1 true DE102011017707A1 (de) 2012-10-31

Family

ID=47007561

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011017707A Ceased DE102011017707A1 (de) 2011-04-28 2011-04-28 Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera

Country Status (1)

Country Link
DE (1) DE102011017707A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013209436A1 (de) 2013-05-22 2014-11-27 Robert Bosch Gmbh Vorrichtung und Verfahren zum Erzeugen eines Beleuchtungsmusters
EP3147821A1 (de) * 2015-09-28 2017-03-29 Valeo Vision Beleuchtungssystem und -verfahren
DE102020117060A1 (de) 2020-06-29 2021-12-30 Audi Aktiengesellschaft Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006005231A1 (de) 2006-02-02 2007-08-16 Optotransmitter-Umweltschutz-Technologie E.V. Entfernungsbestimmung, vorzugsweise zur Sichtweitenbestimmung

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102006005231A1 (de) 2006-02-02 2007-08-16 Optotransmitter-Umweltschutz-Technologie E.V. Entfernungsbestimmung, vorzugsweise zur Sichtweitenbestimmung

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013209436A1 (de) 2013-05-22 2014-11-27 Robert Bosch Gmbh Vorrichtung und Verfahren zum Erzeugen eines Beleuchtungsmusters
EP3147821A1 (de) * 2015-09-28 2017-03-29 Valeo Vision Beleuchtungssystem und -verfahren
FR3041739A1 (fr) * 2015-09-28 2017-03-31 Valeo Vision Systeme et procede d'eclairage
US11320830B2 (en) 2019-10-28 2022-05-03 Deere & Company Probabilistic decision support for obstacle detection and classification in a working area
DE102020117060A1 (de) 2020-06-29 2021-12-30 Audi Aktiengesellschaft Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs
DE102020117060B4 (de) 2020-06-29 2022-05-05 Audi Aktiengesellschaft Vorrichtung und Verfahren zur Umfelderfassung eines Fahrzeugs

Similar Documents

Publication Publication Date Title
EP1589484B1 (de) Verfahren zur Erkennung und/oder Verfolgung von Objekten
DE60123936T2 (de) Einrichtung zum erkennen der anwesenheit von objekten
DE102010012811B4 (de) Verfahren zur Messung von Geschwindigkeiten und Zuordnung der gemessenen Geschwindigkeiten zu angemessenen Fahrzeugen durch Erfassen und Zusammenführen von Objekt-Trackingdaten und Bild-Trackingdaten
WO2002103385A1 (de) Verfahren zur bereitstellung von bildinformationen
EP1068992A2 (de) Rückfahrhilfe
DE102011054852A1 (de) Verfahren zur Erfassung und Bewertung einer Ebene
DE102019133642A1 (de) Digitales bildgebungssystem einschliesslich optischer plenoptik-vorrichtung und bilddaten-verarbeitungsverfahren zur erfassung von fahrzeughindernissen und gesten
WO2019114889A1 (de) 3d-umfelderfassung mittels projektion einer reihe pseudo-zufälligen mustern und stereo-kameramodulen
DE102010051602A1 (de) Verfahren zur Erfassung von Merkmalen in der Umgebung
EP1460454B1 (de) Verfahren zur gemeinsamen Verarbeitung von tiefenaufgelösten Bildern und Videobildern
DE102007013664A1 (de) Multisensorieller Hypothesen-basierter Objektdetektor und Objektverfolger
WO2011045277A1 (de) Kamerasystem
EP2306426A1 (de) Vorrichtung zur Detektion von Fahrzeugen auf einer Verkehrsfläche
WO2011051286A1 (de) Kamerasystem
DE102007022523A1 (de) Kraftfahrzeug
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
EP2579228A1 (de) Verfahren und System zur Erstellung einer digitalen Abbildung eines Fahrzeugumfeldes
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
EP1628141B1 (de) Triangulationsverfahren mit Laserdioden und einer Mono-Kamera zur Abstandsbestimmung für Stop-and-Go Anwendungen für Kraftfahrzeuge
DE102020121504A1 (de) Antriebssteuervorrichtung für ein autonom fahrendes Fahrzeug, Halteziel und Antriebssteuersystem
DE102005037094B3 (de) Kalibrierverfahren für einen Sensor zur Abstandsmessung
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102020201904A1 (de) LIDAR-Sensor und Verfahren zur optischen Erfassung eines Sichtfeldes
WO2023247302A1 (de) Verfahren zur ermittlung wenigstens einer korrekturfunktion für ein lidarsystem, lidar-system, fahrzeug mit wenigstens einem lidar-system, messanlage
CH702255A1 (de) Vorrichtung zur räumlichen Erfassung eines Objekts mittels optischer Abtastung.

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final